JP2001028765A - Transmission reception system and transmission reception method of three-dimensional video image - Google Patents

Transmission reception system and transmission reception method of three-dimensional video image

Info

Publication number
JP2001028765A
JP2001028765A JP11200735A JP20073599A JP2001028765A JP 2001028765 A JP2001028765 A JP 2001028765A JP 11200735 A JP11200735 A JP 11200735A JP 20073599 A JP20073599 A JP 20073599A JP 2001028765 A JP2001028765 A JP 2001028765A
Authority
JP
Japan
Prior art keywords
information
video
image
dimensional
material information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11200735A
Other languages
Japanese (ja)
Other versions
JP4250814B2 (en
Inventor
Tsukasa Yoshimura
司 吉村
Takeshi Hayakawa
健 早川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP20073599A priority Critical patent/JP4250814B2/en
Publication of JP2001028765A publication Critical patent/JP2001028765A/en
Application granted granted Critical
Publication of JP4250814B2 publication Critical patent/JP4250814B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate a three-dimensional video image specific to a viewer on the basis of video source information in response to the preference of the viewer selected among a plurality of video source information sets sent from a broadcast station and to provide a three-dimensional video image full of presence that is recognized by the eyes of a player played in a soccer playground or an actor/actress playing on a stage while a viewer is resident in its house. SOLUTION: The transmission reception system is provided at least with a transmission means 1 that transmits a plurality of video source information sets D1i prepared in advance to generate a three-dimensional video image from a transmitter side to a viewer side, a reception means 2A that receives the video source information D1i sent from the transmission means 1, a selection means 4 that selects optional video source information D1i received by the reception means 2A, and a video image generating means 6 that generates a three-dimensional video image on the basis of the video source information D1i selected by the selection means 4 and a viewer selects the video source information D1i.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、データ放送、音
声放送、テレビジョン放送を統合するISDB(Integ
rated Services Digital Broadcasting)サービスや
双方向サービス網を利用した次世代の3次元デジタル放
送システムなどに適用して好適な3次元映像の送受信シ
ステム及びその送受信方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an ISDB (Integ) for integrating data broadcasting, audio broadcasting, and television broadcasting.
The present invention relates to a 3D video transmission / reception system and a transmission / reception method suitable for a next-generation 3D digital broadcasting system using a rated services (Digital Broadcasting) service or an interactive service network.

【0002】詳しくは、放送局などから送られてきた複
数の映像素材情報に基づいて3次元映像を作成する映像
作成手段を受信側に設け、その複数の映像素材情報から
視聴者の好みに応じて選択された映像素材情報に基づい
て視聴者固有の3次元映像を作成できるようにすると共
に、自宅に居ながらにしてサッカー場でプレーする選手
や、舞台で演ずる役者などの視線により認識される臨場
感溢れた3次元映像を視聴できるようにしたものであ
る。
More specifically, an image creating means for creating a three-dimensional image based on a plurality of pieces of video material information sent from a broadcasting station or the like is provided on the receiving side, and the plurality of pieces of video material information are used in accordance with a viewer's preference. To create a viewer-specific 3D video based on the selected video material information, and to be recognized by the gaze of players playing on a soccer field or actors performing on the stage while staying at home. It is intended to allow the viewer to view a realistic 3D video.

【0003】[0003]

【従来の技術】従来から、放送局で作成された番組など
は、二次元の映像情報として1秒間に30フレーム分の
アナログ映像信号を視聴者側に送信する方式が採用され
ている。この方式では多くの映像情報を送信できないこ
とから、二次元の映像情報のデジタル信号に変調して放
送するデジタル放送システムが普及されつつある。
2. Description of the Related Art Conventionally, for a program created at a broadcasting station, a method of transmitting an analog video signal of 30 frames per second to a viewer side as two-dimensional video information has been adopted. Since a large amount of video information cannot be transmitted by this method, a digital broadcasting system for modulating a digital signal of two-dimensional video information and broadcasting the digital signal is becoming widespread.

【0004】近年では、データ放送、音声放送、テレビ
ジョン放送を統合するISDB(Integrated Service
s Digital Broadcasting)サービスも普及されてきて
いる。この種のISDBサービスによれば、複数の番組
を1画面内に「見出し画面」として表示し、この中から
視聴者の好みに応じた「天気予報」、「ニュース」、
「番組ガイド」、「映画」、「料理番組」、「スポーツ
番組」・・・をいつでも視聴できるようになされる。こ
れらの映像情報は放送局側から視聴者側へ多重化してデ
ジタル送信される。従って、受信側では自分の好きな番
組を選択して「天気予報」などをいつでも視聴すること
ができる。
In recent years, ISDBs (Integrated Services) for integrating data broadcasting, audio broadcasting, and television broadcasting have been developed.
s Digital Broadcasting) services have also become widespread. According to this type of ISDB service, a plurality of programs are displayed as a “headline screen” in one screen, and “weather forecast”, “news”,
"Program guide", "movie", "cooking program", "sports program", etc. can be viewed at any time. These pieces of video information are multiplexed from the broadcast station side to the viewer side and digitally transmitted. Therefore, the receiving side can select his favorite program and view "weather forecast" at any time.

【0005】[0005]

【発明が解決しようとする課題】ところで、従来方式の
デジタル放送システムによれば、放送局で作成された
「天気予報」、「ニュース」、「番組ガイド」、「映
画」、「料理番組」・・・などの二次元の映像情報を視
聴者がそのまま消極的に視聴するものである。
By the way, according to the conventional digital broadcasting system, "weather forecast", "news", "program guide", "movie", "cooking program" The viewer passively views the two-dimensional video information such as.

【0006】従って、視聴者が積極的に手がけた映像素
材情報に基づく視聴者固有の「スポーツ番組」などの3
次元映像を視聴することができない。例えば、サッカー
場でプレーする選手や、舞台で演ずる役者などの視線に
より認識される臨場感溢れた3次元映像を自宅に居なが
らにして視聴したいという要求があったときに、次のよ
うな問題がある。
[0006] Therefore, viewer-specific “sports programs” such as “sports programs” based on video material information that the viewer actively worked on.
I cannot watch 3D images. For example, when there is a request to watch a three-dimensional image with a sense of reality that is recognized by the eyes of players playing on a soccer field or actors performing on the stage while staying at home, the following problem occurs. There is.

【0007】 現行の多重放送システムでは、受信側
で立体映像加工に必要な映像素材情報を放送局で準備し
ていない。従って、放送局などから映像素材情報が送ら
れてこないので、視聴者の好みに応じた映像素材情報を
選択することができない。
In the current multiplex broadcasting system, the broadcasting station does not prepare video material information necessary for stereoscopic video processing on the receiving side. Therefore, since the video material information is not sent from the broadcast station or the like, it is not possible to select the video material information according to the preference of the viewer.

【0008】 これにより、視聴者の好みに応じた映
像素材情報に基づく視聴者固有の3次元映像を作成する
ことができない。従って、自宅に居ながらにしてサッカ
ー場でプレーする選手や、舞台で演ずる役者などの視線
により認識される臨場感溢れた3次元映像を視聴するこ
とができない。
As a result, it is not possible to create a viewer-specific three-dimensional video based on video material information according to the viewer's preference. Therefore, it is not possible to view a three-dimensional video with a sense of reality recognized by the eyes of players playing on the soccer field or actors performing on the stage while staying at home.

【0009】そこで、本発明は上記の課題に鑑み創作さ
れたものであり、放送局などの送信側から送られてくる
複数の映像素材情報の中から選択した視聴者の好みに応
じた映像素材情報に基づいて視聴者固有の3次元映像を
作成できるようにすると共に、自宅に居ながらにしてサ
ッカー場でプレーする選手や、舞台で演ずる役者などの
視線により認識される臨場感溢れた3次元映像を提供で
きるようにした3次元映像の送受信システム及びその送
受信方法を提供することを目的とする。
Accordingly, the present invention has been made in view of the above-described problems, and has been developed in consideration of a viewer's preference selected from a plurality of pieces of video material information transmitted from a transmitting side such as a broadcasting station. Ability to create viewer-specific 3D images based on information, as well as realistic 3D images recognized by the eyes of players playing on a soccer field or actors performing on the stage while at home. An object of the present invention is to provide a three-dimensional video transmission / reception system and a transmission / reception method capable of providing a video.

【0010】[0010]

【課題を解決するための手段】上述した課題は、少なく
とも、3次元映像を作成するために予め準備された複数
の映像素材情報を送信側から視聴者側へ送信する送信手
段と、その送信手段から送られてきた映像素材情報を受
信する受信手段と、この受信手段によって受信された映
像素材情報から任意の映像素材情報を選択する選択手段
と、この選択手段によって選択された映像素材情報に基
づいて3次元映像を作成する映像作成手段とを備え、映
像素材情報の選択は視聴者によって行われることを特徴
とする3次元映像の送受信システムによって解決され
る。
A transmitting means for transmitting at least a plurality of pieces of video material information prepared in advance to create a three-dimensional video from a transmitting side to a viewer side, and the transmitting means are provided. Receiving means for receiving the video material information sent from the device, selecting means for selecting arbitrary video material information from the video material information received by the receiving means, and selecting the video material information based on the video material information selected by the selecting means. And a video creating means for creating a three-dimensional video by using a video transmitting / receiving system, wherein selection of video material information is performed by a viewer.

【0011】本発明に係る3次元映像の送受信システム
によれば、少なくとも、3次元映像を作成するために予
め準備された複数の映像素材情報が送信手段によって送
信側から視聴者側へ送信されると、受信側では、送信手
段から送られてきた映像素材情報が受信手段によって受
信される。この受信手段によって受信された映像素材情
報から任意の映像素材情報が視聴者によって選択され
る。この際の映像素材情報の選択は選択手段を介して視
聴者により行われる。この選択手段によって選択された
映像素材情報に基づいて映像作成手段では3次元映像が
作成される。
According to the three-dimensional video transmission / reception system of the present invention, at least a plurality of pieces of video material information prepared in advance for creating a three-dimensional video are transmitted from the transmission side to the viewer side by the transmission means. On the receiving side, the video material information transmitted from the transmitting means is received by the receiving means. Any video material information is selected by the viewer from the video material information received by the receiving means. The selection of the video material information at this time is performed by the viewer via the selection means. The image creating means creates a three-dimensional image based on the image material information selected by the selecting means.

【0012】従って、予め送信側で準備された複数の映
像素材情報から視聴者の好みに応じて選択された映像素
材情報に基づいて視聴者固有の3次元映像を作成するこ
とができる。これにより、放送局から与えられた映像を
ただ消極的に視聴者がそのまま視聴するのではなく、視
聴者が積極的かつ独自に立体的に映像加工した3次元映
像を視聴することができる。
Therefore, it is possible to create a viewer-specific three-dimensional video based on video material information selected according to the viewer's preference from a plurality of video material information prepared in advance on the transmission side. As a result, the viewer can not only passively watch the video provided by the broadcasting station as it is, but also view the three-dimensional video that has been actively and uniquely stereoscopically processed.

【0013】本発明に係る3次元映像の送受信方法は、
少なくとも、3次元映像を作成するための複数の映像素
材情報を予め送信側で準備し、この送信側で準備された
映像素材情報をその送信側から個々の視聴者側へ送信
し、送信側から送られてきた映像素材情報を視聴者側で
受信し、視聴者側では映像素材情報から任意の映像素材
情報を選んで3次元映像を作成することを特徴とするも
のである。
[0013] A method for transmitting and receiving a three-dimensional image according to the present invention comprises:
At least, a plurality of video material information for preparing a three-dimensional video is prepared in advance on the transmission side, and the video material information prepared on the transmission side is transmitted from the transmission side to each viewer side, and from the transmission side, The viewer receives the transmitted video material information, and the viewer selects arbitrary video material information from the video material information to create a three-dimensional video.

【0014】本発明に係る3次元映像の送受信方法によ
れば、放送局から与えられた映像をただ消極的に視聴者
がそのまま視聴するのではなく、視聴者が積極的かつ独
自に立体的に映像加工した3次元映像を視聴することが
できる。従って、自宅に居ながらにしてサッカー場でプ
レーする選手や、舞台で演ずる役者などの視線により認
識される臨場感溢れた3次元映像を視聴することができ
る。これにより、次世代の3次元デジタル放送システム
などを構築することができる。
According to the method of transmitting and receiving a three-dimensional video according to the present invention, the viewer does not simply passively watch the video given from the broadcasting station, but the viewer actively and independently stereoscopically views the video. You can watch the processed 3D video. Therefore, it is possible to view a three-dimensional video with a sense of reality recognized by the eyes of players playing on the soccer field and actors performing on the stage while staying at home. This makes it possible to construct a next-generation three-dimensional digital broadcasting system or the like.

【0015】[0015]

【発明の実施の形態】以下、図面を参照しながら、この
発明の実施形態としての3次元映像の送受信システム及
びその送受信方法について説明をする。 (1)第1の実施形態 図1は本発明に係る実施形態としての3次元映像の送受
信システム100の構成例を示す斜視図である。この実
施形態では、放送局などから送られてきた複数の映像素
材情報に基づいて3次元映像を作成する映像作成手段を
設け、その複数の映像素材情報から視聴者の好みに応じ
て選択された映像素材情報に基づいて視聴者固有の3次
元映像を作成できるようにすると共に、自宅に居ながら
にしてサッカー場でプレーする選手や、舞台で演ずる役
者などの視線により認識される臨場感溢れた3次元映像
を提供できるようにしたものである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A three-dimensional video transmission / reception system and a transmission / reception method according to an embodiment of the present invention will be described below with reference to the drawings. (1) First Embodiment FIG. 1 is a perspective view showing a configuration example of a three-dimensional video transmission / reception system 100 as an embodiment according to the present invention. In this embodiment, a video creating means for creating a three-dimensional video based on a plurality of video material information sent from a broadcast station or the like is provided, and a video image is selected from the plurality of video material information according to a viewer's preference. Ability to create viewer-specific three-dimensional images based on video material information, as well as a sense of realism that is recognized by the eyes of players playing on a soccer field or actors performing on the stage while staying at home. A three-dimensional image can be provided.

【0016】図1に示す3次元映像の送受信システム1
00は、3次元デジタル放送システムなどに適用するた
めに少なくとも送信手段1を備えている。この送信手段
1は放送局などに設けられる。この例では予め準備され
た複数の映像素材情報D1i(i=1〜n)が送信手段
1を使用して送信側から視聴者側へ送信される。ここで
映像素材情報D1iとは3次元映像を作成するための情
報をいう。この例で映像素材情報D1iには、少なくと
も、映像の背景を表現する背景情報D11と、映像の背
景内で動く物体を表現する物体情報D12と、背景に対
する物体の初期の配置情報D13及び該物体の移動に伴
う位置情報D14と、物体の動作に伴う動作情報とが付
加される。これらの映像素材情報D1iは送信側で全て
準備してもよく、もちろん、映像素材情報D1iの一部
をCD−ROMなどの記憶媒体にして受信側で準備する
ようにしてもよい。例えば、サッカーゲームなどのサッ
カーゴールやフィールドをCD−ROMから読み出すよ
うになされる。
A three-dimensional video transmission / reception system 1 shown in FIG.
00 is provided with at least the transmission means 1 for application to a three-dimensional digital broadcasting system or the like. This transmitting means 1 is provided in a broadcasting station or the like. In this example, a plurality of video material information D1i (i = 1 to n) prepared in advance are transmitted from the transmission side to the viewer side using the transmission means 1. Here, the video material information D1i refers to information for creating a three-dimensional video. In this example, the video material information D1i includes at least background information D11 expressing the background of the video, object information D12 expressing an object moving in the background of the video, initial arrangement information D13 of the object with respect to the background, and the object The position information D14 associated with the movement of the object and the operation information associated with the operation of the object are added. All of the video material information D1i may be prepared on the transmission side, or, of course, a part of the video material information D1i may be prepared on a storage medium such as a CD-ROM and prepared on the reception side. For example, a soccer goal or a field of a soccer game or the like is read from a CD-ROM.

【0017】この送信手段1には多重化手段1Aが設け
られ、3次元映像を作成するための二以上の映像素材情
報D1iが多重化されて視聴者側に送信される。つま
り、映像素材情報D1iは多重情報となって送信側から
受信側へ複数のチャネルを使用して多重伝送される。例
えば、デジタルテレビ放送網、ケーブルテレビ通信回線
又はインターネット通信回線を使用して映像素材情報D
1iが視聴者側に伝送される。デジタルテレビ放送網に
は地上波回線及び衛星回線が含まれる。これらの多重伝
送媒体を総称し、以下で、ISDB(Integrated Ser
vice Digital Broad casting:)サービスという。
The transmitting means 1 is provided with a multiplexing means 1A. Two or more pieces of video material information D1i for creating a three-dimensional video are multiplexed and transmitted to the viewer. That is, the video material information D1i is multiplexed and multiplexed from the transmitting side to the receiving side using a plurality of channels. For example, using the digital television broadcasting network, cable television communication line or Internet communication line, the video material information D
1i is transmitted to the viewer side. Digital television broadcasting networks include terrestrial channels and satellite channels. These multiplex transmission media are collectively referred to as ISDB (Integrated Server).
This is called vice Digital Broadcasting :) service.

【0018】この例でISDBサービスに係るチャネル
の使用に伴う視聴者への料金設定に関しては、使用チャ
ネル数とチャネル使用時間に基づいて課金するとよい。
また、従量制を採る場合には、受信時間内における映像
素材情報の量に応じて視聴者に課金するようにするとよ
い。このチャネルの使用に伴う料金設定に関しては、視
聴者のみが対象となるとは限らない。例えば、テレビコ
マーシャルも3Dポリゴン映像によって作成することが
できるので、その場合には番組提供者(スポンサー)に
対して使用チャネル数とチャネル使用時間に基づいて課
金するようになされる。この際の料金設定に関しては、
3Dコマーシャル映像の送信時間内における映像素材情
報の量に応じて番組提供者に課金するとよい。
[0018] In this example, with regard to the setting of the fee for the viewer accompanying the use of the channel related to the ISDB service, it is preferable to charge based on the number of channels used and the channel usage time.
When the pay-as-you-go system is adopted, the viewer may be charged according to the amount of the video material information within the reception time. Regarding the fee setting associated with the use of this channel, not only the viewer is targeted. For example, a television commercial can also be created from a 3D polygon image. In this case, a fee is charged to a program provider (sponsor) based on the number of channels used and the channel usage time. For pricing at this time,
The program provider may be charged according to the amount of video material information within the transmission time of the 3D commercial video.

【0019】この例では映像素材情報D1iは動画像圧
縮基準であるMPEG−4(Moving Picture Expert
s Group−4)のデータ系列を持ったデータストリーム
にして送信される。これは限られたチャネルに多くの映
像素材情報D1iを効率良く伝送するためである。チャ
ネルは映像の背景の数量だけ予め準備される。これは映
像の背景を基準にすることで、全てのチャネルを効率良
く使用できるからである。この例では、送信側から受信
側へ複数のチャネルを使用して映像素材情報D1iを伝
送する場合であって、その複数のチャネルに映像素材情
報D1iが割り振られる。例えば、動作情報D15と、
その他の背景情報D11、物体情報D12、配置情報D
13及び位置情報D14とは別々のチャネルに割り振ら
れる。この場合に、動作情報D15は実時間で送信さ
れ、物体情報D12、配置情報D13及び位置情報D1
4は次の映像の背景情報D11と共に送信される。
In this example, the video material information D1i is based on the moving picture compression standard MPEG-4 (Moving Picture Expert).
s Group-4) A data stream having a data series is transmitted. This is for efficiently transmitting a large amount of video material information D1i to a limited channel. The channels are prepared in advance by the quantity of the background of the image. This is because all channels can be used efficiently by using the background of the video as a reference. In this example, the video material information D1i is transmitted from the transmission side to the reception side using a plurality of channels, and the video material information D1i is allocated to the plurality of channels. For example, operation information D15,
Other background information D11, object information D12, arrangement information D
13 and the position information D14 are allocated to different channels. In this case, the operation information D15 is transmitted in real time, and the object information D12, the arrangement information D13, and the position information D1 are transmitted.
4 is transmitted together with the background information D11 of the next video.

【0020】更に、上述したチャネルの1つを使用して
通常のテレビ放送に係る二次元の映像情報を伝送した
り、スポーツ選手や役者などの被写体から見た視点映像
情報を映像素材情報D1iとしてチャネルの1つを使用
して受信側に伝送するようになされる。その際に、被写
体が映像の背景内に複数存在する場合には、被写体の視
点映像情報毎にチャネルが割り当てられる。このように
構成すると、被写体から見た視点映像と予め準備された
合成画像とを受信側で合成することができる。
Further, two-dimensional video information relating to ordinary television broadcasting is transmitted using one of the above-described channels, and viewpoint video information viewed from a subject such as an athlete or an actor is used as video material information D1i. It is adapted to transmit to the receiver using one of the channels. At this time, when there are a plurality of subjects in the background of the video, a channel is assigned to each viewpoint video information of the subject. With this configuration, the receiving side can combine the viewpoint video viewed from the subject with the prepared composite image.

【0021】この例では、映像の1場面を構成する映像
素材情報D1iが膨大な量となる場合には、チャネルを
増加して映像素材情報D1iを分割して受信側に送信す
るようにしてもよい。又は、分割した映像素材情報D1
iを受信側に送信している期間に、残余のチャネルを使
用して他の映像素材情報D1iを受信側に送信するよう
にしてもよい。これは、ある映像のラストシーンなどに
おいて背景情報D11が膨大になる場合があることによ
る。
In this example, if the amount of video material information D1i constituting one scene of video becomes enormous, the number of channels is increased and the video material information D1i is divided and transmitted to the receiving side. Good. Or, divided video material information D1
The other video material information D1i may be transmitted to the receiving side using the remaining channels during the period when i is being transmitted to the receiving side. This is because the background information D11 may be enormous in the last scene of a certain video or the like.

【0022】一方、視聴者(受信)側には受信手段2A
が設けられ、放送局などの送信手段1から送られてきた
映像素材情報D1iが受信される。受信手段2Aには情
報分離手段2Aが設けられ、送信手段1から送られてき
た多重化情報から二以上の映像素材情報D1iが分離さ
れる。この受信手段2Aには記憶手段3が接続され、映
像素材情報D1iを一時記録するようになされる。記憶
手段3には上述した背景情報D11に見合う分のメモリ
容量が備えられる。これは背景情報D11が映像の1場
面の背景を表現するものであることによる。
On the other hand, on the viewer (receiving) side, receiving means 2A
Is provided, and receives the video material information D1i sent from the transmitting means 1 such as a broadcasting station. The receiving unit 2A is provided with an information separating unit 2A, and separates two or more pieces of video material information D1i from the multiplexed information transmitted from the transmitting unit 1. The storage means 3 is connected to the receiving means 2A so as to temporarily record the video material information D1i. The storage unit 3 has a memory capacity corresponding to the background information D11 described above. This is because the background information D11 expresses the background of one scene of the video.

【0023】この例では映像素材情報D1iの中で、頻
繁に使用される3次元の映像情報に関しては、送信側に
おいて、当該映像の初期画面を表示する期間又は2次元
の映像情報の中で宣伝画面を表示する期間に全てのチャ
ネルに割り当てて送信される。これを受けた受信側では
これらの期間中に取得した3次元の映像情報が記憶手段
3に記憶される。
In this example, the frequently used three-dimensional video information in the video material information D1i is advertised on the transmitting side during the period of displaying the initial screen of the video or in the two-dimensional video information. All the channels are allocated and transmitted during the period during which the screen is displayed. On the receiving side receiving this, the three-dimensional video information acquired during these periods is stored in the storage means 3.

【0024】例えば、背景情報D11、物体情報D1
2、配置情報D13、位置情報D14及び動作情報D1
5の一群のデータ取り込みが終了すると、他群のデータ
取り込みのために受信側で当該チャネルを明け渡すよう
になされる。このように構成すると、受信側では3次元
の映像素材情報D1iを予め取得できるし、送信側では
効率良く映像素材情報D1iを送信することができる。
For example, background information D11, object information D1
2, arrangement information D13, position information D14, and operation information D1
When the data acquisition of one group is completed, the channel is surrendered on the receiving side for data acquisition of the other group. With this configuration, the receiving side can acquire the three-dimensional video material information D1i in advance, and the transmitting side can efficiently transmit the video material information D1i.

【0025】この映像素材情報D1iに関しては映像の
背景情報D11に変化があるものも変化がないものも全
てを送信側から受信側へ送信されてくるので、受信側で
はすぐに使用しない背景情報D11に関しては記憶手段
3に一時記憶される。また、送信側から受信側へ送られ
たきた2次元及び3次元の映像情報を含む映像素材情報
D1iを受信する場合に、最初の3次元の映像情報は当
該映像の初期画面を表示する期間又は2次元の映像情報
の中で宣伝画面を表示する期間に取得される。これは限
られたチャネルに多重されてくる映像素材情報D1iを
効率良く受信するためである。
With respect to the video material information D1i, both the background information D11 of the video and the video information with no change are transmitted from the transmitting side to the receiving side, so that the background information D11 which is not used immediately on the receiving side. Is temporarily stored in the storage means 3. Further, when receiving the video material information D1i including the two-dimensional and three-dimensional video information sent from the transmission side to the reception side, the first three-dimensional video information is a period during which the initial screen of the video is displayed or It is acquired during the period when the advertisement screen is displayed in the two-dimensional video information. This is to efficiently receive the video material information D1i multiplexed on a limited channel.

【0026】また、映像の1場面を構成する映像素材情
報D1iが、ラストシーンなどにおいて背景情報D11
が膨大な量となる場合には、余っているチャネルを使用
して映像素材情報D1iが分割して送られてくるので、
受信側では上述の期間中に取得したその映像素材情報D
1iを記憶手段3に一時記憶するようになされる。この
構成により、大量の映像素材情報D1iを効率良く受信
側で受信することができる。
Further, the video material information D1i constituting one scene of the video includes background information D11 in the last scene or the like.
Is enormous, the video material information D1i is divided and sent using the surplus channel.
On the receiving side, the video material information D obtained during the above period
1i is temporarily stored in the storage means 3. With this configuration, a large amount of video material information D1i can be efficiently received on the receiving side.

【0027】この記憶手段3には選択手段4が接続さ
れ、受信された映像素材情報D1iから任意の映像素材
情報D1iを選択するようになされる。映像素材情報D
1iの選択は視聴者によって行われる。そのため選択手
段4には押しボタンスイッチやジョグダイヤルなどの操
作手段5が接続され、視聴者の好みに応じた映像素材情
報D1iが選択できるようになされる。この例では操作
手段5を操作することにより得られる操作情報D2に基
づいて映像素材情報D1iに関する映像の背景又は物体
の動きが変更される。
The storage means 3 is connected to a selection means 4 for selecting arbitrary video material information D1i from the received video material information D1i. Video material information D
The selection of 1i is made by the viewer. Therefore, operation means 5 such as a push button switch and a jog dial are connected to the selection means 4, so that the video material information D1i according to the viewer's preference can be selected. In this example, the background of the video or the motion of the object related to the video material information D1i is changed based on the operation information D2 obtained by operating the operation unit 5.

【0028】この例で映像素材情報D1iが送信側で準
備される場合であって、この映像素材情報D1iに関し
て、1画面を構成する3次元映像を「粗」に再生する粗
再生モード又は「密」に再生する密再生モードのいずれ
かを受信側で選択するようにしてもよい。上述した従量
制が採られる場合に、粗再生モードを選択すると、受信
時間内における映像素材情報D1iの量が、密再生モー
ドに比べて少なくなることから、視聴者にとって低料金
となる。
In this example, the video material information D1i is prepared on the transmitting side, and with respect to the video material information D1i, a coarse reproduction mode for reproducing three-dimensional video constituting one screen in a “coarse” or “dense” mode. , The receiving side may select any of the dense reproduction modes for reproducing the data. When the coarse playback mode is selected in the case where the above-mentioned pay-as-you-go system is adopted, the amount of the video material information D1i within the reception time is smaller than that in the dense playback mode, so that the fee is low for the viewer.

【0029】この選択手段4には映像作成手段6が接続
され、視聴者によって選択された映像素材情報D1iに
基づいて3次元映像が作成される。例えば、映像作成手
段6では映像素材情報D1iに基づいて3次元映像の基
礎となるステレオ画像を作成するようになされたり、3
次元の映像情報を作成するソフトウエアにより仮想空間
を表現するようになされる。その際の3D次元表現フォ
ッマットにはVRML(Vertual Reality Modeling
Language)方式を採用してもよい。
An image creating means 6 is connected to the selecting means 4, and creates a three-dimensional image based on the image material information D1i selected by the viewer. For example, the image creating means 6 creates a stereo image as a basis of a three-dimensional image based on the image material information D1i.
The virtual space is represented by software for creating two-dimensional video information. At this time, the format is VRML (Virtual Reality Modeling).
(Language) method.

【0030】この映像作成手段6には液晶ディスプレ
イ、CRTモニタ又は合成手段(以下でグラストロンと
もいう)などの図示しない表示手段が接続され、3次元
映像が表示される。このグラストロンには視聴者の目の
動きを検出する機構が設けられる場合がある。その場合
には、視聴者の視点位置を検出した情報(以下視点位置
検出情報という)D3に基づいて映像の中の物体の動き
を変更するようになされる。例えば、映像の1画面の背
景を表示する期間内に受信側に送信された物体の複数の
動作情報D15と、グラストロンによる視点位置検出情
報D3とに基づいて映像の中の物体の動きを変更するよ
うな表示制御が行われたり、その動作情報D15と、操
作手段5による操作情報D2とに基づいて映像の中の物
体の動きを変更するような表示制御が行われる。
A display means (not shown) such as a liquid crystal display, a CRT monitor, or a synthesizing means (hereinafter also referred to as glasstron) is connected to the image creating means 6, and a three-dimensional image is displayed. The glasstron may be provided with a mechanism for detecting a viewer's eye movement. In this case, the motion of the object in the video is changed based on information (hereinafter referred to as viewpoint position detection information) D3 that has detected the viewpoint position of the viewer. For example, the motion of the object in the video is changed based on a plurality of pieces of motion information D15 of the object transmitted to the receiving side during a period in which the background of one screen of the video is displayed and the viewpoint position detection information D3 by the glasstron. Such display control is performed, or display control is performed to change the motion of an object in the video based on the operation information D15 and the operation information D2 from the operation unit 5.

【0031】また、映像素材情報D1iに係る映像の背
景又は物体の動きの変更は、一定のサイクルタイム内に
割り込みが発生した場合によっても行われる。このサイ
クルタイム内の割り込み以外はデフォルトの3次元の映
像情報に基づく映像が表示される。これにより、双方向
テレビジョンの三次元版を構築することができる。
Further, the change of the background or the motion of the object related to the image material information D1i is also performed when an interrupt occurs within a certain cycle time. Except for the interruption within this cycle time, an image based on the default three-dimensional image information is displayed. Thus, a three-dimensional version of the interactive television can be constructed.

【0032】続いて、本実施形態に係る3次元映像の送
受信方法について、当該送受信システム100の処理例
について説明をする。この例では、映像素材情報D1i
が送信側で全て準備される場合を想定する。もちろん、
映像素材情報D1iの一部をCD−ROM79などの記
憶媒体にして受信側で準備するようにしてもよい。
Next, a description will be given of a processing example of the transmission / reception system 100 in the method of transmitting / receiving a three-dimensional video according to the present embodiment. In this example, the video material information D1i
It is assumed that all are prepared on the transmission side. of course,
A part of the video material information D1i may be stored on a storage medium such as the CD-ROM 79 and prepared on the receiving side.

【0033】まず、図2に示すフローチャートのステッ
プA1で3次元映像を作成するための複数の映像素材情
報D1iが予め放送局などの送信側で準備される。映像
素材情報D1iには、舞台やスポーツ競技場などの映像
の背景を表現する背景情報D11と、映像の背景内で動
く役者やスポーツ選手などの物体を表現する物体情報D
12と、背景に対する物体の初期の配置情報D13及び
その物体の移動に伴う位置情報D14と、物体の動作に
伴う動作情報D15とが付加される。
First, in step A1 of the flowchart shown in FIG. 2, a plurality of pieces of video material information D1i for creating a three-dimensional video are prepared in advance on the transmitting side such as a broadcasting station. The video material information D1i includes background information D11 representing the background of a video such as a stage or a sports stadium, and object information D representing an object such as an actor or athlete moving in the background of the video.
12, the initial arrangement information D13 of the object with respect to the background, the position information D14 associated with the movement of the object, and the operation information D15 associated with the operation of the object.

【0034】その後、送信側で準備された映像素材情報
D1iがステップA2で送信手段1によって多重化され
た後に送信側から個々の視聴者側へ送信される。この際
に、デジタルテレビ放送網、ケーブルテレビ通信回線又
はインターネット通信回線を使用して映像素材情報D1
iが視聴者側に伝送される。この例では映像素材情報D
1iは動画像圧縮基準であるMPEG−4のデータ系列
を持ったデータストリームにして受信側に伝送される。
Thereafter, the video material information D1i prepared on the transmitting side is multiplexed by the transmitting means 1 in step A2, and then transmitted from the transmitting side to each viewer. At this time, the video material information D1 is transmitted using a digital TV broadcast network, a cable TV communication line, or an Internet communication line.
i is transmitted to the viewer side. In this example, video material information D
1i is transmitted to the receiving side as a data stream having a data sequence of MPEG-4 which is a moving image compression standard.

【0035】そして、送信側から送られてきた映像素材
情報D1iはステップA3で視聴者側において、例え
ば、3Dポリゴン受信装置などを使用して受信される。
この3Dポリゴン受信装置については実施例で説明をす
る。視聴者側では映像素材情報D1iから任意の映像素
材情報D1iがステップA4で選択手段4を介して選択
される。この際の映像素材情報D1iの選択は操作手段
5を使用して視聴者により行われる。この操作手段5に
よって選択された映像素材情報D1iに基づいて映像作
成手段6では3次元映像が作成される。
Then, the video material information D1i sent from the transmitting side is received by the viewer side in step A3 using, for example, a 3D polygon receiving device.
This 3D polygon receiving apparatus will be described in an embodiment. On the viewer side, arbitrary video material information D1i is selected from the video material information D1i via the selection means 4 in step A4. At this time, the selection of the video material information D1i is performed by the viewer using the operation unit 5. Based on the video material information D1i selected by the operation unit 5, the video generation unit 6 generates a three-dimensional video.

【0036】従って、予め送信側で準備された複数の映
像素材情報D1iから視聴者の好みに応じて選択された
映像素材情報D1iに基づいて視聴者固有の3次元映像
を作成することができる。これにより、放送局から与え
られた映像をただ消極的に視聴者がそのまま視聴するの
ではなく、視聴者が積極的かつ独自に立体的に映像加工
した3次元映像を視聴することができる。これにより、
自宅に居ながらにしてサッカー場でプレーする選手や、
舞台で演ずる役者などの視線により認識される臨場感溢
れた3次元映像を視聴することができる。また、ISD
Bサービスを利用した次世代の3次元デジタル放送シス
テムなどを構築することができる。
Therefore, a viewer-specific three-dimensional video can be created based on the video material information D1i selected according to the viewer's preference from the plurality of video material information D1i prepared in advance on the transmission side. As a result, the viewer can not only passively watch the video provided by the broadcasting station as it is, but also view the three-dimensional video that has been actively and uniquely stereoscopically processed. This allows
Players who play at the soccer field while staying at home,
It is possible to view a three-dimensional image full of a sense of reality recognized by the eyes of actors performing on the stage. Also, ISD
A next-generation three-dimensional digital broadcasting system using the B service can be constructed.

【0037】(2)第1の実施例 図3は各実施例に係る3Dポリゴン放送システム200
の構成例を示すブロック図である。この例では放送局か
ら衛星回線を介して送られてきた複数の映像素材情報D
1iに基づいて3次元映像を作成する3Dポリゴン受信
装置202を設け、その複数の映像素材情報D1iから
視聴者の好みに応じて選択された映像素材情報に基づい
て視聴者固有の3次元映像を作成できるようにしたもの
である。
(2) First Embodiment FIG. 3 shows a 3D polygon broadcasting system 200 according to each embodiment.
FIG. 3 is a block diagram illustrating a configuration example of FIG. In this example, a plurality of video material information D transmitted from a broadcast station via a satellite line
3i, a 3D polygon receiving device 202 for creating a three-dimensional video based on the video material information D1i. It can be created.

【0038】第1の実施例では、特殊グラストロン20
3を装着した視聴者において、舞台で演ずる役者などの
視線により認識される背景を3Dポリゴンで構成される
「森」や「芝生」に置き換え、その「芝生」上に役者の
3次元映像を表示できるようにしたものである。
In the first embodiment, the special glasstron 20 is used.
In a viewer wearing 3 the background recognized by the line of sight of actors performing on the stage is replaced with a "forest" or "lawn" composed of 3D polygons, and a 3D image of the actor is displayed on the "lawn" It is made possible.

【0039】図3に示す3Dポリゴン放送システム20
0は3Dポリゴン送信装置201、3Dポリゴン受信装
置202、特殊グラストロン203及びモニタ204を
備えている。3Dポリゴン送信装置201は送信手段1
の一例であり、放送局などに設置される。
The 3D polygon broadcasting system 20 shown in FIG.
Reference numeral 0 includes a 3D polygon transmitting device 201, a 3D polygon receiving device 202, a special glasstron 203, and a monitor 204. The 3D polygon transmitting device 201 is a transmitting unit 1
Is installed in a broadcasting station or the like.

【0040】この放送システム200では3次元映像を
作成するために予め準備された、例えば、「ロミオとジ
ュリエット」の舞台中継に係るお城の背景、主人公とし
ての男女の役者、この役者の動きなどの映像素材情報D
1iが3Dポリゴン送信装置201によって放送局側か
ら、衛星回線を通じて視聴者の所持する3Dポリゴン受
信装置202へ送信される。受信側では、放送局から送
られてきた映像素材情報D1iが3Dポリゴン受信装置
202によって受信される。3Dポリゴン受信装置20
2によって受信された映像素材情報D1iから任意の映
像素材情報D1iが視聴者によって選択されると、その
選択された映像素材情報に基づいて視聴者の好みに合っ
た3次元映像が作成される。
In this broadcasting system 200, for example, the background of a castle related to the stage broadcast of "Romeo and Juliet" prepared in advance to create a three-dimensional image, male and female actors as main characters, movement of the actors, etc. Video material information D
1i is transmitted by the 3D polygon transmitting apparatus 201 from the broadcasting station side to the 3D polygon receiving apparatus 202 possessed by the viewer via a satellite line. On the receiving side, the video material information D1i sent from the broadcast station is received by the 3D polygon receiving device 202. 3D polygon receiver 20
When the viewer selects any of the video material information D1i from the video material information D1i received by the user 2, a three-dimensional video that matches the viewer's preference is created based on the selected video material information.

【0041】この3Dポリゴン受信装置202では特殊
グラストロン203やテレビモニタ204などの表示手
段が使用され、3次元の映像が表示される。この例でテ
レビモニタ204には、客席から舞台を見ている二次元
映像が表示される他、特殊グラストロン203を装着し
た視聴者には、3Dポリゴン10で構成される「森」や
「芝生」上に役者が存在するような3次元映像を表示す
ることができる。
In the 3D polygon receiving apparatus 202, display means such as a special glasstron 203 and a television monitor 204 are used to display a three-dimensional image. In this example, the television monitor 204 displays a two-dimensional image of the stage viewed from the audience seats, and a viewer wearing the special glasstron 203 can display a “forest” or a “lawn” composed of the 3D polygon 10. Can be displayed such that an actor exists on the screen.

【0042】図4に示す3Dポリゴン送信装置201に
は音声映像取得装置211が設けられ、舞台やサッカー
場などの番組中継対象から音声及び映像素材情報D1i
が取得される。音声映像取得装置211には、ビデオカ
メラ、ステレオカメラ、マイクロフォン及びレンジファ
インダなどが使用される。ビデオカメラで映像素材情報
D1iを取得する例については図6及び図7で説明す
る。
The 3D polygon transmission device 201 shown in FIG. 4 is provided with an audio / video acquisition device 211, which outputs audio and video material information D1i from a program relay target such as a stage or a soccer field.
Is obtained. As the audio / video acquisition device 211, a video camera, a stereo camera, a microphone, a range finder, and the like are used. An example in which the video material information D1i is obtained by the video camera will be described with reference to FIGS.

【0043】この種の映像素材情報D1iに関してレン
ジファインダで取得する例については、図40〜図45
で説明する。また、映像素材情報D1iに関して、撮像
可能な任意の物体の特定の面に、点滅パターンが異なる
複数の光源を取付け、その点滅パターンの異なった光源
を所定の撮像方向に流すように撮像し、そこで撮像され
た光源の輝度情報を画像処理して光源の各々の位置情報
を求めることにより物体の位置情報D14を得るように
してもよい。
FIGS. 40 to 45 show an example in which this type of video material information D1i is acquired by a range finder.
Will be described. Further, with respect to the video material information D1i, a plurality of light sources having different blinking patterns are attached to a specific surface of an arbitrary imageable object, and the light sources having different blinking patterns are imaged so as to flow in a predetermined imaging direction. The position information D14 of the object may be obtained by obtaining the position information of each of the light sources by performing image processing on the luminance information of the imaged light source.

【0044】例えば、ロミオやジュリエットを演ずる役
者の衣装、靴、手袋、イヤリング、ネックレス、王冠な
どの装飾品に点滅パターンが異なる複数の光源を取付
け、その点滅パターンの異なった光源を所定の撮像方向
に流すように撮像し、そこで撮像された光源の輝度情報
を画像処理して光源の各々の位置情報を求めることによ
り、ロミオやジュリエットの位置情報D14を得るよう
にする。この応用例については第2の実施例で説明す
る。
For example, a plurality of light sources having different blinking patterns are attached to ornaments such as costumes, shoes, gloves, earrings, necklaces, and crowns of actors who play Romeo and Juliet, and light sources having different blinking patterns are set in predetermined imaging directions. The position information D14 of Romeo and Juliet is obtained by obtaining the position information of each of the light sources by performing image processing on the luminance information of the light source taken there. This application example will be described in a second embodiment.

【0045】この映像素材情報D1iに関しては、放送
局側から視聴者側へ伝送するデータを低減するために、
CD−ROM79などの記憶媒体に記録したものを受信
側で予め準備するようにしてもよい。例えば、サッカー
ゴールやフィールドに係る3D映像情報をCD−ROM
79から読み出すようになされる。この例については第
2の実施例で説明する。
Regarding this video material information D1i, in order to reduce the data transmitted from the broadcast station side to the viewer side,
What is recorded on a storage medium such as the CD-ROM 79 may be prepared in advance on the receiving side. For example, a 3D image information relating to a soccer goal or a field is stored on a CD-ROM.
79 is read. This example will be described in a second embodiment.

【0046】この音声映像取得装置211にはコンピユ
ータ212が接続され、コンピユータ212で加工形成
された、「森」、「海」、「芝生」や「砂浜」などのコ
ンピユータグラフィックデータ(以下CGデータとい
う)D4が供給される場合もある。また、音声映像取得
装置211で3DTVゲームや3D映画などのデータも
取り扱うようにしてもよい。
A computer 212 is connected to the audio / video acquisition device 211, and computer graphic data (hereinafter referred to as CG data) such as "forest", "sea", "lawn" and "sandy beach" formed by the computer 212. ) D4 may be supplied. Further, the audio / video acquisition device 211 may handle data such as a 3D TV game and a 3D movie.

【0047】この音声映像取得装置211には各種情報
を符号化するために音声符号化部213、映像符号化部
214及びデータ符号化部215が接続される。音声符
号化部213では役者や効果音などの音声が符号化さ
れ、音声符号化信号が発生される。映像符号化部214
では1番組を構成する、例えば、舞台装置40の背景、
物体の映像に係る背景情報D11、物体情報D12、配
置情報D13、位置情報D14及び動作情報D15など
の画像素材情報D1iが符号化され、映像符号化信号が
発生される。データ符号化部215ではCGデータD4
が符号化され、CGデータ符号化信号が発生される。
The audio / video acquisition device 211 is connected with an audio encoding unit 213, a video encoding unit 214, and a data encoding unit 215 for encoding various information. The audio encoding unit 213 encodes audio such as actors and sound effects, and generates an encoded audio signal. Video encoding unit 214
Then, one program is composed, for example, the background of the stage device 40,
Image material information D1i such as background information D11, object information D12, arrangement information D13, position information D14, and motion information D15 relating to the video of the object is encoded, and a video encoded signal is generated. The data encoding unit 215 generates the CG data D4
Are encoded, and a CG data encoded signal is generated.

【0048】また、音声符号化部213、映像符号化部
214及びデータ符号化部215の出力には多重化手段
1Aが接続され、音声符号化信号、映像符号化信号及び
CGデータ符号化信号などの多種多様なサービスが多重
化され、複数のトランスポートストリームパケットTS
j(j=1〜m)が発生される。この例では、1番組を
構成する符号化信号(映像素材情報D1i)はMPEG
−4のデータ系列のビットストリームになるように符号
化される。MPEG−4による符号化方法については図
5で説明する。もちろん、MPEG−4の他にMPEG
−2で規定される188バイト長のトランスポートスト
リーム(TS)パケットのペイロード部に多重してもよ
い。
Multiplexing means 1A is connected to the outputs of the audio encoding unit 213, the video encoding unit 214, and the data encoding unit 215, and outputs audio encoded signals, video encoded signals, CG data encoded signals, and the like. Are multiplexed, and a plurality of transport stream packets TS
j (j = 1 to m) is generated. In this example, an encoded signal (video material information D1i) constituting one program is MPEG
-4 is encoded so as to become a data stream bit stream. The encoding method according to MPEG-4 will be described with reference to FIG. Of course, in addition to MPEG-4, MPEG
-2 may be multiplexed in the payload portion of a 188-byte transport stream (TS) packet specified.

【0049】この多重化手段1Aの出力には伝送路符号
化部216が接続され、トランスポートストリームTS
jの合成、TMCC(Transmission & Multiplexing
Configuration Cording)生成、誤り訂正及び変調な
どが行われる。例えば、伝送路符号化部216に、受信
機への制御情報となる所定のTMCC情報が入力される
と、このTMCC情報に基づいてTMCC信号が生成さ
れる。TMCC信号は一方で符号化されてTMCC伝送
符号となる。
A transmission path encoding unit 216 is connected to the output of the multiplexing means 1A, and the transport stream TS
j, TMCC (Transmission & Multiplexing)
Configuration Coding) generation, error correction and modulation are performed. For example, when predetermined TMCC information serving as control information for a receiver is input to the transmission path coding unit 216, a TMCC signal is generated based on the TMCC information. The TMCC signal is coded on the one hand to become a TMCC transmission code.

【0050】他方で、TMCC信号に基づいてトランス
ポートストリームTSjが所定の順序に合成されると共
に、リードソロモン符号などの外符号誤り訂正符号が付
加される。その後、TMCC信号に基づいて伝送フレー
ムが構成された後に、エネルギー拡散される。このエネ
ルギー拡散は「0」又は「1」の信号が連続し変調後の
スペクトルが集中するのを防ぐための処理である。エネ
ルギー拡散された符号化信号はインターリーブ処理され
る。この処理は伝送路で発生するバースト状の誤りを分
散させて誤り訂正能力を高めるためである。その後、イ
ンターリーブ処理された符号化信号はTMCC伝送符号
に基づいて内符号誤り訂正符号が付加される。
On the other hand, the transport stream TSj is synthesized in a predetermined order based on the TMCC signal, and an outer code error correction code such as a Reed-Solomon code is added. Then, after a transmission frame is formed based on the TMCC signal, energy is spread. This energy diffusion is a process for preventing the “0” or “1” signal from continuing and the spectrum after modulation from being concentrated. The energy-spread coded signal is interleaved. This process is for dispersing the burst-like errors generated in the transmission path to enhance the error correction capability. Thereafter, an inner code error correction code is added to the interleaved coded signal based on the TMCC transmission code.

【0051】更に、伝送路符号化部216の出力には送
信機217が接続され、内符号誤り訂正符号が付加され
た符号化信号がバースト信号によってデジタル変調され
る。この変調方式には高能率なTC8PSK(トレリス
符号化8相位相変調:符号化率2/3)方式が採用さ
れ、34.5MHz帯域幅が使用される。伝送誤りに対
して強いQPSK(4相位相変調:パンクチャド畳込み
符号化率1/2、2/3、3/4、5/6、7/8)や
BPSK(2相位相変調:1/2)もTC8PSKと時
分割に使用してもよい。TC8PSK変調されたデジタ
ル信号は衛星回線を通じて視聴者の受信装置に向けて発
信される。
Further, a transmitter 217 is connected to the output of the transmission path coding unit 216, and the coded signal to which the inner code error correction code is added is digitally modulated by the burst signal. As this modulation method, a high-efficiency TC8PSK (Trellis-coded 8-phase modulation: coding rate 2/3) method is used, and a 34.5 MHz bandwidth is used. QPSK (quadrature phase modulation: punctured convolutional coding rate 1/2, 2/3, 3/4, 5/6, 7/8) or BPSK (binary phase modulation: 1 / 2) may also be used for time division with TC8PSK. The TC8PSK-modulated digital signal is transmitted to a viewer's receiving device via a satellite line.

【0052】ここで、映像素材情報D1iをMPEG−
4で符号化する場合を説明する。図5に示すビデオエン
コーダ300は入力端子313及び出力端子314を有
している。入力端子313には動き補償部301、形状
符号部302及び減算器303が接続されている。
Here, the video material information D1i is stored in the MPEG-
4 will be described. The video encoder 300 shown in FIG. 5 has an input terminal 313 and an output terminal 314. The input terminal 313 is connected to the motion compensator 301, the shape encoder 302, and the subtractor 303.

【0053】この動き補償部301では映像素材情報D
1iに基づく映像のフレーム間の動き画像を補償するた
めに時間方向の冗長度が削減される。つまり、動き補償
部301では映像の動きをフレーム間で予測するための
予測信号が発生される。この予測制御信号S10は形状
符号部302及び後述する双方向予測メモリP3に出力
される。
In the motion compensating unit 301, the video material information D
In order to compensate for a motion image between frames of a video based on 1i, the redundancy in the time direction is reduced. That is, the motion compensation unit 301 generates a prediction signal for predicting the motion of the video between frames. The prediction control signal S10 is output to the shape encoding unit 302 and a bidirectional prediction memory P3 described later.

【0054】この形状符号部302では映像素材情報D
1iに基づく映像の動き形状を予測制御信号S10に基
づいて符号化した後に、動き形状信号S2が発生され
る。減算器303では映像素材情報D1iに基づく現在
映像と逆方向予測(過去参照)画像、順方向予測(未来
参照)画像又は双方向予測画像との差を取るために、映
像素材情報D1iに基づく入力画像から、これらの逆方
向予測画像、順方向予測画像又は双方向予測画像に係る
データD21、D22、D23が減算される。
In the shape encoding section 302, the video material information D
After encoding the motion shape of the video based on 1i based on the prediction control signal S10, a motion shape signal S2 is generated. The subtracter 303 calculates the difference between the current video based on the video material information D1i and the backward prediction (past reference) image, forward prediction (future reference) image, or bidirectional prediction image. Data D21, D22, and D23 related to the backward prediction image, the forward prediction image, or the bidirectional prediction image are subtracted from the image.

【0055】この減算器303の出力には離散コサイン
変換部(以下DCTという)304が接続され、映像の
空間方向の冗長度を削減するために、例えば、映像素材
情報D1iに基づく入力画像が8×8画素のブロックに
分割される。このブロック単位にDCT演算が行われ
る。DCT304ではDC成分及びAC成分から成るD
CT係数が得られる。
A discrete cosine transform unit (hereinafter referred to as DCT) 304 is connected to the output of the subtracter 303. In order to reduce the spatial redundancy of the video, for example, an input image based on the video material information D1i is 8 It is divided into blocks of × 8 pixels. The DCT operation is performed for each block. In the DCT 304, a D composed of a DC component and an AC component
The CT coefficient is obtained.

【0056】このDCT304の出力には量子化部
(Q)305が接続され、DC成分及びAC成分のDC
T係数が量子化される。量子化部305には動きテキス
ト符号化部306が接続され、量子化されたDCT係数
が動きテキストとして符号化された後に動きテキスト信
号S11が発生される。また、量子化部305には逆量
子化部306が接続され、量子化されたDCT係数がD
C成分及びAC成分に逆量子化される。逆量子化部30
6の出力には逆離散コサイン変換部(以下IDCTとい
う)307が接続され、逆DCT演算が行われる。
A quantizer (Q) 305 is connected to the output of the DCT 304, and a DC component and an AC component
The T coefficient is quantized. A motion text encoding unit 306 is connected to the quantization unit 305, and a motion text signal S11 is generated after the quantized DCT coefficients are encoded as motion text. An inverse quantization unit 306 is connected to the quantization unit 305 so that the quantized DCT coefficient
It is inversely quantized into a C component and an AC component. Inverse quantization unit 30
6 is connected to an inverse discrete cosine transform unit (hereinafter referred to as IDCT) 307 to perform an inverse DCT operation.

【0057】このIDCT307には加算器308が接
続され、逆方向予測画像、順方向予測画像又は双方向予
測画像に係る各々のデータD21、D22、D23とI
DCT307の出力画像に係るデータD24とを加算し
た後の合成画像データD20が出力される。加算器30
8の出力にはフレームメモリ309が接続され、加算器
308による合成画像データD20が一時記憶される。
フレームメモリの出力には逆方向予測メモリP1が接続
され、逆方向予測画像に係るデータD21が保持され
る。フレームメモリには順方向予測メモリP2が接続さ
れ、順方向予測画像に係るデータD22が保持される。
更にフレームメモリには双方向予測メモリP3が接続さ
れ、双方向予測画像に係るデータD23が予測制御信号
S10に基づいて保持される。
An adder 308 is connected to the IDCT 307, and each data D21, D22, D23 and I relating to a backward prediction image, a forward prediction image or a bidirectional prediction image.
The combined image data D20 after adding the data D24 related to the output image of the DCT 307 is output. Adder 30
The frame memory 309 is connected to the output of No. 8 and the combined image data D20 by the adder 308 is temporarily stored.
The output of the frame memory is connected to the backward prediction memory P1, and holds data D21 related to the backward prediction image. A forward prediction memory P2 is connected to the frame memory, and holds data D22 related to a forward prediction image.
Further, a bidirectional prediction memory P3 is connected to the frame memory, and data D23 related to the bidirectional prediction image is held based on the prediction control signal S10.

【0058】これらの逆方向予測メモリP1、順方向予
測メモリP2及び双方向予測メモリP3の出力にはスイ
ッチ(セレクタ)部310が接続され、順方向予測、逆
方向予測又は双方向予測の各モード切り換えに基づいて
逆方向予測画像、順方向予測画像又は双方向予測画像に
係るデータD21、D22、D23のいずれかを選択す
るようになされる。スイッチ部310の出力は減算器3
03及び加算器308に接続される。
A switch (selector) unit 310 is connected to the outputs of the backward prediction memory P1, the forward prediction memory P2, and the bidirectional prediction memory P3. Based on the switching, any one of the data D21, D22, and D23 relating to the backward prediction image, the forward prediction image, or the bidirectional prediction image is selected. The output of the switch unit 310 is the subtractor 3
03 and an adder 308.

【0059】一方、動きテキスト符号化部311及び形
状符号化部302には映像多重部312が接続され、符
号化された映像の動きテキスト信号S1と、符号化され
た動き形状信号S2とが多重化される。これにより、映
像素材情報D1iをMPEG−4のビットストリームに
することができる。映像素材情報D1iのビットストリ
ームは出力端子314から得られる。
On the other hand, a video multiplexing unit 312 is connected to the motion text coding unit 311 and the shape coding unit 302, and multiplexes the motion text signal S1 of the coded video and the coded motion shape signal S2. Be transformed into Thus, the video material information D1i can be converted into an MPEG-4 bit stream. The bit stream of the video material information D1i is obtained from the output terminal 314.

【0060】続いて、映像素材情報D1iの取得例につ
いて説明をする。図6に示す舞台装置40の例では客席
に背景撮影用のビデオカメラ401が配置され、例え
ば、舞台上にセットされた第1幕のお城の背景などが撮
影され、図7Aに示す役者A及びBを含むお城を表現す
る背景情報D11が取得される。
Next, an example of obtaining the video material information D1i will be described. In the example of the stage device 40 shown in FIG. 6, a video camera 401 for background photographing is arranged at the audience seat, for example, the background of the castle of the first act set on the stage is photographed, and the actor A shown in FIG. And the background information D11 expressing the castle including B.

【0061】また、舞台の左右には物体撮影用のビデオ
カメラ402、403が配置され、舞台装置40の左右
から見た役者の動きが撮影され、図7Bに示す舞台内で
動く役者A,Bを表現する物体情報D12が取得され
る。更に、舞台装置40の斜め右前方には物体位置撮影
用のビデオカメラ404が配置され、舞台背景に対する
役者の初期の配置情報D13及びその舞台内で動く役者
A,Bの移動に伴う位置情報D14が取得される。
Also, video cameras 402 and 403 for photographing objects are arranged on the left and right sides of the stage, and the movements of the actors viewed from the left and right of the stage device 40 are photographed. Actors A and B moving on the stage shown in FIG. Is obtained. Further, a video camera 404 for photographing an object position is disposed diagonally to the front right of the stage device 40. The initial arrangement information D13 of the actors with respect to the stage background and the position information D14 associated with the movement of the actors A and B moving on the stage. Is obtained.

【0062】この例では2名の役者(被写体)A及び他
の役者Bの各々の頭部には小型のCCD撮像装置40
5、406が取り付けられ、一方の役者から他方の役者
を見た視点映像が各々撮影され、双方の役者の動作に伴
う動作情報D15が取得される。もちろん、舞台側にビ
デオカメラ407を設け、舞台側から客席上を見た背景
などを撮影してもよい。別の例として、各役者A,Bの
双方の頭部の動きのみを取得する位置に流し取りCCD
装置(又は磁気センサ)を取り付け、視点方向のみの映
像を取得するようにしてもよい。
In this example, a small CCD image pickup device 40 is mounted on the head of each of two actors (subjects) A and another actor B.
5 and 406 are attached, viewpoint images of one actor looking at the other actor are respectively captured, and operation information D15 accompanying the operation of both actors is acquired. Needless to say, the video camera 407 may be provided on the stage side, and the background or the like viewed from above the audience seat from the stage side may be photographed. As another example, the CCD is moved to a position where only the movements of the heads of both actors A and B are acquired.
A device (or a magnetic sensor) may be attached to acquire an image only in the viewpoint direction.

【0063】これらの映像素材情報D1iが予め放送局
などで準備されると、上述した3Dポリゴン送信装置2
01によって多重化された後に、放送局から個々の視聴
者側へ送信される。この際に、デジタルテレビ放送網、
ケーブルテレビ通信回線又はインターネット通信回線を
使用して映像素材情報D1iが視聴者側に伝送される。
When the video material information D1i is prepared in advance at a broadcasting station or the like, the above-described 3D polygon transmitting device 2
After being multiplexed by 01, they are transmitted from the broadcasting station to the individual viewers. At this time, digital TV broadcasting network,
The video material information D1i is transmitted to the viewer using a cable television communication line or an Internet communication line.

【0064】続いて、3Dポリゴン受信装置202の構
成例について説明する。この例では上述した舞台映像に
係る映像素材情報D1iが6チャネルに割り振られて送
信される場合であって、その背景情報D11がチャネル
ch1に割り振られ、その物体情報D12がチャネルc
h2に割り振られ、その配置情報D13がチャネルch
3に割り振られ、その位置情報D14がチャネルch4
に割り振られ、その動作情報D15がチャネルch5に
割り振られ、二次元の映像情報がチャネルch6に割り
振られる場合を想定する。
Next, an example of the configuration of the 3D polygon receiving device 202 will be described. In this example, the video material information D1i related to the above-mentioned stage video is allocated to six channels and transmitted. The background information D11 is allocated to channel ch1, and the object information D12 is allocated to channel c.
h2, and the arrangement information D13 is assigned to the channel ch.
3 and its position information D14 is assigned to channel ch4.
It is assumed that the operation information D15 is allocated to the channel ch5, and the two-dimensional video information is allocated to the channel ch6.

【0065】図8に示す3Dポリゴン受信装置202は
TC8PSK変調方式のデジタル信号を受信するもので
あり、受信手段2、画像メモリ(記憶手段)3、セレク
タ(選択手段)4、映像作成手段6、制御装置88及び
ジョグダイヤル89を備えている。
The 3D polygon receiving device 202 shown in FIG. 8 receives a digital signal of the TC8PSK modulation system, and includes a receiving means 2, an image memory (storage means) 3, a selector (selection means) 4, an image creation means 6, A control device 88 and a jog dial 89 are provided.

【0066】受信手段2はチューナ部74、映像検波部
75、ノイズ除去部76、誤り補正部77及び情報多重
化解析部78を有している。チューナ部74では衛星回
線から送られくるTC8PSK変調方式のデジタル信号
が受信される。チューナ部74には映像検波部75が接
続され、例えば、6チャネルに多重化されたTC8PS
K変調方式のデジタル信号が検波される。映像検波部7
5にはノイズ除去部76が接続され、MPEG−4のデ
ータ系列で送信されてきたデジタル信号がOFDM(O
rthogonal Frequency Division Multiplex)復調さ
れる。
The receiving means 2 has a tuner 74, a video detector 75, a noise remover 76, an error corrector 77, and an information multiplex analyzer 78. The tuner section 74 receives a digital signal of the TC8PSK modulation system transmitted from a satellite line. The tuner 74 is connected to a video detector 75, for example, a TC8PS multiplexed into six channels.
A K-modulation digital signal is detected. Video detector 7
5 is connected to a noise removing unit 76, and the digital signal transmitted in the MPEG-4 data sequence is transmitted to the OFDM (ODM).
rthogonal Frequency Division Multiplex) demodulated.

【0067】このノイズ除去部76には誤り補正部77
が接続され、OFDM復調されたデジタル信号の誤り符
号が補正される。誤り補正部77には多重分離手段とし
て情報多重化解析部78が接続され、誤り補正された6
チャネルの映像素材情報D1iが多重分離される。背景
情報D11はch1から得られ、物体情報D12はch
2から得られ、配置情報D13はch3から得られ、位
置情報D14はch4から得られ、動作情報D15はc
h5から得られ、及び、二次元の映像情報はch5から
各々得られる。
The noise removing unit 76 includes an error correcting unit 77
Are connected, and the error code of the OFDM-demodulated digital signal is corrected. An information multiplexing analysis unit 78 is connected to the error correction unit 77 as a demultiplexing unit.
The video material information D1i of the channel is demultiplexed. The background information D11 is obtained from ch1, and the object information D12 is
2, the location information D13 is obtained from ch3, the position information D14 is obtained from ch4, and the operation information D15 is c
h5, and two-dimensional video information is obtained from ch5.

【0068】この情報多重化解析部78には画像メモリ
3が接続され、ch1〜ch6から得られた背景情報D
11、物体情報D12、配置情報D13、位置情報D1
4、動作情報D15及び二次元の映像情報などの映像素
材情報D1iが一時記憶される。画像メモリ3にはセレ
クタ4が接続され、これらの映像素材情報D1iから任
意の映像素材情報D1iが操作手段としてのジョグダイ
アル89などを使用して視聴者により選択される。
The image multiplexing analysis unit 78 is connected to the image memory 3, and the background information D obtained from ch1 to ch6.
11, object information D12, arrangement information D13, position information D1
4. The motion information D15 and video material information D1i such as two-dimensional video information are temporarily stored. A selector 4 is connected to the image memory 3, and arbitrary video material information D1i is selected from the video material information D1i by a viewer using a jog dial 89 or the like as operation means.

【0069】このセレクタ4の出力には映像作成手段6
が接続され、3次元映像が作成される。映像作成手段6
は例えばジオメトリ部85、ラスター部86及びステレ
オ画像生成部87を有している。つまり、セレクタ4の
出力にはジオメトリ部85が接続され、3次元映像を表
現するためのグローバル座標系に背景情報D11、物体
情報D12、配置情報D13、位置情報D14及び動作
情報D15が表示(記述)される。例えば、図9に示す
舞台で演ずる役者Bなどの視線により認識される背景
が、3Dポリゴン10で構成される「森」や「芝生」に
置き換えられ、その「芝生」上に役者Aの3次元映像が
表示される。これらの映像合成信号が発生される。
The output of the selector 4 is supplied to the video creating means 6.
Are connected to create a three-dimensional image. Image creation means 6
Has, for example, a geometry unit 85, a raster unit 86, and a stereo image generation unit 87. That is, the geometry unit 85 is connected to the output of the selector 4, and the background information D11, the object information D12, the arrangement information D13, the position information D14, and the operation information D15 are displayed (described) in a global coordinate system for expressing a three-dimensional image. ) Is done. For example, the background recognized by the line of sight of actor B or the like performing on the stage shown in FIG. 9 is replaced with “forest” or “lawn” composed of 3D polygon 10, and actor A's three-dimensional image is displayed on the “lawn”. The image is displayed. These video composite signals are generated.

【0070】また、ジオメトリ部85にはCD−ROM
79が接続され、予め受信側で準備された3Dサッカー
ゲームなどのソフト情報源から読み出した映像ソフトが
合成される場合もある。ジオメトリ部85にはラスター
部86が接続され、表示手段24の走査方式、例えば、
NTSC方式又はPAL方式に合うように映像の水平走
査期間及び垂直走査期間などを合わせ込むラスター処理
がなされる。ラスター部86にはステレオ画像生成部8
7が接続され、表示手段24の走査方式に合うように走
査処理された映像合成信号に基づいてステレオ画像が形
成される。例えば、表示手段24が特殊グラストロン2
03の場合には、視聴者が見つめる視点位置を検出する
ことができるので、その視点データに基づいてステレオ
画像が形成される。
The geometry section 85 has a CD-ROM
79 is connected, and video software read from a software information source such as a 3D soccer game prepared in advance on the receiving side may be synthesized. A raster unit 86 is connected to the geometry unit 85, and a scanning method of the display unit 24, for example,
Raster processing is performed to match the horizontal scanning period and the vertical scanning period of an image so as to conform to the NTSC system or the PAL system. The raster section 86 includes a stereo image generating section 8.
7 is connected, and a stereo image is formed based on the video composite signal scanned and processed to match the scanning method of the display means 24. For example, if the display means 24 is a special glasstron 2
In the case of 03, since the viewpoint position at which the viewer looks can be detected, a stereo image is formed based on the viewpoint data.

【0071】このステレオ画像生成部87には特殊グラ
ストロン203、TVモニタ204又は後述する液晶表
示素子(LCD)などの表示手段24が接続され、視聴
者の好みに応じて選択された映像素材情報D1iに基づ
く視聴者固有の3次元映像が表示される。上述の情報多
重化解析部78、画像メモリ3、セレクタ4、CD−R
OM79、ラスター部86及びステレオ画像生成部87
には制御装置88が接続されると共に、この制御装置8
8にはジョグダイヤル89が接続される。視聴者はジョ
グダイアル89によって自分の好みに応じた映像素材情
報D1iを選択するようになされる。この選択によって
制御装置88では多重化解析部78、画像メモリ3、セ
レクタ4、CD−ROM79、ラスター部86及びステ
レオ画像生成部87の入出力が制御される。
A display means 24 such as a special glasstron 203, a TV monitor 204, or a liquid crystal display (LCD), which will be described later, is connected to the stereo image generating section 87, and video material information selected according to the viewer's preference. A viewer-specific three-dimensional image based on D1i is displayed. The above-mentioned information multiplexing analysis unit 78, image memory 3, selector 4, CD-R
OM 79, raster unit 86, and stereo image generation unit 87
Is connected to a control device 88, and the control device 8
A jog dial 89 is connected to 8. The viewer selects the video material information D1i according to his / her preference by using the jog dial 89. By this selection, the control unit 88 controls the input / output of the multiplex analysis unit 78, the image memory 3, the selector 4, the CD-ROM 79, the raster unit 86, and the stereo image generation unit 87.

【0072】続いて、第1の実施例で使用する特殊グラ
ストロン203の構成例について説明する。図10に示
す特殊グラストロン203は合成手段を構成するもので
あり、例えば、非透過型のヘッドマウントディスプレイ
を成している。特殊グラストロン203は本体部21を
有している。その本体部21にはベルト22が設けら
れ、眼鏡をかけるように本体部21が視聴者の顔面に装
着されると共に、その視聴者の頭部外周部に沿ってベル
ト22が固定される。本体部21には第1の画像表示素
子としての右眼表示用の液晶表示装置(以下LCDとい
う)26と、第2の画像表示素子としての左眼表示用の
LCD27とが設けられる。
Next, a configuration example of the special glasstron 203 used in the first embodiment will be described. The special glasstron 203 shown in FIG. 10 constitutes a synthesizing unit, and forms, for example, a non-transmissive head mounted display. The special glasstron 203 has a main body 21. A belt 22 is provided on the main body 21. The main body 21 is mounted on the face of the viewer like wearing glasses, and the belt 22 is fixed along the outer periphery of the head of the viewer. The main body 21 is provided with a liquid crystal display device (hereinafter, referred to as LCD) 26 for a right eye display as a first image display element and an LCD 27 for a left eye display as a second image display element.

【0073】つまり、特殊グラストロン203内の視聴
者の右目に相対する位置に取り付けられたLCD26に
は、例えば、図9に示した舞台で演ずる役者Bなどの視
線により認識される役者Aの映像と、3Dポリゴン10
で構成される「森」や「芝生」に置き換えられた背景の
「芝生」上に存在する役者Aの映像とを合成したステレ
オ画像の一方が表示される。
That is, the LCD 26 attached to a position opposite to the viewer's right eye in the special glasstron 203 displays, for example, an image of the actor A recognized by the line of sight of the actor B performing on the stage shown in FIG. And 3D polygon 10
One of the stereo images synthesized with the image of the actor A existing on the background “lawn” replaced with “forest” or “lawn” composed of

【0074】また、その視聴者の左目に相対する位置に
取り付けられたLCD27には、上述の舞台で演ずる役
者Bなどの視線により認識される役者Aの映像と、3D
ポリゴン10で構成される「森」や「芝生」に置き換え
られた背景の映像とを合成したステレオ画像の他方が表
示される。この特殊グラストロン203は視聴者の顔面
又は頭部に装着され、上述のLCD26のステレオ画像
と、LCD27のステレオ画像とが視聴者の眼球に導く
ようになされる。従って、舞台で演ずる役者Bなどの視
線により認識される役者Aの映像と、3Dポリゴン10
で構成される「森」や「芝生」に置き換えられた背景の
「芝生」上に存在する役者Aの映像とが視聴者の頭の中
で合成される。
The LCD 27 attached to the viewer's left eye is located on the LCD 27. The image of the actor A recognized by the line of sight of the actor B or the like performing on the stage described above and the 3D
The other of the stereo images combined with the background image replaced with “forest” or “grass” composed of polygons 10 is displayed. The special glasstron 203 is mounted on the face or head of the viewer, and the stereo image of the LCD 26 and the stereo image of the LCD 27 are guided to the viewer's eyeball. Therefore, the image of the actor A recognized by the gaze of the actor B or the like performing on the stage and the 3D polygon 10
Is synthesized in the viewer's head with the image of the actor A present on the background “lawn” replaced with “forest” or “lawn”.

【0075】この特殊グラストロン203には、図11
に示す右眼表示用のLCD26と、左眼表示用のLCD
27の表示面内にフィルム状の電荷結合素子(以下フィ
ルムCCDという)4R(右)、4L(左)が配置さ
れ、基準面を注視する観測者の眼球運動を撮像してその
観測者の注視点pが検出される。この例では、フィルム
CCD4R、4Lは、視聴者の眼球に相対するLCD2
6及びLCD27上に分散して配置されている。
The special glasstron 203 has the structure shown in FIG.
LCD 26 for right eye display and LCD for left eye display shown in FIG.
Film-shaped charge-coupled devices (hereinafter referred to as film CCDs) 4R (right) and 4L (left) are arranged in the display surface 27, and image the eye movements of an observer watching the reference plane to obtain the observer's attention. The viewpoint p is detected. In this example, the film CCDs 4R and 4L are connected to the LCD 2 facing the viewer's eyeball.
6 and the LCD 27.

【0076】このフィルムCCD4R、4Lでは、図1
2Aに示す例えば、4×6画素のマトリクスの全体画素
に対して歯抜け状(斜線部分)に撮像素子4Aが配置さ
れている。従って、白抜き部分には撮像素子4Aが配置
されておらず、LCD26及びLCD27による映像を
通すようになされる。フィルムCCD4R、4Lは、フ
ィルム上に部分的にシリコン膜を形成して光電変換素子
などのCCDを歯抜け状に作成し、このフィルムCCD
4R、4LをLCD26及びLCD27の前方に張り合
わせるなどして形成される。
In the film CCDs 4R and 4L, FIG.
For example, the imaging element 4A is arranged in a toothless manner (shaded portion) with respect to all pixels of a 4 × 6 pixel matrix shown in 2A. Therefore, the image pickup device 4A is not arranged in the white portion, and the images from the LCD 26 and the LCD 27 are passed. For the film CCDs 4R and 4L, a silicon film is partially formed on the film to form a CCD such as a photoelectric conversion element in a toothless shape.
4R and 4L are formed by attaching them in front of the LCD 26 and the LCD 27, for example.

【0077】なお、フィルムCCD4R、4Lは、サフ
ァイヤを基礎材料にして、シリコン膜を部分的に形成す
ることができるので、LCD26及びLCD27と歯抜
け状のフィルムCCD4R、4Lとを1チップ化するこ
ともできる。ただし、チップの透明性(光透過率)は薄
いサングラス程度となる。
Since the film CCDs 4R and 4L can be partially formed of a silicon film using sapphire as a base material, the LCDs 26 and 27 and the toothless film CCDs 4R and 4L are integrated into one chip. Can also. However, the transparency (light transmittance) of the chip is on the order of thin sunglasses.

【0078】このフィルムCCD4Rでは、図12Bに
示す観測者の左眼の瞳の動きや、その瞳孔の絞り状態が
撮像され、フィルムCCD4Lでは、同図に示す観測者
の右眼の瞳の動きや、その瞳孔の絞り状態が撮像され
る。多少撮像性能は落ちるが、観測者の眼球運動を撮像
する分には支障はない。従って、特殊グラストロン(合
成手段)203を装着した視聴者が特定位置に視点を合
わせることにより、フィルムCCD4R、4Lから得ら
れたカメラ出力信号(視点位置検出情報)に基づいて映
像素材情報D1iに関する映像の背景又は物体の動きを
変更することができる。
The film CCD 4R captures the pupil movement of the observer's left eye as shown in FIG. 12B and the aperture state of the pupil, and the film CCD 4L captures the movement of the pupil of the observer's right eye as shown in FIG. , The aperture state of the pupil is imaged. Although the imaging performance is somewhat lowered, there is no problem in capturing the eye movement of the observer. Therefore, when the viewer wearing the special glasstron (synthesizing means) 203 adjusts the viewpoint to a specific position, the viewer relates to the video material information D1i based on the camera output signals (viewpoint position detection information) obtained from the film CCDs 4R and 4L. The background of the image or the movement of the object can be changed.

【0079】この特殊グラストロン203は図13に示
す視聴者の顔面又は頭部に装着され、上述のLCD26
のステレオ画像と、LCD27のステレオ画像とが視聴
者の眼球に導くようになされる。図13において、特殊
グラストロン203を装着した視聴者の両目の光軸が重
なったところが、注視点pである。この注視点pを基準
にして、役者Aの映像のステレオ画像と、3Dポリゴン
10で構成される「森」や「芝生」の仮想映像のステレ
オ画像とが頭の中で合成される。
This special glasstron 203 is mounted on the face or head of the viewer shown in FIG.
And the stereo image of the LCD 27 are guided to the viewer's eyeball. In FIG. 13, the point at which the optical axes of both eyes of the viewer wearing the special glasstron 203 overlap is the point of gaze p. On the basis of the gazing point p, a stereo image of the image of the actor A and a stereo image of a virtual image of “forest” or “grass” composed of the 3D polygon 10 are synthesized in the head.

【0080】ここで、視聴者の眼球表面から注視点pに
至る離隔距離をShとし、LCD26、LCD27の表
示面から注視点pに至る距離をScとし、視聴者の眼球
表面とLCD26、LCD27の表示面との間のオフセ
ット距離をSoffとすると、Sh=Sc+Soffにより、
視点位置を検出することができる。この例では、視聴者
の眼球運動から黒目と瞳孔の位置関係及び瞳孔の形状を
認識し、その認識情報から注視点pの方向と離隔距離S
hとを求め、その離隔距離Shに基づいて背景情報など
を切り換えるようになされる。
Here, the distance from the surface of the viewer's eyeball to the gazing point p is Sh, the distance from the display surface of the LCD 26 or LCD27 to the gazing point p is Sc, and the distance between the viewer's eyeball surface and the LCD 26 or LCD27 is Assuming that the offset distance from the display surface is Soff, Sh = Sc + Soff:
The viewpoint position can be detected. In this example, the positional relationship between the iris and the pupil and the shape of the pupil are recognized from the eye movements of the viewer, and the direction of the gazing point p and the separation distance S are determined based on the recognition information.
h, and background information and the like are switched based on the separation distance Sh.

【0081】この視聴者の眼球映像は、上述したように
左右のLCD26、27の前面にフィルムCCD4R、
4Lを設ける場合に限られることはなく、左眼表示用の
LCD27から背景映像を出力し、右眼表示用のLCD
26上にフィルムCCD4R目を設け、そのCCD4R
によって眼球映像を取得してもよい。この逆の方法でも
よい。
As described above, the viewer's eyeball image is provided on the front surfaces of the left and right LCDs 26 and 27 on the film CCD 4R,
The present invention is not limited to the case where 4L is provided, and outputs a background image from the left-eye display LCD 27 and outputs a right-eye display LCD.
26, a film CCD 4R eye is provided on
An eyeball image may be obtained by using The reverse method may be used.

【0082】続いて、第1の実施例に係る3Dポリゴン
放送システムにおける処理例について説明をする。この
例では放送局から衛星回線を介して送られてきた複数の
映像素材情報D1iに基づいて3次元映像を作成する3
Dポリゴン受信装置202を各家庭に設置し、その複数
の映像素材情報D1iから視聴者の好みに応じて選択さ
れた映像素材情報に基づいて視聴者固有の3次元映像を
作成することを前提とする。もちろん、視聴者は図10
に示した特殊グラストロン203を頭部に装着する。
Next, an example of processing in the 3D polygon broadcast system according to the first embodiment will be described. In this example, a 3D image is created based on a plurality of pieces of image material information D1i sent from a broadcasting station via a satellite line.
It is assumed that the D-polygon receiving device 202 is installed in each home, and that a viewer-specific three-dimensional video is created based on video material information selected according to the viewer's preference from the plurality of video material information D1i. I do. Of course, the viewer
Is mounted on the head.

【0083】更に、特殊グラストロン203を装着した
視聴者において、舞台で演ずる役者などの視線により認
識される背景を3Dポリゴン10で構成される「森」や
「芝生」に置き換え、その「芝生」上に役者の3次元映
像を表示することを想定する。
Further, in the viewer wearing the special glasstron 203, the background recognized by the line of sight of an actor or the like performing on the stage is replaced with a "forest" or "lawn" composed of 3D polygons 10, and the "lawn" It is assumed that a three-dimensional image of an actor is displayed above.

【0084】これらを前提として、図14に示すフロー
チャートのステップB1で3次元映像を作成するための
複数の映像素材情報D1iが予め放送局で準備される。
例えば、図4に示した音声映像取得装置211によっ
て、「ロミオとジュリエット」の舞台中継に係るお城の
背景を表現する背景情報D11と、映像の背景内で動く
男女の役者A,Bを表現する物体情報D12と、背景に
対する役者A,Bの初期の配置情報D13及びその役者
A,Bの移動に伴う位置情報D14と、役者A,Bの動
作に伴う動作情報D15とにより映像素材情報D1iが
取得される。その他にコンピユータ212で加工形成さ
れた、「森」、「海」、「芝生」や「砂浜」などのコン
ピユータグラフィックデータ(以下CGデータという)
D4が映像素材情報D1iに含まれる。
On the basis of these, a plurality of pieces of video material information D1i for creating a three-dimensional video are prepared in advance in the broadcasting station in step B1 of the flowchart shown in FIG.
For example, the audio-video acquisition device 211 shown in FIG. 4 expresses background information D11 expressing the background of a castle related to the stage relay of “Romeo and Juliet”, and male and female actors A and B moving in the background of the video. Material information D1i based on object information D12, initial arrangement information D13 of actors A and B with respect to the background, position information D14 associated with the movement of actors A and B, and operation information D15 associated with the movements of actors A and B. Is obtained. In addition, computer graphic data (hereinafter, referred to as CG data) such as "forest,""sea,""lawn," and "sand beach" that are processed and formed by the computer 212.
D4 is included in the video material information D1i.

【0085】その後、放送局側で準備された映像素材情
報D1iがステップB2で3Dポリゴン送信装置201
により多重化される。図4に示した3Dポリゴン送信装
置201では、例えば、ステップB21で音声映像取得
装置211から得られた映像素材情報D1iが音声符号
化部213、映像符号化部214及びデータ符号化部2
15に出力される。音声符号化部213では役者や効果
音などの音声が符号化され、音声符号化信号が発生され
る。映像符号化部214では1番組を構成する、例え
ば、舞台装置の背景、物体の映像に係る背景情報D1
1、物体情報D12、配置情報D13、位置情報D14
及び動作情報D15などの画像素材情報D1iが符号化
され、映像符号化信号が発生される。データ符号化部2
15ではCGデータD4が符号化され、CGデータ符号
化信号が発生される。
Thereafter, the video material information D1i prepared on the broadcast station side is transmitted to the 3D polygon transmitting device 201 in step B2.
Are multiplexed. In the 3D polygon transmission device 201 shown in FIG. 4, for example, the video material information D1i obtained from the audio / video acquisition device 211 in step B21 is used for the audio encoding unit 213, the video encoding unit 214, and the data encoding unit 2
15 is output. The audio encoding unit 213 encodes audio such as actors and sound effects, and generates an encoded audio signal. The video encoding unit 214 constitutes one program, for example, background information D1 relating to the background of the stage apparatus and the video of the object.
1, object information D12, arrangement information D13, position information D14
And image material information D1i such as motion information D15 are encoded to generate an encoded video signal. Data encoding unit 2
At 15, the CG data D4 is encoded, and a CG data encoded signal is generated.

【0086】また、音声符号化部213、映像符号化部
214及びデータ符号化部215の出力に接続された多
重化手段1Aにより、音声符号化信号、映像符号化信号
及びCGデータ符号化信号などの多種多様なサービスが
多重化され、複数のトランスポートストリームパケット
TSj(j=1〜m)が発生される。そして、ステップ
B22では上述した舞台映像に係る背景情報D11がチ
ャネルch1に割り振られ、その物体情報D12がチャ
ネルch2に割り振られ、その配置情報D13がチャネ
ルch3に割り振られ、その位置情報D14がチャネル
ch4に割り振られ、その動作情報D15がチャネルc
h5に割り振られ、二次元の映像情報がチャネルch6
に割り振られる。この映像情報は1chでもよい。
The multiplexing means 1A connected to the outputs of the audio encoding unit 213, the video encoding unit 214, and the data encoding unit 215 allows the audio encoded signal, the video encoded signal, the CG data encoded signal, and the like. Are multiplexed, and a plurality of transport stream packets TSj (j = 1 to m) are generated. Then, in step B22, the background information D11 relating to the above-mentioned stage video is allocated to the channel ch1, the object information D12 is allocated to the channel ch2, the arrangement information D13 is allocated to the channel ch3, and the position information D14 is allocated to the channel ch4. And the operation information D15 is assigned to the channel c.
h5, and the two-dimensional video information is transferred to channel ch6.
Assigned to. This video information may be one channel.

【0087】この例では、1番組を構成する符号化信号
(映像素材情報D1i)は図5に示したようにMPEG
−4のデータ系列のビットストリームになるように符号
化される。この多重化手段1Aの出力は伝送路符号化部
216で、トランスポートストリームTSjの合成、T
MCC生成、誤り訂正及び変調などのOFDM処理がス
テップB23で施される。
In this example, the coded signal (video material information D1i) constituting one program is an MPEG signal as shown in FIG.
-4 is encoded so as to become a data stream bit stream. The output of the multiplexing means 1A is output from a transmission path encoding section 216 to synthesize the transport stream TSj,
OFDM processing such as MCC generation, error correction and modulation is performed in step B23.

【0088】このOFDM処理後の符号化信号は、送信
機217において、TC8PSK方式のデジタル変調が
なされ、34.5MHz帯域幅を使用して、ステップB
24で衛星回線を通じて視聴者の受信装置に向けて発信
される。この際に、デジタルテレビ放送網を使用して映
像素材情報D1iが視聴者側に伝送される。もちろん、
ケーブルテレビ通信回線又はインターネット通信回線を
使用してもよい。
The coded signal after the OFDM processing is subjected to digital modulation of the TC8PSK system in the transmitter 217, and a step B is performed using a 34.5 MHz bandwidth.
At 24, the signal is transmitted to the viewer's receiving device via a satellite line. At this time, the video material information D1i is transmitted to the viewer using the digital television broadcast network. of course,
A cable television communication line or an Internet communication line may be used.

【0089】そして、放送局側から送られてきた映像素
材情報D1iはステップB3で視聴者側に設置された3
Dポリゴン受信装置202によって受信される。例え
ば、図8に示した3Dポリゴン受信装置202のチュー
ナ部では、衛星回線から送られくるTC8PSK変調方
式のデジタル信号が受信される。
Then, the video material information D1i sent from the broadcast station side is transmitted to the viewer 3 in the step B3.
It is received by the D polygon receiving device 202. For example, the tuner section of the 3D polygon receiving apparatus 202 shown in FIG. 8 receives a digital signal of the TC8PSK modulation system transmitted from a satellite line.

【0090】このチューナ部74に接続された映像検波
部75では、6チャネルに多重化されたTC8PSK変
調方式のデジタル信号が検波される。この映像検波部7
5に接続されたノイズ除去部76では、MPEG−4の
データ系列で送信されてきたデジタル信号がノイズ除去
されると共にOFDM復調される。このノイズ除去部7
6に接続された誤り補正部77では、OFDM復調され
たデジタル信号の誤り符号が補正される。
The video detector 75 connected to the tuner 74 detects a TC8PSK modulation digital signal multiplexed on six channels. This video detector 7
In the noise removing unit 76 connected to 5, the digital signal transmitted in the MPEG-4 data series is subjected to noise removal and OFDM demodulation. This noise removing unit 7
In an error correction unit 77 connected to 6, the error code of the OFDM-demodulated digital signal is corrected.

【0091】この誤り補正部77に接続された情報多重
化解析部78では、誤り補正された6チャネルの映像素
材情報D1iが多重分離される。背景情報D11はch
1から得られ、物体情報D12はch2から得られ、配
置情報D13はch3から得られ、位置情報D14はc
h4から得られ、動作情報D15はch5から得られ、
及び、二次元の映像情報はch5から各々得られる。こ
れらの背景情報D11、物体情報D12、配置情報D1
3、位置情報D14、動作情報D15及び二次元の映像
情報などの映像素材情報D1iは画像メモリ3に一時記
憶される。
In the information multiplexing analysis section 78 connected to the error correction section 77, the error-corrected 6-channel video material information D1i is demultiplexed. Background information D11 is ch
1, the object information D12 is obtained from ch2, the arrangement information D13 is obtained from ch3, and the position information D14 is c.
h4, operation information D15 is obtained from ch5,
And two-dimensional video information is obtained from ch5. These background information D11, object information D12, and arrangement information D1
3. Position information D14, motion information D15, and video material information D1i such as two-dimensional video information are temporarily stored in the image memory 3.

【0092】その後、ステップB4では映像素材情報D
1iから任意の映像素材情報D1iがジョグダイアル8
9などを使用して視聴者により選択される。このジョグ
ダイアル89によって制御装置88及びセレクタ4を通
じて選択された映像素材情報D1iは、映像作成手段6
に出力される。映像作成手段6のジオメトリ部85で
は、3次元映像を表現するためのグローバル座標系に背
景情報D11、物体情報D12、配置情報D13、位置
情報D14及び動作情報D15が表示(記述)される。
例えば、図6に示した舞台で演ずる役者Bなどの視線に
より認識される背景が、3Dポリゴン10で構成される
「森」や「芝生」に置き換えられ、その「芝生」上に役
者Aの3次元映像が合成され、これらの映像合成信号が
作成される。
Then, in step B4, the video material information D
Any video material information D1i from 1i is jog dial 8
9 is selected by the viewer. The video material information D1i selected by the jog dial 89 through the control device 88 and the selector 4 is stored in the video creation unit 6
Is output to In the geometry section 85 of the image creating means 6, background information D11, object information D12, arrangement information D13, position information D14, and motion information D15 are displayed (described) in a global coordinate system for expressing a three-dimensional image.
For example, the background recognized by the line of sight of actor B or the like performing on the stage shown in FIG. 6 is replaced with “forest” or “grass” composed of 3D polygon 10, and actor A 3 is displayed on the “grass”. A two-dimensional image is synthesized, and these image synthesis signals are created.

【0093】また、ジオメトリ部85に接続されたラス
ター部86では、表示手段24の走査方式に合うように
ラスター処理が施される。その後、ラスター部86に接
続されたステレオ画像生成部87では、視点データに基
づいてステレオ画像が形成される。
The raster section 86 connected to the geometry section 85 is subjected to raster processing so as to match the scanning method of the display means 24. After that, the stereo image generation unit 87 connected to the raster unit 86 forms a stereo image based on the viewpoint data.

【0094】このステレオ画像はステップB5で特殊グ
ラストロン203に供給される。特殊グラストロン20
3内のLCD26には、図9に示した舞台で演ずる役者
Bなどの視線により認識される役者Aの映像と、3Dポ
リゴン10で構成される「森」や「芝生」に置き換えら
れた背景の「芝生」上に存在する役者Aの映像とを合成
したステレオ画像の一方が表示される。
This stereo image is supplied to the special glasstron 203 in step B5. Special Glasstron 20
The LCD 26 in 3 has an image of the actor A recognized by the line of sight of the actor B and the like performing on the stage shown in FIG. 9 and the background of the 3D polygon 10 replaced with “forest” or “lawn”. One of the stereo images obtained by synthesizing the image of the actor A existing on the "grass" is displayed.

【0095】また、そのLCD27には、上述の舞台で
演ずる役者Bなどの視線により認識される役者Aの映像
と、3Dポリゴン10で構成される「森」や「芝生」に
置き換えられた背景の映像とを合成したステレオ画像の
他方が表示される。上述のLCD26のステレオ画像
と、LCD27のステレオ画像とが視聴者の眼球に導く
ようになされる。これにより、舞台で演ずる役者Bなど
の視線により認識される役者Aの映像と、3Dポリゴン
10で構成される「森」や「芝生」に置き換えられた背
景の「芝生」上に存在する役者Aの映像とが視聴者の頭
の中で合成される。
The LCD 27 displays an image of the actor A recognized by the line of sight of the actor B or the like performing on the above-mentioned stage and a background of the forest replaced by “forest” or “grass” composed of the 3D polygon 10. The other of the stereo images synthesized with the video is displayed. The stereo image of the LCD 26 and the stereo image of the LCD 27 are guided to the viewer's eyeball. Thereby, the image of actor A recognized by the line of sight of actor B or the like performing on the stage, and actor A existing on “grass” in the background replaced with “forest” or “grass” composed of 3D polygon 10 Is synthesized in the viewer's head.

【0096】このように、第1の実施例に係る3でポリ
ゴン放送システムによれば、予め放送局側で準備された
複数の映像素材情報D1iから視聴者の好みに応じて選
択された映像素材情報D1iに基づいて視聴者固有の3
次元映像を作成することができる。特殊グラストロン2
03を装着した視聴者には、図9に示した3Dポリゴン
10で構成される「森」や「芝生」上に役者Aが存在す
るような3次元映像を楽しむことができる。
As described above, according to the polygon broadcasting system in 3 according to the first embodiment, the video material selected according to the viewer's preference from a plurality of video material information D1i prepared in advance by the broadcasting station side. Viewer-specific 3 based on information D1i
You can create 3D images. Special Glasstron 2
The viewer wearing 03 can enjoy a three-dimensional image in which the actor A exists on the “forest” or “grass” composed of the 3D polygon 10 shown in FIG.

【0097】従って、放送局側から与えられた映像をた
だ消極的に視聴者がそのまま視聴するのではなく、視聴
者が積極的かつ独自に立体的に映像加工した3次元映像
を視聴することができる。これにより、自宅に居ながら
にして舞台で演ずる役者A,Bなどの視線により認識さ
れる臨場感溢れた3次元映像を視聴することができる。
また、ISDBサービスを利用した次世代の3次元デジ
タル放送システムを提供することができる。
Therefore, the viewer does not simply passively watch the video provided from the broadcast station side, but can view the three-dimensional video that is actively and independently stereoscopically processed. it can. Thus, it is possible to view a three-dimensional video with a sense of reality recognized by the eyes of actors A and B performing on the stage while staying at home.
Further, a next-generation three-dimensional digital broadcasting system using an ISDB service can be provided.

【0098】なお、3Dポリゴン受信装置202では特
殊グラストロン203を装着しない場合には、客席から
舞台を見ている場合の二次元映像がテレビモニタ204
に表示される。この他に、ジョグダイアル89の切り換
えによってテレビモニタ204に、3Dポリゴン10で
構成される「森」や「芝生」上に役者Aが存在するよう
な3次元の合成映像を表示することができる。
In the case where the special glasstron 203 is not attached to the 3D polygon receiving apparatus 202, a two-dimensional image when the stage is viewed from the audience seat is displayed on the television monitor 204.
Will be displayed. In addition, by switching the jog dial 89, a three-dimensional composite image in which the actor A exists on the "forest" or "grass" constituted by the 3D polygon 10 can be displayed on the television monitor 204.

【0099】(3)第2の実施例 図15は第2の実施例に係る3Dポリゴン放送システム
400の構成例を示すブロック図である。この例では第
1の実施例に係る3Dポリゴン放送システム300にゲ
ーム装置205が接続され、放送局から衛星回線を介し
て送られてきた、例えば、サッカー中継に係る複数の映
像素材情報D1iに基づいて3Dポリゴン受信装置20
2により3次元映像が作成され、その複数の映像素材情
報D1iから視聴者の好みに応じて選択された映像素材
情報に基づいて視聴者固有の3次元映像を作成できるよ
うにしたものである。これと共に、特殊グラストロン2
06を装着した視聴者において、ゲーム装置205から
提供された映像ソフトによるサッカーコートに、3Dポ
リゴン10で構成されるサッカー選手の3次元映像を合
成表示できるようにしたものである。
(3) Second Embodiment FIG. 15 is a block diagram showing a configuration example of a 3D polygon broadcast system 400 according to a second embodiment. In this example, the game device 205 is connected to the 3D polygon broadcasting system 300 according to the first embodiment, and is based on, for example, a plurality of pieces of video material information D1i transmitted from a broadcasting station via a satellite line. 3D polygon receiver 20
2, a three-dimensional video is created, and a viewer-specific three-dimensional video can be created from the plurality of pieces of video material information D1i based on video material information selected according to the viewer's preference. Along with this, Special Glasstron 2
A viewer wearing 06 is capable of displaying a three-dimensional image of a soccer player composed of 3D polygons 10 on a soccer court formed by video software provided from the game apparatus 205.

【0100】図15に示す3Dポリゴン放送システム4
00は3Dポリゴン送信装置201、3Dポリゴン受信
装置202、TVモニタ204、ゲーム装置205及び
特殊グラストロン206を備えている。なお、第1の実
施例と同じ名称及び同じ符号のものは同じ機能を有する
ためその説明を省略する。
The 3D polygon broadcasting system 4 shown in FIG.
00 includes a 3D polygon transmitting device 201, a 3D polygon receiving device 202, a TV monitor 204, a game device 205, and a special glasstron 206. The components having the same names and the same reference numerals as those in the first embodiment have the same functions, and the description thereof will be omitted.

【0101】この放送システム400では3次元映像を
作成するために予め準備された、例えば、「ワールドカ
ップサッカー」の衛星中継に係るサッカーコートの背
景、プレーヤーとしてのサッカー選手、このサッカー選
手の動きなどの映像素材情報D1iが取得される。
In the broadcasting system 400, for example, the background of a soccer court related to satellite relay of “World Cup Soccer”, a soccer player as a player, the movement of the soccer player, etc., prepared in advance to create a three-dimensional image. Is obtained.

【0102】これらの映像素材情報D1iは客席に背景
撮影用のビデオカメラが配置され、例えば、サッカーコ
ートの全体の背景などが撮影され、審判員やサッカー選
手を含むサッカーコートを表現する背景情報D11が取
得される。また、サッカーコートの左右には物体撮影用
のビデオカメラが配置され、サッカーコートを左右から
見たサッカー選手の動きが撮影され、サッカーコート内
でボールを追って動くサッカー選手を表現する物体情報
D12が取得される。更に、サッカーコートの周辺には
物体位置撮影用のビデオカメラが配置され、サッカーコ
ートの全体背景に対するサッカー選手の初期の配置情報
D13及びそのサッカーコート内で動くサッカー選手の
移動に伴う位置情報D14が取得される。
The video material information D1i is provided with a video camera for photographing the background in the audience seats. For example, the background of the entire soccer court is photographed, and the background information D11 representing the soccer court including judges and soccer players. Is obtained. Also, video cameras for object shooting are arranged on the left and right sides of the soccer court, the movement of the soccer player looking at the soccer court from the left and right is shot, and object information D12 representing the soccer player moving following the ball on the soccer court is displayed. Is obtained. Further, a video camera for photographing an object position is arranged around the soccer court, and initial arrangement information D13 of the soccer player with respect to the entire background of the soccer court and position information D14 accompanying the movement of the soccer player moving in the soccer court are displayed. Is obtained.

【0103】この例で、特定のサッカー選手(被写体)
の頭部に小型のCCD撮像装置を取り付け、当該サッカ
ー選手からゴールを見た視点映像を撮影したり、他のサ
ッカー選手の動作に伴う動作情報D15を取得するよう
にしてもよい。もちろん、CCD撮像装置は全プレーヤ
ーに取り付けてもよい。また、ゴール側にビデオカメラ
を設け、ゴール側からフィールド上を見た背景などを撮
影するようにしてもよい。
In this example, a specific soccer player (subject)
A small CCD imaging device may be attached to the head of the soccer player to capture a viewpoint video of the goal of the soccer player, or to acquire motion information D15 associated with the motion of another soccer player. Of course, the CCD imaging device may be attached to all players. Further, a video camera may be provided on the goal side, and a background or the like as viewed on the field from the goal side may be photographed.

【0104】これらの映像素材情報D1iが予め放送局
などで準備されると、上述した3Dポリゴン送信装置2
01によって多重化された後に、衛星回線を通じて視聴
者の所持する3Dポリゴン受信装置202へ送信され
る。この際に、デジタルテレビ放送網、ケーブルテレビ
通信回線又はインターネット通信回線を使用して映像素
材情報D1iが視聴者側に伝送される。
When the video material information D1i is prepared in advance at a broadcasting station or the like, the above-described 3D polygon transmitting device 2
After being multiplexed by 01, it is transmitted to the 3D polygon receiver 202 possessed by the viewer via a satellite line. At this time, the video material information D1i is transmitted to the viewer using a digital television broadcast network, a cable television communication line, or an Internet communication line.

【0105】受信側では、放送局から送られてきた映像
素材情報D1iが3Dポリゴン受信装置202によって
受信される。3Dポリゴン受信装置202によって受信
された映像素材情報D1iから任意の映像素材情報D1
iが視聴者によって選択されると、その選択された映像
素材情報に基づいて視聴者の好みに合った3次元映像が
作成される。
On the receiving side, the video material information D1i sent from the broadcasting station is received by the 3D polygon receiving device 202. From the video material information D1i received by the 3D polygon receiving device 202, arbitrary video material information D1
When i is selected by the viewer, a three-dimensional video that matches the viewer's preference is created based on the selected video material information.

【0106】この3Dポリゴン受信装置202では特殊
グラストロン206やテレビモニタ204などの表示手
段が使用されると共にゲーム装置205が使用される。
この例でテレビモニタ204には、客席からサッカーコ
ートを見ている二次元映像が表示される他、特殊グラス
トロン206を装着した視聴者には、3Dポリゴン10
で構成されるサッカー選手が、ゲーム装置205の例え
ば、CD−ROM79から提供された映像ソフトによる
サッカーコートに、3Dポリゴン10で構成されるサッ
カー選手の3次元映像を合成表示される。放送局から視
聴者側へ伝送される映像素材情報のデータ量を低減する
ことができる。
In the 3D polygon receiving apparatus 202, display means such as a special glasstron 206 and a television monitor 204 are used, and a game apparatus 205 is used.
In this example, the television monitor 204 displays a two-dimensional image of the soccer court viewed from the audience seats.
Is synthesized and displayed on the soccer court of the game apparatus 205, for example, on a soccer court using video software provided from the CD-ROM 79. The data amount of the video material information transmitted from the broadcasting station to the viewer can be reduced.

【0107】このゲーム装置205は画像処理手段の一
例であり、3Dポリゴン受信装置202、特殊グラスト
ロン206及びTVモニタ204などに接続される。ゲ
ーム装置205には××××××××××(×××××
×:商標名)などを使用する。例えば、サッカーゲーム
などの映像ソフトが記録されたCD−ROM79がゲー
ム装置205に装着される。このゲーム装置205では
CD−ROM79からゲームソフトが読み出されると、
そのゲームソフトに基づいてTVモニタ204にサッカ
ーコートが表示され、そのコート上にサッカー選手など
のキャラクタを表示させてサッカーゲームを競うように
プレイされるものである。
The game device 205 is an example of an image processing means, and is connected to a 3D polygon receiving device 202, a special glasstron 206, a TV monitor 204, and the like. In the game device 205, XXXXXXXXXXXX (XXXXXX
×: trade name). For example, a CD-ROM 79 in which video software such as a soccer game is recorded is mounted on the game device 205. In the game device 205, when the game software is read from the CD-ROM 79,
A soccer court is displayed on the TV monitor 204 based on the game software, and a character such as a soccer player is displayed on the court to play so as to compete in a soccer game.

【0108】この例で図15に示すゲーム装置205の
四隅には、複数の光源としてそれぞれ発光ダイオード
(LED1〜LED4)が取付けられ、「ワールドカッ
プサッカー」の衛星中継に係るサッカー選手などの仮想
体を飛び出せようとする基準面が設定される。この基準
面には、4つの点P1〜P4の座標として(x1,y
1)、(x2,y2)、(x3,y3)、(x4,y
4)が与えられる(仮想空間上では画像を合成しようと
する基準面に相当する)。
In this example, at the four corners of the game apparatus 205 shown in FIG. 15, light emitting diodes (LED1 to LED4) are attached as a plurality of light sources, respectively. Is set. This reference plane has coordinates (x1, y) of four points P1 to P4.
1), (x2, y2), (x3, y3), (x4, y
4) (corresponding to a reference plane on which an image is to be synthesized in the virtual space).

【0109】この4個の発光ダイオードLED1〜LE
D4は、そのマーク部としての機能を発揮するために、
つまり、その取付け位置が明らかになるように、少なく
とも、点滅パターンが異なるように点滅される。
The four light emitting diodes LED1 to LE
D4 has a function as a mark part.
That is, at least the blinking is performed so that the blinking pattern is different so that the mounting position is clear.

【0110】この発光ダイオードLED1〜LED4の
発光は特殊グラストロン206に取付けられた流し撮り
CCD装置により、所定の撮像方向に流すように撮像さ
れる。この流し撮りは4個の発光ダイオードLED1〜
LED4の取付け位置から基準面を特定するためであ
る。この基準面の特定については図23で説明をする。
The light emitted from the light emitting diodes LED1 to LED4 is picked up by a follow-up CCD device attached to the special glasstron 206 so as to flow in a predetermined imaging direction. This panning is performed with four light emitting diodes LED1 to LED1.
This is for specifying the reference plane from the mounting position of the LED 4. The specification of the reference plane will be described with reference to FIG.

【0111】このゲーム装置205には制御手段として
図16に示す点滅制御回路13が設けられ、発光ダイオ
ードの入出力が制御される。例えば、点滅制御回路13
では、画像処理系に当該ゲーム装置205の位置を再現
性良く認識させるために、発光ダイオードの点滅パター
ンが異なるように点滅制御される。
The game apparatus 205 is provided with a flicker control circuit 13 shown in FIG. 16 as control means, and controls the input and output of the light emitting diodes. For example, the blink control circuit 13
In order to make the image processing system recognize the position of the game device 205 with good reproducibility, the blink control is performed so that the blink patterns of the light emitting diodes are different.

【0112】この例では、点滅制御回路13によって、
4個の発光ダイオードLED1〜LED4に所定の電圧
が印加されて点滅制御される。この点滅制御回路13は
例えばクロック発生部61を有している。クロック発生
部61には1/2分周回路62、1/3分周回路63、
1/4分周回路64が接続されており、所定周波数のク
ロック信号CLK1と、このクロック信号CLK1を1
/2分周回路62で1/2分周したクロック信号CLK
2と、1/3分周回路63で1/3分周したクロック信
号CLK3と、1/4分周回路64で1/4分周したク
ロック信号CLK4とが出力される。
In this example, the flicker control circuit 13
A predetermined voltage is applied to the four light emitting diodes LED1 to LED4 to control the blinking. This blinking control circuit 13 has, for example, a clock generator 61. The clock generator 61 includes a 1/2 frequency divider 62, a 1/3 frequency divider 63,
A 1/4 frequency dividing circuit 64 is connected, and a clock signal CLK1 of a predetermined frequency and this clock signal CLK1 are
The clock signal CLK that has been frequency-divided by the frequency-dividing circuit 62
2, a clock signal CLK3 frequency-divided by 1/3 in the 1/3 frequency dividing circuit 63, and a clock signal CLK4 frequency-divided by the 1/4 frequency dividing circuit 64.

【0113】各々のクロック信号CLK1〜CLK4は
安定化用の抵抗Rを通して各々の発光ダイオードLED
1、LED2、LED3及びLED4に供給されてい
る。このクロック発生部61には直流電源VCCが接続
される。
Each of the clock signals CLK1 to CLK4 is supplied to each of the light emitting diodes LED through a stabilizing resistor R.
1, LED2, LED3 and LED4. The DC power supply VCC is connected to the clock generator 61.

【0114】この例では、図16に示したクロック発生
部61に電源が供給されると、発光ダイオードLED1
にはクロック信号CLK1が供給され、発光ダイオード
LED2にはクロック信号CLK2が供給され、発光ダ
イオードLED3にはクロック信号CLK3が供給さ
れ、発光ダイオードLED4にはクロック信号CLK4
が供給される。従って、図17に示す4つの発光ダイオ
ードLED1、LED2、LED3及びLED4の点滅
パターンを異なるように制御することができる。
In this example, when power is supplied to the clock generator 61 shown in FIG.
Is supplied with the clock signal CLK1, the light emitting diode LED2 is supplied with the clock signal CLK2, the light emitting diode LED3 is supplied with the clock signal CLK3, and the light emitting diode LED4 is supplied with the clock signal CLK4.
Is supplied. Therefore, the blinking patterns of the four light emitting diodes LED1, LED2, LED3, and LED4 shown in FIG. 17 can be controlled to be different.

【0115】このように、基準面設定付きのゲーム装置
205の4つの発光ダイオードLED1〜LED4が、
点滅制御回路13によって点滅パターンを異ならせるよ
うに点滅制御されるので、流し撮りCCD装置のような
特殊撮影装置でそのゲーム装置205を流し撮りした場
合に、その4つの発光ダイオードLED1〜LED4の
点灯パターンを非点滅制御した場合に比べてその4つの
発光ダイオードLED1〜LED4の輝点位置を容易に
特定することができる。従って、その4つの発光ダイオ
ードLED1〜LED4の位置からゲーム装置205の
位置を画像処理系に容易に認識させることができる。
As described above, the four light emitting diodes LED1 to LED4 of the game device 205 with the reference plane setting are
Since the blinking control is performed by the blinking control circuit 13 so as to make the blinking pattern different, when the game device 205 is panned and shot by a special photographing device such as a panning CCD device, the four light emitting diodes LED1 to LED4 are turned on. The bright spot positions of the four light emitting diodes LED1 to LED4 can be easily specified as compared with the case where the pattern is not flashed. Accordingly, the position of the game device 205 can be easily recognized by the image processing system from the positions of the four light emitting diodes LED1 to LED4.

【0116】続いて、特殊グラストロン206について
説明する。図18に示す特殊グラストロン206には少
なくとも流し撮りCCD装置23及び表示手段24が設
けられている。特殊グラストロン206の機種によって
は通常のCCD撮像装置25が設けられる。上述のゲー
ム装置205、流し撮りCCD装置23及び特殊グラス
トロン206内の画像処理部によって面認識手段が構成
され、視聴者の属する実空間上で任意の基準面を認識で
きるようになされている。ここで、流し撮りとは、流し
撮りCCD装置23において、同一フィールド期間中に
複数回、光電変換素子(フォトダイオードなど)から信
号電荷を読み出す撮影モードをいう。
Next, the special glasstron 206 will be described. The special glasstron 206 shown in FIG. 18 is provided with at least a panning CCD device 23 and a display unit 24. Depending on the model of the special glasstron 206, a normal CCD imaging device 25 is provided. The game device 205, the panning CCD device 23, and the image processing unit in the special glasstron 206 constitute a surface recognizing means so that an arbitrary reference plane can be recognized in the real space to which the viewer belongs. Here, the panning shot refers to a shooting mode in which signal charges are read out from a photoelectric conversion element (such as a photodiode) a plurality of times during the same field period in the panning CCD device 23.

【0117】この例で流し撮りCCD装置23として垂
直転送部を有するインターライン転送方式の二次元撮像
デバイスを使用した場合には、同一フィールド期間中に
複数回、光電変換素子から垂直転送部に信号電荷が読み
出される。また、流し撮りCCD装置23として電荷蓄
積部を有するフレーム転送方式の二次元撮像デバイスを
使用した場合には、同一フィールド期間中に複数回、光
電変換素子から電荷蓄積部に信号電荷が読み出される。
In this example, when an interline transfer type two-dimensional imaging device having a vertical transfer unit is used as the panning CCD device 23, signals are sent from the photoelectric conversion element to the vertical transfer unit a plurality of times during the same field period. The charge is read. When a two-dimensional frame transfer type imaging device having a charge storage unit is used as the panning CCD device 23, signal charges are read from the photoelectric conversion element to the charge storage unit a plurality of times during the same field period.

【0118】更に、特殊グラストロン206内には画像
処理部が設けられ、流し撮りCCD装置23から出力さ
れた画像データに基づいて基準面などを認識する画像処
理がなされる。この画像処理部には表示手段24が接続
され、面認識手段により認識された基準面が表示され
る。この特殊グラストロン206内には偏光ビームスプ
リッタなどの光学手段が設けられる場合があり、表示手
段24によって表示された仮想空間の基準面上で仮想体
の画像が合成される。この例では、実空間上の基準面の
属する位置に、ゲーム装置205から提供された映像ソ
フトによるサッカーコートが表示され、このサッカーコ
ート上に、3Dポリゴン10で構成されるサッカー選手
の3次元映像を合成表示される。
Further, an image processing unit is provided in the special glasstron 206, and image processing for recognizing a reference plane or the like is performed based on image data output from the panning CCD device 23. Display means 24 is connected to this image processing unit, and the reference plane recognized by the plane recognition means is displayed. An optical unit such as a polarizing beam splitter may be provided in the special glasstron 206, and an image of a virtual body is synthesized on a reference plane in a virtual space displayed by the display unit 24. In this example, a soccer court by the video software provided from the game device 205 is displayed at a position to which the reference plane in the real space belongs, and a three-dimensional image of the soccer player constituted by the 3D polygon 10 is displayed on the soccer court. Is displayed.

【0119】つまり、視聴者の眉間に相当する位置に
は、通常のCCD撮像装置25と、流し撮りCCD装置
23とが並べて配置され、前者によって視聴者の属する
外界像が撮像され、後者によってゲーム装置205の4
個の発光ダイオードLED1〜LED4が流し撮りされ
る。従って、視聴者が基準面設定付きのゲーム装置20
5に目を向けると、その基準面の方向に流し撮りCCD
装置23が向くようになる。
That is, a normal CCD image pickup device 25 and a panning CCD device 23 are arranged side by side at a position corresponding to the viewer's eyebrows, and an external image to which the viewer belongs is imaged by the former, and the game is imaged by the latter. Device 205-4
The light-emitting diodes LED1 to LED4 are panned and shot. Therefore, the viewer can set the game device 20 with the reference plane setting.
When we turn our eyes to 5, we take a panning CCD in the direction of the reference plane.
The device 23 is turned.

【0120】続いて、他の特殊グラストロン207につ
いて説明する。図19に示す特殊グラストロン207は
透過型のヘッドマウントディスプレイを構成しており、
通常のCCD撮像装置25は搭載されていない。従っ
て、透過型のヘッドマウントディスプレイは、流し撮り
CCD装置23と、外界像取り込み用の液晶シャッタ2
8と、画像表示素子としてのLCD29から構成され
る。
Next, another special glasstron 207 will be described. The special glasstron 207 shown in FIG. 19 constitutes a transmission type head mounted display,
No ordinary CCD imaging device 25 is mounted. Therefore, the transmissive head-mounted display comprises a panning CCD device 23 and a liquid crystal shutter 2 for capturing an external image.
8 and an LCD 29 as an image display element.

【0121】例えば、視聴者の眉間に相当する位置に
は、流し撮りCCD装置23が配置され、視聴者が上述
のゲーム装置205に目を向けると、ゲーム装置205
の4個の発光ダイオードLED1〜LED4が流し撮り
される。そして、視聴者の左目及び右目に相当する位置
には液晶シャッタ28が設けられ、例えば、液晶シャッ
タ28が開かれると、その液晶シャッタ28を通過した
視聴者のゲーム装置205の実像が直接眼球に導かれ
る。
For example, a panning CCD device 23 is arranged at a position corresponding to the viewer's eyebrows, and when the viewer turns his / her eyes to the game device 205, the game device 205
The four light emitting diodes LED1 to LED4 are panned. A liquid crystal shutter 28 is provided at a position corresponding to the left and right eyes of the viewer. For example, when the liquid crystal shutter 28 is opened, a real image of the game device 205 of the viewer passing through the liquid crystal shutter 28 is directly put on the eyeball. Be guided.

【0122】また、特殊グラストロン207内の視聴者
の左目又は右目の脇に位置する部分には、LCD29が
取付けられ、上述の特殊グラストロン206と同様にし
てキャラクタ画像が表示される。図示しないが、液晶シ
ャッタ28と、LCD29との間には偏光ビームスプリ
ッタなどの光学手段が設けられ、ゲーム装置205から
提供された映像ソフトによるサッカーコートの画像と、
このサッカーコート上に、3Dポリゴン10で構成され
るサッカー選手の3次元映像とが視聴者の眼球に導くよ
うになされている。これにより、視聴者の属するゲーム
装置205上の仮想画像と3Dポリゴン10によるサッ
カー選手の3次元映像とが頭の中で合成される。
An LCD 29 is attached to a portion of the special glasstron 207 located beside the viewer's left or right eye, and displays a character image in the same manner as the special glasstron 206 described above. Although not shown, optical means such as a polarizing beam splitter is provided between the liquid crystal shutter 28 and the LCD 29, and an image of a soccer court by video software provided from the game device 205,
On this soccer court, a three-dimensional image of a soccer player constituted by the 3D polygon 10 is guided to the viewer's eyeball. Thereby, the virtual image on the game device 205 to which the viewer belongs and the three-dimensional video of the soccer player using the 3D polygon 10 are synthesized in the head.

【0123】続いて、流し撮りCCD装置23の内部構
成例について説明する。図20に示す流し撮りCCD装
置23は基板31を有している。その基板31上には、
1画素を構成する光電変換素子としてフォトダイオード
PHij(i=1〜n、j=1〜m)がn列×m行のマ
トリクス状に配置されている。
Next, an example of the internal configuration of the panning CCD device 23 will be described. The panning CCD device 23 shown in FIG. On the substrate 31,
Photodiodes PHij (i = 1 to n, j = 1 to m) are arranged in a matrix of n columns × m rows as photoelectric conversion elements constituting one pixel.

【0124】この基板の列方向には電荷転送部としてm
本の垂直転送部32が設けられ、フォトダイオードPH
ijから読み出した信号電荷が垂直読み出し信号S1に
基づいて垂直方向(流し撮り方向)に転送される。この
垂直転送部32には水平転送部33が接続され、その信
号電荷が水平読み出し信号S2に基づいて水平方向に転
送されるので、出力端子34に流し撮り信号SOUTが出
力される。この例では、流し撮りをするために、少なく
とも、同一フィールド期間中に複数回、フォトダイオー
ドPHijから垂直転送部32に信号電荷が転送され
る。
In the column direction of this substrate, m
Vertical transfer units 32 are provided, and the photodiodes PH
The signal charge read from ij is transferred in the vertical direction (follow-up direction) based on the vertical read signal S1. A horizontal transfer unit 33 is connected to the vertical transfer unit 32, and the signal charges are transferred in the horizontal direction based on the horizontal readout signal S2, so that a follow shot signal SOUT is output to the output terminal. In this example, the signal charge is transferred from the photodiode PHij to the vertical transfer unit 32 at least a plurality of times during the same field period in order to perform a panning shot.

【0125】また、流し撮りCCD装置23は図21に
示す魚眼レンズ35を有している。魚眼レンズ35は例
えばCCD撮像素子36の光軸上に設けられる。この魚
眼レンズ35によって上述のゲーム装置205などを広
範囲に撮像できるようになる。もちろん、通常のレンズ
でも構わないが、視野が狭くなるので、視聴者はゲーム
装置205に向けてより多く頭部を傾けなければならな
い。
The panning CCD device 23 has a fisheye lens 35 shown in FIG. The fisheye lens 35 is provided on the optical axis of the CCD image sensor 36, for example. With the fisheye lens 35, the above-described game device 205 and the like can be imaged in a wide range. Of course, a normal lens may be used, but since the field of view is narrowed, the viewer must tilt his head more toward the game device 205.

【0126】続いて、非透過型の特殊グラストロン20
6の回路構成について説明する。図22に示す特殊グラ
ストロン206は上述した流し撮りCCD装置23、通
常のCCD撮像装置25、右眼表示用のLCD26、左
眼表示用のLCD27及び画像処理装置9を有してい
る。この画像処理装置9は図8に示した映像作成手段6
に含めて構成する場合には、特殊グラストロン206内
から画像処理装置9を削除してもよい。
Subsequently, the non-transmission type special glasstron 20 is used.
6 will be described. The special glasstron 206 shown in FIG. 22 includes the above-described panning CCD device 23, a normal CCD imaging device 25, an LCD 26 for right-eye display, an LCD 27 for left-eye display, and the image processing device 9. This image processing device 9 is used for the image creating means 6 shown in FIG.
, The image processing device 9 may be omitted from the special glasstron 206.

【0127】この例で画像処理装置9は内部バス41を
有している。内部バス41には内部インタフェース(I
/O)42、画像キャプチャ部43、画像処理部44、
CPU45、ROM46、RAM47、E2PROM
(電気的な書き込み及び消去が可能な読み出し専用メモ
リ)48及び外部インタフェース49が接続されてい
る。流し撮りCCD装置23、通常のCCD撮像装置2
5、右眼表示用のLCD26及び左眼表示用のLCD2
7は内部インタフェース42を介して内部バス41に接
続される。
In this example, the image processing device 9 has an internal bus 41. The internal bus 41 has an internal interface (I
/ O) 42, image capture unit 43, image processing unit 44,
CPU 45, ROM 46, RAM 47, E 2 PROM
(Electrically writable and erasable read-only memory) 48 and an external interface 49 are connected. Panning CCD device 23, normal CCD imaging device 2
5. LCD 26 for right eye display and LCD 2 for left eye display
7 is connected to the internal bus 41 via the internal interface 42.

【0128】この内部バス41には記録媒体としてE2
PROM48が接続され、ゲーム装置205上に基準面
を設定するようなアルゴリズムが格納されている。従っ
て、このアルゴリズムを実行することによって、簡易
に、しかも、少ない計算量で実空間上のゲーム装置20
5の基準面などをCPU45などに認識させることがで
きる。これにより、サッカーコートでプレーするサッカ
ー選手などの視線により認識される臨場感溢れた3次元
映像をゲーム装置205上の基準面に出現させるような
3Dポリゴン放送システムを再現性良く構成することが
できる。
This internal bus 41 has E 2 as a recording medium.
The PROM 48 is connected, and an algorithm for setting a reference plane on the game device 205 is stored. Therefore, by executing this algorithm, the game device 20 in the real space can be simply and with a small amount of calculation.
5 can be recognized by the CPU 45 or the like. Thus, a 3D polygon broadcasting system in which a realistic three-dimensional image recognized by the eyes of a soccer player or the like playing on a soccer court appears on the reference plane on the game device 205 can be configured with high reproducibility. .

【0129】この例では、内部バス41に外部インタフ
ェース49が接続されている。この外部インタフェース
49には外部入力端子410が設けられ、上述した3D
ポリゴン受信装置202を直接接続して、RS−232
C通信プロトコルによるビデオ信号やデジタル放送信号
などが入力できるようになされている。この外部入力端
子410の他には、ゲーム装置205に接続できる外部
入力端子411が設けられ、ゲーム装置205で再生さ
れたサッカーゲームに係る3Dポリゴン10のステレオ
画像が3Dポリゴン受信装置202の映像作成手段6を
介して供給される。
In this example, an external interface 49 is connected to the internal bus 41. The external interface 49 is provided with an external input terminal 410,
By directly connecting the polygon receiving device 202, the RS-232
Video signals and digital broadcast signals according to the C communication protocol can be input. In addition to the external input terminal 410, an external input terminal 411 that can be connected to the game device 205 is provided, and a stereo image of the 3D polygon 10 relating to the soccer game played on the game device 205 can be created by the 3D polygon receiving device 202. It is supplied via means 6.

【0130】更に、内部バス41にはROM46が接続
され、この特殊グラストロン206を制御するためのシ
ステムプログラムや、メモリの読み出し手順などの制御
情報などが格納される。内部バス41にはワーキング用
のRAM47が接続され、システムプログラムや3Dポ
リゴン10の画像を表示する表示情報が一時記録され
る。また、内部バス41にはCPU45が接続され、内
部インタフェース42、画像キャプチャ部43、画像処
理部44、ROM46、RAM47及びE2PROM4
8の入出力の制御や、流し撮りCCD装置23、CCD
撮像装置25、LCD26及びLCD27の入出力の制
御が行われる。
Further, a ROM 46 is connected to the internal bus 41, and stores a system program for controlling the special glasstron 206, control information such as a memory reading procedure, and the like. A working RAM 47 is connected to the internal bus 41, and a system program and display information for displaying an image of the 3D polygon 10 are temporarily recorded. A CPU 45 is connected to the internal bus 41, and an internal interface 42, an image capture unit 43, an image processing unit 44, a ROM 46, a RAM 47, and an E 2 PROM 4
8 input / output control, panning CCD device 23, CCD
Input / output control of the imaging device 25, the LCD 26, and the LCD 27 is performed.

【0131】この内部インタフェース42には演算手段
として画像処理部44が接続され、例えば、図15に示
した通常のCCD撮像装置25によってゲーム装置20
5の映像が取得され、基準面認識用の4つの発光ダイオ
ードLED1〜LED4が流し撮りCCD装置23で撮
像されると、このCCD装置23から得られた点滅パタ
ーンに係る画像データが、CPU45の制御命令と共に
内部インタフェース42を介して、画像キャプチャ部4
3に取り込まれる。画像キャプチャ部43では、流し撮
りCCD装置23から入力した4つの発光ダイオードL
ED1〜LED4に係る画像データを獲得する所定のキ
ャプチャ処理がなされる。この点滅パターンの画像デー
タは時間経過に対応する輝度の変化として表現されてい
る。
An image processing section 44 is connected to the internal interface 42 as arithmetic means. For example, the game apparatus 20 is operated by a normal CCD image pickup apparatus 25 shown in FIG.
5 are acquired and the four light emitting diodes LED1 to LED4 for reference plane recognition are imaged by the follow-up CCD device 23, and the image data on the blinking pattern obtained from the CCD device 23 is controlled by the CPU 45. The image capture unit 4 via the internal interface 42 together with the instruction
3 In the image capture unit 43, the four light emitting diodes L input from the panning CCD device 23
A predetermined capture process for acquiring image data related to ED1 to LED4 is performed. The image data of this blinking pattern is expressed as a change in luminance corresponding to the passage of time.

【0132】この画像キャプチャ部43には内部バス4
1を介して画像処理部44が接続され、所定の画像処理
が施された画像データに関して、点滅パターンの同期ず
れが補正されたり、視聴者の注視するゲーム装置205
の映像が求められる。これにより、所定の撮像方向に流
すように撮像された発光ダイオードLED1〜LED4
の点滅パターンに関して、その点滅パターンに係る輝度
信号SOUTが画像処理部44で画像処理され、その発光
ダイオードLED1〜LED4の位置が求められるの
で、そのゲーム装置205の位置を容易に特定すること
ができる。
The image capture unit 43 has an internal bus 4
The image processing unit 44 is connected to the game device 205 through which the blinking pattern synchronization is corrected or the viewer gazes with respect to the image data on which the predetermined image processing has been performed.
Is required. Thereby, the light emitting diodes LED1 to LED4 imaged so as to flow in a predetermined imaging direction
With respect to the blink pattern, the luminance signal SOUT relating to the blink pattern is subjected to image processing by the image processing unit 44, and the positions of the light emitting diodes LED1 to LED4 are obtained. Therefore, the position of the game device 205 can be easily specified. .

【0133】例えば、画像処理部44では流し撮りCC
D装置23から出力された流し撮り信号(輝度信号)S
OUTの点滅パターンに関して、図23に示すウインドウ
Wにより画定された画像領域内で、4つの流し撮り輝点
P1〜P4を含むXY平面を成す空間的な配置パターン
に変換される。その後、その配置パターン上を走査し
て、少なくとも、4つの輝点P1〜P4の位置座標(X
1,Y1)、(X2,Y2)、(X3,Y3)、(X
4,Y4)が求められる。この4つの輝点P1〜P4は
視聴者が注視するゲーム装置205上の基準面設定用の
4つの発光ダイオードLED1〜LED4である。実空
間上のゲーム装置205の4つの発光ダイオードLED
1〜LED4の位置座標は既知であり、その位置座標は
(x1,y1)、(x2,y2)、(x3,y3)、
(x4,y4)である。
For example, in the image processing section 44, the panning CC
Panning signal (luminance signal) S output from D device 23
The blinking pattern of OUT is converted into a spatial arrangement pattern that forms an XY plane including four pan shot bright points P1 to P4 within the image area defined by the window W shown in FIG. Then, by scanning the arrangement pattern, at least the position coordinates (X
1, Y1), (X2, Y2), (X3, Y3), (X
4, Y4) are required. The four bright points P1 to P4 are four light emitting diodes LED1 to LED4 for setting a reference plane on the game device 205 that the viewer gazes at. Four light emitting diodes LED of the game device 205 in the real space
The position coordinates of 1 to LED4 are known, and the position coordinates are (x1, y1), (x2, y2), (x3, y3),
(X4, y4).

【0134】従って、上述の実空間上のゲーム装置20
5の取得映像は4つの発光ダイオードLED1〜LED
4の取付け位置に射影する変換行列を演算することによ
り得られる。ここで実空間の平面上の点(xi,yi,
0)をある並進・回転運動によって移動し、それを透視
変換で画像座標系に射影した点を(Xi,Yi)で示す
と、両者の間には(1)式なる関係がある。
Therefore, the game device 20 in the real space described above
The acquired image of 5 is four light emitting diodes LED1 to LED
4 is obtained by calculating a transformation matrix projected onto the mounting position of No. 4. Here, a point (xi, yi,
0) is moved by a certain translation / rotational motion, and a point obtained by projecting the point on the image coordinate system by the perspective transformation is represented by (Xi, Yi).

【0135】[0135]

【数3】 (Equation 3)

【0136】但し、a1・・・・a8は未知の係数でC
CD撮像装置25などの外部パラメータ(位置と方向)
及び焦点距離などの内部パラメータである。これらのパ
ラメータは実空間の既知の点の位置座標(x1,y
1)、(x2,y2)、(x3,y3)、(x4,y
4)と、それらに対応する4組の画像処理系の位置座標
(X1,Y1)、(Y2,Y2)、(X3,Y3)、
(X4,Y4)が存在すれば、(2)式の方程式を解く
ことにより得られる。
Where a1... A8 are unknown coefficients and C1
External parameters (position and direction) such as CD imaging device 25
And internal parameters such as focal length. These parameters are the position coordinates (x1, y) of a known point in the real space.
1), (x2, y2), (x3, y3), (x4, y
4) and four sets of position coordinates (X1, Y1), (Y2, Y2), (X3, Y3),
If (X4, Y4) exists, it can be obtained by solving the equation (2).

【0137】[0137]

【数4】 (Equation 4)

【0138】ここで得られた4点の位置座標(X1,Y
1)、(X2,Y2)、(X3,Y3)、(X4,Y
4)を結ぶことにより、図15に示した実空間上のゲー
ム装置205が認識される。
The position coordinates of the four points obtained here (X1, Y
1), (X2, Y2), (X3, Y3), (X4, Y
By connecting 4), the game device 205 in the real space shown in FIG. 15 is recognized.

【0139】具体的には、図23に示す配置パターン上
で流し撮像方向をY軸とし、そのY軸に直交する方向を
X軸としたときに、画像処理部44によって流し撮像方
向と同一方向又はその反対方向に輝度信号値が加算され
る。この加算値がX軸上にプロットされると、そのX軸
にプロットされた輝度信号値が最大となる4つの位置が
検出され、この4つの位置に対応するX座標値X1、X
2、X3、X4が求められる。また、その配置パターン
上で取得画像をY方向に走査したときに、そのY方向に
並んだ複数の輝点のうち、最初に発光した輝点位置が各
々X座標値に対応したY座標値Y1、Y2、Y3、Y4
として求められる。
More specifically, when the moving image pickup direction is the Y axis on the arrangement pattern shown in FIG. 23 and the direction orthogonal to the Y axis is the X axis, the same direction as the moving image pickup direction by the image processing unit 44 is used. Alternatively, the luminance signal values are added in the opposite direction. When this added value is plotted on the X axis, four positions where the luminance signal value plotted on the X axis is the maximum are detected, and X coordinate values X1, X corresponding to the four positions are detected.
2, X3 and X4 are determined. Further, when the acquired image is scanned in the Y direction on the arrangement pattern, among the plurality of luminescent points arranged in the Y direction, the luminescent spot position that first emits light has a Y coordinate value Y1 corresponding to the X coordinate value. , Y2, Y3, Y4
Is required.

【0140】ここで、実空間上の4つの発光ダイオード
LED1〜LED4の位置座標をwi(i=1〜4)と
し、その4つの発光ダイオードLED1〜LED4の位
置座標wiのカメラ座標系上での表現ベクトルをCiと
し、その4つの発光ダイオードLED1〜LED4のL
CD画面上での位置座標をPiとし、流し撮りCCD装
置23の回転マトリクスをR、その移動ベクトルをTと
すると、(3)式、すなわち、 Ci=R・wi+T ・・・(3) 但し、Ci=Pi・ki(kiはスカラー) という関係がある。従って、通常のCCD撮像装置25
の回転マトリクスRとその移動ベクトルTとを演算し、
これをパラメータとして実空間と仮想空間との間で座標
変換を容易に行うことができるので、仮想空間上のゲー
ム装置205の映像に3Dポリゴン10によるサッカー
選手の映像を合成することができる。この画像処理部4
4で所定の画像処理がなされた合成映像は、再び、内部
インタフェース42を介して特殊グラストロン206内
のLCD26及びLCD27などに転送される。
Here, the position coordinates of the four light emitting diodes LED1 to LED4 in the real space are defined as wi (i = 1 to 4), and the position coordinates wi of the four light emitting diodes LED1 to LED4 on the camera coordinate system. The expression vector is Ci, and L of the four light emitting diodes LED1 to LED4 is L.
Assuming that the position coordinates on the CD screen are Pi, the rotation matrix of the panning CCD device 23 is R, and the movement vector is T, Expression (3), that is, Ci = R · wi + T (3) Ci = Pi.ki (ki is a scalar). Therefore, the normal CCD imaging device 25
Of the rotation matrix R and its movement vector T,
Using this as a parameter, coordinate conversion between the real space and the virtual space can be easily performed, so that the image of the soccer player using the 3D polygon 10 can be combined with the image of the game device 205 in the virtual space. This image processing unit 4
The synthesized video subjected to the predetermined image processing in 4 is transferred again to the LCD 26 and the LCD 27 in the special glasstron 206 via the internal interface 42.

【0141】続いて、第2の実施例に係る3Dポリゴン
放送システム400における処理例について説明をす
る。この例では放送局から衛星回線を介して送られてき
たサッカー中継に係る複数の映像素材情報D1iに基づ
いて3Dポリゴン受信装置202により3次元映像を作
成し、その複数の映像素材情報D1iから視聴者の好み
に応じて選択された映像素材情報に基づいて視聴者固有
の3次元映像を作成することを前提とする。もちろん、
視聴者は図15に示した特殊グラストロン206を頭部
に装着する。これと共に、特殊グラストロン206を装
着した視聴者において、ゲーム装置205から提供され
た映像ソフトによるサッカーコートに、3Dポリゴン1
0で構成されるサッカー選手の3次元映像を合成表示す
ることを想定する。
Next, an example of processing in the 3D polygon broadcast system 400 according to the second embodiment will be described. In this example, the 3D polygon receiver 202 creates a three-dimensional image based on a plurality of pieces of video material information D1i relating to a soccer relay sent from a broadcasting station via a satellite line, and views from the plurality of pieces of video material information D1i. It is assumed that a viewer-specific 3D video is created based on video material information selected according to the viewer's preference. of course,
The viewer wears the special glasstron 206 shown in FIG. At the same time, a viewer wearing the special glasstron 206 can add a 3D polygon 1 to a soccer court using video software provided from the game device 205.
It is assumed that a three-dimensional image of a soccer player composed of 0s is synthesized and displayed.

【0142】これらを前提として、図24に示すフロー
チャートのステップC1で3次元映像を作成するための
複数の映像素材情報D1iが予め放送局で準備される。
例えば、図示しない「ワールドカップサッカー」の衛星
中継に係るサッカーコートの全体を表現する背景情報D
11と、この映像の背景内で動くサッカー選手を表現す
る物体情報D12と、サッカーコート対する複数のサッ
カー選手の初期の配置情報D13及びこれらのサッカー
選手の移動に伴う位置情報D14と、サッカー選手の動
作に伴う動作情報D15とにより映像素材情報D1iが
取得される。その他に第1の実施例で説明したようなコ
ンピユータ212で加工形成された、「森」、「海」、
「芝生」や「砂浜」などのCGデータD4を映像素材情
報D1iに含めてもよい。
Based on the above, a plurality of pieces of video material information D1i for creating a three-dimensional video are prepared in advance in the broadcasting station in step C1 of the flowchart shown in FIG.
For example, background information D representing the entire soccer court relating to satellite relay of “World Cup Soccer” (not shown)
11, object information D12 representing a soccer player moving in the background of this video, initial arrangement information D13 of a plurality of soccer players on a soccer court, positional information D14 associated with movement of these soccer players, and The video material information D1i is obtained from the motion information D15 accompanying the motion. In addition, “forest”, “sea”, and “process” formed by the computer 212 as described in the first embodiment.
CG data D4 such as "grass" and "sandy beach" may be included in the video material information D1i.

【0143】その後、放送局側で準備された映像素材情
報D1iがステップC2で3Dポリゴン送信装置201
により多重化される。図15に示した3Dポリゴン送信
装置201では、例えば、ステップC21で音声映像取
得装置211から得られたサッカー中継に係る映像素材
情報D1iが音声符号化部213、映像符号化部214
及びデータ符号化部215に出力される。音声符号化部
213ではサッカー選手や審判の笛、応援団の音声など
の符号化され、音声符号化信号が発生される。映像符号
化部214では1番組を構成するサッカー中継に係るサ
ッカーコートの背景に係る背景情報D11、サッカー選
手の映像に係る物体情報D12、その配置情報D13、
その位置情報D14及びその動作情報D15などの画像
素材情報D1iが符号化され、映像符号化信号が発生さ
れる。データ符号化部215では得点経過などのCGデ
ータD4が符号化され、CGデータ符号化信号が発生さ
れる。
Thereafter, the video material information D1i prepared by the broadcasting station is stored in the 3D polygon transmitting device 201 in step C2.
Are multiplexed. In the 3D polygon transmission device 201 shown in FIG. 15, for example, the video material information D1i relating to the soccer relay obtained from the audio / video acquisition device 211 in step C21 is converted into the audio encoding unit 213 and the video encoding unit 214.
And output to the data encoding unit 215. The audio encoding unit 213 encodes a soccer player, a referee's whistle, a cheering team's audio, and the like, and generates an audio encoded signal. In the video encoding unit 214, the background information D11 relating to the background of the soccer court relating to the soccer relay which constitutes one program, the object information D12 relating to the image of the soccer player, the arrangement information D13 thereof,
Image material information D1i such as the position information D14 and the operation information D15 is encoded, and a video encoded signal is generated. The data encoding unit 215 encodes CG data D4 such as the progress of the score, and generates a CG data encoded signal.

【0144】また、音声符号化部213、映像符号化部
214及びデータ符号化部215の出力に接続された多
重化手段1Aにより、音声符号化信号、映像符号化信号
及びCGデータ符号化信号などの多種多様なサービスが
多重化され、複数のトランスポートストリームパケット
TSj(j=1〜m)が発生される。そして、ステップ
C22では上述したサッカー中継に係る背景情報D11
がチャネルch1に割り振られ、そのサッカー選手に係
る物体情報D12がチャネルch2に割り振られ、その
配置情報D13がチャネルch3に割り振られ、その位
置情報D14がチャネルch4に割り振られ、その動作
情報D15がチャネルch5に割り振られ、二次元の映
像情報がチャネルch6に割り振られる。
The multiplexing means 1A connected to the outputs of the audio encoding unit 213, the video encoding unit 214, and the data encoding unit 215 allows the audio encoded signal, the video encoded signal, the CG data encoded signal, etc. Are multiplexed, and a plurality of transport stream packets TSj (j = 1 to m) are generated. Then, in step C22, the background information D11 related to the soccer relay described above is performed.
Is allocated to the channel ch1, the object information D12 relating to the soccer player is allocated to the channel ch2, the arrangement information D13 is allocated to the channel ch3, the position information D14 is allocated to the channel ch4, and the operation information D15 is allocated to the channel ch4. The two-dimensional video information is allocated to channel ch6, and is allocated to channel ch6.

【0145】この例では、1番組を構成する符号化信号
(映像素材情報D1i)は図5に示したようにMPEG
−4のデータ系列のビットストリームになるように符号
化される。この多重化手段1Aの出力は伝送路符号化部
216で、トランスポートストリームTSjの合成、T
MCC生成、誤り訂正及び変調などのOFDM処理がス
テップC23で施される。
In this example, the coded signal (video material information D1i) constituting one program is, as shown in FIG.
-4 is encoded so as to become a data stream bit stream. The output of the multiplexing means 1A is output from a transmission path encoding section 216 to synthesize the transport stream TSj,
OFDM processing such as MCC generation, error correction and modulation is performed in step C23.

【0146】このOFDM処理後の符号化信号は、送信
機217において、TC8PSK方式のデジタル変調が
なされ、34.5MHz帯域幅を使用して、ステップC
24で衛星回線を通じて視聴者の受信装置に向けて発信
される。この際に、デジタルテレビ放送網を使用して映
像素材情報D1iが視聴者側に伝送される。もちろん、
ケーブルテレビ通信回線又はインターネット通信回線を
使用してもよい。
The coded signal after the OFDM processing is subjected to digital modulation of the TC8PSK system in the transmitter 217, and a step C is performed using a 34.5 MHz bandwidth.
At 24, the signal is transmitted to the viewer's receiving device via a satellite line. At this time, the video material information D1i is transmitted to the viewer using the digital television broadcast network. of course,
A cable television communication line or an Internet communication line may be used.

【0147】受信側では、ステップC3でゲーム装置2
05が起動された後に、ステップC4で4つの発光ダイ
オードLED1〜LED4の点滅制御を開始する。この
際に、CD−ROM79内の3D映像データはジオメト
リー部85へ転送される。これは受信信号がゲーム装置
205で処理し切れない場合があるからである。
On the receiving side, at step C3, the game device 2
After the activation of the light emitting diode 05, the blinking control of the four light emitting diodes LED1 to LED4 is started in step C4. At this time, the 3D video data in the CD-ROM 79 is transferred to the geometry unit 85. This is because the received signal may not be completely processed by the game device 205.

【0148】これと並行して、放送局側から送られてき
た映像素材情報D1iはステップC5で視聴者側に設置
された3Dポリゴン受信装置202によって受信され
る。例えば、図8に示した3Dポリゴン受信装置202
のチューナ部では、衛星回線から送られくるTC8PS
K変調方式のデジタル信号が受信される。
At the same time, the video material information D1i sent from the broadcast station is received by the 3D polygon receiver 202 installed on the viewer side in step C5. For example, the 3D polygon receiving device 202 shown in FIG.
In the tuner section, TC8PS sent from the satellite line
A digital signal of the K modulation scheme is received.

【0149】このチューナ部74に接続された映像検波
部75では、6チャネルに多重化されたTC8PSK変
調方式のデジタル信号が検波される。この映像検波部7
5に接続されたノイズ除去部76では、MPEG−4の
データ系列で送信されてきたデジタル信号がノイズ除去
されると共にOFDM復調される。このノイズ除去部7
6に接続された誤り補正部77では、OFDM復調され
たデジタル信号の誤り符号が補正される。
The video detector 75 connected to the tuner 74 detects a TC8PSK modulation digital signal multiplexed on six channels. This video detector 7
In the noise removing unit 76 connected to 5, the digital signal transmitted in the MPEG-4 data series is subjected to noise removal and OFDM demodulation. This noise removing unit 7
In an error correction unit 77 connected to 6, the error code of the OFDM-demodulated digital signal is corrected.

【0150】この誤り補正部77に接続された情報多重
化解析部78では、誤り補正された6チャネルの映像素
材情報D1iが多重分離される。背景情報D11はch
1から得られ、物体情報D12はch2から得られ、配
置情報D13はch3から得られ、位置情報D14はc
h4から得られ、動作情報D15はch5から得られ、
及び、二次元の映像情報はch5から各々得られる。こ
れらの背景情報D11、物体情報D12、配置情報D1
3、位置情報D14、動作情報D15及び二次元の映像
情報などの映像素材情報D1iは画像メモリ3に一時記
憶される。
In the information multiplexing analysis unit 78 connected to the error correction unit 77, the error-corrected 6-channel video material information D1i is demultiplexed. Background information D11 is ch
1, the object information D12 is obtained from ch2, the arrangement information D13 is obtained from ch3, and the position information D14 is c.
h4, operation information D15 is obtained from ch5,
And two-dimensional video information is obtained from ch5. These background information D11, object information D12, and arrangement information D1
3. Position information D14, motion information D15, and video material information D1i such as two-dimensional video information are temporarily stored in the image memory 3.

【0151】その後、ステップC6では映像素材情報D
1iから任意の映像素材情報D1iがジョグダイアル8
9などを使用して視聴者により選択される。このジョグ
ダイアル89によって制御装置88及びセレクタ4を通
じて選択された映像素材情報D1iは、映像作成手段6
に出力される。映像作成手段6のジオメトリ部85で
は、3次元映像を表現するためのグローバル座標系に、
ステップC3のCD−ROM79から転送されたサッカ
ーコートなどの3D映像データ、放送局からの背景情報
D11、サッカー選手に係る物体情報D12、その配置
情報D13、その位置情報D14及びその動作情報D1
5が表示(記述)される。
Thereafter, in step C6, the video material information D
Any video material information D1i from 1i is jog dial 8
9 is selected by the viewer. The video material information D1i selected by the jog dial 89 through the control device 88 and the selector 4 is stored in the video creation unit 6
Is output to In the geometry section 85 of the image creating means 6, a global coordinate system for expressing a three-dimensional image
3D video data such as a soccer court transferred from the CD-ROM 79 in step C3, background information D11 from a broadcasting station, object information D12 about soccer players, its arrangement information D13, its position information D14, and its operation information D1
5 is displayed (described).

【0152】この例では、ゲーム装置205から、例え
ば、CD−ROM79により再生されるサッカーゲーム
の映像ソフトに基づくサッカーコートが、「ワールドカ
ップサッカー」の中継に係るサッカーコートと置き換え
られ、3Dポリゴン10で構成されるサッカー選手をそ
のサッカーゲームソフトに基づくサッカーコート上に存
在するように3次元映像が合成され、これらの映像合成
信号が作成される。
In this example, a soccer court based on video software of a soccer game played on the CD-ROM 79 from the game apparatus 205 is replaced with a soccer court related to the relay of “World Cup Soccer”, and the 3D polygon 10 Are synthesized on the soccer player based on the soccer game software so as to exist on the soccer court based on the soccer game software.

【0153】また、ジオメトリ部85に接続されたラス
ター部86では、表示手段24の走査方式に合うように
ラスター処理が施される。その後、ラスター部86に接
続されたステレオ画像生成部87では、視点データに基
づいてステレオ画像が形成される。
In the raster unit 86 connected to the geometry unit 85, raster processing is performed so as to match the scanning method of the display unit 24. After that, the stereo image generation unit 87 connected to the raster unit 86 forms a stereo image based on the viewpoint data.

【0154】このステレオ画像はステップC7で特殊グ
ラストロン206に供給される。特殊グラストロン20
6では、例えば、図25に示す第1のサブルーチンをコ
ールして、そのフローチャートのステップD1で視聴者
の属する実空間上でゲーム装置205上に基準面を設定
するために、視聴者は、流し撮りCCD装置23をゲー
ム装置205に向くようにする。その後、図16に示し
た点滅制御回路13を通じて4つの発光ダイオードLE
D1〜LED4に所定の電圧を供給して所定の点滅パタ
ーンで点滅する。
This stereo image is supplied to the special glasstron 206 in step C7. Special Glasstron 20
In step 6, for example, the viewer calls the first subroutine shown in FIG. 25, and sets the reference plane on the game device 205 in the real space to which the viewer belongs in step D1 of the flowchart. The shooting CCD device 23 is directed to the game device 205. After that, the four light emitting diodes LE through the blinking control circuit 13 shown in FIG.
A predetermined voltage is supplied to D1 to LED4 to blink in a predetermined blinking pattern.

【0155】この例では、所定周波数のクロック信号C
LK1が抵抗Rを通して発光ダイオードLED1に供給
され、このクロック信号CLK1を1/2分周したクロ
ック信号CLK2が抵抗Rを通して発光ダイオードLE
D2に供給され、そのCLK1を1/3分周したクロッ
ク信号CLK3が抵抗Rを通して発光ダイオードLED
3に供給され、そのCLK1を1/4分周したクロック
信号CLK4が抵抗Rを通して発光ダイオードLED4
に供給される。
In this example, the clock signal C having a predetermined frequency
LK1 is supplied to the light emitting diode LED1 through the resistor R, and a clock signal CLK2 obtained by dividing the clock signal CLK1 by 1 / is supplied to the light emitting diode LE1 through the resistor R.
D2, the clock signal CLK3 obtained by dividing the frequency of CLK1 by 1/3 is supplied to the light emitting diode LED through the resistor R.
The clock signal CLK4 obtained by dividing the frequency of CLK1 by 1/4 is supplied to the light emitting diode LED4 through the resistor R.
Supplied to

【0156】次に、ステップD2において、一方で通常
のCCD撮像装置25を使用して実空間上の基準面を撮
影してLCD26及びLCD27にステレオ画像を表示
する。他方で、流し撮りCCD装置23を使用して実空
間上の基準面を流し撮りする。例えば、3Dポリゴン1
0のサッカー選手を合成させようとするゲーム装置20
5の所定位置に取付けられた4つの発光ダイオードLE
D1〜LED4が、点滅パターンが異なるように点滅さ
れるので、その点滅パターンが所定の撮像方向に流すよ
うに撮像される。
Next, in step D2, a reference plane in real space is photographed using the ordinary CCD image pickup device 25, and a stereo image is displayed on the LCD 26 and the LCD 27. On the other hand, the panning CCD device 23 is used to pan and photograph a reference plane in real space. For example, 3D polygon 1
Game device 20 trying to synthesize 0 soccer players
5 light emitting diodes LE mounted at predetermined positions
Since D1 to LED4 blink in a different blinking pattern, the blinking pattern is imaged so as to flow in a predetermined imaging direction.

【0157】その後、ステップD3で視聴者の属する実
空間上に任意に設定された基準面を認識するために画像
処理する。画像処理部44では、例えば、図26に示す
第2のサブルーチンをコールしてステップE1でビデオ
キャプチャ処理を実行する。そして、ステップE2で四
隅の発光ダイオードLED1〜LED4を認識する。具
体的には、流し撮りCCD装置23で撮像された4つの
発光ダイオードLED1〜LED4による輝度信号の点
滅パターンが、4つの輝点P1〜P4を含むXY平面を
成す空間的な配置パターンに変換される。
Thereafter, in step D3, image processing is performed to recognize an arbitrarily set reference plane in the real space to which the viewer belongs. The image processing unit 44 executes, for example, a video capture process in step E1 by calling a second subroutine shown in FIG. Then, in step E2, the light emitting diodes LED1 to LED4 at the four corners are recognized. Specifically, the blinking pattern of the luminance signal by the four light emitting diodes LED1 to LED4 captured by the panning CCD device 23 is converted into a spatial arrangement pattern forming an XY plane including the four luminescent points P1 to P4. You.

【0158】その後、その配置パターン上を走査して、
少なくとも、4つの輝点P1〜P4の位置座標(X1,
Y1)、(X2,Y2)、(X3,Y3)、(X4,Y
4)が求められ、上述した(1)式及び(2)式が演算
され、実空間上の4つの発光ダイオードLED1〜LE
D4の取付け位置と、画像処理系の4点の位置座標(X
1,Y1)、(X2,Y2)、(X3,Y3)、(X
4,Y4)との関係が求められ、この4点を結ぶことに
より基準面が求められる。そして、ステップE3で画像
処理部44では上述の(3)式に基づいて演算処理が行
われ、流し撮りCCD装置23と基準面との位置関係が
検出される。
Thereafter, the arrangement pattern is scanned, and
At least the position coordinates (X1,
Y1), (X2, Y2), (X3, Y3), (X4, Y
4) is obtained, and the above-described equations (1) and (2) are calculated, and the four light emitting diodes LED1 to LE4 in the real space are calculated.
D4 mounting position and the position coordinates (X
1, Y1), (X2, Y2), (X3, Y3), (X
4, Y4) is obtained, and a reference plane is obtained by connecting these four points. Then, in step E3, the image processing unit 44 performs an arithmetic process based on the above equation (3), and detects the positional relationship between the panning CCD device 23 and the reference plane.

【0159】その後、図25の第1のサブルーチンのス
テップD4にリターンして仮想空間の基準面上にCD−
ROM79によるゲーム用のサッカーコートの映像を表
示する。そして、上述の(2)式に基づいて、仮想空間
の基準面上に3Dポリゴン10によるサッカー選手の映
像が合成される。
Thereafter, the process returns to step D4 of the first subroutine of FIG.
The image of the soccer court for the game is displayed on the ROM 79. Then, based on the above equation (2), the image of the soccer player using the 3D polygon 10 is synthesized on the reference plane of the virtual space.

【0160】このとき、視聴者が装着した特殊グラスト
ロン206では、「ワールドカップサッカー」の中継に
係るサッカーコートでサッカーボールを蹴る3Dポリゴ
ン10のサッカー選手が、サッカーゲームソフトに基づ
くサッカーコート10Bでプレーするように合成したス
テレオ画像の一方が表示される。また、そのLCD27
には、その3Dポリゴン10のサッカー選手が、サッカ
ーゲームソフトに基づくサッカーコート10Bでプレー
するように合成したステレオ画像の他方が表示される。
At this time, in the special glasstron 206 worn by the viewer, a soccer player of the 3D polygon 10 kicking a soccer ball on the soccer court related to the relay of “World Cup Soccer” plays on the soccer court 10B based on soccer game software. One of the stereo images synthesized to play is displayed. Also, the LCD 27
Displays the other stereo image synthesized so that the soccer player of the 3D polygon 10 plays on the soccer court 10B based on soccer game software.

【0161】上述のLCD26のステレオ画像と、LC
D27のステレオ画像とが視聴者の眼球に導くようにな
される。これにより、実際は「ワールドカップサッカ
ー」に係るコート上でサッカーボール10Aを蹴るサッ
カー選手が、サッカーゲーム上のコート10Bでプレー
しているように3次元映像が視聴者の頭の中で合成され
る。
The stereo image of the LCD 26 and the LC
The D27 stereo image is guided to the viewer's eyeball. As a result, a three-dimensional image is synthesized in the viewer's head as if a soccer player kicking the soccer ball 10A on the court relating to “World Cup Soccer” is playing on the court 10B in the soccer game. .

【0162】従って、図27に示す実空間上では基準面
上に3Dポリゴン10によるサッカー選手やサッカーボ
ール10A及びゲームソフトによるサッカーコート10
Bが出現していないのに、図28に示す仮想空間ではそ
の基準面上にサッカーコート10Bが出現し、しかも、
3Dポリゴン10によるサッカー選手やサッカーボール
10Aを出現させることができる。
Therefore, in the real space shown in FIG. 27, a soccer player or soccer ball 10A using the 3D polygon 10 and a soccer court 10 using the game software are placed on the reference plane.
28B, the soccer court 10B appears on the reference plane in the virtual space shown in FIG.
A soccer player or a soccer ball 10A using the 3D polygon 10 can appear.

【0163】このように、第2の実施例に係る3Dポリ
ゴン放送システム400によれば、予め放送局側で準備
された複数の映像素材情報D1iから視聴者の好みに応
じて選択された映像素材情報D1iに基づいて視聴者固
有の3次元映像を作成することができる。特殊グラスト
ロン206を装着した視聴者においては、ゲームソフト
によるサッカーコート上で、サッカーボール10Aを蹴
る3Dポリゴン10によるサッカー選手をプレイさせる
ようなゲームを行わせることができる。
As described above, according to the 3D polygon broadcasting system 400 according to the second embodiment, the video material selected according to the viewer's preference from the plurality of video material information D1i prepared in advance by the broadcasting station. A viewer-specific three-dimensional video can be created based on the information D1i. A viewer wearing the special glasstron 206 can play a game in which a soccer player using the 3D polygon 10 that kicks the soccer ball 10A is played on a soccer court using game software.

【0164】従って、放送局側から与えられた映像をた
だ消極的に視聴者がそのまま視聴するのではなく、視聴
者が積極的かつ独自に立体的に映像加工した3次元映像
を視聴することができる。これにより、自宅に居ながら
にして「ワールドカップサッカー」に係るサッカー選手
の視線により認識される臨場感溢れた3次元映像を視聴
することができる。また、第1の実施例と同様にしてI
SDBサービスを利用した次世代の3次元デジタル放送
システムを構築することができる。
Therefore, the viewer does not merely passively watch the video provided by the broadcasting station, but can view the three-dimensional video which is actively and independently stereoscopically processed. it can. This allows the viewer to view a realistic three-dimensional image recognized by the eyes of a soccer player who is involved in “World Cup Soccer” while staying at home. Also, as in the first embodiment, I
A next-generation three-dimensional digital broadcasting system using the SDB service can be constructed.

【0165】なお、特殊グラストロン206を装着しな
い場合には、客席からサッカーコートを見ている場合の
二次元映像がテレビモニタ204に表示される。この他
に、ジョグダイアル89の切り換えによってテレビモニ
タ204に、3Dポリゴン10で構成されるサッカー選
手が、サッカーゲーム上のコート10Bでプレーしてい
る3次元の合成映像を表示することができる。このサッ
カーゲーム上のコート10BはCD−ROM79から読
み出されるので、放送局から視聴者側へ伝送される映像
素材情報のデータ量を低減することができる。
When the special glasstron 206 is not mounted, a two-dimensional image when the soccer court is viewed from the seat is displayed on the television monitor 204. In addition, by switching the jog dial 89, a three-dimensional composite image of a soccer player composed of the 3D polygon 10 playing on the court 10B in the soccer game can be displayed on the television monitor 204. Since the court 10B in the soccer game is read from the CD-ROM 79, the data amount of the video material information transmitted from the broadcast station to the viewer can be reduced.

【0166】(4)第3の実施例 図29は第3の実施例としての3Dポリゴン受信処理シ
ステム500の構成例を示す斜視図である。この例で
は、点滅パターンの異なる光源画像をTVモニタ204
の特定位置に表示し、その光源画像の位置からTVモニ
タ204の位置を画像処理系に認識させて、視聴者の視
聴する二次元映像に仮想体の画像を再現性良く立体的に
合成できるようにしたものである。なお、第2の実施例
と同じ名称及び同じ符号のものは同じ機能を有するため
その説明を省略する。
(4) Third Embodiment FIG. 29 is a perspective view showing a configuration example of a 3D polygon reception processing system 500 as a third embodiment. In this example, light source images having different blinking patterns are displayed on the TV monitor 204.
At a specific position, and the image processing system recognizes the position of the TV monitor 204 from the position of the light source image so that the image of the virtual body can be three-dimensionally combined with the two-dimensional image viewed by the viewer with good reproducibility. It was made. Note that components having the same names and the same reference numerals as those in the second embodiment have the same functions, and thus description thereof will be omitted.

【0167】図29に示す3Dポリゴン受信処理システ
ム500では、視聴者の聴取するテレビ画像、例えば、
先の例の「ワールドカップサッカー」の中継映像にその
試合でプレイをするサッカー選手の映像をTVモニタ2
04上に飛び出させて、立体的に合成表示するようにな
される。
In the 3D polygon reception processing system 500 shown in FIG. 29, a television image to be heard by a viewer, for example,
The video of the soccer player who plays in the match is displayed on the TV monitor 2 in the broadcast video of “World Cup Soccer” in the previous example.
04 is projected on the screen and stereoscopically displayed.

【0168】この3Dポリゴン受信処理システム500
は基準面設定用のTVモニタ204及び特殊グラストロ
ン206を有している。このTVモニタ204は例えば
視聴者が視聴できる位置であって、特殊グラストロン2
06の撮影範囲内に入るように配置される。
This 3D polygon reception processing system 500
Has a TV monitor 204 and a special glasstron 206 for setting a reference plane. The TV monitor 204 is, for example, a position where the viewer can view the TV monitor 204 and the special glasstron 2
06.

【0169】このTVモニタ204は仮想体の画像を合
成しようとする基準面を提供するために、図29に示す
画面内の四隅に予め光源画像LPiが表示される。この
例では、3Dポリゴン10によるサッカー選手を飛び出
せようとするTV画面の4つの点P1〜P4の座標とし
て(x1,y1)、(x2,y2)、(x3,y3)、
(x4,y4)が与えられる(仮想空間上では画像を合
成しようとするTV画面の位置に相当する)。この4個
の光源画像PL1〜PL4は、そのマーク部としての機
能を発揮するために、かつ、TVモニタ204で表示位
置が明らかになるように、点滅パターンが異なるように
表示される。
The TV monitor 204 displays light source images LPi at four corners in the screen shown in FIG. 29 in advance in order to provide a reference plane on which a virtual body image is to be synthesized. In this example, coordinates (x1, y1), (x2, y2), (x3, y3), and (x1, y1) of four points P1 to P4 on the TV screen at which a soccer player tries to jump out of the 3D polygon 10 are displayed.
(X4, y4) (corresponding to the position on the TV screen where the image is to be synthesized in the virtual space). The four light source images PL1 to PL4 are displayed with different blinking patterns so as to exhibit their functions as mark portions and to make the display positions clear on the TV monitor 204.

【0170】この光源画像PL1〜PL4は特殊グラス
トロン206内の流し撮りCCD装置23により、所定
の流し撮像方向に流すように撮像される。この流し撮り
は4個の光源画像PL1〜PL4の表示位置からTV画
面を特定するためである。このTV画面の特定について
は図23で説明した通りである。
The light source images PL1 to PL4 are imaged by the panning CCD device 23 in the special glasstron 206 so as to flow in a predetermined panning imaging direction. This panning is for specifying the TV screen from the display positions of the four light source images PL1 to PL4. The specification of the TV screen is as described in FIG.

【0171】この特殊グラストロン206の本体部21
内には第2の実施例で説明した画像処理装置9が設けら
れ、流し撮りCCD装置23から出力された画像データ
に基づいて光源画像LPiを含んだTV画面などを認識
する画像処理がなされる。この例でも、特殊グラストロ
ン206内には画像処理装置9の他に流し撮りCCD装
置23及び表示手段24が設けられる。
The main body 21 of this special glasstron 206
The image processing device 9 described in the second embodiment is provided therein, and performs image processing for recognizing a TV screen or the like including the light source image LPi based on the image data output from the panning CCD device 23. . Also in this example, a panning CCD device 23 and display means 24 are provided in the special glasstron 206 in addition to the image processing device 9.

【0172】特殊グラストロン206の機種によっては
通常のCCD撮像装置25が設けられる。この基準面設
定用のTVモニタ204に表示された4個の光源画像P
Li、流し撮りCCD装置23及び画像処理装置9によ
って位置認識機構(面認識手段)7が構成され、視聴者
の視聴するTVモニタ204の表示画面を認識できるよ
うになされる。この位置認識機構7の主要部を成す流し
撮りCCD装置23では、TVモニタ204の画面内の
四隅で、点滅パターンが異なるように表示された光源画
像LPiを所定の撮像方向に流すように撮像される。こ
の流し撮りに関しては第2の実施例で説明した通りであ
る。
Depending on the type of the special glasstron 206, a normal CCD image pickup device 25 is provided. The four light source images P displayed on the TV monitor 204 for setting the reference plane
A position recognition mechanism (surface recognition means) 7 is constituted by Li, the panning CCD device 23 and the image processing device 9 so that the display screen of the TV monitor 204 which the viewer views can be recognized. In the panning CCD device 23 which is a main part of the position recognition mechanism 7, the light source images LPi displayed with different blinking patterns are picked up at four corners in the screen of the TV monitor 204 so as to flow in a predetermined imaging direction. You. This panning is as described in the second embodiment.

【0173】上述の画像処理装置9には第2の実施例で
説明した表示手段24が接続され、位置認識機構7によ
り認識されたTV画面が表示される。この特殊グラスト
ロン206内には偏光ビームスプリッタなどの光学手段
が設けられる場合があり、表示手段24によって表示さ
れた仮想空間のTV画面上で仮想体の画像が合成され
る。この例では、実空間上のTV画面の属する位置に、
あたかも、仮想体としての3Dポリゴン10によるサッ
カー選手が存在するようになされる。
The display means 24 described in the second embodiment is connected to the image processing apparatus 9 described above, and the TV screen recognized by the position recognition mechanism 7 is displayed. An optical unit such as a polarizing beam splitter may be provided in the special glasstron 206, and an image of a virtual body is synthesized on a TV screen of a virtual space displayed by the display unit 24. In this example, the position of the TV screen in the real space
It is made as if a soccer player exists with the 3D polygon 10 as a virtual body.

【0174】続いて、TVモニタ204の構成例につい
て説明する。この例では、点滅パターンの異なる光源画
像をブラウン管(以下CRTという)の特定位置に表示
し、その光源画像の位置からTVモニタ204の位置を
画像処理系で容易に認識できるようにしたものである。
Next, an example of the configuration of the TV monitor 204 will be described. In this example, light source images having different blinking patterns are displayed at specific positions of a cathode ray tube (hereinafter referred to as CRT), and the position of the TV monitor 204 can be easily recognized by the image processing system from the position of the light source image. .

【0175】図30に示すTVモニタ204は撮像可能
な任意の画面を有した表示手段8を備えている。この表
示手段8には陰極線管(以下CRT8’という)、液晶
表示パネル、プラズマ・ディスプレイパネル及び平面表
示パネルなどが使用される。もちろん、TVモニタ20
4はカラー表示形式又は白黒表示形式であり、TV放送
を受信して二次元映像を表示したり、3Dポリゴン10
による映像信号を受けて3次元映像を表示するものであ
る。これらのTVモニタ204の画面内であって、少な
くとも、その画面内の特定の位置に3点以上の光源画像
が表示される。この例では、表示手段8の表示映像画面
の四隅に矩形状の光源画像LP1〜LP4が表示され
る。この光源画像LP1〜LP4は予めTV放送局側で
準備され、映像素材情報D1iと同じように専用チャネ
ルに割り振り、多重化して送信するようにするとよい。
受信機側で選択された映像素材情報D1iに係るカラー
映像信号に光源画像LP1〜LP4を重畳する方法も考
えられる。ここでは、後者の場合であって表示手段8に
CRT8’を使用する場合について説明をする。
The TV monitor 204 shown in FIG. 30 has a display means 8 having an arbitrary image-capable screen. As the display means 8, a cathode ray tube (hereinafter referred to as CRT 8 '), a liquid crystal display panel, a plasma display panel, a flat display panel, or the like is used. Of course, the TV monitor 20
Reference numeral 4 denotes a color display format or a black-and-white display format.
And displays a three-dimensional image in response to the video signal of Within the screen of the TV monitor 204, at least three or more light source images are displayed at specific positions in the screen. In this example, rectangular light source images LP1 to LP4 are displayed at the four corners of the display video screen of the display unit 8. The light source images LP1 to LP4 may be prepared in advance on the TV broadcast station side, allocated to a dedicated channel in the same manner as the video material information D1i, multiplexed and transmitted.
A method of superimposing the light source images LP1 to LP4 on the color video signal related to the video material information D1i selected on the receiver side is also conceivable. Here, the latter case, in which the CRT 8 'is used for the display means 8, will be described.

【0176】図31に示すTVモニタ204はCRT
8’、画像処理手段90及び制御手段66を有してい
る。例えば、画像処理手段90には映像検波回路91が
設けられ、図示しない前段の映像中間増幅回路から出力
されたカラー映像中間信号Sinからカラー映像信号SC
が検出される。この映像検波回路91の出力段には加算
回路92が接続され、カラー映像信号SCの所定表示期
間に点滅パターンの異なる光源画像信号SPi(i=1
〜4)を加算するようになされる。
The TV monitor 204 shown in FIG.
8 ', an image processing means 90 and a control means 66. For example, the image processing means 90 is provided with a video detection circuit 91, which converts the color video intermediate signal Sin output from the preceding video intermediate amplification circuit (not shown) into the color video signal SC.
Is detected. An addition circuit 92 is connected to an output stage of the video detection circuit 91, and a light source image signal SPi (i = 1) having a different blinking pattern during a predetermined display period of the color video signal SC.
To 4) are added.

【0177】つまり、加算回路92の入力段には制御手
段66が接続され、CRT8’の画面内に表示される光
源画像LP1〜LP4を各々点滅パターンが異なるよう
に点滅制御される。この例の制御手段66は光源画像発
生部61を有しており、所定周波数のパルス状の光源画
像信号SP1が発生される。光源画像信号SP1は30
〜50Hzを除いた低域の周波数が好ましい。これは、
30〜50Hzで点滅する光では、視聴者が光てんかん
発作を引き起こすおそれがあるからである。
That is, the control means 66 is connected to the input stage of the addition circuit 92, and the light source images LP1 to LP4 displayed on the screen of the CRT 8 'are controlled to blink so that the blink patterns are different from each other. The control means 66 in this example has a light source image generation section 61, and generates a pulsed light source image signal SP1 having a predetermined frequency. The light source image signal SP1 is 30
A low-frequency range excluding 50 Hz is preferable. this is,
This is because light blinking at 30 to 50 Hz may cause a viewer to have a seizure.

【0178】この光源画像発生部61’には第2の実施
例で説明したクロック発生回路61が応用され、1/2
分周回路62、1/3分周回路63、1/4分周回路6
4が接続される。光源画像発生部61’による所定周波
数の光源画像信号SP1と、この光源画像信号SP1を
1/2分周回路62で1/2分周した光源画像信号SP
2と、1/3分周回路63で1/3分周した光源画像信
号SP3と、1/4分周回路64で1/4分周した光源
画像信号SP4とが出力される。
The clock generation circuit 61 described in the second embodiment is applied to this light source image generation section 61 '.
Frequency dividing circuit 62, 1/3 frequency dividing circuit 63, 1/4 frequency dividing circuit 6
4 is connected. A light source image signal SP1 of a predetermined frequency by a light source image generation unit 61 'and a light source image signal SP obtained by dividing the light source image signal SP1 by a half frequency dividing circuit 62.
2, a light source image signal SP3 frequency-divided by 1/3 in the 1/3 frequency dividing circuit 63, and a light source image signal SP4 frequency-divided by the 1/4 frequency dividing circuit 64.

【0179】この光源画像発生部61’、1/2分周回
路62、1/3分周回路63及び1/4分周回路64の
出力段には出力回路65が接続され、垂直同期信号SV
及び水平同期信号SHに基づいて、各々の光源画像信号
SP1〜SP4を選択して加算回路92に出力するよう
になされている。
An output circuit 65 is connected to the output stage of the light source image generation unit 61 ', 1/2 frequency dividing circuit 62, 1/3 frequency dividing circuit 63 and 1/4 frequency dividing circuit 64, and the vertical synchronizing signal SV
The light source image signals SP1 to SP4 are selected based on the horizontal synchronization signal SH and output to the addition circuit 92.

【0180】この加算回路92の出力段には、映像増幅
回路93が接続され、カラー映像信号SCの所定表示期
間に加算された点滅パターンの異なる光源画像信号SP
iが増幅される。この加算回路92は図31の破線で示
すように映像増幅回路93の出力段に接続してもよい。
映像増幅回路93の出力段にはカラー処理回路94及び
走査処理回路95が接続されている。カラー処理回路9
4では、カラー映像信号SC及び光源画像信号SPiが
所定の階調処理などが施された後に、CRT8’のカソ
ード及びグリッドに駆動電圧VK、VGとなって供給さ
れる。
A video amplification circuit 93 is connected to the output stage of the addition circuit 92, and the light source image signal SP having a different blinking pattern added during a predetermined display period of the color video signal SC.
i is amplified. This addition circuit 92 may be connected to the output stage of the video amplification circuit 93 as shown by the broken line in FIG.
A color processing circuit 94 and a scanning processing circuit 95 are connected to an output stage of the video amplification circuit 93. Color processing circuit 9
In 4, the color video signal SC and the light source image signal SPi are supplied to the cathode and grid of the CRT 8 'as drive voltages VK and VG after predetermined gradation processing and the like.

【0181】また、映像増幅回路93に接続された走査
処理回路95では同期信号SSが検出され、1周期が1
6.6msecの垂直同期信号SV及び1周期63μsec
が水平同期信号SHが上述の出力回路65に出力され
る。更に、この垂直同期信号SV及び水平同期信号SH
に基づいて発生した水平偏向電圧VV、垂直偏向電圧V
Hが偏水平・垂直向コイルに供給され、同様にして発生
した高電圧VHHがCRT8’のアノードに供給され
る。
In the scanning processing circuit 95 connected to the video amplifying circuit 93, the synchronizing signal SS is detected, and one cycle is one.
6.6 msec vertical synchronization signal SV and one cycle 63 μsec
Is output to the output circuit 65 described above. Further, the vertical synchronizing signal SV and the horizontal synchronizing signal SH
Horizontal deflection voltage VV and vertical deflection voltage V generated based on
H is supplied to the biased horizontal / vertical coils, and the similarly generated high voltage VHH is supplied to the anode of the CRT 8 '.

【0182】これにより、CRT8’に表示された任意
の受信画面上に光源画像PLiを合成表示することがで
き、光源画像PLiを点滅させることができる。この例
では、特定の波長Xの可視光が光源画像PLiから放出
される状態、又は、それが放出されない状態を作ること
ができる。
Thus, the light source image PLi can be synthesized and displayed on an arbitrary reception screen displayed on the CRT 8 ', and the light source image PLi can be flickered. In this example, a state where visible light of a specific wavelength X is emitted from the light source image PLi or a state where it is not emitted can be created.

【0183】この可視光は人間の目では認識できないよ
うな色差にすることが好ましい。例えば、光源画像PL
iが点滅される位置に、x,yマトリクスフィルムを貼
るようにする。このフィルムにはガルバゾール及びその
誘導体などから成る透過域変動高分子材料を使用するよ
い。例えば、この種の緑色のフィルムを通った特定の波
長の光は、人間の目には緑一色に見えるが、流し撮りC
CD装置23のような特殊は撮像装置で特定の透過帯域
の薄膜フィルタを通すと、この光を検出することができ
る。従って、光源画像を30〜50Hzで点滅させて
も、上述の光てんかん発作を防止することができる。
It is preferable that the visible light has a color difference that cannot be recognized by human eyes. For example, the light source image PL
An x, y matrix film is stuck at the position where i flashes. For this film, a polymeric material having a variable transmission region, such as galvazole or a derivative thereof, may be used. For example, light of a specific wavelength that has passed through a green film of this type appears to the human eye as a solid green color, but the panning C
This special light, such as the CD device 23, can be detected by passing the light through a thin film filter having a specific transmission band in the image pickup device. Therefore, even if the light source image is made to blink at 30 to 50 Hz, the above-mentioned seizure of photoepilepsy can be prevented.

【0184】続いて、TVモニタ204の光源画像信号
の挿入時の動作例を説明する。この例では、TVモニタ
204のCRT8’で表示される上下の5ラインの左右
数画素を使用して光源画像LPiを表示する場合であっ
て、カラー映像信号SCの1水平期間の両縁に図32に
示す光源画像信号SPi(i=1,3)、SPj(j=
2,4)を重畳する場合を想定する。例えば、NTCS
方式で走査線が525本の場合であって、飛越走査方式
の場合に、奇数フレームの第1、第3及び第5ラインの
左端部に光源画像LP1を表示し、同じラインの右端部
に光源画像LP2を表示する。その第521、第523
及び第525ラインの左端部に光源画像LP3を表示
し、同じラインの右端部に光源画像LP4を表示する。
Next, an example of the operation of the TV monitor 204 when a light source image signal is inserted will be described. In this example, the light source image LPi is displayed using left and right several pixels of the upper and lower five lines displayed on the CRT 8 ′ of the TV monitor 204, and is displayed on both edges of one horizontal period of the color video signal SC. The light source image signals SPi (i = 1, 3) and SPj (j =
It is assumed that (2) and (4) are superimposed. For example, NTCS
In the case where the number of scanning lines is 525 and the interlaced scanning method is used, the light source image LP1 is displayed at the left end of the first, third and fifth lines of the odd-numbered frame, and the light source The image LP2 is displayed. No. 521, No. 523
The light source image LP3 is displayed at the left end of the 525th line, and the light source image LP4 is displayed at the right end of the same line.

【0185】また、偶数フレームのラインの第2及び第
4ラインの左端部に光源画像LP1を表示し、同じライ
ンの右端部に光源画像LP2を表示する。その第522
及び第524ラインの左端部に光源画像LP3を表示
し、同じラインの右端部に光源画像LP4を表示する。
Further, the light source image LP1 is displayed at the left end of the second and fourth lines of the even-numbered frame lines, and the light source image LP2 is displayed at the right end of the same line. Its 522
The light source image LP3 is displayed at the left end of the 524th line, and the light source image LP4 is displayed at the right end of the same line.

【0186】これら前提条件の下に、上述の制御手段6
6では、1垂直期間の奇数フレームにおいて、第1、第
3及び第5ラインに関して、走査処理回路95からの垂
直同期信号SV及び水平同期信号SHに基づいて、数画
素の表示に対応した時間間隔で光源画像信号SP1を選
択した後に、その1水平期間の終了直前に光源画像信号
SP2を選択する。この結果で、図33に示すカラー画
像信号SCの1水平期間の左縁側に光源画像信号SP1
を重畳することができ、その右縁側に光源画像信号SP
2を重畳することができる。従って、図30に示した表
示画面の左上端に光源画像LP1を表示することがで
き、その右上端に光源画像LP1を表示することができ
る。
Under these preconditions, the control means 6
6, in the odd-numbered frames in one vertical period, the time intervals corresponding to the display of several pixels on the first, third, and fifth lines based on the vertical synchronization signal SV and the horizontal synchronization signal SH from the scanning processing circuit 95. After selecting the light source image signal SP1, the light source image signal SP2 is selected immediately before the end of the one horizontal period. As a result, the light source image signal SP1 is located at the left edge of one horizontal period of the color image signal SC shown in FIG.
Can be superimposed, and the light source image signal SP
2 can be superimposed. Therefore, the light source image LP1 can be displayed at the upper left end of the display screen shown in FIG. 30, and the light source image LP1 can be displayed at the upper right end.

【0187】また、その奇数フレームの第521、第5
23及び第525ラインに関して、走査処理回路95か
らの垂直同期信号SV及び水平同期信号SHに基づい
て、上述したように光源画像信号SP3を選択した後に
光源画像信号SP4を選択する。この結果で、図33に
示すカラー画像信号SCの1水平期間の左縁側に光源画
像信号SP3を重畳することができ、その右縁側に光源
画像信号SP4を重畳することができる。従って、図3
0に示した表示画面の左下端に光源画像LP3を表示す
ることができ、その右下端に光源画像LP4を表示する
ことができる。
The odd-numbered frames 521, 5
As for the 23rd and 525th lines, the light source image signal SP4 is selected after the light source image signal SP3 is selected as described above based on the vertical synchronization signal SV and the horizontal synchronization signal SH from the scanning processing circuit 95. As a result, the light source image signal SP3 can be superimposed on the left edge of one color period of the color image signal SC shown in FIG. 33, and the light source image signal SP4 can be superimposed on the right edge. Therefore, FIG.
The light source image LP3 can be displayed at the lower left end of the display screen shown at 0, and the light source image LP4 can be displayed at the lower right end.

【0188】更に、1垂直期間の偶数フレームにおい
て、第2及び第4ラインに関して、走査処理回路95か
らの垂直同期信号SV及び水平同期信号SHに基づい
て、光源画像信号SP1を選択した後に光源画像信号S
P2が選択されるので、図33に示すカラー画像信号S
Cの1水平期間の左縁側に光源画像信号SP1を重畳す
ることができ、その右縁側に光源画像信号SP2を重畳
することができる。従って、図30に示す表示画面の左
上端に光源画像LP1を表示することができ、その右上
端に光源画像LP1を表示することができる。
In the even-numbered frames of one vertical period, the light source image signal SP1 is selected for the second and fourth lines based on the vertical synchronization signal SV and the horizontal synchronization signal SH from the scanning processing circuit 95, and then the light source image is selected. Signal S
Since P2 is selected, the color image signal S shown in FIG.
The light source image signal SP1 can be superimposed on the left edge of one horizontal period of C, and the light source image signal SP2 can be superimposed on the right edge thereof. Therefore, the light source image LP1 can be displayed at the upper left end of the display screen shown in FIG. 30, and the light source image LP1 can be displayed at the upper right end.

【0189】また、その偶数フレームの第522及び第
524ラインに関して、走査処理回路95からの垂直同
期信号SV及び水平同期信号SHに基づいて、光源画像
信号SP3を選択した後に光源画像信号SP4が選択さ
れるので、図33に示すカラー画像信号SCの1水平期
間の左縁側に光源画像信号SP3を重畳することがで
き、その右縁側に光源画像信号SP4を重畳することが
できる。従って、図30に示した表示画面の左下端に光
源画像LP3を表示することができ、その右下端に光源
画像LP4を表示することができる。
For the 522nd and 524th lines of the even-numbered frame, the light source image signal SP4 is selected after the light source image signal SP3 is selected based on the vertical synchronization signal SV and the horizontal synchronization signal SH from the scanning processing circuit 95. Therefore, the light source image signal SP3 can be superimposed on the left edge of one horizontal period of the color image signal SC shown in FIG. 33, and the light source image signal SP4 can be superimposed on the right edge thereof. Therefore, the light source image LP3 can be displayed at the lower left end of the display screen shown in FIG. 30, and the light source image LP4 can be displayed at the lower right end.

【0190】これにより、当該TVモニタ204で、視
聴者の視聴する任意の受信画面上に予め光源画像PL1
〜PL4を合成表示するようになされたときに、そのT
Vモニタ204に表示された光源画像PL1〜PL4を
流し撮りCCDのような特殊撮影装置23で所定の撮像
方向に流すように撮像した場合に、その4つの光源画像
PL1〜PL4を一律に点灯した場合に比べてその光源
画像PL1〜PL4の位置を容易に特定することができ
る。従って、その光源画像PL1〜PL4の位置から当
該TVモニタ204の表示画面の位置を特殊グラストロ
ン206などの画像処理系に容易に認識させることがで
きる。
As a result, the TV monitor 204 preliminarily displays the light source image PL1 on an arbitrary reception screen viewed by the viewer.
~ PL4 when the composite display is performed, the T
When the light source images PL1 to PL4 displayed on the V monitor 204 are shot by a special imaging device 23 such as a CCD, the four light source images PL1 to PL4 are turned on uniformly. The positions of the light source images PL1 to PL4 can be easily specified as compared with the case. Therefore, the position of the display screen of the TV monitor 204 can be easily recognized by the image processing system such as the special glasstron 206 from the positions of the light source images PL1 to PL4.

【0191】続いて、流し撮りCCD装置23の光学系
の他の構成例について説明する。この例の流し撮りCC
D装置23には第2の実施例と同様にして図34に示す
魚眼レンズ35が設けられる。この魚眼レンズ35の前
面には薄膜フィルタ37が取付けられ、CRT8’の表
示画面の4つの光源画像PL1〜4から放出される特定
波長Xの光が取り込まれ、CCD撮像素子36に導くよ
うになされる。この薄膜フィルタ37はIRフィルタの
ようなものである。このIRフィルタはTiO2膜又は
SiO2膜を多層に積み上げた構造を有しており、その
一層の厚みを制御することで、赤色、緑色、青色などを
通す光透過帯域(透過率対波長)を自由に設定できるよ
うになされている。
Next, another example of the optical system of the panning CCD device 23 will be described. Follow shot CC of this example
The D device 23 is provided with a fisheye lens 35 shown in FIG. 34 in the same manner as in the second embodiment. A thin-film filter 37 is mounted on the front surface of the fisheye lens 35, and light of a specific wavelength X emitted from the four light source images PL1 to 4 on the display screen of the CRT 8 'is taken in and guided to the CCD image sensor 36. . This thin film filter 37 is like an IR filter. This IR filter has a structure in which a TiO 2 film or a SiO 2 film is stacked in multiple layers, and by controlling the thickness of one layer, a light transmission band (transmittance vs. wavelength) transmitting red, green, blue, and the like. It can be set freely.

【0192】実際のテレビではCRT8’の表面から微
細ながら赤外線や紫外線が放出されている。この赤外線
や紫外線によって光源画像PLiから放出される光の波
長帯域が変動する。この例では、光源画像PLiが点滅
される位置に、x,yマトリクスフィルムが貼られてい
る。このx,yマトリクスフィルムには上述した透過域
変動高分子材料が使用される。この材料は電圧及び電流
が変化することで波長帯域が変動するものである。
In an actual television, infrared rays and ultraviolet rays are emitted from the surface of the CRT 8 ', though minutely. The wavelength band of light emitted from the light source image PLi fluctuates due to the infrared light or the ultraviolet light. In this example, an x, y matrix film is stuck at a position where the light source image PLi blinks. For the x, y matrix film, the above-mentioned transmission range varying polymer material is used. This material has a wavelength band that fluctuates due to a change in voltage and current.

【0193】上述の流し撮りCCD装置23に薄膜フィ
ルタを使用したり、CRT8’にx,yマトリクスフィ
ルムを使用する場合には、CRT8’(又はLCD)の
色調誤差と薄膜フィルタの製造バラツキによるフィルタ
特性との色のキャリブレーションを行う必要がある。こ
の合わせ込みには、例えば、光源画像PLiをデフォル
ト色で表示して、流し撮りCCD装置23で光源画像P
Liによる光を受光できるか否かを検出する。
When a thin film filter is used for the above-mentioned panning CCD device 23 or an x, y matrix film is used for the CRT 8 ′, the filter is affected by the color tone error of the CRT 8 ′ (or LCD) and the manufacturing variation of the thin film filter. It is necessary to calibrate the color with the characteristic. For this alignment, for example, the light source image PLi is displayed in a default color, and the panning CCD device 23 uses the light source image PLi.
It is detected whether or not light due to Li can be received.

【0194】その光源画像PLiによる光が受光できる
場合には、そのデフォルト色による光を撮像し、この光
源画像PLiによる光が受光できない場合には、そのデ
フォルト色を変更する。そして、変更した色の光を撮像
し、その光源画像PLiによる光が受光できた場合に
は、その変更後の色による光を撮像するようにする。
If the light from the light source image PLi can be received, light with the default color is picked up. If the light from the light source image PLi cannot be received, the default color is changed. Then, the light of the changed color is imaged, and when the light of the light source image PLi can be received, the light of the changed color is imaged.

【0195】これにより、人間の目では認識できないよ
うな色差の可視光であって上述の特定の波長Xに近い波
長の光で、流し撮りCCD装置23に取り付けられた薄
膜フィルタ37の透過帯域から外れた光を光源画像PL
iから放出させることができる。視聴者の光てんかん発
作を防止できる。
As a result, visible light having a color difference that cannot be recognized by the human eye and having a wavelength close to the above-described specific wavelength X, is transmitted from the transmission band of the thin film filter 37 attached to the panning CCD device 23. Deviated light source image PL
i. It can prevent viewers from epileptic seizures.

【0196】続いて、第3の実施例に係る3Dポリゴン
放送システム400による処理例について先に説明した
図24、図25及び図26を再び参考にして説明をす
る。この例では、TVモニタ204の表示画面内に4つ
の光源画像PL1〜PL4が所定の点滅パターンで表示
される場合であって、視聴者の聴取するTVモニタ20
4のテレビ映像(二次元画像表示)から飛び出した3D
ポリゴン10によるサッカー選手の映像を仮想空間上で
立体的に合成する場合を想定する。もちろん、視聴者は
図29に示した特殊グラストロン2を頭部に装着する。
Next, an example of processing by the 3D polygon broadcast system 400 according to the third embodiment will be described with reference to FIGS. 24, 25 and 26 described above again. In this example, four light source images PL1 to PL4 are displayed in a predetermined blinking pattern on the display screen of the TV monitor 204, and the TV monitor 20 that the viewer listens to is displayed.
3D jumped out of TV video (two-dimensional image display) of 4
It is assumed that a video of a soccer player by the polygon 10 is three-dimensionally synthesized in a virtual space. Of course, the viewer wears the special glasstron 2 shown in FIG. 29 on the head.

【0197】これを前提にして、図24に示すフローチ
ャートのステップC1で3次元映像を作成するための複
数の映像素材情報D1iが予め放送局で準備される。例
えば、図示いない「ワールドカップサッカー」の衛星中
継に係るサッカーコートの全体を表現する背景情報D1
1と、この映像の背景内でサッカーボール10Aを追い
かけ、それを蹴るサッカー選手を表現する物体情報D1
2と、サッカーコート対する複数のサッカー選手の初期
の配置情報D13及びこれらのサッカー選手の移動に伴
う位置情報D14と、サッカー選手の動作に伴う動作情
報D15とにより映像素材情報D1iが取得される。そ
の他に第1及び第2の実施例で説明したようなコンピユ
ータ212で加工形成された、「森」、「海」、「芝
生」や「砂浜」などのCGデータD4を映像素材情報D
1iに含めてもよい。
On the premise of this, a plurality of pieces of video material information D1i for creating a three-dimensional video are prepared in advance at the broadcasting station in step C1 of the flowchart shown in FIG. For example, background information D1 representing the entire soccer court related to satellite relay of “World Cup Soccer” (not shown)
1 and object information D1 representing the soccer player who follows and kicks the soccer ball 10A in the background of this video.
2, video material information D1i is acquired from initial arrangement information D13 of a plurality of soccer players on the soccer court, position information D14 associated with the movement of these soccer players, and operation information D15 associated with the movements of the soccer players. In addition, CG data D4 such as "forest", "sea", "lawn" or "sandy beach" processed and formed by the computer 212 as described in the first and second embodiments is converted to video material information D.
1i.

【0198】その後、放送局側で準備された映像素材情
報D1iがステップC2で3Dポリゴン送信装置201
により多重化される。この際の多重化に関しては、図2
4に示した3Dポリゴン送信装置201の動作例を参照
されたい。
Thereafter, the video material information D1i prepared on the broadcast station side is transmitted to the 3D polygon transmitting device 201 in step C2.
Are multiplexed. Regarding the multiplexing at this time, FIG.
Please refer to the operation example of the 3D polygon transmitting apparatus 201 shown in FIG.

【0199】受信側では、ステップC3でゲーム装置2
05に代わってTVモニタ204が起動された後に、ス
テップC4で4つの光源画像PL1〜PL4の点滅制御
が開始される。これと並行して、放送局側から送られて
きた映像素材情報D1iはステップC5で視聴者側に設
置された3Dポリゴン受信装置202によって受信され
る。この際の3Dポリゴン受信装置202の受信動作に
関しては図24で説明した通りである。
On the receiving side, at step C3, the game device 2
After the TV monitor 204 is activated in place of the TV monitor 05, the blinking control of the four light source images PL1 to PL4 is started in step C4. In parallel with this, the video material information D1i sent from the broadcasting station is received by the 3D polygon receiving device 202 installed on the viewer side in step C5. The receiving operation of the 3D polygon receiving device 202 at this time is as described with reference to FIG.

【0200】その後、ステップC6では映像素材情報D
1iから任意の映像素材情報D1iがジョグダイアル8
9などを使用して視聴者により選択される。このジョグ
ダイアル89によって制御装置88及びセレクタ4を通
じて選択された映像素材情報D1iは、映像作成手段6
に出力される。映像作成手段6のジオメトリ部85で
は、3次元映像を表現するためのグローバル座標系にサ
ッカーコートなどの背景情報D11、サッカー選手に係
る物体情報D12、その配置情報D13、その位置情報
D14及びその動作情報D15が表示(記述)される。
Thereafter, in step C6, the video material information D
Any video material information D1i from 1i is jog dial 8
9 is selected by the viewer. The video material information D1i selected by the jog dial 89 through the control device 88 and the selector 4 is stored in the video creation unit 6
Is output to In the geometry unit 85 of the image creating means 6, background information D11 such as a soccer court, object information D12 relating to a soccer player, arrangement information D13 thereof, position information D14 thereof, and its operation are provided in a global coordinate system for expressing a three-dimensional image. Information D15 is displayed (described).

【0201】この例では、サッカーボール10Aを蹴る
サッカー選手が多重分離される。「ワールドカップサッ
カー」の中継に係る二次元映像がTVモニタ204で表
示され、3Dポリゴン10で構成されるサッカー選手が
TVモニタ204から飛び出した状態で、TVモニタ2
04に向かってサッカーボール10Aを蹴るような3次
元映像が合成され、これらの映像合成信号が作成され
る。
In this example, a soccer player who kicks soccer ball 10A is demultiplexed. A two-dimensional image related to the relay of “World Cup Soccer” is displayed on the TV monitor 204, and the soccer player composed of the 3D polygon 10 jumps out of the TV monitor 204, and the TV monitor 2
A three-dimensional image such as kicking the soccer ball 10A toward 04 is synthesized, and these image synthesis signals are created.

【0202】また、ジオメトリ部85に接続されたラス
ター部86では、表示手段24の走査方式に合うように
ラスター処理が施される。その後、ラスター部86に接
続されたステレオ画像生成部87では、視点データに基
づいてステレオ画像が形成される。
The raster section 86 connected to the geometry section 85 is subjected to raster processing so as to match the scanning method of the display means 24. After that, the stereo image generation unit 87 connected to the raster unit 86 forms a stereo image based on the viewpoint data.

【0203】このステレオ画像はステップC7で特殊グ
ラストロン203に代わって特殊グラストロン206に
供給される。特殊グラストロン206では、例えば、図
25に示した第1のサブルーチンをコールして、そのフ
ローチャートのステップD1で視聴者の属する実空間上
でTVモニタ204上に基準面を設定するために、視聴
者は、流し撮りCCD装置23をTVモニタ204に向
くようにする。その後、図30に示した制御手段66を
通じて4つの光源画像PL1〜PL4が所定の点滅パタ
ーンで点滅される。
This stereo image is supplied to the special glasstron 206 in place of the special glasstron 203 in step C7. The special glasstron 206 calls, for example, the first subroutine shown in FIG. 25 to set a reference plane on the TV monitor 204 in the real space to which the viewer belongs in step D1 of the flowchart. The user makes the panning CCD device 23 face the TV monitor 204. Thereafter, the four light source images PL1 to PL4 blink in a predetermined blink pattern through the control means 66 shown in FIG.

【0204】次に、ステップD2において、一方で通常
のCCD撮像装置25を使用して実空間上のTV映像を
撮影してLCD26及びLCD27にステレオ画像を表
示する。他方で、流し撮りCCD装置23を使用して実
空間のTVモニタ204上の基準面を流し撮りする。そ
の後、ステップD3で視聴者の属する実空間上に任意に
設定された基準面を認識するために画像処理する。画像
処理部44では、例えば、図26に示す第2のサブルー
チンをコールしてステップE1でビデオキャプチャ処理
を実行する。そして、ステップE2で四隅の光源画像P
L1〜PL4を認識する。具体的には、流し撮りCCD
装置23で撮像された4つの光源画像PL1〜PL4に
よる輝度信号の点滅パターンが、4つの輝点P1〜P4
を含むXY平面を成す空間的な配置パターンに変換され
る。
Next, in step D2, on the other hand, a TV image in the real space is photographed using the ordinary CCD image pickup device 25, and a stereo image is displayed on the LCD 26 and the LCD 27. On the other hand, the panning CCD device 23 is used to pan and photograph the reference surface on the TV monitor 204 in the real space. Then, in step D3, image processing is performed to recognize a reference plane arbitrarily set in the real space to which the viewer belongs. The image processing unit 44 executes, for example, a video capture process in step E1 by calling a second subroutine shown in FIG. Then, in step E2, the light source images P at the four corners
Recognize L1 to PL4. Specifically, a panning CCD
The blinking pattern of the luminance signal by the four light source images PL1 to PL4 captured by the device 23 includes four bright points P1 to P4.
Are converted into a spatial arrangement pattern that forms an XY plane including

【0205】その後、その配置パターン上を走査して、
少なくとも、4つの輝点P1〜P4の位置座標(X1,
Y1)、(X2,Y2)、(X3,Y3)、(X4,Y
4)が求められ、上述した(1)式及び(2)式が演算
され、実空間上の4つの光源画像PL1〜PL4の発光
位置と、画像処理系の4点の位置座標(X1,Y1)、
(X2,Y2)、(X3,Y3)、(X4,Y4)との
関係が求められ、この4点を結ぶことにより基準面が求
められる。そして、ステップE3で画像処理部44では
上述の(3)式に基づいて演算処理が行われ、流し撮り
CCD装置23と基準面との位置関係が検出される。
Thereafter, the arrangement pattern is scanned, and
At least the position coordinates (X1,
Y1), (X2, Y2), (X3, Y3), (X4, Y
4) is calculated, and the above-described equations (1) and (2) are calculated. The light emission positions of the four light source images PL1 to PL4 in the real space and the position coordinates (X1, Y1) of the four points in the image processing system are calculated. ),
The relationship between (X2, Y2), (X3, Y3), and (X4, Y4) is obtained, and a reference plane is obtained by connecting these four points. Then, in step E3, the image processing unit 44 performs an arithmetic process based on the above equation (3), and detects the positional relationship between the panning CCD device 23 and the reference plane.

【0206】その後、図25の第1のサブルーチンのス
テップD4にリターンして、TVモニタ204で表示さ
れる「ワールドカップサッカー」の中継に係る二次元映
像と、上述の(2)式に基づく仮想空間の基準面上でサ
ッカーボールを追いかけ、それを蹴る3Dポリゴン10
によるサッカー選手の映像とが合成される。
Thereafter, the flow returns to step D4 of the first subroutine in FIG. 25, where the two-dimensional video relating to the relay of “World Cup Soccer” displayed on the TV monitor 204 and the virtual image based on the above equation (2) 3D polygon 10 to chase and kick a soccer ball on the reference plane of space
Is synthesized with the image of the soccer player.

【0207】このとき、視聴者が装着した特殊グラスト
ロン206では、「ワールドカップサッカー」の中継に
係る二次元映像と、TVモニタ204に向かってサッカ
ーボール10Aを蹴る3Dポリゴン10のサッカー選手
とを合成したステレオ画像の一方が表示される。また、
そのLCD27には、その中継に係る二次元映像と、そ
の3Dポリゴン10のサッカー選手とを合成したステレ
オ画像の他方が表示される。
At this time, in the special glasstron 206 worn by the viewer, a two-dimensional video relating to the relay of “World Cup Soccer” and a soccer player of the 3D polygon 10 kicking the soccer ball 10A toward the TV monitor 204 are displayed. One of the synthesized stereo images is displayed. Also,
On the LCD 27, the other of the stereo images obtained by synthesizing the two-dimensional video relating to the relay and the soccer player of the 3D polygon 10 is displayed.

【0208】上述のLCD26のステレオ画像と、LC
D27のステレオ画像とが視聴者の眼球に導くようにな
される。これにより、実際は「ワールドカップサッカ
ー」に係るコート上でサッカーボール10Aを蹴るサッ
カー選手が、仮想空間上ではTVモニタ204に向かっ
てサッカーボール10Aを蹴るような3次元映像が視聴
者の頭の中で合成される。
The stereo image of the LCD 26 described above and the LC
The D27 stereo image is guided to the viewer's eyeball. Thus, a three-dimensional image of a soccer player who actually kicks the soccer ball 10A on the court related to “World Cup Soccer” kicks the soccer ball 10A toward the TV monitor 204 in the virtual space is displayed in the viewer's head. Synthesized by

【0209】つまり、図35に示す視聴者30の視聴す
るTVモニタ204の受信画面上では、図36に示す
「ワールドカップサッカー」に係る、例えば、フィール
ド側からゴールを見た二次元画像が表示されているだけ
である。これに対して、図37に示す特殊グラストロン
206を装着した場合には、そのTVモニタ204上の
仮想空間でその受信画面から外部へ、サッカーボール1
0Aを蹴る3Dポリゴン10によるサッカー選手を出現
させることができる。
That is, on the reception screen of the TV monitor 204 viewed by the viewer 30 shown in FIG. 35, for example, a two-dimensional image of the “World Cup Soccer” shown in FIG. It is just being done. On the other hand, when the special glasstron 206 shown in FIG. 37 is attached, the soccer ball 1 is moved from the reception screen to the outside in the virtual space on the TV monitor 204.
A soccer player using the 3D polygon 10 that kicks OA can appear.

【0210】このように、第3の実施例に係る3Dポリ
ゴン放送システム500によれば、予め放送局側で準備
された複数の映像素材情報D1iから視聴者の好みに応
じて選択された映像素材情報D1iに基づいて視聴者固
有の3次元映像を作成することができる。
As described above, according to the 3D polygon broadcasting system 500 according to the third embodiment, the video material selected according to the viewer's preference from the plurality of video material information D1i prepared in advance by the broadcasting station. A viewer-specific three-dimensional video can be created based on the information D1i.

【0211】しかも、特殊グラストロン206を装着し
た視聴者においては、視聴者30の視聴するTVモニタ
204の受信画像と、仮想空間上に出現したサッカーボ
ール10Aを蹴る3Dポリゴン10によるサッカー選手
とが頭の中で合成されるので、実空間上のTV画面の中
に表示されている、サッカーボール10Aを蹴るサッカ
ー選手が、3Dポリゴン10のサッカー選手となって画
面外へ、あたかも、飛び出すような画像を立体的に合成
することができる。
[0211] In addition, in the viewer wearing the special glasstron 206, the received image of the TV monitor 204 viewed by the viewer 30 and the soccer player of the 3D polygon 10 kicking the soccer ball 10A appearing in the virtual space. Since it is synthesized in the head, the soccer player kicking the soccer ball 10A displayed on the TV screen in the real space becomes a soccer player of the 3D polygon 10 as if jumping out of the screen. Images can be synthesized three-dimensionally.

【0212】従って、放送局側から与えられた映像をた
だ消極的に視聴者がそのまま視聴するのではなく、視聴
者が積極的かつ独自に立体的に映像加工した3次元映像
を視聴することができる。これにより、自宅に居ながら
にして「ワールドカップサッカー」に係るサッカー選手
の動きをリアルに再現した臨場感溢れる3次元映像を視
聴することができる。
[0212] Therefore, the viewer does not simply passively watch the video provided from the broadcast station side, but the viewer can view the three-dimensional video that is actively and independently stereoscopically processed. it can. Thus, it is possible to view a realistic three-dimensional video that realistically reproduces the movement of a soccer player relating to “World Cup Soccer” while staying at home.

【0213】また、第1、第2の実施例と同様にしてI
SDBサービスを利用した次世代の3次元デジタル放送
システムを構築することができる。第3の実施例では光
源画像PL1〜PL4の発光位置にx,yマトリクスフ
ィルムを取り付けることにより、通常のTV映像に関す
る情報とは別に、光源画像PL1〜PL4の点滅パター
ンを制御することができる。
In addition, in the same manner as in the first and second embodiments,
A next-generation three-dimensional digital broadcasting system using the SDB service can be constructed. In the third embodiment, the flickering patterns of the light source images PL1 to PL4 can be controlled separately from the information related to the normal TV video by attaching the x and y matrix films to the light emitting positions of the light source images PL1 to PL4.

【0214】(5)第4の実施例 図38は第4の実施例で使用するTVモニタ208の構
成例を示す正面図である。この例では、4つの光源画像
PL1〜PL4に代わって、図38に示す二次元バーコ
ード画像50を表示手段8に表示してTVモニタ208
のTV画面の位置が認識されるものである。もちろん、
視聴者は少なくとも図19に示した通常の撮像装置25
を有した特殊グラストロン206を装着することが前提
となる。
(5) Fourth Embodiment FIG. 38 is a front view showing a configuration example of a TV monitor 208 used in the fourth embodiment. In this example, instead of the four light source images PL1 to PL4, a two-dimensional barcode image 50 shown in FIG.
Is recognized on the TV screen. of course,
The viewer has at least the normal imaging device 25 shown in FIG.
It is premised that a special glasstron 206 having the following is mounted.

【0215】この例のTVモニタ208は飛越走査方式
で、1フレーム(1/30sec)毎に、図38に示す
2次元マトリクスコード画像50を表示するものであ
る。この2次元マトリクスコード画像50は実空間上の
TVモニタ204のTV画面の位置を認識するために使
用される。2次元バーコード画像50は少なくとも、白
地に黒で表示されたn行×m列の白黒マトリクスから成
る。
The TV monitor 208 of this example displays the two-dimensional matrix code image 50 shown in FIG. 38 every frame (1/30 sec) by the interlaced scanning method. This two-dimensional matrix code image 50 is used to recognize the position of the TV screen of the TV monitor 204 in the real space. The two-dimensional barcode image 50 is composed of at least an n rows × m columns monochrome matrix displayed in black on a white background.

【0216】この二次元バーコード画像50は流し撮り
CCD装置23に代わって図19に示した通常のCCD
撮像装置25で撮像される。この撮像装置25の出力段
には、図22で説明したような画像処理装置9が接続さ
れる。その画像処理装置9には演算手段が設けられ、C
CD撮像装置25から出力された撮像信号(輝度信号)
を画像処理して二次元マトリクスコード画像50からT
Vモニタ208のTV画面の位置が求められる。
The two-dimensional barcode image 50 is replaced with a normal CCD shown in FIG.
The image is captured by the imaging device 25. The image processing device 9 described with reference to FIG. 22 is connected to the output stage of the imaging device 25. The image processing device 9 is provided with arithmetic means,
An imaging signal (luminance signal) output from the CD imaging device 25
From the two-dimensional matrix code image 50 to T
The position of the TV screen of the V monitor 208 is obtained.

【0217】例えば、画像処理部44では前処理が施さ
れる。この処理では、まず、取得画像が適当な閾値で2
値化される。バーコード画像部分は白と黒の市松模様状
に表示されているので、固定閾値によって、かなり安定
的に背景画像とコード画像領域とを分離することができ
る。次に、黒ピクセルの連結領域毎にラベル付けが施さ
れる。2次元バーコード画像50はラベル付けされた連
結領域のいずれかに含まれることとなる。従って、連結
領域の外接四角形の大きさと縦横比を考慮して、コード
画像領域部が含まれている可能性の低い背景画像(領
域)は除去するようになされる。
For example, the image processing section 44 performs preprocessing. In this process, first, the acquired image is set at 2 with an appropriate threshold.
Valued. Since the barcode image portion is displayed in a black and white checkerboard pattern, the background image and the code image region can be separated quite stably by the fixed threshold value. Next, labeling is performed for each connected region of black pixels. The two-dimensional barcode image 50 will be included in any of the labeled connected regions. Therefore, in consideration of the size and aspect ratio of the circumscribed rectangle of the connected area, the background image (area) that is unlikely to include the code image area is removed.

【0218】その後、前処理の結果得られた連結領域の
各要素に対してバーコード画像枠の当てはめを行う。例
えば、外接四角形の各辺から内側に向かって、市松模様
の領域を探索し、その市松模様の輪郭部の点列を得る。
この点列に対して最小二乗法で線分を当てはめることに
より、当該二次元バーコード画像50を認識する。
Thereafter, a barcode image frame is applied to each element of the connected area obtained as a result of the preprocessing. For example, a checkerboard area is searched from each side of the circumscribed rectangle toward the inside, and a point sequence of the checkerboard contour is obtained.
The two-dimensional barcode image 50 is recognized by applying a line segment to the point sequence by the least square method.

【0219】上述のTV画面は長方形の二次元バーコー
ド画像50の四隅の4頂点を、正方形の頂点に射影する
変換行列を演算することにより得られる。ここで実空間
のTVモニタ208の表示画面上の点(xi,yi,
0)をある並進・回転運動によって移動し、それを透視
変換で画像座標系に射影した点を(Xi,Yi)で示す
と、両者の間には第1の実施形態で説明した(1)式と
同様な関係がある。
The above-described TV screen is obtained by calculating a transformation matrix for projecting four vertices of the four corners of the rectangular two-dimensional barcode image 50 to vertices of a square. Here, a point (xi, yi,
0) is moved by a certain translation / rotational motion, and a point obtained by projecting the point on the image coordinate system by the perspective transformation is indicated by (Xi, Yi), and the point between them is described in the first embodiment (1). There is a similar relationship with the formula.

【0220】従って、これらのパラメータは実空間の既
知の点の位置座標(x1,y1)、(x2,y2)、
(x3,y3)、(x4,y4)と、それらに対応する
4組の画像処理系の位置座標(X1,Y1)、(Y2,
Y2)、(X3,Y3)、(X4,Y4)が存在すれ
ば、先に説明した(2)式の方程式を解くことにより得
られる。
Therefore, these parameters are the position coordinates (x1, y1), (x2, y2),
(X3, y3), (x4, y4) and their corresponding four sets of position coordinates (X1, Y1), (Y2,
If (Y2), (X3, Y3) and (X4, Y4) exist, they can be obtained by solving the equation of the above-described equation (2).

【0221】ここで得られた位置座標(x1,y1)、
(x2,y2)、(x3,y3)、(x4,y4)に関
して、一辺の長さを「1」とする正方形の4頂点とする
と、この4頂点を結ぶ面が実空間上のTVモニタ208
のTV画面の位置となる。これにより、二次元マトリク
スコード画像50の四隅の位置情報からTVモニタ20
8の位置を画像処理装置9などに容易に認識させること
ができる。
The position coordinates (x1, y1) obtained here,
With respect to (x2, y2), (x3, y3), and (x4, y4), assuming that four vertices of a square whose side length is “1”, the surface connecting these four vertices is the TV monitor 208 in the real space.
Of the TV screen. As a result, the TV monitor 20 is obtained from the position information of the four corners of the two-dimensional matrix code image 50.
The position of 8 can be easily recognized by the image processing device 9 or the like.

【0222】なお、TVモニタ208の二次元バーコー
ド画像50はCCD撮像装置25の姿勢や、透視投影に
よって歪んでいるが、外部パラメータ及び内部パラメー
タによって、画面上の矩形頂点を正方形の各頂点に射影
することができる。従って、図39に示す仮想空間上の
二次元バーコード画像50の四隅の位置座標から正立方
体51を作成することができるので、その正立方体51
に3Dポリゴン10によるサッカー選手などを合成する
ことができる。また、図38に示す二次元バーコード画
像50をx,yマトリクスフィルムで出力すると、通常
のTV映像に関する情報とは別に画像処理することがで
きる。
Although the two-dimensional barcode image 50 on the TV monitor 208 is distorted by the attitude of the CCD imaging device 25 and perspective projection, rectangular vertices on the screen are changed to square vertices by external parameters and internal parameters. Can be projected. Therefore, the cubic 51 can be created from the position coordinates of the four corners of the two-dimensional barcode image 50 in the virtual space shown in FIG.
Can be combined with a soccer player using the 3D polygon 10. Further, when the two-dimensional barcode image 50 shown in FIG. 38 is output on an x, y matrix film, image processing can be performed separately from information related to normal TV video.

【0223】(6)映像素材情報の取得例(その1) 図40は各実施例に係る映像素材取得用の物体形状計測
装置600の構成例を示す斜視図である。この例では、
比較的小さな物体(被写体)に係る三次元形状情報を受
信側に提供するために、シリコンレンジファインダが用
いられ、これを用いて取得された映像素材情報D1iを
放送局から視聴者側へ多重放送するようにしたものであ
る。
(6) Example of Acquiring Image Material Information (Part 1) FIG. 40 is a perspective view showing an example of the configuration of an object shape measuring apparatus 600 for acquiring image material according to each embodiment. In this example,
A silicon range finder is used to provide three-dimensional shape information relating to a relatively small object (subject) to a receiving side, and video material information D1i acquired by using the silicon range finder is multiplexed from a broadcasting station to a viewer side. It is something to do.

【0224】図40に示す物体形状計測装置600は、
基準面から任意の対象物体までの3次元高さ形状を測定
するものである。この例で、物体形状計測装置600は
図40に示す発光部11及び受光部12を有している。
発光部11と受光部12とはヒンジ(蝶番)54により
開閉可動自在な状態で係合されている。例えば、当該物
体形状計測装置600を使用するときは、発光部11と
受光部12との間の成す角度が所定の位置で固定される
まで開かれ、当該装置600を使用しないときは発光部
11と受光部12とが重なるように閉じられる。あたか
も、発光部11が蓋体の如く受光部12に覆い被された
状態の収納形状になる。
An object shape measuring device 600 shown in FIG.
It measures a three-dimensional height shape from a reference plane to an arbitrary target object. In this example, the object shape measuring device 600 has a light emitting unit 11 and a light receiving unit 12 shown in FIG.
The light emitting unit 11 and the light receiving unit 12 are engaged with each other by a hinge (hinge) 54 so as to be freely opened and closed. For example, when the object shape measuring device 600 is used, the light emitting unit 11 is opened until the angle formed between the light emitting unit 11 and the light receiving unit 12 is fixed at a predetermined position. When the device 600 is not used, the light emitting unit 11 is opened. And the light receiving unit 12 are closed so as to overlap each other. The storage shape is as if the light emitting unit 11 was covered by the light receiving unit 12 like a lid.

【0225】この受光部12は基準面を兼用するもので
ある。受光部12の大きさは例えば、その一辺の長さは
30cm〜50cm程度である。容易に持ち運びできる
大きさを考慮するならば、受光部12の一辺の長さを3
5cm程度に形成することが好ましい。もちろん、この
受光部12の大きさはほんの一例であり、放送局で使用
する場合を考慮すると、何らこの大きさに制限されるも
のではない。
This light receiving section 12 also serves as a reference plane. The size of the light receiving section 12 is, for example, about 30 cm to 50 cm on one side. Considering the size that can be easily carried, the length of one side of the light receiving section 12 should be 3
Preferably, it is formed to about 5 cm. Of course, the size of the light receiving unit 12 is only an example, and is not limited to this size in consideration of use in a broadcasting station.

【0226】この例では、発光部11内には光源として
の面光源6を有している。この面光源6によって対象物
体30に照射するための被測定光が発生される。対象物
体30はボール、人形、ロボット及び小動物などであ
る。この面光源6の上部には液晶シャッタ17が設けら
れ、その面光源6による被測定光がスリット光に整形さ
れると共に、そのスリット光が対象物体30に走査され
る。この例では、液晶シャッタ17の開閉タイミンング
を制御するようになされている。例えば、受光部12に
設けられた画像処理装置98によって1ライン単位に液
晶シャッタ17を開いては閉じるような垂直走査がなさ
れる。この画像処理装置98については図42において
説明をする。
In this example, the light emitting section 11 has a surface light source 6 as a light source. The surface light source 6 generates light to be measured for irradiating the target object 30. The target object 30 is a ball, a doll, a robot, a small animal, or the like. A liquid crystal shutter 17 is provided above the surface light source 6, the light to be measured by the surface light source 6 is shaped into slit light, and the slit light is scanned on the target object 30. In this example, the opening and closing timing of the liquid crystal shutter 17 is controlled. For example, the image processing device 98 provided in the light receiving unit 12 performs vertical scanning such that the liquid crystal shutter 17 is opened and closed line by line. The image processing device 98 will be described with reference to FIG.

【0227】図41は上述の面光源6に関して、レーザ
光源とスリットレンズとプリズムとを使用した物体形状
計測装置600の構成例を示す断面図である。この例で
は発光部11内にレーザ光源14が取付けられる。レー
ザ光源14には波長780μm、出力30mWの近赤外
光半導体レーザなどを使用する。
FIG. 41 is a cross-sectional view showing an example of the configuration of an object shape measuring device 600 using a laser light source, a slit lens, and a prism with respect to the surface light source 6 described above. In this example, a laser light source 14 is mounted in the light emitting unit 11. As the laser light source 14, a near infrared semiconductor laser having a wavelength of 780 μm and an output of 30 mW is used.

【0228】レーザ光源14から発生されたレーザ光
(被測定光)がスリットレンズ15でスリット光L0に
整形され、このスリット光L0の向きが複数のプリズム
16によって90°に偏光されるものである。このプリ
ズム16は液晶シャッタ17の下に取付けられる。
The laser light (measured light) generated from the laser light source 14 is shaped into slit light L0 by the slit lens 15, and the direction of the slit light L0 is polarized at 90 ° by the plurality of prisms 16. . This prism 16 is attached below the liquid crystal shutter 17.

【0229】つまり、図41に示す物体形状計測装置6
00の発光部11は、ヒンジ54に取付けられた上部用
の筐体96を有している。この筐体96内にはレーザ光
源14が設けられ、レーザ光が発生される。このレーザ
光源14の下流側にはスリットレンズ15が設けられ、
レーザ光がシート状のスリット光L0に成形される。ス
リットレンズ15の下流側には複数のプリズム16がマ
トリクス状に配置され、スリット光L0の進行方向が直
角方向、すなわち、筐体96の出射面側に偏光される。
That is, the object shape measuring device 6 shown in FIG.
The light emitting section 11 of 00 has an upper housing 96 attached to the hinge 54. The laser light source 14 is provided in the housing 96, and generates laser light. A slit lens 15 is provided downstream of the laser light source 14,
The laser light is shaped into sheet-like slit light L0. A plurality of prisms 16 are arranged in a matrix on the downstream side of the slit lens 15, and the traveling direction of the slit light L <b> 0 is polarized in a right angle direction, that is, the exit side of the housing 96.

【0230】このプリズム16の上面に位置する部位で
あって、筐体96の上部には液晶シャッタ(マスクLC
D)17が取付けられ、プリズム16からのスリット光
L0が、液晶シャッタ17の開閉によって選択的に通過
するようになされている。この複数のプリズム16及び
液晶シャッタ17は走査手段を構成し、スリット光L0
を対象物体30に走査するようになされる。
A liquid crystal shutter (mask LC) is located on the upper surface of the housing 96 at a position located on the upper surface of the prism 16.
D) 17 is mounted, and the slit light L0 from the prism 16 is selectively passed by opening and closing the liquid crystal shutter 17. The plurality of prisms 16 and the liquid crystal shutter 17 constitute a scanning unit, and the slit light L0
Is scanned on the target object 30.

【0231】この液晶シャッタ17を通過したスリット
光L0は発光部上の任意の対象物体30で反射すると、
その戻り光L0’が受光部12に到達する。受光部12
はヒンジ54に取付けられた下部用の筐体97を有して
いる。この筐体97上には受光レンズ18が設けられ、
戻り光L0’が筐体97内に取り込まれる。受光レンズ
18の下側にはシリコンレンジファインダ19が設けら
れ、対象物体30から反射されてくる戻り光(スリット
光)L0’が各画素Pij毎に検出される。ここで、画
素Pijはシリコンレンジファインダ19上の任意の位
置(i,j)に存在する画素を示す。
When the slit light L0 passing through the liquid crystal shutter 17 is reflected by an arbitrary target object 30 on the light emitting section,
The return light L0 'reaches the light receiving unit 12. Light receiving section 12
Has a lower housing 97 attached to the hinge 54. The light receiving lens 18 is provided on the housing 97,
The return light L0 'is taken into the housing 97. A silicon range finder 19 is provided below the light receiving lens 18, and return light (slit light) L0 'reflected from the target object 30 is detected for each pixel Pij. Here, the pixel Pij indicates a pixel existing at an arbitrary position (i, j) on the silicon range finder 19.

【0232】このシリコンレンジファインダ19では、
各画素Pijを通過する戻り光L0’のタイミングが計
測され、そのときの液晶シャッタ17が開かれたプリズ
ム16によるスリット光L0の出射角となる基準面とス
リット光L0との間を成す角度αijが求められる。そ
して、基準面と画素Pijの視線方向との成す角度をβ
ijとし、基準面と発光部11の中心位置の液晶シャッ
タ17とのオフセット距離をAとし、画素Pijとその
中心位置の液晶シャッタ17とのオフセット距離をBi
jとしたときに、基準面と対象物体30との3次元高さ
情報Zijは、(4)式により求められる。
In the silicon range finder 19,
The timing of the return light L0 ′ passing through each pixel Pij is measured, and the angle αij between the reference plane, which is the emission angle of the slit light L0 by the prism 16 with the liquid crystal shutter 17 opened at that time, and the slit light L0. Is required. The angle between the reference plane and the line of sight of the pixel Pij is β
ij, the offset distance between the reference plane and the liquid crystal shutter 17 at the center position of the light emitting unit 11 is A, and the offset distance between the pixel Pij and the liquid crystal shutter 17 at the center position thereof is Bi.
When j is set, the three-dimensional height information Zij between the reference plane and the target object 30 is obtained by Expression (4).

【0233】[0233]

【数5】 (Equation 5)

【0234】これにより、スリット光L0の1回の走査
のみで基準面から対象物体30までの3次元高さ形状を
シリコンレンジファインダ19内の全画素について並列
かつ実時間で距離計測を行うことができる。
Thus, the three-dimensional height from the reference plane to the target object 30 can be measured in parallel and in real time for all the pixels in the silicon range finder 19 by only one scan of the slit light L0. it can.

【0235】続いて、物体形状計測装置600の回路構
成例について説明する。図42に示す物体形状計測装置
600は大きく分けて3つの回路ブロックから成る。第
1の回路ブロックは液晶シャッタ17である。液晶シャ
ッタ17では走査信号SCに基づいてその液晶シャッタ
17が開閉制御されることにより、プリズム16による
面状の被測定光が、スリット光L0に整形されると共
に、そのスリット光L0が対象物体30に走査される。
Next, an example of a circuit configuration of the object shape measuring device 600 will be described. The object shape measuring device 600 shown in FIG. 42 is roughly composed of three circuit blocks. The first circuit block is a liquid crystal shutter 17. The liquid crystal shutter 17 is controlled to open and close based on the scanning signal SC, whereby the planar light to be measured by the prism 16 is shaped into slit light L0, and the slit light L0 is converted into the target object 30. Is scanned.

【0236】第2の回路ブロックはシリコンレンジファ
インダ19である。シリコンレンジファインダでは、図
示しないフォトダイオードから読み出した信号電荷が、
垂直読み出し信号及び水平読み出し信号に基づいて読み
出されることにより、光通過タイミング情報を含んだ並
列距離画像計測情報が出力される。
The second circuit block is a silicon range finder 19. In the silicon range finder, signal charges read from a photodiode (not shown)
By reading based on the vertical readout signal and the horizontal readout signal, parallel distance image measurement information including light passage timing information is output.

【0237】第3の回路ブロックは画像処理装置98で
あり、走査信号SCや並列距離画像計測情報を転送する
ための内部バス41を有している。内部バス41にはイ
ンタフェース(I/O)42、画像キャプチャ部43、
画像処理部44、CPU45、ROM46及びRAM4
7が接続されている。上述の液晶シャッタ17及びシリ
コンレンジファインダ19はインタフェース42を介し
て内部バス41に接続される。
The third circuit block is an image processing device 98, which has an internal bus 41 for transferring the scanning signal SC and the parallel distance image measurement information. An interface (I / O) 42, an image capture unit 43,
Image processing unit 44, CPU 45, ROM 46, and RAM 4
7 is connected. The above-described liquid crystal shutter 17 and silicon range finder 19 are connected to an internal bus 41 via an interface 42.

【0238】この内部バス41にはROM46が接続さ
れ、この物体形状計測装置600を制御するためのシス
テムプログラムや、メモリの読み出し手順などの制御情
報などが格納される。内部バス41にはワーキング用の
RAM47が接続され、システムプログラムや並列距離
画像計測情報が一時記録される。また、内部バス41に
はCPU45が接続され、インタフェース42、画像キ
ャプチャ部43、画像処理部44、ROM46及びRA
M47の入出力の制御や、液晶シャッタ17及びシリコ
ンレンジファインダ19の入出力の制御が行われる。
A ROM 46 is connected to the internal bus 41, and stores a system program for controlling the object shape measuring device 600, control information such as a memory reading procedure, and the like. A working RAM 47 is connected to the internal bus 41, and a system program and parallel distance image measurement information are temporarily recorded. Further, a CPU 45 is connected to the internal bus 41, and an interface 42, an image capture unit 43, an image processing unit 44, a ROM 46, and an RA
The input and output of the M47 and the input and output of the liquid crystal shutter 17 and the silicon range finder 19 are controlled.

【0239】このインタフェース42には画像キャプチ
ャ部43が接続され、CPU45の制御命令を受けて、
シリコンレンジファインダ19から入力した並列距離画
像計測情報を画像データとして獲得する所定のキャプチ
ャ処理がなされる。この画像キャプチャ部43には内部
バス41を介して画像処理部44が接続され、所定の画
像処理が施された並列距離画像計測情報に基づいて3次
元高さ形状情報Zijが演算される。具体的には、上述
した算出式に基づいて3次元高さ情報Zijが求められ
る。
An image capture unit 43 is connected to the interface 42 and receives a control command from the CPU 45 to
A predetermined capture process for acquiring parallel distance image measurement information input from the silicon range finder 19 as image data is performed. An image processing unit 44 is connected to the image capturing unit 43 via the internal bus 41, and three-dimensional height shape information Zij is calculated based on parallel distance image measurement information on which predetermined image processing has been performed. Specifically, the three-dimensional height information Zij is obtained based on the above-described calculation formula.

【0240】なお、インタフェース42にはRSー23
2Cの通信プロトコルに基づく外部出力端子68が接続
され、上位のコンピユータなどに接続して画像通信がで
きるようになされている。また、図42に示す破線で示
したCCD装置69は物体の映像を撮影するものであ
る。
The interface 42 has the RS-23
An external output terminal 68 based on the 2C communication protocol is connected, and is connected to a host computer or the like to enable image communication. The CCD device 69 shown by a broken line in FIG. 42 captures an image of an object.

【0241】次に、物体形状計測装置600の動作例を
説明する。この例では、図43に示す発光部11が、そ
の受光部12と発光部11との間の成す角度αijが所
定の位置で固定されるまで開かれており、この状態で、
受光部12上に存在する、例えば、テニスボールなどの
球体30’の3次元形状を計測する場合を前提とする。
また、基準面は受光部12に設定されるものとする。
Next, an operation example of the object shape measuring device 600 will be described. In this example, the light emitting unit 11 shown in FIG. 43 is opened until the angle αij formed between the light receiving unit 12 and the light emitting unit 11 is fixed at a predetermined position.
It is assumed that a three-dimensional shape of a sphere 30 ′ such as a tennis ball existing on the light receiving unit 12 is measured.
The reference plane is set on the light receiving unit 12.

【0242】これを前提にして、図43に示す発光部1
1では画像処理装置98からの走査信号SCに基づいて
その液晶シャッタ17が開閉制御されることにより、プ
リズム16による面状の被測定光が、スリット光L0に
整形されると共に、そのスリット光L0が図43に示す
球体30’に走査される。
On the premise of this, the light emitting unit 1 shown in FIG.
In 1, the liquid crystal shutter 17 is controlled to open and close based on the scanning signal SC from the image processing device 98, whereby the planar light to be measured by the prism 16 is shaped into slit light L0 and the slit light L0 Is scanned by the sphere 30 'shown in FIG.

【0243】この球体30’に照射されたスリット光L
0の、ある走査タイミングにおける照射位置は、例え
ば、図44に示す照射位置からようになる。この照
射位置からによる戻り光L0’は受光部12のシリ
コンレンジファインダ19によって検出される。この際
に、受光レンズ18によって反転した球体30’がシリ
コンレンジファインダ19上に結像される。
The slit light L applied to the sphere 30 '
The irradiation position at a certain scanning timing of 0 is, for example, from the irradiation position shown in FIG. The return light L0 ′ from this irradiation position is detected by the silicon range finder 19 of the light receiving unit 12. At this time, the sphere 30 ′ inverted by the light receiving lens 18 forms an image on the silicon range finder 19.

【0244】従って、シリコンレンジファインダ19か
ら得られた並列距離画像計測情報が画像処理装置98に
出力されると、この並列距離画像計測情報に基づいて基
準面から球体30’までの3次元高さ形状情報Zijが
演算される。具体的には、上述した算出式に基づいて3
次元高さ情報Zijが求められる。
Therefore, when the parallel range image measurement information obtained from the silicon range finder 19 is output to the image processing device 98, the three-dimensional height from the reference plane to the sphere 30 'is determined based on the parallel range image measurement information. Shape information Zij is calculated. Specifically, based on the above-described calculation formula, 3
Dimension height information Zij is obtained.

【0245】例えば、球体30’のX1−X2のライン
上を着目した場合に、その立体形状を反映するように、
のスリット光L0の戻り光L0’に対して3次元高さ
情報Zx1が演算され、のスリット光L0の戻り光L
0’に対して3次元高さ情報Zx2が演算され、のス
リット光L0の戻り光L0’に対して3次元高さ情報Z
x3が演算され、のスリット光L0の戻り光L0’に
対して3次元高さ情報Zx4が演算され、のスリット
光L0の戻り光L0’に対して3次元高さ情報Zx5が
実時間で演算される。これらの高さ形状情報Zx1〜Z
x5をつなぎ合わせると、球体30’のX1−X2の立
体形状を求めることができる。
For example, when attention is paid to the line X1-X2 of the sphere 30 ', the three-dimensional shape is reflected so as to reflect the three-dimensional shape.
The three-dimensional height information Zx1 is calculated for the return light L0 ′ of the slit light L0, and the return light L of the slit light L0 is calculated.
The three-dimensional height information Zx2 is calculated with respect to 0 ', and the three-dimensional height information Z is calculated with respect to the return light L0' of the slit light L0.
x3 is calculated, three-dimensional height information Zx4 is calculated for the return light L0 'of the slit light L0, and three-dimensional height information Zx5 is calculated in real time for the return light L0' of the slit light L0. Is done. These height shape information Zx1 to Zx
By joining x5, the three-dimensional shape of X1-X2 of the sphere 30 'can be obtained.

【0246】これにより、実空間上の物体の三次元形状
情報(連続性のある高さ情報H)を取得することができ
るので、その三次元形状情報Zijを送信側から視聴者
側へ送信することができる。もちろん、対象物体30の
周りに物体形状計測装置600を周回させて三次元形状
情報Zijを取得するようにしてもよい。従って、第1
〜第3の実施例において、予め放送局で準備された各種
対象物体に係る三次元形状情報Zijに基づいて受信側
で仮想空間上に3Dポリゴン10の映像を合成すること
ができる。
Thus, the three-dimensional shape information (continuous height information H) of the object in the real space can be obtained, and the three-dimensional shape information Zij is transmitted from the transmission side to the viewer side. be able to. Of course, the three-dimensional shape information Zij may be obtained by rotating the object shape measuring device 600 around the target object 30. Therefore, the first
In the third to third embodiments, the image of the 3D polygon 10 can be synthesized on the virtual space on the receiving side based on the three-dimensional shape information Zij relating to various target objects prepared in advance by the broadcasting station.

【0247】(7)映像素材情報の取得例(その2) 図45は各実施例に係る映像素材取得用の三次元形状取
得機構60の構成例を示す斜視図である。この例では、
物体30にスリット光を走査するときに、ミラー73を
使用するものである。この三次元形状取得機構60は図
示しない放送局などに設けられる。
(7) Example of Acquiring Video Material Information (Part 2) FIG. 45 is a perspective view showing a configuration example of the three-dimensional shape obtaining mechanism 60 for obtaining a video material according to each embodiment. In this example,
When scanning the object 30 with the slit light, the mirror 73 is used. The three-dimensional shape acquisition mechanism 60 is provided in a broadcasting station (not shown).

【0248】この三次元形状取得機構60には図45に
示すレーザ光源71が設けられ、レーザ光L0が発生さ
れる。このレーザ光源71の下流側にはシリンドリカル
レンズ72が設けられ、レーザ光L0がシート状のスリ
ット光に成形される。シリンドリカルレンズ72の下流
側には走査手段としてミラー73が配置され、スリット
光L0の偏光角を変化させることにより、そのスリット
光L0が物体30に走査される。
The three-dimensional shape obtaining mechanism 60 is provided with a laser light source 71 shown in FIG. 45, and generates a laser beam L0. A cylindrical lens 72 is provided downstream of the laser light source 71, and the laser light L0 is formed into a sheet-like slit light. A mirror 73 is disposed as a scanning unit on the downstream side of the cylindrical lens 72, and the slit light L0 is scanned on the object 30 by changing the polarization angle of the slit light L0.

【0249】このスリット光L0が視聴者の身体部位の
一部や、その視聴者の保持する物体30で反射すると、
その戻り光L0’が受光レンズ84で取り込まれる。受
光レンズ84の下側にはシリコンレンジファインダ59
が設けられ、物体30から反射されてくる戻り光(スリ
ット光)L0’がシリコンレンジファインダ59上の任
意の位置に存在する各画素Pij毎に検出される。
When the slit light L0 is reflected by a part of the body part of the viewer or the object 30 held by the viewer,
The return light L0 'is captured by the light receiving lens 84. A silicon range finder 59 is provided below the light receiving lens 84.
Is provided, and return light (slit light) L0 ′ reflected from the object 30 is detected for each pixel Pij existing at an arbitrary position on the silicon range finder 59.

【0250】このシリコンレンジファインダ59では、
各画素Pijを通過する戻り光L0’のタイミングが計
測され、そのときの各画素Pijを通過する戻り光L
0’のタイミングが計測され、そのときのミラー73の
偏光角となる基準面とスリット光L0との間を成す角度
αijが求められる。ここで、基準面と画素Pijの視
線方向との成す角度をβijとし、基準面とミラー73
の回転中心とのオフセット距離をAとし、画素Pijと
ミラー73の回転中心とのオフセット距離をBijとし
たときに、基準面と物体30との三次元形状情報Zij
は上述した(4)式により求められる。
In this silicon range finder 59,
The timing of the return light L0 'passing through each pixel Pij is measured, and the return light L passing through each pixel Pij at that time is measured.
The timing of 0 'is measured, and the angle αij between the reference plane, which is the polarization angle of the mirror 73 at that time, and the slit light L0 is obtained. Here, the angle formed between the reference plane and the viewing direction of the pixel Pij is βij, and the reference plane and the mirror 73
Is the offset distance between the pixel Pij and the rotation center of the mirror 73, and Bij is the three-dimensional shape information Zij between the reference plane and the object 30.
Is obtained by the above equation (4).

【0251】これにより、実空間上の物体の三次元形状
情報(連続性のある高さ情報H)を取得することができ
るので、その三次元形状情報Zijを送信側から視聴者
側へ送信することができる。従って、第1〜第3の実施
例において、予め放送局で準備された各種対象物体に係
る三次元形状情報Zijに基づいて受信側で仮想空間上
に3Dポリゴン10の映像を合成することができる。
Thus, the three-dimensional shape information (continuous height information H) of the object in the real space can be obtained, and the three-dimensional shape information Zij is transmitted from the transmission side to the viewer side. be able to. Therefore, in the first to third embodiments, the image of the 3D polygon 10 can be synthesized on the virtual space on the receiving side based on the three-dimensional shape information Zij relating to various target objects prepared in advance by the broadcasting station. .

【0252】この例では、物体形状取得手段に関してシ
リコンレンジファインダ19、59を用いる場合につい
て説明したが、これに限られることはなく、物体の基準
画像を撮影する基準用のカメラと、その物体の参照画像
を撮影する検出用のカメラとを有した多眼ステレオカメ
ラを使用してもよい。この基準用のカメラ及び検出用の
カメラから得られる視差情報に基づいて物体の三次元形
状情報Zijを取得することができる。
In this example, the case where the silicon range finders 19 and 59 are used for the object shape obtaining means has been described. However, the present invention is not limited to this. A reference camera for capturing a reference image of the object and a reference camera A multi-view stereo camera having a detection camera that captures a reference image may be used. The three-dimensional shape information Zij of the object can be obtained based on the parallax information obtained from the reference camera and the detection camera.

【0253】各実施例に係る特殊グラストロン203、
206は、特開平10−123453号、特開平9−3
04727号、特開平9−304730号、特開平9−
211374号、特開平8−160348号、特開平8
−94960号、特開平7−325265号、特開平7
−270714号及び特開平7−67055号に記載さ
れる透過型のヘッドマウントディスプレイに適用するこ
とができる。
A special glasstron 203 according to each embodiment,
206 is disclosed in JP-A-10-123453, JP-A-9-3
04727, JP-A-9-304730, JP-A-9-304
No. 211374, JP-A-8-160348, JP-A-8-160348
-94960, JP-A-7-325265, JP-A-7-325
The present invention can be applied to a transmission type head mounted display described in Japanese Patent Application Laid-Open No. 270714/1995 and Japanese Patent Application Laid-Open No. 7-67055.

【0254】各実施例に係る流し撮りCCD23に関し
ては、インターライン転送方式の二次元撮像デバイスを
使用する場合について説明したが、これに限られること
はなく、フレーム転送方式の二次元撮像デバイスを使用
する場合であっても同様な効果が得られる。
Although the following description has been given of the case where the two-dimensional imaging device of the interline transfer system is used as the panning CCD 23 according to each embodiment, the present invention is not limited to this. The same effect can be obtained even if the above operation is performed.

【0255】上述した実施例では放送局側から視聴者側
への一方向によるマルチメディアサービスについて説明
したが、これに限られることはなく、送信側と視聴者側
との間に通信手段、例えば、電話回線やインターネット
網を接続し、これらの通信手段を使用して視聴者側から
放送局や番組提供者(スポンサー)へ視聴者による意見
・感想・再放送などのリクエスト情報(個別情報)を送
信する双方向サービス網を構築することもできる。
In the above-described embodiment, the one-way multimedia service from the broadcast station side to the viewer side has been described. However, the present invention is not limited to this, and communication means between the transmission side and the viewer side, for example, The telephone line or the Internet network is connected, and using these communication means, the viewer sends request information (individual information) such as opinions, impressions, rebroadcasts, etc. from the viewer to the broadcasting station or program provider (sponsor). It is also possible to construct an interactive service network for transmission.

【0256】この双方向サービス網が構築される場合で
あって、映像素材情報として買い物情報を送信するよう
にしてもよい。その場合には、買い物情報に対して視聴
者がテレビショッピングを行ったとき、その買い物情報
に係る注文情報が番組提供者(地域商店など)に転送さ
れると共に、その買い物情報に係る商品代金が、視聴者
のチャネルの使用に伴う料金に加算されるようにすると
よい。IDカードによる銀行一括引き落としが可能とな
る。
In the case where this interactive service network is constructed, shopping information may be transmitted as video material information. In this case, when the viewer performs TV shopping on the shopping information, the order information related to the shopping information is transferred to the program provider (a local store or the like), and the product price related to the shopping information is reduced. May be added to the fee associated with the viewer's use of the channel. Bank withdrawal by ID card is possible.

【0257】[0257]

【発明の効果】以上説明したように、本発明に係る3次
元映像の送受信システムによれば、3次元映像を作成す
るために送信側から受信側に送られてきた複数の映像素
材情報の中から任意に選択された映像素材情報に基づい
て3次元映像を作成する映像作成手段を備え、映像素材
情報の選択が視聴者によって行われるものである。
As described above, according to the three-dimensional video transmission / reception system according to the present invention, a plurality of pieces of video material information sent from the transmission side to the reception side in order to create a three-dimensional video are included. And a video creating means for creating a three-dimensional video based on the video material information arbitrarily selected from the above. The viewer selects the video material information.

【0258】この構成によって、予め送信側で準備され
た複数の映像素材情報から視聴者の好みに応じて選択さ
れた映像素材情報に基づいて視聴者固有の3次元映像を
作成することができる。従って、放送局から与えられた
映像をただ消極的に視聴者が視聴するのではなく、視聴
者が積極的かつ独自に立体的に映像加工した3次元映像
を視聴することができる。
With this configuration, a viewer-specific three-dimensional video can be created based on video material information selected according to the viewer's preference from a plurality of video material information prepared in advance on the transmission side. Therefore, the viewer can not only passively watch the video provided from the broadcasting station, but also view the three-dimensional video that is actively and independently stereoscopically processed.

【0259】本発明に係る3次元映像の送受信方法によ
れば、3次元映像を作成するための複数の映像素材情報
を送信側で準備し、映像素材情報を送信側から個々の視
聴者側へ送信し、送信側から送られてきた映像素材情報
を視聴者側で受信し、その視聴者側では映像素材情報か
ら任意の映像素材情報を選んで三次元映像を作成するよ
うになされる。
According to the method for transmitting and receiving a three-dimensional video according to the present invention, a plurality of pieces of video material information for preparing a three-dimensional video are prepared on the transmission side, and the video material information is transmitted from the transmission side to individual viewers. The viewer transmits the video material information sent from the transmitting side, and the viewer selects arbitrary video material information from the video material information to create a three-dimensional video.

【0260】この構成によって、放送局などから与えら
れた映像をただ消極的に視聴者が視聴するのではなく、
視聴者が積極的かつ独自に立体的に映像加工した3次元
映像を視聴することができる。これにより、自宅に居な
がらにしてサッカー場でプレーする選手や、舞台で演ず
る役者などの視線により認識される臨場感溢れた3次元
映像を視聴することができる。この発明は、ISDBサ
ービスや双方向サービスを利用した次世代の3次元デジ
タル放送システムなどに適用して極めて好適である。
[0260] With this configuration, the viewer does not simply passively watch the video provided from the broadcast station or the like.
A viewer can actively and independently view a three-dimensional video image that has been stereoscopically processed. Thus, it is possible to view a three-dimensional video with a sense of reality recognized by the eyes of players playing on the soccer field and actors performing on the stage while staying at home. INDUSTRIAL APPLICABILITY The present invention is extremely suitable for application to a next-generation three-dimensional digital broadcasting system using an ISDB service or an interactive service.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る実施形態としての3次元映像の送
受信システム100の構成例を示す斜視図である。
FIG. 1 is a perspective view showing a configuration example of a transmission / reception system 100 for three-dimensional video as an embodiment according to the present invention.

【図2】3次元映像の送受信システム100の処理例を
示すフローチャートである。
FIG. 2 is a flowchart illustrating a processing example of a transmission / reception system 100 of a three-dimensional video.

【図3】第1の実施例としての3Dポリゴン放送システ
ム200の構成例を示すブロック図である。
FIG. 3 is a block diagram illustrating a configuration example of a 3D polygon broadcast system 200 as a first embodiment.

【図4】各実施例に係る3Dポリゴン送信装置201の
構成例を示すブロック図である。
FIG. 4 is a block diagram illustrating a configuration example of a 3D polygon transmission device 201 according to each embodiment.

【図5】MPEG−4方式のビデオエンコーダ300の
構成例を示すブロック図である。
FIG. 5 is a block diagram illustrating a configuration example of an MPEG-4 video encoder 300.

【図6】舞台装置40における映像素材情報D1iの取
得例を示す斜視図である。
FIG. 6 is a perspective view showing an example of acquiring video material information D1i in the stage device 40.

【図7】A及びBは映像素材情報D1iの取得例を示す
舞台正面及び側面のイメージ図である。
FIGS. 7A and 7B are images of the front and side of a stage showing an example of acquiring video material information D1i.

【図8】各実施例に係る3Dポリゴン受信装置202の
構成例を示すブロック図である。
FIG. 8 is a block diagram illustrating a configuration example of a 3D polygon receiving device 202 according to each embodiment.

【図9】役者Bの視線によって認識される背景を3Dポ
リゴン10の「森」や「芝生」に置き換えた表示例を示
すイメージ図である。
FIG. 9 is an image diagram showing a display example in which the background recognized by the line of sight of actor B is replaced with “forest” or “grass” of 3D polygon 10;

【図10】特殊グラストロン203の構成例を示す正面
図である。
FIG. 10 is a front view showing a configuration example of a special glasstron 203.

【図11】特殊グラストロン203の内部構成例を示す
一部破砕の上面から見た概念図である。
FIG. 11 is a conceptual diagram showing an internal configuration example of a special glasstron 203 as viewed from the top of a partially crushed glass.

【図12】AはフィルムCCD4R、4Lの構成例を示
す上面から見た概念図、Bは左右の瞳の位置例を示す概
念図である。
FIG. 12A is a conceptual diagram showing a configuration example of film CCDs 4R and 4L viewed from above, and FIG. 12B is a conceptual diagram showing an example of left and right pupil positions.

【図13】特殊グラストロン203の装着時の注視点p
の位置関係例を示す概念図である。
FIG. 13 is a gazing point p when the special glasstron 203 is mounted.
It is a conceptual diagram which shows the example of positional relationship of.

【図14】第1の実施例に係る3Dポリゴン放送システ
ム200における処理例を示すフローチャートである。
FIG. 14 is a flowchart illustrating a processing example in the 3D polygon broadcast system 200 according to the first embodiment.

【図15】第2の実施例としての3Dポリゴン放送シス
テム400の構成例を示すブロック図である。
FIG. 15 is a block diagram illustrating a configuration example of a 3D polygon broadcast system 400 as a second embodiment.

【図16】ゲーム装置205に取り付けられる点滅制御
回路13の内部構成例を示すブロック図である。
FIG. 16 is a block diagram showing an example of an internal configuration of a blink control circuit 13 attached to the game device 205.

【図17】その4つの発光ダイオードLED1〜LED
4の電圧供給例を示す波形図である。
FIG. 17 shows the four light emitting diodes LED1 to LED
FIG. 6 is a waveform diagram illustrating a voltage supply example of FIG.

【図18】3Dポリゴン放送システム400で使用する
特殊グラストロン206の構成例を示す正面図である。
FIG. 18 is a front view showing a configuration example of a special glasstron 206 used in the 3D polygon broadcasting system 400.

【図19】他の特殊グラストロン207の構成例を示す
正面図である。
FIG. 19 is a front view showing a configuration example of another special glasstron 207.

【図20】特殊グラストロン206等に搭載される流し
撮りCCD装置23の内部構成例を示す平面図である。
FIG. 20 is a plan view showing an example of the internal configuration of a panning CCD device 23 mounted on a special glasstron 206 or the like.

【図21】流し撮りCCD装置23の光学系の構成例を
示す断面図である。
FIG. 21 is a cross-sectional view showing a configuration example of an optical system of the panning CCD device 23.

【図22】特殊グラストロン206の内部構成例を示す
ブロック図である。
FIG. 22 is a block diagram showing an example of the internal configuration of a special glasstron 206.

【図23】ゲーム装置205に係る基準面の位置座標の
算出例を示す模式図である。
FIG. 23 is a schematic diagram illustrating an example of calculating position coordinates of a reference plane according to the game apparatus 205.

【図24】3Dポリゴン放送システム400における処
理例(メインルーチン)を示すフローチャートである。
FIG. 24 is a flowchart showing a processing example (main routine) in the 3D polygon broadcast system 400.

【図25】特殊グラストロン206の動作例(第1のサ
ブルーチン)を示すフローチャートである。
FIG. 25 is a flowchart showing an operation example (first subroutine) of the special glasstron 206.

【図26】特殊グラストロン206の動作例(第2のサ
ブルーチン)を示すフローチャートである。
FIG. 26 is a flowchart showing an operation example (second subroutine) of the special glasstron 206.

【図27】実空間におけるゲーム装置205の画像例を
示す斜視図である。
FIG. 27 is a perspective view showing an example of an image of the game device 205 in a real space.

【図28】仮想空間における基準面上の仮想画像の合成
例を示す斜視図である。
FIG. 28 is a perspective view illustrating a synthesis example of a virtual image on a reference plane in a virtual space.

【図29】第3の実施例としての3Dポリゴン受信処理
システム500の構成例を示す斜視図である。
FIG. 29 is a perspective view showing a configuration example of a 3D polygon reception processing system 500 as a third embodiment.

【図30】TVモニタ204の内部構成例を示す正面図
である。
FIG. 30 is a front view showing an example of the internal configuration of the TV monitor 204.

【図31】TVモニタ204の内部構成例を示すブロッ
ク図である。
FIG. 31 is a block diagram showing an example of the internal configuration of a TV monitor 204.

【図32】光源画像信号SP1〜SP4の波形例を示す
イメージ図である。
FIG. 32 is an image diagram showing a waveform example of light source image signals SP1 to SP4.

【図33】映像信号SCに対する光源画像信号SPi、
SPjの重畳例を示す波形図である。
FIG. 33 shows a light source image signal SPi for a video signal SC;
It is a waveform diagram which shows the example of superposition of SPj.

【図34】流し撮りCCD装置23の光学系の他の構成
例を示す断面図である。
34 is a sectional view showing another example of the configuration of the optical system of the panning CCD device 23. FIG.

【図35】視聴者(特殊グラストロン206の非装着
時)の実像例を示す斜視図である。
FIG. 35 is a perspective view showing a real image example of a viewer (when the special glasstron 206 is not mounted).

【図36】TVモニタ204で表示されるフィールドか
らゴールを見た二次元映像の表示例を示す正面図であ
る。
FIG. 36 is a front view showing a display example of a two-dimensional video in which a goal is viewed from a field displayed on the TV monitor 204.

【図37】視聴者(特殊グラストロン206の装着時)
の仮想画像例を示す斜視図である。
FIG. 37: Viewer (when special glasstron 206 is attached)
FIG. 3 is a perspective view showing an example of a virtual image.

【図38】第4の実施例で使用するTVモニタ208の
構成例を示す正面図である。
FIG. 38 is a front view showing a configuration example of a TV monitor 208 used in the fourth embodiment.

【図39】二次元バーコード画像50上の3Dポリゴン
10の合成例を示す斜視図である。
FIG. 39 is a perspective view showing an example of combining 3D polygons 10 on a two-dimensional barcode image 50.

【図40】各実施例に係る映像素材取得用の物体形状計
測装置600の外観例を示す斜視図である。
FIG. 40 is a perspective view showing an example of the appearance of an object shape measuring device 600 for acquiring a video material according to each embodiment.

【図41】物体形状計測装置600の内部構成例を示す
断面図である。
FIG. 41 is a cross-sectional view showing an example of the internal configuration of the object shape measuring device 600.

【図42】物体形状計測装置600の回路例を示すブロ
ック図である。
42 is a block diagram illustrating a circuit example of the object shape measurement device 600. FIG.

【図43】物体形状計測装置600による球体30’の
計測例(その1)を示す斜視図である。
FIG. 43 is a perspective view showing a measurement example (part 1) of a sphere 30 ′ by the object shape measuring device 600.

【図44】物体形状計測装置600による球体30’の
計測例(その2)を示す概念図である。
FIG. 44 is a conceptual diagram showing an example (part 2) of measuring a sphere 30 ′ by the object shape measuring device 600.

【図45】各実施例に係る映像素材取得用の三次元形状
取得機構60の構成例を示す概念図である。
FIG. 45 is a conceptual diagram showing a configuration example of a three-dimensional shape obtaining mechanism 60 for obtaining a video material according to each embodiment.

【符号の説明】[Explanation of symbols]

1・・・送信手段、1A・・・多重化手段、2・・・受
信手段、2A・・・多重分離手段、3・・・記憶手段、
4・・・選択手段、5・・・操作手段、6・・・映像作
成手段、7・・・位置認識機構、8,24・・・表示手
段、9,98・・・画像処理装置、10・・・3Dポリ
ゴン、23・・・流し撮りCCD装置、25・・・CC
D撮像装置、26・・・右眼表示用のLCD(第1の画
像表示素子)、27・・・左眼表示用のLCD(第2の
画像表示素子)、32・・・垂直転送部(電荷転送
部)、33・・・水平転送部、50・・・2次元バーコ
ード、66・・・制御手段、88・・・制御装置、89
・・・ジョグダイアル(操作手段)、100・・・送受
信システム、200,400・・・3Dポリゴン放送シ
ステム、201・・・3Dポリゴン送信装置(送信手
段)、202・・・3Dポリゴン受信装置(受信手
段)、203,206,207・・・特殊グラストロ
ン、204,208・・・TVモニタ、205・・・ゲ
ーム装置、300・・・ビデオエンコーダ
DESCRIPTION OF SYMBOLS 1 ... Transmission means, 1A ... Multiplexing means, 2 ... Receiving means, 2A ... Demultiplexing means, 3 ... Storage means,
4 selection means, 5 operation means, 6 image creation means, 7 position recognition mechanism, 8, 24 display means, 9, 98 image processing apparatus, 10 ... 3D polygon, 23 ... CCD camera, 25 ... CC
D imaging device, 26 LCD for right eye display (first image display element), 27 LCD for left eye display (second image display element), 32 vertical transfer unit ( Charge transfer unit), 33: horizontal transfer unit, 50: two-dimensional bar code, 66: control means, 88: control device, 89
... Jog dial (operation means), 100 ... Transmission / reception system, 200, 400 ... 3D polygon broadcasting system, 201 ... 3D polygon transmission device (transmission means), 202 ... 3D polygon reception device (reception) Means), 203, 206, 207: special glasstron, 204, 208: TV monitor, 205: game device, 300: video encoder

フロントページの続き Fターム(参考) 5B050 AA08 CA05 CA08 DA07 EA19 EA28 FA02 FA06 5C061 AA01 AA29 AB01 AB08 AB11 AB12 AB16 AB20 AB24 5C082 AA02 AA27 BA41 BA46 BB01 BB03 BB44 CB01 DA22 DA26 DA87 MM05 MM10 Continued on the front page F term (reference) 5B050 AA08 CA05 CA08 DA07 EA19 EA28 FA02 FA06 5C061 AA01 AA29 AB01 AB08 AB11 AB12 AB16 AB20 AB24 5C082 AA02 AA27 BA41 BA46 BB01 BB03 BB44 CB01 DA22 DA26 DA87 MM05 MM10

Claims (55)

【特許請求の範囲】[Claims] 【請求項1】 少なくとも、3次元映像を作成するため
に予め準備された複数の映像素材情報を送信側から視聴
者側へ送信する送信手段と、 前記送信手段から送られてきた前記映像素材情報を受信
する受信手段と、 前記受信手段によって受信された映像素材情報から任意
の映像素材情報を選択する選択手段と、 前記選択手段によって選択された映像素材情報に基づい
て3次元映像を作成する映像作成手段とを備え、 前記映像素材情報の選択は視聴者によって行われること
を特徴とする3次元映像の送受信システム。
A transmitting means for transmitting at least a plurality of pieces of video material information prepared in advance to create a three-dimensional video from a transmitting side to a viewer side; and the video material information transmitted from the transmitting means. Receiving means for receiving the video material information, selecting means for selecting arbitrary video material information from the video material information received by the receiving means, and a video for creating a three-dimensional video based on the video material information selected by the selecting means A three-dimensional video transmission / reception system, comprising: a creation unit, wherein the selection of the video material information is performed by a viewer.
【請求項2】 前記送信手段及び受信手段が設けられる
場合であって、 前記送信手段には、3次元映像を作成するための二以上
の映像素材情報を多重化する多重化手段が設けられ、 前記受信手段には前記送信手段から送られてきた多重化
情報から二以上の映像素材情報を分離する情報分離手段
が設けられることを特徴とする請求項1に記載の3次元
映像の送受信システム。
2. The transmitting device according to claim 1, wherein the transmitting device and the receiving device are provided, wherein the transmitting device includes a multiplexing unit that multiplexes two or more pieces of video material information for creating a three-dimensional video. 2. The transmission / reception system according to claim 1, wherein the receiving unit includes an information separating unit that separates two or more pieces of video material information from the multiplexed information transmitted from the transmitting unit.
【請求項3】 前記映像素材情報は、 デジタルテレビ放送網を使用して視聴者側に伝送される
ことを特徴とする請求項1に記載の3次元映像の送受信
システム。
3. The three-dimensional video transmission / reception system according to claim 1, wherein the video material information is transmitted to a viewer using a digital television broadcasting network.
【請求項4】 前記映像素材情報は、 ケーブルテレビ通信回線を使用して視聴者側に伝送され
ることを特徴とする請求項1に記載の3次元映像の送受
信システム。
4. The three-dimensional video transmission / reception system according to claim 1, wherein the video material information is transmitted to a viewer using a cable television communication line.
【請求項5】 前記映像素材情報は、 インターネット通信回線を使用して視聴者側に伝送され
ることを特徴とする請求項1に記載の3次元映像の送受
信システム。
5. The system according to claim 1, wherein the video material information is transmitted to a viewer using an Internet communication line.
【請求項6】 前記映像素材情報は、 動画像圧縮基準であるMPEGのデータ系列を持ったデ
ータストリームにして伝送されることを特徴とする請求
項1に記載の3次元映像の送受信システム。
6. The three-dimensional video transmission / reception system according to claim 1, wherein the video material information is transmitted as a data stream having an MPEG data sequence which is a moving image compression standard.
【請求項7】 前記映像素材情報は、 前記送信側から受信側へ複数のチャネルを使用して伝送
されることを特徴とする請求項1に記載の3次元映像の
送受信システム。
7. The three-dimensional video transmission / reception system according to claim 1, wherein the video material information is transmitted from the transmission side to the reception side using a plurality of channels.
【請求項8】 前記映像素材情報を送信側から受信側へ
複数のチャネルを使用して伝送する場合であって、 複数のチャネルに映像素材情報が割り振られることを特
徴とする請求項7に記載の3次元映像の送受信システ
ム。
8. The method according to claim 7, wherein the video material information is transmitted from the transmitting side to the receiving side using a plurality of channels, and the video material information is allocated to the plurality of channels. 3D video transmission and reception system.
【請求項9】 前記映像素材情報には、 少なくとも、映像の背景を表現する背景情報と、 前記映像の背景内で動く物体を表現する物体情報と、 前記背景に対する物体の初期の配置情報及び該物体の移
動に伴う位置情報と、 前記物体の動作に伴う動作情報とが付加されることを特
徴とする請求項1に記載の3次元映像の送受信システ
ム。
9. The image material information includes at least background information representing a background of the image, object information representing an object moving in the background of the image, initial arrangement information of the object with respect to the background, and The 3D image transmission / reception system according to claim 1, wherein position information associated with the movement of the object and operation information associated with the operation of the object are added.
【請求項10】 前記映像素材情報を伝送するチャネル
は、映像の背景の数だけ予め準備されることを特徴とす
る請求項9に記載の3次元映像の送受信システム。
10. The transmission / reception system according to claim 9, wherein channels for transmitting the video material information are prepared in advance by the number of backgrounds of the video.
【請求項11】 前記映像素材情報を送信側から受信側
へ複数のチャネルを使用して伝送する場合であって、 前記動作情報と、その他の背景情報、物体情報、配置情
報及び位置情報とは別々のチャネルに割り振られ、 前記動作情報は実時間で送信され、 前記物体情報、配置情報及び位置情報は次の映像の背景
情報と共に送信されることを特徴とする請求項9に記載
の3次元映像の送受信システム。
11. A case in which the video material information is transmitted from a transmission side to a reception side using a plurality of channels, wherein the operation information and other background information, object information, arrangement information, and position information are The three-dimensional image according to claim 9, wherein the motion information is transmitted in real time, and the object information, the arrangement information, and the position information are transmitted together with background information of a next image. Video transmission and reception system.
【請求項12】 前記動作情報、背景情報、物体情報、
配置情報及び位置情報の一群のデータ取り込みが終了す
ると、他群のデータ取り込みのために受信側で当該チャ
ネルを明け渡すようになされることを特徴とする請求項
9に記載の3次元映像の送受信システム。
12. The motion information, background information, object information,
10. The three-dimensional video transmission / reception system according to claim 9, wherein when a group of data of the arrangement information and the position information has been fetched, the receiving side surrenders the channel to fetch data of another group. .
【請求項13】 前記映像素材情報を送信側から受信側
へ複数のチャネルを使用して伝送する場合であって、 前記チャネルの1つを使用して通常のテレビ放送に係る
二次元の映像情報を伝送するようになされたことを特徴
とする請求項7に記載の3次元映像の送受信システム。
13. The two-dimensional video information relating to a normal television broadcast using one of the channels, wherein the video material information is transmitted from a transmission side to a reception side using a plurality of channels. The transmission / reception system of a three-dimensional image according to claim 7, wherein the transmission is performed.
【請求項14】 前記映像素材情報を送信側から受信側
へ複数のチャネルを使用して伝送する場合であって、 被写体から見た視点による映像情報を前記映像素材情報
として前記チャネルの1つを使用して受信側に伝送する
ようになされたことを特徴とする請求項7に記載の3次
元映像の送受信システム。
14. A case where the video material information is transmitted from a transmitting side to a receiving side using a plurality of channels, wherein one of the channels is used as the video material information using video information from a viewpoint viewed from a subject. The transmission / reception system of a three-dimensional image according to claim 7, wherein the system is used to transmit to a receiving side.
【請求項15】 前記被写体が映像の背景内に複数存在
する場合であって、 前記被写体の視点映像情報毎に前記チャネルが割り当て
られることを特徴とする請求項14に記載の3次元映像
の送受信システム。
15. The transmission / reception of a three-dimensional image according to claim 14, wherein the plurality of the objects exist in the background of the image, and the channel is assigned to each viewpoint image information of the object. system.
【請求項16】 前記送信側から受信側へ送られたきた
2次元及び3次元の映像情報を含む映像素材情報を受信
する場合において、 最初の3次元の映像情報は当該映像の初期画面を表示す
る期間又は2次元の映像情報の中で宣伝画面を表示する
期間に取得することを特徴とする請求項1に記載の3次
元映像の送受信システム。
16. When receiving video material information including two-dimensional and three-dimensional video information sent from the transmitting side to the receiving side, the first three-dimensional video information displays an initial screen of the video. The three-dimensional video transmission / reception system according to claim 1, wherein the acquisition is performed during a period during which the advertisement screen is displayed or during a period when the advertisement screen is displayed in the two-dimensional video information.
【請求項17】 前記映像素材情報を送信側から受信側
へ複数のチャネルを使用して伝送する場合であって、 受信側に前記映像素材情報を一時記録する記憶手段が設
けられることを特徴とする請求項1に記載の3次元映像
の送受信システム。
17. A method for transmitting the video material information from a transmission side to a reception side using a plurality of channels, wherein a storage means for temporarily recording the video material information is provided on the reception side. The three-dimensional video transmission / reception system according to claim 1.
【請求項18】 前記記憶手段は、背景情報に見合う分
のメモリ容量を有することを特徴とする請求項17に記
載の3次元映像の送受信システム。
18. The system according to claim 17, wherein said storage means has a memory capacity corresponding to background information.
【請求項19】 前記映像素材情報の中で、頻繁に使用
される3次元の映像情報に関しては、前記送信側におい
て、当該映像の初期画面を表示する期間又は2次元の映
像情報の中で宣伝画面を表示する期間に全てのチャネル
に割り当てて送信され、 前記受信側では前記期間中に取得した3次元の映像情報
が記憶手段に記憶されることを特徴とする請求項17に
記載の3次元映像の送受信システム。
19. The three-dimensional video information frequently used in the video material information is advertised on the transmitting side during a period during which an initial screen of the video is displayed or in the two-dimensional video information. 18. The three-dimensional image according to claim 17, wherein the image data is transmitted while being allocated to all channels during a period in which a screen is displayed, and the receiving side stores the three-dimensional image information acquired during the period in a storage unit. Video transmission and reception system.
【請求項20】 映像の1場面を構成する前記映像素材
情報が膨大な量となる場合には、チャネルを増加して前
記映像素材情報を分割して受信側に送信することを特徴
とする請求項17に記載の3次元映像の送受信システ
ム。
20. When the amount of video material information constituting one scene of a video becomes enormous, channels are increased to divide the video material information and transmit to a receiving side. Item 18. A three-dimensional video transmission / reception system according to item 17.
【請求項21】 映像の1場面を構成する前記映像素材
情報が膨大な量となる場合には、分割した前記映像素材
情報を送信している期間に残余のチャネルを使用して他
の前記映像素材情報を受信側に送信し、 受信側では前記期間中に取得した前記映像素材情報が記
憶手段に記憶されることを特徴とする請求項17に記載
の3次元映像の送受信システム。
21. If the amount of video material information constituting one scene of a video is enormous, the remaining channels are used during transmission of the divided video material information. 18. The three-dimensional video transmission / reception system according to claim 17, wherein material information is transmitted to a receiving side, and the receiving side stores the video material information acquired during the period in a storage unit.
【請求項22】 前記映像素材情報に関して映像の背景
情報に変化があるものも変化がないものも全てを前記送
信側から受信側へ送信し、 受信側ではすぐに使用しない前記背景情報に関しては前
記記憶手段に一時記憶されることを特徴とする請求項1
7に記載の3次元映像の送受信システム。
22. Regarding the video material information, all of the background information of the video that has or has not changed is transmitted from the transmitting side to the receiving side, and the background information that is not used immediately on the receiving side is the same as the background information. 2. The method according to claim 1, wherein the information is temporarily stored in a storage unit.
A three-dimensional video transmission / reception system according to claim 7.
【請求項23】 前記映像素材情報に関して、 撮像可能な任意の物体の特定の面に点滅パターンが異な
る複数の光源を取付け、 前記点滅パターンの異なった光源を所定の撮像方向に流
すように撮像し、 撮像された前記光源の輝度情報を画像処理して前記光源
の各々の位置情報を求めることにより前記物体の位置情
報を得るようになされたことを特徴とする請求項1に記
載の3次元映像の送受信システム。
23. Regarding the video material information, a plurality of light sources having different blinking patterns are attached to a specific surface of an arbitrary imageable object, and the light sources having different blinking patterns are imaged so as to flow in a predetermined imaging direction. 3. The three-dimensional image according to claim 1, wherein the position information of the object is obtained by performing image processing on the brightness information of the light source that has been imaged to obtain position information of each of the light sources. Transmission and reception system.
【請求項24】 前記映像素材情報に関して物体の三次
元形状情報を取得する物体形状取得手段が設けられるこ
とを特徴とする請求項1に記載の3次元映像の送受信シ
ステム。
24. The three-dimensional video transmission / reception system according to claim 1, further comprising an object shape acquisition unit for acquiring three-dimensional shape information of the object with respect to the video material information.
【請求項25】 前記物体形状取得手段は、 前記物体に照射するためのスリット光を発生する光源
と、 前記光源によるスリット光を前記物体に走査するために
複数のプリズム及び液晶シャッタを有した走査手段と、 前記物体から反射されてくるスリット光を各画素毎に検
出する光検出手段とを有し、 前記光検出手段では、 前記各画素Pを通過するスリット光のタイミングが計測
され、そのときの液晶シャッタが開かれたプリズムによ
るスリット光の出射角となる前記基準面とスリット光と
の間を成す角度αが求められ、 前記基準面と画素Pの視線方向との成す角度をβとし、
前記基準面と走査手段の中心位置の液晶シャッタとのオ
フセット距離をAとし、前記画素Pと走査手段の中心位
置の液晶シャッタとのオフセット距離をBとしたとき
に、前記基準面と物体との三次元形状情報Zは、次式、
すなわち、 【数1】 により求められることを特徴とする請求項24に記載の
3次元映像の送受信システム。
25. A scanning device comprising: a light source for generating slit light for irradiating the object; and a plurality of prisms and a liquid crystal shutter for scanning the object with the slit light from the light source. Means, and light detecting means for detecting, for each pixel, slit light reflected from the object, wherein the light detecting means measures the timing of the slit light passing through each of the pixels P. An angle α between the reference plane and the slit light, which is an emission angle of the slit light by the prism with the liquid crystal shutter opened, is determined.An angle between the reference plane and the line of sight of the pixel P is β,
When the offset distance between the reference plane and the liquid crystal shutter at the center position of the scanning unit is A, and the offset distance between the pixel P and the liquid crystal shutter at the center position of the scanning unit is B, the reference plane and the object The three-dimensional shape information Z is expressed by the following equation:
That is, The three-dimensional video transmission / reception system according to claim 24, wherein:
【請求項26】 前記物体形状取得手段は、 前記物体に照射するためのスリット光を発生する光源
と、 前記光源によるスリット光を前記物体に走査するために
ミラーを有した走査手段と、 前記物体から反射されてくるスリット光を各画素毎に検
出する光検出手段とを有し、 前記光検出手段では、 前記各画素Pを通過するスリット光のタイミングが計測
され、そのときのミラーの偏光角となる前記基準面とス
リット光との間を成す角度αが求められ、 前記基準面と画素Pの視線方向との成す角度をβとし、
前記基準面とミラーの回転中心とのオフセット距離をA
とし、前記画素Pとミラーの回転中心とのオフセット距
離をBとしたときに、前記基準面と物体との距離情報Z
は、次式、すなわち、 【数2】 により求められることを特徴とする請求項24に記載の
3次元映像の送受信システム。
26. The object shape obtaining means, comprising: a light source for generating slit light for irradiating the object; a scanning means having a mirror for scanning the object with slit light from the light source; Light detecting means for detecting slit light reflected from each pixel for each pixel, wherein the light detecting means measures the timing of the slit light passing through each pixel P, and the polarization angle of the mirror at that time An angle α between the reference plane and the slit light is determined, and an angle between the reference plane and the line-of-sight direction of the pixel P is β,
Let the offset distance between the reference plane and the center of rotation of the mirror be A
When the offset distance between the pixel P and the center of rotation of the mirror is B, the distance information Z between the reference plane and the object
Is given by the following equation: The three-dimensional video transmission / reception system according to claim 24, wherein:
【請求項27】 前記物体形状取得手段には、 前記物体の基準画像を撮影する基準用のカメラと、前記
物体の参照画像を撮影する検出用のカメラとを有した多
眼ステレオカメラが使用され、 前記基準用のカメラ及び検出用のカメラから得られる視
差情報に基づいて前記物体の三次元形状情報が取得され
ることを特徴とする請求項24に記載の3次元映像の送
受信システム。
27. A multi-view stereo camera having a reference camera for photographing a reference image of the object and a detection camera for photographing a reference image of the object is used as the object shape acquiring means. 25. The three-dimensional video transmission / reception system according to claim 24, wherein the three-dimensional shape information of the object is obtained based on parallax information obtained from the reference camera and the detection camera.
【請求項28】 前記映像作成手段は、 前記映像素材情報に基づいて3次元映像の基礎となるス
テレオ画像を作成するようになされたことを特徴とする
請求項1に記載の3次元映像の送受信システム。
28. The transmission / reception of a three-dimensional video according to claim 1, wherein the video generation unit is configured to generate a stereo image serving as a basis of the three-dimensional video based on the video material information. system.
【請求項29】 前記映像素材情報は、 3次元の映像情報を作成するソフトウエアにより仮想空
間を表現するようになされることを特徴とする請求項2
8に記載の3次元映像の送受信システム。
29. The virtual video camera according to claim 2, wherein the video material information is represented by software for creating three-dimensional video information.
9. The three-dimensional video transmission / reception system according to 8.
【請求項30】 前記3次元映像を表示する表示手段が
設けられ、 前記表示手段の撮像可能な任意の画面内であって、少な
くとも、前記画面内の特定の位置に3点以上の光源画像
が表示されると共に、該光源画像の各々の点滅パターン
が異なるように点滅制御されることを特徴とする請求項
1に記載の3次元映像の送受信システム。
30. A display unit for displaying the three-dimensional video is provided, and in any screen that can be imaged by the display unit, at least three or more light source images are provided at a specific position in the screen. The three-dimensional video transmission / reception system according to claim 1, wherein the display is controlled and blinking is performed so that each blinking pattern of the light source image is different.
【請求項31】 前記表示手段が設けられる場合であっ
て、 前記表示手段に表示された任意の受信画面上に前記光源
画像を合成表示する画像処理手段が設けられることを特
徴とする請求項30に記載の3次元映像の送受信システ
ム。
31. An apparatus according to claim 30, wherein said display means is provided, and image processing means for synthesizing and displaying said light source image on an arbitrary reception screen displayed on said display means is provided. 3. The transmission / reception system for a three-dimensional image according to item 1.
【請求項32】 前記表示手段に光源画像を表示する場
合であって、 前記光源画像の表示部分の画面上に任意の透過特性のフ
ィルムが取付けられ、 前記光源画像から放出される光の特定の波長を通すよう
になされたことを特徴とする請求項30に記載の3次元
映像の送受信システム。
32. A case in which a light source image is displayed on the display means, wherein a film having an arbitrary transmission characteristic is mounted on a screen of a display portion of the light source image, and a specific light emitted from the light source image is specified. 31. The three-dimensional image transmitting / receiving system according to claim 30, wherein a wavelength is transmitted.
【請求項33】 前記表示手段の位置を認識する位置認
識手段が設けられ、 前記表示手段で表示される画面内の光源画像を所定の撮
像方向に流すように撮像し、 撮像された前記光源画像の輝度情報を画像処理して前記
光源画像の各々の位置情報を求めるようになされたこと
を特徴とする請求項30に記載の3次元映像の送受信シ
ステム。
33. A position recognition unit for recognizing a position of the display unit, wherein a light source image in a screen displayed by the display unit is imaged so as to flow in a predetermined imaging direction. 31. The three-dimensional video transmission / reception system according to claim 30, wherein the luminance information is subjected to image processing to obtain position information of each of the light source images.
【請求項34】 前記表示手段の任意の表示画像の特定
の表示期間内に、少なくとも、白地に黒で表示されたn
行×n列の白黒マトリクスと、該白黒マトリクスと同じ
太さの黒枠から成る2次元マトリクスコード画像が表示
される場合であって、 前記二次元マトリクスコード画像を撮像し、 撮像された前記二次元マトリクスコード画像による輝度
信号を画像処理して前記二次元マトリクスコード画像の
四隅の位置情報を求めることにより、前記表示手段の位
置を認識するようになされたことを特徴とする請求項3
0に記載の3次元映像の送受信システム。
34. At least n displayed in black on a white background within a specific display period of an arbitrary display image of the display means.
A case where a two-dimensional matrix code image including a monochrome matrix of rows × n columns and a black frame having the same thickness as the monochrome matrix is displayed, wherein the two-dimensional matrix code image is captured, and the captured two-dimensional matrix code image is displayed. 4. The apparatus according to claim 3, wherein the position of the display means is recognized by performing image processing on a luminance signal based on the matrix code image to obtain position information of four corners of the two-dimensional matrix code image.
0. A three-dimensional video transmission / reception system according to item 0.
【請求項35】 前記表示手段を含む仮想空間の基準面
上で仮想体の画像を合成する合成手段が設けられ、 前記視聴者が視聴する二次元のテレビ映像に仮想体の画
像を立体的に合成するようになされたことを特徴とする
請求項30に記載の3次元映像の送受信システム。
35. A synthesizing means for synthesizing an image of a virtual body on a reference plane of a virtual space including the display means, wherein the virtual body image is stereoscopically added to a two-dimensional television image viewed by the viewer. 31. The three-dimensional video transmission / reception system according to claim 30, wherein the three-dimensional video is transmitted and synthesized.
【請求項36】 前記合成手段は、 前記表示手段の二次元のテレビ画像を撮像する撮像手段
と、 前記撮像手段によるテレビ画像と予め作成された仮想体
の画像と合成したステレオ画像の一方を表示する第1の
画像表示素子と、 前記ステレオ画像の他方を表示する第2の画像表示素子
とを有したヘッドマウントディスプレイであり、 前記ヘッドマウントディスプレイは、視聴者の顔面又は
頭部に装着され、 前記第1の画像表示素子によるステレオ画像と、前記第
2の画像表示素子によるステレオ画像とを重ね合わせて
視聴者の眼球に導くようになされたことを特徴とする請
求項35に記載の3次元映像の送受信システム。
36. An image pickup means for picking up a two-dimensional television image of the display means, and one of a stereo image synthesized from a television image and a previously created virtual body image by the display means. A head mounted display having a first image display element and a second image display element for displaying the other of the stereo images, wherein the head mounted display is mounted on the face or head of a viewer, The three-dimensional image according to claim 35, wherein a stereo image by the first image display element and a stereo image by the second image display element are superimposed and guided to an eyeball of a viewer. Video transmission and reception system.
【請求項37】 前記合成手段は、 視聴者の視聴する表示手段のテレビ画像を取り込むため
に入射光の開閉をする液晶シャッタと、 前記外界像に合成するため作成された仮想体の画像を表
示する画像表示素子と、 前記画像表示素子による仮想体の画像と、前記液晶シャ
ッタを通過した前記表示手段のテレビ画像とをその視聴
者の眼球に導く光学手段とを有したヘッドマウントディ
スプレイであり、 前記ヘッドマウントディスプレイは、視聴者の顔面又は
頭部に装着され、 前記液晶シャッタを開いたときは、 前記液晶シャッタを通過した前記表示手段のテレビ画像
に、前記画像表示素子による仮想体の画像を重ね合わせ
て視聴者の眼球に導くようになされたことを特徴とする
請求項35に記載の3次元映像の送受信システム。
37. A synthesizing unit, comprising: a liquid crystal shutter for opening and closing incident light for capturing a television image of a display unit viewed by a viewer; and displaying an image of a virtual body created for synthesizing with the external world image. An image display element, and an image of a virtual object by the image display element, and a head mounted display having an optical unit that guides a television image of the display unit that has passed through the liquid crystal shutter to an eyeball of the viewer, The head-mounted display is mounted on the face or head of a viewer, and when the liquid crystal shutter is opened, an image of a virtual body by the image display element is displayed on a television image of the display unit that has passed through the liquid crystal shutter. 36. The three-dimensional video transmission / reception system according to claim 35, wherein the system is superimposed and guided to a viewer's eyeball.
【請求項38】 前記合成手段を装着した視聴者が特定
位置に視点を合わせることにより得られる視点位置検出
情報に基づいて、前記映像素材情報に関する映像の背景
又は物体の動きが変更されることを特徴とする請求項3
5に記載の3次元映像の送受信システム。
38. A method according to claim 38, wherein the movement of the background or the object of the image related to the image material information is changed based on viewpoint position detection information obtained by the viewer wearing the synthesizing unit adjusting the viewpoint to a specific position. Claim 3
6. The three-dimensional video transmission / reception system according to 5.
【請求項39】 前記映像の1画面の背景を表示する期
間内に受信側に送信された複数の動作情報と、前記合成
手段による視点位置検出情報とに基づいて映像の中の物
体の動きを変更する表示制御を行うことを特徴とする請
求項38に記載の3次元映像の送受信システム。
39. A motion of an object in a video is determined based on a plurality of pieces of motion information transmitted to a receiving side during a period in which a background of one screen of the video is displayed, and viewpoint position detection information by the synthesizing unit. 39. The three-dimensional video transmission / reception system according to claim 38, wherein display control for changing is performed.
【請求項40】 前記選択手段を操作する操作手段が設
けられ、 前記操作手段を操作することにより得られる操作情報に
基づいて前記映像素材情報に関する映像の背景又は物体
の動きが変更されることを特徴とする請求項1に記載の
3次元映像の送受信システム。
40. An operation means for operating the selection means, wherein a motion of a background or an object of the video related to the video material information is changed based on operation information obtained by operating the operation means. The three-dimensional video transmission / reception system according to claim 1, wherein:
【請求項41】 前記映像の1画面の背景を表示する期
間内に受信側に送信された複数の動作情報と、前記操作
手段による操作情報とに基づいて映像の中の物体の動き
を変更する表示制御を行うことを特徴とする請求項40
に記載の3次元映像の送受信システム。
41. A motion of an object in a video is changed based on a plurality of pieces of motion information transmitted to a receiving side during a period for displaying a background of one screen of the video and operation information by the operation means. 41. A display control is performed.
3. The transmission / reception system for a three-dimensional image according to item 1.
【請求項42】 前記映像素材情報に係る映像の背景又
は物体の動きの変更は一定のサイクルタイム内に割り込
みが発生した場合に行われることを特徴とする請求項1
に記載の3次元映像の送受信システム。
42. The method according to claim 1, wherein the change of the background of the image or the motion of the object according to the image material information is performed when an interrupt occurs within a predetermined cycle time.
3. The transmission / reception system for a three-dimensional image according to item 1.
【請求項43】 前記サイクルタイム内の割り込み以外
はデフォルトの3次元の映像情報に基づく映像が表示さ
れることを特徴とする請求項42に記載の3次元映像の
送受信システム。
43. The three-dimensional video transmitting / receiving system according to claim 42, wherein a video based on default three-dimensional video information is displayed except for an interrupt within the cycle time.
【請求項44】 前記送信側と視聴者側との間に通信手
段が接続され、 前記通信手段を使用して前記視聴者側から送信側へ視聴
者による個別情報を送信する双方向サービス網が構築さ
れることを特徴とする請求項1に記載の3次元映像の送
受信システム。
44. A two-way service network, wherein communication means is connected between the transmission side and the viewer side, and wherein the communication means transmits individual information by the viewer from the viewer side to the transmission side. The three-dimensional video transmission / reception system according to claim 1, wherein the system is constructed.
【請求項45】 少なくとも、3次元映像を作成するた
めの複数の映像素材情報を予め送信側で準備し、 前記送信側で準備された前記映像素材情報を該送信側か
ら個々の視聴者側へ送信し、 前記送信側から送られてきた前記映像素材情報を視聴者
側で受信し、 前記視聴者側では前記映像素材情報から任意の映像素材
情報を選んで3次元映像を作成することを特徴とする3
次元映像の送受信方法。
45. At least a plurality of pieces of video material information for creating a three-dimensional video are prepared in advance on the transmission side, and the video material information prepared on the transmission side is sent from the transmission side to individual viewers. Transmitting, the viewer receives the video material information sent from the transmitting side, and the viewer selects arbitrary video material information from the video material information to create a three-dimensional video. 3
How to send and receive 3D images.
【請求項46】 前記映像素材情報は、 前記送信側から受信側へ複数のチャネルを使用して多重
伝送されることを特徴とする請求項45に記載の3次元
映像の送受信方法。
46. The method of claim 45, wherein the video material information is multiplex-transmitted from the transmitting side to the receiving side using a plurality of channels.
【請求項47】 前記映像素材情報は、 前記送信側で全て準備されることを特徴とする請求項4
5に記載の3次元映像の送受信方法。
47. The apparatus according to claim 4, wherein the video material information is all prepared on the transmission side.
6. The method for transmitting and receiving a three-dimensional video according to 5.
【請求項48】 前記映像素材情報の一部が受信側で準
備されることを特徴とする請求項45に記載の3次元映
像の送受信方法。
48. The method according to claim 45, wherein a part of the video material information is prepared on a receiving side.
【請求項49】 前記映像素材情報が送信側で準備され
る場合であって、 前記映像素材情報に関して、 1画面を構成する3次元映像を「粗」に再生する粗再生
モード又は「密」に再生する密再生モードのいずれかを
前記受信側で選択するようになされたことを特徴とする
請求項47に記載の3次元映像の送受信方法。
49. A case in which the video material information is prepared on a transmission side, wherein the video material information is provided in a coarse reproduction mode for reproducing a three-dimensional video constituting one screen in a “coarse” or “dense” mode. 48. The method of claim 47, wherein one of the fine reproduction modes for reproduction is selected on the receiving side.
【請求項50】 前記チャネルの使用に伴う料金設定に
関しては、使用チャネル数とチャネル使用時間に基づい
て視聴者へ課金することを特徴とする請求項46に記載
の3次元映像の送受信方法。
50. The three-dimensional video transmission / reception method according to claim 46, wherein a fee is charged to a viewer based on the number of channels used and the channel usage time for the fee setting accompanying the use of the channel.
【請求項51】 前記視聴者への料金設定に関しては、
前記受信時間内における映像素材情報の量に応じて課金
することを特徴とする請求項50に記載の3次元映像の
送受信方法。
51. Regarding the fee setting for the viewer,
The method of claim 50, wherein charging is performed according to the amount of video material information within the reception time.
【請求項52】 前記チャネルの使用に伴う料金設定に
関しては、使用チャネル数とチャネル使用時間に基づい
て番組提供者へ課金することを特徴とする請求項46に
記載の3次元映像の送受信方法。
52. The three-dimensional video transmission / reception method according to claim 46, wherein a fee is charged to a program provider based on the number of channels used and the channel usage time for the fee setting accompanying the use of the channel.
【請求項53】 前記番組提供者への料金設定に関して
は、送信時間内における映像素材情報の量に応じて課金
することを特徴とする請求項52に記載の3次元映像の
送受信方法。
53. The three-dimensional video transmission / reception method according to claim 52, wherein the fee setting for the program provider is charged according to the amount of video material information within a transmission time.
【請求項54】 通信手段を使用して前記視聴者側から
送信側へ視聴者による個別情報を送信する双方向サービ
ス網が構築される場合であって、 前記映像素材情報に買い物情報が送信されることを特徴
とする請求項45に記載の3次元映像の送受信方法。
54. A case where a two-way service network for transmitting individual information by the viewer from the viewer side to the transmission side using communication means is constructed, wherein shopping information is transmitted to the video material information. The method for transmitting and receiving a three-dimensional image according to claim 45, wherein:
【請求項55】 前記双方向サービス網が構築される場
合であって、 前記買い物情報に対して視聴者がテレビショッピングを
行ったとき、 前記買い物情報に係る注文情報が番組提供者に転送され
ると共に、該買い物情報に係る商品代金が、視聴者のチ
ャネルの使用に伴う料金に加算されることを特徴とする
請求項54に記載の3次元映像の送受信方法。
55. The case where the interactive service network is constructed, wherein when a viewer performs television shopping on the shopping information, order information relating to the shopping information is transferred to a program provider. The three-dimensional video transmission / reception method according to claim 54, further comprising adding a product price related to the shopping information to a fee associated with using a channel of a viewer.
JP20073599A 1999-07-14 1999-07-14 3D image transmission / reception system and transmission / reception method thereof Expired - Fee Related JP4250814B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20073599A JP4250814B2 (en) 1999-07-14 1999-07-14 3D image transmission / reception system and transmission / reception method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20073599A JP4250814B2 (en) 1999-07-14 1999-07-14 3D image transmission / reception system and transmission / reception method thereof

Publications (2)

Publication Number Publication Date
JP2001028765A true JP2001028765A (en) 2001-01-30
JP4250814B2 JP4250814B2 (en) 2009-04-08

Family

ID=16429314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20073599A Expired - Fee Related JP4250814B2 (en) 1999-07-14 1999-07-14 3D image transmission / reception system and transmission / reception method thereof

Country Status (1)

Country Link
JP (1) JP4250814B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003009145A (en) * 2001-04-11 2003-01-10 Eastman Kodak Co Personalized motion imaging system
JP2008117042A (en) * 2006-11-01 2008-05-22 Nomura Research Institute Ltd Virtual space providing server, virtual space providing system, and computer program
US7532215B2 (en) 2003-09-02 2009-05-12 Fujifilm Corporation Image generating apparatus, image generating method and image generating program
JP2012104101A (en) * 2010-10-15 2012-05-31 Casio Comput Co Ltd Image composition apparatus, image retrieval method, and program
JP2012220776A (en) * 2011-04-11 2012-11-12 Seiko Epson Corp Head-mounted type display device
JP2012233962A (en) * 2011-04-28 2012-11-29 Konica Minolta Holdings Inc Projection system, projection device, projection method, and control program
JP2013174642A (en) * 2012-02-23 2013-09-05 Toshiba Corp Image display device
WO2014002347A1 (en) * 2012-06-29 2014-01-03 株式会社ソニー・コンピュータエンタテインメント Video output device, 3d video observation device, video display device, and video output method
JP2014211643A (en) * 2014-06-11 2014-11-13 コニカミノルタ株式会社 Projection system, projection device, projection method, and control program
WO2017002642A1 (en) * 2015-06-30 2017-01-05 シャープ株式会社 Information device and display processing method
KR101856874B1 (en) 2016-11-19 2018-05-14 주식회사 랜티스 A device for splitting and selecting mutichannel image information
US12041218B2 (en) 2018-07-25 2024-07-16 Dwango Co., Ltd. Three-dimensional content distribution system, three-dimensional content distribution method and computer program

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003009145A (en) * 2001-04-11 2003-01-10 Eastman Kodak Co Personalized motion imaging system
US7532215B2 (en) 2003-09-02 2009-05-12 Fujifilm Corporation Image generating apparatus, image generating method and image generating program
JP2008117042A (en) * 2006-11-01 2008-05-22 Nomura Research Institute Ltd Virtual space providing server, virtual space providing system, and computer program
JP2012104101A (en) * 2010-10-15 2012-05-31 Casio Comput Co Ltd Image composition apparatus, image retrieval method, and program
JP2012220776A (en) * 2011-04-11 2012-11-12 Seiko Epson Corp Head-mounted type display device
JP2012233962A (en) * 2011-04-28 2012-11-29 Konica Minolta Holdings Inc Projection system, projection device, projection method, and control program
JP2013174642A (en) * 2012-02-23 2013-09-05 Toshiba Corp Image display device
WO2014002347A1 (en) * 2012-06-29 2014-01-03 株式会社ソニー・コンピュータエンタテインメント Video output device, 3d video observation device, video display device, and video output method
JP2014011656A (en) * 2012-06-29 2014-01-20 Sony Computer Entertainment Inc Video output apparatus, stereoscopic video observation device, video presentation system, and video output method
US9741168B2 (en) 2012-06-29 2017-08-22 Sony Corporation Video outputting apparatus, three-dimentional video observation device, video presentation system, and video outputting method
JP2014211643A (en) * 2014-06-11 2014-11-13 コニカミノルタ株式会社 Projection system, projection device, projection method, and control program
WO2017002642A1 (en) * 2015-06-30 2017-01-05 シャープ株式会社 Information device and display processing method
JPWO2017002642A1 (en) * 2015-06-30 2018-04-26 シャープ株式会社 Information device and display processing method
KR101856874B1 (en) 2016-11-19 2018-05-14 주식회사 랜티스 A device for splitting and selecting mutichannel image information
US12041218B2 (en) 2018-07-25 2024-07-16 Dwango Co., Ltd. Three-dimensional content distribution system, three-dimensional content distribution method and computer program

Also Published As

Publication number Publication date
JP4250814B2 (en) 2009-04-08

Similar Documents

Publication Publication Date Title
US9838668B2 (en) Systems and methods for transferring a clip of video data to a user facility
CN105264876B (en) The method and system of inexpensive television production
EP3127321B1 (en) Method and system for automatic television production
CN106792246B (en) Method and system for interaction of fusion type virtual scene
JP5158889B2 (en) Image content generation method and image content generation apparatus
US8395711B2 (en) Method and system for fusing video streams
US20160205341A1 (en) System and method for real-time processing of ultra-high resolution digital video
US20120013711A1 (en) Method and system for creating three-dimensional viewable video from a single video stream
CN105765959B (en) Method and system for producing video works
JP5304714B2 (en) Pseudo stereoscopic image generation apparatus and camera
US20060244831A1 (en) System and method for supplying and receiving a custom image
JP2002271693A (en) Image processing unit, image processing method, and control program
JPWO2014024475A1 (en) Video providing method, transmitting apparatus and receiving apparatus
WO1995007590A1 (en) Time-varying image processor and display device
JP2013514004A (en) 3D recording and display system using proximal and distal focused images
JP2014529930A (en) Selective capture and display of a portion of a native image
JP4250814B2 (en) 3D image transmission / reception system and transmission / reception method thereof
KR20190031220A (en) System and method for providing virtual reality content
JP4211097B2 (en) Receiver, position recognition apparatus thereof, position recognition method thereof, and virtual image stereoscopic composition apparatus
GB2354388A (en) System and method for capture, broadcast and display of moving images
Sakiyama et al. A newly developed 8k/hlg broadcasting camera system with three cmos image sensors
JP2003174634A (en) Method, apparatus, and program for transmitting/ receiving video image with revised aspect ratio
Tanaka et al. Super high definition image (WHD: Wide/Double HD) transmission system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060215

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081224

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090106

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120130

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees