JP2009105560A - Video data output device and broadcasting system - Google Patents

Video data output device and broadcasting system Download PDF

Info

Publication number
JP2009105560A
JP2009105560A JP2007274142A JP2007274142A JP2009105560A JP 2009105560 A JP2009105560 A JP 2009105560A JP 2007274142 A JP2007274142 A JP 2007274142A JP 2007274142 A JP2007274142 A JP 2007274142A JP 2009105560 A JP2009105560 A JP 2009105560A
Authority
JP
Japan
Prior art keywords
image data
data
video data
video
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007274142A
Other languages
Japanese (ja)
Inventor
Noriyuki Hata
紀行 畑
Takuya Tamaru
卓也 田丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2007274142A priority Critical patent/JP2009105560A/en
Publication of JP2009105560A publication Critical patent/JP2009105560A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a video data output device that can make a lecture material correspond to various languages, and can change and transmit the lecture material as a lecture progresses, and a broadcasting system. <P>SOLUTION: This video data output device 1 can change pages of the lecture material displayed on a screen etc. since a lecturer makes a change indication, and generate video data of an English lecture material corresponding to the page change. Consequently, an attendance can confirm contents even at a distance from the lecturer by displaying the lecture material on a video display device 4 at hand, and can change the lecture material to a lecture material in a language different from that of the lecture material displayed on the screen etc. by operating an operation unit of a radio reception device 3 to confirm it. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、広い会場における講演において、聴講者に対して講演資料を送信する技術に関する。   The present invention relates to a technique for transmitting lecture materials to listeners in a lecture at a wide venue.

講演会などにおいて、一般的には、講演者はプロジェクタなどによりスクリーンに映し出された講演資料を聴講者に示しながら、その内容についての説明を行う。しかし、講演を行う会場が広い場合などは、講演者やスクリーンから遠い場所にいる聴講者は、スクリーンに映し出された講演資料を視認することが困難になるとともに、講演内容を聞き取ることも困難になる。このような状況を改善するために、ビデオカメラによってスクリーンを撮影した映像と、マイクによって収音した音声とを、聴講者の手元にあるモニタとヘッドホンに赤外線通信によって送信する技術が、例えば特許文献1に開示されている。また、国際的な講演会などの場合には、聴講者は、講演者の言語を理解できない場合もあるため、音声について、同時通訳を行って送信することにより、聴講者は同時通訳された音声を選択して聴取することもできる。
特開2004−312214号公報
In lectures and the like, in general, a lecturer explains the content of a lecture material displayed on a screen by a projector or the like while showing the lecture material to the listener. However, when the venue for the lecture is large, it is difficult for the lecturer and the listener far away from the screen to see the lecture material projected on the screen and to hear the lecture contents. Become. In order to improve such a situation, a technique for transmitting an image obtained by photographing a screen with a video camera and sound collected by a microphone to a monitor and headphones at the listener's hand by infrared communication is disclosed in, for example, Patent Literature 1 is disclosed. Also, in international lectures, the listener may not understand the language of the lecturer, so by sending the speech through simultaneous interpretation, the listener can hear the simultaneous translated speech. You can also select and listen.
JP 2004-312214 A

一方、聴講者が手元のモニタで見ることができる情報は、スクリーンを撮影した内容であったため、講演者が用いる講演資料に使用される言語によっては、聴講者は、同時通訳された音声を聞くことができても講演資料の内容を理解できないことがあった。   On the other hand, the information that the audience can see on the monitor at hand is the content of the screen shot, so depending on the language used for the lecture material used by the lecturer, the audience will hear the simultaneously interpreted speech. Even if I was able to do so, I could not understand the contents of the lecture material.

本発明は、上述の事情に鑑みてなされたものであり、講演資料を様々な言語に対応させるとともに、講演の進行に応じて講演資料を切り替えて送信することができる映像データ出力装置および放送システムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and a video data output device and a broadcasting system capable of corresponding lecture materials to various languages and switching and transmitting the lecture materials according to the progress of the lecture. The purpose is to provide.

上述の課題を解決するため、本発明は、複数の画像データを有する第1の画像データ群と、前記第1の画像データ群の各画像データと対応付けられた画像データを有する第2の画像データ群とを記憶する記憶手段と、切替信号を取得する切替信号取得手段と、前記記憶手段から前記第1の画像データ群の画像データを読み出して、当該画像データに基づいて表示手段の表示内容を制御する表示制御手段であって、前記切替信号取得手段が切替信号を取得すると、前記記憶手段から前記第1の画像データ群の画像データを読み出す表示制御手段と、前記表示制御手段によって制御される表示内容を含むストリーミング形式の第1の映像データを生成する第1の映像データ生成手段と、前記表示制御手段によって読み出される画像データに連動して、当該画像データと対応する前記第2の画像データ群の画像データを前記記憶手段から読み出す読出手段と、前記読出手段が読み出した画像データに基づいて、ストリーミング形式の第2の映像データを生成する第2の映像データ生成手段と、前記第1の映像データと前記第2の映像データとを外部機器と通信可能な送信手段に出力する出力手段とを具備することを特徴とする映像データ出力装置を提供する。   In order to solve the above-described problem, the present invention provides a first image data group having a plurality of image data, and a second image having image data associated with each image data of the first image data group. Storage means for storing a data group; switching signal acquisition means for acquiring a switching signal; and reading the image data of the first image data group from the storage means, and display contents of the display means based on the image data Display control means for controlling the display, and when the switching signal acquisition means acquires the switching signal, the display control means reads out the image data of the first image data group from the storage means, and is controlled by the display control means. First video data generation means for generating first video data in a streaming format including display content to be displayed, and image data read by the display control means. The second image data group corresponding to the image data is read out from the storage unit, and the second video data in the streaming format is generated based on the image data read out by the reading unit. A video data output device comprising: second video data generation means; and output means for outputting the first video data and the second video data to a transmission means capable of communicating with an external device. I will provide a.

また、別の好ましい態様において、前記表示制御手段は、読み出した画像データに対応する前記第2の画像データ群の画像データが複数ある場合には、前記切替信号取得手段が次に切替信号を取得すると読み出す画像データが、直前に読み出した画像データと同一の画像データとなるような処理を、前記第2の画像データ群の画像データが対応付けられている数だけ連続して行い、前記読出手段は、前記表示制御手段が連続して同一の画像データを読み出す場合には、当該同一の画像データに対応する複数の画像データを、予め設定された順に読み出してもよい。   In another preferable aspect, when there are a plurality of image data of the second image data group corresponding to the read image data, the display control unit acquires the switching signal next. Then, the reading means performs the processing such that the image data to be read becomes the same image data as the image data read immediately before, by the number corresponding to the image data of the second image data group. When the display control means reads the same image data continuously, a plurality of image data corresponding to the same image data may be read in a preset order.

また、別の好ましい態様において、前記読出手段は、前記表示制御手段が読み出した画像データに対応付けられた前記第2の画像データ群の画像データが複数ある場合には、前記表示制御手段によって読み出される画像データに対応する前記第2の画像データ群の複数の画像データのうち、予め設定された画像データを読み出してもよい。   In another preferred embodiment, the reading means reads the display control means when there are a plurality of image data of the second image data group associated with the image data read by the display control means. Of the plurality of pieces of image data of the second image data group corresponding to the image data to be set, preset image data may be read out.

また、別の好ましい態様において、第3の映像データを生成する第3の映像データ生成手段をさらに具備し、前記表示制御手段は、前記記憶手段から前記第1の画像データ群の画像データを読み出して、当該画像データに基づいて表示手段の表示内容を制御するとともに、前記第3の映像データ生成手段によって第3の映像データが生成されている期間においては、当該第3の映像データを取得して、当該第3の映像データ、または、当該第3の映像データと当該画像データとに基づいて表示手段の表示内容を制御し、前記第2の映像データ生成手段は、前記第3の映像データ生成手段によって第3の映像データが生成されている期間においては、当該第3の映像データを取得して、当該第3の映像データ、または、当該第3の映像データと前記読出手段が読み出した画像データとに基づいて、ストリーミング形式の第2の映像データを生成してもよい。   In another preferable aspect, the image processing apparatus further includes third video data generation means for generating third video data, and the display control means reads out the image data of the first image data group from the storage means. The display content of the display means is controlled based on the image data, and the third video data is acquired during the period in which the third video data generation means is generating the third video data. The display content of the display unit is controlled based on the third video data or the third video data and the image data, and the second video data generation unit is configured to control the third video data. In a period in which the third video data is generated by the generation unit, the third video data is acquired, and the third video data or the third video data Serial based on the reading means read the image data, may generate a second image data in a streaming format.

また、別の好ましい態様において、第1の収音手段と、第2の収音手段と、前記第1の収音手段の収音に基づいて、ストリーミング形式の第1の音声データを生成する第1の音声データ生成手段と、前記第2の収音手段の収音に基づいて、ストリーミング形式の第2の音声データを生成する第2の音声データ生成手段とをさらに具備し、前記出力手段は、さらに前記第1の音声データと前記第2の音声データとを出力してもよい。   In another preferred embodiment, the first sound collecting means, the second sound collecting means, and the first sound data in the streaming format are generated based on the sound collected by the first sound collecting means. 1 audio data generation means, and second audio data generation means for generating second audio data in a streaming format based on the sound collection of the second sound collection means, and the output means Further, the first audio data and the second audio data may be output.

また、別の好ましい態様において、前記出力手段は、前記第1の映像データと前記第1の音声データとを一のチャンネルとして出力するとともに、前記第2の映像データと前記第2の音声データとを前記チャンネルとは異なるチャンネルとして出力してもよい。   In another preferable aspect, the output means outputs the first video data and the first audio data as one channel, and the second video data and the second audio data. May be output as a channel different from the channel.

また、別の好ましい態様において、前記第2の映像データを所定時間遅延させる遅延手段をさらに具備し、前記出力手段が出力する第2の映像データは、前記遅延手段によって遅延された第2の映像データであってもよい。   In another preferable aspect, the image processing apparatus further includes delay means for delaying the second video data for a predetermined time, and the second video data output from the output means is the second video delayed by the delay means. It may be data.

また、本発明は、上記記載の映像データ出力装置と、前記出力手段から出力された各データを通信によって送信する送信手段を有する送信装置と、前記送信手段から送信される各データのうち、少なくとも第1の映像データまたは第2の映像データのいずれかを選択する選択手段と、前記選択手段によって選択されたデータを受信する受信手段とを有する受信装置とを具備することを特徴とする放送システムを提供する。   In addition, the present invention provides at least one of the video data output apparatus described above, a transmission apparatus having a transmission means for transmitting each data output from the output means, and each data transmitted from the transmission means. A broadcasting system comprising: a receiving unit having a selecting unit that selects either the first video data or the second video data; and a receiving unit that receives the data selected by the selecting unit. I will provide a.

また、別の好ましい態様において、外部装置から表示内容を制御される映像表示装置をさらに具備し、前記受信装置は、前記外部装置であって、前記受信手段によって受信した映像データに基づく表示内容を前記映像表示装置に表示させる制御を行う映像制御手段を有してもよい。   Moreover, in another preferable aspect, it further comprises a video display device whose display content is controlled by an external device, wherein the receiving device is the external device, and the display content based on the video data received by the receiving means is displayed. You may have a video control means to perform the control displayed on the said video display apparatus.

本発明によれば、講演資料を様々な言語に対応させるとともに、講演の進行に応じて講演資料を切り替えて送信することができる映像データ出力装置および放送システムを提供することができる。   According to the present invention, it is possible to provide a video data output device and a broadcasting system that can make a lecture material compatible with various languages and can switch and transmit the lecture material according to the progress of the lecture.

以下、本発明の一実施形態について説明する。   Hereinafter, an embodiment of the present invention will be described.

<実施形態>
本発明の実施形態に係る映像データ出力装置1は、講演資料などを示す映像データを生成し、図1に示すように、無線送信装置2を介して、生成した映像データを無線送信する。無線受信装置3は、無線送信装置2から送信された映像データを受信し、映像表示装置4にその映像データに係る映像を表示させる。このように、映像データ出力装置1、無線送信装置2、無線受信装置3および映像表示装置4により放送システムが構成される。以下、放送システムの各々の構成について、順に説明する。
<Embodiment>
The video data output device 1 according to the embodiment of the present invention generates video data indicating lecture materials and the like, and wirelessly transmits the generated video data via the wireless transmission device 2 as shown in FIG. The wireless reception device 3 receives the video data transmitted from the wireless transmission device 2 and causes the video display device 4 to display a video related to the video data. Thus, the video data output device 1, the wireless transmission device 2, the wireless reception device 3, and the video display device 4 constitute a broadcasting system. Hereinafter, each configuration of the broadcasting system will be described in order.

映像データ出力装置1のハードウエアの構成について説明する。図2は、映像データ出力装置1のハードウエアの構成を示すブロック図である。   A hardware configuration of the video data output apparatus 1 will be described. FIG. 2 is a block diagram showing a hardware configuration of the video data output apparatus 1.

CPU(Central Processing Unit)11は、ROM(Read Only Memory)12に記憶されているプログラムを読み出して、RAM(Random Access Memory)13にロードして実行することにより、映像データ出力装置1の各部について、バス10を介して制御する。また、RAM13は、CPU11が記憶された各データの加工などを行う際のワークエリアとして機能する。   A CPU (Central Processing Unit) 11 reads out a program stored in a ROM (Read Only Memory) 12, loads the program into a RAM (Random Access Memory) 13, and executes the program, whereby each unit of the video data output device 1 is read. Control through the bus 10. The RAM 13 functions as a work area when the CPU 11 processes each data stored.

記憶部14は、例えば、ハードディスクなどの大容量記憶手段であって、静止画像を示す画像データを記憶する。この画像データは、講演資料についてページ単位での内容を示すデータである。本実施形態においては、講演資料は、日本語、英語で作成され、日本語の講演資料については、各ページが画像データJ1、J2、・・・(以下、各ページを区別しない場合は、画像データJという)として記憶され、英語の講演資料については、各ページが画像データE1、E2、・・・(以下、各ページを区別しない場合は、画像データEという)として記憶されている。そして、図3に示すように、これらの画像データは、それぞれの言語ごとにまとめて記憶され、日本語の講演資料である画像データJは日本語データ、英語の講演資料である画像データEは英語データとして、まとめて記憶されている。ここで、画像データの一例として、画像データJ1と画像データE1の静止画像の内容を図3に示す。このように、日本語の講演資料を英訳したものが英語の講演資料を示す外国語データとして記憶されている。   The storage unit 14 is a large-capacity storage unit such as a hard disk, for example, and stores image data indicating a still image. This image data is data indicating the contents of the lecture material in units of pages. In this embodiment, lecture materials are created in Japanese and English, and for Japanese lecture materials, each page has image data J1, J2,... As for English lecture materials, each page is stored as image data E1, E2,... (Hereinafter referred to as image data E when each page is not distinguished). As shown in FIG. 3, these image data are stored for each language together, image data J which is a Japanese lecture material is Japanese data, and image data E which is an English lecture material is It is memorized together as English data. Here, as an example of the image data, the contents of still images of the image data J1 and the image data E1 are shown in FIG. In this way, Japanese translations of lecture materials in English are stored as foreign language data indicating English lecture materials.

また、記憶部14は、対応テーブルを記憶する。対応テーブルは、図4に示すように、講演資料の表示順番を規定するとともに、日本語データと英語データとにおける画像データの対応関係を示している。そのため、図4の対応テーブルは、日本語の講演資料は、1ページ目が画像データJ1、2ページ目が画像データJ2、3ページ目が画像データJ3、4ページ目が画像データJ4であり、英語の講演資料は、1ページ目が画像データE1、2ページ目が画像データE2、3ページ目が画像データE4、4ページ目が画像データE3となっている。すなわち、画像データJ1と画像データE1、画像データJ2と画像データE2、画像データJ3と画像データE4、画像データJ4と画像データE3、がそれぞれ対応付けられている。   The storage unit 14 stores a correspondence table. As shown in FIG. 4, the correspondence table defines the display order of lecture materials and shows the correspondence between image data in Japanese data and English data. Therefore, the correspondence table in FIG. 4 shows that the lecture material in Japanese is image data J1 for the first page, image data J2 for the third page, image data J3 for the third page, and image data J4 for the fourth page. The English lecture material has image data E1 for the first page, image data E2 for the second page, image data E4 for the third page, and image data E3 for the fourth page. That is, image data J1 and image data E1, image data J2 and image data E2, image data J3 and image data E4, and image data J4 and image data E3 are associated with each other.

図2の説明に戻る。操作部15は、例えばキーボード、マウス、切り替えボタンなどである。利用者が操作部15を操作するとその操作内容を表すデータがCPU11へ出力される。また、講演者が切り替えボタンを押下すると、操作部15は切替信号を出力する。   Returning to the description of FIG. The operation unit 15 is, for example, a keyboard, a mouse, a switching button, or the like. When the user operates the operation unit 15, data representing the operation content is output to the CPU 11. When the speaker presses the switching button, the operation unit 15 outputs a switching signal.

音声入力部16は、チャンネル番号が割り当てられたマイクを複数有し、各マイクからの収音内容をチャンネルごとに音声データとして出力する。本実施形態においては、チャンネル1(以下、CH1という)のマイクは、日本語によって発言する講演者の声を収音し、チャンネル2(以下、CH2という)のマイクは、講演者の発言を英語の発言に同時通訳する通訳者の声を収音する。以下、CH1のマイクの収音によって生成される日本語の発言を示すCH1の音声データを音声データJといい、CH2のマイクの収音によって生成される英語の発言を示すCH2の音声データを音声データEという。   The audio input unit 16 has a plurality of microphones to which channel numbers are assigned, and outputs the sound collection content from each microphone as audio data for each channel. In this embodiment, the microphone of channel 1 (hereinafter referred to as CH1) picks up the voice of the speaker speaking in Japanese, and the microphone of channel 2 (hereinafter referred to as CH2) speaks the speaker's speech in English. The voice of the interpreter who interprets at the same time is recorded. Hereinafter, the CH1 voice data indicating the Japanese speech generated by the sound collection of the CH1 microphone is referred to as voice data J, and the CH2 voice data indicating the English voice generated by the CH2 microphone sound is voiced. It is called data E.

データ出力部17は、映像データ出力装置1に接続される無線送信装置2に対して、後述するソフトウエアの処理によって生成される出力データを出力する出力端子である。   The data output unit 17 is an output terminal that outputs output data generated by software processing described later to the wireless transmission device 2 connected to the video data output device 1.

表示部18は、映像を画面に表示する液晶ディスプレイなどの表示デバイスであって、入力される映像データに基づいて表示を行う。また、外部にプロジェクタなどを接続することにより、接続されたプロジェクタによって、スクリーンに映像を投影表示させることもできる。さらに、映像データ出力装置1を操作するためのメニュー画面など、各種画面を表示する。   The display unit 18 is a display device such as a liquid crystal display that displays video on the screen, and performs display based on input video data. Further, by connecting a projector or the like to the outside, an image can be projected and displayed on the screen by the connected projector. Further, various screens such as a menu screen for operating the video data output device 1 are displayed.

次に、CPU11が、ROM12に記憶されたプログラムを実行することによって実現する機能について説明する。図5は、CPU11が実現する機能を示したソフトウエアの構成を示すブロック図である。   Next, functions realized by the CPU 11 executing programs stored in the ROM 12 will be described. FIG. 5 is a block diagram illustrating a software configuration showing functions realized by the CPU 11.

切替信号取得部101は、操作部15から出力された切替信号を取得し、取得したタイミングで、読出部102に対して、画像データの読み出し指示を示す指示信号を出力する。なお、読出部102に指示信号を出力するタイミングは、切替信号を取得したタイミングに限らず、そのタイミング以降であれば、少し遅いタイミングでもよく、このタイミングの遅れ時間は、予め設定しておけばよい。   The switching signal acquisition unit 101 acquires the switching signal output from the operation unit 15 and outputs an instruction signal indicating an image data reading instruction to the reading unit 102 at the acquired timing. Note that the timing at which the instruction signal is output to the reading unit 102 is not limited to the timing at which the switching signal is acquired, and may be a little later than that timing. The delay time of this timing may be set in advance. Good.

読出部102は、CPU11によってプログラムが実行された後に、記憶部14から対応テーブルを取得し、読み出すべき画像データJおよび画像データEと、その読み出し順番を認識する。そして、読出部102は、切替信号取得部101から出力された指示信号を認識するたびに、対応テーブルによって指定される順番に画像データJおよび画像データEを読み出して、映像データ生成部103に出力する。このように、画像データJと画像データEは、読出部102によって連動して読み出される。   After the program is executed by the CPU 11, the reading unit 102 acquires the correspondence table from the storage unit 14 and recognizes the image data J and image data E to be read and the reading order. Then, whenever the reading unit 102 recognizes the instruction signal output from the switching signal acquisition unit 101, the reading unit 102 reads the image data J and the image data E in the order specified by the correspondence table, and outputs them to the video data generation unit 103. To do. As described above, the image data J and the image data E are read by the reading unit 102 in conjunction with each other.

例えば、読出部102は、図4に示すような対応テーブルを取得した場合には、最初の指示信号を認識すると、画像データJ1および画像データE1を読み出して、映像データ生成部103に出力する。次に指示信号を認識すると、次の順番である画像データJ2および画像データE2を読み出して、映像データ生成部103に出力する。このとき、読出部102は、日本語データである画像データJはCH1、英語データである画像データEはCH2として、映像データ生成部103に出力し、日本語データと英語データとを映像データ生成部103に認識させる。   For example, when the reading unit 102 acquires the correspondence table as shown in FIG. 4, when the first instruction signal is recognized, the reading unit 102 reads the image data J1 and the image data E1 and outputs them to the video data generation unit 103. Next, when the instruction signal is recognized, the next image data J2 and image data E2 are read out and output to the video data generator 103. At this time, the reading unit 102 outputs the image data J, which is Japanese data, as CH1, and the image data E, which is English data, as CH2, and outputs it to the video data generation unit 103, and generates Japanese data and English data as video data. To be recognized by the unit 103.

映像データ生成部103は、読出部102から出力された画像データJに基づいて、ストリーミング形式の映像データJを生成し、読出部102から出力された画像データEに基づいて、ストリーミング形式の映像データEを生成する。そして、生成した映像データJは、表示部18に出力するとともに、CH1の映像データとして出力データ生成部104に出力される。一方、生成した映像データEは、CH2の映像データとして出力データ生成部104に出力される。   The video data generation unit 103 generates streaming-format video data J based on the image data J output from the reading unit 102, and the streaming-format video data based on the image data E output from the reading unit 102. E is generated. The generated video data J is output to the display unit 18 and also output to the output data generation unit 104 as video data of CH1. On the other hand, the generated video data E is output to the output data generation unit 104 as CH2 video data.

映像データ生成部103が生成する映像データは具体的には、以下のように行われる。読出部102から画像データが出力されると、その画像データが示す静止画像を表示し続ける映像を示す映像データを生成する。そして、次の画像データが読出部102から出力されると、その画像データが示す静止画像を表示し続ける映像を示す映像データを生成する。このような映像データの生成が、それぞれのチャンネルにおいて行われる。そして、表示部18には、日本語の講演資料がページ単位で表示され、講演者が切り替えボタンを押下するたびに、ページが切り替わる表示が行われる。このように映像データが生成されることにより、映像データEは、表示部18へ出力される映像データJの生成に係る画像データJを、当該画像データJに対応する画像データEに置換した場合に生成される映像データとなっている。   Specifically, the video data generated by the video data generation unit 103 is performed as follows. When image data is output from the reading unit 102, video data indicating a video that continues to display a still image indicated by the image data is generated. Then, when the next image data is output from the reading unit 102, video data indicating a video that continues to display the still image indicated by the image data is generated. Such video data is generated in each channel. The display unit 18 displays Japanese lecture materials in units of pages, and displays a page switching every time the speaker presses the switching button. When the video data is generated in this manner, the video data E is obtained by replacing the image data J related to the generation of the video data J output to the display unit 18 with the image data E corresponding to the image data J. It is video data that is generated.

出力データ生成部104は、映像データ生成部103から出力される映像データJおよび映像データEが入力されるとともに、音声入力部16から出力される音声データJおよび音声データEが入力される。出力データ生成部104は、入力されるこれらのデータをチャンネルごとにまとめて同期させたストリーミング形式の出力データとしてデータ出力部17に出力する。すなわち、出力データは、CH1が映像データJおよび音声データJ、CH2が映像データEおよび音声データE、としてまとめられたデータである。   The output data generation unit 104 receives the video data J and video data E output from the video data generation unit 103 and the audio data J and audio data E output from the audio input unit 16. The output data generation unit 104 outputs the input data to the data output unit 17 as streaming format output data that is synchronized for each channel. That is, the output data is data in which CH1 is collected as video data J and audio data J, and CH2 is collected as video data E and audio data E.

このようにして、映像データ出力装置1は、講演者の切り替え指示に応じて変更される画像データJに基づいて、表示部18に表示される表示内容である日本語の講演資料を示す映像データJを生成し、当該画像データJに対応する画像データEに基づいて、英語の講演資料を示す映像データEを生成する。そして、映像データJおよび映像データEをデータ出力部17から無線送信装置2へ出力する。以上が映像データ出力装置1の説明である。   In this way, the video data output device 1 displays video data indicating the Japanese language lecture material that is the display content displayed on the display unit 18 based on the image data J that is changed according to the switching instruction of the speaker. J is generated, and video data E indicating English lecture material is generated based on the image data E corresponding to the image data J. Then, the video data J and the video data E are output from the data output unit 17 to the wireless transmission device 2. The above is the description of the video data output device 1.

無線送信装置2は、映像データ出力装置1のデータ出力部17から出力された出力データを無線通信によって送信する。   The wireless transmission device 2 transmits the output data output from the data output unit 17 of the video data output device 1 by wireless communication.

無線受信装置3は、無線送信装置2から送信された出力データを受信する。以下、図6、図7を用いて、無線受信装置3の構成を説明する。図6は、無線受信装置3のハードウエアの構成を示すブロック図である。また、図7は、無線受信装置3の外観を示す外観図である。   The wireless reception device 3 receives the output data transmitted from the wireless transmission device 2. Hereinafter, the configuration of the wireless reception device 3 will be described with reference to FIGS. 6 and 7. FIG. 6 is a block diagram illustrating a hardware configuration of the wireless reception device 3. FIG. 7 is an external view showing the external appearance of the wireless reception device 3.

CPU31は、ROM32に記憶されているプログラムを読み出して、RAM33にロードして実行することにより、無線受信装置3の各部について、バス30を介して制御する。また、RAM33は、CPU31が記憶された各データの加工などを行う際のワークエリアとして機能する。   The CPU 31 reads out a program stored in the ROM 32, loads it into the RAM 33 and executes it, thereby controlling each part of the wireless reception device 3 via the bus 30. The RAM 33 functions as a work area when the CPU 31 processes each data stored.

通信部34は、無線送信装置2から送信された出力データを受信する通信手段である。   The communication unit 34 is a communication unit that receives output data transmitted from the wireless transmission device 2.

操作部35は、通信部34が受信した出力データのうち、使用したいチャンネルを選択するボタンを有した選択手段であって、図7に示すような「+」、「−」の操作ボタンによって、チャンネルを選択する。本実施形態の場合には、CH1またはCH2が選択できるようになっている。選択されたチャンネルは、後述する表示部38に表示される。そして、操作部35は、この選択されたチャンネルを示す情報をCPU11へ出力する。また、操作部35は、無線受信装置3を駆動状態とするか非駆動状態とするかのスイッチを有していてもよい。   The operation unit 35 is a selection unit having a button for selecting a channel to be used from the output data received by the communication unit 34, and the operation buttons “+” and “−” as shown in FIG. Select a channel. In the present embodiment, CH1 or CH2 can be selected. The selected channel is displayed on the display unit 38 to be described later. Then, the operation unit 35 outputs information indicating the selected channel to the CPU 11. The operation unit 35 may include a switch for setting the wireless reception device 3 to a driving state or a non-driving state.

音声入力部36は、マイクを有し、収音内容を示す音声データを生成する。生成された音声データは、通信部34を介して、無線受信装置3を識別する端末IDなどとともに、無線送信することもできる。そして、送信される音声データを他の無線受信装置3において受信させ、無線送信装置2において送信させるようにすれば、音声データの双方向通信が可能となる。   The voice input unit 36 has a microphone and generates voice data indicating the collected sound contents. The generated audio data can be wirelessly transmitted together with a terminal ID for identifying the wireless reception device 3 via the communication unit 34. If the audio data to be transmitted is received by the other radio receiving device 3 and transmitted by the radio transmitting device 2, bidirectional audio data communication is possible.

音声出力部37は、通信部34によって受信した出力データのうち、操作部35の操作によって選択されたチャンネルの音声データがCPU31の制御によって入力され、図7に示すような外部端子に接続されるヘッドホンなどに供給する。   The audio output unit 37 receives the audio data of the channel selected by the operation of the operation unit 35 among the output data received by the communication unit 34, and is connected to an external terminal as shown in FIG. Supply to headphones.

表示部38は、液晶ディスプレイなどの表示デバイスであって、CPU31の制御によって表示を行う。この表示は、上述したように、操作部35の操作によって選択されたチャンネル表示のほか、そのチャンネルの内容、無線通信用の電波の強度、図示しない2次電池の残量などの表示が行われる。ここで、チャンネルの内容は、本実施形態においては、日本語、英語(図7においてはENGと表示)を示し、チャンネルとその内容との対応付けは、映像データ出力装置1の出力データ生成部104において、チャンネルとその内容を対応付けて持たせた出力データを生成するようにしてもよいし、予め無線受信装置3に設定しておいてもよい。   The display unit 38 is a display device such as a liquid crystal display, and performs display under the control of the CPU 31. As described above, in addition to the display of the channel selected by the operation of the operation unit 35, the display includes the contents of the channel, the intensity of radio waves for wireless communication, the remaining amount of secondary battery (not shown), and the like. . Here, the contents of the channel indicate Japanese and English (displayed as ENG in FIG. 7) in the present embodiment, and the correspondence between the channel and its contents is the output data generation unit of the video data output device 1 In 104, output data in which a channel and its contents are associated with each other may be generated, or may be set in the wireless reception device 3 in advance.

インターフェイス39は、外部機器と接続し、様々な情報の送受信をするための接続端子であって、例えばUSB(Universal Serial Bus)端子などである。本実施形態においては、外部機器として、映像表示装置4が接続され、通信部34によって受信した出力データのうち、操作部35の操作によって選択されたチャンネルの映像データがCPU31の制御によって、映像表示装置4に供給される。なお、外部機器と接続している際には、電力の供給を外部機器から受けることにより、無線受信装置3の各部の駆動電力とするとともに、2次電池を充電するようにしてもよい。一方、外部機器と接続していない場合には、2次電池からの電力供給を無線受信装置3の各部の駆動電力とすればよく、無線受信装置3を駆動状態とするか非駆動状態とするかは、操作部35の操作によって決定すればよい。   The interface 39 is a connection terminal for connecting to an external device and transmitting and receiving various information, and is, for example, a USB (Universal Serial Bus) terminal. In the present embodiment, the video display device 4 is connected as an external device, and the video data of the channel selected by the operation of the operation unit 35 among the output data received by the communication unit 34 is displayed by the control of the CPU 31. Supplied to the device 4. Note that when connected to an external device, the secondary battery may be charged while driving power of each part of the wireless reception device 3 by receiving power supply from the external device. On the other hand, when not connected to an external device, the power supply from the secondary battery may be used as the driving power of each part of the wireless reception device 3, and the wireless reception device 3 is set to a driving state or a non-driving state. This may be determined by operating the operation unit 35.

映像表示装置4は、外部機器と接続可能なUSBなどの接続端子と、液晶ディスプレイなどの表示手段とを有する。そして、接続された外部機器である無線受信装置3に制御されて、無線受信装置3から供給される映像データに係る映像を表示する。   The video display device 4 includes a connection terminal such as a USB that can be connected to an external device, and display means such as a liquid crystal display. Then, it is controlled by the wireless reception device 3 that is a connected external device, and a video related to the video data supplied from the wireless reception device 3 is displayed.

例えば、映像表示装置4が一般的なパーソナルコンピュータである場合には、無線受信装置3のCPU31は、映像表示装置4のブラウザを立ち上げ、映像表示装置4に供給する映像データに係る映像を表示させる。また、映像表示装置4が単なるモニタなどであった場合には、無線受信装置3は、映像データを供給する代わりに、当該映像データを接続された映像表示装置4に適した映像信号に変換して供給し、映像表示装置4に表示させる。   For example, when the video display device 4 is a general personal computer, the CPU 31 of the wireless reception device 3 starts up a browser of the video display device 4 and displays a video related to video data supplied to the video display device 4. Let If the video display device 4 is a simple monitor, the wireless reception device 3 converts the video data into a video signal suitable for the connected video display device 4 instead of supplying the video data. To be displayed on the video display device 4.

すなわち、映像表示装置4は、接続端子および表示手段を有していればどのような装置であってもよく、無線受信装置3は、映像表示装置4の接続端子に接続するだけで、CPU31が映像表示装置4の装置構成を認識して、映像表示装置4を制御することにより、表示手段に映像を表示させることができる。以上が、放送システムの各々の構成の説明である。   In other words, the video display device 4 may be any device as long as it has a connection terminal and display means. The wireless reception device 3 is connected to the connection terminal of the video display device 4 and the CPU 31 By recognizing the device configuration of the video display device 4 and controlling the video display device 4, the video can be displayed on the display means. The above is the description of each configuration of the broadcasting system.

次に、映像データ出力装置1の動作について説明する。   Next, the operation of the video data output device 1 will be described.

まず、講演者は、講演に先立って日本語と英語の講演資料をページ単位で作成し、映像データ出力装置1の記憶部14に、各ページを画像データとして記憶させておく。また、日本語と英語の講演資料の画像データ(ページ)単位での対応関係およびページの順番(画像データの使用順番)を示す対応テーブルを作成し、同様に記憶部14に記憶させておく。   First, prior to the lecture, the lecturer creates Japanese and English lecture materials in units of pages, and stores each page as image data in the storage unit 14 of the video data output apparatus 1. In addition, a correspondence table indicating correspondence between image data (page) units of Japanese and English lecture materials and a page order (image data use order) is created and similarly stored in the storage unit 14.

講演者は、操作部15を操作して、CPU11にプログラムを実行させると、読出部102は、対応テーブルを読み出して、画像データの読み出し順番を認識する。ここで、対応テーブルは図4に示す対応テーブルであるとする。講演者は、操作部15の切り替えボタンを押下すると、読出部102は、画像データJ1、画像データE1を読み出して、映像データ生成部103に出力する。映像データ生成部103は、それぞれの静止画像を表示する映像を示すCH1の映像である映像データJ、CH2の映像データである映像データEを生成する。   When the speaker operates the operation unit 15 to cause the CPU 11 to execute the program, the reading unit 102 reads the correspondence table and recognizes the reading order of the image data. Here, it is assumed that the correspondence table is the correspondence table shown in FIG. When the speaker presses the switching button of the operation unit 15, the reading unit 102 reads out the image data J1 and the image data E1 and outputs them to the video data generation unit 103. The video data generation unit 103 generates video data J, which is a video of CH1, and video data E, which is video data of CH2, indicating a video for displaying each still image.

これにより、表示部18には、映像データJが供給され、画像データJ1に係る静止画像が表示され、プロジェクタを用いている場合には、スクリーンにも当該静止画像が表示される。講演者は、表示部18に表示される静止画像を見ながら発言を行うと、音声入力部16が、講演者が用いるCH1のマイクによる収音から音声データJを生成する。また、講演者の発言を同時通訳する通訳者が用いるCH2のマイクによる収音から音声データEを生成する。   As a result, the video data J is supplied to the display unit 18 and a still image related to the image data J1 is displayed. When a projector is used, the still image is also displayed on the screen. When the speaker speaks while viewing the still image displayed on the display unit 18, the voice input unit 16 generates the voice data J from the sound collected by the CH1 microphone used by the speaker. Also, voice data E is generated from the sound collected by the CH2 microphone used by the interpreter who interprets the speech of the speaker at the same time.

出力データ生成部104は、CH1(映像データJ、音声データJ)とCH2(映像データE、音声データE)を有する出力データを生成し、データ出力部17へ出力する。このとき、出力データのCH1が示す映像は、画像データJ1の静止画像であり、出力データのCH2が示す映像は、画像データE1の静止画像である。   The output data generation unit 104 generates output data having CH1 (video data J, audio data J) and CH2 (video data E, audio data E), and outputs the output data to the data output unit 17. At this time, the video indicated by the output data CH1 is a still image of the image data J1, and the video indicated by the output data CH2 is a still image of the image data E1.

講演者が、操作部15の切り替えボタンを押下すると、読出部102は、対応テーブルから認識した次に読み出すべき画像データである画像データJ2、画像データE2を読み出して、映像データ生成部103に出力する。これにより、表示部18の表示内容は、画像データJ2に係る静止画像に切り替わる。そして、出力データのCH1が示す映像は、画像データJ2の静止画像、出力データのCH2が示す映像は、画像データE2の静止画像に切り替わる。   When the speaker presses the switching button of the operation unit 15, the reading unit 102 reads the image data J 2 and the image data E 2 that are image data to be read next recognized from the correspondence table, and outputs them to the video data generation unit 103. To do. As a result, the display content of the display unit 18 is switched to the still image related to the image data J2. The video indicated by the output data CH1 is switched to the still image of the image data J2, and the video indicated by the output data CH2 is switched to the still image of the image data E2.

このようにして生成されて、データ出力部17から出力される出力データは、無線送信装置2を介して、無線通信により送信される。   The output data generated in this way and output from the data output unit 17 is transmitted by wireless communication via the wireless transmission device 2.

一方、無線受信装置3は、無線送信装置2から送信された出力データを受信し、当該出力データのうち操作部35によって選択したチャンネルの音声データを音声出力部37に、映像データをインターフェイス39に出力する。例えば、図7に示すようにCH2が選択されている場合には、音声出力部37に音声データE、インターフェイス39に映像データEが出力される。   On the other hand, the wireless reception device 3 receives the output data transmitted from the wireless transmission device 2, and among the output data, the audio data of the channel selected by the operation unit 35 is input to the audio output unit 37 and the video data is input to the interface 39. Output. For example, as shown in FIG. 7, when CH 2 is selected, audio data E is output to the audio output unit 37 and video data E is output to the interface 39.

これにより、この無線受信装置3を用いている聴講者は、音声出力部37に接続されたヘッドホンにより、講演者の日本語の発言を英語に同時通訳された音声を聞くことができる。また、無線受信装置3が接続された映像表示装置4の表示手段に表示される映像データEに係る映像を見ることができる。すなわち、講演者の指示により表示部18に表示されている日本語の講演資料に対応した英語の講演資料が映像表示装置4に表示される。具体的には、表示部18に表示されている映像が、画像データJ3に係る静止画像である場合には、画像データJ3に対応する画像データE4に係る静止画像が映像表示装置4に表示されることになる。聴講者が操作部35を操作してチャンネルをCH1に切り替えれば、講演者の声を聞き、日本語の講演資料を見ることができる。また、出力データは、画像データそのものではなく、ストリーミング形式であるから、無線受信装置3で受信した出力データを記憶することができないため、講演資料の複製が安易に行われることがなく、セキュリティ効果を高めることができる。   As a result, the listener using the wireless reception device 3 can listen to the speech in which the speaker's Japanese speech is simultaneously translated into English using the headphones connected to the speech output unit 37. In addition, it is possible to view a video related to the video data E displayed on the display unit of the video display device 4 to which the wireless reception device 3 is connected. That is, English lecture material corresponding to the Japanese lecture material displayed on the display unit 18 is displayed on the video display device 4 according to the instruction of the lecturer. Specifically, when the video displayed on the display unit 18 is a still image related to the image data J3, a still image related to the image data E4 corresponding to the image data J3 is displayed on the video display device 4. Will be. If the listener operates the operation unit 35 and switches the channel to CH1, the voice of the speaker can be heard and the lecture material in Japanese can be viewed. Further, since the output data is not the image data itself but in the streaming format, the output data received by the wireless reception device 3 cannot be stored, so that the lecture material is not easily duplicated, and the security effect Can be increased.

このように、映像データ出力装置1は、講演者の切り替え指示に応じてスクリーン等に表示される講演資料のページを切り替えることができるとともに、日本語の講演資料、英語の講演資料について、それぞれページ切り替えに対応した映像データを生成することができる。これにより、聴講者は、講演者から遠い位置にいても、手元の映像表示装置4おいて、講演資料を表示させて内容を確認できるとともに、無線受信装置3の操作部35の操作によって、スクリーン等に表示される講演資料と異なる言語の講演資料に切り替えて確認することもできる。   As described above, the video data output device 1 can switch the page of the lecture material displayed on the screen or the like in accordance with the switching instruction of the lecturer, and each page for the Japanese lecture material and the English lecture material. Video data corresponding to switching can be generated. As a result, even if the listener is at a position far from the lecturer, he / she can confirm the contents by displaying the lecture material on the video display device 4 at hand, and also by operating the operation unit 35 of the wireless reception device 3. It is also possible to switch to a lecture material in a language different from the one displayed on the screen.

以上、本発明の実施形態について説明したが、本発明は以下のように、さまざまな態様で実施可能である。   As mentioned above, although embodiment of this invention was described, this invention can be implemented in various aspects as follows.

<変形例1>
上述した実施形態においては、記憶部14に記憶される対応テーブルは、日本語データの画像データJと英語データの画像データEについて、1対1で対応させていたが、例えば、図8に示すように、画像データJ2、J3と画像データE2が対応付けられるような、1対複数の対応付けであってもよい。この場合は、読出部102は、画像データJ2、J3を読み出すときに、どちらも画像データE2を読み出すことになるため、講演者によって切り替えボタンが押下され、映像データJに係る映像が変化しても、映像データEに係る映像は画像データE2に係る静止画像のまま変化しないことになるだけである。
<Modification 1>
In the embodiment described above, the correspondence table stored in the storage unit 14 has a one-to-one correspondence between the image data J of Japanese data and the image data E of English data. For example, FIG. In this way, the image data J2, J3 and the image data E2 may be associated in a one-to-many manner. In this case, when the reading unit 102 reads the image data J2 and J3, both read the image data E2. Therefore, the switching button is pressed by the speaker, and the video related to the video data J changes. However, the video related to the video data E is merely a still image related to the image data E2 and does not change.

<変形例2>
上述した実施形態においては、記憶部14に記憶される対応テーブルは、日本語データの画像データJと英語データの画像データEについて、1対1で対応させていたが、例えば、画像データJ2と画像データE2、E3が対応付けられるような、複数対1の対応付けであってもよい。この場合には、対応テーブルは2つの態様で、記憶部14に記憶させることができる。
<Modification 2>
In the embodiment described above, the correspondence table stored in the storage unit 14 has a one-to-one correspondence between the image data J of Japanese data and the image data E of English data. A plurality of one-to-one associations such that the image data E2 and E3 are associated with each other may be used. In this case, the correspondence table can be stored in the storage unit 14 in two modes.

まず、第1の態様として、図9に示すような態様がある。この態様は、複数の画像データEが対応付けられている画像データJについては、連続して対応付けられている数(この場合は2回)、読み出されるようにして、画像データEは、予め設定された順に読み出すようになっている。すなわち、順番2、3は日本語データからは画像データJ2が読み出されるが、英語データについては、画像データE2、E3の順に読み出される。この場合は、読出部102は、画像データJ2を2回読み出す間に、画像データE2、E3を読み出すことになるため、講演者によって切り替えボタンが押下され、映像データJに係る映像が変化しなくても、映像データEに係る映像は画像データE2、E3に係る静止画像と変化することになる。   First, as a first mode, there is a mode as shown in FIG. In this aspect, the image data J associated with a plurality of image data E is read out in a number that is continuously associated (in this case, twice). Reading is performed in the set order. That is, in order 2 and 3, the image data J2 is read from the Japanese data, but the English data is read in the order of the image data E2 and E3. In this case, the reading unit 102 reads the image data E2 and E3 while reading the image data J2 twice. Therefore, the switching button is pressed by the speaker, and the video related to the video data J does not change. Even so, the video related to the video data E changes to still images related to the image data E2 and E3.

次に、第2の態様として、図10に示すような態様がある。この態様は、画像データJ2に対応する画像データE2、E3それぞれについて、別の対応付けがされるようになっている。すなわち、画像データJ2と画像データE2の対応付けは、英語データ1として、画像データJ2と画像データE3の対応付けは、英語データ2として行われ、その他の画像データの対応付けは同一になっているような、対応テーブルが記憶されている。   Next, as a second mode, there is a mode as shown in FIG. In this aspect, the image data E2 and E3 corresponding to the image data J2 are separately associated with each other. That is, the association between the image data J2 and the image data E2 is performed as English data 1, the association between the image data J2 and the image data E3 is performed as English data 2, and the other image data is associated with the same. The correspondence table is stored.

この場合には、読出部102は、画像データJ2を読み出すときには、画像データE2、E3の双方を読み出して映像データ生成部103に出力する。そして、映像データ生成部103は、このような対応テーブルである場合には、映像データEのかわりに、映像データE1、E2として生成するようにし、対応テーブルの英語データ1の画像データに基づいて、映像データE1を生成し、対応テーブルの英語データ2の画像データに基づいて英語データE2を生成する。すなわち、映像データE1は、画像データE1、E2、E4、E5・・・として変化する静止画像を示す映像データとなり、映像データE2は、画像データE1、E3、E4、E5・・・として変化する静止画像を示す映像データとなる。   In this case, when reading the image data J2, the reading unit 102 reads both the image data E2 and E3 and outputs them to the video data generation unit 103. In the case of such a correspondence table, the video data generation unit 103 generates video data E1 and E2 instead of the video data E, and based on the image data of the English data 1 in the correspondence table. The video data E1 is generated, and the English data E2 is generated based on the image data of the English data 2 in the correspondence table. That is, the video data E1 is video data indicating a still image that changes as image data E1, E2, E4, E5..., And the video data E2 changes as image data E1, E3, E4, E5. This is video data indicating a still image.

そして、無線受信装置3で出力データを受信して、CH2を選択した場合には、通常はCH2の映像データとして映像データE1が選択される。一方、特定の無線受信装置3において、CH2を選択した場合には、CH2の映像データとして映像データE2が選択される。ここで、特定の無線受信装置3とは、ROM32に記憶されるプログラムにより、同一のチャンネルに複数のデータが含まれている場合には、通常(この場合には映像データE1)とは別のデータ(この場合には映像データE2)が選択されるようになっている無線受信装置3をいう。このようにすると、特定の無線受信装置3を持っている聴講者のみが、映像データE2に係る映像を見ることができるようにすることができる。これにより、画像データE2を一般用静止画像、画像データE3を招待者用静止画像などとして、特定の無線受信装置3を聴講者のうち招待者に使用してもらうことにより、聴講者によって異なる映像が見られるようにすることもできる。   When the wireless receiver 3 receives the output data and selects CH2, the video data E1 is normally selected as the video data of CH2. On the other hand, when CH2 is selected in the specific wireless receiving device 3, video data E2 is selected as the video data of CH2. Here, the specific wireless receiving device 3 is different from normal (in this case, video data E1) when a plurality of data is included in the same channel by a program stored in the ROM 32. This refers to the wireless receiver 3 in which data (in this case, video data E2) is selected. In this way, only the listener who has the specific wireless reception device 3 can view the video related to the video data E2. As a result, the image data E2 is used as a general still image, the image data E3 is used as a still image for an invitee, and the like. Can also be seen.

なお、無線受信装置3にそれぞれ端末IDなど識別番号をROM32、RAM33などに記憶させ、映像データ出力装置1の出力データ生成部104において、映像データE2を選択することになる無線受信装置3の識別番号を示す情報を出力データに持たせるようにしてもよい。この場合には、無線受信装置3は、受信した出力データについて、CH2を選択したときに、CPU31が、出力データが示す識別番号と自らが記憶する識別番号とが一致したと判断した場合には、映像データE2を選択し、一致しないと判断した場合には、映像データE1を選択するようにすれば良い。このようにすれば、ROM32に記憶されるプログラムを特別のものとしなくてもよい。   The wireless receiver 3 stores an identification number such as a terminal ID in the ROM 32, the RAM 33, etc., and the output data generator 104 of the video data output device 1 identifies the wireless receiver 3 that selects the video data E2. Information indicating a number may be included in the output data. In this case, when the wireless reception device 3 selects CH2 for the received output data, the CPU 31 determines that the identification number indicated by the output data matches the identification number stored by itself. When the video data E2 is selected and it is determined that they do not match, the video data E1 may be selected. In this way, the program stored in the ROM 32 need not be special.

<変形例3>
上述した実施形態においては、対応テーブルは、日本語データと英語データとの画像データの対応関係を示し、2種類のデータの対応を示していたが、3種類以上であってもよい。例えば、日本語データ、英語データ、中国語データなどとして、それぞれにおける画像データについて対応付けを行い、読出部102はそれぞれの画像データをよみだし、映像データ生成部103は、それぞれの画像データに基づいた映像データを生成すればよい。そして、出力データ生成部104は、CH1は日本語、CH2は英語、CH3は中国語というような出力データを生成すればよい。
<Modification 3>
In the above-described embodiment, the correspondence table shows the correspondence between the image data of the Japanese data and the English data, and shows the correspondence between the two types of data, but may be three or more types. For example, the image data is associated with each other as Japanese data, English data, Chinese data, etc., the reading unit 102 reads out the respective image data, and the video data generating unit 103 is based on the respective image data. Video data may be generated. Then, the output data generation unit 104 may generate output data such that CH1 is Japanese, CH2 is English, and CH3 is Chinese.

<変形例4>
上述した実施形態においては、対応テーブルは、日本語データと英語データとの画像データの対応関係を示していたが、この対応関係は、異なる言語で対応させる場合に限られない。例えば、一般用データ、招待者用データとして対応付け、招待者用データは、一般用データの内容をさらに詳しい内容を示した静止画像の画像データから構成されるものとし、重要度が異なるような対応としてもよい。そして、一般用データはCH1、招待者用データはCH2とした出力データを出力データ生成部104が生成する。そして、一般の聴講者には、CH1が強制的に選択される無線受信装置3を使用させ、招待者には、CH1、CH2が選択できる無線受信装置3を使用させればよい。なお、変形例2でも述べたように、一般用データ、招待者用データともに同一のチャンネルとし、使用する無線受信装置3によって、選択されるデータが異なるようにしてもよい。ここで、一般用データ、招待者用データそれぞれにさらに日本語データ、英語データを用いて、これらを互いに対応させる対応テーブルを記憶部14に記憶させるようにしてもよい。
<Modification 4>
In the above-described embodiment, the correspondence table shows the correspondence between the image data of the Japanese data and the English data. However, this correspondence is not limited to the case where the correspondence is made in different languages. For example, correspondence is made as data for general use and data for invitee, and the data for invitee is made up of image data of still images showing more detailed contents of the data for general use, and the degree of importance is different. It is good also as correspondence. Then, the output data generation unit 104 generates output data in which the general data is CH1 and the inviter data is CH2. Then, the general listener may use the wireless reception device 3 in which CH1 is forcibly selected, and the invitee may use the wireless reception device 3 in which CH1 and CH2 can be selected. As described in the second modification, both the general data and the inviter data may be set to the same channel, and the selected data may be different depending on the wireless reception device 3 to be used. Here, Japanese data and English data may be further used for the general data and the inviter data, respectively, and a correspondence table for associating these may be stored in the storage unit 14.

<変形例5>
上述した実施形態においては、出力データについては音声データが含まれていたが、必ずしも用いなくてもよく、出力データは、複数の映像データから構成されていればよい。
<Modification 5>
In the above-described embodiment, the audio data is included in the output data. However, the output data may not necessarily be used, and the output data only needs to be composed of a plurality of video data.

<変形例6>
上述した実施形態においては、映像データJと映像データEとは、それぞれが同時に静止画像が切り替わるような映像を示すデータであったが、図11に示すように、遅延部105を設けて、映像データEについて、予め設定した時間の遅延を行うようにしてもよい。一般的には、通訳者による同時通訳は講演者の発言から少し遅れて行われることが多いため、聴講者は、ページが切り替わった後も、切り替わる前の説明を聞くことになってしまい違和感があることがあるが、このような構成とすることにより、同時通訳が遅れても、所定時間ページが切り替わるのが遅くなるため、違和感を低減できる。
<Modification 6>
In the embodiment described above, the video data J and the video data E are data indicating videos in which still images are switched at the same time. However, as shown in FIG. The data E may be delayed for a preset time. In general, simultaneous interpretation by interpreters is often performed slightly later than the speaker's remarks, so the listener feels uncomfortable because he / she hears the explanation before switching after the page changes. In some cases, such a configuration can reduce the sense of discomfort because the page switching is delayed for a predetermined time even if simultaneous interpretation is delayed.

<変形例7>
上述した実施形態において、図2に破線で示したようにインターフェイス19を設けてもよい。このインターフェイス19は、様々な外部機器と接続可能な接続端子を有し、例えば、DVD(Digital Versatile Disc)再生装置、ビデオカメラなどが接続可能であり、これらから出力される映像データ(以下、外部映像データという)を受信することができる。そして、図12に示すような構成とすることができる。以下、この構成について説明する。
<Modification 7>
In the above-described embodiment, the interface 19 may be provided as shown by a broken line in FIG. The interface 19 has a connection terminal that can be connected to various external devices. For example, a DVD (Digital Versatile Disc) playback device, a video camera, or the like can be connected to the interface 19, and video data output from these devices (hereinafter referred to as an external device). Video data). And it can be set as a structure as shown in FIG. Hereinafter, this configuration will be described.

インターフェイス19には、DVD再生装置が接続され、操作部15の操作によってDVDの再生、停止を行うことができる。そして、DVDの再生中には、インターフェイス19には外部映像データが入力され、映像データ生成部103に出力される。   A DVD playback device is connected to the interface 19, and a DVD can be played back and stopped by operating the operation unit 15. During playback of the DVD, external video data is input to the interface 19 and output to the video data generation unit 103.

映像データ生成部103は、読出部102から出力される画像データJに基づいて、映像データJを生成し、読出部102から出力される画像データEに基づいて、映像データEを生成する。一方、インターフェイス19から外部映像データが入力されている間は、映像データJ、映像データEに係る映像は、外部映像データに係る映像となるように、各映像データを生成する。このようにすると、外部機器において再生する映像を講演資料の一部として用いたい場合には、この映像を映像データJ、映像データEに割り込ませることができる。   The video data generation unit 103 generates video data J based on the image data J output from the reading unit 102, and generates video data E based on the image data E output from the reading unit 102. On the other hand, while the external video data is input from the interface 19, each video data is generated so that the video related to the video data J and the video data E becomes the video related to the external video data. In this way, when it is desired to use a video reproduced on the external device as part of the lecture material, this video can be interrupted into the video data J and video data E.

なお、映像データJ、映像データEに係る映像を完全に外部映像データに係る映像に置換するだけでなく、直前に表示される映像にスーパーインポーズするようにして表示させてもよいし、画面を2分割するようにして表示させるようにしてもよい。また、DVDなどの場合には、チャンネルごとに多言語化されているものもあり、その場合には、外部映像データをチャンネル化して出力し、映像データJ、映像データEの各々が、異なるチャンネルの外部映像データに係る映像を示すようにしてもよい。   Note that the video data J and the video data E may not be completely replaced with the video related to the external video data, but may be displayed so as to be superimposed on the video displayed immediately before. May be displayed in such a manner as to be divided into two. In addition, some DVDs are multilingual for each channel. In this case, external video data is channelized and output, and each of video data J and video data E is a different channel. A video related to the external video data may be shown.

<変形例8>
変形例7において、インターフェイス19にビデオカメラを接続した場合は、ビデオカメラで講演者を撮影した外部映像データを用いることができる。この場合には、映像データ生成部103は、外部映像データに係る映像に、読出部102から出力された画像データに基づく静止画像を合成した映像を映像データとして生成するようにしてもよい。
<Modification 8>
In the modified example 7, when a video camera is connected to the interface 19, external video data obtained by photographing the lecturer with the video camera can be used. In this case, the video data generation unit 103 may generate a video obtained by combining a video related to the external video data with a still image based on the image data output from the reading unit 102 as video data.

<変形例9>
上述した実施形態においては、無線受信装置3は、映像データと音声データとは、チャンネルごとにまとめて選択していたが、映像データと音声データとについて、それぞれ別のチャンネルを選択できるようにしてもよい。
<Modification 9>
In the embodiment described above, the wireless reception device 3 selects the video data and the audio data together for each channel. However, the video reception device 3 can select different channels for the video data and the audio data. Also good.

<変形例10>
上述した実施形態においては、表示部18に供給される映像データは、映像データ生成部103において生成された映像データJであったが、表示部18への供給専用の映像データHを用いてもよい。この場合、映像データ生成部103において、読出部102から出力される画像データJに基づいて、映像データHを生成すればよい。また、表示部18に対して、読出部102から直接画像データJを出力し、表示部18が当該画像データJに係る静止画像を表示するようにしてもよい。すなわち、表示部18への表示は、読出部102が読み出した画像データに基づいて、その表示内容を制御するような表示制御手段があれば、どのような態様で行なってもよい。
<Modification 10>
In the embodiment described above, the video data supplied to the display unit 18 is the video data J generated by the video data generation unit 103. However, even if video data H dedicated to supply to the display unit 18 is used. Good. In this case, the video data generation unit 103 may generate the video data H based on the image data J output from the reading unit 102. Alternatively, the image data J may be directly output from the reading unit 102 to the display unit 18 so that the display unit 18 displays a still image related to the image data J. That is, the display on the display unit 18 may be performed in any manner as long as there is a display control means for controlling the display contents based on the image data read by the reading unit 102.

<変形例11>
上述した実施形態においては、対応テーブルは、読出部102が画像データを読み出す順番についても規定していたが、画像データの対応付けが行われていれば、順番については規定されていなくてもよい。この場合には、講演者は操作部15を操作して、次に読み出す画像データを指定するようにすればよい。
<Modification 11>
In the above-described embodiment, the correspondence table also defines the order in which the reading unit 102 reads image data. However, the order may not be defined as long as image data is associated. . In this case, the lecturer may operate the operation unit 15 and specify the image data to be read next.

<変形例12>
上述した実施形態においては、無線送信装置2と無線受信装置3との間の通信は無線で行われていたが、有線によって行なわれる通信であってもよい。
<Modification 12>
In the embodiment described above, the communication between the wireless transmission device 2 and the wireless reception device 3 is performed wirelessly, but may be communication performed by wire.

<変形例13>
上述した実施形態においては、記憶部14に記憶され、対応テーブルによって対応付けられていたデータは静止画像を示す画像データであったが、映像データであってもよい。この場合は、読出部102が読み出すべきデータが、映像データである場合には、当該映像データを読み出して、映像データ生成部103に出力し、映像データ生成部103は、読出部102から出力された映像データに基づいて、表示させる映像データを生成すればよい。
<Modification 13>
In the embodiment described above, the data stored in the storage unit 14 and associated by the correspondence table is image data indicating a still image, but may be video data. In this case, when the data to be read by the reading unit 102 is video data, the video data is read and output to the video data generating unit 103, and the video data generating unit 103 is output from the reading unit 102. The video data to be displayed may be generated based on the video data.

<変形例14>
上述した実施形態において、映像データ出力装置1のCPU11が実行するプログラムはROM12に記憶されたプログラムであったが、様々な記録媒体のデータを読み取ることができるデータ入力手段などを設け、当該プログラムが記憶された様々な記録媒体から取得したり、通信手段を設けてサーバなど外部装置との通信によって当該プログラムを取得したりして、外部から取得するようにしてもよい。
<Modification 14>
In the above-described embodiment, the program executed by the CPU 11 of the video data output device 1 is a program stored in the ROM 12. However, the program is provided with a data input unit that can read data on various recording media. The program may be acquired from various stored recording media, or may be acquired from the outside by providing a communication unit and acquiring the program through communication with an external device such as a server.

実施形態に係る映像データ出力装置を用いた放送システムの構成を示すブロック図である。It is a block diagram which shows the structure of the broadcast system using the video data output device which concerns on embodiment. 実施形態に係る映像データ出力装置のハードウエアの構成を示すブロック図である。It is a block diagram which shows the structure of the hardware of the video data output device which concerns on embodiment. 実施形態に係る映像データ出力装置の記憶部に記憶される画像データの説明図である。It is explanatory drawing of the image data memorize | stored in the memory | storage part of the video data output device which concerns on embodiment. 実施形態に係る対応テーブルを示す説明図である。It is explanatory drawing which shows the corresponding | compatible table which concerns on embodiment. 実施形態に係る映像データ出力装置のソフトウエアの構成を示すブロック図である。It is a block diagram which shows the software structure of the video data output device which concerns on embodiment. 実施形態に係る無線受信装置のハードウエアの構成を示すブロック図である。It is a block diagram which shows the structure of the hardware of the radio | wireless receiving apparatus which concerns on embodiment. 実施形態に係る無線受信装置の外観を示す外観図である。It is an external view which shows the external appearance of the radio | wireless receiver which concerns on embodiment. 変形例1に係る対応テーブルを示す説明図である。It is explanatory drawing which shows the corresponding | compatible table which concerns on the modification 1. FIG. 変形例2に係る対応テーブルを示す説明図である。It is explanatory drawing which shows the corresponding | compatible table which concerns on the modification 2. 変形例2に係る対応テーブルを示す説明図である。It is explanatory drawing which shows the correspondence table which concerns on the modification 2. 変形例6に係る映像データ出力装置のソフトウエアの構成を示すブロック図である。It is a block diagram which shows the software structure of the video data output device which concerns on the modification 6. FIG. 変形例7に係る映像データ出力装置のソフトウエアの構成を示すブロック図である。FIG. 16 is a block diagram showing a software configuration of a video data output device according to Modification 7.

符号の説明Explanation of symbols

1…映像データ出力装置、2…無線送信装置、3…無線受信装置、4…映像表示装置、11,31…CPU、12,32…ROM、13,33…RAM、14…記憶部、15,35…操作部、16,36…音声入力部、17…データ出力部、18,38…表示部、19,39…インターフェイス、34…通信部、37…音声出力部、101…切替信号取得部、102…読出部、103…映像データ生成部、104…出力データ生成部、105…遅延部 DESCRIPTION OF SYMBOLS 1 ... Video data output device, 2 ... Wireless transmission device, 3 ... Wireless reception device, 4 ... Video display device, 11, 31 ... CPU, 12, 32 ... ROM, 13, 33 ... RAM, 14 ... Storage part, 15, 35 ... operation unit, 16, 36 ... voice input unit, 17 ... data output unit, 18, 38 ... display unit, 19, 39 ... interface, 34 ... communication unit, 37 ... voice output unit, 101 ... switching signal acquisition unit, 102 ... Reading unit, 103 ... Video data generating unit, 104 ... Output data generating unit, 105 ... Delay unit

Claims (9)

複数の画像データを有する第1の画像データ群と、前記第1の画像データ群の各画像データと対応付けられた画像データを有する第2の画像データ群とを記憶する記憶手段と、
切替信号を取得する切替信号取得手段と、
前記記憶手段から前記第1の画像データ群の画像データを読み出して、当該画像データに基づいて表示手段の表示内容を制御する表示制御手段であって、前記切替信号取得手段が切替信号を取得すると、前記記憶手段から前記第1の画像データ群の画像データを読み出す表示制御手段と、
前記表示制御手段によって制御される表示内容を含むストリーミング形式の第1の映像データを生成する第1の映像データ生成手段と、
前記表示制御手段によって読み出される画像データに連動して、当該画像データと対応する前記第2の画像データ群の画像データを前記記憶手段から読み出す読出手段と、
前記読出手段が読み出した画像データに基づいて、ストリーミング形式の第2の映像データを生成する第2の映像データ生成手段と、
前記第1の映像データと前記第2の映像データとを外部機器と通信可能な送信手段に出力する出力手段と
を具備することを特徴とする映像データ出力装置。
Storage means for storing a first image data group having a plurality of image data and a second image data group having image data associated with each image data of the first image data group;
A switching signal acquisition means for acquiring a switching signal;
Display control means for reading image data of the first image data group from the storage means and controlling display contents of the display means based on the image data, wherein the switching signal acquisition means acquires the switching signal. Display control means for reading out image data of the first image data group from the storage means;
First video data generation means for generating first video data in a streaming format including display content controlled by the display control means;
Read means for reading out image data of the second image data group corresponding to the image data from the storage means in conjunction with the image data read by the display control means;
Second video data generating means for generating second video data in a streaming format based on the image data read by the reading means;
An image data output device comprising: output means for outputting the first image data and the second image data to a transmission means capable of communicating with an external device.
前記表示制御手段は、読み出した画像データに対応する前記第2の画像データ群の画像データが複数ある場合には、前記切替信号取得手段が次に切替信号を取得すると読み出す画像データが、直前に読み出した画像データと同一の画像データとなるような処理を、前記第2の画像データ群の画像データが対応付けられている数だけ連続して行い、
前記読出手段は、前記表示制御手段が連続して同一の画像データを読み出す場合には、当該同一の画像データに対応する複数の画像データを、予め設定された順に読み出す
ことを特徴とする請求項1に記載の映像データ出力装置。
When there are a plurality of image data of the second image data group corresponding to the read image data, the display control means reads the image data to be read immediately before the switching signal acquisition means acquires the switching signal. The processing to be the same image data as the read image data is continuously performed by the number corresponding to the image data of the second image data group,
The reading means reads a plurality of image data corresponding to the same image data in a preset order when the display control means reads the same image data continuously. 2. The video data output device according to 1.
前記読出手段は、前記表示制御手段が読み出した画像データに対応付けられた前記第2の画像データ群の画像データが複数ある場合には、前記表示制御手段によって読み出される画像データに対応する前記第2の画像データ群の複数の画像データのうち、予め設定された画像データを読み出す
ことを特徴とする請求項1に記載の映像データ出力装置。
In the case where there are a plurality of image data of the second image data group associated with the image data read by the display control means, the reading means has the first corresponding to the image data read by the display control means. The video data output device according to claim 1, wherein preset image data is read out from a plurality of image data of the two image data groups.
第3の映像データを生成する第3の映像データ生成手段
をさらに具備し、
前記表示制御手段は、前記記憶手段から前記第1の画像データ群の画像データを読み出して、当該画像データに基づいて表示手段の表示内容を制御するとともに、前記第3の映像データ生成手段によって第3の映像データが生成されている期間においては、当該第3の映像データを取得して、当該第3の映像データ、または、当該第3の映像データと当該画像データとに基づいて表示手段の表示内容を制御し、
前記第2の映像データ生成手段は、前記第3の映像データ生成手段によって第3の映像データが生成されている期間においては、当該第3の映像データを取得して、当該第3の映像データ、または、当該第3の映像データと前記読出手段が読み出した画像データとに基づいて、ストリーミング形式の第2の映像データを生成する
ことを特徴とする請求項1乃至請求項3のいずれかに記載の映像データ出力装置。
Further comprising third video data generating means for generating third video data,
The display control means reads the image data of the first image data group from the storage means, controls the display content of the display means based on the image data, and performs the third video data generation means by the third video data generation means. In the period in which the video data 3 is generated, the third video data is acquired, and the display means is configured based on the third video data or the third video data and the image data. Control what is displayed,
The second video data generating means acquires the third video data during the period in which the third video data is generated by the third video data generating means, and obtains the third video data. Alternatively, the second video data in a streaming format is generated based on the third video data and the image data read out by the reading unit. The video data output device described.
第1の収音手段と、
第2の収音手段と、
前記第1の収音手段の収音に基づいて、ストリーミング形式の第1の音声データを生成する第1の音声データ生成手段と、
前記第2の収音手段の収音に基づいて、ストリーミング形式の第2の音声データを生成する第2の音声データ生成手段と
をさらに具備し、
前記出力手段は、さらに前記第1の音声データと前記第2の音声データとを出力する
ことを特徴とする請求項1乃至請求項4のいずれかに記載の映像データ出力装置。
A first sound collecting means;
A second sound collecting means;
First audio data generation means for generating first audio data in a streaming format based on the sound collection of the first sound collection means;
Further comprising: second audio data generation means for generating second audio data in a streaming format based on the sound collection of the second sound collection means;
The video data output device according to any one of claims 1 to 4, wherein the output means further outputs the first audio data and the second audio data.
前記出力手段は、前記第1の映像データと前記第1の音声データとを一のチャンネルとして出力するとともに、前記第2の映像データと前記第2の音声データとを前記チャンネルとは異なるチャンネルとして出力する
ことを特徴とする請求項5に記載の映像データ出力装置。
The output means outputs the first video data and the first audio data as one channel, and sets the second video data and the second audio data as channels different from the channel. The video data output device according to claim 5, wherein the video data output device outputs the video data.
前記第2の映像データを所定時間遅延させる遅延手段
をさらに具備し、
前記出力手段が出力する第2の映像データは、前記遅延手段によって遅延された第2の映像データである
ことを特徴とする請求項5または請求項6に記載の映像データ出力装置。
Delay means for delaying the second video data for a predetermined time;
The video data output device according to claim 5 or 6, wherein the second video data output by the output means is the second video data delayed by the delay means.
請求項1乃至請求項7のいずれかに記載の映像データ出力装置と、
前記出力手段から出力された各データを通信によって送信する送信手段を有する送信装置と、
前記送信手段から送信される各データのうち、少なくとも第1の映像データまたは第2の映像データのいずれかを選択する選択手段と、前記選択手段によって選択されたデータを受信する受信手段とを有する受信装置と
を具備することを特徴とする放送システム。
The video data output device according to any one of claims 1 to 7,
A transmission device having transmission means for transmitting each data output from the output means by communication;
A selection unit that selects at least either the first video data or the second video data among the data transmitted from the transmission unit; and a reception unit that receives the data selected by the selection unit. A broadcasting system comprising: a receiving device.
外部装置から表示内容を制御される映像表示装置をさらに具備し、
前記受信装置は、前記外部装置であって、前記受信手段によって受信した映像データに基づく表示内容を前記映像表示装置に表示させる制御を行う映像制御手段を有する
ことを特徴とする請求項8に記載の放送システム。
It further comprises a video display device whose display content is controlled from an external device,
The said receiving apparatus is an said external apparatus, Comprising: The video control means which performs the control which displays the display content based on the video data received by the said receiving means on the said video display apparatus is characterized by the above-mentioned. Broadcasting system.
JP2007274142A 2007-10-22 2007-10-22 Video data output device and broadcasting system Pending JP2009105560A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007274142A JP2009105560A (en) 2007-10-22 2007-10-22 Video data output device and broadcasting system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007274142A JP2009105560A (en) 2007-10-22 2007-10-22 Video data output device and broadcasting system

Publications (1)

Publication Number Publication Date
JP2009105560A true JP2009105560A (en) 2009-05-14

Family

ID=40706856

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007274142A Pending JP2009105560A (en) 2007-10-22 2007-10-22 Video data output device and broadcasting system

Country Status (1)

Country Link
JP (1) JP2009105560A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017022486A (en) * 2015-07-08 2017-01-26 三菱電機インフォメーションシステムズ株式会社 Image transmission system and image transmission program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017022486A (en) * 2015-07-08 2017-01-26 三菱電機インフォメーションシステムズ株式会社 Image transmission system and image transmission program

Similar Documents

Publication Publication Date Title
JP4170808B2 (en) Information display device, information display method, and program
US20150149146A1 (en) Systems for delivery of audio signals to mobile devices
GB2507106A (en) Directional sound apparatus for providing personalised audio data to different users
WO2012100114A2 (en) Multiple viewpoint electronic media system
CN110958537A (en) Intelligent sound box and use method thereof
WO2009103204A1 (en) A method and apparatus of playing dynamic audio-video menu
US11234094B2 (en) Information processing device, information processing method, and information processing system
GB2569004A (en) Accessible audio switching for client devices in an online conference
JP2007336593A (en) Information display, information displaying method and program
JP2006339856A (en) Television device and method of controlling output of audio data
JPWO2019150996A1 (en) Language presentation device, language presentation method, and language presentation program
JP2005124169A (en) Video image contents forming apparatus with balloon title, transmitting apparatus, reproducing apparatus, provisioning system, and data structure and record medium used therein
US20170359396A1 (en) System and Method for a Broadcast Terminal and Networked Devices
JP3222074U (en) Multilingual loudspeaker for announcements
US8301006B2 (en) Image displaying apparatus, image editing apparatus, image editing system, and method for displaying and editing image using the same
WO2020031453A1 (en) Information processing device and information processing method, and video-audio output system
JP2009105560A (en) Video data output device and broadcasting system
JP5551186B2 (en) Broadcast receiving apparatus and program information audio output method in broadcast receiving apparatus
JP2008032787A (en) Language learning system and program for language learning system
CN115359796A (en) Digital human voice broadcasting method, device, equipment and storage medium
JP2013097240A (en) Hearing-impaired person support device and operation method thereof
JP6802264B2 (en) Display device, output device, and information display method
JP2003339034A (en) Network conference system, network conference method, and network conference program
JP2004206581A (en) Sound device and vocal information acquiring method in same
JP2009105561A (en) Data output device and broadcasting system