JP2010085748A - Image display device, image display system, and image display method - Google Patents

Image display device, image display system, and image display method Download PDF

Info

Publication number
JP2010085748A
JP2010085748A JP2008255324A JP2008255324A JP2010085748A JP 2010085748 A JP2010085748 A JP 2010085748A JP 2008255324 A JP2008255324 A JP 2008255324A JP 2008255324 A JP2008255324 A JP 2008255324A JP 2010085748 A JP2010085748 A JP 2010085748A
Authority
JP
Japan
Prior art keywords
image
display
unit
image data
image display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008255324A
Other languages
Japanese (ja)
Inventor
Shuki Ando
宗棋 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008255324A priority Critical patent/JP2010085748A/en
Publication of JP2010085748A publication Critical patent/JP2010085748A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image display system capable of simply performing a slideshow using an image group owned by a plurality of apparatuses connected to a network. <P>SOLUTION: In the image display system including a plurality of reproducing devices and a display device 101 for displaying images owned by these reproduction apparatuses by the slideshow, two transmission lines are simultaneously allocated when switching images. During the display of one image, switching is performed to the other transmission line to smoothly switch images, and the suitable slideshow can be achieved. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は画像表示装置、画像表示システム、画像表示方法、プログラム及び記憶媒体に関し、特に、複数の再生装置が保持する画像を用いてスライドショーを行うために用いて好適な技術に関する。   The present invention relates to an image display device, an image display system, an image display method, a program, and a storage medium, and more particularly, to a technique suitable for performing a slide show using images held by a plurality of playback devices.

従来、デジタルカメラとテレビとを接続してスライドショーを表示する場合、テレビのビデオ入力端子を用いてデジタルカメラが所持している映像データを連続して再生している。このように、ネットワークを介してデジタルカメラが所持している映像データをテレビに送信することによってスライドショーを実現している。   Conventionally, when a slide show is displayed by connecting a digital camera and a television, video data possessed by the digital camera is continuously reproduced using a video input terminal of the television. In this way, a slide show is realized by transmitting video data possessed by a digital camera to a television via a network.

一方、複数の端末から送信されたデータについてネットワークを介して取り扱う場合には、様々な工夫がなされている。例えば、特許文献1に記載のシステムでは、ネットワークに接続された複数の端末間で使用を予定している伝送帯域を予め集中管理装置に予約している。そして、予約情報のスケジュールに基づいてネットワークの回線状態を切り替えて端末の要求に応えるようにしている。   On the other hand, various measures have been taken when handling data transmitted from a plurality of terminals via a network. For example, in the system described in Patent Document 1, a transmission band scheduled to be used between a plurality of terminals connected to a network is reserved in advance in the central management apparatus. Based on the reservation information schedule, the line status of the network is switched to respond to the request of the terminal.

また、小規模で広帯域な無線ネットワーク(WPAN:Wireless Personal Area Network、個人用無線ネットワーク)として、IEEE802.15.3c等の規格が存在する。IEEE802.15.3cのネットワーク構成の概念図を図17に示す。システムを構成する複数の機器が無線ネットワークに接続されて1つのピコネットを形成する。図17に示すように、制御中心となる機器がピコネット上のPNC(Piconet Coordinator)となり、その他の機器がDEV(DEVICE)となる。   In addition, there is a standard such as IEEE802.15.3c as a small and wideband wireless network (WPAN: Wireless Personal Area Network). A conceptual diagram of the network configuration of IEEE802.15.3c is shown in FIG. A plurality of devices constituting the system are connected to a wireless network to form one piconet. As shown in FIG. 17, a device serving as a control center is a PNC (Piconet Coordinator) on a piconet, and other devices are DEV (DEVICE).

図18は、図17に示すネットワークの通信フレーム構造の概略を示す図である。
図18に示すように、単位時間で通信フレームを構成し、その単位をスーパーフレーム(Super Frame)とする。スーパーフレームは、Beacon、CAP(Contention Access Period)、及びCTAP(Channel Time Allocation Period)の3つのパートから構成される。
FIG. 18 is a diagram showing an outline of a communication frame structure of the network shown in FIG.
As shown in FIG. 18, a communication frame is configured in unit time, and the unit is a super frame. The superframe is composed of three parts: Beacon, CAP (Contention Access Period), and CTAP (Channel Time Allocation Period).

Beaconは、PNCからDEVに対してブロードキャストされて、Super Frameの同期と各種制御とを行うためのものである。CAPは、帯域が確保されていない通信スロットである。そして、CAPは、各DEVからPNCに対するネットワークへの参加申請や、各DEVに割り当てられるタイムスロット(一定の時間間隔)情報を通達する管理フレーム、帯域が確保されないデータの伝送を行うためのものである。   The Beacon is broadcast from the PNC to the DEV, and performs synchronization of the Super Frame and various controls. CAP is a communication slot in which no bandwidth is secured. The CAP is used to transmit an application for joining the network from each DEV to the PNC, a management frame that passes information on time slots (fixed time intervals) assigned to each DEV, and data for which no bandwidth is secured. is there.

CTAPは、さらにCTA(Channel Time Allocation)に分割されたタイムスロットを各DEVに割り当てて、時分割多重通信(TDMA)による帯域確保されたデータの伝送を行うためのものである。すなわち、特許文献1に記載の技術では、ネットワークの持つ通信帯域をCAP及びCTAにより自由に配分して、帯域保障通信及び非帯域保障通信を行うことができる。   The CTAP is for allocating a time slot divided into CTA (Channel Time Allocation) to each DEV and transmitting data with a bandwidth secured by time division multiplex communication (TDMA). That is, with the technique described in Patent Document 1, it is possible to perform bandwidth guaranteed communication and non-bandwidth guaranteed communication by freely allocating the communication bandwidth of the network by CAP and CTA.

特開平5−63705号公報JP-A-5-63705

しかしながら、前述した従来の技術では、例えば複数の装置が有する画像群を同時に表示することはできない。したがって、ユーザが回線を繋ぎ換えて順番に画像群を表示する必要があった。   However, with the above-described conventional technology, for example, it is not possible to simultaneously display an image group included in a plurality of devices. Therefore, it is necessary for the user to change the lines and display the image groups in order.

本発明は前述の問題点に鑑み、ネットワークに接続されている複数の装置が所持する画像群を用いたスライドショーを簡単に行うことができる画像表示システムを提供することを目的としている。   In view of the above-described problems, an object of the present invention is to provide an image display system capable of easily performing a slide show using an image group possessed by a plurality of devices connected to a network.

本発明の画像表示装置は、複数の再生装置とネットワークを介して接続されており、前記複数の再生装置とともに画像表示システムを構成する画像表示装置であって、前記複数の再生装置が保持する画像データの画像情報を取得する取得手段と、前記取得手段によって取得された画像情報に基づいて画像を表示する順序を決定する決定手段と、前記決定手段により決定された順序に基づき、前記複数の再生装置のうちのいずれかとの通信を行うためのチャネルを確保する確保手段と、前記確保手段により確保されたチャネルを用いて、画像データを前記再生装置から受信する受信手段と、前記受信手段によって受信された画像データに基づく画像を表示部に表示する表示手段とを有することを特徴とする。   An image display device of the present invention is an image display device that is connected to a plurality of playback devices via a network and constitutes an image display system together with the plurality of playback devices, and the images held by the plurality of playback devices An acquisition means for acquiring image information of data; a determination means for determining an order in which images are displayed based on the image information acquired by the acquisition means; and the plurality of reproductions based on the order determined by the determination means Securing means for securing a channel for communication with any of the devices, receiving means for receiving image data from the playback device using the channel secured by the securing means, and receiving by the receiving means And display means for displaying an image based on the image data displayed on the display unit.

本発明の画像表示システムは、前記画像表示装置と、前記複数の再生装置とを有することを特徴とする。   The image display system of the present invention includes the image display device and the plurality of playback devices.

本発明の画像表示方法は、複数の再生装置とネットワークを介して接続されており、前記複数の再生装置とともに画像表示システムを構成する画像表示装置における画像表示方法であって、前記複数の再生装置が保持する画像データの画像情報を取得する取得工程と、前記取得工程において取得した画像情報に基づいて画像を表示する順序を決定する決定工程と、前記決定工程において決定された順序に基づき、前記複数の再生装置のうちのいずれかとの通信を行うためのチャネルを確保する確保工程と、前記確保工程において確保されたチャネルを用いて、画像データを前記再生装置から受信する受信工程と、前記受信工程において受信した画像データに基づく画像を表示部に表示する表示工程とを有することを特徴とする。   The image display method of the present invention is an image display method in an image display device that is connected to a plurality of playback devices via a network and constitutes an image display system together with the plurality of playback devices, and the plurality of playback devices The acquisition step of acquiring the image information of the image data held by, the determination step of determining the order of displaying images based on the image information acquired in the acquisition step, and the order determined in the determination step, A securing step for securing a channel for communication with any one of a plurality of playback devices; a receiving step for receiving image data from the playback device using the channel secured in the securing step; and the reception A display step of displaying an image based on the image data received in the step on the display unit.

本発明のプログラムは、複数の再生装置とネットワークを介して接続されており、前記複数の再生装置とともに画像表示システムを構成する画像表示装置においてコンピュータに実行させるプログラムであって、前記複数の再生装置が保持する画像データの画像情報を取得する取得工程と、前記取得工程において取得した画像情報に基づいて画像を表示する順序を決定する決定工程と、前記決定工程において決定された順序に基づき、前記複数の再生装置のうちのいずれかとの通信を行うためのチャネルを確保する確保工程と、前記確保工程において確保されたチャネルを用いて、画像データを前記再生装置から受信する受信工程と、前記受信工程において受信した画像データに基づく画像を表示部に表示する表示工程とをコンピュータに実行させることを特徴とする。   The program of the present invention is a program that is connected to a plurality of playback devices via a network and that is executed by a computer in an image display device that constitutes an image display system together with the plurality of playback devices. The acquisition step of acquiring the image information of the image data held by, the determination step of determining the order of displaying images based on the image information acquired in the acquisition step, and the order determined in the determination step, A securing step for securing a channel for communication with any one of a plurality of playback devices; a receiving step for receiving image data from the playback device using the channel secured in the securing step; and the reception A display step of displaying an image based on the received image data on the display unit on the computer. Characterized in that to.

本発明の記憶媒体は、前記に記載のプログラムを記憶したことを特徴とする。   The storage medium of the present invention stores the program described above.

本発明によれば、ネットワークに接続されている複数の装置が所持する画像群を用いたスライドショーを簡単に行うことができる。   According to the present invention, a slide show using an image group possessed by a plurality of devices connected to a network can be easily performed.

(第1の実施形態)
以下、本発明の実施形態について、図面を参照しながら説明する。
図1は、本実施形態における画像表示システムの一例を示す図である。
図1において、画像表示システムは、静止画データ及び動画データを格納する複数の再生機(第1の再生機102〜第4の再生機105)と、それらの画像をスライドショーにて表示する表示機101とから構成されている。
(First embodiment)
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating an example of an image display system according to the present embodiment.
In FIG. 1, an image display system includes a plurality of playback devices (first playback device 102 to fourth playback device 105) that store still image data and moving image data, and a display device that displays these images in a slide show. 101.

ここで再生機とは、再生機能を有する撮影機を含むものとする。具体的には、表示機101は例えばテレビが該当し、再生機能を有する撮影機はデジタルカメラやビデオカメラ等が該当する。また、表示機101と第1の再生機102〜第4の再生機105とは無線ネットワークによって接続されている。表示機101は通常テレビ表示状態となっているが、メニュー等の操作によってスライドショーの機能が選択されると、本実施形態における画像表示機能が起動する。   Here, the playback device includes a photographing device having a playback function. Specifically, the display device 101 corresponds to a television, for example, and the photographing device having a playback function corresponds to a digital camera, a video camera, or the like. Further, the display device 101 and the first playback device 102 to the fourth playback device 105 are connected by a wireless network. The display device 101 is normally in a television display state, but when a slide show function is selected by an operation such as a menu, the image display function in the present embodiment is activated.

図2は、本実施形態に係る表示機101の構成例を示すブロック図である。以下、通常のテレビ表示状態における動作の概略について説明する。
図2において、デジタルチューナ5を介して受信された放送データをデコーダ6がデコードする。そして、DMAC(Direct Memory Access Controller)4がデコードされた放送データ(映像データ)を読み出して第1のフレームメモリ7に蓄積する。また、不図示のリモコンから送られた操作制御信号がリモコン受信部10において受信され、CPU11に入力される。
FIG. 2 is a block diagram illustrating a configuration example of the display device 101 according to the present embodiment. The outline of the operation in the normal television display state will be described below.
In FIG. 2, the decoder 6 decodes the broadcast data received via the digital tuner 5. Then, broadcast data (video data) decoded by a direct memory access controller (DMAC) 4 is read and stored in the first frame memory 7. In addition, an operation control signal sent from a remote controller (not shown) is received by the remote control receiver 10 and input to the CPU 11.

CPU11は、入力された操作制御信号と、ROM12及びRAM13に格納されているプログラム及びデータとに応じて、表示機101の機能を制御する。不図示のリモコンの操作によって画面上にメニューを表示する必要が生じた場合は、メニューのグラフィックスを描画してデータを第2のフレームメモリ14に蓄積する。合成部8は、第1のフレームメモリ7に蓄積されている映像データを読み出すとともに、第2のフレームメモリ14に格納されているメニューデータを読み出し、2つのデータを合成する。さらに、合成部8は、表示部9に合成された映像等を表示するように表示制御を行う機能を有している。   The CPU 11 controls the function of the display device 101 according to the input operation control signal and the programs and data stored in the ROM 12 and the RAM 13. When it becomes necessary to display a menu on the screen by operating a remote controller (not shown), the graphics of the menu are drawn and the data is stored in the second frame memory 14. The synthesizing unit 8 reads the video data stored in the first frame memory 7 and reads the menu data stored in the second frame memory 14 and synthesizes the two data. Furthermore, the synthesis unit 8 has a function of performing display control so as to display the synthesized video or the like on the display unit 9.

次に、無線ネットワークによってスライドショーを表示する場合の動作の概略について説明する。
無線部2は、アンテナ1を介して受信された電波を復調する。そして、ネットワークコントローラ3は、復調された信号を制御信号及び画像データに分離する。また、ネットワークコントローラ3はCPU11の制御に従って無線ネットワークの状態を制御する。
Next, an outline of an operation when a slide show is displayed over a wireless network will be described.
The radio unit 2 demodulates radio waves received via the antenna 1. Then, the network controller 3 separates the demodulated signal into a control signal and image data. The network controller 3 controls the state of the wireless network according to the control of the CPU 11.

CPU11は、分離された制御信号を読み出し、ROM12及びRAM13に格納されているプログラム及びデータに応じて、表示機101の機能を制御する。一方、DMAC4は、分離された画像データを読み出し、第1のフレームメモリ7に蓄積する。なお、その他の制御についてはテレビ表示と同様である。なお、ネットワークコントローラ3及びDMAC4は、詳細については後述するが、選択手段として機能する。   The CPU 11 reads the separated control signal, and controls the function of the display device 101 according to the program and data stored in the ROM 12 and RAM 13. On the other hand, the DMAC 4 reads the separated image data and stores it in the first frame memory 7. Other controls are the same as those for television display. The network controller 3 and the DMAC 4 function as a selection unit, details of which will be described later.

図3は、本実施形態に係る再生機200の構成例を示すブロック図である。なお、第1の再生機102〜第4の再生機105は同様の構成であるため、これらを代表して再生機200の構成について説明する。
図3において、エンコーダ52は、撮像部51において撮像された画像データを圧縮符号化する。そして、符号化された画像データをメモリカード等で構成される記憶部53に蓄える。
FIG. 3 is a block diagram illustrating a configuration example of the playback device 200 according to the present embodiment. In addition, since the 1st reproducing | regenerating apparatus 102-the 4th reproducing | regenerating apparatus 105 are the same structures, the structure of the reproducing | regenerating apparatus 200 is demonstrated on behalf of these.
In FIG. 3, the encoder 52 compresses and encodes the image data captured by the imaging unit 51. Then, the encoded image data is stored in the storage unit 53 constituted by a memory card or the like.

ユーザの操作によって操作部57から再生が指示された場合は、デコーダ54は記憶部53から画像データを読み出して画像データを展開する。出力部55は、展開された画像データをビデオ信号に変換して外部に出力する。   When reproduction is instructed from the operation unit 57 by a user operation, the decoder 54 reads the image data from the storage unit 53 and expands the image data. The output unit 55 converts the developed image data into a video signal and outputs it to the outside.

一方、ネットワークを介して送信する場合は、ネットワークコントローラ58は、展開された画像データを入力し、ネットワークパケットを生成する。そして、無線部59は、生成されたネットワークパケットを変調してアンテナ60を介して送出する。また、CPU56は、以上の動作の制御全般を行う。   On the other hand, when transmitting via a network, the network controller 58 inputs the developed image data and generates a network packet. Then, the radio unit 59 modulates the generated network packet and sends it out via the antenna 60. The CPU 56 performs overall control of the above operations.

本実施形態に用いる無線ネットワークは、特に種類を問わず適用が可能である。その中でも、特に、小規模で広帯域なネットワークが構成できるIEEE802.15.3c等のWPAN(Wireless Personal Area Network、個人用無線ネットワーク)が好適である。   The wireless network used in this embodiment can be applied regardless of the type. Among these, WPAN (Wireless Personal Area Network) such as IEEE802.15.3c, which can form a small-scale and broadband network, is particularly suitable.

図4は、本実施形態の画像表示システムにおけるネットワーク構成の一例を示す概念図である。
図4に示すように、画像表示システムを構成する表示機(テレビ)及び再生機(カメラ、ビデオ)によって1つのピコネットを形成する。画像提示アプリケーションの制御中心となる表示機がピコネット上のPNC(Piconet Coordinator)となり、各再生機がDEV(DEVICE)となる。
FIG. 4 is a conceptual diagram showing an example of a network configuration in the image display system of the present embodiment.
As shown in FIG. 4, one piconet is formed by a display device (television) and a playback device (camera, video) that constitute the image display system. The display device that is the control center of the image presentation application is a PNC (Piconet Coordinator) on the piconet, and each playback device is a DEV (DEVICE).

図5は、図4に示したネットワークの通信フレームの概略を示す図である。
図5において、通信フレームは単位時間あたりでスーパーフレーム(Super Frame)50が構成される。スーパーフレーム50は、Beacon、CAP(Contention Access Period)、及びCTAP(Channel Time Allocation Period)の3つのパートから構成される。
FIG. 5 is a diagram showing an outline of a communication frame of the network shown in FIG.
In FIG. 5, the communication frame is composed of a super frame 50 per unit time. The super frame 50 is composed of three parts: Beacon, CAP (Contention Access Period), and CTAP (Channel Time Allocation Period).

本実施形態における映像信号の伝送フォーマットは、非圧縮ストリーム方式のフォーマットが好適である。再生機200から表示機101へ映像の伝送を行う際には、非圧縮伝送が可能な帯域をCTAに割り当てて、1対1に接続された帯域保障通信を行う。この状態は、有線のビデオケーブルが接続されている状態と同等の概念になる。また、ネットワーク全体の帯域に余裕がある場合は、異なるCTAを割り当てて、第2、第3の接続を構成することも可能である。さらに、同時にCAPのタイムスロットを用いて任意のDEV間で再生指示や状態通知などの双方向通信を行うことも可能である。本実施形態では、以上のように説明したWPAN上で非圧縮ストリーム方式によって映像伝送システムを構成するものとして、以下の説明を行う。   The transmission format of the video signal in this embodiment is preferably an uncompressed stream format. When video is transmitted from the playback device 200 to the display device 101, a bandwidth capable of uncompressed transmission is allocated to the CTA, and bandwidth-guaranteed communication connected one-to-one is performed. This state is the same concept as a state where a wired video cable is connected. Further, when there is a margin in the bandwidth of the entire network, it is possible to allocate different CTAs to configure the second and third connections. Furthermore, it is also possible to perform bidirectional communication such as a reproduction instruction and status notification between arbitrary DEVs using the CAP time slot at the same time. In the present embodiment, the following description is given on the assumption that the video transmission system is configured by the uncompressed stream method on the WPAN described above.

次に、本実施形態の画像表示システムにおける表示機101の動作の詳細について説明する。図6は、本実施形態に係る表示機101によるピコネットの生成及びスライドショーの動作手順の一例を示すフローチャートである。
図6において、表示機101においてユーザの操作等によって、リモコン受信部10が不図示のリモコンから画像表示(スライドショー)の操作制御信号を受信すると、処理を開始する。まず、ステップS1において、ネットワークコントローラ3は、通信用のピコネットを生成する。
Next, details of the operation of the display device 101 in the image display system of the present embodiment will be described. FIG. 6 is a flowchart illustrating an example of an operation procedure of a piconet generation and a slide show by the display device 101 according to the present embodiment.
In FIG. 6, when the remote control receiving unit 10 receives an operation control signal for image display (slide show) from a remote controller (not shown) by a user operation or the like on the display device 101, the process starts. First, in step S1, the network controller 3 generates a piconet for communication.

次に、ステップS2において、ネットワークコントローラ3は、ピコネットの参加申請をチェックする。このチェックの結果、何らかのデバイス(DEV)による参加申請がある場合は、ステップS3へ進む。一方、ステップS2のチェックの結果、参加申請がない場合は、ステップS9へ進む。   Next, in step S2, the network controller 3 checks a piconet participation application. As a result of this check, if there is a participation application by any device (DEV), the process proceeds to step S3. On the other hand, if the result of the check in step S2 is that there is no application for participation, the process proceeds to step S9.

次に、ステップS3において、CPU11は、参加申請してきたデバイス(DEV)に対して一旦参加を許可する。そして、ステップS4において、参加したデバイスにユニークなIDを割り当てて無線部2により機器情報を取得する。なお、機器情報の内容は、機種名や対応する画像再生解像度、本実施形態による画像表示システムへの対応可否、等である。   Next, in step S3, the CPU 11 once permits participation to the device (DEV) that has applied for participation. In step S4, a unique ID is assigned to the participating device, and the wireless unit 2 acquires device information. Note that the contents of the device information include the model name, the corresponding image reproduction resolution, the availability of the image display system according to the present embodiment, and the like.

次に、ステップS5において、CPU11は、参加申請したデバイスが本実施形態による画像表示システムに対応しているかどうかをチェックする。このチェックの結果、本実施形態の画像表示システムに対応できないデバイスである場合は、ステップS6に進み、CPU11は、参加を解除してステップS2へ戻る。一方、ステップS5のチェックの結果、本実施形態の画像表示システムに対応可能なデバイスである場合は、ステップS7へ進む。   Next, in step S5, the CPU 11 checks whether or not the device for which participation has been applied is compatible with the image display system according to the present embodiment. As a result of this check, if the device is not compatible with the image display system of this embodiment, the process proceeds to step S6, and the CPU 11 cancels participation and returns to step S2. On the other hand, if it is determined in step S5 that the device is compatible with the image display system of this embodiment, the process proceeds to step S7.

次に、ステップS7において、無線部2は、参加したデバイスが保持する画像リストを取得する。画像リストには、ファイル名など、画像データを識別するための情報が含まれる。そして、ステップS8において、CPU11は取得手段として機能し、無線部2が取得した画像リストのそれぞれの画像についてのメタデータ(画像情報)を取得する。ここでメタデータとは、例えば、撮影日、画像の回転情報、その他の撮影条件等の情報である。   Next, in step S7, the wireless unit 2 acquires an image list held by the participating device. The image list includes information for identifying image data such as a file name. In step S8, the CPU 11 functions as an acquisition unit, and acquires metadata (image information) for each image in the image list acquired by the wireless unit 2. Here, the metadata is information such as a shooting date, image rotation information, and other shooting conditions.

一方、ステップS9においては、ユーザの操作によりリモコン受信部10が不図示のリモコンからスライドショーを開始する指示を受けたか否かを判定する。もしくは、スライドショーを自動開始する所定の時間が経過したか否かを判定する。この判定の結果、スライドショーをまだ開始しない場合は、ステップS2へ戻り、デバイスの参加申請を引き続き待つ。一方、ステップS9の判定の結果、スライドショーを開始する場合は、ステップS10へ進む。   On the other hand, in step S9, it is determined whether or not the remote control receiving unit 10 has received an instruction to start a slide show from a remote controller (not shown) by a user operation. Alternatively, it is determined whether or not a predetermined time for automatically starting the slide show has elapsed. If the result of this determination is that the slide show has not yet started, the process returns to step S2 and continues to wait for a device participation application. On the other hand, if the result of determination in step S9 is to start a slide show, processing proceeds to step S10.

図7は、結合された画像リストの一例を示す図である。
次に、ステップS10において、CPU11は、図7で示すように、参加した複数のデバイスからステップS7で取得したそれぞれの第1の画像リスト201〜第4の画像リスト204をマージして1つの結合された画像リスト210を生成する。なお、本実施形態では、第1の再生機102〜第4の再生機105からそれぞれの第1の画像リスト201〜第4の画像リスト204を取得したものとして説明する。
FIG. 7 is a diagram illustrating an example of a combined image list.
Next, in step S10, as shown in FIG. 7, the CPU 11 merges the first image list 201 to the fourth image list 204 acquired in step S7 from a plurality of participating devices, and combines them. Generated image list 210 is generated. In the present embodiment, description will be made assuming that the first image list 201 to the fourth image list 204 are acquired from the first player 102 to the fourth player 105, respectively.

次に、ステップS11において、CPU11は決定手段として機能し、図7で示すように、結合された画像リスト210を撮影時刻の順序に並べ替えられた(ソートされた)画像リスト211を生成する。本実施形態では、ソートのキーとして撮影時刻を用いたが、取得した他のメタデータをキーにしてソートしてもよい。   Next, in step S11, the CPU 11 functions as a determination unit, and generates an image list 211 in which the combined image list 210 is rearranged (sorted) in order of shooting time, as shown in FIG. In the present embodiment, the shooting time is used as a sorting key, but sorting may be performed using other acquired metadata as a key.

以下の処理は、スライドショーとして順次画像を表示する手順である。
次に、ステップS12において、CPU11は、ソートされた画像リスト211のメタデータから先頭の画像の情報を取得する。取得する情報の内容は、画像を保持しているデバイスのID及び再生する画像データのファイル名である。
The following processing is a procedure for sequentially displaying images as a slide show.
Next, in step S <b> 12, the CPU 11 acquires information on the top image from the metadata of the sorted image list 211. The contents of the information to be acquired are the ID of the device holding the image and the file name of the image data to be reproduced.

次に、ステップS13において、ネットワークコントローラ3は確保手段として機能し、画像を保持しているデバイスに対してピコネットのCTAを割り当てて、映像の伝送チャネルを確保する。そして、ステップS14において、無線部2は指示手段として機能し、画像を保持しているデバイスに対して割り当てた伝送チャネルへ画像の再生開始を指示する信号を送る。   In step S13, the network controller 3 functions as a securing unit, allocates a piconet CTA to a device holding an image, and secures a video transmission channel. In step S14, the wireless unit 2 functions as an instruction unit, and sends a signal instructing the start of image reproduction to the transmission channel assigned to the device holding the image.

次に、ステップS15において、CPU11は、DMAC4の制御情報をスライドショー用の制御情報に変更する。そして、DMAC4は、割り当てた伝送チャネルでデバイスから受信した非圧縮の画像データを第1のフレームメモリ7に一旦蓄積する。そして、合成部8は、第1のフレームメモリ7に蓄積された画像データを表示部9に画像として表示する。   Next, in step S15, the CPU 11 changes the control information of the DMAC 4 to the control information for the slide show. Then, the DMAC 4 temporarily stores the uncompressed image data received from the device through the assigned transmission channel in the first frame memory 7. Then, the synthesis unit 8 displays the image data stored in the first frame memory 7 as an image on the display unit 9.

次に、ステップS16において、CPU11は、ソートされた画像リスト211を参照し、表示部9に現在表示している映像が動画であるか静止画であるかを判定する。この判定の結果、動画である場合は、ステップS17へ進み、動画の表示が終了するまで待機する。一方、ステップS16の判定の結果、静止画である場合は、ステップS18へ進み、予め設定している静止画の表示時間が経過するまで待機する。   Next, in step S16, the CPU 11 refers to the sorted image list 211 and determines whether the video currently displayed on the display unit 9 is a moving image or a still image. As a result of the determination, if it is a moving image, the process proceeds to step S17 and waits until the display of the moving image is completed. On the other hand, if it is determined in step S16 that the image is a still image, the process proceeds to step S18 and waits until a preset display time of the still image elapses.

次に、ステップS19においてCPU11は、ソートされた画像リスト211に含まれる画像を全て表示してスライドショーが終了したかどうかを判定する。この判定の結果、スライドショーが終了した場合は、ステップS21へ進む。一方、ステップS19の判定の結果、スライドショーがまだ終了していない場合は、ステップS20へ進む。   Next, in step S19, the CPU 11 displays all the images included in the sorted image list 211 and determines whether or not the slide show has ended. If the result of this determination is that the slide show has ended, the process proceeds to step S21. On the other hand, if the result of determination in step S19 is that the slide show has not yet been completed, processing proceeds to step S20.

そして、ステップS20において、CPU11は、ソートされた画像リスト211のメタデータから次に表示する画像の情報を取得する。その後、ステップS13へ戻り、画像の表示を繰り返す。一方、ステップS21においては、ネットワークコントローラ3は、ステップS1で生成したピコネットを解消する。以上のような手順で表示機101におけるスライドショーが終了する。   In step S <b> 20, the CPU 11 acquires information on an image to be displayed next from the metadata of the sorted image list 211. Thereafter, the process returns to step S13, and image display is repeated. On the other hand, in step S21, the network controller 3 cancels the piconet generated in step S1. The slide show in the display device 101 is completed by the procedure as described above.

次に、スライドショーに用いる画像を表示する時における詳細な制御の流れについて説明する。以下、表示例として、
(1)第4の再生機105であるCamera-Bが保持する静止画「IMG_1035」
(2)第1の再生機102であるCamera-Aが保持する静止画「IMG_1032」
(3)第1の再生機102であるCamera-Aが保持する静止画「IMG_1033」
(4)第2の再生機103であるVideo-Aが保持する動画「CLIP_013」
(5)第3の再生機104であるVideo-Bが保持する動画「CLIP_009」
(6)第3の再生機104であるVideo-Bが保持する動画「CLIP_010」
の順に表示してスライドショーを終了する場合を例に説明する。
Next, a detailed control flow when displaying images used for the slide show will be described. Below, as a display example,
(1) Still image “IMG — 1035” held by Camera-B as the fourth playback device 105
(2) Still image “IMG — 1032” held by Camera-A as the first playback device 102
(3) Still image “IMG — 1033” held by Camera-A as the first playback device 102
(4) Video “CLIP — 013” held by Video-A as the second playback device 103
(5) Video “CLIP — 009” held by Video-B as the third playback device 104
(6) Video “CLIP — 010” held by Video-B as the third playback device 104
A case will be described as an example in which the slide show is finished in the order of display.

図8は、本実施形態において、スライドショーの画像を表示する手順の一例を示すタイムチャートである。
まず、第4の再生機105であるCamera-Bが保持する静止画「IMG_1035」をスライドショーに表示するシーケンスを開始する。
FIG. 8 is a time chart showing an example of a procedure for displaying a slide show image in the present embodiment.
First, a sequence for displaying the still image “IMG — 1035” held by Camera-B as the fourth playback device 105 in a slide show is started.

まず、ステップT1において、表示機101のネットワークコントローラ3は、第4の再生機105であるCamera-Bが映像を再生するための映像チャネル「CTA#1」をピコネット上のスーパーフレームに割り当てる。この時点でスーパーフレーム501は、図8に示すような状態になる。このステップT1は、図6のステップS13に相当する。   First, in step T1, the network controller 3 of the display device 101 assigns a video channel “CTA # 1” for the Camera-B, which is the fourth playback device 105, to play back a video to a superframe on the piconet. At this point, the super frame 501 is in a state as shown in FIG. This step T1 corresponds to step S13 in FIG.

次に、ステップT2において、割り当てた映像チャネル「CTA#1」に静止画「IMG_1035」の再生を行うように、第4の再生機105であるCamera-Bに対して、無線部2より指示信号を送る。この指示は、スーパーフレームのCAP802に、図8に示すようなメッセージを流すことによってなされる。このステップT2は、図6のステップS14に相当する。   Next, in step T2, the radio unit 2 sends an instruction signal to Camera-B, which is the fourth player 105, so that the still picture “IMG — 1035” is played back on the assigned video channel “CTA # 1”. Send. This instruction is made by sending a message as shown in FIG. 8 to the CAP 802 of the super frame. This step T2 corresponds to step S14 in FIG.

一方、ステップT51において、第4の再生機105であるCamera-Bは、再生する指示信号を、無線部59を介して受信する。そして、デコーダ54は、記憶部53に記憶されている静止画「IMG_1035」のデータを再生してデコードする。そして、割り当てられた映像チャネル「CTA#1」に対して、デコードされた非圧縮の静止画「IMG_1035」のデータを無線部2よりネットワークパケットとして送信する。   On the other hand, in step T <b> 51, Camera-B, which is the fourth playback device 105, receives an instruction signal to be played back via the wireless unit 59. Then, the decoder 54 reproduces and decodes the data of the still image “IMG — 1035” stored in the storage unit 53. Then, the data of the decoded non-compressed still image “IMG — 1035” is transmitted as a network packet from the wireless unit 2 to the assigned video channel “CTA # 1”.

次に、ステップT3において、CPU11は、DMAC4の制御情報をスライドショー用の制御情報に変更する。そして、DMAC4は、割り当てた映像チャネル「CTA#1」で無線部2を介して受信した静止画「IMG_1035」のデータを第1のフレームメモリ7に一旦蓄積する。そして、合成部8は、静止画「IMG_1035」を表示部9に表示する。この時点で表示部9には静止画「IMG_1035」が表示される。このステップT3は、図6のステップS15に相当する。   Next, in step T3, the CPU 11 changes the control information of the DMAC 4 to control information for a slide show. Then, the DMAC 4 temporarily stores the data of the still image “IMG — 1035” received via the wireless unit 2 on the assigned video channel “CTA # 1” in the first frame memory 7. Then, the composition unit 8 displays the still image “IMG — 1035” on the display unit 9. At this time, the still image “IMG — 1035” is displayed on the display unit 9. This step T3 corresponds to step S15 in FIG.

次に、ステップT4において、予め設定されていた静止画「IMG_1035」の表示時間が経過するまで待機する。このステップT4は図6のステップS18に相当する。そして、ステップT5において、ネットワークコントローラ3は、Camera-Aである第1の再生機102が映像を再生するための映像チャネル「CTA#2」をピコネット上のスーパーフレームに割り当てる。この時点でスーパーフレーム505は、図8に示すように伝送路が2本同時に確保された状態になる。このステップT5は、図6のステップS13に相当する。   Next, in step T4, the process waits until the preset display time of the still image “IMG — 1035” elapses. This step T4 corresponds to step S18 in FIG. In step T5, the network controller 3 assigns a video channel “CTA # 2” for the first playback device 102, which is Camera-A, to play back a video to a superframe on the piconet. At this time, the super frame 505 is in a state where two transmission paths are secured at the same time as shown in FIG. This step T5 corresponds to step S13 in FIG.

次に、ステップT6において、割り当てた映像チャネル「CTA#2」に静止画「IMG_1032」の再生を行うように、第1の再生機102であるCamera-Aに対して、無線部2より指示信号を送る。この指示は、スーパーフレームのCAP806に、図8に示すようなメッセージを流すことによってなされる。このステップT6は図6のステップS14に相当する。   Next, in step T6, the radio unit 2 instructs the camera-A, which is the first playback device 102, to play back the still image “IMG — 1032” on the assigned video channel “CTA # 2”. Send. This instruction is made by sending a message as shown in FIG. 8 to the CAP 806 in the superframe. This step T6 corresponds to step S14 in FIG.

一方、ステップT61において、第1の再生機102であるCamera-Aは、再生する指示信号を、無線部59を介して受信する。そして、デコーダ54は、記憶部53に記憶されている静止画「IMG_1032」のデータを再生してデコードする。そして、割り当てられた映像チャネル「CTA#2」に対して、デコードされた非圧縮の静止画「IMG_1032」のデータを無線部2よりネットワークパケットとして送信する。   On the other hand, in step T <b> 61, Camera-A that is the first playback device 102 receives an instruction signal to be played back via the wireless unit 59. Then, the decoder 54 reproduces and decodes the data of the still image “IMG — 1032” stored in the storage unit 53. Then, the data of the decoded uncompressed still image “IMG — 1032” is transmitted as a network packet from the wireless unit 2 to the assigned video channel “CTA # 2”.

次に、ステップT7において、CPU11は、DMAC4の制御情報を、割り当てた映像チャネル「CTA#2」用の制御情報に変更する。そして、DMAC4は、割り当てた映像チャネル「CTA#2」で無線部2を介して受信した静止画「IMG_1032」のデータを第1のフレームメモリ7に一旦蓄積する。そして、合成部8は、静止画「IMG_1032」を表示部9に表示する。この時点で表示部9には静止画「IMG_1032」が表示される。このステップT7は図6のステップS15に相当する。   Next, in step T7, the CPU 11 changes the control information of the DMAC 4 to the control information for the allocated video channel “CTA # 2”. Then, the DMAC 4 temporarily stores the data of the still image “IMG — 1032” received via the wireless unit 2 on the assigned video channel “CTA # 2” in the first frame memory 7. Then, the composition unit 8 displays the still image “IMG — 1032” on the display unit 9. At this time, the still image “IMG — 1032” is displayed on the display unit 9. This step T7 corresponds to step S15 in FIG.

次に、ステップT8において、ネットワークコントローラ3は、ステップT1で第4の再生機105であるCamera-Bに割り当てた映像チャネル「CTA#1」を開放する。この時点でスーパーフレーム508は、図8に示すような状態になる。これにより、ステップT52において、映像チャネル「CTA#1」の開放を受けて第4の再生機105であるCamera-Bの接続が断たれることになる。   Next, in step T8, the network controller 3 releases the video channel “CTA # 1” assigned to Camera-B, which is the fourth player 105 in step T1. At this point, the super frame 508 is in a state as shown in FIG. As a result, in step T52, the video channel “CTA # 1” is released and the connection of Camera-B, which is the fourth player 105, is disconnected.

次に、ステップT9において、予め設定されていた静止画「IMG_1032」の表示時間が経過するまで待機する。このステップT9は、図6のステップS18に相当する。そして、ステップT10において、割り当てた映像チャネル「CTA#2」に静止画「IMG_1033」の再生を行うように、第1の再生機102であるCamera-Aに対して、無線部2より指示信号を送る。この指示は、スーパーフレームのCAP810に、図8に示すようなメッセージを流すことによりなされる。このステップT10は、図6のステップS14に相当する。   Next, in step T <b> 9, the process waits until the preset display time of the still image “IMG — 1032” elapses. This step T9 corresponds to step S18 in FIG. In step T10, the radio unit 2 sends an instruction signal to Camera-A, which is the first playback device 102, so that the still image “IMG — 1033” is played back on the assigned video channel “CTA # 2”. send. This instruction is made by sending a message as shown in FIG. 8 to the CAP 810 of the super frame. This step T10 corresponds to step S14 in FIG.

一方、ステップT62において、第1の再生機102であるCamera-Aは、再生する指示信号を、無線部59を介して受信する。そして、デコーダ54は、記憶部53に記憶されている静止画「IMG_1033」のデータを再生してデコードする。そして、割り当てられた映像チャネル「CTA#2」に対して、デコードされた非圧縮の静止画「IMG_1035」のデータを無線部2よりネットワークパケットとして送信する。   On the other hand, in step T <b> 62, Camera-A that is the first playback device 102 receives an instruction signal to be played back via the wireless unit 59. Then, the decoder 54 reproduces and decodes the data of the still image “IMG — 1033” stored in the storage unit 53. Then, the data of the decoded uncompressed still image “IMG — 1035” is transmitted as a network packet from the wireless unit 2 to the allocated video channel “CTA # 2”.

一方、表示機101側では、DMAC4は、割り当てた映像チャネル「CTA#2」で無線部2を介して受信した静止画「IMG_1033」のデータを第1のフレームメモリ7に一旦蓄積する。そして、合成部8は、静止画「IMG_1033」を表示部9に表示する。この時点で表示部9には静止画「IMG_1033」が表示される。このように、先と同じ再生機による再生であるので、映像チャネルの割り当てや開放は伴わない。   On the other hand, on the display device 101 side, the DMAC 4 temporarily stores the data of the still image “IMG — 1033” received via the wireless unit 2 on the assigned video channel “CTA # 2” in the first frame memory 7. Then, the composition unit 8 displays the still image “IMG — 1033” on the display unit 9. At this time, the still image “IMG — 1033” is displayed on the display unit 9. As described above, since the playback is performed by the same playback device as described above, the video channel is not allocated or released.

次に、ステップT11において、ネットワークコントローラ3は、第2の再生機103であるVideo-Aが映像を再生するための映像チャネル「CTA#1」をピコネット上のスーパーフレームに割り当てる。この時点でスーパーフレーム511は、図8に示すように伝送路が2本同時に確保された状態になる。このステップT11は、図6のステップS13に相当する。   Next, in Step T11, the network controller 3 assigns a video channel “CTA # 1” for Video-A, which is the second playback device 103, to play back a video to a superframe on the piconet. At this point, the super frame 511 is in a state where two transmission paths are secured at the same time as shown in FIG. This step T11 corresponds to step S13 in FIG.

次に、ステップT12において、割り当てた映像チャネル「CTA#1」に動画「CLIP_013」の再生を準備するための再生一時停止を行うように、第2の再生機103であるVideo-Aに対して、無線部2より指示信号を送る。この指示は、スーパーフレームのCAP812に、図8に示すようなメッセージを流すことによりなされる。   Next, in step T12, the video player “A”, which is the second player 103, is set to pause playback for preparing the playback of the movie “CLIP — 013” for the assigned video channel “CTA # 1”. An instruction signal is sent from the wireless unit 2. This instruction is made by sending a message as shown in FIG. 8 to the CAP 812 of the super frame.

一方、ステップT71において、第2の再生機103であるVideo-Aは、再生して一時停止する指示信号を、無線部59を介して受信する。そして、デコーダ54は、記憶部53に記憶されている動画「CLIP_013」の先頭フレームのみを再生してデコードし、一時停止状態とする。そして、割り当てられた映像チャネル「CTA#1」に対して、デコードされた動画「CLIP#013」の先頭フレームを無線部2よりネットワークパケットとして送信する。一方、表示機101側では、割り当てた映像チャネル「CTA#1」で無線部2を介して動画「CLIP_013」の先頭フレームを受信する。   On the other hand, in step T <b> 71, Video-A that is the second playback device 103 receives an instruction signal for playback and pause via the wireless unit 59. Then, the decoder 54 reproduces and decodes only the first frame of the moving image “CLIP — 013” stored in the storage unit 53, and sets the pause state. Then, the first frame of the decoded moving image “CLIP # 013” is transmitted as a network packet from the wireless unit 2 to the assigned video channel “CTA # 1”. On the other hand, on the display device 101 side, the first frame of the moving image “CLIP — 013” is received via the wireless unit 2 on the assigned video channel “CTA # 1”.

次に、ステップT13において、予め設定されていた静止画「IMG_1033」の表示時間が経過するまで待機する。なお、静止画「IMG_1033」の表示時間が経過するまでは、受信した動画「CLIP_013」の先頭フレームをRAM13等に一時的に保存する。このステップT13は、図6のステップS18に相当する。   Next, in step T <b> 13, the process waits until the preset display time of the still image “IMG — 1033” elapses. Until the display time of the still image “IMG — 1033” elapses, the first frame of the received moving image “CLIP — 013” is temporarily stored in the RAM 13 or the like. This step T13 corresponds to step S18 in FIG.

次に、ステップT14において、CPU11は、DMAC4の制御情報を、割り当てた映像チャネル「CTA#1」用の制御情報に変更する。そして、DMAC4は、割り当てた映像チャネル「CTA#1」で受信した動画「CLIP_013」の先頭フレームを第1のフレームメモリ7に一旦蓄積する。そして、合成部8は、動画「CLIP_013」の先頭フレームを表示部9に表示する。この時点で表示部9には動画「CLIP_013」の先頭フレームが表示される。このステップT14は、図6のステップS15に相当する。   Next, in step T <b> 14, the CPU 11 changes the control information of the DMAC 4 to the control information for the assigned video channel “CTA # 1”. Then, the DMAC 4 temporarily stores the first frame of the moving picture “CLIP — 013” received through the assigned video channel “CTA # 1” in the first frame memory 7. Then, the synthesizing unit 8 displays the first frame of the moving image “CLIP — 013” on the display unit 9. At this time, the display unit 9 displays the first frame of the moving image “CLIP — 013”. This step T14 corresponds to step S15 in FIG.

次に、ステップT15において、割り当てた映像チャネル「CTA#1」に一時停止している動画「CLIP_013」の再生を再開するように、第2の再生機103であるVideo-Aに対して、無線部2より指示信号を送る。この指示は、スーパーフレームのCAP815に、図8に示すようなメッセージを流すことによりなされる。   Next, in step T15, the video player “CLIP — 013” paused on the assigned video channel “CTA # 1” is resumed wirelessly with respect to Video-A, which is the second player 103, so as to resume playback. An instruction signal is sent from unit 2. This instruction is made by sending a message as shown in FIG. 8 to the CAP 815 of the superframe.

一方、ステップT72において、第2の再生機103であるVideo-Aは、再生を再開する指示信号を、無線部59を介して受信する。そして、デコーダ54は、記憶部53に記憶されている動画「CLIP_013」のデータの再生を再開してデコードする。そして、割り当てた映像チャネル「CTA#1」に対して、デコードされた非圧縮の動画「CLIP_013」のデータを無線部2よりネットワークパケットとして送信する。   On the other hand, in step T <b> 72, Video-A that is the second playback device 103 receives an instruction signal for restarting playback via the wireless unit 59. Then, the decoder 54 resumes and decodes the data of the moving image “CLIP — 013” stored in the storage unit 53. Then, the data of the decoded uncompressed video “CLIP — 013” is transmitted as a network packet from the wireless unit 2 to the allocated video channel “CTA # 1”.

一方、表示機101側では、DMAC4は、割り当てた映像チャネル「CTA#1」で無線部2を介して受信した動画「CLIP_013」のデータを第1のフレームメモリ7に一旦蓄積する。そして、合成部8は、動画「CLIP_013」を表示部9に表示する。この時点で表示部9には動画「CLIP_013」の表示が開始される。   On the other hand, on the display device 101 side, the DMAC 4 temporarily stores the data of the moving image “CLIP — 013” received via the wireless unit 2 in the assigned video channel “CTA # 1” in the first frame memory 7. Then, the synthesizing unit 8 displays the moving image “CLIP — 013” on the display unit 9. At this time, the display unit 9 starts displaying the moving image “CLIP — 013”.

次に、ステップT16において、ネットワークコントローラ3は、ステップT5で第1の再生機102であるCamera-Aに割り当てた映像チャネル「CTA#2」を開放する。この時点でスーパーフレーム516は、図8に示すような状態になる。これにより、ステップT63において、映像チャネル「CTA#2」の開放を受けて、第1の再生機102であるCamera-Aの接続が断たれることになる。   Next, in step T16, the network controller 3 releases the video channel “CTA # 2” assigned to Camera-A which is the first playback device 102 in step T5. At this point, the super frame 516 is in a state as shown in FIG. As a result, in step T63, the video channel “CTA # 2” is released and the connection of Camera-A, which is the first playback device 102, is disconnected.

次に、ステップT17において、ネットワークコントローラ3は、第3の再生機104であるVideo-Bが映像を再生するための映像チャネル「CTA#2」をピコネット上のスーパーフレームに割り当てる。この時点でスーパーフレーム517は、図8に示すように伝送路が2本同時に確保された状態になる。このステップT17は、図6のステップS13に相当する。   Next, in step T <b> 17, the network controller 3 assigns a video channel “CTA # 2” for Video-B, which is the third playback device 104, to play back a video to a superframe on the piconet. At this point, the super frame 517 is in a state where two transmission paths are secured at the same time as shown in FIG. This step T17 corresponds to step S13 in FIG.

次に、ステップT18において、割り当てた映像チャネル「CTA#2」に動画「CLIP_009」の再生を準備するための再生一時停止を行うように、第3の再生機104であるVideo-Bに対して、無線部2を介して指示信号を送る。この指示は、スーパーフレームのCAP818に、図8に示すようなメッセージを流すことによりなされる。   Next, in Step T18, for the video player B, which is the third player 104, so as to perform playback pause for preparing the playback of the movie “CLIP — 009” on the assigned video channel “CTA # 2”. Then, an instruction signal is sent via the wireless unit 2. This instruction is made by sending a message as shown in FIG. 8 to the CAP 818 of the super frame.

一方、ステップT81において、第3の再生機104であるVideo-Bは、再生して一時停止する指示信号を、無線部59を介して受信する。そして、デコーダ54は、記憶部53に記憶されている動画「CLIP_009」の先頭フレームのみを再生してデコードし、一時停止状態とする。そして、割り当てられた映像チャネル「CTA#2」に対して、デコードされた動画「CLIP_009」の先頭フレームを無線部2よりネットワークパケットとして送信する。一方、表示機101側では、割り当てた映像チャネル「CTA#2」で無線部2を介して動画「CLIP_009」の先頭フレームを受信する。   On the other hand, in step T <b> 81, Video-B, which is the third playback device 104, receives an instruction signal for playback and pause via the wireless unit 59. Then, the decoder 54 reproduces and decodes only the first frame of the moving image “CLIP — 009” stored in the storage unit 53, and sets the pause state. Then, the first frame of the decoded moving picture “CLIP — 009” is transmitted as a network packet from the wireless unit 2 to the assigned video channel “CTA # 2”. On the other hand, on the display device 101 side, the first frame of the moving image “CLIP — 009” is received via the wireless unit 2 using the assigned video channel “CTA # 2”.

次に、ステップT73において、第2の再生機103であるVideo-Aでは、動画「CLIP_013」の再生が終了するまで待機する。また、表示機101でも、動画「CLIP_013」の表示が終了するまで待機する。なお、動画「CLIP_013」の表示が終了するまでは、受信した動画「CLIP_009」の先頭フレームをRAM13等に一時的に保存する。この表示機101が待機する処理ステップは、図6のステップS17に相当する。   Next, in Step T73, Video-A that is the second playback device 103 waits until the playback of the moving image “CLIP — 013” is completed. Further, the display device 101 also stands by until the display of the moving image “CLIP — 013” is completed. Until the display of the moving image “CLIP — 013” ends, the first frame of the received moving image “CLIP — 009” is temporarily stored in the RAM 13 or the like. The processing step in which the display device 101 stands by corresponds to step S17 in FIG.

そして、ステップT74において、第2の再生機103であるVideo-Aは、動画「CLIP_013」の再生が終了したことを通知する信号を表示機101に無線部59を介して送信する。この通知は、スーパーフレームのCAP874に、図8に示すようなメッセージを流すことによりなされる。   In step T74, Video-A, which is the second playback device 103, transmits a signal notifying that the playback of the moving image “CLIP — 013” has ended to the display device 101 via the wireless unit 59. This notification is made by sending a message as shown in FIG. 8 to the CAP 874 of the super frame.

次に、ステップT19において、CPU11は、DMAC4の制御情報を、割り当てた映像チャネル「CTA#2」用の制御情報に変更する。そして、DMAC4は、割り当てた映像チャネル「CTA#2」で受信した動画「CLIP_009」の先頭フレームを第1のフレームメモリ7に一旦蓄積する。そして、合成部8は、動画「CLIP_009」の先頭フレームを表示部9に表示する。この時点で表示部9には動画「CLIP_009」の先頭フレームが表示される。このステップT19は図6のステップS15に相当する。   Next, in step T19, the CPU 11 changes the control information of the DMAC 4 to the control information for the assigned video channel “CTA # 2”. Then, the DMAC 4 temporarily stores the first frame of the moving image “CLIP — 009” received through the assigned video channel “CTA # 2” in the first frame memory 7. Then, the synthesizing unit 8 displays the first frame of the moving image “CLIP — 009” on the display unit 9. At this time, the display unit 9 displays the first frame of the moving image “CLIP — 009”. This step T19 corresponds to step S15 in FIG.

次に、ステップT20において、割り当てた映像チャネル「CTA#2」に一時停止している動画「CLIP_009」の再生を再開するように、第3の再生機104であるVideo-Bに対して、無線部2より指示信号を送る。この指示は、スーパーフレームのCAP820に、図8に示すようなメッセージを流すことによりなされる。   Next, in step T20, the third player 104, Video-B, is wirelessly connected to resume playback of the movie “CLIP — 009” paused on the assigned video channel “CTA # 2”. An instruction signal is sent from unit 2. This instruction is made by sending a message as shown in FIG. 8 to the CAP 820 of the super frame.

一方、ステップT82において、第3の再生機104であるVideo-Bは、再生を再開する指示信号を、無線部59を介して受信する。そして、デコーダ54は、記憶部53に記憶されている動画「CLIP_009」のデータの再生を再開してデコードする。そして、割り当てた映像チャネル「CTA#2」に対して、デコードされた非圧縮の動画「CLIP_009」のデータを無線部2よりネットワークパケットとして送信する。   On the other hand, in step T82, Video-B, which is the third playback device 104, receives an instruction signal for restarting playback via the wireless unit 59. Then, the decoder 54 resumes and decodes the data of the moving image “CLIP — 009” stored in the storage unit 53. Then, the data of the decoded uncompressed video “CLIP — 009” is transmitted from the wireless unit 2 as a network packet to the allocated video channel “CTA # 2”.

一方、表示機101側では、DMAC4は、割り当てた映像チャネル「CTA#2」で無線部2を介して受信した動画「CLIP_009」のデータを第1のフレームメモリ7に一旦蓄積する。そして、合成部8は、動画「CLIP_009」を表示部9に表示する。この時点で表示部9には動画「CLIP_009」の表示が開始される。   On the other hand, on the display device 101 side, the DMAC 4 temporarily stores data of the moving image “CLIP — 009” received via the wireless unit 2 in the assigned video channel “CTA # 2” in the first frame memory 7. Then, the composition unit 8 displays the moving image “CLIP — 009” on the display unit 9. At this time, the display unit 9 starts displaying the moving image “CLIP — 009”.

次に、ステップT21において、第2の再生機103であるVideo-Aに割り当てた映像チャネル「CTA#1」を開放する。この時点でスーパーフレーム521は、図8に示すような状態になる。これにより、ステップT75において、映像チャネル「CTA#1」の開放を受けて第2の再生機103であるVideo-Aの接続が断たれることになる。   Next, in step T21, the video channel “CTA # 1” assigned to Video-A as the second playback device 103 is released. At this point, the super frame 521 is in a state as shown in FIG. As a result, in step T75, the video channel “CTA # 1” is released and the connection of Video-A, which is the second player 103, is disconnected.

次に、ステップT22において、第3の再生機104であるVideo-Bに対して、連続して動画「CLIP_010」を再生するように無線部2より指示信号を送る。この指示は、スーパーフレームのCAP822に、図8に示すようなメッセージを流すことによりなされる。   Next, in step T <b> 22, an instruction signal is sent from the radio unit 2 to Video-B, which is the third player 104, so as to continuously play the moving image “CLIP_010”. This instruction is made by sending a message as shown in FIG. 8 to the CAP 822 of the superframe.

一方、ステップT83において、第3の再生機104であるVideo-Bは、連続再生の指示信号を、無線部59を介して受信する。そして、CPU56は、動画「CLIP_010」を再生キューに登録する。   On the other hand, in step T <b> 83, Video-B as the third playback device 104 receives the continuous playback instruction signal via the wireless unit 59. Then, the CPU 56 registers the moving image “CLIP_010” in the reproduction queue.

そして、ステップT84において、第3の再生機104であるVideo-Bは、動画「CLIP_009」の再生が終了するまで待機する。また、表示機101でも、動画「CLIP_009」の表示が終了するまで待機する。この表示機101が待機する処理ステップは図6のステップS17に相当する。   In step T84, Video-B, which is the third playback device 104, stands by until the playback of the movie “CLIP — 009” is completed. The display device 101 also stands by until the display of the moving image “CLIP — 009” is completed. The processing step in which the display device 101 waits corresponds to step S17 in FIG.

次に、ステップT85において、動画「CLIP_009」の再生が終了すると、デコーダ54は、再生キューに登録した、記憶部53に記憶されている動画「CLIP_010」のデータの再生を開始してデコードする。そして、割り当てた映像チャネル「CTA#2」に対して、デコードされた非圧縮の動画「CLIP_010」のデータを無線部2よりネットワークパケットとして送信する。   Next, when the reproduction of the moving image “CLIP — 009” is completed in step T85, the decoder 54 starts reproducing the data of the moving image “CLIP — 010” stored in the storage unit 53 and registered in the reproduction queue and decodes it. Then, the decoded data of the uncompressed moving image “CLIP — 010” is transmitted from the wireless unit 2 as a network packet to the allocated video channel “CTA # 2”.

一方、表示機101側では、DMAC4は、割り当てた映像チャネル「CTA#2」で無線部2を介して受信した動画「CLIP_010」のデータを第1のフレームメモリ7に一旦蓄積する。そして、合成部8は、動画「CLIP_010」を表示部9に表示する。この時点で表示部9には動画「CLIP_010」の表示が開始される。   On the other hand, on the display device 101 side, the DMAC 4 temporarily stores the data of the moving image “CLIP — 010” received via the wireless unit 2 on the assigned video channel “CTA # 2” in the first frame memory 7. Then, the composition unit 8 displays the moving image “CLIP_010” on the display unit 9. At this time, the display unit 9 starts displaying the moving image “CLIP — 010”.

そして、ステップT86において、第3の再生機104であるVideo-Bは、動画「CLIP_010」の再生が終了するまで待機する。また、表示機101でも、動画「CLIP_010」の表示が終了するまで待機する。この表示機101が待機する処理ステップは、図6のステップS17に相当する。   In step T86, Video-B, which is the third playback device 104, stands by until the playback of the movie “CLIP_010” is completed. The display device 101 also stands by until the display of the moving image “CLIP — 010” is completed. The processing step in which the display device 101 stands by corresponds to step S17 in FIG.

次に、ステップT87において、動画「CLIP_010」の再生が終了すると、第3の再生機104であるVideo-Bは、再生が終了したことを通知する信号を表示機101に無線部59を介して送信する。この通知は、スーパーフレームのCAP887に、図8に示すようなメッセージを流すことによりなされる。   Next, when the reproduction of the moving image “CLIP — 010” is completed in Step T87, Video-B, which is the third reproduction device 104, sends a signal notifying the completion of the reproduction to the display device 101 via the wireless unit 59. Send. This notification is made by sending a message as shown in FIG. 8 to the CAP 887 of the super frame.

次に、ステップT23において、合成部8は、スライドショーが完了した旨の表示を表示部9に表示する。この時点で表示部9にはスライドショーが完了した状態の画面が表示される。そして、ステップT24において、ネットワークコントローラ3は、第3の再生機104であるVideo-Bに割り当てた映像チャネル「CTA#2」を開放する。この時点でスーパーフレーム524は、図8に示すような状態になる。以上のような手順により表示機101は、映像チャネルの割り当て、開放、及び再生の指示を繰り返してスライドショーの表示を行う。   Next, in step T23, the composition unit 8 displays a display indicating that the slide show has been completed on the display unit 9. At this point, the display unit 9 displays a screen in a state where the slide show is completed. In step T24, the network controller 3 releases the video channel “CTA # 2” assigned to Video-B as the third player 104. At this point, the super frame 524 is in a state as shown in FIG. The display device 101 displays a slide show by repeatedly assigning, releasing, and reproducing instructions for video channels according to the procedure described above.

本実施形態では、前述したように、映像を切り替える時に伝送路を2本同時に割り当てる。これにより、ノイズのないようにスムーズに画像を切り替えることが可能となる。また、動画を再生する時は、一時停止した画像を表示することなく画像を切り替えたり、クロスフェード等の視覚効果を追加したりすることも容易に実現可能である。   In the present embodiment, as described above, two transmission paths are assigned simultaneously when the video is switched. This makes it possible to switch images smoothly without noise. In addition, when playing back a moving image, it is possible to easily switch between images without displaying a paused image or to add a visual effect such as a cross fade.

また、本実施形態では、伝送する映像フォーマットとして非圧縮ストリーム形式を用いたが、圧縮フォーマットを用いることも可能である。その場合は、第1の再生機102〜第4の再生機105にエンコーダ52とは別に伝送用の映像エンコーダを付加し、表示機101にはそれらに対応したデコーダを搭載すればよい。その他の構成は、本実施形態と同様にして本発明を適用することが可能である。   In this embodiment, an uncompressed stream format is used as a video format to be transmitted. However, a compressed format can also be used. In that case, a video encoder for transmission may be added to the first player 102 to the fourth player 105 in addition to the encoder 52, and a decoder corresponding to them may be mounted on the display 101. For other configurations, the present invention can be applied in the same manner as in this embodiment.

また、再生機において、縦横回転再生機能を有しない場合を想定して、表示機101において縦横回転させるようにしてもよい。この場合、例えば、合成部8で表示する方向(縦/横)に合わせるように画像を回転させる機能を備えることにより実現が可能である。   Further, assuming that the playback device does not have a vertical / horizontal rotation playback function, the display device 101 may be rotated vertically and horizontally. In this case, for example, it can be realized by providing a function of rotating an image so as to match the display direction (vertical / horizontal) in the combining unit 8.

以上のように本実施形態によれば、画像データを予め転送しておく必要がないので、スライドショーを開始する時に、バッファリングを不要にして迅速に再生を開始することが可能である。これにより、ユーザの利便性を向上させることが可能となる。また、それぞれの撮影データ形式に対応するデコーダが表示機101に不要となるので、幅広い画像データ形式に対して容易に対応できるとともに、コストを小さく抑えることが可能となる。   As described above, according to the present embodiment, since it is not necessary to transfer image data in advance, it is possible to quickly start reproduction without requiring buffering when starting a slide show. Thereby, it becomes possible to improve a user's convenience. In addition, since the display device 101 does not require a decoder corresponding to each shooting data format, it is possible to easily cope with a wide range of image data formats and to reduce the cost.

(第2の実施形態)
第1の実施形態では、映像を切り替える時に伝送路を2本同時に割り当てる例について説明した。一方、無線による伝送路の割り当て映像チャネルを1本分に制限する場合であっても、本発明を適用することが可能である。そこで本実施形態では、無線による伝送路の割り当て映像チャネルを1本分に制限する例について説明する。
(Second Embodiment)
In the first embodiment, an example has been described in which two transmission paths are assigned simultaneously when switching images. On the other hand, the present invention can be applied even when the allocated video channel of the wireless transmission path is limited to one. Therefore, in the present embodiment, an example will be described in which the wireless channel allocation video channel is limited to one.

図9は、本実施形態における表示機901の構成例を示すブロック図である。なお、ネットワーク構成及び再生機の構成については、第1の実施形態と同様である。
図9において、第3のフレームメモリ21は第1のフレームメモリと同様に、DMAC4から送られてきた画像データを蓄積するためのものである。選択部31は、第1のフレームメモリ7または第3のフレームメモリ21のいずれかに蓄積された画像データを選択的に読み出すためのものである。
FIG. 9 is a block diagram illustrating a configuration example of the display 901 in the present embodiment. The network configuration and the playback device configuration are the same as those in the first embodiment.
In FIG. 9, the third frame memory 21 is for accumulating image data sent from the DMAC 4 in the same manner as the first frame memory. The selection unit 31 is for selectively reading out image data stored in either the first frame memory 7 or the third frame memory 21.

また、DMAC4が第1のフレームメモリ7及び第3のフレームメモリ21に対する画像データの蓄積を停止した状態で、選択部31が継続して画像データを読み出すことにより、画像の一時停止機能を有する。その他の構成は第1の実施形態と同様であるため、説明は省略する。   The DMAC 4 has a function of temporarily stopping the image by continuously reading the image data while the selection unit 31 reads out the image data in the first frame memory 7 and the third frame memory 21. Since other configurations are the same as those of the first embodiment, description thereof is omitted.

図10は、本実施形態において、スライドショーにおける画像を表示する手順の一例を示すタイムチャートである。なお、表示機901によるピコネットの生成及びスライドショーの手順については図6と同様であるため、説明は省略する。
まず、ステップT101において、表示機901のネットワークコントローラ3は、第4の再生機105であるCamera-Bが映像を再生するための映像チャネル「CTA#1」をピコネット上のスーパーフレームに割り当てる。この時点でスーパーフレーム1501は、図10に示すような状態になる。このステップT101は、図6のステップS13に相当する。
FIG. 10 is a time chart showing an example of a procedure for displaying images in a slide show in the present embodiment. Note that the piconet generation and slide show procedures by the display 901 are the same as those in FIG.
First, in step T101, the network controller 3 of the display device 901 allocates a video channel “CTA # 1” for the Camera-B, which is the fourth playback device 105, to play back a video to a superframe on the piconet. At this point, the super frame 1501 is in a state as shown in FIG. This step T101 corresponds to step S13 in FIG.

次に、ステップT102において、割り当てた映像チャネル「CTA#1」に静止画「IMG_1035」の再生を行うように、第4の再生機105であるCamera-Bに対して、無線部2より指示信号を送る。この指示は、スーパーフレームのCAP1802に、図10に示すようなメッセージを流すことによりなされる。このステップT102は、図6のステップS14に相当する。   Next, in step T102, the radio unit 2 sends an instruction signal to Camera-B, which is the fourth player 105, so that the still picture “IMG — 1035” is played back on the assigned video channel “CTA # 1”. Send. This instruction is made by sending a message as shown in FIG. 10 to the superframe CAP 1802. This step T102 corresponds to step S14 in FIG.

一方、ステップT151において、第4の再生機105であるCamera-Bは、再生する指示信号を、無線部59を介して受信する。そして、デコーダ54は、記憶部53に記憶されている静止画「IMG_1035」のデータを再生してデコードする。そして、割り当てられた映像チャネル「CTA#1」に対して、デコードされた非圧縮の静止画「IMG_1035」のデータを無線部2よりネットワークパケットとして送信する。   On the other hand, in step T <b> 151, Camera-B, which is the fourth playback device 105, receives an instruction signal to be played back via the wireless unit 59. Then, the decoder 54 reproduces and decodes the data of the still image “IMG — 1035” stored in the storage unit 53. Then, the data of the decoded non-compressed still image “IMG — 1035” is transmitted as a network packet from the wireless unit 2 to the assigned video channel “CTA # 1”.

次に、ステップT103において、CPU11は、DMAC4の制御情報をスライドショー用の制御情報に変更する。そして、DMAC4は、割り当てた映像チャネル「CTA#1」で無線部2を介して受信した静止画「IMG_1035」のデータを第1のフレームメモリ7に蓄積する。そして、ステップT104において、CPU11は、選択部31の制御情報を第1のフレームメモリ7から読み出す制御情報に変更する。そして、合成部8は、第1のフレームメモリ7に蓄積された静止画「IMG_1035」のデータを読み出し、表示部9に静止画「IMG_1035」を表示する。この時点で表示部9には静止画「IMG_1035」が表示される。このステップT103及びT104は、図6のステップS15に相当する。   Next, in step T103, the CPU 11 changes the control information of the DMAC 4 to the control information for the slide show. Then, the DMAC 4 stores the data of the still image “IMG — 1035” received via the wireless unit 2 in the assigned video channel “CTA # 1” in the first frame memory 7. In step T <b> 104, the CPU 11 changes the control information of the selection unit 31 to control information that is read from the first frame memory 7. Then, the synthesis unit 8 reads the data of the still image “IMG — 1035” stored in the first frame memory 7 and displays the still image “IMG — 1035” on the display unit 9. At this time, the still image “IMG — 1035” is displayed on the display unit 9. Steps T103 and T104 correspond to step S15 in FIG.

次に、ステップT105において、予め設定されていた静止画の表示時間が経過するまで待機する。このステップT105は、図6のステップS18に相当する。そして、ステップT106において、CPU11は、DMAC4の制御情報を画像データの蓄積を一時停止する制御情報に変更する。そして、DMAC4は、割り当てられた映像チャネル「CTA#1」における第1のフレームメモリ7に対する映像の蓄積を一時停止する。この時点で表示部9の表示は静止画「IMG_1035」に固定される。   Next, in step T105, the process stands by until a preset still image display time elapses. This step T105 corresponds to step S18 in FIG. In step T106, the CPU 11 changes the control information of the DMAC 4 to control information for temporarily stopping the accumulation of image data. Then, the DMAC 4 temporarily stops the accumulation of the video in the first frame memory 7 in the allocated video channel “CTA # 1”. At this time, the display on the display unit 9 is fixed to the still image “IMG — 1035”.

次に、ステップT107において、ネットワークコントローラ3は、第4の再生機105であるCamera-Bに割り当てた映像チャネル「CTA#1」を開放する。これにより、ステップT152において、映像チャネル「CTA#1」の開放を受けて、第4の再生機105であるCamera-Bの接続が断たれることになる。   Next, in Step T107, the network controller 3 releases the video channel “CTA # 1” assigned to Camera-B which is the fourth player 105. As a result, in step T152, upon receiving the release of the video channel “CTA # 1”, the connection of Camera-B, which is the fourth player 105, is disconnected.

次に、ステップT108において、ネットワークコントローラ3は、第1の再生機102であるCamera-Aが映像を再生するための映像チャネル「CTA#1」をピコネット上のスーパーフレームに割り当てる。この時点でスーパーフレーム1508は、図10に示すような状態になる。このステップT108は、図6のステップS13に相当する。   Next, in Step T108, the network controller 3 assigns the video channel “CTA # 1” for the Camera-A that is the first playback device 102 to play back the video to the superframe on the piconet. At this point, the super frame 1508 is in a state as shown in FIG. This step T108 corresponds to step S13 in FIG.

次に、ステップT109において、割り当てた映像チャネル「CTA#1」に静止画「IMG_1032」の再生を行うように、第1の再生機102であるCamera-Aに対して、無線部2より指示信号を送る。この指示は、スーパーフレームのCAP1809に、図10に示すようなメッセージを流すことによりなされる。このステップT109は、図6のステップS14に相当する。   Next, in Step T109, the radio unit 2 sends an instruction signal to Camera-A, which is the first playback device 102, so that the still image “IMG — 1032” is played back on the assigned video channel “CTA # 1”. Send. This instruction is made by sending a message as shown in FIG. 10 to the CAP 1809 of the super frame. This step T109 corresponds to step S14 in FIG.

一方、ステップT161において、第1の再生機102であるCamera-Aは、再生する指示信号を、無線部59を介して受信する。そして、デコーダ54は、記憶部53に記憶されている静止画「IMG_1032」のデータを再生してデコードする。そして、割り当てられた映像チャネル「CTA#1」に対して、デコードされた非圧縮の静止画「IMG_1032」のデータを無線部2よりネットワークパケットとして送信する。   On the other hand, in step T <b> 161, Camera-A that is the first playback device 102 receives an instruction signal to be played back via the wireless unit 59. Then, the decoder 54 reproduces and decodes the data of the still image “IMG — 1032” stored in the storage unit 53. Then, the data of the decoded non-compressed still image “IMG — 1032” is transmitted as a network packet from the wireless unit 2 to the assigned video channel “CTA # 1”.

次に、ステップT110において、CPU11は、DMAC4の制御情報を第3のフレームメモリ21に蓄積する制御情報に変更する。そして、割り当てた映像チャネル「CTA#1」で受信した静止画「IMG_1032」のデータを第3のフレームメモリ21に蓄積する。そして、ステップT111において、CPU11は、選択部31の制御情報を第3のフレームメモリ21から読み出す制御情報に変更する。そして、合成部8は、第3のフレームメモリ21に蓄積された静止画「IMG_1032」のデータを読み出し、表示部9に静止画「IMG_1032」を表示する。この時点で表示部9には静止画「IMG_1032」が表示される。このステップT110及びT111は、図6のステップS15に相当する。   Next, in step T <b> 110, the CPU 11 changes the control information of the DMAC 4 to the control information stored in the third frame memory 21. Then, the data of the still image “IMG — 1032” received through the assigned video channel “CTA # 1” is stored in the third frame memory 21. In step T <b> 111, the CPU 11 changes the control information of the selection unit 31 to control information that is read from the third frame memory 21. Then, the synthesis unit 8 reads the data of the still image “IMG — 1032” stored in the third frame memory 21 and displays the still image “IMG — 1032” on the display unit 9. At this time, the still image “IMG — 1032” is displayed on the display unit 9. Steps T110 and T111 correspond to step S15 in FIG.

次に、ステップT112において、予め設定されていた静止画「IMG_1032」の表示時間が経過するまで待機する。このステップT112は、図6のステップS18に相当する。そして、ステップT113において、割り当てた映像チャネル「CTA#1」に静止画「IMG_1033」の再生を行うように、第1の再生機102であるCamera-Aに対して、無線部2より指示信号を送る。この指示は、スーパーフレームのCAP1813に、図10に示すようなメッセージを流すことによりなされる。このステップT113は、図6のステップS14に相当する。   Next, in step T112, the process waits until the preset display time of the still image “IMG — 1032” elapses. This step T112 corresponds to step S18 in FIG. In step T113, the radio unit 2 sends an instruction signal to Camera-A, which is the first playback device 102, so that the still image “IMG — 1033” is played back on the assigned video channel “CTA # 1”. send. This instruction is made by sending a message as shown in FIG. 10 to the CAP 1813 of the super frame. This step T113 corresponds to step S14 in FIG.

一方、ステップT162において、第1の再生機102であるCamera-Aは、再生する指示信号を、無線部59を介して受信する。そして、デコーダ54は、記憶部53に記憶されている静止画「IMG_1033」のデータを再生してデコードする。そして、割り当てられた映像チャネル「CTA#1」に対して、デコードされた非圧縮の静止画「IMG_1035」のデータを無線部2よりネットワークパケットとして送信する。   On the other hand, in step T <b> 162, Camera-A that is the first playback device 102 receives an instruction signal to be played back via the wireless unit 59. Then, the decoder 54 reproduces and decodes the data of the still image “IMG — 1033” stored in the storage unit 53. Then, the data of the decoded non-compressed still image “IMG — 1035” is transmitted as a network packet from the wireless unit 2 to the assigned video channel “CTA # 1”.

一方、表示機901側では、DMAC4は、割り当てた映像チャネル「CTA#1」で無線部2を介して受信した静止画「IMG_1033」のデータを第1のフレームメモリ7に一旦蓄積する。そして、合成部8は、静止画「IMG_1033」を表示部9に表示する。この時点で表示部9には静止画「IMG_1033」が表示される。このように、先と同じ再生機による再生であるので、映像チャネルの割り当てや開放は伴わない。   On the other hand, on the display device 901 side, the DMAC 4 temporarily stores in the first frame memory 7 the data of the still image “IMG — 1033” received via the wireless unit 2 on the assigned video channel “CTA # 1”. Then, the composition unit 8 displays the still image “IMG — 1033” on the display unit 9. At this time, the still image “IMG — 1033” is displayed on the display unit 9. As described above, since the playback is performed by the same playback device as described above, the video channel is not allocated or released.

次に、ステップT114において、予め設定されていた静止画の表示時間が経過するまで待機する。このステップT114は、図6のステップS18に相当する。そして、ステップT115において、CPU11は、DMAC4の制御情報を画像データの蓄積を一時停止する制御情報に変更する。そして、DMAC4は、割り当てられた映像チャネル「CTA#1」における第2のフレームメモリ21に対する映像の蓄積を一時停止する。この時点で表示部9の表示は静止画「IMG_1035」に固定される。   Next, in step T114, the process stands by until a preset still image display time elapses. This step T114 corresponds to step S18 in FIG. In step T115, the CPU 11 changes the control information of the DMAC 4 to control information for temporarily stopping image data accumulation. Then, the DMAC 4 temporarily stops the accumulation of video in the second frame memory 21 in the allocated video channel “CTA # 1”. At this time, the display on the display unit 9 is fixed to the still image “IMG — 1035”.

次に、ステップT116において、ネットワークコントローラ3は、第1の再生機102であるCamera-Aに割り当てた映像チャネル「CTA#1」を開放する。これにより、ステップT152において、映像チャネル「CTA#1」の開放を受けて、第1の再生機102であるCamera-Aの接続が断たれることになる。   Next, in Step T116, the network controller 3 releases the video channel “CTA # 1” assigned to Camera-A which is the first player 102. As a result, in step T152, upon receiving the release of the video channel “CTA # 1”, the connection of Camera-A, which is the first playback device 102, is disconnected.

次に、ステップT117において、ネットワークコントローラ3は、第2の再生機103であるVideo-Aが映像を再生するための映像チャネル「CTA#1」をピコネット上のスーパーフレームに割り当てる。この時点でスーパーフレーム1517は、図10に示すような状態になる。このステップT117は、図6のステップS13に相当する。   Next, in Step T117, the network controller 3 assigns a video channel “CTA # 1” for Video-A, which is the second playback device 103, to play back the video to a superframe on the piconet. At this point, the super frame 1517 is in a state as shown in FIG. This step T117 corresponds to step S13 in FIG.

次に、ステップT118において、割り当てた映像チャネル「CTA#1」に動画「CLIP_013」の再生を準備するための再生一時停止を行うように、第2の再生機103であるVideo-Aに対して、無線部2より指示信号を送る。この指示は、スーパーフレームのCAP1818に、図10に示すようなメッセージを流すことによりなされる。   Next, in Step T118, the video player “A” that is the second player 103 is paused to prepare for playback of the movie “CLIP — 013” on the assigned video channel “CTA # 1”. An instruction signal is sent from the wireless unit 2. This instruction is made by sending a message as shown in FIG. 10 to the CAP 1818 of the superframe.

次に、ステップT171において、第2の再生機103であるVideo-Aは、再生して一時停止する指示信号を、無線部59を介して受信する。そして、デコーダ54は、記憶部53に記憶されている動画「CLIP_013」の先頭フレームのみを再生してデコードし、一時停止状態とする。そして、割り当てられた映像チャネル「CTA#1」に対して、デコードされた動画「CLIP#013」の先頭フレームを無線部2よりネットワークパケットとして送信する。一方、表示機901側では、割り当てた映像チャネル「CTA#1」で無線部2を介して動画「CLIP_013」の先頭フレームを受信する。   Next, in step T <b> 171, Video-A that is the second playback device 103 receives an instruction signal to play back and pause via the wireless unit 59. Then, the decoder 54 reproduces and decodes only the first frame of the moving image “CLIP — 013” stored in the storage unit 53, and sets the pause state. Then, the first frame of the decoded moving image “CLIP # 013” is transmitted as a network packet from the wireless unit 2 to the assigned video channel “CTA # 1”. On the other hand, on the display device 901 side, the first frame of the moving image “CLIP — 013” is received via the wireless unit 2 using the assigned video channel “CTA # 1”.

次に、ステップT119において、CPU11は、DMAC4の制御情報を、第1のフレームメモリ7に蓄積する制御情報に変更する。そして、DMAC4は、割り当てた映像チャネル「CTA#1」で受信した動画「CLIP_013」の先頭フレームを第1のフレームメモリ7に一旦蓄積する。そして、ステップT120において、CPU11は、選択部31の制御情報を第1のフレームメモリ7から読み出す制御情報に変更する。そして、合成部8は、動画「CLIP_013」の先頭フレームを表示部9に表示する。この時点で表示部9には動画「CLIP_013」の先頭フレームが表示される。このステップT119及びT120は、図6のステップS15に相当する。   Next, in step T119, the CPU 11 changes the control information of the DMAC 4 to the control information stored in the first frame memory 7. Then, the DMAC 4 temporarily stores the first frame of the moving picture “CLIP — 013” received through the assigned video channel “CTA # 1” in the first frame memory 7. In step T <b> 120, the CPU 11 changes the control information of the selection unit 31 to control information that is read from the first frame memory 7. Then, the synthesizing unit 8 displays the first frame of the moving image “CLIP — 013” on the display unit 9. At this time, the display unit 9 displays the first frame of the moving image “CLIP — 013”. Steps T119 and T120 correspond to step S15 in FIG.

次に、ステップT121において、割り当てた映像チャネル「CTA#1」に一時停止している動画「CLIP_013」の再生を再開するように、第2の再生機103であるVideo-Aに対して、無線部2より指示信号を送る。この指示は、スーパーフレームのCAP1821に、図10に示すようなメッセージを流すことによりなされる。   Next, in step T121, the video player “CLIP — 013” paused on the assigned video channel “CTA # 1” is wirelessly transmitted to Video-A, which is the second player 103, so as to resume playback. An instruction signal is sent from unit 2. This instruction is made by sending a message as shown in FIG. 10 to the superframe CAP 1821.

一方、ステップT172において、第2の再生機103であるVideo-Aは、再生を再開する指示信号を、無線部59を介して受信する。そして、デコーダ54は、記憶部53に記憶されている動画「CLIP_013」のデータの再生を再開してデコードする。そして、割り当てた映像チャネル「CTA#1」に対して、デコードされた非圧縮の動画「CLIP_013」のデータを無線部2よりネットワークパケットとして送信する。   On the other hand, in step T <b> 172, Video-A that is the second playback device 103 receives an instruction signal for restarting playback via the wireless unit 59. Then, the decoder 54 resumes and decodes the data of the moving image “CLIP — 013” stored in the storage unit 53. Then, the data of the decoded uncompressed video “CLIP — 013” is transmitted as a network packet from the wireless unit 2 to the allocated video channel “CTA # 1”.

一方、表示機901側では、DMAC4は、割り当てた映像チャネル「CTA#1」で無線部2を介して受信した動画「CLIP_013」のデータを第1のフレームメモリ7に一旦蓄積する。そして、合成部8は、動画「CLIP_013」を表示部9に表示する。この時点で表示部9には動画「CLIP_013」の表示が開始される。   On the other hand, on the display device 901 side, the DMAC 4 temporarily stores the data of the moving image “CLIP — 013” received via the wireless unit 2 in the assigned video channel “CTA # 1” in the first frame memory 7. Then, the synthesizing unit 8 displays the moving image “CLIP — 013” on the display unit 9. At this time, the display unit 9 starts displaying the moving image “CLIP — 013”.

次に、ステップT173において、第2の再生機103であるVideo-Aでは、動画「CLIP_013」の再生が終了するまで待機する。また、表示機901でも、動画「CLIP_013」の表示が終了するまで待機する。この表示機901が待機する処理ステップは、図6のステップS17に相当する。   Next, in Step T173, Video-A that is the second playback device 103 waits until the playback of the moving image “CLIP — 013” is completed. The display 901 also stands by until the display of the moving image “CLIP — 013” is completed. The processing step in which the display 901 waits corresponds to step S17 in FIG.

そして、ステップT174において、第2の再生機103であるVideo-Aは、動画「CLIP_013」の再生が終了したことを通知する信号を表示機901に無線部59を介して送信する。この通知は、スーパーフレームのCAP1874に、図10に示すようなメッセージを流すことによりなされる。   In step T174, Video-A, which is the second playback device 103, transmits a signal notifying that the playback of the moving image “CLIP — 013” has ended to the display device 901 via the wireless unit 59. This notification is made by sending a message as shown in FIG. 10 to the CAP 1874 of the super frame.

次に、ステップT122において、CPU11は、DMAC4の制御情報を画像データの蓄積を一時停止する制御情報に変更する。そして、DMAC4は、割り当てられた映像チャネル「CTA#1」における第1のフレームメモリ7に対する映像の蓄積を一時停止する。この時点で表示部9の表示は動画「CLIP_013」で固定される。   Next, in step T122, the CPU 11 changes the control information of the DMAC 4 to control information for temporarily stopping image data accumulation. Then, the DMAC 4 temporarily stops the accumulation of the video in the first frame memory 7 in the allocated video channel “CTA # 1”. At this time, the display on the display unit 9 is fixed as the moving image “CLIP — 013”.

次に、ステップT123において、第2の再生機103であるVideo-Aに割り当てた映像チャネル「CTA#1」を開放する。これにより、ステップT175において、映像チャネル「CTA#1」の開放を受けて第2の再生機103であるVideo-Aの接続が断たれることになる。   Next, in step T123, the video channel “CTA # 1” assigned to Video-A as the second player 103 is released. As a result, in step T175, the video channel “CTA # 1” is released and the connection of Video-A, which is the second player 103, is disconnected.

次に、ステップT124において、ネットワークコントローラ3は、第3の再生機104であるVideo-Bが映像を再生するための映像チャネル「CTA#1」をピコネット上のスーパーフレームに割り当てる。この時点でスーパーフレーム1524は、図10に示すような状態になる。このステップT124は、図6のステップS13に相当する。   Next, in step T124, the network controller 3 assigns the video channel “CTA # 1” for the Video-B, which is the third playback device 104, to play back the video to the superframe on the piconet. At this point, the super frame 1524 is in the state shown in FIG. This step T124 corresponds to step S13 in FIG.

次に、ステップT125において、割り当てた映像チャネル「CTA#1」に動画「CLIP_009」の再生を準備するための再生一時停止を行うように、第3の再生機104であるVideo-Bに対して、無線部2を介して指示信号を送る。この指示は、スーパーフレームのCAP1825に、図10に示すようなメッセージを流すことによりなされる。   Next, in step T125, for the video player B, which is the third player 104, so as to perform playback pause for preparing the playback of the movie “CLIP — 009” for the assigned video channel “CTA # 1”. Then, an instruction signal is sent via the wireless unit 2. This instruction is made by sending a message as shown in FIG. 10 to the superframe CAP 1825.

一方、ステップT181において、第3の再生機104であるVideo-Bは、再生して一時停止する指示信号を、無線部59を介して受信する。そして、デコーダ54は、記憶部53に記憶されている動画「CLIP_009」の先頭フレームのみを再生してデコードし、一時停止状態とする。そして、割り当てられた映像チャネル「CTA#1」に対して、デコードされた動画「CLIP_009」の先頭フレームを無線部2よりネットワークパケットとして送信する。   On the other hand, in step T181, Video-B as the third playback device 104 receives an instruction signal for playback and pause via the wireless unit 59. Then, the decoder 54 reproduces and decodes only the first frame of the moving image “CLIP — 009” stored in the storage unit 53, and sets the pause state. Then, the first frame of the decoded moving picture “CLIP — 009” is transmitted as a network packet from the wireless unit 2 to the assigned video channel “CTA # 1”.

次に、ステップT126において、CPU11は、DMAC4の制御情報を第3のフレームメモリ21に蓄積する制御情報に、変更する。そして、DMAC4は、割り当てた映像チャネル「CTA#1」で受信した動画「CLIP_009」の先頭フレームを第3のフレームメモリ21に一旦蓄積する。そして、ステップT127において、CPU11は、選択部31の制御情報を第3のフレームメモリ21から読み出す制御情報に変更する。そして、合成部8は、動画「CLIP_009」の先頭フレームを表示部9に表示する。この時点で表示部9には動画「CLIP_009」の先頭フレームが表示される。このステップT126及びT127は図6のステップS15に相当する。   Next, in step T <b> 126, the CPU 11 changes the control information of the DMAC 4 to control information stored in the third frame memory 21. Then, the DMAC 4 temporarily stores the first frame of the moving image “CLIP — 009” received through the assigned video channel “CTA # 1” in the third frame memory 21. In step T <b> 127, the CPU 11 changes the control information of the selection unit 31 to control information read from the third frame memory 21. Then, the synthesizing unit 8 displays the first frame of the moving image “CLIP — 009” on the display unit 9. At this time, the display unit 9 displays the first frame of the moving image “CLIP — 009”. Steps T126 and T127 correspond to step S15 in FIG.

次に、ステップT128において、割り当てた映像チャネル「CTA#1」に一時停止している動画「CLIP_009」の再生を再開するように、第3の再生機104であるVideo-Bに対して、無線部2より指示信号を送る。この指示は、スーパーフレームのCAP1828に、図10に示すようなメッセージを流すことによりなされる。   Next, in Step T128, wirelessly is transmitted to Video-B, which is the third playback device 104, so that the playback of the movie “CLIP — 009” paused on the assigned video channel “CTA # 1” is resumed. An instruction signal is sent from unit 2. This instruction is made by sending a message as shown in FIG. 10 to the CAP 1828 of the superframe.

一方、ステップT182において、第3の再生機104であるVideo-Bは、再生を再開する指示信号を、無線部59を介して受信する。そして、デコーダ54は、記憶部53に記憶されている動画「CLIP_009」のデータの再生を再開してデコードする。そして、割り当てた映像チャネル「CTA#1」に対して、デコードされた非圧縮の動画「CLIP_009」のデータを無線部2よりネットワークパケットとして送信する。   On the other hand, in step T <b> 182, Video-B, which is the third playback device 104, receives an instruction signal for restarting playback via the wireless unit 59. Then, the decoder 54 resumes and decodes the data of the moving image “CLIP — 009” stored in the storage unit 53. Then, the data of the decoded uncompressed video “CLIP — 009” is transmitted as a network packet from the wireless unit 2 to the allocated video channel “CTA # 1”.

一方、表示機901側では、DMAC4は、割り当てた映像チャネル「CTA#1」で無線部2を介して受信した動画「CLIP_009」のデータを第3のフレームメモリ21に一旦蓄積する。そして、合成部8は、動画「CLIP_009」を表示部9に表示する。この時点で表示部9には動画「CLIP_009」の表示が開始される。   On the other hand, on the display device 901 side, the DMAC 4 temporarily stores the data of the moving image “CLIP — 009” received via the wireless unit 2 on the assigned video channel “CTA # 1” in the third frame memory 21. Then, the composition unit 8 displays the moving image “CLIP — 009” on the display unit 9. At this time, the display unit 9 starts displaying the moving image “CLIP — 009”.

次に、ステップT129において、第3の再生機104であるVideo-Bに対して、連続して動画「CLIP_010」を再生するように無線部2より指示信号を送る。この指示は、スーパーフレームのCAP1829に、図10に示すようなメッセージを流すことによりなされる。   Next, in step T129, an instruction signal is sent from the wireless unit 2 to Video-B, which is the third player 104, so as to continuously play the moving image “CLIP_010”. This instruction is made by sending a message as shown in FIG. 10 to the CAP 1829 of the super frame.

一方、ステップT183において、第3の再生機104であるVideo-Bは、連続再生の指示信号を、無線部59を介して受信する。そして、CPU56は、動画「CLIP_010」を再生キューに登録する。   On the other hand, in step T183, Video-B, which is the third playback device 104, receives an instruction signal for continuous playback via the wireless unit 59. Then, the CPU 56 registers the moving image “CLIP_010” in the reproduction queue.

そして、ステップT184において、第3の再生機104であるVideo-Bは、動画「CLIP_009」の再生が終了するまで待機する。また、表示機901でも、動画「CLIP_009」の表示が終了するまで待機する。この表示機901が待機する処理ステップは図6のステップS17に相当する。   In step T184, Video-B, which is the third playback device 104, stands by until the playback of the movie “CLIP — 009” is completed. Further, the display device 901 also waits until the display of the moving image “CLIP — 009” is completed. The processing step in which the display 901 waits corresponds to step S17 in FIG.

次に、ステップT185において、動画「CLIP_009」の再生が終了すると、デコーダ54は、再生キューに登録した、記憶部53に記憶されている動画「CLIP_010」のデータの再生を開始してデコードする。そして、割り当てた映像チャネル「CTA#1」に対して、デコードされた非圧縮の動画「CLIP_010」のデータを無線部2よりネットワークパケットとして送信する。   Next, when the reproduction of the moving image “CLIP — 009” is completed in step T185, the decoder 54 starts reproducing the data of the moving image “CLIP — 010” stored in the storage unit 53 and registered in the reproduction queue and decodes it. Then, the data of the decoded uncompressed video “CLIP — 010” is transmitted from the wireless unit 2 as a network packet to the allocated video channel “CTA # 1”.

一方、表示機901側では、DMAC4は、割り当てた映像チャネル「CTA#1」で無線部2を介して受信した動画「CLIP_010」のデータを第3のフレームメモリ21に一旦蓄積する。そして、合成部8は、動画「CLIP_010」を表示部9に表示する。この時点で表示部9には動画「CLIP_010」の表示が開始される。   On the other hand, on the display device 901 side, the DMAC 4 temporarily stores the data of the moving image “CLIP — 010” received via the wireless unit 2 in the assigned video channel “CTA # 1” in the third frame memory 21. Then, the composition unit 8 displays the moving image “CLIP_010” on the display unit 9. At this time, the display unit 9 starts displaying the moving image “CLIP — 010”.

そして、ステップT186において、第3の再生機104であるVideo-Bは、動画「CLIP_010」の再生が終了するまで待機する。また、表示機901でも、動画「CLIP_010」の表示が終了するまで待機する。この表示機901が待機する処理ステップは、図6のステップS17に相当する。   In step T186, Video-B, which is the third playback device 104, stands by until the playback of the movie “CLIP_010” is completed. The display 901 also waits until the display of the moving image “CLIP — 010” is completed. The processing step in which the display 901 waits corresponds to step S17 in FIG.

次に、ステップT187において、動画「CLIP_010」の再生が終了すると、第3の再生機104であるVideo-Bは、再生が終了したことを通知する信号を表示機901に無線部59を介して送信する。この通知は、スーパーフレームのCAP1887に、図10に示すようなメッセージを流すことによりなされる。   Next, when the reproduction of the moving image “CLIP — 010” is completed in Step T187, Video-B which is the third reproduction device 104 sends a signal notifying the completion of the reproduction to the display device 901 via the wireless unit 59. Send. This notification is made by sending a message as shown in FIG. 10 to the CAP 1887 of the superframe.

次に、ステップT130において、合成部8は、スライドショーが完了した旨の表示を表示部9に表示する。この時点で表示部9にはスライドショーが完了した状態の画面が表示される。以上のような手順により表示機901は、フレームメモリの切り替え、蓄積の一時停止、及び再生の指示を繰り返してスライドショーの表示を行う。   Next, in step T130, the composition unit 8 displays a display indicating that the slide show has been completed on the display unit 9. At this point, the display unit 9 displays a screen in a state where the slide show is completed. The display device 901 displays the slide show by repeating the switching of the frame memory, the pause of the accumulation, and the reproduction instruction by the procedure as described above.

また、本実施形態では、伝送する映像フォーマットとして非圧縮ストリーム形式を用いたが、圧縮フォーマットを用いることも可能である。その場合は、第1の再生機102〜第4の再生機105にエンコーダ52とは別に伝送用映像エンコーダを付加し、表示機101にはそれらに対応したデコーダを搭載すればよい。その他の構成は、本実施形態と同様にして本発明を適用することが可能である。   In this embodiment, an uncompressed stream format is used as a video format to be transmitted. However, a compressed format can also be used. In that case, a transmission video encoder may be added to the first player 102 to the fourth player 105 in addition to the encoder 52, and a decoder corresponding to them may be mounted on the display 101. For other configurations, the present invention can be applied in the same manner as in this embodiment.

また、再生機において、縦横回転再生機能を有しない場合を想定して、表示機101において縦横回転させるようにしてもよい。この場合、例えば、合成部8で表示する方向(縦/横)に合わせるように画像を回転させる機能を備えることにより実現が可能である。   Further, assuming that the playback device does not have a vertical / horizontal rotation playback function, the display device 101 may be rotated vertically and horizontally. In this case, for example, it can be realized by providing a function of rotating an image so as to match the display direction (vertical / horizontal) in the combining unit 8.

以上のように本実施形態においては、表示機901にフレームメモリを2つ設けることによって、1本の伝送路のみでチャネルを割り当てて実施することが可能とある。このように本実施形態では、無線ネットワークの帯域を削減することが可能となる。   As described above, in this embodiment, by providing two frame memories in the display device 901, it is possible to allocate and implement a channel using only one transmission path. Thus, in this embodiment, it is possible to reduce the bandwidth of the wireless network.

(第3の実施形態)
本実施形態では、表示機が取得した撮影情報に含まれるメタデータを利用して、表示機と再生機とが連携して画像の表示画質を向上させる例について説明する。なお、本実施形態のネットワーク構成等は第1の実施形態と同様であるため、第1の実施形態と異なる点についてのみ説明する。
(Third embodiment)
In the present embodiment, an example will be described in which metadata included in shooting information acquired by a display device is used to improve the display quality of an image in cooperation between the display device and a playback device. Note that since the network configuration and the like of this embodiment are the same as those of the first embodiment, only differences from the first embodiment will be described.

図11及び図12は、本実施形態における画質向上方法の一例を示す概念図である。
人間が知覚することが可能な色域91と撮像可能な色域(不図示)とは異なっており、再生機が保持する画像が、例えば、第1の色域92をもつ色空間で保存されているものとする。また、表示機でも表示可能な固有の第2の色域94をもっているものとする。一般的には、第1の色域92と第2の色域94とは同じではないことが多い。
11 and 12 are conceptual diagrams showing an example of the image quality improvement method in the present embodiment.
A color gamut 91 that can be perceived by humans is different from a color gamut that can be captured (not shown), and an image held by a playback device is stored in a color space having a first color gamut 92, for example. It shall be. Also, it is assumed that the display device has a unique second color gamut 94 that can be displayed on the display. In general, the first color gamut 92 and the second color gamut 94 are often not the same.

一方、ビデオ信号の伝送においては、多様な機器が持つ固有の色域によらず表示される映像の互換性を持たせるために、映像信号は、例えば、共通色域93を持つ伝送規格色空間で規定されている。この色空間の共通色域93は標準的な機器で広く対応できるようにしているため、一般的にはあまり領域が広くない。   On the other hand, in the transmission of video signals, the video signal is, for example, a transmission standard color space having a common color gamut 93 in order to make the displayed video compatible regardless of the inherent color gamut of various devices. It is stipulated in. Since the common color gamut 93 of this color space can be widely handled by standard equipment, the area is generally not so wide.

以上のような技術背景により、再生機が保持する画像を表示機において表示する場合には、画像データの色空間を映像規格の色空間に変換して伝送する。この過程で画像データが持つ色域は第1の色域92から共通色域93へ縮小される。表示機では受信した画像データを、第2の色域94を持つ表示機101の色空間に変換して表示する。しかし、一度縮小された色域は再変換しても広い色域に戻すことができないため、表示機101で表示される画像は伝送規格色空間の持つ共通色域93と同じ広さの第3の色域95で表示される。   Due to the above technical background, when an image held by a playback device is displayed on a display device, the color space of image data is converted into a color space of a video standard and transmitted. In this process, the color gamut of the image data is reduced from the first color gamut 92 to the common color gamut 93. The display device converts the received image data into the color space of the display device 101 having the second color gamut 94 and displays it. However, once the reduced color gamut cannot be restored to a wide color gamut even after re-conversion, the image displayed on the display device 101 is a third color having the same width as the common color gamut 93 of the transmission standard color space. The color gamut 95 is displayed.

そこで本実施形態においては、再生機からは本来の色空間による画像の再生を行い、映像規格の色空間への変換を伴わずに、直接、表示機の色空間に変換することにより、第4の色域96で示されるように広色域で表示することを提供する。   Therefore, in the present embodiment, the playback device reproduces an image in the original color space, and directly converts it into the color space of the display device without converting it to the color space of the video standard. Display in a wide color gamut, as indicated by the color gamut 96 of FIG.

具体的には、図6のフローチャートにおいて、以下の手順によって表示色域を拡大する。
図6のステップS8においては、再生機200が保持している画像のメタデータとして、保存されている色空間情報も同時に取得する。
Specifically, in the flowchart of FIG. 6, the display color gamut is expanded by the following procedure.
In step S8 of FIG. 6, the color space information stored as the metadata of the image held by the playback device 200 is also acquired at the same time.

また、ステップS14においては、画像の本来の色空間で再生を行うように再生機200に指示する。そして、ステップS15においては、予め取得した色空間情報に基づいた画像処理を行った上で画像を表示する。その他については第1のまたは第2の実施形態と同様の手順によって広色域表示による画質向上をもたらすことが可能となる。具体的には、例えば、表示機101に色空間変換部を設け、入力された画像データを一度、色空間変換部を経由して表示部9に画像を表示する。   In step S14, the playback device 200 is instructed to perform playback in the original color space of the image. In step S15, an image is displayed after performing image processing based on color space information acquired in advance. In other respects, the image quality can be improved by wide color gamut display by the same procedure as in the first or second embodiment. Specifically, for example, the display device 101 is provided with a color space conversion unit, and the input image data is displayed once on the display unit 9 via the color space conversion unit.

本実施形態では、画像に付随するメタデータとして色空間情報を利用する例について詳細に説明したが、その他の特性の情報についても同様にして本発明を適用することが可能である。例えば、撮影時における撮像方向(縦/横)に応じて自動的に画像の回転操作を行う場合でも本実施形態と同様の手順によってユーザの利便性を向上させることが可能である。   In this embodiment, an example in which color space information is used as metadata attached to an image has been described in detail. However, the present invention can be similarly applied to information of other characteristics. For example, even when an image rotation operation is automatically performed according to an imaging direction (vertical / horizontal) at the time of shooting, it is possible to improve user convenience by the same procedure as in the present embodiment.

具体的には、ステップS8において、表示機101が、まず、画像に付随するメタデータとして撮像時における撮像方向の情報を取得する。そして、ステップS14において、表示機101で表示する方向(縦/横)に合わせるように再生機で再生するように指示する。また、画像のサイズや動画のフレームレート等が異なる画像を同時に扱う場合においても、表示機101で表示するサイズやフレームレートに合わせて再生するように指示すればよい。   Specifically, in step S8, the display device 101 first acquires information on the imaging direction at the time of imaging as metadata accompanying the image. Then, in step S14, an instruction is given to reproduce on the reproducing device so as to match the display direction (vertical / horizontal) on the display device 101. Further, even when images having different image sizes, moving image frame rates, and the like are handled at the same time, it may be instructed to reproduce in accordance with the size and frame rate displayed on the display device 101.

(第4の実施形態)
第1及び第2の実施形態では、表示部9に表示する画像が1枚である例について説明したが、本実施形態では、画像の表示形態として複数の画像を同時に表示する場合の例について説明する。
(Fourth embodiment)
In the first and second embodiments, an example in which one image is displayed on the display unit 9 has been described. In the present embodiment, an example in which a plurality of images are simultaneously displayed as an image display mode will be described. To do.

図13は、本実施形態における表示機1301の構成例を示すブロック図である。なお、ネットワーク構成及び再生機の構成については、第1の実施形態と同様である。
図13において、第4のフレームメモリ22及び第5のフレームメモリ23は、第1のフレームメモリ7と同様に、DMAC4から送られてきた画像データを蓄積するためのものである。レイアウト合成部32は、任意のフレームメモリからの画像を同時に読み出して出力画面にレイアウトの合成を行い、合成した画像を表示部9に表示する制御を行う。
FIG. 13 is a block diagram illustrating a configuration example of the display device 1301 in the present embodiment. The network configuration and the playback device configuration are the same as those in the first embodiment.
In FIG. 13, the fourth frame memory 22 and the fifth frame memory 23 are for accumulating the image data sent from the DMAC 4, similarly to the first frame memory 7. The layout synthesizing unit 32 performs control to simultaneously read out images from arbitrary frame memories, synthesize the layout on the output screen, and display the synthesized image on the display unit 9.

解像度変換部33は、ネットワークコントローラ3もしくはデコーダ6から出力された画像データを、DMAC4を経由して受け取り、拡大もしくは縮小を行う。DMAC4は、拡大もしくは縮小された画像データを解像度変換部33から受け取り、第1のフレームメモリ7、第3のフレームメモリ21〜第5のフレームメモリ23に蓄積する。なお、その他の構成については第2の実施形態と同様であるため、説明は省略する。   The resolution conversion unit 33 receives the image data output from the network controller 3 or the decoder 6 via the DMAC 4, and performs enlargement or reduction. The DMAC 4 receives the enlarged or reduced image data from the resolution conversion unit 33 and stores it in the first frame memory 7 and the third frame memory 21 to the fifth frame memory 23. Since other configurations are the same as those of the second embodiment, description thereof is omitted.

図14は、入力された画像を全画面表示する場合の動作例を示す概念図である。
例えば、1920×1080画素の解像度の画像「CLIP_014」に対しては、解像度変換部33において1倍の解像度変換を行う。その後、レイアウト合成部32においてレイアウト1402を図14に示すように全画面表示する。なお、この時のスーパーフレーム1401は、図14に示すような状態である。
FIG. 14 is a conceptual diagram illustrating an operation example when an input image is displayed on a full screen.
For example, for the image “CLIP — 014” having a resolution of 1920 × 1080 pixels, the resolution conversion unit 33 performs one-time resolution conversion. Thereafter, the layout composition unit 32 displays the layout 1402 in full screen as shown in FIG. Note that the super frame 1401 at this time is in a state as shown in FIG.

図15は、入力された画像を縮小して画面の一部に表示する場合の動作例を示す概念図である。
例えば、1280×720画素の解像度の画像「CLIP_014」に対しては、解像度変換部33において3/4倍の解像度変換を行う。その後、レイアウト合成部32において、画面上に適宜配置したレイアウト1502を、図15に示すように、1920×1080画素の画面において960×540画素のウインドウとして表示する。なお、この時のスーパーフレーム1511は、図15に示すような状態である。
FIG. 15 is a conceptual diagram illustrating an operation example when an input image is reduced and displayed on a part of the screen.
For example, for the image “CLIP — 014” having a resolution of 1280 × 720 pixels, the resolution conversion unit 33 performs 3/4 times resolution conversion. Thereafter, the layout composition unit 32 displays the layout 1502 appropriately arranged on the screen as a window of 960 × 540 pixels on a screen of 1920 × 1080 pixels as shown in FIG. The super frame 1511 at this time is in a state as shown in FIG.

本実施形態では、解像度変換部33を経由するので、最終的なレイアウトによらず、再生機において再生する画像データがどのような解像度であっても対応が可能である。ただし、画質の劣化を考慮すると、再生機から出力される画像データは、レイアウトとして出力されるウインドウサイズよりも大きい画像サイズであることが望ましい。   In the present embodiment, since it passes through the resolution conversion unit 33, it is possible to cope with any resolution of the image data to be reproduced on the reproducing apparatus regardless of the final layout. However, in consideration of image quality degradation, it is desirable that the image data output from the playback device has an image size larger than the window size output as a layout.

一方、再生機によっては標準的な解像度しかサポートしない場合もある。この場合、再生機側において映像規格で定められる標準解像度を選択するように表示機側から指示することが望ましい。さらに、映像伝送路の帯域を削減することも考慮すると、結論として所望のウインドウサイズよりも大きい標準解像度のうち、最小サイズの解像度を再生機側で選択するように表示機側から指示することが最も好ましい。   On the other hand, some players only support standard resolutions. In this case, it is desirable to instruct from the display device side to select the standard resolution defined by the video standard on the playback device side. Furthermore, when considering reducing the bandwidth of the video transmission path, it is concluded that the display unit may instruct the player to select the minimum resolution among the standard resolutions larger than the desired window size. Most preferred.

図16は、複数の画像データを入力して、画面上に2つの画像を同時に表示する場合の動作例を示す概念図である。
例えば、1280×720画素の解像度の画像「CLIP_014」が960×540画素に解像度変換され、720×480画素の解像度の画像「CLIP_009」が640×360画素に解像度変換されたものとする。その後、レイアウト合成部32において、画面上に適宜配置されたレイアウト1602を作成する。図16に示すように、1920×1080画素の画面中において、960×540画素のウインドウと640×360画素のウインドウとが表示される。その他、画像を表示する全体的な処理の流れは第2の実施形態と同様であるため、説明は省略する。
FIG. 16 is a conceptual diagram illustrating an operation example when a plurality of image data is input and two images are simultaneously displayed on the screen.
For example, it is assumed that an image “CLIP — 014” having a resolution of 1280 × 720 pixels is converted to 960 × 540 pixels, and an image “CLIP — 009” having a resolution of 720 × 480 pixels is converted to 640 × 360 pixels. Thereafter, the layout composition unit 32 creates a layout 1602 appropriately arranged on the screen. As shown in FIG. 16, a 960 × 540 pixel window and a 640 × 360 pixel window are displayed in a 1920 × 1080 pixel screen. In addition, since the overall processing flow for displaying an image is the same as that in the second embodiment, description thereof is omitted.

以上のように本実施形態によれば、受信した画像データの解像度を変換して、複数の画像を同時に表示することができる。また、本実施形態では、再生機の出力解像度が標準解像度である場合について説明した。しかし、再生機に自由な倍率で解像度変換を行う機能が備わっている場合には、表示機側から最終的に表示する解像度を再生機に指示し、再生機側でその解像度に変換して画像データを伝送することも可能である。この場合には、解像度変換を行う回数が少なくなるので、スライドショーで高画質な画像を表示することが可能となる。   As described above, according to the present embodiment, the resolution of received image data can be converted and a plurality of images can be displayed simultaneously. In the present embodiment, the case where the output resolution of the playback device is the standard resolution has been described. However, if the playback device has a function to convert the resolution at any magnification, the display device will instruct the playback device to display the final resolution, and the playback device will convert the image to that resolution. It is also possible to transmit data. In this case, since the number of times of resolution conversion is reduced, it is possible to display a high-quality image in a slide show.

(本発明に係る他の実施形態)
前述した本発明の実施形態における画像表示装置を構成する各手段、並びに画像表示方法の各工程は、コンピュータのRAMやROMなどに記憶されたプログラムが動作することによって実現できる。このプログラム及び前記プログラムを記憶したコンピュータ読み取り可能な記憶媒体は本発明に含まれる。
(Other embodiments according to the present invention)
Each means constituting the image display apparatus and each step of the image display method in the embodiment of the present invention described above can be realized by operating a program stored in a RAM or ROM of a computer. This program and a computer-readable storage medium storing the program are included in the present invention.

また、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。   In addition, the present invention can be implemented as, for example, a system, apparatus, method, program, storage medium, or the like. Specifically, the present invention may be applied to a system including a plurality of devices. The present invention may be applied to an apparatus composed of a single device.

なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図6に示すフローチャートに対応したプログラム)を、システムまたは装置に直接、または遠隔から供給する場合も含む。そして、そのシステムまたは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。   The present invention includes a case where a software program (in the embodiment, a program corresponding to the flowchart shown in FIG. 6) for realizing the functions of the above-described embodiments is directly or remotely supplied to a system or apparatus. This includes the case where the system or the computer of the apparatus is also achieved by reading and executing the supplied program code.

したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, and the like.

プログラムを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどがある。さらに、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM、DVD−R)などもある。   Examples of the storage medium for supplying the program include a flexible disk, a hard disk, an optical disk, and a magneto-optical disk. Further, there are MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R) and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する方法がある。そして、前記ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記憶媒体にダウンロードすることによっても供給できる。   As another program supply method, there is a method of connecting to a homepage on the Internet using a browser of a client computer. It can also be supplied by downloading the computer program itself of the present invention or a compressed file including an automatic installation function from a homepage to a storage medium such as a hard disk.

また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

また、その他の方法として、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   As another method, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and encrypted from a homepage via the Internet to users who have cleared predetermined conditions. Download the key information to be solved. It is also possible to execute the encrypted program by using the key information and install the program on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。さらに、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Further, the functions of the above-described embodiments are realized by the computer executing the read program. Furthermore, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can be realized by the processing.

さらに、その他の方法として、まず記憶媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。そして、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現される。   As another method, a program read from a storage medium is first written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Then, based on the instructions of the program, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are also realized by the processing.

本発明の第1の実施形態における画像表示システムの構成例を示す図である。It is a figure which shows the structural example of the image display system in the 1st Embodiment of this invention. 本発明の第1の実施形態における表示機の構成例を示すブロック図である。It is a block diagram which shows the structural example of the display machine in the 1st Embodiment of this invention. 本発明の第1の実施形態における再生機の構成例を示すブロック図である。It is a block diagram which shows the structural example of the reproducing | regenerating apparatus in the 1st Embodiment of this invention. 本発明の第1の実施形態の画像表示システムにおけるネットワーク構成の一例を示す概念図である。It is a conceptual diagram which shows an example of the network structure in the image display system of the 1st Embodiment of this invention. 本発明の第1の実施形態におけるネットワークの通信フレーム構造の概略を示す概念図である。It is a conceptual diagram which shows the outline of the communication frame structure of the network in the 1st Embodiment of this invention. 本発明の第1の実施形態に係る表示機によるピコネットの生成及びスライドショーの動作手順の一例を示すフローチャートである。It is a flowchart which shows an example of the production | generation procedure of the piconet by the display which concerns on the 1st Embodiment of this invention, and the operation | movement procedure of a slide show. 本発明の第1の実施形態において、結合された画像リストの一例を示す図である。FIG. 5 is a diagram illustrating an example of a combined image list in the first embodiment of the present invention. 本発明の第1の実施形態において、スライドショーの画像を表示する手順の一例を示すタイムチャートである。5 is a time chart showing an example of a procedure for displaying a slide show image in the first embodiment of the present invention. 本発明の第2の実施形態における表示機の構成例を示すブロック図である。It is a block diagram which shows the structural example of the display in the 2nd Embodiment of this invention. 本発明の第2の実施形態において、スライドショーの画像を表示する手順の一例を示すタイムチャートである。In the 2nd Embodiment of this invention, it is a time chart which shows an example of the procedure which displays the image of a slide show. 従来の映像伝送における色域の変化を示す概念図である。It is a conceptual diagram which shows the change of the color gamut in the conventional video transmission. 本発明の第3の実施形態による映像伝送における色域の変化を示す概念図である。It is a conceptual diagram which shows the change of the color gamut in the video transmission by the 3rd Embodiment of this invention. 本発明の第4の実施形態における表示機の構成例を示すブロック図である。It is a block diagram which shows the structural example of the display machine in the 4th Embodiment of this invention. 本発明の第4の実施形態において、入力された画像を全画面表示する場合の動作例を示す概念図である。In the 4th Embodiment of this invention, it is a conceptual diagram which shows the operation example in the case of displaying the input image in full screen. 本発明の第4の実施形態において、入力された画像を縮小して画面の一部に表示する場合の動作例を示す概念図である。It is a conceptual diagram which shows the operation example in the case of reducing the input image and displaying it on a part of screen in the 4th Embodiment of this invention. 本発明の第4の実施形態において、複数の画像データを入力して、画面上に2つの画像を同時に表示する場合の動作例を示す概念図である。In the 4th Embodiment of this invention, it is a conceptual diagram which shows the operation example in the case of inputting several image data and displaying two images on a screen simultaneously. ネットワーク構成の一例を示す概念図である。It is a conceptual diagram which shows an example of a network structure. 図17に示すネットワークの通信フレーム構造の概略を示す概念図である。It is a conceptual diagram which shows the outline of the communication frame structure of the network shown in FIG.

符号の説明Explanation of symbols

1 アンテナ
2 無線部
3 ネットワークコントローラ
4 DMAC
5 デジタルチューナ
6 デコーダ
7 第1のフレームメモリ
8 合成部
9 表示部
10 リモコン受信部
11 CPU
12 ROM
13 RAM
14 第2のフレームメモリ
51 撮像部
52 エンコーダ
53 記憶部
54 デコーダ
55 出力部
56 CPU
57 操作部
58 ネットワークコントローラ
59 無線部
60 アンテナ
101 表示機
102 第1の再生機
103 第2の再生機
104 第3の再生機
105 第4の再生機
1 Antenna 2 Radio Section 3 Network Controller 4 DMAC
5 Digital Tuner 6 Decoder 7 First Frame Memory 8 Combining Unit 9 Display Unit 10 Remote Control Receiver 11 CPU
12 ROM
13 RAM
14 Second frame memory 51 Imaging unit 52 Encoder 53 Storage unit 54 Decoder 55 Output unit 56 CPU
57 Operation unit 58 Network controller 59 Wireless unit 60 Antenna 101 Display device 102 First playback device 103 Second playback device 104 Third playback device 105 Fourth playback device

Claims (14)

複数の再生装置とネットワークを介して接続されており、前記複数の再生装置とともに画像表示システムを構成する画像表示装置であって、
前記複数の再生装置が保持する画像データの画像情報を取得する取得手段と、
前記取得手段によって取得された画像情報に基づいて画像を表示する順序を決定する決定手段と、
前記決定手段により決定された順序に基づき、前記複数の再生装置のうちのいずれかとの通信を行うためのチャネルを確保する確保手段と、
前記確保手段により確保されたチャネルを用いて、画像データを前記再生装置から受信する受信手段と、
前記受信手段によって受信された画像データに基づく画像を表示部に表示する表示手段とを有することを特徴とする画像表示装置。
An image display device connected to a plurality of playback devices via a network and constituting an image display system together with the plurality of playback devices,
Acquisition means for acquiring image information of image data held by the plurality of playback devices;
Determining means for determining an order of displaying images based on the image information acquired by the acquiring means;
Securing means for securing a channel for communicating with any one of the plurality of playback devices based on the order determined by the determining means;
Receiving means for receiving image data from the playback device using the channel secured by the securing means;
An image display apparatus comprising: a display unit configured to display an image based on the image data received by the receiving unit on a display unit.
前記決定手段によって決定された順序に基づいて、次に再生すべき画像データを保持する再生装置に対して前記画像データを再生して前記画像表示装置に送信するように指示する指示手段をさらに有し、
前記指示手段による指示は、前記確保手段により確保されたチャネルを示す情報を含むことを特徴とする請求項1に記載の画像表示装置。
Based on the order determined by the determining means, there is further provided instruction means for instructing a reproducing apparatus holding image data to be reproduced next to reproduce and transmit the image data to the image display apparatus. And
The image display apparatus according to claim 1, wherein the instruction by the instruction unit includes information indicating a channel secured by the securing unit.
前記受信手段によって受信された画像データをメモリに蓄積する蓄積手段をさらに有し、
前記表示手段は、前記蓄積手段により前記メモリに対する蓄積が停止されることによって、前記表示部に対する表示を一時停止し、
前記確保手段は、前記表示手段によって表示が一時停止された状態で、表示が一時停止された画像の次に表示されるべき画像データを保持する再生装置とのチャネルを確保することを特徴とする請求項1又は2に記載の画像表示装置。
Further comprising storage means for storing the image data received by the receiving means in a memory;
The display means temporarily stops display on the display unit by stopping accumulation in the memory by the accumulation means,
The securing means secures a channel with a playback apparatus that holds image data to be displayed next to an image whose display has been paused in a state where the display has been suspended by the display means. The image display device according to claim 1.
前記画像表示装置は、複数のチャネルを用いて前記複数の再生装置と通信が可能であって、
前記確保手段は、前記決定手段により決定された順序が連続する画像データのそれぞれを保持する再生装置との通信のため、前記複数のチャネルを確保することを特徴とする請求項1又は2に記載の画像表示装置。
The image display device can communicate with the plurality of playback devices using a plurality of channels,
The said securing part reserves these several channels for communication with the reproducing | regenerating apparatus holding each of the image data in which the order determined by the said determination means continues. The said several channel is characterized by the above-mentioned. Image display device.
前記指示手段は、前記取得手段によって取得された画像情報に基づいて、前記再生装置において再生する画像データの特性を指示することを特徴とする請求項2に記載の画像表示装置。   The image display device according to claim 2, wherein the instruction unit instructs a characteristic of image data to be reproduced in the reproduction device based on the image information acquired by the acquisition unit. 前記受信手段によって受信された複数の画像データの解像度を変換する解像度変換手段と、
前記解像度変換手段によって前記解像度が変換された複数の画像データを合成する合成手段とをさらに有し、
前記表示手段は、前記合成手段によって合成された画像を前記表示部に表示することを特徴とする請求項1〜5の何れか1項に記載の画像表示装置。
Resolution conversion means for converting the resolution of a plurality of image data received by the receiving means;
Further comprising a combining unit that combines a plurality of pieces of image data having the resolution converted by the resolution converting unit,
The image display device according to claim 1, wherein the display unit displays the image combined by the combining unit on the display unit.
前記指示手段は、前記表示部に表示する解像度よりも大きい規格の解像度のうち、最も小さい解像度に変更して再生するように指示することを特徴とする請求項2に記載の画像表示装置。   The image display apparatus according to claim 2, wherein the instruction unit instructs to change the reproduction to the smallest resolution among the resolutions of a standard larger than the resolution displayed on the display unit. 前記表示手段は、前記取得手段によって取得された画像情報に基づいて、前記受信手段によって受信された画像データに基づく画像を回転させて前記表示部に表示することを特徴とする請求項1〜7の何れか1項に記載の画像表示装置。   8. The display unit according to claim 1, wherein the display unit rotates and displays an image based on the image data received by the receiving unit based on the image information acquired by the acquiring unit. The image display device according to any one of the above. 前記ネットワークが無線ネットワークであることを特徴とする請求項1〜8の何れか1項に記載の画像表示装置。   The image display apparatus according to claim 1, wherein the network is a wireless network. 前記受信手段は、非圧縮ストリーム形式である画像データを受信することを特徴とする請求項1〜9の何れか1項に記載の画像表示装置。   The image display device according to claim 1, wherein the receiving unit receives image data in an uncompressed stream format. 請求項1〜10の何れか1項に記載の画像表示装置と、前記複数の再生装置とを有することを特徴とする画像表示システム。   An image display system comprising: the image display device according to claim 1; and the plurality of playback devices. 複数の再生装置とネットワークを介して接続されており、前記複数の再生装置とともに画像表示システムを構成する画像表示装置における画像表示方法であって、
前記複数の再生装置が保持する画像データの画像情報を取得する取得工程と、
前記取得工程において取得した画像情報に基づいて画像を表示する順序を決定する決定工程と、
前記決定工程において決定された順序に基づき、前記複数の再生装置のうちのいずれかとの通信を行うためのチャネルを確保する確保工程と、
前記確保工程において確保されたチャネルを用いて、画像データを前記再生装置から受信する受信工程と、
前記受信工程において受信した画像データに基づく画像を表示部に表示する表示工程とを有することを特徴とする画像表示方法。
An image display method in an image display device that is connected to a plurality of playback devices via a network and constitutes an image display system together with the plurality of playback devices,
An acquisition step of acquiring image information of image data held by the plurality of playback devices;
A determination step for determining the order in which images are displayed based on the image information acquired in the acquisition step;
Based on the order determined in the determining step, a securing step for securing a channel for performing communication with any of the plurality of playback devices;
A receiving step of receiving image data from the playback device using the channel secured in the securing step;
And a display step of displaying an image based on the image data received in the reception step on a display unit.
複数の再生装置とネットワークを介して接続されており、前記複数の再生装置とともに画像表示システムを構成する画像表示装置においてコンピュータに実行させるプログラムであって、
前記複数の再生装置が保持する画像データの画像情報を取得する取得工程と、
前記取得工程において取得した画像情報に基づいて画像を表示する順序を決定する決定工程と、
前記決定工程において決定された順序に基づき、前記複数の再生装置のうちのいずれかとの通信を行うためのチャネルを確保する確保工程と、
前記確保工程において確保されたチャネルを用いて、画像データを前記再生装置から受信する受信工程と、
前記受信工程において受信した画像データに基づく画像を表示部に表示する表示工程とをコンピュータに実行させることを特徴とするプログラム。
A program that is connected to a plurality of playback devices via a network and that is executed by a computer in an image display device that constitutes an image display system together with the plurality of playback devices,
An acquisition step of acquiring image information of image data held by the plurality of playback devices;
A determination step for determining the order in which images are displayed based on the image information acquired in the acquisition step;
Based on the order determined in the determining step, a securing step for securing a channel for performing communication with any of the plurality of playback devices;
A receiving step of receiving image data from the playback device using the channel secured in the securing step;
A program causing a computer to execute a display step of displaying an image based on the image data received in the reception step on a display unit.
請求項13に記載のプログラムを記憶したことを特徴とするコンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 13.
JP2008255324A 2008-09-30 2008-09-30 Image display device, image display system, and image display method Pending JP2010085748A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008255324A JP2010085748A (en) 2008-09-30 2008-09-30 Image display device, image display system, and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008255324A JP2010085748A (en) 2008-09-30 2008-09-30 Image display device, image display system, and image display method

Publications (1)

Publication Number Publication Date
JP2010085748A true JP2010085748A (en) 2010-04-15

Family

ID=42249758

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008255324A Pending JP2010085748A (en) 2008-09-30 2008-09-30 Image display device, image display system, and image display method

Country Status (1)

Country Link
JP (1) JP2010085748A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014061074A1 (en) * 2012-10-15 2014-04-24 Necディスプレイソリューションズ株式会社 Display device and display control method
JP2014099043A (en) * 2012-11-14 2014-05-29 Oki Electric Ind Co Ltd Transaction device and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11212991A (en) * 1998-01-27 1999-08-06 Sharp Corp Image retrieving method, image retrieving device and computer readable record medium recording image retrieval program
JP2000048186A (en) * 1998-07-31 2000-02-18 Canon Inc Image processing system, its controlling method, image processor, and recording medium
JP2006309547A (en) * 2005-04-28 2006-11-09 Toshiba Corp Information processor and information processing method
JP2006333158A (en) * 2005-05-27 2006-12-07 Canon Inc Projection instrument
JP2007256310A (en) * 2006-03-20 2007-10-04 Seiko Epson Corp Image display system and server device
JP2008071229A (en) * 2006-09-15 2008-03-27 Onkyo Corp Network av system and controller
JP2008160426A (en) * 2006-12-22 2008-07-10 Canon Inc Network control device, image processors, control method for them, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11212991A (en) * 1998-01-27 1999-08-06 Sharp Corp Image retrieving method, image retrieving device and computer readable record medium recording image retrieval program
JP2000048186A (en) * 1998-07-31 2000-02-18 Canon Inc Image processing system, its controlling method, image processor, and recording medium
JP2006309547A (en) * 2005-04-28 2006-11-09 Toshiba Corp Information processor and information processing method
JP2006333158A (en) * 2005-05-27 2006-12-07 Canon Inc Projection instrument
JP2007256310A (en) * 2006-03-20 2007-10-04 Seiko Epson Corp Image display system and server device
JP2008071229A (en) * 2006-09-15 2008-03-27 Onkyo Corp Network av system and controller
JP2008160426A (en) * 2006-12-22 2008-07-10 Canon Inc Network control device, image processors, control method for them, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014061074A1 (en) * 2012-10-15 2014-04-24 Necディスプレイソリューションズ株式会社 Display device and display control method
JP2014099043A (en) * 2012-11-14 2014-05-29 Oki Electric Ind Co Ltd Transaction device and program

Similar Documents

Publication Publication Date Title
US8023802B2 (en) Image processing apparatus
JP4977950B2 (en) Multi-screen video playback system, video playback method and display device
KR100465553B1 (en) Video voice decoding device, video voice coding device and information transmission system
CN101977324A (en) Method for realizing screen sharing
CN107484011B (en) Video resource decoding method and device
CN101883097A (en) Method and device for realizing that server equipment shares screen of client equipment
CN103686342A (en) Method for playing network film and electronic device thereof
KR101106715B1 (en) The IP-Settop with function for playing media contents of individual portable device via Wireless network
JP2005269529A (en) Multi-screen video image reproducing system and video image reproducing method in multi-screen video image reproducing system
JP2010085748A (en) Image display device, image display system, and image display method
JP2006101338A (en) Television set
US10616724B2 (en) Method, device, and non-transitory computer-readable recording medium for supporting relay broadcasting using mobile device
JP4628030B2 (en) Multimedia content providing system, viewing device, and car navigation apparatus
JP2003169329A (en) Picture voice coding/decoding apparatus
JP2006295571A (en) Program recording/reproducing apparatus and system
US9590753B2 (en) Method and apparatus for multiple media output
US20070040897A1 (en) Video communication apparatus and video communication method
JP2010087827A (en) Transmission apparatus, receiving device, transmitting method, receiving method, program and recording medium
KR101906396B1 (en) Method, device and non-trnasitory computer-readable recording media for supporting relay broadcasting
JPWO2006006219A1 (en) Content transmission apparatus and content distribution system
JP2005175995A (en) Video server, digital television receiver, and video downloading system
KR101311931B1 (en) Method for reproducing in real-time the file receiving in non real-time transfer protocol and video apparatus using the same
JP2019075724A (en) Video transmission method, video transmission system, and selection device
KR101973190B1 (en) Transmitting system for multi channel image and controlling method
CN115529298B (en) System, method and device for transmitting dense video and audio

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131030

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140603