WO2016147538A1 - テレビ会議用通信装置 - Google Patents

テレビ会議用通信装置 Download PDF

Info

Publication number
WO2016147538A1
WO2016147538A1 PCT/JP2016/000629 JP2016000629W WO2016147538A1 WO 2016147538 A1 WO2016147538 A1 WO 2016147538A1 JP 2016000629 W JP2016000629 W JP 2016000629W WO 2016147538 A1 WO2016147538 A1 WO 2016147538A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
control unit
unit
audio
data
Prior art date
Application number
PCT/JP2016/000629
Other languages
English (en)
French (fr)
Inventor
剛志 滝田
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2015053438A external-priority patent/JP6481937B2/ja
Priority claimed from JP2015053432A external-priority patent/JP6172610B2/ja
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to US15/556,131 priority Critical patent/US10244207B2/en
Publication of WO2016147538A1 publication Critical patent/WO2016147538A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/567Multimedia conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/155Conference systems involving storage of or access to video conference sessions

Definitions

  • This disclosure relates to a teleconferencing communication apparatus that is provided at a host site and can be connected simultaneously with counterpart devices at a plurality of sites different from the host site.
  • a video conference system capable of performing a video conference by connecting simultaneously with counterpart devices at a plurality of bases is known (for example, Patent Document 1).
  • the data transmitted from each partner device is decoded for each partner device, the video data is synthesized every time decoding is completed, and the composite video data is displayed.
  • the video conference communication device is a video conference communication device that is provided at a host site and can be connected simultaneously with partner devices at a plurality of sites different from the host site, and is connected to each partner device via a network.
  • the communication control unit that receives the video data transmitted from each partner device, and before receiving the video data from the communication control unit, display a divided screen divided into the total number of bases for the video conference, and from the communication control unit And a display control unit that sequentially displays the received video data in each area of the divided screen.
  • the composite video can be displayed without changing the screen layout from the time of startup, the screen can be prevented from being unsightly for the viewer.
  • FIG. 1 is a block diagram showing the configuration of the video conference communication apparatus according to Embodiment 1.
  • FIG. 2 is a block diagram illustrating a configuration of the video / audio output control unit according to the first embodiment.
  • FIG. 3 is a state transition diagram illustrating state transition of the video conference system according to Embodiment 1.
  • FIG. 4 is a flowchart showing the operation of the video conference communication apparatus according to Embodiment 1.
  • FIGS. 5A to 5E are schematic diagrams illustrating an example of an image displayed on the screen according to the first embodiment.
  • FIG. 6 is a block diagram showing a configuration of the video conference system according to Embodiment 2.
  • FIG. 7 is a flowchart showing the operation of the video conference communication apparatus according to the second embodiment.
  • An object of the present disclosure is to provide a video conference communication device that can prevent an unsightly screen for a viewer.
  • the video conference communication device 1 and the partner device (conference participation base) 2, 3, 4 are installed at different bases.
  • the video conference communication device 1 can be connected to and disconnected from the partner devices 2, 3, 4 via the network 5.
  • the number of counterpart devices to which the video conference communication device 1 is connected is not limited to three, and can be changed to two or four or more as required.
  • the video conference communication device 1 transmits / receives audio data and video data via the network 5 after the connection is completed with each of the partner devices 2, 3, 4.
  • the network 5 is typically the Internet.
  • the video conference communication device 1 is connected to a user operation input device 6, a video input device 7, a voice input device 8, and a display device 9.
  • the user operation input device 6 detects an operation of selecting a site by the user, and transmits a signal including the selected site information indicating the selected site to the video conference communication device 1 by wire or wirelessly.
  • the user operation input device 6 is typically a remote control or a touch panel.
  • the video input device 7 outputs video data and the like obtained by photographing the base where the video conference communication device 1 is installed (hereinafter referred to as “host base”) to the video conference communication device 1.
  • the video data output from the video input device 7 includes video data stored on a PC, video data reproduced by a DVD player, and the like in addition to video data captured by the camera.
  • the voice input device 8 outputs the voice data obtained by collecting the voice of the host site to the video conference communication device 1.
  • the audio data output from the audio input device 8 includes audio data collected by a microphone, video data stored in a PC and audio data set, video data reproduced by a DVD player, and audio data set. There are data.
  • the display device 9 displays the video data output from the video conference communication device 1 on a screen and outputs the audio data output from the video conference communication device 1 from a speaker (not shown).
  • the video conference communication device 1 includes a user instruction receiving unit 101, a conference control unit 102, a communication control unit 103, a video / audio encoding / decoding unit 104, a video / audio synthesis unit 105, and a video / audio output. It mainly includes a control unit 106, a still image holding unit 107, a video input control unit 108, and an audio input control unit 109.
  • the video / audio synthesis unit 105 and the video / audio output control unit 106 constitute a display control unit.
  • the user instruction receiving unit 101 receives the signal transmitted from the user operation input device 6, extracts the selected base information included in the received signal, and outputs it to the conference control unit 102.
  • the conference control unit 102 receives data from the communication control unit 103, the video / audio encoding / decoding unit 104, and the video / audio synthesis unit 105 based on the selected base information input from the user instruction receiving unit 101. Control output timing. In addition, the conference control unit 102 outputs the selected base information input from the user instruction receiving unit 101 to the video / voice synthesis unit 105. In addition, the conference control unit 102 controls the transmission processing and call establishment processing in the communication control unit 103 based on the selected base information, and monitors whether video data has been received.
  • the communication control unit 103 operates at a timing according to the control of the conference control unit 102.
  • the communication control unit 103 establishes a call with the partner apparatuses 2, 3, 4. Then, after establishing the call, the communication control unit 103 receives the video data and audio data transmitted from each partner device 2, 3, 4 via the network 5, and sends them to the video / audio encoding / decoding unit 104. Output.
  • the communication control unit 103 transmits the video data and audio data input from the video / audio encoding / decoding unit 104 to each partner device 2, 3, 4 via the network 5.
  • the communication control unit 103 operates according to a predetermined communication protocol.
  • the communication protocol is typically SIP or H.264. H.323.
  • the video / audio encoding / decoding unit 104 operates at a timing according to the control of the conference control unit 102.
  • the video / audio encoding / decoding unit 104 encodes the video data input from the video / audio synthesis unit 105 and the audio data input from the audio input control unit 109 and outputs the encoded data to the communication control unit 103.
  • the video / audio encoding / decoding unit 104 decodes the video data and audio data from the counterpart devices 2, 3, and 4 input from the communication control unit 103 and outputs them to the video / audio synthesis unit 105.
  • the video / sound synthesis unit 105 operates at a timing according to the control of the conference control unit 102.
  • the video / audio synthesizing unit 105 includes video data input from the video / audio encoding / decoding unit 104, video data input from the video input control unit 108, and still image data read from the still image holding unit 107. Based on the number of bases of the selected base information input from the conference control unit 102, composite video data for generating and displaying video is generated and output to the video / audio output control unit 106.
  • the video / sound synthesis unit 105 synthesizes the synthesized voice obtained by synthesizing the voice data input from the video / audio encoding / decoding unit 104 and the voice data input from the voice input control unit 109. Data is generated and output to the video / audio output control unit 106. Further, the video / audio synthesis unit 105 outputs the video data input from the video input control unit 108 to the video / audio encoding / decoding unit 104. Details of the configuration of the video / sound synthesizer 105 will be described later.
  • the video / audio output control unit 106 displays the synthesized video data input from the video / sound synthesis unit 105 on the screen of the display device 9 and outputs the synthesized audio data from the speaker of the display device 9 as audio.
  • the still image holding unit 107 holds still image data for displaying a predetermined still image on the screen of the display device 9 in advance.
  • the predetermined still image is an image for informing the current communication status with the counterpart device until the video data is received from the counterpart devices 2, 3, and 4.
  • the video input control unit 108 outputs the video data input from the video input device 7 to the video / sound synthesis unit 105.
  • the audio input control unit 109 outputs the audio data input from the audio input device 8 to the video / audio encoding / decoding unit 104 and the video / audio synthesis unit 105.
  • the video / audio synthesis unit 105 includes a screen layout unit 201, a duplication unit 202, and a data allocation unit 203.
  • the screen layout unit 201 calculates the total number of bases (partner devices) of the selected base information input from the conference control unit 102 and outputs the total value to the duplication unit 202.
  • the screen layout unit 201 executes a layout setting process for setting a screen layout for displaying a divided screen divided into the total number of bases for the video conference in which “1” (host base) is added to the total number of bases.
  • the screen layout information indicating the screen layout is output to the data allocation unit 203.
  • the layout setting process includes a process of determining a screen area for displaying video data from each counterpart device.
  • the duplicating unit 202 duplicates the same number of still image data read from the still image holding unit 107 as the total value input from the screen layout unit 201 and outputs it to the data allocation unit 203 at the time of activation.
  • the data allocating unit 203 allocates the still image data input from the duplicating unit 202 to the screen layout of the screen layout information input from the screen layout unit 201 to generate composite video data, and sends it to the video / audio output control unit 106. Output.
  • the data allocating unit 203 switches the still image data to the video data every time video data from the partner device 2, 3, 4 is input from the video / audio encoding / decoding unit 104, and generates new synthesized video data. Is generated. At this time, the data allocation unit 203 updates the composite video data without changing the screen layout.
  • the video conference communication device 1 starts operating when the power is turned on.
  • the video conference communication device 1 is in a non-communication state immediately after being turned on (S1).
  • the video conference communication device 1 When the video conference communication device 1 is connected to one partner device 2 in the non-communication state (S 1), the video conference communication device 1 makes a call to the partner device 2 and receives a call from the partner device 2.
  • One communication state (1: 1 communication state) is entered (S2).
  • the video conference communication device 1 enters a non-communication state when the connection with the partner device 2 in the communication state is disconnected (S1).
  • the video conference communication device 1 ends the operation when the power is turned off in the non-communication state (S1).
  • a communication state (MCU communication state) is established with the partner device 2 and the partner device 3 at a plurality of bases (S3).
  • the video conference communication device 1 is in a one-to-one communication state if the connection with the partner device 3 in the communication state is disconnected (S2), and if the connection with the partner device 2 in the communication state is further disconnected.
  • a non-communication state is entered (S1).
  • the video conference communication device 1 makes a communication state (MCU communication state) with the partner devices 2, 3, 4 by simultaneously transmitting to the partner devices 2, 3, 4 in the non-communication state (S 1). (S3). Then, the video conference communication device 1 is brought into a non-communication state if the connections with the partner devices 2, 3, and 4 are disconnected all at once (S1).
  • a method of transmitting all at once a method in which a user manually inputs a destination to the video conference communication device 1 at the time of outgoing or a plurality of destination information stored in advance in the video conference communication device 1 is registered.
  • a method of allowing the user to select a list can be considered.
  • an IP address, a telephone number, an identification code, or the like can be considered.
  • FIG. 5 shows an example in which the video conference communication device 1 transmits all of the other devices 2, 3, and 4 at the same time.
  • the user instruction receiving unit 101 receives a signal from the user operation input device 6, extracts selected base information included in the received signal, and outputs it to the conference control unit 102.
  • the video / audio synthesis unit 105 determines a screen layout to be (N + 1) divided screens based on the selected base information input from the conference control unit 102 (S12).
  • the video / audio synthesis unit 105 reads the still image data from the still image holding unit 107 and controls the video / audio output control unit 106 to display the read still image data on each of the divided screens ( S13).
  • the video / audio synthesis unit 105 displays the video of the host site on the divided screen B1, as shown in FIG. 5A, and the remaining divided screens B2, B3, B4. Displays a still-calling still image.
  • the conference control unit 102 If the meeting control unit 102 satisfies the condition that there is a base that has not received video data, the conference control unit 102 sends a call to the partner device at the n-th base (n is an integer equal to or less than N) that has not received video data.
  • the communication control unit 103 is controlled to perform. As a result, the communication control unit 103 makes a call to the partner device at the nth base (S14).
  • the conference control unit 102 determines whether or not the communication control unit 103 has established a call (S15).
  • the conference control unit 102 displays a still image for the video / sound synthesis unit 105.
  • the video / audio synthesis unit 105 reads still image data from the still image holding unit 107.
  • the video / sound synthesizer 105 performs control for displaying a still image “in preparation for connection” on the divided screen B2 of the display device 9 as shown in FIG. 5B (S16). Thereafter, the flow returns to the process of S14.
  • the conference control unit 102 starts encoding and decoding of video data and audio data to the video / audio encoding / decoding unit 104. Then, control is performed to wait for reception of video data (S17).
  • the conference control unit 102 determines whether or not video data has been received from the counterpart device at the n-th base (S18).
  • the conference control unit 102 Controls the display of still images.
  • the video / audio synthesis unit 105 reads still image data from the still image holding unit 107.
  • the video / audio synthesizing unit 105 performs control for displaying the still image “in preparation for video” on the divided screens B3 and B4 of the display device 9 (S19). Thereafter, the flow returns to the process of S14.
  • the conference control unit 102 receives video data from the partner device at the n-th base (S18: YES), the video data from the partner device at the n-th base is sent to the video / audio synthesis unit 105. Is controlled (S20). As a result, the video / audio synthesis unit 105 performs control to display video on the divided screens B3 and B4 of the display device 9, as shown in FIG.
  • the conference control unit 102, the communication control unit 103, the video / audio encoding / decoding unit 104, and the video / audio synthesis unit 105 repeat the processing of S100 (S14 to S20) until the conditions for performing the processing of S100 are not satisfied.
  • the divided screen divided into the total number of bases for the video conference is displayed before receiving the video data, and the received video data is sequentially displayed on each of the divided screens.
  • the composite video without changing the screen layout from the start. This can prevent the screen from becoming unsightly for the viewer.
  • the viewer displays the video of each site by displaying the still image informing the current communication status on each of the divided screens. You can recognize the current state until.
  • the video conference communication device 1a shown in FIG. 6 adopts a configuration in which a recording / recording control unit 301 is added to the video conference communication device 1 shown in FIG. Further, in the video conference communication device 1a shown in FIG. 6, a video / audio synthesizer 105a is added instead of the video / audio synthesizer 105 of FIG.
  • the video conference communication device 1 a is connected to the recording / recording device 10 in the recording / recording control unit 301.
  • the recording / recording device 10 records audio data and video data input from the video conference communication device 1a (recording / recording control unit 301).
  • the video / audio synthesizing unit 105a receives video data from the partner apparatuses 2, 3, and 4 at all bases and generates synthesized video data at the timing when the synthesized video data is generated. Output data.
  • Other functions of the video / audio synthesis unit 105 a are the same as those of the video / audio synthesis unit 105.
  • the recording / recording control unit 301 causes the recording / recording apparatus 10 to record the synthesized video data and synthesized voice data input from the video / sound synthesis unit 105a.
  • FIG. 7 employs a configuration in which step S21 is added after step S100, as compared with FIG.
  • the recording / recording control unit 301 starts from the video / sound synthesis unit 105a. Recording of the input synthesized video data and synthesized voice data is started by the recording / recording apparatus 10 (S21).
  • the video data is not limited to the case where the video data is displayed on the divided screen of the display device every time the video data is received from the partner device without changing the screen layout.
  • the above-described effect can be obtained even when the video data is synthesized every time it is received and the synthesized video data is displayed while changing the layout of the screen every time the video data is received.
  • the timing of starting recording of video data such as the time when decoding of video data of all bases is completed or the time when processing in the layout setting process is completed to a predetermined ratio (for example, 80%). Recording of audio data may be started a little before.
  • the user may arbitrarily set the timing for starting recording of audio data.
  • Embodiment 1 and Embodiment 2 described above the case where a still image is displayed before video is displayed has been described, but the present disclosure is not limited to this, and characters such as messages other than still images are displayed. Information may be displayed.
  • the present disclosure is not limited to this, and different sizes can be used unless the screen layout is changed. You may make it display the divided screen divided
  • the still image is changed in the order of “during transmission”, “in preparation for connection”, “in preparation for video”, but the present disclosure is not limited to this, and the video is not limited to this. All the same still images may be displayed until they are displayed.
  • the content to be notified as a still image may be a still image other than the above as long as information indicating the current communication state is included.
  • the present disclosure is suitable for use in a video conference communication device that is provided at a host site and can be connected simultaneously with counterpart devices at a plurality of sites different from the host site.
  • Video Input Device 2 Audio Input Device 9 Display Device 10 Recording / Recording Device 101 User Instruction Reception Unit 102 Conference Control Unit 103 Communication Control Unit 104 Video / Voice Coding / Decoding Unit 105, 105a Video / Voice Synthesis Unit 106 video / audio output control unit 107 still image holding unit 108 video input control unit 109 audio input control unit 201 screen layout unit 202 replication unit 203 data allocation unit 301 recording / recording control unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Abstract

 テレビ会議用通信装置において、視聴者にとって見苦しい画面になることを防ぐ。 通信制御部(103)は、各相手装置(2)、(3)、(4)とネットワーク(5)を介して接続し、各相手装置(2)、(3)、(4)から送信された映像データを受信する。映像・音声合成部(105)および映像・音声出力制御部(106)は、表示装置(9)に、通信制御部(103)より映像データを受信する前にテレビ会議を行う拠点の総数に分割した分割画面を表示させ、通信制御部(103)より受信した映像データを分割画面の各領域に順次表示させる。

Description

テレビ会議用通信装置
 本開示は、ホスト拠点に設けられ、ホスト拠点と異なる複数の拠点の相手装置と同時に接続可能なテレビ会議用通信装置に関する。
 従来、複数の拠点の相手装置と同時に接続してテレビ会議を行うことが可能なテレビ会議システムが知られている(例えば、特許文献1)。かかるテレビ会議システムでは、各相手装置から送信されたデータを相手装置毎にデコードし、デコードを完了する毎に映像データを合成し、合成映像データを表示する。
特開2014-241525号公報
 本開示のテレビ会議用通信装置は、ホスト拠点に設けられ、ホスト拠点と異なる複数の拠点の相手装置と同時に接続可能なテレビ会議用通信装置であって、各相手装置とネットワークを介して接続し、各相手装置から送信された映像データを受信する通信制御部と、通信制御部より映像データを受信する前に、テレビ会議を行う拠点の総数に分割した分割画面を表示させ、通信制御部より受信した映像データを分割画面の各領域に順次表示させる表示制御部と、を具備する構成を採る。
 本開示によれば、起動時から画面のレイアウトを変更せずに合成映像を表示することができるので、視聴者にとって見苦しい画面になることを防ぐことができる。
図1は、実施の形態1に係るテレビ会議用通信装置の構成を示すブロック図である。 図2は、実施の形態1に係る映像・音声出力制御部の構成を示すブロック図である。 図3は、実施の形態1に係るテレビ会議システムの状態の遷移を示す状態遷移図である。 図4は、実施の形態1に係るテレビ会議用通信装置の動作を示すフロー図である。 図5(a)~(e)は、実施の形態1に係る画面に表示される映像の一例を示す模式図である。 図6は、実施の形態2に係るテレビ会議システムの構成を示すブロック図である。 図7は、実施の形態2に係るテレビ会議用通信装置の動作を示すフロー図である。
 実施の形態の説明に先立ち、従来の技術における問題点を簡単に説明する。従来のテレビ会議用通信装置は、デコードを完了する毎に画面のレイアウトを変更しながら合成映像を表示するので、視聴者には見苦しい画面になってしまっている。
 本開示の目的は、視聴者にとって見苦しい画面になることを防ぐことができるテレビ会議用通信装置を提供することである。
 以下、図面を適宜参照して、本開示の実施の形態につき、詳細に説明する。
 (実施の形態1)
 <テレビ会議用通信装置の構成および接続関係>
 まず、実施の形態1に係るテレビ会議用通信装置1の構成および接続関係について、図1を参照しながら詳細に説明する。
 テレビ会議用通信装置1および相手装置(会議参加拠点)2、3、4は、それぞれ、互いに異なる拠点に設置されている。テレビ会議用通信装置1は、相手装置2、3、4とネットワーク5を介して接続及び切断することができる。なお、テレビ会議用通信装置1が接続する相手装置の数は、3つに限らず、必要に応じて2つ又は4つ以上の数に変更することができる。
 テレビ会議用通信装置1は、各相手装置2、3、4との間で、接続完了後において、ネットワーク5を介して音声データ及び映像データの送信/受信を行う。ネットワーク5は、典型的にはインターネットである。
 テレビ会議用通信装置1は、ユーザ操作入力装置6、映像入力装置7、音声入力装置8および表示装置9と接続している。
 ユーザ操作入力装置6は、ユーザによる拠点を選択する操作を検出し、選択された拠点を示す選択拠点情報を含む信号を有線又は無線によりテレビ会議用通信装置1に送信する。ユーザ操作入力装置6は、典型的にはリモコン又はタッチパネルである。
 映像入力装置7は、テレビ会議用通信装置1が設置されている拠点(以下、「ホスト拠点」という)を撮影して得られた映像データ等をテレビ会議用通信装置1に出力する。なお、映像入力装置7が出力する映像データには、カメラが撮像した映像データの他に、PCに保存された映像データ、DVDプレーヤにより再生された映像データ等がある。
 音声入力装置8は、ホスト拠点の音声を収音して得られた音声データ等をテレビ会議用通信装置1に出力する。なお、音声入力装置8が出力する音声データには、マイクが収音した音声データの他に、PCに保存された映像データとセットの音声データ、DVDプレーヤにより再生された映像データとセットの音声データ等がある。
 表示装置9は、テレビ会議用通信装置1から出力された映像データを画面に表示すると共に、テレビ会議用通信装置1から出力された音声データを図示しないスピーカから出力する。
 テレビ会議用通信装置1は、ユーザ指示受信部101と、会議制御部102と、通信制御部103と、映像・音声符号化/復号部104と、映像・音声合成部105と、映像・音声出力制御部106と、静止画保持部107と、映像入力制御部108と、音声入力制御部109と、から主に構成される。なお、映像・音声合成部105と映像・音声出力制御部106とにより、表示制御部が構成される。
 ユーザ指示受信部101は、ユーザ操作入力装置6から送信された信号を受信し、受信信号に含まれている選択拠点情報を抽出し、会議制御部102に出力する。
 会議制御部102は、ユーザ指示受信部101から入力した選択拠点情報に基づいて、通信制御部103と、映像・音声符号化/復号部104と、映像・音声合成部105と、におけるデータの入出力のタイミングを制御する。また、会議制御部102は、ユーザ指示受信部101から入力した選択拠点情報を映像・音声合成部105に出力する。また、会議制御部102は、選択拠点情報に基づいて、通信制御部103における発信処理及び呼の確立処理を制御すると共に、映像データを受信したか否かを監視する。
 通信制御部103は、会議制御部102の制御に従ったタイミングで動作する。通信制御部103は、相手装置2、3、4との間で呼を確立する。そして、通信制御部103は、呼を確立した後、各相手装置2、3、4が送信した映像データ及び音声データを、ネットワーク5を介して受信し、映像・音声符号化/復号部104に出力する。また、通信制御部103は、呼を確立した後、映像・音声符号化/復号部104から入力した映像データ及び音声データを、ネットワーク5を介して各相手装置2、3、4に送信する。なお、通信制御部103は、所定の通信プロトコルに従って動作する。通信プロトコルは、典型的にはSIP又はH.323である。
 映像・音声符号化/復号部104は、会議制御部102の制御に従ったタイミングで動作する。映像・音声符号化/復号部104は、映像・音声合成部105から入力した映像データ、および、音声入力制御部109から入力した音声データを符号化して通信制御部103に出力する。また、映像・音声符号化/復号部104は、通信制御部103から入力した相手装置2、3、4からの映像データおよび音声データを復号して映像・音声合成部105に出力する。
 映像・音声合成部105は、会議制御部102の制御に従ったタイミングで動作する。映像・音声合成部105は、映像・音声符号化/復号部104から入力した映像データと、映像入力制御部108から入力した映像データと、静止画保持部107から読み出した静止画データと、に基づいて、会議制御部102から入力した選択拠点情報の拠点数に応じて映像を合成して表示するための合成映像データを生成し、映像・音声出力制御部106に出力する。また、映像・音声合成部105は、映像・音声符号化/復号部104から入力した相手装置2、3、4からの音声データと、音声入力制御部109から入力した音声データを合成した合成音声データを生成し、映像・音声出力制御部106に出力する。また、映像・音声合成部105は、映像入力制御部108から入力した映像データを映像・音声符号化/復号部104に出力する。なお、映像・音声合成部105の構成の詳細については後述する。
 映像・音声出力制御部106は、映像・音声合成部105から入力した合成映像データを表示装置9の画面に表示させると共に、合成音声データを表示装置9のスピーカから音声として出力させる。
 静止画保持部107は、所定の静止画を表示装置9の画面に表示させるための静止画データを予め保持している。所定の静止画は、それぞれの相手装置2、3、4から映像データを受信するまでの当該相手装置との現在の通信状況を報知する画像である。
 映像入力制御部108は、映像入力装置7から入力した映像データを映像・音声合成部105に出力する。
 音声入力制御部109は、音声入力装置8から入力した音声データを映像・音声符号化/復号部104および映像・音声合成部105に出力する。
 <映像・音声合成部の構成>
 次に、映像・音声合成部105の内部構成について、図2を参照しながら説明する。図2に示すように、映像・音声合成部105は、画面レイアウト部201と、複製部202と、データ割当部203と、を有している。
 画面レイアウト部201は、会議制御部102から入力した選択拠点情報の拠点(相手装置)数の合計値を算出して複製部202に出力する。また、画面レイアウト部201は、拠点数の合計値に「1」(ホスト拠点)を加算したテレビ会議を行う拠点の総数に分割した分割画面を表示させる画面レイアウトを設定するレイアウト設定処理を実行し、画面レイアウトを示す画面レイアウト情報をデータ割当部203に出力する。なお、レイアウト設定処理は、各相手装置からの映像データを表示する画面領域を決定する処理を含む。
 複製部202は、起動時において、静止画保持部107から読み出した静止画データを、画面レイアウト部201から入力した合計値と同じ数だけ複製してデータ割当部203に出力する。
 データ割当部203は、画面レイアウト部201から入力した画面レイアウト情報の画面レイアウトに対して、複製部202から入力した静止画データを割り当てて合成映像データを生成し、映像・音声出力制御部106に出力する。また、データ割当部203は、映像・音声符号化/復号部104から、相手装置2、3、4からの映像データを入力する毎に、静止画データを映像データに切り替えて新たな合成映像データを生成する。この際、データ割当部203は、画面レイアウトを変更せずに合成映像データを更新する。
 <テレビ会議用通信装置の接続状態の遷移>
 次に、テレビ会議用通信装置1の接続状態の遷移について、図3を参照しながら詳細に説明する。
 テレビ会議用通信装置1は、電源ONとなることにより動作を開始する。
 テレビ会議用通信装置1は、電源ONされた直後では非通信状態である(S1)。
 テレビ会議用通信装置1は、非通信状態(S1)において、1つの相手装置2と接続する場合、相手装置2に対して発信を行い、相手装置2から着信することにより、相手装置2と一対一の通信状態(1:1通信状態)になる(S2)。そして、テレビ会議用通信装置1は、1:1通信状態(S2)において、通信状態である相手装置2との接続を切断すると非通信状態になる(S1)。なお、テレビ会議用通信装置1は、非通信状態(S1)において、電源OFFとなることにより動作を終了する。
 また、テレビ会議用通信装置1は、1:1通信状態(S2)から、さらに他の相手装置3と接続する場合、相手装置3に対して発信を行い、相手装置3から着信することにより、複数の拠点の相手装置2及び相手装置3と通信状態(MCU通信状態)になる(S3)。
 そして、テレビ会議用通信装置1は、通信状態にある相手装置3との接続を切断すれば一対一の通信状態になり(S2)、さらに通信状態にある相手装置2との接続を切断すれば非通信状態になる(S1)。
 また、テレビ会議用通信装置1は、非通信状態(S1)において、相手装置2、3、4に対して一斉に発信することにより相手装置2、3、4と通信状態(MCU通信状態)になる(S3)。そして、テレビ会議用通信装置1は、相手装置2、3、4との接続を一斉に切断すれば非通信状態になる(S1)。
 一斉に発信する方法としては、ユーザが発信時に発信先をテレビ会議用通信装置1に手入力する方法、又は、テレビ会議用通信装置1に予め記憶させておいた複数の発信先情報を登録したリストをユーザに選択させる方法等が考えられる。また、発信先を特定する方法としては、IPアドレス、電話番又は識別コード等が考えられる。
 <テレビ会議用通信装置の動作>
 次に、テレビ会議用通信装置1の動作について、図4及び図5を参照しながら詳細に説明する。なお、図5は、テレビ会議用通信装置1が、相手装置2、3、4に対して一斉に発信する場合の例を示す。
 まず、ユーザ指示受信部101は、ユーザ操作入力装置6から信号を受信し、受信した信号に含まれる選択拠点情報を抽出して会議制御部102に出力する。
 会議制御部102は、選択拠点情報のN(Nは2以上の整数、図5ではN=3)拠点の相手装置2、3、4に一斉発信を行うように通信制御部103を制御する。これにより、通信制御部103は、相手装置2、3、4に一斉発信を行う(S11)。具体的には、会議制御部102は、選択拠点情報が複数の発信先情報を記録した1つのリストの情報である場合、そのリストに登録されている発信先情報の発信先の数により拠点数Nを認識することができる。
 また、映像・音声合成部105は、会議制御部102から入力した選択拠点情報に基づいて、(N+1)個の分割画面となる画面レイアウトを決定する(S12)。
 次に、映像・音声合成部105は、静止画保持部107から静止画データを読み出して、読み出した静止画データを分割画面の各々に表示させるように映像・音声出力制御部106を制御する(S13)。映像・音声合成部105は、全ての拠点が応答前である場合、図5(a)に示すように、分割画面B1にはホスト拠点の映像を表示し、残りの分割画面B2、B3、B4には「発信中」の静止画を表示する。
 会議制御部102は、映像データを受信していない拠点があるとの条件を満たしている場合、映像データを受信していないn番目(nはN以下の整数)の拠点の相手装置に発信を行うように通信制御部103を制御する。これにより、通信制御部103は、n番目の拠点の相手装置に発信を行う(S14)。
 次に、会議制御部102は、通信制御部103において呼を確立したか否かを判定する(S15)。
 会議制御部102は、n番目の拠点の相手装置が電源OFFである等により、通信制御部103において呼を確立していない場合(S15:NO)、映像・音声合成部105に対して静止画を表示させる制御を行う。これにより、映像・音声合成部105は、静止画保持部107から静止画データを読み出す。そして、映像・音声合成部105は、図5(b)に示すように表示装置9の分割画面B2に「接続準備中」の静止画を表示させるための制御を行う(S16)。その後、フローはS14の処理に戻る。
 一方、会議制御部102は、通信制御部103において呼を確立している場合(S15:YES)、映像・音声符号化/復号部104に対して映像データ及び音声データの符号化及び復号を開始し(S17)、映像データの受信待ちを行うように制御する。
 次に、会議制御部102は、n番目の拠点の相手装置から映像データを受信したか否かを判定する(S18)。
 会議制御部102は、低帯域であるためにパケットロスを生じる等により、n番目の拠点の相手装置から映像データを受信していない場合(S18:NO)、映像・音声合成部105に対して静止画を表示させる制御を行う。これにより、映像・音声合成部105は、静止画保持部107から静止画データを読み出す。そして、映像・音声合成部105は、図5(c)に示すように、表示装置9の分割画面B3、B4に「映像準備中」の静止画を表示させるための制御を行う(S19)。その後、フローはS14の処理に戻る。
 一方、会議制御部102は、n番目の拠点の相手装置から映像データを受信している場合(S18:YES)、映像・音声合成部105に対してn番目の拠点の相手装置からの映像データを表示させる制御を行う(S20)。これにより、映像・音声合成部105は、図5(d)に示すように、表示装置9の分割画面B3、B4に映像を表示させる制御を行う。
 会議制御部102、通信制御部103、映像・音声符号化/復号部104及び映像・音声合成部105は、S100の処理を行う条件を満たさなくなるまで、S100(S14からS20)の処理を繰り返す。
 これにより、全ての拠点からの映像データを受信した場合には、図5(e)に示すように、全ての分割画面B1、B2、B3、B4に映像が表示される。
 このように、本実施の形態によれば、テレビ会議を行う拠点の総数に分割した分割画面を、映像データを受信する前に表示させ、受信した映像データを分割画面の各々に順次表示させることにより、起動時から画面のレイアウトを変更せずに合成映像を表示することができる。これにより、視聴者にとって見苦しい画面になることを防ぐことができる。
 また、本実施の形態によれば、各相手装置から映像データを受信するまで、現在の通信状況を報知する静止画を分割画面の各々に表示させることにより、視聴者は各拠点の映像を表示するまでの現在の状態を認識することができる。
 (実施の形態2)
 <テレビ会議用通信装置の構成および接続関係>
 次に、実施の形態2に係るテレビ会議用通信装置1aの構成について、図6を参照しながら、以下に詳細に説明する。なお、図6に示すテレビ会議用通信装置1aにおいて、図1に示したテレビ会議用通信装置1と共通する構成部分については同一符号を付して、その説明を省略する。
 図6に示すテレビ会議用通信装置1aは、図1に示したテレビ会議用通信装置1に対して、録画・録音制御部301を追加した構成を採る。また、図6に示すテレビ会議用通信装置1aにおいて、映像・音声合成部105aが、図1の映像・音声合成部105の代わりに追加される。
 また、テレビ会議用通信装置1aは、録画・録音制御部301において、録画・録音装置10と接続する。
 録画・録音装置10は、テレビ会議用通信装置1a(録画・録音制御部301)から入力した音声データ及び映像データを記録する。
 映像・音声合成部105aは、全ての拠点の相手装置2、3、4から映像データを受信し、合成映像データを生成したタイミングで、録画・録音制御部301に対して合成映像データ及び合成音声データを出力する。その他の映像・音声合成部105aの機能は、映像・音声合成部105のものと同一である。
 録画・録音制御部301は、映像・音声合成部105aから入力した合成映像データ及び合成音声データを、録画・録音装置10に記録させる。
 <テレビ会議用通信装置の動作>
 次に、テレビ会議用通信装置1aの動作について、図7を参照しながら詳細に説明する。なお、図7において、図2と共通するステップについては同一符号を付して、その説明を省略する。
 図7は、図2と比較して、ステップS100の後に、ステップS21を追加した構成を採る。
 S100までの処理が完了し、全ての拠点の相手装置2、3、4から受信した映像データの合成映像データが生成されたタイミングで、録画・録音制御部301は、映像・音声合成部105aから入力した合成映像データおよび合成音声データの記録を、録画・録音装置10に開始させる(S21)。
 このように、本実施の形態によれば、複数の拠点の全ての映像を表示させた後に、合成映像データおよび合成音声データの記録を開始することができるので、不必要な映像データ、音声データを記録してしまうことを防止することができる。
 なお、本実施の形態では、実施の形態1のように、画面レイアウトを変更せずに相手装置から映像データを受信する毎に表示装置の分割画面に各々表示する場合に限らず、映像データを受信する毎に映像データを合成して、映像データを受信する毎に画面のレイアウトを変更しながら合成した映像データを表示する場合においても上記の効果を得ることができる。
 また、本実施の形態では、全ての拠点の映像データの復号が完了した時点や、レイアウト設定処理における処理が所定の割合(例えば80%)まで終了した時点等、映像データの記録を開始するタイミングよりも少し先行して、音声データの記録を開始してもよい。また、本実施の形態では、音声データの記録を開始するタイミングを、ユーザにより任意に設定できるようにしてもよい。
 なお、本開示は、部材の種類、配置、個数等は前述の実施の形態に限定されるものではなく、その構成要素を同等の作用効果を奏するものに適宜置換する等、発明の要旨を逸脱しない範囲で適宜変更可能であることはもちろんである。
 具体的には、上記実施の形態1及び実施の形態2では、映像を表示するまでに静止画を表示する場合について説明したが、本開示はこれに限られず、静止画以外のメッセージ等の文字情報を表示するようにしてもよい。
 また、上記実施の形態1及び実施の形態2では、同一の大きさに分割した分割画面を表示する場合について説明したが、本開示はこれに限られず、画面レイアウトを変更しなければ、異なる大きさに分割した分割画面又は一部重なった分割画面を表示するようにしてもよい。また、本開示では、画面の一部に分割画面を表示し、分割画面を割り当てない領域を黒画にしてもよいし、表示装置の画面における分割画面を割り当てない領域に静止画を表示してもよい。
 また、上記実施の形態1及び実施の形態2では、「発信中」、「接続準備中」、「映像準備中」の順に静止画を変化させたが、本開示はこれに限られず、映像が表示されまで全て同じ静止画でもよい。また、本開示では、静止画で報知する内容も現在の通信状況が分かる情報が含まれていれば上記以外の静止画でもよい。
 本開示は、ホスト拠点に設けられ、ホスト拠点と異なる複数の拠点の相手装置と同時に接続可能なテレビ会議用通信装置に用いるに好適である。
 1,1a テレビ会議用通信装置
 2,3,4 相手装置(会議参加拠点)
 6 ユーザ操作入力装置
 7 映像入力装置
 8 音声入力装置
 9 表示装置
 10 録画・録音装置
 101 ユーザ指示受信部
 102 会議制御部
 103 通信制御部
 104 映像・音声符号化/復号部
 105,105a 映像・音声合成部
 106 映像・音声出力制御部
 107 静止画保持部
 108 映像入力制御部
 109 音声入力制御部
 201 画面レイアウト部
 202 複製部
 203 データ割当部
 301 録画・録音制御部

Claims (2)

  1.  ホスト拠点に設けられ、前記ホスト拠点と異なる複数の拠点の相手装置と同時に接続可能なテレビ会議用通信装置であって、
     前記各相手装置とネットワークを介して接続し、前記各相手装置から送信された映像データを受信する通信制御部と、
     前記通信制御部より前記映像データを受信する前に、前記テレビ会議を行う拠点の総数に分割した分割画面を表示させ、前記通信制御部より受信した前記映像データを前記分割画面の各領域に順次表示させる表示制御部と、
     を具備するテレビ会議用通信装置。
  2.  前記表示制御部は、
     前記相手装置から前記映像データを受信するまで、前記相手装置との現在の通信状況を報知する静止画を前記分割画面の各領域に表示させる、
     請求項1記載のテレビ会議用通信装置。
PCT/JP2016/000629 2015-03-17 2016-02-08 テレビ会議用通信装置 WO2016147538A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/556,131 US10244207B2 (en) 2015-03-17 2016-02-08 Videoconference communication device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2015053438A JP6481937B2 (ja) 2015-03-17 2015-03-17 テレビ会議用通信装置
JP2015-053432 2015-03-17
JP2015-053438 2015-03-17
JP2015053432A JP6172610B2 (ja) 2015-03-17 2015-03-17 テレビ会議用システム

Publications (1)

Publication Number Publication Date
WO2016147538A1 true WO2016147538A1 (ja) 2016-09-22

Family

ID=56918755

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/000629 WO2016147538A1 (ja) 2015-03-17 2016-02-08 テレビ会議用通信装置

Country Status (2)

Country Link
US (1) US10244207B2 (ja)
WO (1) WO2016147538A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107872683A (zh) * 2017-11-21 2018-04-03 广州视源电子科技股份有限公司 一种视频数据处理方法、装置、设备及存储介质
CN110213646A (zh) * 2019-05-24 2019-09-06 深圳市朗强科技有限公司 一种显示控制装置、显示控制系统以及显示控制方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020202531A (ja) * 2019-06-13 2020-12-17 パナソニックIpマネジメント株式会社 会議システム、ビデオ会議装置及び映像処理方法
JP2022089616A (ja) 2020-12-04 2022-06-16 パナソニックIpマネジメント株式会社 会議システム、ビデオ会議装置および映像処理方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09224228A (ja) * 1996-02-16 1997-08-26 Konica Corp 画像通信装置
JPH10200871A (ja) * 1997-01-07 1998-07-31 Sharp Corp Tv会議システム
JP2000270305A (ja) * 1999-03-12 2000-09-29 Kansai Tlo Kk 多地点会議システム
JP2005086677A (ja) * 2003-09-10 2005-03-31 Pioneer Electronic Corp 通信装置
JP2009246649A (ja) * 2008-03-31 2009-10-22 Nippon Telegr & Teleph Corp <Ntt> 映像会議装置、映像会議方法、映像会議プログラムおよび記録媒体
JP2012074981A (ja) * 2010-09-29 2012-04-12 Nec Corp 多地点会議接続装置、多地点会議システム、多地点会議接続方法およびプログラム
JP2013197766A (ja) * 2012-03-19 2013-09-30 Brother Ind Ltd 遠隔会議システム、会議支援装置、および会議支援方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0163723B1 (ko) * 1995-03-20 1999-01-15 김광호 종합정보통신망을 이용한 화상회의시스템의 화상회의 제어장치
JP2001313915A (ja) 2000-04-28 2001-11-09 Matsushita Electric Ind Co Ltd テレビ会議装置
TW521548B (en) * 2000-10-13 2003-02-21 Zeon Corp Curable composition, molded article, multi-layer wiring substrate, particle and its manufacturing process, varnish and its manufacturing process, laminate, and flame retardant slurry
JP3826039B2 (ja) * 2002-01-22 2006-09-27 キヤノン株式会社 信号処理装置
US7034860B2 (en) * 2003-06-20 2006-04-25 Tandberg Telecom As Method and apparatus for video conferencing having dynamic picture layout
JP2014090379A (ja) 2012-10-31 2014-05-15 Brother Ind Ltd 遠隔会議保存システム、遠隔会議保存方法
JP6260926B2 (ja) 2013-06-12 2018-01-17 株式会社リコー 通信装置、通信システム、通信装置の動作方法及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09224228A (ja) * 1996-02-16 1997-08-26 Konica Corp 画像通信装置
JPH10200871A (ja) * 1997-01-07 1998-07-31 Sharp Corp Tv会議システム
JP2000270305A (ja) * 1999-03-12 2000-09-29 Kansai Tlo Kk 多地点会議システム
JP2005086677A (ja) * 2003-09-10 2005-03-31 Pioneer Electronic Corp 通信装置
JP2009246649A (ja) * 2008-03-31 2009-10-22 Nippon Telegr & Teleph Corp <Ntt> 映像会議装置、映像会議方法、映像会議プログラムおよび記録媒体
JP2012074981A (ja) * 2010-09-29 2012-04-12 Nec Corp 多地点会議接続装置、多地点会議システム、多地点会議接続方法およびプログラム
JP2013197766A (ja) * 2012-03-19 2013-09-30 Brother Ind Ltd 遠隔会議システム、会議支援装置、および会議支援方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107872683A (zh) * 2017-11-21 2018-04-03 广州视源电子科技股份有限公司 一种视频数据处理方法、装置、设备及存储介质
CN107872683B (zh) * 2017-11-21 2021-04-20 广州视源电子科技股份有限公司 一种视频数据处理方法、装置、设备及存储介质
CN110213646A (zh) * 2019-05-24 2019-09-06 深圳市朗强科技有限公司 一种显示控制装置、显示控制系统以及显示控制方法

Also Published As

Publication number Publication date
US20180048866A1 (en) 2018-02-15
US10244207B2 (en) 2019-03-26

Similar Documents

Publication Publication Date Title
JP6172610B2 (ja) テレビ会議用システム
JP6179834B1 (ja) テレビ会議装置
JP6931815B2 (ja) テレビ会議装置
US20050208962A1 (en) Mobile phone, multimedia chatting system and method thereof
JP6152961B1 (ja) テレビ会議装置
US10110831B2 (en) Videoconference device
US8749611B2 (en) Video conference system
JPWO2007055206A1 (ja) 通信装置、通信方法、通信システム、プログラム、および、コンピュータ読み取り可能な記録媒体
WO2011063763A1 (zh) 一种包含远程呈现会场的会议控制方法、装置及系统
US20040183896A1 (en) Cooperative application system, cooperative application method, and network terminal
JP2009117896A (ja) 合成映像配信装置ならびにその方法およびプログラム
WO2016147538A1 (ja) テレビ会議用通信装置
JP4331049B2 (ja) データ伝送装置およびデータ伝送方法
WO2015003532A1 (zh) 多媒体会议的建立方法、装置及系统
JP2008288974A (ja) ビデオ会議システム及びビデオ会議装置
JP2005286972A (ja) 多地点会議接続システム、並びに多地点会議接続方法
JP2010157906A (ja) 映像表示装置
JP6803563B2 (ja) テレビ会議装置
JP6481937B2 (ja) テレビ会議用通信装置
JP4406295B2 (ja) アプリケーション連携システム、及びアプリケーション連携方法
JP6099028B1 (ja) テレビ会議装置
JP6152998B1 (ja) テレビ会議装置
US11102451B2 (en) Videoconferencing server for providing multi-screen videoconferencing by using a plurality of videoconferencing terminals and method therefor
JP6680323B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5549017B2 (ja) ゲートウェイ装置、及びデータ送信方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16764372

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15556131

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16764372

Country of ref document: EP

Kind code of ref document: A1