JP6922060B2 - Information processing system and wireless terminal - Google Patents

Information processing system and wireless terminal Download PDF

Info

Publication number
JP6922060B2
JP6922060B2 JP2020173772A JP2020173772A JP6922060B2 JP 6922060 B2 JP6922060 B2 JP 6922060B2 JP 2020173772 A JP2020173772 A JP 2020173772A JP 2020173772 A JP2020173772 A JP 2020173772A JP 6922060 B2 JP6922060 B2 JP 6922060B2
Authority
JP
Japan
Prior art keywords
video
information
camera
wireless terminal
microphone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020173772A
Other languages
Japanese (ja)
Other versions
JP2021036678A (en
Inventor
孝志 松原
孝志 松原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019181326A external-priority patent/JP6781318B2/en
Application filed by Maxell Ltd filed Critical Maxell Ltd
Priority to JP2020173772A priority Critical patent/JP6922060B2/en
Publication of JP2021036678A publication Critical patent/JP2021036678A/en
Priority to JP2021123624A priority patent/JP7149386B2/en
Application granted granted Critical
Publication of JP6922060B2 publication Critical patent/JP6922060B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、情報処理システム及び無線端末に関するものである。 The present invention relates to an information processing system and a wireless terminal.

本技術分野の背景技術として特許文献1には、「ユーザが、ネットワーク上で行われるテレビ会議や遠隔プレゼンテーションに適宜参加したり、これを適宜閲覧することができるプロジェクタを提供」することを目的とし、その目的を達成する手段として「ネットワークを介して、1以上のプロジェクタと接続されたプロジェクタであって、映像信号の入力を受ける入力手段と、入力手段における映像信号の入力の有無を判定する判定手段と、映像信号に基づいて、画像を投射する投射手段と、判定手段の判定結果に基づき、サーバモード、クライアントモードを選択するモード選択手段と、クライアントモードを選択した場合、ネットワーク上のサーバモードのプロジェクタから、このプロジェクタが投影する映像データを受信して、受信した映像データを投射手段に出力し、サーバモードを選択した場合、ネットワーク上のクライアントモードのプロジェクタに対して、投射手段が投影する映像データを送信する」プロジェクタが記載されている。 As a background technology in the present technical field, Patent Document 1 aims to "provide a projector capable of allowing a user to appropriately participate in a video conference or a remote presentation held on a network and appropriately view the video conference". As a means for achieving the purpose, "a projector connected to one or more projectors via a network, an input means for receiving an input of a video signal, and a determination for determining the presence or absence of an input of a video signal in the input means. Means, a projection means for projecting an image based on a video signal, a mode selection means for selecting a server mode and a client mode based on the determination result of the determination means, and a server mode on the network when the client mode is selected. When the video data projected by this projector is received from the projector of, the received video data is output to the projection means, and the server mode is selected, the projection means projects the projector in the client mode on the network. A projector that "transmits video data" is described.

特開2004−239968号公報Japanese Unexamined Patent Publication No. 2004-239966

特許文献1に記載された技術を用いれば、テレビ会議に適宜参加することはできる。しかしながら、テレビ会議へ参加するために、プロジェクタのような装置がテレビ会議サーバへ接続して認証情報を送信等するため使い勝手が悪かった。また、スマートフォンによるテレビ電話、テレビ会議もあり、このための認証等も既にあるが、スマートフォンとプロジェクタとの連携に関しては考慮されていなかった。 By using the technique described in Patent Document 1, it is possible to participate in a video conference as appropriate. However, in order to participate in a video conference, a device such as a projector connects to a video conference server and transmits authentication information, which is not convenient. In addition, there are videophones and video conferencing using smartphones, and authentication for this has already been done, but the cooperation between smartphones and projectors was not considered.

そこで、本発明の目的は、ユーザの使い勝手をよくすることにある。 Therefore, an object of the present invention is to improve the usability of the user.

本発明は、その一例を挙げるならば、映像を表示する映像装置と、前記映像装置と通信し、他の機器とネットワーク経由で通信する無線端末と、を含む情報処理システムであって、
前記映像装置は、
映像出力指示情報を前記無線端末から受信したことを検出した後に、前記映像装置のカメラと前記映像装置のマイクと前記映像装置のスピーカとが利用可能であることを前記無線端末へ通知し、前記無線端末から、前記他の機器へ前記ネットワーク経由で接続するために必要な情報を受信した場合に、前記ネットワーク経由で前記他の機器へ接続し、
前記無線端末は、
認証情報を送信して前記他の機器へ前記ネットワーク経由で接続し、
前記無線端末の表示部に、前記映像装置の前記カメラと前記映像装置の前記マイクとを利用するか否かを選択する操作入力を受け付けるメニュー画面を表示し、
前記メニュー画面を介して、前記映像装置の前記カメラと前記映像装置の前記マイクとを利用することを選択する操作入力が入力された場合に、前記他の機器へ前記ネットワーク経由で接続するために必要な情報を前記映像装置へ送信し、
前記メニュー画面を介して、前記映像装置の前記カメラと前記映像装置の前記マイクとを利用しないことを選択する操作入力が入力された場合に、前記無線端末のカメラで撮像した映像情報と前記無線端末のマイクで集音した音声情報とを前記他の機器へ前記ネットワーク経由で送信し、
前記他の機器は、
前記無線端末から、前記無線端末のカメラで撮像した映像情報と前記無線端末のマイクで集音した音声情報とを前記ネットワーク経由で受信し、前記無線端末で表示するための映像の情報と前記無線端末のスピーカで出力するための音声の情報とを前記ネットワーク経由で前記無線端末に送信するものであり、
前記無線端末から前記映像装置へ送信される、前記他の機器へ前記ネットワーク経由で接続するために必要な情報には、URLまたはIPアドレスで表される前記他の機器の接続先情報が含まれる、ことを特徴とする。
The present invention is an information processing system including, for example, a video device that displays video and a wireless terminal that communicates with the video device and communicates with other devices via a network.
The video device
After detecting that the video output instruction information has been received from the wireless terminal, the wireless terminal is notified that the camera of the video device, the microphone of the video device, and the speaker of the video device are available. When the wireless terminal receives the information necessary for connecting to the other device via the network, the wireless terminal connects to the other device via the network.
The wireless terminal is
Send the authentication information to connect to the other device via the network,
A menu screen for accepting an operation input for selecting whether or not to use the camera of the video device and the microphone of the video device is displayed on the display unit of the wireless terminal.
To connect to the other device via the network when an operation input for selecting to use the camera of the video device and the microphone of the video device is input via the menu screen. Send the necessary information to the video device and
When an operation input for selecting not to use the camera of the video device and the microphone of the video device is input via the menu screen, the video information captured by the camera of the wireless terminal and the radio The voice information collected by the microphone of the terminal is transmitted to the other device via the network, and the sound information is transmitted to the other device via the network.
The other equipment
From the wireless terminal, the video information captured by the camera of the wireless terminal and the audio information collected by the microphone of the wireless terminal are received via the network, and the video information to be displayed on the wireless terminal and the wireless. The voice information to be output by the speaker of the terminal is transmitted to the wireless terminal via the network.
The information transmitted from the wireless terminal to the video device and necessary for connecting to the other device via the network includes connection destination information of the other device represented by a URL or an IP address. , Characterized by.

本発明によれば、ユーザの使い勝手をよくすることが可能になる。 According to the present invention, it is possible to improve the usability of the user.

実施例1に係るシステム構成の一例を示す図である。It is a figure which shows an example of the system configuration which concerns on Example 1. FIG. テレビ会議の一例を示す図である。It is a figure which shows an example of a video conference. プロジェクタの構成の一例を示す図である。It is a figure which shows an example of the structure of a projector. スマートフォンの構成の一例を示す図である。It is a figure which shows an example of the structure of a smartphone. 実施例1に係る第一のテレビ会議開始の動作の一例を示すシーケンス図である。It is a sequence diagram which shows an example of the operation of the first video conferencing start which concerns on Example 1. FIG. スマートフォンの第一の画面表示の一例を示す図である。It is a figure which shows an example of the first screen display of a smartphone. スマートフォンの第二の画面表示の一例を示す図である。It is a figure which shows an example of the second screen display of a smartphone. スマートフォンの第三の画面表示の一例を示す図である。It is a figure which shows an example of the third screen display of a smartphone. 実施例1に係る第二のテレビ会議開始の動作の一例を示すシーケンス図である。It is a sequence diagram which shows an example of the operation of starting the 2nd video conference which concerns on Example 1. FIG. 実施例2に係るシステム構成の一例を示す図である。It is a figure which shows an example of the system configuration which concerns on Example 2. FIG. 実施例2に係る第一のテレビ会議開始の動作の一例を示すシーケンス図である。It is a sequence diagram which shows an example of the operation of the first video conferencing start which concerns on Example 2. FIG. 実施例2に係る第二のテレビ会議開始の動作の一例を示すシーケンス図である。It is a sequence diagram which shows an example of the operation of starting the 2nd video conference which concerns on Example 2. FIG.

以下、本発明の好ましい実施例について、図面を参照しながら説明する。以下の各実施例では、カメラで撮像した映像やマイクで集音した音声を、ネットワークを介して遠隔の端末間で相互に送受信するシステム(以下、テレビ会議システムと呼ぶ)に利用する場合を例として説明するが、テレビ会議システムとして以下の実施例に限定されるものではない。また、システムは、テレビ会議システムに限定されるものでもない。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In each of the following examples, an example is used in a system (hereinafter referred to as a video conferencing system) in which images captured by a camera and sounds collected by a microphone are mutually transmitted and received between remote terminals via a network. However, the video conferencing system is not limited to the following examples. Nor is the system limited to video conferencing systems.

実施例1では、スマートフォン(無線端末)のテレビ会議アプリケーションを用いて遠隔地とのテレビ会議を行う際に、スマートフォンがプロジェクタに内蔵された複数人での利用に適したテレビ会議用のカメラ、マイク、スピーカによる映像と音声を用いてテレビ会議を行う構成について説明する。 In the first embodiment, when a video conferencing with a remote location is performed using a video conferencing application of a smartphone (wireless terminal), the smartphone is built in a projector and a camera and a microphone for video conferencing suitable for use by a plurality of people. , A configuration for conducting a video conference using video and audio from a speaker will be described.

図1は本実施例に係るテレビ会議システムの構成の一例を示す図である。本実施例のテレビ会議システムは、例えば、プロジェクタ100、スマートフォン110、ネットワーク120、テレビ会議サーバ130から構成される。また、プロジェクタ100は、映像を投写して多人数で見ることができるようにする装置であり、プロジェクタ100には、テレビ会議用のカメラ101とマイク102とスピーカ112が内蔵される。 FIG. 1 is a diagram showing an example of the configuration of the video conferencing system according to the present embodiment. The video conferencing system of this embodiment includes, for example, a projector 100, a smartphone 110, a network 120, and a video conferencing server 130. Further, the projector 100 is a device that projects an image so that it can be viewed by a large number of people. The projector 100 includes a camera 101, a microphone 102, and a speaker 112 for video conferencing.

なお、図1の例ではカメラ101とマイク102とスピーカ112はプロジェクタ100に内蔵されているが、必要に応じてカメラ101とマイク102とスピーカ112がプロジェクタ100の外付けであってもよく、カメラ101やマイク102やスピーカ112を複数備えてもよい。 In the example of FIG. 1, the camera 101, the microphone 102, and the speaker 112 are built in the projector 100, but if necessary, the camera 101, the microphone 102, and the speaker 112 may be externally attached to the projector 100. A plurality of 101s, microphones 102, and speakers 112 may be provided.

プロジェクタ100とスマートフォン110は、それぞれに内蔵された所定の機器間通信手段を介して通信を行う。機器間通信手段は、Wi−Fi(登録商標)等の無線LAN(Local Area Network)により通信するものでもよいし、有線LANで通信するものであってもよい。また、USBやBluetooth(登録商標)、IrDA(登録商標)、NFC(Near Field Communication)等、他の有線あるいは無線の通信であってもよい。 The projector 100 and the smartphone 110 communicate with each other via predetermined inter-device communication means built in the projector 100 and the smartphone 110. The device-to-device communication means may be one that communicates by a wireless LAN (Local Area Network) such as Wi-Fi (registered trademark), or one that communicates by a wired LAN. Further, other wired or wireless communication such as USB, Bluetooth (registered trademark), IrDA (registered trademark), NFC (Near Field Communication) may be used.

ここで、Wi−Fiは、IEEE(米国電気電子学会)の規格で策定された無線LANの標準規格である。USBは、USB−IF(USB Implementers Forum)で策定された標準規格である。BluetoothはBluetooth SIG(Bluetooth Special Interest Group)で策定された標準規格である。 Here, Wi-Fi is a wireless LAN standard established by the IEEE (Institute of Electrical and Electronics Engineers) standard. USB is a standard established by the USB-IF (USB Implementers Forum). Bluetooth is a standard established by the Bluetooth SIG (Bluetooth Special Interest Group).

ネットワーク120は、インターネットや社内ネットワーク等の遠隔地あるいは社内の機器間で通信ができるネットワークである。ネットワーク120の一部または全てに、Wi−Fi等の無線LANが含まれてもよいし、有線LANが含まれてもよい。また、ネットワーク120に携帯電話等に用いられる移動体通信網が含まれてもよい。 The network 120 is a network capable of communicating between remote locations such as the Internet and an in-house network, or between in-house devices. A part or all of the network 120 may include a wireless LAN such as Wi-Fi, or may include a wired LAN. Further, the network 120 may include a mobile communication network used for a mobile phone or the like.

テレビ会議サーバ130は、スマートフォン110等のネットワーク120に接続している端末からテレビ会議開始の要求を受け、同じテレビ会議に参加する複数の端末間で映像や音声等を送受信できるようにするため、端末間の接続の管理や各端末から送られてくる映像や音声等のデータの転送を行う。また、テレビ会議サーバ130は、テレビ会議で配布する資料の映像情報を蓄積し、同じテレビ会議に参加する複数の端末へ配信してもよい。配布する資料の情報に音声が含まれてもよい。 The video conferencing server 130 receives a request for starting a video conferencing from a terminal connected to a network 120 such as a smartphone 110, and can transmit and receive video, audio, and the like between a plurality of terminals participating in the same video conferencing. It manages connections between terminals and transfers data such as video and audio sent from each terminal. Further, the video conference server 130 may store video information of materials distributed in the video conference and distribute it to a plurality of terminals participating in the same video conference. Audio may be included in the information of the materials to be distributed.

図2はテレビ会議システムをユーザが利用する様子の一例を示す図である。図2の例では、複数人で囲む会議テーブルにプロジェクタ100に置き、スマートフォン110のテレビ会議アプリケーションを用いてテレビ会議を行っている様子を示している。スマートフォン110はプロジェクタ100に映像と音声を送信しており、プロジェクタ100に送信された映像として、プロジェクタ100の投写映像201にはテレビ会議の相手先のカメラ映像が映し出されている。また、プロジェクタ100に送信された音声として、プロジェクタ100のスピーカ112からはテレビ会議の相手先のマイクで収集された音声が出力される。 FIG. 2 is a diagram showing an example of how a user uses a video conferencing system. In the example of FIG. 2, the projector 100 is placed on a conference table surrounded by a plurality of people, and a video conference is performed using the video conference application of the smartphone 110. The smartphone 110 transmits video and audio to the projector 100, and as the video transmitted to the projector 100, the camera image of the other party of the video conference is projected on the projected image 201 of the projector 100. Further, as the sound transmitted to the projector 100, the sound collected by the microphone of the other party of the video conference is output from the speaker 112 of the projector 100.

図2の例では、投写映像201に相手先のカメラ映像が映し出されているが、これに限定されるものではなく、テレビ会議サーバ130に蓄積された資料の映像が映し出されてもよく、図示を省略したスイッチにより切り替え可能であってもよい。また、投写映像201が2分割されて、相手先のカメラ映像と資料の映像とが同時に映し出されてもよい。 In the example of FIG. 2, the camera image of the other party is projected on the projected image 201, but the present invention is not limited to this, and the image of the material stored in the video conferencing server 130 may be projected. It may be possible to switch by a switch omitting. Further, the projected image 201 may be divided into two, and the camera image of the other party and the image of the material may be projected at the same time.

プロジェクタ100が内蔵するカメラ101で撮像された映像とマイク102で集音された音声は、スマートフォン110に送信され、スマートフォン110のテレビ会議アプリケーションに入力される。カメラ101はテレビ会議の参加者を対象とした撮像範囲202を撮像してもよく、多くの参加者の一部ずつを撮像するように撮像範囲202が複数であってもよい。 The video captured by the camera 101 built in the projector 100 and the sound collected by the microphone 102 are transmitted to the smartphone 110 and input to the video conferencing application of the smartphone 110. The camera 101 may image the imaging range 202 for the participants of the video conference, or may have a plurality of imaging ranges 202 so as to image each part of many participants.

また、カメラ101は、投写映像201を含む撮像範囲203を撮像してもよい。投写映像201に資料の映像が映し出されて、参加者がその資料の特定の部分を指し示して説明したり、その資料の一部を上書き等したりすることにより、テレビ会議の相手先へ説明の内容が伝わりやすくなる。カメラ101の撮像範囲202と撮像範囲203は、図示を書略したスイッチにより切り替え可能であってもよいし、カメラ101が物理的に可動であってもよいし、撮像範囲202と撮像範囲203の両方を同時に撮像可能であってもよい。 Further, the camera 101 may capture an imaging range 203 including the projected image 201. The image of the material is projected on the projected image 201, and the participant points to a specific part of the material to explain it, or overwrites a part of the material to explain it to the other party of the video conference. The content becomes easier to convey. The imaging range 202 and the imaging range 203 of the camera 101 may be switched by a switch (not shown), the camera 101 may be physically movable, and the imaging range 202 and the imaging range 203 may be switched. Both may be capable of imaging at the same time.

さらに、カメラ101は、会議テーブルの上に置かれた紙の資料やサンプル品等を撮像範囲として撮像してもよい。 Further, the camera 101 may take an image of a paper material, a sample product, or the like placed on the conference table as an imaging range.

図3は、プロジェクタ100の構成の一例を示す図である。プロジェクタ100は、例えば、カメラ101、マイク102、映像音声入力部103、制御部104、メモリ105、映像復号・出力部107、表示部109、音声復号・出力部111、スピーカ112、通信部113、アンテナ114、操作入力部115、映像入力・符号化部116、音声入力・符号化部117、入力端子118等を有し、各部は図3に示すようにバスを介して接続される。 FIG. 3 is a diagram showing an example of the configuration of the projector 100. The projector 100 includes, for example, a camera 101, a microphone 102, a video / audio input unit 103, a control unit 104, a memory 105, a video decoding / output unit 107, a display unit 109, an audio decoding / output unit 111, a speaker 112, and a communication unit 113. It has an antenna 114, an operation input unit 115, a video input / coding unit 116, an audio input / coding unit 117, an input terminal 118, and the like, and each unit is connected via a bus as shown in FIG.

制御部104は、例えばプロセッサを含み、メモリ105に格納された各種プログラム106を実行することにより、操作入力部115を介してユーザの入力操作の情報を受け取り、プロジェクタ100のバスに接続された各部を制御する。例えば、制御部104は、各種プログラム106の中のプログラムをメモリ105から読み出し、読み出したプログラムにしたがって、映像入力・符号化部116と通信部113を制御し、カメラ101で撮像した映像を映像入力・符号化部116が入力して符号化し、通信部113から送信するように制御する。 The control unit 104 receives information on the user's input operation via the operation input unit 115 by executing various programs 106 stored in the memory 105, including a processor, for example, and each unit connected to the bus of the projector 100. To control. For example, the control unit 104 reads a program in various programs 106 from the memory 105, controls the video input / coding unit 116 and the communication unit 113 according to the read program, and inputs the video captured by the camera 101 to the video. -The coding unit 116 inputs, encodes, and controls the communication unit 113 to transmit.

また、制御部104は、SoC(System−on−a−Chip)であって、プロセッサ以外に、映像音声入力部103から入力された映像や音声の情報を音声情報と映像情報に分離し、音声復号・出力部111と映像復号・出力部107にそれぞれ出力する回路を有してもよい。各種プログラム106を実行することによる制御部104のプロジェクタ100の各部の制御の説明の詳細は省略し、図5、7を用いてプロジェクタ100の動作として説明する。 Further, the control unit 104 is a System (System-on-a-Chip), and separates video and audio information input from the video / audio input unit 103 into audio information and video information in addition to the processor, and audio. A circuit for outputting to the decoding / output unit 111 and the video decoding / output unit 107 may be provided. The details of the control of each part of the projector 100 of the control unit 104 by executing various programs 106 will be omitted, and the operation of the projector 100 will be described with reference to FIGS. 5 and 7.

メモリ105は、制御部104で実行される各種プログラム106や制御部104により書き込まれて読み出されるデータ等が格納される。プロジェクタ100の設定情報と映像データと音声データが格納されてもよい。メモリ105に格納される各種プログラム106は、プロジェクタ100が出荷時点で予めメモリ105に格納されていてもよいし、半導体メモリ等の記録媒体に格納されて、図示を省略した媒体接続部を介してメモリ105に格納され、インストールされてもよい。 The memory 105 stores various programs 106 executed by the control unit 104, data written and read by the control unit 104, and the like. The setting information, video data, and audio data of the projector 100 may be stored. The various programs 106 stored in the memory 105 may be stored in the memory 105 in advance when the projector 100 is shipped, or are stored in a recording medium such as a semiconductor memory and are stored in a recording medium such as a semiconductor memory via a medium connection portion (not shown). It may be stored in memory 105 and installed.

また、各種プログラム106は、通信部113を介して外部ネットワークからダウンロードされてメモリ105に格納され、インストールされてもよい。なお、各種プログラム106を制御部104が実行することによる動作は、同じ動作をする回路としてハードウェアで実現されてもよい。 Further, the various programs 106 may be downloaded from the external network via the communication unit 113, stored in the memory 105, and installed. The operation by the control unit 104 executing the various programs 106 may be realized by hardware as a circuit that performs the same operation.

通信部113は、予め定められた規格やプロトコルに準じてスマートフォン110とアンテナ114経由で通信を行う。通信部113の使用する規格は、Wi−Fi等の無線LANや有線LANであってもよい。また、USBやBluetooth、IrDA、NFC等、他の有線あるいは無線の通信であってもよく、ネットワーク120を介さずに直接通信するように構成されてもよい。さらに、通信部113は、異なる規格の通信をサポートするチップが複数実装されてもよいし、複数の規格の通信をサポートする1つのチップが実装されてもよい。 The communication unit 113 communicates with the smartphone 110 via the antenna 114 according to a predetermined standard or protocol. The standard used by the communication unit 113 may be a wireless LAN such as Wi-Fi or a wired LAN. Further, other wired or wireless communication such as USB, Bluetooth, IrDA, NFC, etc. may be used, or the communication may be configured to directly communicate without going through the network 120. Further, the communication unit 113 may be equipped with a plurality of chips that support communication of different standards, or may be equipped with one chip that supports communication of a plurality of standards.

通信部113は、アンテナ114で受信した映像と音声の情報を映像音声入力部103へ出力し、映像入力・符号化部116と音声入力・符号化部117から入力した映像と音声の情報をアンテナ114から送信する。アンテナ114で受信した映像と音声の情報をバスへ出力してもよい。 The communication unit 113 outputs the video and audio information received by the antenna 114 to the video and audio input unit 103, and receives the video and audio information input from the video input / encoding unit 116 and the audio input / encoding unit 117 as an antenna. It is transmitted from 114. The video and audio information received by the antenna 114 may be output to the bus.

映像音声入力部103は、入力端子118からプロジェクタ100で投写する映像や音声の情報を入力する。これは、テレビ会議としての利用ではなく、プロジェクタ100の入力映像を投写するという本来の利用のためのものであってもよいし、テレビ会議で参照される資料をパソコン等から入力するためのもととして利用されてもよい。このために、映像音声入力部103は映像や音声の情報を制御部104へ出力する以外にバスへ出力してもよい。 The video / audio input unit 103 inputs video and audio information projected by the projector 100 from the input terminal 118. This may be for the original use of projecting the input image of the projector 100, not for the use as a video conference, or for inputting the materials referred to in the video conference from a personal computer or the like. It may be used as. Therefore, the video / audio input unit 103 may output the video / audio information to the bus in addition to outputting the video / audio information to the control unit 104.

入力端子118は、例えば、コンポジット端子、S端子、D端子、コンポーネント端子、VGA端子、DVI端子、HDMI端子等である。入力端子118からの入力がアナログ信号の場合、映像音声入力部103はアナログ信号をデジタル信号に変換してもよい。また、映像音声入力部103は、入力端子118からの入力と通信部113からの入力を選択してもよいし、合成してもよい。 The input terminal 118 is, for example, a composite terminal, an S terminal, a D terminal, a component terminal, a VGA terminal, a DVI terminal, an HDMI terminal, or the like. When the input from the input terminal 118 is an analog signal, the video / audio input unit 103 may convert the analog signal into a digital signal. Further, the video / audio input unit 103 may select the input from the input terminal 118 and the input from the communication unit 113, or may combine them.

映像音声入力部103は映像や音声の情報をバスへ出力する場合、通信部113はバス経由で入力してアンテナ114から送信してもよい。このとき、映像の情報か音声の情報かが選択されてもよく、例えば、映像音声入力部103から資料の映像情報が通信部113へ転送されるとともに、マイク102から音声入力・符号化部117を介して会議参加者の音声の情報が通信部113へ転送されてもよい。 When the video / audio input unit 103 outputs video or audio information to the bus, the communication unit 113 may input via the bus and transmit the information from the antenna 114. At this time, video information or audio information may be selected. For example, the video information of the material is transferred from the video / audio input unit 103 to the communication unit 113, and the audio input / encoding unit 117 is transmitted from the microphone 102. The voice information of the conference participants may be transferred to the communication unit 113 via the communication unit 113.

映像復号・出力部107は、制御部104から入力された映像情報を、必要に応じて復号し、表示部109へ出力する。例えば、通信部113により受信された映像情報は、圧縮/符号化されていて復号して出力し、入力端子118から入力された映像情報は、圧縮/符号化されておらず、そのまま出力してもよい。復号するか否かは制御部104により制御されてもよい。なお、映像復号・出力部107の出力する映像情報の一部は、各種プログラム106の実行により制御部104が生成した映像情報であってもよい。 The video decoding / output unit 107 decodes the video information input from the control unit 104 as necessary and outputs it to the display unit 109. For example, the video information received by the communication unit 113 is compressed / encoded and decoded and output, and the video information input from the input terminal 118 is not compressed / encoded and is output as it is. May be good. Whether or not to decode may be controlled by the control unit 104. Note that a part of the video information output by the video decoding / output unit 107 may be the video information generated by the control unit 104 by executing various programs 106.

表示部109は、例えば液晶パネル、光学レンズ等によって構成され、スクリーン等に映像を投写する。映像投写の構造は、DLP(登録商標:Digital Light Processing)、レーザ光源等であってもよく、他の映像投写構造であってもよい。また、表示部109は、映像を投写しない液晶パネル等を含んでもよい。 The display unit 109 is composed of, for example, a liquid crystal panel, an optical lens, or the like, and projects an image on a screen or the like. The image projection structure may be DLP (registered trademark: Digital Light Processing), a laser light source, or the like, or may be another image projection structure. Further, the display unit 109 may include a liquid crystal panel or the like that does not project an image.

音声復号・出力部111は、制御部104から入力された音声情報を、必要に応じて復号し、スピーカ112へ出力する。例えば、通信部113により受信された音声情報は、圧縮/符号化されていて復号して出力し、入力端子118から入力された音声情報は、圧縮/符号化されておらず、そのまま出力してもよい。復号するか否かは制御部104により制御されてもよい。なお、音声復号・出力部111が出力する音声情報は、スピーカ112の代わりに図示を省略した外部機器へ出力されてもよい。 The voice decoding / output unit 111 decodes the voice information input from the control unit 104 as necessary and outputs it to the speaker 112. For example, the voice information received by the communication unit 113 is compressed / encoded and decoded and output, and the voice information input from the input terminal 118 is not compressed / encoded and is output as it is. May be good. Whether or not to decode may be controlled by the control unit 104. The audio information output by the audio decoding / output unit 111 may be output to an external device (not shown) instead of the speaker 112.

スピーカ112は、無指向性であって会議に十分な音量の音を発生するものが望ましい。マイク102は、無指向性であって会議テーブルの参加者の音声を集音する感度のものが望ましい。スピーカ112とマイク102は、音声の周波数帯域に重点のおかれたものであってもよい。また、スピーカ112とマイク102は、無指向性等にするために複数備えられてもよい。音声入力・符号化部117は、マイク102が電気信号に変換した音声情報を入力し、情報量を圧縮するために符号化し、通信部113へバスを介して出力する。 It is desirable that the speaker 112 is omnidirectional and generates a sound having a sufficient volume for a conference. It is desirable that the microphone 102 is omnidirectional and has a sensitivity of collecting the voices of the participants at the conference table. The speaker 112 and the microphone 102 may be focused on the frequency band of voice. Further, a plurality of speakers 112 and microphones 102 may be provided in order to make them omnidirectional or the like. The voice input / coding unit 117 inputs voice information converted into an electric signal by the microphone 102, encodes it in order to compress the amount of information, and outputs it to the communication unit 113 via a bus.

カメラ101は、撮像範囲202、203を撮像し、撮像した映像を電気信号に変換して、映像入力・符号化部116へ入力する。撮像範囲202、203等に応じてカメラ101は複数備えられ、映像入力・符号化部116に複数のカメラ101が接続されてもよい。また、カメラ101は、物理的に可動な構造でプロジェクタ100に装着されてもよい。 The camera 101 captures the imaging ranges 202 and 203, converts the captured video into an electric signal, and inputs the captured video to the video input / coding unit 116. A plurality of cameras 101 may be provided according to the imaging ranges 202, 203, etc., and a plurality of cameras 101 may be connected to the video input / coding unit 116. Further, the camera 101 may be attached to the projector 100 in a physically movable structure.

映像入力・符号化部116は、カメラ101が電気信号に変換した映像情報を入力し、情報量を圧縮するために符号化し、通信部113へバスを介して出力する。映像入力・符号化部116は、複数のカメラ101に接続され、複数のカメラ101のそれぞれから映像情報を入力する場合、複数のカメラ101の入力を選択してもよいし、合成してもよい。 The video input / coding unit 116 inputs video information converted into an electric signal by the camera 101, encodes it in order to compress the amount of information, and outputs it to the communication unit 113 via a bus. When the video input / encoding unit 116 is connected to a plurality of cameras 101 and video information is input from each of the plurality of cameras 101, the input of the plurality of cameras 101 may be selected or combined. ..

操作入力部115は、ユーザからのプロジェクタ100に対する入力操作を受け付ける入力デバイスであり、例えば、リモコン、キーボード、マウスやタッチパネル等のポインティングデバイス等である。 The operation input unit 115 is an input device that receives an input operation from the user to the projector 100, and is, for example, a remote control, a keyboard, a pointing device such as a mouse or a touch panel, or the like.

なお、図3の例では、プロジェクタ100の構造を説明したが、表示部109として映像を投写する代わりに映像表示のディスプレイを用い、テレビ受信機やディスプレイ装置に図3を用いて説明した各構造を備えてもよい。すなわち、図2に示した投写映像201がテレビ受信機であり、プロジェクタ100がテレビ受信機に含まれる構成であってもよい。このテレビ受信機の構成では、撮像範囲202を撮像するカメラ101を備え、撮像範囲203を撮像するカメラ101を備えなくてもよいし、撮像範囲203を撮像するカメラ101の代わりにテレビ受信機にタッチパネル等を備えてもよい。 In the example of FIG. 3, the structure of the projector 100 has been described, but instead of projecting an image as the display unit 109, a display for displaying an image is used, and each structure described with reference to FIG. 3 for a television receiver and a display device. May be provided. That is, the projected image 201 shown in FIG. 2 may be a television receiver, and the projector 100 may be included in the television receiver. In this configuration of the television receiver, the camera 101 that captures the imaging range 202 may be provided, and the camera 101 that captures the imaging range 203 may not be provided. A touch panel or the like may be provided.

また、図3に示した構成から表示部109とスピーカ112を取り除いて、代わりにそれぞれ出力端子を備え、映像の表示や音声の出力を直接行わないSTB(セットトップボックス)やレコーダー等で構成してもよい。さらに、プロジェクタ100の代わりに、図3に示した各構成を備えたパソコン、モニター装置、タブレット端末等であってもよい。 Further, the display unit 109 and the speaker 112 are removed from the configuration shown in FIG. 3, and instead, they are provided with output terminals, respectively, and are configured by an STB (set-top box), a recorder, or the like that does not directly display video or output audio. You may. Further, instead of the projector 100, a personal computer, a monitor device, a tablet terminal or the like having each configuration shown in FIG. 3 may be used.

図4は、スマートフォン110の構成の一例を示す図である。スマートフォン110は、例えば、カメラ405、マイク406、制御部400、メモリ403、表示部401、操作入力部402、通信部407、通信アンテナ408、移動体通信部409、移動体通信アンテナ410等有し、図4に示すように各部がバスを介して接続される。 FIG. 4 is a diagram showing an example of the configuration of the smartphone 110. The smartphone 110 has, for example, a camera 405, a microphone 406, a control unit 400, a memory 403, a display unit 401, an operation input unit 402, a communication unit 407, a communication antenna 408, a mobile communication unit 409, a mobile communication antenna 410, and the like. , As shown in FIG. 4, each part is connected via a bus.

制御部400は、プロセッサを含み、メモリ403に格納された各種プログラム412を読み出して実行し、スマートフォン110の各部をハス経由で制御する。制御部400は、SoCであって、映像や音声の処理に関する回路を含んでもよい。表示部401は液晶パネルや有機EL(Electroluminescence)ディスプレイ等でもよく、操作入力部402のタッチパネルと一体化されていてもよい。カメラ405は、スマートフォン110の特定の方向を撮像し、マイク406はスマートフォン110の周囲の音声を集音し、スピーカ411は音声を出力する。 The control unit 400 reads and executes various programs 412 stored in the memory 403 including the processor, and controls each part of the smartphone 110 via the hass. The control unit 400 is a SoC and may include a circuit related to video and audio processing. The display unit 401 may be a liquid crystal panel, an organic EL (Electroluminescence) display, or the like, and may be integrated with the touch panel of the operation input unit 402. The camera 405 images a specific direction of the smartphone 110, the microphone 406 collects the sound around the smartphone 110, and the speaker 411 outputs the sound.

通信部407は、予め定められた規格やプロトコルに準じてプロジェクタ100と通信アンテナ408経由で通信を行う。通信の規格は、プロジェクタ100と通信できる規格である。移動体通信部409は、移動体通信アンテナ410と図示を省略した移動体通信用の基地局等を介してネットワーク120と通信を行うため、3G,4G,LTE等のモバイル通信用の規格に準じた通信を行ってもよい。 The communication unit 407 communicates with the projector 100 via the communication antenna 408 according to a predetermined standard or protocol. The communication standard is a standard capable of communicating with the projector 100. Since the mobile communication unit 409 communicates with the network 120 via the mobile communication antenna 410 and a base station for mobile communication (not shown), it conforms to the standards for mobile communication such as 3G, 4G, and LTE. Communication may be performed.

また、移動体通信部409は、移動体通信アンテナ410と図示を省略したアクセスポイント等を介してネットワーク120と通信を行うため、Wi−Fi等の無線LANの規格に準じた通信を行ってもよい。さらに、移動体通信部409は、移動体通信アンテナ410の代わりに図示を省略した端子を介して、有線LANでネットワーク120と通信を行ってもよく、異なる規格の通信をサポートするチップが複数実装されてもよいし、複数の規格の通信をサポートする1つのチップが実装されてもよい。 Further, since the mobile communication unit 409 communicates with the network 120 via the mobile communication antenna 410 and an access point (not shown), even if the mobile communication unit 409 communicates according to the wireless LAN standard such as Wi-Fi. good. Further, the mobile communication unit 409 may communicate with the network 120 via a wired LAN via a terminal (not shown) instead of the mobile communication antenna 410, and a plurality of chips supporting communication of different standards are mounted. It may be mounted, or one chip that supports communication of a plurality of standards may be mounted.

メモリ403に格納された各種プログラム412には、テレビ会議アプリケーションが含まれる。テレビ会議アプリケーションは、テレビ電話(ビデオ電話)等のプログラムであってもよく、表示部401とカメラ405とマイク406等を使用する電話のアプリケーションプログラムであってもよい。また、各種プログラム412には、OS(Operating System)やプレゼンテーション用アプリケーションが含まれてもよい。 Various programs 412 stored in the memory 403 include a video conferencing application. The video conferencing application may be a program such as a videophone (videophone), or may be a telephone application program using the display unit 401, the camera 405, the microphone 406, or the like. Further, the various programs 412 may include an OS (Operating System) and a presentation application.

以下、スマートフォン110を用いてテレビ会議を開始し、プロジェクタ100のカメラ101とマイク102とスピーカ112をテレビ会議に利用する際の動作例について、図5及び図6を用いて説明する。 Hereinafter, an operation example when a video conference is started using the smartphone 110 and the camera 101, the microphone 102, and the speaker 112 of the projector 100 are used for the video conference will be described with reference to FIGS. 5 and 6.

図5は、実施例1に係るテレビ会議開始の動作の一例を示すシーケンス図である。テレビ会議開始の動作とは、スマートフォン110のテレビ会議アプリケーションを用いて、テレビ会議サーバ130を介したテレビ会議を開始し、テレビ会議サーバ130から受信する映像と音声にプロジェクタ100の表示部109とスピーカ112を用い、テレビ会議サーバ130へ送信する映像と音声にプロジェクタ100のカメラ101とマイク102を用いるまでのシーケンスである。 FIG. 5 is a sequence diagram showing an example of the operation of starting the video conference according to the first embodiment. The operation of starting a video conference is to start a video conference via the video conference server 130 by using the video conference application of the smartphone 110, and display the display unit 109 and the speaker of the projector 100 on the video and audio received from the video conference server 130. This is a sequence up to the use of the camera 101 and the microphone 102 of the projector 100 for the video and audio transmitted to the video conferencing server 130 using the 112.

また、図6A、図6B、図6Cは、それぞれスマートフォン110の画面表示の一例を示す図である。図5を用いて説明するシーケンスの中でスマートフォン110は図6A、図6B、図6Cを用いて説明する画面を表示する。なお、図6A、図6B、図6Cにおけるカメラ405とマイク406と表示部401は、図4を用いて説明したとおりであり、操作入力部402は表示部401と一体化されて、表示部401の表示がタッチされることにより操作が入力される。 6A, 6B, and 6C are diagrams showing an example of the screen display of the smartphone 110, respectively. In the sequence described with reference to FIG. 5, the smartphone 110 displays a screen described with reference to FIGS. 6A, 6B, and 6C. The camera 405, the microphone 406, and the display unit 401 in FIGS. 6A, 6B, and 6C are as described with reference to FIG. 4, and the operation input unit 402 is integrated with the display unit 401 to form the display unit 401. The operation is input by touching the display of.

ステップ500:スマートフォン110は、図6Aに示すように複数のアイコンを表示部401に表示し、ユーザによりテレビ会議アプリのアイコン601が選択(タッチ)されたことを検出して、テレビ会議アプリケーションを起動する。 Step 500: The smartphone 110 displays a plurality of icons on the display unit 401 as shown in FIG. 6A, detects that the user has selected (touched) the icon 601 of the video conferencing application, and starts the video conferencing application. do.

ステップ501:スマートフォン110は、参加するテレビ会議のための会議IDやアカウント・パスワード(認証情報)等の入力を促す画面を表示部401に表示し、ユーザにより会議IDやアカウント・パスワード等が入力されて、入力された会議IDやアカウント・パスワード等をテレビ会議サーバ130へ送信し、テレビ会議への接続を要求する。 Step 501: The smartphone 110 displays a screen prompting the input of the conference ID, account password (authentication information), etc. for the video conference to be participated in on the display unit 401, and the conference ID, account password, etc. are input by the user. Then, the input conference ID, account password, and the like are transmitted to the video conference server 130 to request connection to the video conference.

ステップ502:テレビ会議サーバ130は、スマートフォン110からの要求を受信し、受信した会議IDやアカウント・パスワード等に基づいて、同じテレビ会議に参加する端末との接続処理を開始する。
ステップ503:テレビ会議サーバ130は、スマートフォン110の要求したテレビ会議と同じテレビ会議に参加する端末との接続を確立し、接続が確立したことをスマートフォン110に通知する。
Step 502: The video conference server 130 receives the request from the smartphone 110, and starts the connection process with the terminal participating in the same video conference based on the received conference ID, account password, and the like.
Step 503: The video conference server 130 establishes a connection with a terminal participating in the same video conference as the video conference requested by the smartphone 110, and notifies the smartphone 110 that the connection has been established.

ステップ504:スマートフォン110は、スマートフォン110のカメラ405とマイク406とスピーカ411を用いたテレビ会議の処理を開始する。
ステップ505:スマートフォン110は、カメラ405で撮像された映像とマイク406で集音された音声をテレビ会議サーバ130へ送信する。また、テレビ会議サーバ130から送られてくる他の端末の映像と音声の受信し、映像を表示部401に表示して音声をスピーカ411で出力する。
Step 504: The smartphone 110 starts processing a video conference using the camera 405, the microphone 406, and the speaker 411 of the smartphone 110.
Step 505: The smartphone 110 transmits the video captured by the camera 405 and the sound collected by the microphone 406 to the video conferencing server 130. Further, the video and audio of another terminal sent from the video conference server 130 are received, the video is displayed on the display unit 401, and the audio is output by the speaker 411.

ステップ506:テレビ会議サーバ130は、スマートフォン110から受信した映像と音声を同じ会議に参加する端末に転送する。また、同じ会議に参加した端末から受信した映像と音声をスマートフォン110に転送する。
ステップ507:スマートフォン110は、図6Bに示すように映像出力先設定メニュー602を表示部401に表示し、ユーザにより「プロジェクタ」が選択(タッチ)されたことを検出して、通信部407でプロジェクタ100に表示画面の送信を開始する。映像出力先設定メニュー602は、テレビ会議アプリケーションが起動されると表示されてもよいし、テレビ会議アプリケーションの特定のメニューが選択されると表示されてもよい。
Step 506: The video conference server 130 transfers the video and audio received from the smartphone 110 to the terminals participating in the same conference. In addition, the video and audio received from the terminals participating in the same conference are transferred to the smartphone 110.
Step 507: The smartphone 110 displays the video output destination setting menu 602 on the display unit 401 as shown in FIG. 6B, detects that the user has selected (touched) the “projector”, and the communication unit 407 detects the projector. The transmission of the display screen is started at 100. The video output destination setting menu 602 may be displayed when the video conferencing application is started, or may be displayed when a specific menu of the video conferencing application is selected.

ステップ508:プロジェクタ100は、通信部113でスマートフォン110からの表示画面の受信を検出すると、受信した表示画面の表示を開始してステップ509へ進む。
ステップ509:プロジェクタ100は、プロジェクタ100のカメラ101とマイク102とスピーカ112が利用可能であることを、通信部113でスマートフォン110に通知する。
Step 508: When the projector 100 detects the reception of the display screen from the smartphone 110 by the communication unit 113, the projector 100 starts displaying the received display screen and proceeds to step 509.
Step 509: The projector 100 notifies the smartphone 110 by the communication unit 113 that the camera 101, the microphone 102, and the speaker 112 of the projector 100 are available.

ステップ510:スマートフォン110は、プロジェクタ100からステップ509の通知を受けると、図6Cに示すようにカメラ・マイク・スピーカ利用確認メニュー603を表示部401に表示し、ユーザにより「はい」が選択(タッチ)されたことを検出するとステップ511へ進み、「いいえ」が選択(タッチ)されたことを検出すると、テレビ会議の開始動作としては終了する。 Step 510: When the smartphone 110 receives the notification of step 509 from the projector 100, the camera / microphone / speaker usage confirmation menu 603 is displayed on the display unit 401 as shown in FIG. 6C, and “Yes” is selected (touched) by the user. ) Is detected, the process proceeds to step 511, and when it is detected that "No" is selected (touched), the video conferencing start operation ends.

ステップ511:カメラ・マイク・スピーカ利用確認メニュー603において「はい」が選択されているので、スマートフォン110は、プロジェクタ100にカメラ101とマイク102とスピーカ112の利用を通信部407で通知する。
ステップ512:プロジェクタ100は、スマートフォン110からステップ511の通知を通信部113で受けると、プロジェクタ100のカメラ101とマイク102を利用した撮像と集音を開始する。
Step 511: Since "Yes" is selected in the camera / microphone / speaker usage confirmation menu 603, the smartphone 110 notifies the projector 100 of the use of the camera 101, the microphone 102, and the speaker 112 by the communication unit 407.
Step 512: When the projector 100 receives the notification of step 511 from the smartphone 110 in the communication unit 113, the projector 100 starts imaging and sound collection using the camera 101 and the microphone 102 of the projector 100.

ステップ513:プロジェクタ100は、通信部113でスマートフォン110にプロジェクタ100のカメラ101とマイク102で撮像した映像と集音した音声の送信を開始し、スマートフォン110からの音声の受信を開始してスピーカ112で出力できるようにする。
ステップ514:スマートフォン110は、通信部407でプロジェクタ100から映像と音声の受信を開始し、プロジェクタ100へ音声の送信を開始する。
Step 513: The projector 100 starts transmitting the image captured by the camera 101 of the projector 100 and the microphone 102 and the sound collected by the communication unit 113 to the smartphone 110, and starts receiving the sound from the smartphone 110 to the speaker 112. To be able to output with.
Step 514: The smartphone 110 starts receiving video and audio from the projector 100 at the communication unit 407, and starts transmitting audio to the projector 100.

ステップ515:スマートフォン110は、テレビ会議サーバ130に送信する映像と音声を、スマートフォン110のカメラ405とマイク406で得られるのものから、プロジェクタ100から受信した映像と音声に切替え、テレビ会議サーバ130から受信する音声を、スマートフォン110のスピーカ411の出力から、プロジェクタ100への音声の送信に切替える。 Step 515: The smartphone 110 switches the video and audio transmitted to the video conferencing server 130 from those obtained by the camera 405 and microphone 406 of the smartphone 110 to the video and audio received from the projector 100, and from the video conferencing server 130. The received sound is switched from the output of the speaker 411 of the smartphone 110 to the transmission of the sound to the projector 100.

以上で説明したように、スマートフォン110で利用しているアプリケーションを用いてテレビ会議を開始し、スマートフォン110がプロジェクタ100へ映像出力することをきっかけにして、プロジェクタ100がプロジェクタのカメラ101とマイク102とスピーカ112が利用可能なことをスマートフォン110に通知し、簡単に連携できる。 As described above, when a video conference is started using the application used in the smartphone 110 and the smartphone 110 outputs a video to the projector 100, the projector 100 uses the projector camera 101 and the microphone 102. The smartphone 110 is notified that the speaker 112 is available, and cooperation can be easily performed.

そして、スマートフォン110がプロジェクタ100のカメラ101とマイク102で得られる映像と音声をテレビ会議に用い、テレビ会議の音声にスピーカ112を用いることにより、ユーザが日常的に利用しているスマートフォン110とそのアプリケーションを用いて、テレビ会議に適したカメラとマイクとスピーカを利用できるようになり、ユーザの利便性を高めることができる。 Then, the smartphone 110 uses the video and audio obtained by the camera 101 and the microphone 102 of the projector 100 for the video conference, and the speaker 112 is used for the sound of the video conference. By using the application, it becomes possible to use a camera, a microphone and a speaker suitable for video conferencing, and it is possible to improve the convenience of the user.

また、テレビ会議に参加するための情報(認証情報、パスワード等)として、スマートフォン110の情報を利用できるため、情報の入力が容易であるとともに、特別で専用の情報が不要となり、普及している参加の手順を利用しやすくなる。 In addition, since the information of the smartphone 110 can be used as the information (authentication information, password, etc.) for participating in the video conference, it is easy to input the information, and special special information is not required, which is widespread. It will be easier to use the participation procedure.

図5に示したシーケンスの例では、スマートフォン110でテレビ会議を開始(ステップ504)した後に、プロジェクタ100への映像出力とプロジェクタ100のカメラ101とマイク102とスピーカ112の利用を始めたが、このシーケンスに限定されるものではない。 In the example of the sequence shown in FIG. 5, after starting the video conference (step 504) on the smartphone 110, the video output to the projector 100 and the use of the camera 101, the microphone 102, and the speaker 112 of the projector 100 are started. It is not limited to the sequence.

例えば、図7に示すように、スマートフォン110でテレビ会議を開始(ステップ714)する前に、スマートフォン110からプロジェクタ100への映像出力をし(ステップ701)、テレビ会議アプリケーションが起動(ステップ705)された時点では、プロジェクタ100のカメラ101とマイク102とスピーカ112が利用可能とされてもよい。 For example, as shown in FIG. 7, before starting the video conferencing on the smartphone 110 (step 714), the video is output from the smartphone 110 to the projector 100 (step 701), and the video conferencing application is started (step 705). At that time, the camera 101, the microphone 102, and the speaker 112 of the projector 100 may be available.

図7のステップ701からステップ703は、図5のステップ507からステップ509に対応し、スマートフォン110は、ステップ704にて通知を受信する。その後、ステップ705にてスマートフォン110のテレビ会議アプリケーションが起動されると、スマートフォン110は、ステップ704で予め受信した通知をもとにステップ706を実行する。ステップ707からステップ710は、ステップ511からステップ514に対応し、ステップ711からステップ714は、ステップ501からステップ504に対応する。 Steps 701 to 703 of FIG. 7 correspond to steps 507 to 509 of FIG. 5, and the smartphone 110 receives the notification in step 704. After that, when the video conferencing application of the smartphone 110 is started in step 705, the smartphone 110 executes step 706 based on the notification received in advance in step 704. Steps 707 to 710 correspond to steps 511 to 514, and steps 711 to 714 correspond to steps 501 to 504.

ステップ715からステップ716は、ステップ505からステップ506に対応するが、ステップ505ではスマートフォン110のカメラ405等が用いられるのに対し、ステップ715では既にステップ710が実行されていると、プロジェクタ100のカメラ101等が用いられる。 Steps 715 to 716 correspond to steps 505 to 506. In step 505, the camera 405 of the smartphone 110 or the like is used, whereas in step 715, if step 710 is already executed, the camera of the projector 100 101 and the like are used.

また、スマートフォン110がプレゼンテーション用アプリケーション等のカメラとマイクとスピーカの利用が不要なアプリケーションの画面をプロジェクタ100に出力している際には、図6Cに示すようなカメラ・マイク・スピーカ利用確認メニュー603が表示されず、テレビ会議アプリケーション等のカメラとマイクの利用が必要となるアプリケーションを起動したときのみ、カメラ・マイク・スピーカ利用確認メニュー603が表示されるため、メニュー表示の煩わしさがなくユーザの利便性を高めることができる。 Further, when the smartphone 110 outputs the screen of an application such as a presentation application that does not require the use of a camera, a microphone, and a speaker to the projector 100, the camera / microphone / speaker usage confirmation menu 603 as shown in FIG. 6C. Is not displayed, and the camera / microphone / speaker usage confirmation menu 603 is displayed only when an application that requires the use of the camera and microphone, such as a video conference application, is displayed. Convenience can be enhanced.

なお、プロジェクタ100の通信部113とスマートフォン110の通信部407とは、例えばBluetoothのペアリングあるいはこれに相当する動作により、予め通信可能となっていてもよい。また、スマートフォン110からプロジェクタ100への映像出力は、スマートフォン110のOSの実行による映像出力であってもよい。 The communication unit 113 of the projector 100 and the communication unit 407 of the smartphone 110 may be capable of communicating in advance by, for example, pairing with Bluetooth or an operation equivalent thereto. Further, the video output from the smartphone 110 to the projector 100 may be the video output by executing the OS of the smartphone 110.

ステップ701において、OSの実行により出力できる映像であれば、どのような映像であるかは限定されるものではないが、例えばスマートフォン110の表示部401に表示された映像と同じ映像の出力であってもよい。このため、スマートフォン110の表示部401のミラー画像が、プロジェクタ100により投写されてもよい。 In step 701, the video is not limited as long as it can be output by executing the OS, but the output is the same as the video displayed on the display unit 401 of the smartphone 110, for example. You may. Therefore, the mirror image of the display unit 401 of the smartphone 110 may be projected by the projector 100.

テレビ会議システムとして、テレビ会議サーバ130と通信することによりテレビ会議に参加する構成を説明したが、この構成に限定されるものではない。例えば、テレビ会議サーバ130が存在せず、スマートフォン110はテレビ会議に参加する端末とネットワーク120を介して直接に通信するP2P(ポイント・ツー・ポイント)接続による通信であってもよい。 As a video conferencing system, a configuration for participating in a video conferencing by communicating with a video conferencing server 130 has been described, but the present invention is not limited to this configuration. For example, the video conference server 130 does not exist, and the smartphone 110 may be a P2P (point-to-point) connection that directly communicates with a terminal participating in the video conference via the network 120.

以下、本発明に係る実施例2を、図8から図10を用いて説明する。実施例1ではスマートフォン110を経由してプロジェクタ100が映像と音声を送信したが、実施例2ではテレビ会議の参加にスマートフォン110を利用し、スマートフォン110を経由せずにプロジェクタ100が映像と音声を送信する。実施例1と同じ構成は詳細な説明を省略し、特に異なる構成について説明する。 Hereinafter, Example 2 according to the present invention will be described with reference to FIGS. 8 to 10. In the first embodiment, the projector 100 transmitted the video and audio via the smartphone 110, but in the second embodiment, the smartphone 110 is used to participate in the video conference, and the projector 100 transmits the video and audio without going through the smartphone 110. Send. The same configuration as in the first embodiment will be omitted in detail, and a different configuration will be described in particular.

図8は、実施例2に係るテレビ会議システムの一例を示す図である。実施例1と異なる点は、プロジェクタ100がネットワーク120と直接通信できることである。これにより、プロジェクタ100はカメラ101で撮像した映像やマイク102で集音した音声を、ネットワーク120を介してテレビ会議サーバ130に送信する。 FIG. 8 is a diagram showing an example of the video conferencing system according to the second embodiment. The difference from the first embodiment is that the projector 100 can directly communicate with the network 120. As a result, the projector 100 transmits the video captured by the camera 101 and the sound collected by the microphone 102 to the video conferencing server 130 via the network 120.

プロジェクタ100の構成は図3を用いて説明したとおりであるが、プロジェクタ100の通信部113は、スマートフォン110の通信部407と通信する以外にアクセスポイント等を介してネットワーク120と通信してもよい。また、プロジェクタ100は、図示を省略した移動体通信部あるいは有線通信部を備えてネットワーク120と通信してもよい。スマートフォン110の構成は図4を用いて説明したとおりである。 The configuration of the projector 100 is as described with reference to FIG. 3, but the communication unit 113 of the projector 100 may communicate with the network 120 via an access point or the like in addition to communicating with the communication unit 407 of the smartphone 110. .. Further, the projector 100 may be provided with a mobile communication unit or a wired communication unit (not shown) to communicate with the network 120. The configuration of the smartphone 110 is as described with reference to FIG.

図9は、実施例2に係るテレビ会議開始の動作の一例を示すシーケンス図である。図9のステップ900からステップ910は、図5のステップ500からステップ510に対応する。以下、図5のシーケンス図と動作が異なるステップ911以降を説明する。 FIG. 9 is a sequence diagram showing an example of the operation of starting the video conference according to the second embodiment. Steps 900 to 910 of FIG. 9 correspond to steps 500 to 510 of FIG. Hereinafter, steps 911 and subsequent steps in which the operation differs from the sequence diagram of FIG. 5 will be described.

ステップ911:カメラ・マイク利用確認のメニューにおいて「はい」が選択されているので、スマートフォン110は、テレビ会議サーバ130に送信中のスマートフォン110のカメラ405とマイク406を用いた映像と音声の送信を中断する。また、この中断にともない、テレビ会議サーバ130におけるスマートフォン110から受信する映像と音声の他の端末への転送が中断される。 Step 911: Since "Yes" is selected in the camera / microphone usage confirmation menu, the smartphone 110 transmits video and audio using the camera 405 and microphone 406 of the smartphone 110 being transmitted to the video conference server 130. Suspend. Further, along with this interruption, the transfer of the video and audio received from the smartphone 110 in the video conference server 130 to another terminal is interrupted.

ステップ912:スマートフォン110は、プロジェクタ100にテレビ会議サーバ130の接続先と会議IDやアカウント・パスワード(認証情報)等のテレビ会議への接続に必要な情報を送信し、映像と音声をテレビ会議サーバ130に送信するように指示する。なお、テレビ会議サーバ130の接続先は、IPアドレスやURL等で表される情報であってもよい。 Step 912: The smartphone 110 transmits to the projector 100 the connection destination of the video conferencing server 130 and information necessary for connecting to the video conferencing such as the conference ID and account password (authentication information), and transmits video and audio to the video conferencing server. Instruct 130 to send. The connection destination of the video conference server 130 may be information represented by an IP address, a URL, or the like.

ステップ913:プロジェクタ100は、テレビ会議サーバ130の接続先と会議IDやアカウント・パスワード等のテレビ会議への接続に必要な情報を受信し、プロジェクタ100のカメラ101とマイク102を利用した撮像と集音を開始する。 Step 913: The projector 100 receives the connection destination of the video conference server 130 and information necessary for connecting to the video conference such as the conference ID and the account password, and captures and collects images using the camera 101 and the microphone 102 of the projector 100. Start the sound.

ステップ914:プロジェクタ100は、スマートフォン110から受信したテレビ会議サーバ130の接続先と会議IDやアカウント・パスワード等のテレビ会議への接続に必要な情報を用いて、テレビ会議サーバ130に接続し、プロジェクタ100のカメラ101とマイク102で撮像した映像と集音した音声の送信を開始する。
ステップ915:テレビ会議サーバ130は、プロジェクタ100から受信した映像と音声を用いて、同じ会議に参加する他の端末に対して、映像と音声の転送を再開する。
Step 914: The projector 100 connects to the video conferencing server 130 using the connection destination of the video conferencing server 130 received from the smartphone 110 and information necessary for connecting to the video conferencing such as the conference ID and account password, and the projector Transmission of the video captured by the 100 cameras 101 and the microphone 102 and the collected sound is started.
Step 915: The video conferencing server 130 resumes the transfer of video and audio to other terminals participating in the same conference by using the video and audio received from the projector 100.

以上で説明したように、スマートフォン110等で利用しているアプリケーションを用いてテレビ会議を開始し、スマートフォン110がプロジェクタ100に映像出力することをきっかけにして、プロジェクタ100がプロジェクタ100のカメラ101とマイク102が利用可能なことをスマートフォン110に通知し、簡単に連携できる。 As described above, when a video conference is started using the application used by the smartphone 110 or the like and the smartphone 110 outputs a video to the projector 100, the projector 100 uses the camera 101 and the microphone of the projector 100 as a trigger. The smartphone 110 is notified that 102 is available, and cooperation can be easily performed.

そして、スマートフォン110がプロジェクタ100のカメラ101とマイク102で得られる映像と音声をテレビ会議サーバ130に送信するようにプロジェクタ100に指示することにより、ユーザが日常的に利用しているスマートフォン110とそのアプリケーションを用いて、テレビ会議に適したカメラ101とマイク102を利用できるようになり、ユーザの利便性を高めることができる。 Then, by instructing the projector 100 to transmit the video and audio obtained by the camera 101 and the microphone 102 of the projector 100 to the video conferencing server 130, the smartphone 110 and the smartphone 110 that the user uses on a daily basis. By using the application, the camera 101 and the microphone 102 suitable for video conferencing can be used, and the convenience of the user can be improved.

また、テレビ会議中の映像と音声をプロジェクタ100からテレビ会議サーバ130に直接送信することにより、スマートフォン110のモバイル通信網を介した通信データ量を削減できる等、ユーザの利便性を高めることができる。 Further, by directly transmitting the video and audio during the video conference from the projector 100 to the video conference server 130, the amount of communication data via the mobile communication network of the smartphone 110 can be reduced, and the convenience of the user can be improved. ..

図9に示したシーケンスの例では、スマートフォン110でテレビ会議を開始(ステップ904)した後に、プロジェクタ100への映像出力とプロジェクタ100のカメラ101とマイク102の利用を始めたが、このシーケンスに限定されるものではない。 In the example of the sequence shown in FIG. 9, after starting the video conference (step 904) on the smartphone 110, the video output to the projector 100 and the use of the camera 101 and the microphone 102 of the projector 100 are started, but the sequence is limited to this sequence. It is not something that is done.

例えば、図10に示すように、スマートフォン110でテレビ会議を開始(ステップ1009)する前に、スマートフォン110からプロジェクタ100への映像出力をし(ステップ1001)、テレビ会議アプリケーションが起動(ステップ1005)された時点では、プロジェクタ100のカメラ101とマイク102が利用可能とされてもよい。 For example, as shown in FIG. 10, before starting the video conferencing on the smartphone 110 (step 1009), the video is output from the smartphone 110 to the projector 100 (step 1001), and the video conferencing application is started (step 1005). At that time, the camera 101 and the microphone 102 of the projector 100 may be available.

図10のステップ1001からステップ1003は、図9のステップ907からステップ909に対応し、スマートフォン110は、ステップ1004にて通知を受信する。その後、ステップ1005にてスマートフォン110のテレビ会議アプリケーションが起動される。ステップ1006からステップ1009は、ステップ901からステップ904に対応し、スマートフォン110は、ステップ1004で予め受信した通知をもとにステップ1010を実行する。 Steps 1001 to 1003 of FIG. 10 correspond to steps 907 to 909 of FIG. 9, and the smartphone 110 receives the notification in step 1004. Then, in step 1005, the video conferencing application of the smartphone 110 is started. Steps 1006 to 1009 correspond to steps 901 to 904, and the smartphone 110 executes step 1010 based on the notification received in advance in step 1004.

ステップ1011からステップ1014は、ステップ912からステップ915に対応する。また、ステップ1015はステップ905に対応し、スマートフォン110は、スマートフォン110のカメラ405とマイク406を用いる。 Steps 1011 to 1014 correspond to steps 912 to 915. Further, step 1015 corresponds to step 905, and the smartphone 110 uses the camera 405 and the microphone 406 of the smartphone 110.

また、スマートフォン110がプレゼンテーション用アプリケーション等、カメラとマイクの利用が不要なアプリケーションの画面をプロジェクタ100に出力している際には、図6Cに示すようなカメラ・マイク利用確認のメニューが表示されず、テレビ会議アプリケーション等のカメラとマイクの利用が必要となるアプリケーションを起動したときのみ、カメラ・マイク利用確認のメニューが表示されるため、メニュー表示の煩わしさがなくユーザの利便性を高めることができる。 Further, when the smartphone 110 outputs the screen of an application such as a presentation application that does not require the use of a camera and a microphone to the projector 100, the camera / microphone usage confirmation menu as shown in FIG. 6C is not displayed. , The camera / microphone usage confirmation menu is displayed only when an application that requires the use of a camera and microphone, such as a video conferencing application, is displayed, so the user's convenience can be improved without the hassle of displaying the menu. can.

なお、以上で説明した各実施例の構成の一部を削除したり、他の実施例の構成の一部で置き換えたりしてもよく、各実施例の構成へ他の実施例の構成の一部を追加したりしてもよい。 It should be noted that a part of the configuration of each embodiment described above may be deleted or replaced with a part of the configuration of another embodiment, and one of the configurations of other embodiments may be added to the configuration of each embodiment. You may add a part.

100 プロジェクタ
101 カメラ
102 マイク
110 スマートフォン
112 スピーカ
120 ネットワーク
130 テレビ会議サーバ
405 カメラ
406 マイク
100 Projector 101 Camera 102 Microphone 110 Smartphone 112 Speaker 120 Network 130 Video Conferencing Server 405 Camera 406 Microphone

Claims (4)

映像を表示する映像装置と、前記映像装置と通信し、他の機器とネットワーク経由で通信する無線端末と、を含む情報処理システムであって、
前記映像装置は、
映像出力指示情報を前記無線端末から受信したことを検出した後に、前記映像装置のカメラと前記映像装置のマイクと前記映像装置のスピーカとが利用可能であることを前記無線端末へ通知し、前記無線端末から、前記他の機器へ前記ネットワーク経由で接続するために必要な情報を受信した場合に、前記ネットワーク経由で前記他の機器へ接続し、
前記無線端末は、
認証情報を送信して前記他の機器へ前記ネットワーク経由で接続し、
前記無線端末の表示部に、前記映像装置の前記カメラと前記映像装置の前記マイクとを利用するか否かを選択する操作入力を受け付けるメニュー画面を表示し、
前記メニュー画面を介して、前記映像装置の前記カメラと前記映像装置の前記マイクとを利用することを選択する操作入力が入力された場合に、前記他の機器へ前記ネットワーク経由で接続するために必要な情報を前記映像装置へ送信し、
前記メニュー画面を介して、前記映像装置の前記カメラと前記映像装置の前記マイクとを利用しないことを選択する操作入力が入力された場合に、前記無線端末のカメラで撮像した映像情報と前記無線端末のマイクで集音した音声情報とを前記他の機器へ前記ネットワーク経由で送信し、
前記他の機器は、
前記無線端末から、前記無線端末のカメラで撮像した映像情報と前記無線端末のマイクで集音した音声情報とを前記ネットワーク経由で受信し、前記無線端末で表示するための映像の情報と前記無線端末のスピーカで出力するための音声の情報とを前記ネットワーク経由で前記無線端末に送信するものであり、
前記無線端末から前記映像装置へ送信される、前記他の機器へ前記ネットワーク経由で接続するために必要な情報には、URLまたはIPアドレスで表される前記他の機器の接続先情報が含まれる、
ことを特徴とする情報処理システム。
An information processing system including a video device that displays video and a wireless terminal that communicates with the video device and communicates with other devices via a network.
The video device
After detecting that the video output instruction information has been received from the wireless terminal, the wireless terminal is notified that the camera of the video device, the microphone of the video device, and the speaker of the video device are available. When the wireless terminal receives the information necessary for connecting to the other device via the network, the wireless terminal connects to the other device via the network.
The wireless terminal is
Send the authentication information to connect to the other device via the network,
A menu screen for accepting an operation input for selecting whether or not to use the camera of the video device and the microphone of the video device is displayed on the display unit of the wireless terminal.
To connect to the other device via the network when an operation input for selecting to use the camera of the video device and the microphone of the video device is input via the menu screen. Send the necessary information to the video device and
When an operation input for selecting not to use the camera of the video device and the microphone of the video device is input via the menu screen, the video information captured by the camera of the wireless terminal and the radio The voice information collected by the microphone of the terminal is transmitted to the other device via the network, and the sound information is transmitted to the other device via the network.
The other equipment
From the wireless terminal, the video information captured by the camera of the wireless terminal and the audio information collected by the microphone of the wireless terminal are received via the network, and the video information to be displayed on the wireless terminal and the wireless. The voice information to be output by the speaker of the terminal is transmitted to the wireless terminal via the network.
The information transmitted from the wireless terminal to the video device and necessary for connecting to the other device via the network includes connection destination information of the other device represented by a URL or an IP address. ,
An information processing system characterized by this.
請求項1に記載の情報処理システムであって、
前記映像装置の前記カメラは、前記映像装置の表示した映像を含めて撮像し、
前記他の機器は、テレビ会議サーバであること
を特徴とする情報処理システム。
The information processing system according to claim 1.
The camera of the video device captures images including the video displayed by the video device.
The other device is an information processing system characterized by being a video conference server.
請求項2に記載の情報処理システムであって、
前記認証情報は、テレビ会議の参加の情報を含むこと
を特徴とする情報処理システム。
The information processing system according to claim 2.
The authentication information is an information processing system including information on participation in a video conference.
映像を表示する映像装置と通信し、他の機器とネットワーク経由で通信する無線端末であって、
表示する映像の情報を前記他の機器から前記ネットワーク経由で受信して、前記映像装置へ送信し、
前記映像装置からの、前記映像装置のカメラと前記映像装置のマイクとが利用可能であることの通知を受信した後に、前記映像装置の前記カメラと前記映像装置の前記マイクとを利用するか否かを選択する操作入力を受け付けるメニュー画面を前記無線端末の表示部に表示し、
前記メニュー画面を介して、前記映像装置の前記カメラと前記映像装置の前記マイクとを利用することを選択する操作入力が入力された場合に、前記他の機器へ前記ネットワーク経由で接続するために必要な情報を前記映像装置へ送信し、
前記メニュー画面を介して、前記映像装置の前記カメラと前記映像装置の前記マイクとを利用しないことを選択する操作入力が入力された場合に、前記無線端末のカメラで撮像した映像情報と前記無線端末のマイクで集音した音声情報とを前記他の機器へ前記ネットワーク経由で送信するものであり、
前記他の機器へ前記ネットワーク経由で接続するために必要な情報には、URLまたはIPアドレスで表される前記他の機器の接続先情報が含まれる、
ことを特徴とする無線端末。
A wireless terminal that communicates with a video device that displays video and communicates with other devices via a network.
Information on the video to be displayed is received from the other device via the network and transmitted to the video device.
Whether to use the camera of the video device and the microphone of the video device after receiving the notification from the video device that the camera of the video device and the microphone of the video device are available. A menu screen for accepting operation input for selecting is displayed on the display unit of the wireless terminal.
To connect to the other device via the network when an operation input for selecting to use the camera of the video device and the microphone of the video device is input via the menu screen. Send the necessary information to the video device and
When an operation input for selecting not to use the camera of the video device and the microphone of the video device is input via the menu screen, the video information captured by the camera of the wireless terminal and the radio The voice information collected by the microphone of the terminal is transmitted to the other device via the network.
The information required to connect to the other device via the network includes the connection destination information of the other device represented by a URL or an IP address.
A wireless terminal characterized by that.
JP2020173772A 2019-10-01 2020-10-15 Information processing system and wireless terminal Active JP6922060B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020173772A JP6922060B2 (en) 2019-10-01 2020-10-15 Information processing system and wireless terminal
JP2021123624A JP7149386B2 (en) 2020-10-15 2021-07-28 Information processing system and wireless terminal

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019181326A JP6781318B2 (en) 2019-10-01 2019-10-01 Information processing system and wireless terminal
JP2020173772A JP6922060B2 (en) 2019-10-01 2020-10-15 Information processing system and wireless terminal

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019181326A Division JP6781318B2 (en) 2019-10-01 2019-10-01 Information processing system and wireless terminal

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021123624A Division JP7149386B2 (en) 2020-10-15 2021-07-28 Information processing system and wireless terminal

Publications (2)

Publication Number Publication Date
JP2021036678A JP2021036678A (en) 2021-03-04
JP6922060B2 true JP6922060B2 (en) 2021-08-18

Family

ID=74716389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020173772A Active JP6922060B2 (en) 2019-10-01 2020-10-15 Information processing system and wireless terminal

Country Status (1)

Country Link
JP (1) JP6922060B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5775927B2 (en) * 2010-04-30 2015-09-09 アメリカン テレカンファレンシング サービシーズ リミテッド System, method, and computer program for providing a conference user interface
US8896651B2 (en) * 2011-10-27 2014-11-25 Polycom, Inc. Portable devices as videoconferencing peripherals
US8830295B2 (en) * 2012-05-23 2014-09-09 Google Inc. Multimedia conference endpoint transfer system

Also Published As

Publication number Publication date
JP2021036678A (en) 2021-03-04

Similar Documents

Publication Publication Date Title
US11477316B2 (en) Information processing system, wireless terminal, and information processing method
JP5849484B2 (en) Transmission terminal, display data transmission method, program, information providing apparatus, and transmission system
CN104657099B (en) Screen projective techniques, apparatus and system
US10205776B2 (en) Method and device for wireless connection
WO2016101482A1 (en) Connection method and device
EP3151550A1 (en) Apparatus, system and method of controlling display of image data, and carrier means
CN109753259B (en) Screen projection system and control method
JP6781318B2 (en) Information processing system and wireless terminal
CN114501089A (en) Screen-casting call method and device, electronic equipment and storage medium
US20140362166A1 (en) Incoming call display method, electronic device, and incoming call display system
JP6922060B2 (en) Information processing system and wireless terminal
JP7149386B2 (en) Information processing system and wireless terminal
JP2010016885A (en) Communication apparatus and method, communication system, and program recording medium
JP6391219B2 (en) system
KR100640429B1 (en) Multi-function device and method for controlling the device
TW202218404A (en) An audio-visual content sharing system and method thereof
JP6680031B2 (en) Conference apparatus, transmission method, and computer program
KR100630101B1 (en) Method for controlling portable home theater with multi-function in wireless terminal
JP2005295574A (en) Communication equipment
JP2016100841A (en) Communication device, imaging apparatus, communication device control method and program
CN116708385A (en) System for screen sharing among participant devices
JP2005304039A (en) Communication apparatus
JP2016040863A (en) Radio communication system, terminal device, and communication control method
JP2011071797A (en) Communication terminal
JP2012235331A (en) Telephone system, television receiver, and remote controller

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210728

R150 Certificate of patent or registration of utility model

Ref document number: 6922060

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250