WO2017090076A1 - 情報処理システム、無線端末、及び情報処理方法 - Google Patents

情報処理システム、無線端末、及び情報処理方法 Download PDF

Info

Publication number
WO2017090076A1
WO2017090076A1 PCT/JP2015/082821 JP2015082821W WO2017090076A1 WO 2017090076 A1 WO2017090076 A1 WO 2017090076A1 JP 2015082821 W JP2015082821 W JP 2015082821W WO 2017090076 A1 WO2017090076 A1 WO 2017090076A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
information
wireless terminal
camera
microphone
Prior art date
Application number
PCT/JP2015/082821
Other languages
English (en)
French (fr)
Inventor
孝志 松原
Original Assignee
日立マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立マクセル株式会社 filed Critical 日立マクセル株式会社
Priority to CN201580084638.0A priority Critical patent/CN108293104B/zh
Priority to PCT/JP2015/082821 priority patent/WO2017090076A1/ja
Priority to JP2017552550A priority patent/JP6598875B2/ja
Priority to CN202110060897.7A priority patent/CN112911197A/zh
Priority to US15/775,414 priority patent/US10616529B2/en
Publication of WO2017090076A1 publication Critical patent/WO2017090076A1/ja
Priority to US16/799,903 priority patent/US10887441B2/en
Priority to US17/109,643 priority patent/US11477316B2/en
Priority to US17/944,560 priority patent/US20230007117A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/567Multimedia conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication
    • H04W12/068Authentication using credential vaults, e.g. password manager applications or one time password [OTP] applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/06Selective distribution of broadcast services, e.g. multimedia broadcast multicast service [MBMS]; Services to user groups; One-way selective calling services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0272Details of the structure or mounting of specific components for a projector or beamer module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/60Substation equipment, e.g. for use by subscribers including speech amplifiers
    • H04M1/6033Substation equipment, e.g. for use by subscribers including speech amplifiers for providing handsfree use or a loudspeaker mode in telephone sets
    • H04M1/6041Portable telephones adapted for handsfree use
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/50Telephonic communication in combination with video communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/563User guidance or feature selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • H04N2007/145Handheld terminals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/152Multipoint control units therefor

Definitions

  • the present invention relates to an information processing system, a wireless terminal, and an information processing method.
  • Patent Document 1 aims to “provide a projector that allows a user to appropriately participate in or view a video conference or a remote presentation held on a network”.
  • Means a projection means for projecting an image based on the video signal, a mode selection means for selecting a server mode and a client mode based on a determination result of the determination means, and a server mode on the network when the client mode is selected.
  • the video data projected by this projector is received from If the video data is output to the projection unit has to select the server mode, the client mode of the projector on the network, projecting means transmits the image data to be projected, "projector is described.
  • Patent Document 1 If the technology described in Patent Document 1 is used, it is possible to participate in a video conference as appropriate. However, in order to participate in a video conference, a device such as a projector is connected to the video conference server and transmits authentication information, which is not convenient. There are also videophone calls and videoconferencing using smartphones, and there are already authentications for this, but the cooperation between smartphones and projectors has not been considered.
  • an object of the present invention is to improve user convenience.
  • the present application includes a plurality of configurations that solve the above-described problems.
  • a video device that displays video
  • a wireless terminal that communicates with the video device, and communicates with other devices via a network
  • the video device detects reception of video information to be displayed from the wireless terminal
  • the video device transmits and receives video information captured by the camera and audio information collected by the microphone.
  • Audio information is output from a speaker
  • the wireless terminal transmits video information to be displayed to the video device
  • the other device receives captured video information and collected audio information via the network
  • the video information to be displayed and the audio information to be output are transmitted via the network.
  • FIG. 1 is a diagram illustrating an example of a system configuration according to Embodiment 1.
  • FIG. It is a figure which shows an example of a video conference. It is a figure which shows an example of a structure of a projector. It is a figure which shows an example of a structure of a smart phone. It is a sequence diagram which shows an example of the operation
  • FIG. It is a figure which shows an example of the 1st screen display of a smart phone. It is a figure which shows an example of the 2nd screen display of a smart phone. It is a figure which shows an example of the 3rd screen display of a smart phone.
  • FIG. 10 is a diagram illustrating an example of a system configuration according to a second embodiment.
  • FIG. 10 is a sequence diagram illustrating an example of an operation of starting a first video conference according to the second embodiment.
  • FIG. 10 is a sequence diagram illustrating an example of an operation of starting a second video conference according to the second embodiment.
  • a video conference system a system that transmits and receives between remote terminals via a network
  • the video conference system is not limited to the following embodiments. Further, the system is not limited to the video conference system.
  • a video conference with a remote place is performed using a video conference application of a smartphone (wireless terminal), a video conference camera and a microphone that are suitable for use by a plurality of people with a smartphone built in the projector.
  • a video conference camera and a microphone that are suitable for use by a plurality of people with a smartphone built in the projector.
  • FIG. 1 is a diagram showing an example of the configuration of the video conference system according to the present embodiment.
  • the video conference system according to the present embodiment includes, for example, a projector 100, a smartphone 110, a network 120, and a video conference server 130.
  • the projector 100 is a device that projects an image so that it can be viewed by a large number of people.
  • the projector 100 includes a video conference camera 101, a microphone 102, and a speaker 112.
  • the camera 101, the microphone 102, and the speaker 112 are built in the projector 100.
  • the camera 101, the microphone 102, and the speaker 112 may be externally attached to the projector 100 as necessary.
  • 101, microphone 102, and a plurality of speakers 112 may be provided.
  • the projector 100 and the smartphone 110 communicate with each other through predetermined inter-device communication means built in each.
  • the inter-device communication means may be a device that communicates via a wireless LAN (Local Area Network) such as Wi-Fi (registered trademark), or may communicate via a wired LAN. Further, other wired or wireless communication such as USB, Bluetooth (registered trademark), IrDA (registered trademark), NFC (Near Field Communication) may be used.
  • Wi-Fi is a wireless LAN standard established by the IEEE (American Institute of Electrical and Electronics Engineers) standard.
  • USB is a standard established by USB-IF (USB Implementers Forum).
  • Bluetooth is a standard established by Bluetooth SIG (Bluetooth Special Interest Group).
  • the network 120 is a network that can communicate between remote locations such as the Internet and an in-house network or between in-house devices.
  • a part or all of the network 120 may include a wireless LAN such as Wi-Fi or a wired LAN.
  • the network 120 may include a mobile communication network used for a mobile phone or the like.
  • the video conference server 130 receives a request to start a video conference from a terminal connected to the network 120 such as the smartphone 110, and can transmit and receive video and audio between a plurality of terminals participating in the same video conference. It manages connections between terminals and transfers data such as video and audio sent from each terminal.
  • the video conference server 130 may store video information of materials distributed in the video conference and distribute the video information to a plurality of terminals participating in the same video conference. Audio may be included in the information of the material to be distributed.
  • FIG. 2 is a diagram showing an example of a user using the video conference system.
  • the projector 100 is placed on a conference table surrounded by a plurality of people and a video conference is performed using the video conference application of the smartphone 110.
  • the smartphone 110 transmits video and audio to the projector 100, and as a video transmitted to the projector 100, a camera video of a teleconference partner is displayed on the projected video 201 of the projector 100. Further, as the sound transmitted to the projector 100, the sound collected by the microphone of the other party of the video conference is output from the speaker 112 of the projector 100.
  • the camera image of the other party is displayed on the projected image 201, but the present invention is not limited to this, and the image of the document stored in the video conference server 130 may be displayed. It may be switchable by a switch that omits. Further, the projected image 201 may be divided into two, and the camera image of the other party and the image of the material may be projected simultaneously.
  • the image captured by the camera 101 built in the projector 100 and the sound collected by the microphone 102 are transmitted to the smartphone 110 and input to the video conference application of the smartphone 110.
  • the camera 101 may capture an imaging range 202 for participants in a video conference, and a plurality of imaging ranges 202 may be provided so as to capture a part of many participants.
  • the camera 101 may image the imaging range 203 including the projected image 201.
  • the image of the document is projected on the projected image 201, and the participant points to a specific part of the document and explains it, or by overwriting a part of the document, and so on.
  • the content is easy to communicate.
  • the imaging range 202 and the imaging range 203 of the camera 101 may be switchable by a switch whose illustration is omitted, the camera 101 may be physically movable, or the imaging range 202 and the imaging range 203 Both may be imaged simultaneously.
  • the camera 101 may image a paper material or sample product placed on the conference table as an imaging range.
  • FIG. 3 is a diagram illustrating an example of the configuration of the projector 100.
  • the projector 100 includes, for example, a camera 101, a microphone 102, a video / audio input unit 103, a control unit 104, a memory 105, a video decoding / output unit 107, a display unit 109, a voice decoding / output unit 111, a speaker 112, a communication unit 113,
  • the antenna 114, the operation input unit 115, the video input / encoding unit 116, the audio input / encoding unit 117, the input terminal 118, and the like are connected to each other via a bus as shown in FIG.
  • the control unit 104 includes, for example, a processor, executes various programs 106 stored in the memory 105, receives information on a user input operation via the operation input unit 115, and is connected to the bus of the projector 100. To control. For example, the control unit 104 reads the programs in the various programs 106 from the memory 105, controls the video input / encoding unit 116 and the communication unit 113 according to the read programs, and inputs video captured by the camera 101 as video input. Control is performed so that the encoding unit 116 inputs and encodes and transmits from the communication unit 113.
  • the control unit 104 is a SoC (System-on-a-Chip) and separates video and audio information input from the video / audio input unit 103 into audio information and video information in addition to the processor. You may have the circuit which each outputs to the decoding / output part 111 and the video decoding / output part 107.
  • FIG. Details of the control of each part of the projector 100 of the control unit 104 by executing the various programs 106 are omitted, and the operation of the projector 100 will be described with reference to FIGS.
  • the memory 105 stores various programs 106 executed by the control unit 104, data written and read by the control unit 104, and the like. Setting information, video data, and audio data of the projector 100 may be stored.
  • Various programs 106 stored in the memory 105 may be stored in the memory 105 in advance when the projector 100 is shipped, or may be stored in a recording medium such as a semiconductor memory via a medium connection unit (not shown). It may be stored in the memory 105 and installed.
  • the various programs 106 may be downloaded from an external network via the communication unit 113, stored in the memory 105, and installed. Note that operations performed by the control unit 104 executing the various programs 106 may be realized by hardware as a circuit that performs the same operation.
  • the communication unit 113 communicates with the smartphone 110 via the antenna 114 according to a predetermined standard or protocol.
  • the standard used by the communication unit 113 may be a wireless LAN such as Wi-Fi or a wired LAN. Also, other wired or wireless communication such as USB, Bluetooth, IrDA, NFC, etc. may be used, and the communication may be performed directly without going through the network 120. Further, the communication unit 113 may be mounted with a plurality of chips that support communication of different standards, or may be mounted with a single chip that supports communication of a plurality of standards.
  • the communication unit 113 outputs the video and audio information received by the antenna 114 to the video / audio input unit 103, and the video and audio information input from the video input / encoding unit 116 and the audio input / encoding unit 117 as an antenna. 114. Video and audio information received by the antenna 114 may be output to the bus.
  • the video / audio input unit 103 inputs video and audio information to be projected by the projector 100 from the input terminal 118. This may be for the original use of projecting the input video of the projector 100, not for the use as a video conference, or for inputting the material referred to in the video conference from a personal computer or the like. And may be used as For this purpose, the video / audio input unit 103 may output video and audio information to the bus in addition to outputting to the control unit 104.
  • the input terminal 118 is, for example, a composite terminal, S terminal, D terminal, component terminal, VGA terminal, DVI terminal, HDMI terminal, or the like.
  • the video / audio input unit 103 may convert the analog signal into a digital signal.
  • the video / audio input unit 103 may select an input from the input terminal 118 and an input from the communication unit 113 or may combine them.
  • the communication unit 113 may input the signal via the bus and transmit it from the antenna 114. At this time, video information or audio information may be selected. For example, the video information of the material is transferred from the video / audio input unit 103 to the communication unit 113, and the audio input / encoding unit 117 is transmitted from the microphone 102. The audio information of the conference participants may be transferred to the communication unit 113 via
  • the video decoding / output unit 107 decodes the video information input from the control unit 104 as necessary, and outputs the decoded video information to the display unit 109.
  • the video information received by the communication unit 113 is compressed / encoded and decoded and output, and the video information input from the input terminal 118 is not compressed / encoded and is output as it is. Also good. Whether or not to perform decoding may be controlled by the control unit 104.
  • part of the video information output from the video decoding / output unit 107 may be video information generated by the control unit 104 by executing various programs 106.
  • the display unit 109 is composed of, for example, a liquid crystal panel, an optical lens, etc., and projects an image on a screen or the like.
  • the image projection structure may be a DLP (registered trademark: Digital Light Processing), a laser light source, or the like, or another image projection structure.
  • the display unit 109 may include a liquid crystal panel that does not project an image.
  • the audio decoding / output unit 111 decodes the audio information input from the control unit 104 as necessary, and outputs the decoded audio information to the speaker 112. For example, the audio information received by the communication unit 113 is compressed / encoded and decoded and output, and the audio information input from the input terminal 118 is not compressed / encoded and is output as it is. Also good. Whether or not to perform decoding may be controlled by the control unit 104. Note that the audio information output by the audio decoding / output unit 111 may be output to an external device (not shown) instead of the speaker 112.
  • the speaker 112 is preferably non-directional and generates a sound with sufficient volume for the conference.
  • the microphone 102 is preferably non-directional and has a sensitivity to collect the voices of the participants in the conference table.
  • the speaker 112 and the microphone 102 may be those that place emphasis on the audio frequency band. Further, a plurality of speakers 112 and microphones 102 may be provided in order to make them nondirectional.
  • the audio input / encoding unit 117 receives the audio information converted into an electric signal by the microphone 102, encodes it to compress the information amount, and outputs the encoded information to the communication unit 113 via the bus.
  • the camera 101 captures the imaging ranges 202 and 203, converts the captured images into electrical signals, and inputs them to the video input / encoding unit 116.
  • a plurality of cameras 101 may be provided in accordance with the imaging ranges 202 and 203, and the plurality of cameras 101 may be connected to the video input / encoding unit 116.
  • the camera 101 may be attached to the projector 100 with a physically movable structure.
  • the video input / encoding unit 116 receives the video information converted by the camera 101 into an electrical signal, encodes it to compress the amount of information, and outputs it to the communication unit 113 via the bus.
  • the video input / encoding unit 116 is connected to a plurality of cameras 101, and when video information is input from each of the plurality of cameras 101, the input of the plurality of cameras 101 may be selected or combined. .
  • the operation input unit 115 is an input device that receives an input operation on the projector 100 from the user, and is, for example, a pointing device such as a remote controller, a keyboard, a mouse, or a touch panel.
  • the structure of the projector 100 has been described. However, instead of projecting an image as the display unit 109, an image display is used, and each structure described with reference to FIG. 3 for a television receiver or a display device. May be provided. That is, the projection image 201 illustrated in FIG. 2 may be a television receiver, and the projector 100 may be included in the television receiver. In this configuration of the television receiver, the camera 101 that captures the imaging range 202 may be provided, the camera 101 that captures the imaging range 203 may not be provided, or the television receiver may be replaced with the camera 101 that captures the imaging range 203. A touch panel or the like may be provided.
  • the display unit 109 and the speaker 112 are removed from the configuration shown in FIG. 3, and instead, each is provided with an output terminal, and is configured by an STB (set top box) or a recorder that does not directly display video or output audio. May be.
  • STB set top box
  • a recorder that does not directly display video or output audio. May be.
  • a personal computer, a monitor device, a tablet terminal, or the like having each configuration shown in FIG.
  • FIG. 4 is a diagram illustrating an example of the configuration of the smartphone 110.
  • the smartphone 110 includes, for example, a camera 405, a microphone 406, a control unit 400, a memory 403, a display unit 401, an operation input unit 402, a communication unit 407, a communication antenna 408, a mobile communication unit 409, a mobile communication antenna 410, and the like. As shown in FIG. 4, each part is connected via a bus.
  • the control unit 400 includes a processor, reads out and executes various programs 412 stored in the memory 403, and controls each unit of the smartphone 110 via a lotus.
  • the control unit 400 is a SoC and may include a circuit related to video and audio processing.
  • the display unit 401 may be a liquid crystal panel, an organic EL (Electroluminescence) display, or the like, and may be integrated with the touch panel of the operation input unit 402.
  • the camera 405 images a specific direction of the smartphone 110, the microphone 406 collects sound around the smartphone 110, and the speaker 411 outputs sound.
  • the communication unit 407 communicates with the projector 100 via the communication antenna 408 according to a predetermined standard or protocol.
  • the communication standard is a standard that allows communication with the projector 100. Since the mobile communication unit 409 communicates with the network 120 via the mobile communication antenna 410 and a mobile communication base station (not shown), the mobile communication unit 409 conforms to mobile communication standards such as 3G, 4G, and LTE. Communication may be performed.
  • the mobile communication unit 409 communicates with the network 120 via the mobile communication antenna 410 and an access point (not shown), even if communication conforming to a wireless LAN standard such as Wi-Fi is performed. Good. Furthermore, the mobile communication unit 409 may communicate with the network 120 via a wired LAN via a terminal (not shown) instead of the mobile communication antenna 410, and a plurality of chips that support communication of different standards are mounted. Alternatively, a single chip that supports communication of a plurality of standards may be mounted.
  • Various programs 412 stored in the memory 403 include a video conference application.
  • the video conference application may be a program such as a video phone (video phone), or may be a phone application program using the display unit 401, the camera 405, the microphone 406, and the like.
  • the various programs 412 may include an OS (Operating System) and a presentation application.
  • FIG. 5 is a sequence diagram illustrating an example of a video conference start operation according to the first embodiment.
  • the operation of starting the video conference is to start a video conference via the video conference server 130 using the video conference application of the smartphone 110, and to display the video 109 and the audio received from the video conference server 130 with the display unit 109 and the speaker of the projector 100.
  • 112 is a sequence until the camera 101 and the microphone 102 of the projector 100 are used for video and audio to be transmitted to the video conference server 130.
  • FIGS. 6A, 6B, and 6C are diagrams each showing an example of a screen display of the smartphone 110.
  • the smartphone 110 displays the screen described using FIGS. 6A, 6B, and 6C.
  • the camera 405, the microphone 406, and the display unit 401 in FIGS. 6A, 6B, and 6C are as described with reference to FIG. 4, and the operation input unit 402 is integrated with the display unit 401. An operation is input by touching the display.
  • Step 500 The smartphone 110 displays a plurality of icons on the display unit 401 as shown in FIG. 6A, detects that the video conference application icon 601 has been selected (touched) by the user, and starts the video conference application. To do.
  • Step 501 The smartphone 110 displays a screen for prompting input of a conference ID and account / password (authentication information) for a participating video conference on the display unit 401, and the conference ID, account / password, and the like are input by the user. Then, the input conference ID, account / password, etc. are transmitted to the video conference server 130 to request connection to the video conference.
  • a conference ID and account / password authentication information
  • Step 502 The video conference server 130 receives a request from the smartphone 110, and starts connection processing with a terminal participating in the same video conference based on the received conference ID, account / password, and the like.
  • Step 503 The video conference server 130 establishes a connection with a terminal that participates in the same video conference as the video conference requested by the smartphone 110, and notifies the smartphone 110 that the connection has been established.
  • Step 504 The smartphone 110 starts a video conference process using the camera 405, the microphone 406, and the speaker 411 of the smartphone 110.
  • Step 505 The smartphone 110 transmits the video captured by the camera 405 and the sound collected by the microphone 406 to the video conference server 130.
  • video and audio of other terminals sent from the video conference server 130 are received, video is displayed on the display unit 401, and audio is output from the speaker 411.
  • Step 506 The video conference server 130 transfers the video and audio received from the smartphone 110 to the terminals participating in the same conference. In addition, the video and audio received from the terminals participating in the same conference are transferred to the smartphone 110.
  • Step 507 The smartphone 110 displays a video output destination setting menu 602 on the display unit 401 as shown in FIG. 6B, detects that “projector” is selected (touched) by the user, and causes the communication unit 407 to project the projector. 100 starts transmission of the display screen.
  • the video output destination setting menu 602 may be displayed when the video conference application is activated, or may be displayed when a specific menu of the video conference application is selected.
  • Step 508 When the communication unit 113 detects the reception of the display screen from the smartphone 110, the projector 100 starts displaying the received display screen and proceeds to Step 509. Step 509: The projector 100 notifies the smartphone 110 via the communication unit 113 that the camera 101, the microphone 102, and the speaker 112 of the projector 100 are available.
  • Step 510 Upon receiving the notification of Step 509 from the projector 100, the smartphone 110 displays the camera / microphone / speaker usage confirmation menu 603 on the display unit 401 as shown in FIG. 6C, and the user selects “Yes” (touch). If it is detected that “No” has been selected (touched), the video conference start operation ends.
  • Step 511 Since “Yes” is selected in the camera / microphone / speaker use confirmation menu 603, the smartphone 110 notifies the projector 100 of the use of the camera 101, the microphone 102, and the speaker 112 via the communication unit 407.
  • Step 512 When the projector 100 receives the notification of step 511 from the smartphone 110 via the communication unit 113, the projector 100 starts imaging and sound collection using the camera 101 and the microphone 102 of the projector 100.
  • Step 513 The projector 100 starts transmission of the image captured by the camera 101 and the microphone 102 of the projector 100 and the collected sound to the smartphone 110 by the communication unit 113, starts reception of the sound from the smartphone 110, and the speaker 112. To be able to output.
  • Step 514 The smartphone 110 starts receiving video and audio from the projector 100 via the communication unit 407, and starts transmitting audio to the projector 100.
  • Step 515 The smartphone 110 switches the video and audio to be transmitted to the video conference server 130 from those obtained by the camera 405 and the microphone 406 of the smartphone 110 to the video and audio received from the projector 100, and from the video conference server 130.
  • the sound to be received is switched from the output of the speaker 411 of the smartphone 110 to the transmission of the sound to the projector 100.
  • a video conference is started using an application used by the smartphone 110, and the projector 100 triggers the video output to the projector 100.
  • the smartphone 110 is notified that the speaker 112 is available, and can be easily linked.
  • the smartphone 110 uses the video and audio obtained by the camera 101 and the microphone 102 of the projector 100 for the video conference, and the speaker 112 is used for the audio of the video conference.
  • the application a camera, a microphone, and a speaker suitable for a video conference can be used, and the convenience for the user can be enhanced.
  • information on the smartphone 110 can be used as information (authentication information, password, etc.) for participating in a video conference, it is easy to input information, and special and dedicated information is not necessary and has become widespread. Make it easier to use the participation procedure.
  • step 504 after the video conference is started on the smartphone 110 (step 504), the video output to the projector 100 and the use of the camera 101, the microphone 102, and the speaker 112 of the projector 100 are started. It is not limited to a sequence.
  • step 714 video output from the smartphone 110 to the projector 100 is performed (step 701), and the video conference application is activated (step 705).
  • the camera 101, the microphone 102, and the speaker 112 of the projector 100 may be made available.
  • Step 7 corresponds to Step 507 to Step 509 in FIG. 5, and the smartphone 110 receives the notification in Step 704.
  • the smartphone 110 executes step 706 based on the notification received in advance in step 704.
  • Steps 707 to 710 correspond to steps 511 to 514, and steps 711 to 714 correspond to steps 501 to 504.
  • Steps 715 to 716 correspond to steps 505 to 506.
  • step 505 the camera 405 of the smartphone 110 is used.
  • step 715 if step 710 has already been executed, the camera of the projector 100 is used. 101 or the like is used.
  • a camera / microphone / speaker usage confirmation menu 603 as shown in FIG. 6C. Is not displayed and the camera / microphone / speaker usage confirmation menu 603 is displayed only when an application that requires the use of a camera and microphone, such as a video conference application, is displayed. Convenience can be improved.
  • the communication unit 113 of the projector 100 and the communication unit 407 of the smartphone 110 may be able to communicate in advance by, for example, Bluetooth pairing or an operation corresponding thereto.
  • the video output from the smartphone 110 to the projector 100 may be a video output by execution of the OS of the smartphone 110.
  • any video can be output as long as the video can be output by executing the OS.
  • the video output is the same as the video displayed on the display unit 401 of the smartphone 110. May be. For this reason, the mirror image of the display unit 401 of the smartphone 110 may be projected by the projector 100.
  • the configuration for participating in the video conference by communicating with the video conference server 130 has been described, but the configuration is not limited to this configuration.
  • the video conference server 130 does not exist, and the smartphone 110 may perform communication by a P2P (point-to-point) connection that communicates directly with a terminal participating in the video conference via the network 120.
  • P2P point-to-point
  • the projector 100 transmits video and audio via the smartphone 110.
  • the projector 100 uses the smartphone 110 to participate in the video conference, and the projector 100 transmits video and audio without going through the smartphone 110.
  • Send Detailed description of the same configuration as that of the first embodiment is omitted, and a particularly different configuration will be described.
  • FIG. 8 is a diagram illustrating an example of a video conference system according to the second embodiment.
  • the projector 100 can directly communicate with the network 120.
  • the projector 100 transmits the video captured by the camera 101 and the voice collected by the microphone 102 to the video conference server 130 via the network 120.
  • the configuration of the projector 100 is as described with reference to FIG. 3, but the communication unit 113 of the projector 100 may communicate with the network 120 via an access point or the like in addition to communicating with the communication unit 407 of the smartphone 110. . Further, the projector 100 may communicate with the network 120 by including a mobile communication unit or a wired communication unit (not shown).
  • the configuration of the smartphone 110 is as described with reference to FIG.
  • FIG. 9 is a sequence diagram illustrating an example of a video conference start operation according to the second embodiment. Steps 900 to 910 in FIG. 9 correspond to steps 500 to 510 in FIG. Hereinafter, step 911 and the subsequent operations that are different from the sequence diagram of FIG. 5 will be described.
  • Step 911 Since “Yes” is selected in the camera / microphone use confirmation menu, the smartphone 110 transmits video and audio using the camera 405 and microphone 406 of the smartphone 110 being transmitted to the video conference server 130. Interrupt. Further, with this interruption, transfer of video and audio received from the smartphone 110 in the video conference server 130 to other terminals is interrupted.
  • Step 912 The smartphone 110 transmits to the projector 100 the connection destination of the video conference server 130 and information necessary for connection to the video conference such as the conference ID and account password (authentication information), and the video and audio are transmitted to the video conference server. 130 is instructed to transmit.
  • the connection destination of the video conference server 130 may be information represented by an IP address, a URL, or the like.
  • Step 913 The projector 100 receives information necessary for connection to the video conference, such as the connection destination of the video conference server 130 and the conference ID and account / password, and performs imaging and collection using the camera 101 and the microphone 102 of the projector 100. Start the sound.
  • information necessary for connection to the video conference such as the connection destination of the video conference server 130 and the conference ID and account / password
  • Step 914 The projector 100 connects to the video conference server 130 using the connection destination of the video conference server 130 received from the smartphone 110 and information necessary for connection to the video conference, such as a conference ID and an account / password. Transmission of video captured by the 100 cameras 101 and the microphone 102 and collected sound is started.
  • Step 915 The video conference server 130 uses the video and audio received from the projector 100 to resume video and audio transfer to other terminals participating in the same conference.
  • a video conference is started using an application used in the smartphone 110 or the like, and when the smartphone 110 outputs an image to the projector 100, the projector 100 and the camera 101 of the projector 100 and the microphone
  • the smartphone 110 is notified that the mobile phone 102 is available, and can be easily linked.
  • the smartphone 110 instructs the projector 100 to transmit the video and audio obtained by the camera 101 and the microphone 102 of the projector 100 to the video conference server 130, and the smartphone 110 that the user uses on a daily basis and its Using the application, the camera 101 and the microphone 102 suitable for the video conference can be used, and the convenience of the user can be improved.
  • step 904 after the video conference is started on the smartphone 110 (step 904), the video output to the projector 100 and the use of the camera 101 and the microphone 102 of the projector 100 are started. Is not to be done.
  • step 1009 video output from the smartphone 110 to the projector 100 is performed (step 1001), and the video conference application is activated (step 1005).
  • the camera 101 and the microphone 102 of the projector 100 may be made available.
  • Step 10 corresponds to step 907 to step 909 in FIG. 9, and the smartphone 110 receives the notification in step 1004. Thereafter, in step 1005, the video conference application of the smartphone 110 is activated. Steps 1006 to 1009 correspond to steps 901 to 904, and the smartphone 110 executes step 1010 based on the notification received in advance in step 1004.
  • Steps 1011 to 1014 correspond to Steps 912 to 915.
  • Step 1015 corresponds to step 905, and the smartphone 110 uses the camera 405 and the microphone 406 of the smartphone 110.
  • the smartphone 110 When the smartphone 110 outputs a screen of an application that does not require the use of a camera and microphone, such as a presentation application, to the projector 100, the camera / microphone usage confirmation menu as shown in FIG. 6C is not displayed. Since the menu for confirming the use of the camera / microphone is displayed only when an application that requires the use of the camera and microphone, such as a video conferencing application, is activated, there is no need to bother displaying the menu and improving the convenience for the user. it can.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)
  • Computer Vision & Pattern Recognition (AREA)

Abstract

映像を表示する映像装置と、前記映像装置と通信し、他の機器とネットワーク経由で通信する無線端末と、を含む情報処理システムであって、前記映像装置は、表示する映像の情報の前記無線端末からの受信を検出すると、カメラの撮像した映像情報とマイクの集音した音声情報を送信し、受信した音声の情報をスピーカで出力し、前記無線端末は、表示する映像の情報を前記映像装置へ送信し、前記他の機器は、撮像した映像情報と収集した音声情報を前記ネットワーク経由で受信し、前記ネットワーク経由で表示する映像の情報と出力する音声の情報を送信する。

Description

情報処理システム、無線端末、及び情報処理方法
 本発明は、情報処理システム、無線端末、及び情報処理方法に関するものである。
 本技術分野の背景技術として特許文献1には、「ユーザが、ネットワーク上で行われるテレビ会議や遠隔プレゼンテーションに適宜参加したり、これを適宜閲覧することができるプロジェクタを提供」することを目的とし、その目的を達成する手段として「ネットワークを介して、1以上のプロジェクタと接続されたプロジェクタであって、映像信号の入力を受ける入力手段と、入力手段における映像信号の入力の有無を判定する判定手段と、映像信号に基づいて、画像を投射する投射手段と、判定手段の判定結果に基づき、サーバモード、クライアントモードを選択するモード選択手段と、クライアントモードを選択した場合、ネットワーク上のサーバモードのプロジェクタから、このプロジェクタが投影する映像データを受信して、受信した映像データを投射手段に出力し、サーバモードを選択した場合、ネットワーク上のクライアントモードのプロジェクタに対して、投射手段が投影する映像データを送信する」プロジェクタが記載されている。
特開2004-239968号公報
 特許文献1に記載された技術を用いれば、テレビ会議に適宜参加することはできる。しかしながら、テレビ会議へ参加するために、プロジェクタのような装置がテレビ会議サーバへ接続して認証情報を送信等するため使い勝手が悪かった。また、スマートフォンによるテレビ電話、テレビ会議もあり、このための認証等も既にあるが、スマートフォンとプロジェクタとの連携に関しては考慮されていなかった。
 そこで、本発明の目的は、ユーザの使い勝手をよくすることにある。
 上記課題を解決するために、例えば特許請求の範囲に記載の構成を採用する。
 本願は上記課題を解決する構成を複数含んでいるが、その一例を挙げるならば、映像を表示する映像装置と、前記映像装置と通信し、他の機器とネットワーク経由で通信する無線端末と、を含む情報処理システムであって、前記映像装置は、表示する映像の情報の前記無線端末からの受信を検出すると、カメラの撮像した映像情報とマイクの集音した音声情報を送信し、受信した音声の情報をスピーカで出力し、前記無線端末は、表示する映像の情報を前記映像装置へ送信し、前記他の機器は、撮像した映像情報と収集した音声情報を前記ネットワーク経由で受信し、前記ネットワーク経由で表示する映像の情報と出力する音声の情報を送信することを特徴とする。
 本発明によれば、ユーザの使い勝手をよくすることが可能になる。
実施例1に係るシステム構成の一例を示す図である。 テレビ会議の一例を示す図である。 プロジェクタの構成の一例を示す図である。 スマートフォンの構成の一例を示す図である。 実施例1に係る第一のテレビ会議開始の動作の一例を示すシーケンス図である。 スマートフォンの第一の画面表示の一例を示す図である。 スマートフォンの第二の画面表示の一例を示す図である。 スマートフォンの第三の画面表示の一例を示す図である。 実施例1に係る第二のテレビ会議開始の動作の一例を示すシーケンス図である。 実施例2に係るシステム構成の一例を示す図である。 実施例2に係る第一のテレビ会議開始の動作の一例を示すシーケンス図である。 実施例2に係る第二のテレビ会議開始の動作の一例を示すシーケンス図である。
 以下、本発明の好ましい実施例について、図面を参照しながら説明する。以下の各実施例では、カメラで撮像した映像やマイクで集音した音声を、ネットワークを介して遠隔の端末間で相互に送受信するシステム(以下、テレビ会議システムと呼ぶ)に利用する場合を例として説明するが、テレビ会議システムとして以下の実施例に限定されるものではない。また、システムは、テレビ会議システムに限定されるものでもない。
 実施例1では、スマートフォン(無線端末)のテレビ会議アプリケーションを用いて遠隔地とのテレビ会議を行う際に、スマートフォンがプロジェクタに内蔵された複数人での利用に適したテレビ会議用のカメラ、マイク、スピーカによる映像と音声を用いてテレビ会議を行う構成について説明する。
 図1は本実施例に係るテレビ会議システムの構成の一例を示す図である。本実施例のテレビ会議システムは、例えば、プロジェクタ100、スマートフォン110、ネットワーク120、テレビ会議サーバ130から構成される。また、プロジェクタ100は、映像を投写して多人数で見ることができるようにする装置であり、プロジェクタ100には、テレビ会議用のカメラ101とマイク102とスピーカ112が内蔵される。
 なお、図1の例ではカメラ101とマイク102とスピーカ112はプロジェクタ100に内蔵されているが、必要に応じてカメラ101とマイク102とスピーカ112がプロジェクタ100の外付けであってもよく、カメラ101やマイク102やスピーカ112を複数備えてもよい。
 プロジェクタ100とスマートフォン110は、それぞれに内蔵された所定の機器間通信手段を介して通信を行う。機器間通信手段は、Wi-Fi(登録商標)等の無線LAN(Local Area Network)により通信するものでもよいし、有線LANで通信するものであってもよい。また、USBやBluetooth(登録商標)、IrDA(登録商標)、NFC(Near Field Communication)等、他の有線あるいは無線の通信であってもよい。
 ここで、Wi-Fiは、IEEE(米国電気電子学会)の規格で策定された無線LANの標準規格である。USBは、USB-IF(USB Implementers Forum)で策定された標準規格である。BluetoothはBluetooth SIG(Bluetooth Special Interest Group)で策定された標準規格である。
 ネットワーク120は、インターネットや社内ネットワーク等の遠隔地あるいは社内の機器間で通信ができるネットワークである。ネットワーク120の一部または全てに、Wi-Fi等の無線LANが含まれてもよいし、有線LANが含まれてもよい。また、ネットワーク120に携帯電話等に用いられる移動体通信網が含まれてもよい。
 テレビ会議サーバ130は、スマートフォン110等のネットワーク120に接続している端末からテレビ会議開始の要求を受け、同じテレビ会議に参加する複数の端末間で映像や音声等を送受信できるようにするため、端末間の接続の管理や各端末から送られてくる映像や音声等のデータの転送を行う。また、テレビ会議サーバ130は、テレビ会議で配布する資料の映像情報を蓄積し、同じテレビ会議に参加する複数の端末へ配信してもよい。配布する資料の情報に音声が含まれてもよい。
 図2はテレビ会議システムをユーザが利用する様子の一例を示す図である。図2の例では、複数人で囲む会議テーブルにプロジェクタ100に置き、スマートフォン110のテレビ会議アプリケーションを用いてテレビ会議を行っている様子を示している。スマートフォン110はプロジェクタ100に映像と音声を送信しており、プロジェクタ100に送信された映像として、プロジェクタ100の投写映像201にはテレビ会議の相手先のカメラ映像が映し出されている。また、プロジェクタ100に送信された音声として、プロジェクタ100のスピーカ112からはテレビ会議の相手先のマイクで収集された音声が出力される。
 図2の例では、投写映像201に相手先のカメラ映像が映し出されているが、これに限定されるものではなく、テレビ会議サーバ130に蓄積された資料の映像が映し出されてもよく、図示を省略したスイッチにより切り替え可能であってもよい。また、投写映像201が2分割されて、相手先のカメラ映像と資料の映像とが同時に映し出されてもよい。
 プロジェクタ100が内蔵するカメラ101で撮像された映像とマイク102で集音された音声は、スマートフォン110に送信され、スマートフォン110のテレビ会議アプリケーションに入力される。カメラ101はテレビ会議の参加者を対象とした撮像範囲202を撮像してもよく、多くの参加者の一部ずつを撮像するように撮像範囲202が複数であってもよい。
 また、カメラ101は、投写映像201を含む撮像範囲203を撮像してもよい。投写映像201に資料の映像が映し出されて、参加者がその資料の特定の部分を指し示して説明したり、その資料の一部を上書き等したりすることにより、テレビ会議の相手先へ説明の内容が伝わりやすくなる。カメラ101の撮像範囲202と撮像範囲203は、図示を書略したスイッチにより切り替え可能であってもよいし、カメラ101が物理的に可動であってもよいし、撮像範囲202と撮像範囲203の両方を同時に撮像可能であってもよい。
 さらに、カメラ101は、会議テーブルの上に置かれた紙の資料やサンプル品等を撮像範囲として撮像してもよい。
 図3は、プロジェクタ100の構成の一例を示す図である。プロジェクタ100は、例えば、カメラ101、マイク102、映像音声入力部103、制御部104、メモリ105、映像復号・出力部107、表示部109、音声復号・出力部111、スピーカ112、通信部113、アンテナ114、操作入力部115、映像入力・符号化部116、音声入力・符号化部117、入力端子118等を有し、各部は図3に示すようにバスを介して接続される。
 制御部104は、例えばプロセッサを含み、メモリ105に格納された各種プログラム106を実行することにより、操作入力部115を介してユーザの入力操作の情報を受け取り、プロジェクタ100のバスに接続された各部を制御する。例えば、制御部104は、各種プログラム106の中のプログラムをメモリ105から読み出し、読み出したプログラムにしたがって、映像入力・符号化部116と通信部113を制御し、カメラ101で撮像した映像を映像入力・符号化部116が入力して符号化し、通信部113から送信するように制御する。
 また、制御部104は、SoC(System-on-a-Chip)であって、プロセッサ以外に、映像音声入力部103から入力された映像や音声の情報を音声情報と映像情報に分離し、音声復号・出力部111と映像復号・出力部107にそれぞれ出力する回路を有してもよい。各種プログラム106を実行することによる制御部104のプロジェクタ100の各部の制御の説明の詳細は省略し、図5、7を用いてプロジェクタ100の動作として説明する。
 メモリ105は、制御部104で実行される各種プログラム106や制御部104により書き込まれて読み出されるデータ等が格納される。プロジェクタ100の設定情報と映像データと音声データが格納されてもよい。メモリ105に格納される各種プログラム106は、プロジェクタ100が出荷時点で予めメモリ105に格納されていてもよいし、半導体メモリ等の記録媒体に格納されて、図示を省略した媒体接続部を介してメモリ105に格納され、インストールされてもよい。
 また、各種プログラム106は、通信部113を介して外部ネットワークからダウンロードされてメモリ105に格納され、インストールされてもよい。なお、各種プログラム106を制御部104が実行することによる動作は、同じ動作をする回路としてハードウェアで実現されてもよい。
 通信部113は、予め定められた規格やプロトコルに準じてスマートフォン110とアンテナ114経由で通信を行う。通信部113の使用する規格は、Wi-Fi等の無線LANや有線LANであってもよい。また、USBやBluetooth、IrDA、NFC等、他の有線あるいは無線の通信であってもよく、ネットワーク120を介さずに直接通信するように構成されてもよい。さらに、通信部113は、異なる規格の通信をサポートするチップが複数実装されてもよいし、複数の規格の通信をサポートする1つのチップが実装されてもよい。
 通信部113は、アンテナ114で受信した映像と音声の情報を映像音声入力部103へ出力し、映像入力・符号化部116と音声入力・符号化部117から入力した映像と音声の情報をアンテナ114から送信する。アンテナ114で受信した映像と音声の情報をバスへ出力してもよい。
 映像音声入力部103は、入力端子118からプロジェクタ100で投写する映像や音声の情報を入力する。これは、テレビ会議としての利用ではなく、プロジェクタ100の入力映像を投写するという本来の利用のためのものであってもよいし、テレビ会議で参照される資料をパソコン等から入力するためのもととして利用されてもよい。このために、映像音声入力部103は映像や音声の情報を制御部104へ出力する以外にバスへ出力してもよい。
 入力端子118は、例えば、コンポジット端子、S端子、D端子、コンポーネント端子、VGA端子、DVI端子、HDMI端子等である。入力端子118からの入力がアナログ信号の場合、映像音声入力部103はアナログ信号をデジタル信号に変換してもよい。また、映像音声入力部103は、入力端子118からの入力と通信部113からの入力を選択してもよいし、合成してもよい。
 映像音声入力部103は映像や音声の情報をバスへ出力する場合、通信部113はバス経由で入力してアンテナ114から送信してもよい。このとき、映像の情報か音声の情報かが選択されてもよく、例えば、映像音声入力部103から資料の映像情報が通信部113へ転送されるとともに、マイク102から音声入力・符号化部117を介して会議参加者の音声の情報が通信部113へ転送されてもよい。
 映像復号・出力部107は、制御部104から入力された映像情報を、必要に応じて復号し、表示部109へ出力する。例えば、通信部113により受信された映像情報は、圧縮/符号化されていて復号して出力し、入力端子118から入力された映像情報は、圧縮/符号化されておらず、そのまま出力してもよい。復号するか否かは制御部104により制御されてもよい。なお、映像復号・出力部107の出力する映像情報の一部は、各種プログラム106の実行により制御部104が生成した映像情報であってもよい。
 表示部109は、例えば液晶パネル、光学レンズ等によって構成され、スクリーン等に映像を投写する。映像投写の構造は、DLP(登録商標:Digital Light Processing)、レーザ光源等であってもよく、他の映像投写構造であってもよい。また、表示部109は、映像を投写しない液晶パネル等を含んでもよい。
 音声復号・出力部111は、制御部104から入力された音声情報を、必要に応じて復号し、スピーカ112へ出力する。例えば、通信部113により受信された音声情報は、圧縮/符号化されていて復号して出力し、入力端子118から入力された音声情報は、圧縮/符号化されておらず、そのまま出力してもよい。復号するか否かは制御部104により制御されてもよい。なお、音声復号・出力部111が出力する音声情報は、スピーカ112の代わりに図示を省略した外部機器へ出力されてもよい。
 スピーカ112は、無指向性であって会議に十分な音量の音を発生するものが望ましい。マイク102は、無指向性であって会議テーブルの参加者の音声を集音する感度のものが望ましい。スピーカ112とマイク102は、音声の周波数帯域に重点のおかれたものであってもよい。また、スピーカ112とマイク102は、無指向性等にするために複数備えられてもよい。音声入力・符号化部117は、マイク102が電気信号に変換した音声情報を入力し、情報量を圧縮するために符号化し、通信部113へバスを介して出力する。
 カメラ101は、撮像範囲202、203を撮像し、撮像した映像を電気信号に変換して、映像入力・符号化部116へ入力する。撮像範囲202、203等に応じてカメラ101は複数備えられ、映像入力・符号化部116に複数のカメラ101が接続されてもよい。また、カメラ101は、物理的に可動な構造でプロジェクタ100に装着されてもよい。
 映像入力・符号化部116は、カメラ101が電気信号に変換した映像情報を入力し、情報量を圧縮するために符号化し、通信部113へバスを介して出力する。映像入力・符号化部116は、複数のカメラ101に接続され、複数のカメラ101のそれぞれから映像情報を入力する場合、複数のカメラ101の入力を選択してもよいし、合成してもよい。
 操作入力部115は、ユーザからのプロジェクタ100に対する入力操作を受け付ける入力デバイスであり、例えば、リモコン、キーボード、マウスやタッチパネル等のポインティングデバイス等である。
 なお、図3の例では、プロジェクタ100の構造を説明したが、表示部109として映像を投写する代わりに映像表示のディスプレイを用い、テレビ受信機やディスプレイ装置に図3を用いて説明した各構造を備えてもよい。すなわち、図2に示した投写映像201がテレビ受信機であり、プロジェクタ100がテレビ受信機に含まれる構成であってもよい。このテレビ受信機の構成では、撮像範囲202を撮像するカメラ101を備え、撮像範囲203を撮像するカメラ101を備えなくてもよいし、撮像範囲203を撮像するカメラ101の代わりにテレビ受信機にタッチパネル等を備えてもよい。
 また、図3に示した構成から表示部109とスピーカ112を取り除いて、代わりにそれぞれ出力端子を備え、映像の表示や音声の出力を直接行わないSTB(セットトップボックス)やレコーダー等で構成してもよい。さらに、プロジェクタ100の代わりに、図3に示した各構成を備えたパソコン、モニター装置、タブレット端末等であってもよい。
 図4は、スマートフォン110の構成の一例を示す図である。スマートフォン110は、例えば、カメラ405、マイク406、制御部400、メモリ403、表示部401、操作入力部402、通信部407、通信アンテナ408、移動体通信部409、移動体通信アンテナ410等有し、図4に示すように各部がバスを介して接続される。
 制御部400は、プロセッサを含み、メモリ403に格納された各種プログラム412を読み出して実行し、スマートフォン110の各部をハス経由で制御する。制御部400は、SoCであって、映像や音声の処理に関する回路を含んでもよい。表示部401は液晶パネルや有機EL(Electroluminescence)ディスプレイ等でもよく、操作入力部402のタッチパネルと一体化されていてもよい。カメラ405は、スマートフォン110の特定の方向を撮像し、マイク406はスマートフォン110の周囲の音声を集音し、スピーカ411は音声を出力する。
 通信部407は、予め定められた規格やプロトコルに準じてプロジェクタ100と通信アンテナ408経由で通信を行う。通信の規格は、プロジェクタ100と通信できる規格である。移動体通信部409は、移動体通信アンテナ410と図示を省略した移動体通信用の基地局等を介してネットワーク120と通信を行うため、3G,4G,LTE等のモバイル通信用の規格に準じた通信を行ってもよい。
 また、移動体通信部409は、移動体通信アンテナ410と図示を省略したアクセスポイント等を介してネットワーク120と通信を行うため、Wi-Fi等の無線LANの規格に準じた通信を行ってもよい。さらに、移動体通信部409は、移動体通信アンテナ410の代わりに図示を省略した端子を介して、有線LANでネットワーク120と通信を行ってもよく、異なる規格の通信をサポートするチップが複数実装されてもよいし、複数の規格の通信をサポートする1つのチップが実装されてもよい。
 メモリ403に格納された各種プログラム412には、テレビ会議アプリケーションが含まれる。テレビ会議アプリケーションは、テレビ電話(ビデオ電話)等のプログラムであってもよく、表示部401とカメラ405とマイク406等を使用する電話のアプリケーションプログラムであってもよい。また、各種プログラム412には、OS(Operating System)やプレゼンテーション用アプリケーションが含まれてもよい。
 以下、スマートフォン110を用いてテレビ会議を開始し、プロジェクタ100のカメラ101とマイク102とスピーカ112をテレビ会議に利用する際の動作例について、図5及び図6を用いて説明する。  
 図5は、実施例1に係るテレビ会議開始の動作の一例を示すシーケンス図である。テレビ会議開始の動作とは、スマートフォン110のテレビ会議アプリケーションを用いて、テレビ会議サーバ130を介したテレビ会議を開始し、テレビ会議サーバ130から受信する映像と音声にプロジェクタ100の表示部109とスピーカ112を用い、テレビ会議サーバ130へ送信する映像と音声にプロジェクタ100のカメラ101とマイク102を用いるまでのシーケンスである。
 また、図6A、図6B、図6Cは、それぞれスマートフォン110の画面表示の一例を示す図である。図5を用いて説明するシーケンスの中でスマートフォン110は図6A、図6B、図6Cを用いて説明する画面を表示する。なお、図6A、図6B、図6Cにおけるカメラ405とマイク406と表示部401は、図4を用いて説明したとおりであり、操作入力部402は表示部401と一体化されて、表示部401の表示がタッチされることにより操作が入力される。
 ステップ500:スマートフォン110は、図6Aに示すように複数のアイコンを表示部401に表示し、ユーザによりテレビ会議アプリのアイコン601が選択(タッチ)されたことを検出して、テレビ会議アプリケーションを起動する。
 ステップ501:スマートフォン110は、参加するテレビ会議のための会議IDやアカウント・パスワード(認証情報)等の入力を促す画面を表示部401に表示し、ユーザにより会議IDやアカウント・パスワード等が入力されて、入力された会議IDやアカウント・パスワード等をテレビ会議サーバ130へ送信し、テレビ会議への接続を要求する。
 ステップ502:テレビ会議サーバ130は、スマートフォン110からの要求を受信し、受信した会議IDやアカウント・パスワード等に基づいて、同じテレビ会議に参加する端末との接続処理を開始する。 
 ステップ503:テレビ会議サーバ130は、スマートフォン110の要求したテレビ会議と同じテレビ会議に参加する端末との接続を確立し、接続が確立したことをスマートフォン110に通知する。
 ステップ504:スマートフォン110は、スマートフォン110のカメラ405とマイク406とスピーカ411を用いたテレビ会議の処理を開始する。 
 ステップ505:スマートフォン110は、カメラ405で撮像された映像とマイク406で集音された音声をテレビ会議サーバ130へ送信する。また、テレビ会議サーバ130から送られてくる他の端末の映像と音声の受信し、映像を表示部401に表示して音声をスピーカ411で出力する。
 ステップ506:テレビ会議サーバ130は、スマートフォン110から受信した映像と音声を同じ会議に参加する端末に転送する。また、同じ会議に参加した端末から受信した映像と音声をスマートフォン110に転送する。 
 ステップ507:スマートフォン110は、図6Bに示すように映像出力先設定メニュー602を表示部401に表示し、ユーザにより「プロジェクタ」が選択(タッチ)されたことを検出して、通信部407でプロジェクタ100に表示画面の送信を開始する。映像出力先設定メニュー602は、テレビ会議アプリケーションが起動されると表示されてもよいし、テレビ会議アプリケーションの特定のメニューが選択されると表示されてもよい。
 ステップ508:プロジェクタ100は、通信部113でスマートフォン110からの表示画面の受信を検出すると、受信した表示画面の表示を開始してステップ509へ進む。 
 ステップ509:プロジェクタ100は、プロジェクタ100のカメラ101とマイク102とスピーカ112が利用可能であることを、通信部113でスマートフォン110に通知する。
 ステップ510:スマートフォン110は、プロジェクタ100からステップ509の通知を受けると、図6Cに示すようにカメラ・マイク・スピーカ利用確認メニュー603を表示部401に表示し、ユーザにより「はい」が選択(タッチ)されたことを検出するとステップ511へ進み、「いいえ」が選択(タッチ)されたことを検出すると、テレビ会議の開始動作としては終了する。
 ステップ511:カメラ・マイク・スピーカ利用確認メニュー603において「はい」が選択されているので、スマートフォン110は、プロジェクタ100にカメラ101とマイク102とスピーカ112の利用を通信部407で通知する。 
 ステップ512:プロジェクタ100は、スマートフォン110からステップ511の通知を通信部113で受けると、プロジェクタ100のカメラ101とマイク102を利用した撮像と集音を開始する。
 ステップ513:プロジェクタ100は、通信部113でスマートフォン110にプロジェクタ100のカメラ101とマイク102で撮像した映像と集音した音声の送信を開始し、スマートフォン110からの音声の受信を開始してスピーカ112で出力できるようにする。 
 ステップ514:スマートフォン110は、通信部407でプロジェクタ100から映像と音声の受信を開始し、プロジェクタ100へ音声の送信を開始する。
 ステップ515:スマートフォン110は、テレビ会議サーバ130に送信する映像と音声を、スマートフォン110のカメラ405とマイク406で得られるのものから、プロジェクタ100から受信した映像と音声に切替え、テレビ会議サーバ130から受信する音声を、スマートフォン110のスピーカ411の出力から、プロジェクタ100への音声の送信に切替える。
 以上で説明したように、スマートフォン110で利用しているアプリケーションを用いてテレビ会議を開始し、スマートフォン110がプロジェクタ100へ映像出力することをきっかけにして、プロジェクタ100がプロジェクタのカメラ101とマイク102とスピーカ112が利用可能なことをスマートフォン110に通知し、簡単に連携できる。
 そして、スマートフォン110がプロジェクタ100のカメラ101とマイク102で得られる映像と音声をテレビ会議に用い、テレビ会議の音声にスピーカ112を用いることにより、ユーザが日常的に利用しているスマートフォン110とそのアプリケーションを用いて、テレビ会議に適したカメラとマイクとスピーカを利用できるようになり、ユーザの利便性を高めることができる。
 また、テレビ会議に参加するための情報(認証情報、パスワード等)として、スマートフォン110の情報を利用できるため、情報の入力が容易であるとともに、特別で専用の情報が不要となり、普及している参加の手順を利用しやすくなる。
 図5に示したシーケンスの例では、スマートフォン110でテレビ会議を開始(ステップ504)した後に、プロジェクタ100への映像出力とプロジェクタ100のカメラ101とマイク102とスピーカ112の利用を始めたが、このシーケンスに限定されるものではない。
 例えば、図7に示すように、スマートフォン110でテレビ会議を開始(ステップ714)する前に、スマートフォン110からプロジェクタ100への映像出力をし(ステップ701)、テレビ会議アプリケーションが起動(ステップ705)された時点では、プロジェクタ100のカメラ101とマイク102とスピーカ112が利用可能とされてもよい。
 図7のステップ701からステップ703は、図5のステップ507からステップ509に対応し、スマートフォン110は、ステップ704にて通知を受信する。その後、ステップ705にてスマートフォン110のテレビ会議アプリケーションが起動されると、スマートフォン110は、ステップ704で予め受信した通知をもとにステップ706を実行する。ステップ707からステップ710は、ステップ511からステップ514に対応し、ステップ711からステップ714は、ステップ501からステップ504に対応する。
 ステップ715からステップ716は、ステップ505からステップ506に対応するが、ステップ505ではスマートフォン110のカメラ405等が用いられるのに対し、ステップ715では既にステップ710が実行されていると、プロジェクタ100のカメラ101等が用いられる。
 また、スマートフォン110がプレゼンテーション用アプリケーション等のカメラとマイクとスピーカの利用が不要なアプリケーションの画面をプロジェクタ100に出力している際には、図6Cに示すようなカメラ・マイク・スピーカ利用確認メニュー603が表示されず、テレビ会議アプリケーション等のカメラとマイクの利用が必要となるアプリケーションを起動したときのみ、カメラ・マイク・スピーカ利用確認メニュー603が表示されるため、メニュー表示の煩わしさがなくユーザの利便性を高めることができる。
 なお、プロジェクタ100の通信部113とスマートフォン110の通信部407とは、例えばBluetoothのペアリングあるいはこれに相当する動作により、予め通信可能となっていてもよい。また、スマートフォン110からプロジェクタ100への映像出力は、スマートフォン110のOSの実行による映像出力であってもよい。
 ステップ701において、OSの実行により出力できる映像であれば、どのような映像であるかは限定されるものではないが、例えばスマートフォン110の表示部401に表示された映像と同じ映像の出力であってもよい。このため、スマートフォン110の表示部401のミラー画像が、プロジェクタ100により投写されてもよい。
 テレビ会議システムとして、テレビ会議サーバ130と通信することによりテレビ会議に参加する構成を説明したが、この構成に限定されるものではない。例えば、テレビ会議サーバ130が存在せず、スマートフォン110はテレビ会議に参加する端末とネットワーク120を介して直接に通信するP2P(ポイント・ツー・ポイント)接続による通信であってもよい。
 以下、本発明に係る実施例2を、図8から図10を用いて説明する。実施例1ではスマートフォン110を経由してプロジェクタ100が映像と音声を送信したが、実施例2ではテレビ会議の参加にスマートフォン110を利用し、スマートフォン110を経由せずにプロジェクタ100が映像と音声を送信する。実施例1と同じ構成は詳細な説明を省略し、特に異なる構成について説明する。
 図8は、実施例2に係るテレビ会議システムの一例を示す図である。実施例1と異なる点は、プロジェクタ100がネットワーク120と直接通信できることである。これにより、プロジェクタ100はカメラ101で撮像した映像やマイク102で集音した音声を、ネットワーク120を介してテレビ会議サーバ130に送信する。
 プロジェクタ100の構成は図3を用いて説明したとおりであるが、プロジェクタ100の通信部113は、スマートフォン110の通信部407と通信する以外にアクセスポイント等を介してネットワーク120と通信してもよい。また、プロジェクタ100は、図示を省略した移動体通信部あるいは有線通信部を備えてネットワーク120と通信してもよい。スマートフォン110の構成は図4を用いて説明したとおりである。
 図9は、実施例2に係るテレビ会議開始の動作の一例を示すシーケンス図である。図9のステップ900からステップ910は、図5のステップ500からステップ510に対応する。以下、図5のシーケンス図と動作が異なるステップ911以降を説明する。
 ステップ911:カメラ・マイク利用確認のメニューにおいて「はい」が選択されているので、スマートフォン110は、テレビ会議サーバ130に送信中のスマートフォン110のカメラ405とマイク406を用いた映像と音声の送信を中断する。また、この中断にともない、テレビ会議サーバ130におけるスマートフォン110から受信する映像と音声の他の端末への転送が中断される。
 ステップ912:スマートフォン110は、プロジェクタ100にテレビ会議サーバ130の接続先と会議IDやアカウント・パスワード(認証情報)等のテレビ会議への接続に必要な情報を送信し、映像と音声をテレビ会議サーバ130に送信するように指示する。なお、テレビ会議サーバ130の接続先は、IPアドレスやURL等で表される情報であってもよい。
 ステップ913:プロジェクタ100は、テレビ会議サーバ130の接続先と会議IDやアカウント・パスワード等のテレビ会議への接続に必要な情報を受信し、プロジェクタ100のカメラ101とマイク102を利用した撮像と集音を開始する。
 ステップ914:プロジェクタ100は、スマートフォン110から受信したテレビ会議サーバ130の接続先と会議IDやアカウント・パスワード等のテレビ会議への接続に必要な情報を用いて、テレビ会議サーバ130に接続し、プロジェクタ100のカメラ101とマイク102で撮像した映像と集音した音声の送信を開始する。 
 ステップ915:テレビ会議サーバ130は、プロジェクタ100から受信した映像と音声を用いて、同じ会議に参加する他の端末に対して、映像と音声の転送を再開する。
 以上で説明したように、スマートフォン110等で利用しているアプリケーションを用いてテレビ会議を開始し、スマートフォン110がプロジェクタ100に映像出力することをきっかけにして、プロジェクタ100がプロジェクタ100のカメラ101とマイク102が利用可能なことをスマートフォン110に通知し、簡単に連携できる。
 そして、スマートフォン110がプロジェクタ100のカメラ101とマイク102で得られる映像と音声をテレビ会議サーバ130に送信するようにプロジェクタ100に指示することにより、ユーザが日常的に利用しているスマートフォン110とそのアプリケーションを用いて、テレビ会議に適したカメラ101とマイク102を利用できるようになり、ユーザの利便性を高めることができる。
 また、テレビ会議中の映像と音声をプロジェクタ100からテレビ会議サーバ130に直接送信することにより、スマートフォン110のモバイル通信網を介した通信データ量を削減できる等、ユーザの利便性を高めることができる。
 図9に示したシーケンスの例では、スマートフォン110でテレビ会議を開始(ステップ904)した後に、プロジェクタ100への映像出力とプロジェクタ100のカメラ101とマイク102の利用を始めたが、このシーケンスに限定されるものではない。
 例えば、図10に示すように、スマートフォン110でテレビ会議を開始(ステップ1009)する前に、スマートフォン110からプロジェクタ100への映像出力をし(ステップ1001)、テレビ会議アプリケーションが起動(ステップ1005)された時点では、プロジェクタ100のカメラ101とマイク102が利用可能とされてもよい。
 図10のステップ1001からステップ1003は、図9のステップ907からステップ909に対応し、スマートフォン110は、ステップ1004にて通知を受信する。その後、ステップ1005にてスマートフォン110のテレビ会議アプリケーションが起動される。ステップ1006からステップ1009は、ステップ901からステップ904に対応し、スマートフォン110は、ステップ1004で予め受信した通知をもとにステップ1010を実行する。
 ステップ1011からステップ1014は、ステップ912からステップ915に対応する。また、ステップ1015はステップ905に対応し、スマートフォン110は、スマートフォン110のカメラ405とマイク406を用いる。
 また、スマートフォン110がプレゼンテーション用アプリケーション等、カメラとマイクの利用が不要なアプリケーションの画面をプロジェクタ100に出力している際には、図6Cに示すようなカメラ・マイク利用確認のメニューが表示されず、テレビ会議アプリケーション等のカメラとマイクの利用が必要となるアプリケーションを起動したときのみ、カメラ・マイク利用確認のメニューが表示されるため、メニュー表示の煩わしさがなくユーザの利便性を高めることができる。
 なお、以上で説明した各実施例の構成の一部を削除したり、他の実施例の構成の一部で置き換えたりしてもよく、各実施例の構成へ他の実施例の構成の一部を追加したりしてもよい。















100 プロジェクタ
101 カメラ
102 マイク
110 スマートフォン
112 スピーカ
120 ネットワーク
130 テレビ会議サーバ
405 カメラ
406 マイク
411 スピーカ

Claims (15)

  1.  映像を表示する映像装置と、前記映像装置と通信し、他の機器とネットワーク経由で通信する無線端末と、を含む情報処理システムであって、
     前記映像装置は、
     表示する映像の情報の前記無線端末からの受信を検出すると、
     カメラの撮像した映像情報とマイクの集音した音声情報を送信し、受信した音声の情報をスピーカで出力し、
     前記無線端末は、
     表示する映像の情報を前記映像装置へ送信し、
     前記他の機器は、
     撮像した映像情報と収集した音声情報を前記ネットワーク経由で受信し、前記ネットワーク経由で表示する映像の情報と出力する音声の情報を送信すること
    を特徴とする情報処理システム。
  2.  請求項1に記載の情報処理システムであって、
     前記映像装置は、
     表示する映像の情報の前記無線端末からの受信を検出すると、
     カメラの撮像した映像情報とマイクの集音した音声情報を前記無線端末へ送信し、前記無線端末から受信した音声の情報をスピーカで出力し、
     前記無線端末は、
     表示する映像の情報と出力する音声の情報を前記他の機器からネットワーク経由で受信して、前記映像装置へ送信し、
     撮像した映像情報と集音した音声情報を前記映像装置から受信して、前記他の機器へネットワーク経由で送信すること
    を特徴とする情報処理システム。
  3.  請求項2に記載の情報処理システムであって、
     前記映像装置は、
     表示する映像の情報の前記無線端末からの受信を検出すると、前記カメラと前記マイクと前記スピーカの利用可能であることを前記無線端末へ通知し、
     前記無線端末への通知に対する応答に基づいて、カメラの撮像した映像情報とマイクの集音した音声情報を前記無線端末へ送信し、前記無線端末から受信した音声の情報をスピーカで出力し、
     前記無線端末は、
     前記無線端末への通知に基づいて、前記カメラと前記マイクと前記スピーカの利用可能であることを前記無線端末で表示し、操作入力を受け付け、
     受け付けた操作入力に基づいて、前記無線端末への通知に対する応答を前記映像装置へ送信すること
    を特徴とする情報処理システム。
  4.  請求項3に記載の情報処理システムであって、
     前記無線端末は、
     認証情報を送信して前記他の機器へネットワーク経由で接続し、
     前記無線端末のカメラで撮像した映像情報と前記無線端末のマイクで収集した音声情報を前記他の機器へネットワーク経由で送信し、
     前記映像装置からのカメラの撮像した映像情報とマイクの集音した音声情報の受信を検出すると、前記無線端末のカメラで撮像した映像情報と前記無線端末のマイクで収集した音声情報の送信を、前記映像装置から受信したカメラの映像した映像情報とマイクの集音した音声情報の送信に切替えること
    を特徴とする情報処理システム。
  5.  請求項4に記載の情報処理システムであって、
     前記カメラは、前記映像装置の表示した映像を含めて撮像し、
     前記他の機器は、テレビ会議サーバであること
    を特徴とする情報処理システム。
  6.  請求項1に記載の情報処理システムであって、
     前記映像装置は、
     表示する映像の情報の前記無線端末からの受信を検出すると、
     カメラの撮像した映像情報とマイクの集音した音声情報を前記他の機器へネットワーク経由で送信し、
     前記無線端末は、
     表示する映像の情報を前記他の機器からネットワーク経由で受信して、前記映像装置へ送信すること
    を特徴とする情報処理システム。
  7.  請求項6に記載の情報処理システムであって、
     前記映像装置は、
     表示する映像の情報の前記無線端末からの受信を検出すると、前記カメラと前記マイクの利用可能であることを前記無線端末へ通知し、
     前記無線端末への通知に対する応答に基づいて、カメラの撮像した映像情報とマイクの集音した音声情報を前記他の機器へネットワーク経由で送信し、
     前記無線端末は、
     前記無線端末への通知に基づいて、前記カメラと前記マイクの利用可能であることを前記無線端末で表示し、操作入力を受け付け、
     受け付けた操作入力に基づいて、前記無線端末への通知に対する応答を前記映像装置へ送信すること
    を特徴とする情報処理システム。
  8.  請求項7に記載の情報処理システムであって、
     前記無線端末は、
     認証情報を送信して前記他の機器へネットワーク経由で接続し、
     前記他の機器へネットワーク経由で、前記無線端末のカメラで撮像した映像情報と前記無線端末のマイクで収集した音声情報を送信し、
     受け付けた操作入力に基づいて、前記無線端末のカメラで撮像した映像情報と前記無線端末のマイクで収集した音声情報の送信を中断し、認証情報を前記映像装置へ送信し、
     前記映像装置は、
     前記無線端末から受信した認証情報を前記他の装置へネットワーク経由で送信して接続し、
     カメラの映像した映像情報とマイクの集音した音声情報を前記他の装置へネットワーク経由で送信すること
    を特徴とする情報処理システム。
  9.  請求項8に記載の情報処理システムであって、
     前記カメラは、前記映像装置の表示した映像を含めて撮像し、
     前記他の機器は、テレビ会議サーバであること
    を特徴とする情報処理システム。
  10.  映像を表示する映像装置と通信し、他の機器とネットワーク経由で通信する無線端末であって、
     表示する映像の情報を前記他の機器からネットワーク経由で受信して、前記映像装置へ送信し、
     前記映像装置からのカメラとマイクの利用可能であることの通知に基づき、前記カメラと前記マイクの利用可能であることを前記無線装置で表示し、操作入力を受け付け、
     受け付けた操作入力に基づいて、前記映像装置からの通知に対する応答を前記映像装置へ送信すること
    を特徴とする無線端末。
  11.  請求項10に記載の無線端末であって、
     認証情報を送信して前記他の機器へネットワーク経由で接続し、
     前記無線端末のカメラで撮像した映像情報と前記無線端末のマイクで収集した音声情報を前記他の機器へネットワーク経由で送信し、
     前記映像装置からのカメラの撮像した映像情報とマイクの集音した音声情報の受信を検出すると、前記無線端末のカメラで撮像した映像情報と前記無線端末のマイクで収集した音声情報の送信を、前記映像装置から受信したカメラの映像した映像情報とマイクの集音した音声情報の送信に切替えること
    を特徴とする無線端末。
  12.  請求項11に記載の無線端末であって、
     前記認証情報は、テレビ会議の参加の情報を含むこと
    を特徴とする無線端末。
  13.  映像を表示する映像装置と、前記映像装置と通信し、他の機器とネットワーク経由で通信する無線端末とを含むシステムの情報処理方法であって、
     前記無線端末は、
     表示する映像の情報を前記映像装置へ送信し、
     前記映像装置は、
     表示する映像の情報の前記無線端末からの受信を検出すると、
     カメラの撮像した映像情報とマイクの集音した音声情報を送信し、受信した音声の情報をスピーカで出力し、
     前記他の機器は、
     撮像した映像情報と収集した音声情報を前記ネットワーク経由で受信し、前記ネットワーク経由で表示する映像の情報と出力する音声の情報を送信すること
    を特徴とする情報処理方法。
  14.  請求項13に記載の情報処理方法であって、
     前記無線端末は、
     表示する映像の情報と出力する音声の情報を前記他の機器からネットワーク経由で受信して、前記映像装置へ送信し、
     前記映像装置は、
     表示する映像の情報の前記無線端末からの受信を検出すると、
     カメラの撮像した映像情報とマイクの集音した音声情報を前記無線端末へ送信し、前記無線端末から受信した音声の情報をスピーカで出力し、
     前記無線端末は、
     撮像した映像情報と集音した音声情報を前記映像機器から受信して、前記他の機器へネットワーク経由で送信すること
    を特徴とする情報処理方法。
  15.  請求項13に記載の情報処理方法であって、
     前記無線端末は、
     表示する映像の情報を前記他の機器からネットワーク経由で受信して、前記映像装置へ送信し、
     前記映像装置は、
     表示する映像の情報の前記無線端末からの受信を検出すると、
     カメラの撮像した映像情報とマイクの集音した音声情報を前記他の機器へネットワーク経由で送信すること
    を特徴とする情報処理方法。
PCT/JP2015/082821 2015-11-24 2015-11-24 情報処理システム、無線端末、及び情報処理方法 WO2017090076A1 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
CN201580084638.0A CN108293104B (zh) 2015-11-24 2015-11-24 信息处理系统、无线终端和信息处理方法
PCT/JP2015/082821 WO2017090076A1 (ja) 2015-11-24 2015-11-24 情報処理システム、無線端末、及び情報処理方法
JP2017552550A JP6598875B2 (ja) 2015-11-24 2015-11-24 情報処理システム、無線端末、及び情報処理方法
CN202110060897.7A CN112911197A (zh) 2015-11-24 2015-11-24 影像信息处理系统、移动通信终端和影像信息处理方法
US15/775,414 US10616529B2 (en) 2015-11-24 2015-11-24 Information processing system, wireless terminal, and information processing method
US16/799,903 US10887441B2 (en) 2015-11-24 2020-02-25 Information processing system, wireless terminal, and information processing method
US17/109,643 US11477316B2 (en) 2015-11-24 2020-12-02 Information processing system, wireless terminal, and information processing method
US17/944,560 US20230007117A1 (en) 2015-11-24 2022-09-14 Information processing system, wireless terminal, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/082821 WO2017090076A1 (ja) 2015-11-24 2015-11-24 情報処理システム、無線端末、及び情報処理方法

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/775,414 A-371-Of-International US10616529B2 (en) 2015-11-24 2015-11-24 Information processing system, wireless terminal, and information processing method
US16/799,903 Continuation US10887441B2 (en) 2015-11-24 2020-02-25 Information processing system, wireless terminal, and information processing method

Publications (1)

Publication Number Publication Date
WO2017090076A1 true WO2017090076A1 (ja) 2017-06-01

Family

ID=58764000

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/082821 WO2017090076A1 (ja) 2015-11-24 2015-11-24 情報処理システム、無線端末、及び情報処理方法

Country Status (4)

Country Link
US (4) US10616529B2 (ja)
JP (1) JP6598875B2 (ja)
CN (2) CN112911197A (ja)
WO (1) WO2017090076A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020102828A (ja) * 2018-12-22 2020-07-02 弘真科技股▲ふん▼有限公司 無線映像音声情報共有システム及び方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112911197A (zh) * 2015-11-24 2021-06-04 麦克赛尔株式会社 影像信息处理系统、移动通信终端和影像信息处理方法
CN110267072A (zh) * 2019-07-05 2019-09-20 明基智能科技(上海)有限公司 无线投屏器
TW202147834A (zh) * 2020-01-26 2021-12-16 比利時商巴科股份有限公司 同步本地房間和遠端共享
CN113497909B (zh) * 2020-03-18 2022-12-02 华为技术有限公司 一种设备交互的方法和电子设备
US11089262B1 (en) * 2020-11-13 2021-08-10 See I2I Pty Ltd Virtual eye contact in video interaction
US11368653B1 (en) * 2021-03-17 2022-06-21 Ampula Inc. Projection-type video conference device
US11758089B2 (en) * 2021-08-13 2023-09-12 Vtech Telecommunications Limited Video communications apparatus and method
CN114071218A (zh) * 2021-11-04 2022-02-18 大连成者科技有限公司 一种无线可移动智能投影会议系统
CN114025125A (zh) * 2021-11-04 2022-02-08 大连成者科技有限公司 一种无线可移动智能会议控制装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140267545A1 (en) * 2013-03-14 2014-09-18 Polycom, Inc. Immersive telepresence anywhere
JP2015002516A (ja) * 2013-06-18 2015-01-05 キヤノン株式会社 情報処理装置、会議端末、及びその制御方法、並びにプログラム
JP2015512168A (ja) * 2011-12-30 2015-04-23 スカイプ 追加の端末を用いた呼の生成

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3845969B2 (ja) 1997-08-28 2006-11-15 松下電工株式会社 来客報知システム
JP2002314962A (ja) 2001-04-13 2002-10-25 Dainippon Printing Co Ltd テレビ電話システム
US7188122B2 (en) * 2002-03-11 2007-03-06 Microsoft Corporation Live image server and client
JP4241916B2 (ja) * 2002-11-29 2009-03-18 株式会社日立製作所 電話通信システム
JP2004239968A (ja) 2003-02-03 2004-08-26 Seiko Epson Corp プロジェクタ
US7870199B2 (en) * 2003-10-06 2011-01-11 Aol Inc. System and method for seamlessly bringing external services into instant messaging session
JP2007511110A (ja) * 2003-10-07 2007-04-26 リブレストリーム テクノロジーズ インコーポレイテッド 遠隔地のクライアントにストリーミング・メディアを伝送するカメラ
JP2006235159A (ja) 2005-02-24 2006-09-07 Seiko Epson Corp 画像表示装置およびこれを動作させるためのプログラム
JP2006238328A (ja) * 2005-02-28 2006-09-07 Sony Corp 会議システム及び会議端末装置並びに携帯端末装置
JPWO2007034550A1 (ja) * 2005-09-22 2009-03-19 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. 動画像配信装置およびその方法
US20080244019A1 (en) * 2007-03-30 2008-10-02 Mellor Richard E System and method for plug and play video-conferencing
US8676273B1 (en) * 2007-08-24 2014-03-18 Iwao Fujisaki Communication device
US8639214B1 (en) * 2007-10-26 2014-01-28 Iwao Fujisaki Communication device
JP2009130874A (ja) 2007-11-28 2009-06-11 Hitachi Ltd 表示装置および映像機器
US20110004481A1 (en) * 2008-09-19 2011-01-06 Dell Products, L.P. System and method for communicating and interfacing between real and virtual environments
JP2010178254A (ja) 2009-02-02 2010-08-12 Seiko Epson Corp プロジェクター
US8447813B2 (en) * 2010-07-26 2013-05-21 Scott Redmond Mobile multi-network communications device
US9024997B2 (en) * 2010-09-03 2015-05-05 At&T Intellectual Property L.L.P. Virtual presence via mobile
JP5849484B2 (ja) * 2010-09-16 2016-01-27 株式会社リコー 伝送端末、表示データ送信方法、プログラム、情報提供装置及び伝送システム
US8780167B2 (en) * 2011-07-05 2014-07-15 Bayer Business and Technology Services, LLC Systems and methods for virtual presence videoconferencing
US8917306B2 (en) * 2011-07-29 2014-12-23 Cisco Technology, Inc. Previewing video data in a video communication environment
CN102998880A (zh) * 2011-09-13 2013-03-27 宇达电脑(上海)有限公司 带摄像功能的投影仪及拍摄方法
CN103209313A (zh) * 2012-01-16 2013-07-17 华为技术有限公司 图像处理方法、会议终端、会场电子系统和视频会议系统
US20130201356A1 (en) * 2012-02-07 2013-08-08 Arthrex Inc. Tablet controlled camera system
JP2013225101A (ja) * 2012-03-22 2013-10-31 Ricoh Co Ltd プロジェクタ
JP2013243599A (ja) * 2012-05-22 2013-12-05 Nec Corp テレビ会議システム
US10075814B2 (en) * 2012-12-24 2018-09-11 Intel Corporation Location-based selection of wireless peripheral devices
CN103905668B (zh) * 2012-12-27 2016-12-28 中强光电股份有限公司 具有视讯功能的电话机及其视讯会谈的方法
JP2014135617A (ja) 2013-01-09 2014-07-24 Sharp Corp テレビ会議システム
US9173095B2 (en) * 2013-03-11 2015-10-27 Intel Corporation Techniques for authenticating a device for wireless docking
JP2014241524A (ja) * 2013-06-12 2014-12-25 株式会社リコー 通信装置、通信システム、プログラム及び通信装置の使用方法
CN105850116A (zh) * 2013-12-27 2016-08-10 索尼公司 控制装置、控制方法和计算机程序
JP5961647B2 (ja) * 2014-03-11 2016-08-02 シャープ株式会社 画像処理装置および外部通信装置
JP2015225400A (ja) * 2014-05-26 2015-12-14 株式会社リコー 通信システム、転送制御装置、通信方法およびプログラム
US9578511B2 (en) * 2014-06-30 2017-02-21 Libre Wireless Technologies, Inc. Systems and techniques for wireless device configuration
CN106605196B (zh) * 2014-09-02 2018-11-09 苹果公司 远程相机用户界面
CN112911197A (zh) * 2015-11-24 2021-06-04 麦克赛尔株式会社 影像信息处理系统、移动通信终端和影像信息处理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015512168A (ja) * 2011-12-30 2015-04-23 スカイプ 追加の端末を用いた呼の生成
US20140267545A1 (en) * 2013-03-14 2014-09-18 Polycom, Inc. Immersive telepresence anywhere
JP2015002516A (ja) * 2013-06-18 2015-01-05 キヤノン株式会社 情報処理装置、会議端末、及びその制御方法、並びにプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020102828A (ja) * 2018-12-22 2020-07-02 弘真科技股▲ふん▼有限公司 無線映像音声情報共有システム及び方法

Also Published As

Publication number Publication date
US20180352192A1 (en) 2018-12-06
JPWO2017090076A1 (ja) 2018-09-20
CN108293104B (zh) 2021-02-05
US20210092215A1 (en) 2021-03-25
US20200195888A1 (en) 2020-06-18
JP6598875B2 (ja) 2019-10-30
US10616529B2 (en) 2020-04-07
CN112911197A (zh) 2021-06-04
CN108293104A (zh) 2018-07-17
US20230007117A1 (en) 2023-01-05
US10887441B2 (en) 2021-01-05
US11477316B2 (en) 2022-10-18

Similar Documents

Publication Publication Date Title
US11477316B2 (en) Information processing system, wireless terminal, and information processing method
RU2643478C2 (ru) Способ, устройство и система для проецирования на экране
JP5849484B2 (ja) 伝送端末、表示データ送信方法、プログラム、情報提供装置及び伝送システム
TWI536855B (zh) 內容分享方法與裝置
US8300079B2 (en) Apparatus and method for transferring video
WO2016101482A1 (zh) 连接方法及装置
US10205776B2 (en) Method and device for wireless connection
KR20160078024A (ko) 영상 데이터를 송수신하는 디바이스 및 그 방법
CN109753259B (zh) 一种投屏系统及控制方法
JP2016046552A (ja) 通信装置およびその制御方法
US20160269682A1 (en) Transmission management apparatus, transmission system, transmission management method and recording medium
JP6781318B2 (ja) 情報処理システム及び無線端末
JP6922060B2 (ja) 情報処理システム及び無線端末
JP7149386B2 (ja) 情報処理システム及び無線端末
JP2010016885A (ja) 通信装置および方法、通信システム、並びにプログラム記録媒体
JP6391219B2 (ja) システム
WO2014180233A1 (zh) 一种实现资源共享的方法、装置及终端
TW202218404A (zh) 一種影音內容分享系統及其方法
JP2016143954A (ja) 無線通信装置及び無線通信方法
JP2017175490A (ja) 会議用装置、送信方法、およびコンピュータプログラム
JP2016100841A (ja) 通信装置、撮像装置、通信装置の制御方法、及びプログラム
JP2015061162A (ja) 通信システム
JP2024075264A (ja) 表示装置、プログラム、表示方法
JP2019165442A (ja) 通信装置、その制御方法、およびプログラム
JP2012138795A (ja) プレゼンス送信方法、映像表示装置および映像表示システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15909195

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017552550

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15909195

Country of ref document: EP

Kind code of ref document: A1