WO2016117194A1 - 情報処理装置、通信システム、情報処理方法およびプログラム - Google Patents

情報処理装置、通信システム、情報処理方法およびプログラム Download PDF

Info

Publication number
WO2016117194A1
WO2016117194A1 PCT/JP2015/079632 JP2015079632W WO2016117194A1 WO 2016117194 A1 WO2016117194 A1 WO 2016117194A1 JP 2015079632 W JP2015079632 W JP 2015079632W WO 2016117194 A1 WO2016117194 A1 WO 2016117194A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
user
information
display
information processing
Prior art date
Application number
PCT/JP2015/079632
Other languages
English (en)
French (fr)
Inventor
靖 井原
英輝 石見
翔 天野
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP15878883.6A priority Critical patent/EP3249934A4/en
Priority to US15/541,844 priority patent/US10795831B2/en
Priority to JP2016570490A priority patent/JPWO2016117194A1/ja
Publication of WO2016117194A1 publication Critical patent/WO2016117194A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/02Handling of images in compressed format, e.g. JPEG, MPEG
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
    • G09G2370/042Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller for monitor identification
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/10Use of a protocol of communication by packets in interfaces along the display data pipeline
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/16Use of wireless transmission of display information

Definitions

  • This technology relates to an information processing apparatus.
  • the present invention relates to an information processing apparatus, a communication system, an information processing method, and a program for causing a computer to execute the method to exchange various types of information using wireless communication.
  • various types of information can be exchanged between the two information processing apparatuses using wireless communication without being connected by a wired line.
  • an image based on image data transmitted from the information processing apparatus on the transmission side can be displayed on the display unit of the information processing apparatus on the reception side.
  • the present technology has been created in view of such a situation, and an object thereof is to provide an image that is easy to see and operate for a user.
  • a first aspect of the present technology is a communication unit that receives user information related to a relative position between a user and a display unit from an electronic device;
  • An information processing apparatus including a control unit that performs control for determining a display mode in the display unit of an image transmitted from a source device based on user information, an information processing method thereof, and a program that causes a computer to execute the method is there. This brings about the effect
  • control unit may determine a priority related to the image based on the user information. This brings about the effect
  • control unit may control the user information to be exchanged with the electronic device using a Wi-Fi (Wireless Fidelity), CERTIFIED, Miracast protocol. Good.
  • Wi-Fi Wireless Fidelity
  • CERTIFIED Wi-Fi CERTIFIED Miracast protocol.
  • the user information is exchanged with the electronic device using the Wi-Fi CERTIFIED Miracast protocol.
  • control unit may select the priority for an image having a display area overlapped on the display unit among a plurality of images transmitted from the source device and displayed on the display unit.
  • the display mode may be changed based on the degree.
  • control unit overwrites and displays the high priority image among the overlapping images, or displays the high priority image in a large size.
  • the display mode of the overlapping image may be changed. As a result, an image having a high priority is overwritten and displayed, or an image having a high priority is displayed in a large size.
  • control unit determines the display position and the display size of the image on the display unit based on a relative positional relationship between the user associated with the image and the display unit. At least one of them may be determined. Thereby, based on the relative positional relationship between the user associated with the image and the display unit, at least one of the display position and display size of the image on the display unit is determined.
  • control unit is configured to display at least one of a movement of the display area of the image associated with the user in the display unit and a direction of the image based on the movement of the user. May be determined. Thereby, based on the movement of the user, there is an effect of determining at least one of the movement of the display area of the image associated with the user in the display unit and the orientation of the image.
  • control unit searches for the electronic device using wireless communication, and plays a role of the sink device, the source device, and the electronic device that display the image on the display unit. May be determined. This brings about the effect of searching for an electronic device using wireless communication and determining the roles of the sink device, the source device, and the electronic device.
  • control unit is configured to control the electronic device based on at least one of the electronic device capability, communication amount, power consumption, mobile presence / absence, and API (Application Programming Interface).
  • the role may be determined. Accordingly, there is an effect that the role of the electronic device is determined based on at least one of the capability, communication amount, power consumption, presence / absence of mobile, and API of the electronic device.
  • the information processing apparatus may be a sink device, and the information processing apparatus and the source device may perform real-time image transmission according to Wi-Fi CERTIFIED Miracast specifications. Accordingly, the sink device and the source device have an effect of performing real-time image transmission according to the Wi-Fi CERTIFIED Miracast specification.
  • the information processing apparatus, the source device, and the electronic device may be Wi-Fi CERTIFIED Miracast specification devices. This brings about the effect of using a device of Wi-Fi CERTIFIED Miracast specification.
  • the second aspect of the present technology includes an acquisition unit that acquires a stereoscopic image and a planar image corresponding to the stereoscopic image and the stereoscopic image using a format based on the Wi-Fi CERTIFIED Miracast specification.
  • An information processing device including a control unit that associates information for specifying the depth of an object to be transmitted and transmits the information to another information processing device, an information processing method thereof, and a program that causes a computer to execute the method. Accordingly, there is an effect that the planar image corresponding to the stereoscopic image and the information for specifying the depth of the object included in the stereoscopic image are associated with each other and transmitted to another information processing apparatus.
  • an electronic device that acquires user information related to a relative position between the user and the display unit and transmits the user information to the information processing device, and the source device based on the user information are transmitted.
  • a communication system including an information processing apparatus that determines a display mode of the displayed image on the display unit, an information processing method thereof, and a program for causing a computer to execute the method. This brings about the effect
  • FIG. 1 is a block diagram illustrating a system configuration example of a communication system 10 according to an embodiment of the present technology. It is a block diagram which shows the function structural example of the sink device 100 in embodiment of this technique. It is a figure which shows typically the sensor information detected by the sensor apparatus in embodiment of this technique. It is a figure which simplifies and shows the example of the frame format exchanged between each apparatus in embodiment of this technique. It is a figure which shows the example of communication in the case of connecting the sensor apparatus 303 in embodiment of this technique to the sink apparatus 301 or the source apparatus 302.
  • FIG. 12 is a sequence chart illustrating an example of communication processing when the sensor device 303 is connected to the sink device 301 according to the embodiment of the present technology.
  • FIG. 12 is a sequence chart illustrating an example of communication processing when negotiation is performed between the sink device 321 and the sensor device 322 according to the embodiment of the present technology. It is a figure which simplifies and shows the relationship between the relative positional relationship of each apparatus and user in embodiment of this technique, and the display mode of an image. It is a figure which shows the example of arrangement
  • FIG. 12 is a flowchart illustrating an example of a processing procedure of image display processing by the sink device 100 according to the embodiment of the present technology.
  • 12 is a flowchart illustrating an example of a processing procedure of image display processing by the sink device 100 according to the embodiment of the present technology.
  • It is a block diagram which shows an example of a schematic structure of a smart phone. It is a block diagram which shows an example of a schematic structure of a car navigation apparatus.
  • Embodiment example of changing display mode of image of sink device based on user information from sensor device
  • Application examples
  • FIG. 1 is a block diagram illustrating a system configuration example of a communication system 10 according to an embodiment of the present technology.
  • FIG. 1 shows an example of a communication system that can perform wireless connection by P2P (Peer to Peer) direct communication.
  • P2P Peer to Peer
  • the communication system 10 includes a sink device 100, a source device 200, a source device 210, a sensor device 220, a sensor device 230, and a sensor device 240.
  • the communication system 10 is a communication system in which the sink device 100 receives data (for example, image data and audio data) transmitted from at least one of the source device 200 and the source device 210.
  • the sink device 100 is an example of an information processing apparatus described in the claims.
  • each device constituting the communication system 10 is an information processing apparatus or an electronic device having a wireless communication function.
  • each apparatus which comprises the communication system 10 can exchange various information using a wireless communication function.
  • the sink device 100, the source device 200, and the source device 210 are a fixed information processing device or a portable information processing device having a wireless communication function.
  • the fixed information processing apparatus is, for example, a personal computer or a video viewing apparatus (for example, a television).
  • the portable information processing apparatus is, for example, a smartphone or a tablet terminal.
  • an electronic device for example, a personal computer, a game machine, a smartphone, or a tablet terminal
  • a camera may be used as the sink device 100, the source device 200, and the source device 210.
  • other electronic devices including a display unit (for example, an imaging device, a game machine, a smartphone, and a tablet terminal) may be used.
  • the sensor device 220, the sensor device 230, and the sensor device 240 are sensor devices that can acquire each information by measuring the user and the environment.
  • This sensor device is, for example, a 3D sensor device including a Raider, an image sensor device, a touch panel device, a pressure sensor device, a touch sensor device, a wireless sensor device, or a temperature sensor device.
  • the image sensor device is realized by, for example, an imaging device having an imaging function (for example, a CCD (ChargeCCDCoupled Device) or a CMOS (Complementary Metal Oxide Semiconductor)).
  • the pressure sensor device is realized by, for example, a small pressure sensor or a large pressure sensor (for example, a pressure sensor stretched on a floor surface).
  • the wireless sensor device is realized by a wireless sensor such as Wi-Fi (Wireless Fidelity) or GPS (Global Positioning System).
  • the temperature sensor device is realized by a device such as an air conditioner, for example. Further, the temperature sensor device can be used as, for example, a sensor device that detects the presence of a person (for example, an air conditioner that detects a position where a person exists by detecting heat generated by the person).
  • each of the sensor device 220, the sensor device 230, and the sensor device 240 is an imaging device.
  • each of the sensor device 220, the sensor device 230, and the sensor device 240 is arranged so that an area around the place where the sink device 100 is installed is an imaging range.
  • at least one of the sensor device 220, the sensor device 230, and the sensor device 240 can be a fisheye camera.
  • the position of the surrounding users can be acquired with the fisheye camera, and the state of each user (for example, the direction of the face and the direction of the line of sight) can be detected by another imaging device.
  • each device constituting the communication system 10 is a wireless communication device compliant with IEEE (Institute of Electrical and Electronics Electronics) (802.11, IEEE 802.15, IEEE 802.16 specifications).
  • IEEE Institute of Electrical and Electronics Electronics
  • each device constituting the communication system 10 is a wireless communication device compliant with 3GPP (3rd Generation Generation Partnership Project) specifications.
  • the 3GPP specifications include, for example, W-CDMA (Wideband Code Division Multiple Access), GSM (registered trademark) (Global System for Mobile Communications), WiMAX (Worldwide Interoperability for Microwave Access), WiMAX2, LTE (Long Term Term Evolution), LTE-A (Advanced).
  • Wi-Fi Wireless Fidelity
  • TDLS Transmission Link Setup
  • ad hoc network ad hoc network
  • mesh network ad hoc network
  • Wi-Fi CERTIFIED Miracast technical specification name: Wi-Fi Display
  • Wi-Fi CERTIFIED Miracast uses Wi-Fi Direct and TDLS technologies to transmit audio and display images that are played back on one terminal to other terminals, and the other terminals can transmit the audio, This is a mirroring technology that outputs image data.
  • Wi-Fi CERTIFIED Miracast realizes UIBC (User Input Back Channel) on TCP / IP (Transmission Control Protocol / Internet Protocol).
  • UIBC is a technique for transmitting operation information of an input device such as a mouse or a keyboard from one terminal to the other terminal.
  • other remote desktop software for example, VNC (Virtual Network Computing) may be applied.
  • H.Fi CERTIFIED Miracast images (videos) are recorded on, for example, H.Fi. H.264 is used for compression / decompression.
  • H. H.264 can be adjusted on the transmission side.
  • H.264 is not limited thereto. 265, MPEG (Moving Picture Experts Group) 4 and JPEG (Joint 1 Photographic Experts Group) 2000 can be supported.
  • H. 265 is, for example, HEVC (high efficiency video coding) and SHVC (scalable video coding extensions of high efficiency video coding).
  • the line-based codec is, for example, Wavelet or DCT (DiscretecreCosine Transform).
  • a codec that reduces a transmission rate without performing compression such as DCT or Wavelet by obtaining a difference from a previous code amount region of a specific code amount region (such as a picture or a bundle of multiple lines or a macro block).
  • the image (video) may be transmitted / received without compression.
  • the source device 200 and the source device 210 can transmit content generated by an imaging operation and content stored in a storage unit (for example, a hard disk).
  • the content to be transmitted is, for example, content made up of image data and audio data.
  • content stored in an ISP (Internet Services Provider) via a wireless or wired network may be a transmission target.
  • content stored in a storage unit (for example, a hard disk) of the source device 200 is transmitted to the sink device 100, and an image 31 based on the content is displayed on the display unit 160 of the sink device 100.
  • content stored in the storage unit (for example, hard disk) of the source device 210 is transmitted to the sink device 100, and the image 32 based on the content is displayed on the display unit 160 of the sink device 100.
  • FIG. 1 shows a case where the user 21 who owns the source device 200 is looking at the image 31 based on the image data transmitted from the source device 200 (the line of sight of the user 21 is indicated by a dotted line 23).
  • FIG. 1 shows a case where the user 22 who owns the source device 210 is viewing the image 32 based on the image data transmitted from the source device 210 (the line of sight of the user 22 is indicated by a dotted line 24).
  • FIG. 1 shows an example of the communication system 10 in which a plurality of users 21 and 22 exist and a plurality of source devices (source devices 200 and 210) exist.
  • the sink device 100 displays an image transmitted from each source device (source device 200, 210)
  • an example of determining the display mode of each image so that each user 21, 22 is easy to see Indicates is, even in a situation where the physical position of the source device and the image display on the sink device are different from each other, an image that is easy to see for each user is displayed, and when the user moves, the image also moves to a display position that is easy for the user to see Indicates.
  • the display area (display window) of a plurality of images displayed on the sink device is associated with the user.
  • the link information is managed by the exchange between the source device and the sink device, and the display area of the image linked to the user is determined according to the movement of the user.
  • FIG. 1 shows an example in which there are two or more users and a device (sink device 100) other than the devices owned by each user is shared
  • the present technology is not limited to this.
  • a case where a plurality of users share the display of one user can be handled.
  • each device constituting the communication system 10 can be a Wi-Fi CERTIFIED Miracast specification device.
  • each device when each device is connected by wire, there is a possibility that the installation location of each device can be selected and each device cannot be installed freely. Therefore, as shown in FIG. 1, each device can be freely installed by using a device having a wireless communication function. In this case, it is necessary to set the topology appropriately in order to connect each device effectively using radio. In addition, it is important to set the topology appropriately and properly connect the sensor device and other electronic devices that require the sensor device (for example, ID authentication device (human authentication device), sink device) wirelessly. It is.
  • ID authentication device human authentication device
  • a 3D sensor is generally realized by combining a plurality of sensors (for example, a 2D sensor) and estimating a 3D coordinate.
  • a plurality of sensor devices for example, 2D sensors
  • a place for example, a ceiling
  • the user's position relative to the sink device is detected by the sensor device, and from the source device according to the user position Assume that the display mode of an image is changed. For example, it is assumed that the user's standing position overlaps when viewed from the sink device. Even in such a case, it is preferable to display the image from the source device so that the position and size are easy to see and operate by the user. Therefore, in the embodiment of the present technology, an example is shown in which an image from the source device is displayed so that the position and the size are easy to see and operate by the user.
  • both the source device and the sink device often include an imaging device (for example, a 2D camera). Therefore, it is important to appropriately use these imaging devices (for example, 2D cameras).
  • an imaging device for example, a 2D camera
  • a position sensor For example, the application range can be expanded by using a Wi-Fi CERTIFIED Miracast device (for example, a smartphone) or a sensor device (for example, a 2D camera) incorporated in another electronic device.
  • the data output by sensor devices that acquire position information often becomes enormous. Therefore, it is important to efficiently transmit data output from the sensor device. Therefore, for example, by mixing sensor devices that acquire position information in a Wi-Fi CERTIFIED Miracast network, data output from the sensor devices can be efficiently transmitted.
  • FIG. 2 is a block diagram illustrating a functional configuration example of the sink device 100 according to the embodiment of the present technology.
  • the sink device 100 includes a communication unit 110, an imaging unit 120, a control unit 130, a storage unit 140, an operation reception unit 150, a display unit 160, and an audio output unit 170.
  • the communication unit 110 is a module (for example, a wireless LAN modem) for transmitting and receiving radio waves via an antenna (not shown).
  • the communication unit 110 can perform wireless communication using a wireless LAN communication method.
  • the communication unit 110 can perform wireless communication by a communication method compliant with IEEE802.11, IEEE802.15, IEEE802.16, 3GPP specifications. And the communication part 110 can exchange various information using a wireless communication function. For example, wireless communication using a wireless LAN can be performed between the devices.
  • the communication unit 110 can perform real-time image transmission with other information processing apparatuses in accordance with the Wi-Fi CERTIFIED Miracast specification. Further, the communication unit 110 can relay image transmission from a first device (for example, a source device) to a second device (for example, another sink device) according to the Wi-Fi CERTIFIED Miracast specification. In addition, the communication unit 110 can receive user information related to the position of the user relative to the display unit 160 from an electronic device (for example, the source devices 200 and 210, the sensor devices 220, 230, and 240).
  • an electronic device for example, the source devices 200 and 210, the sensor devices 220, 230, and 240.
  • the imaging unit 120 captures a subject and generates image data based on the control of the control unit 130, and outputs the generated image data to the control unit 130.
  • the imaging unit 120 includes, for example, a lens, an imaging element (for example, CCD, CMOS), and a signal processing circuit.
  • the control unit 130 controls each unit of the sink device 100 based on a control program stored in the storage unit 140.
  • the control unit 130 is realized by, for example, a CPU (Central Processing Unit). Further, for example, the control unit 130 performs signal processing on the transmitted and received information. For example, the control unit 130 performs connection processing, authentication processing, and disconnection processing with another information processing apparatus.
  • CPU Central Processing Unit
  • control unit 130 displays the image transmitted from the source device 200 or 210 based on the user information received from the electronic device (for example, the source device 200 or 210 or the sensor device 220, 230 or 240).
  • Control for determining the display mode at 160 is performed.
  • the control unit 130 determines at least one of the display position and display size of the image on the display unit 160 based on the relative positional relationship between the user associated with the image and the display unit 160. Can do.
  • the control unit 130 can determine at least one of the movement of the display area of the image associated with the user on the display unit 160 and the orientation of the image based on the movement of the user.
  • control unit 130 can determine the priority related to the image (or user) transmitted from the source device 200 or 210 based on the user information. In this case, the control unit 130 determines, based on the priority, an image whose display area in the display unit 160 overlaps among a plurality of images transmitted from the source devices 200 and 210 and displayed on the display unit 160.
  • the display mode can be changed. For example, the control unit 130 overwrites and displays an image having a high priority among the overlapping images, or displays a high-priority image in a large size, thereby changing the display mode of the overlapping image. Can be changed.
  • control unit 130 can perform control so that user information is exchanged with other devices using a Wi-Fi CERTIFIED Miracast protocol.
  • the storage unit 140 is a memory that stores various types of information.
  • the storage unit 140 stores various information (for example, a control program) necessary for the sink device 100 to perform a desired operation.
  • the storage unit 140 includes a buffer used when the sink device 100 transmits and receives data.
  • the operation accepting unit 150 is an operation accepting unit that accepts an operation input performed by the user, and outputs operation information corresponding to the accepted operation input to the control unit 130.
  • the operation reception unit 150 receives a connection instruction operation to the network and a disconnection instruction operation from the network.
  • the operation reception unit 150 is realized by, for example, a touch panel, a keyboard, a mouse, and a sensor (for example, a touch interface).
  • the display unit 160 is a display unit that displays each image based on the control of the control unit 130.
  • the display unit 160 for example, an organic EL (Electro Luminescence) panel or an LCD (Liquid Crystal Display) panel can be used.
  • the operation receiving unit 150 and the display unit 160 can be configured integrally using a touch panel that allows a user to input an operation by touching or approaching the finger with the display surface.
  • the audio output unit 170 is an audio output unit (for example, a microphone) that outputs various information as audio under the control of the control unit 130.
  • the sink device 100 can be connected to other devices via Wi-Fi Direct. Also, the sink device 100 can perform image communication with other devices by Wi-Fi CERTIFIED Miracast.
  • FIG. 3 is a diagram schematically illustrating sensor information detected by the sensor device according to the embodiment of the present technology.
  • FIG. 3 shows an example in which the position of the user is specified in three dimensions.
  • the position of the user in the three-dimensional space can be specified by the coordinates of the three axes (X axis, Y axis, Z axis).
  • the orientation of the user for example, the orientation of the face and the orientation of the body
  • the three-axis rotation information ⁇ x, ⁇ y, ⁇ z.
  • the sensor information (three-axis coordinate information) detected by the sensor device is stored in a predetermined format and transmitted from the sensor device to another device (for example, a source device, a source device, or a personal identification device). Is done.
  • a source device for example, a source device, a source device, or a personal identification device.
  • FIG. 4 is a diagram schematically illustrating an example of a frame format exchanged between devices in the embodiment of the present technology.
  • Fig. 4a shows an example of a negotiation frame format.
  • This frame format includes, for example, a header 401, a sensor bitmap 402, and a processing bitmap 403.
  • each piece of information for example, capability information
  • the performance of the sensor device is, for example, an imaging function, a temperature detection function, a communication amount, power consumption, whether it is mobile, or API (Application Programming Interface).
  • the processing bitmap 403 stores each piece of information related to processing by the sensor device that transmits this frame format. Thereby, each process (for example, imaging process, stereoscopic image generation process, depth detection process, temperature detection process, gesture detection process, facial expression determination process, personal identification process) that can be performed by each sensor device can be grasped. .
  • Fig. 4b shows an example of a 3D sensor frame format.
  • This frame format is transmitted from, for example, a sensor device that can generate a 3D image (for example, an imaging device that can generate a stereoscopic image). For example, it can be used for transmission based on the Wi-Fi CERTIFIED Miracast specification.
  • This frame format includes, for example, a PES (Packetized Elementary Stream) header 405, image data 406, a PES header 407, and Depth information 408.
  • PES Packetized Elementary Stream
  • the image data 406 stores 2D image data of 3D images generated by the 3D sensor device.
  • the depth information 408 stores information (Depth information) for specifying the depth of the object included in the 2D image among the 3D images generated by the 3D sensor device.
  • the 2D image data stored in the image data 406 and the Depth information stored in the Depth information 408 allow the receiving device to handle the 3D image generated by the 3D sensor device. It becomes possible.
  • a Wi-Fi CERTIFIED Miracast specification device can handle a 3D image generated by a 3D sensor device.
  • Fig. 4c shows an example of an individual specific frame format.
  • this frame format for example, information for specifying a user who is viewing or operating an image displayed on the sink device 100 is stored.
  • This frame format includes, for example, a header 411, personal ID 412, position information 413, orientation information 414, position information 415 on the screen, and information 416 related to the operating device.
  • the personal ID 412 stores identification information (for example, user ID) for identifying the user.
  • the position information 413 stores information for specifying the position where the user exists (for example, sensor information (three-axis coordinate information) shown in Fig. 3.
  • sensor information three-axis coordinate information
  • Fig. 3 position information in the case where the position of the sink device 100 is the origin
  • the orientation information 414 stores information (for example, triaxial rotation information ( ⁇ x, ⁇ y, ⁇ z) shown in FIG. 3) for specifying the orientation of the user (for example, the orientation of the face, the orientation of the body).
  • information for example, triaxial rotation information ( ⁇ x, ⁇ y, ⁇ z) shown in FIG. 3 for specifying the orientation of the user (for example, the orientation of the face, the orientation of the body).
  • the position information 415 on the screen stores information on the position of the user in the image (image generated by the sensor device (imaging device)) including the user. For example, top, left, and width for specifying the position of the user in the image are stored.
  • the information regarding the operation device 416 stores information regarding the device that operates the image displayed on the sink device (for example, information specifying either the sink device or the source device).
  • a 3D camera sensor when a 3D camera sensor is used as the sensor device, it is possible to acquire two-dimensional or more position information regarding the user. For example, six axes of position information (XYZ) relating to the position of the user in a three-dimensional space and information (eg, vector information) (XYZ) relating to the user's orientation (eg, face orientation, body orientation) are acquired. be able to. As described above, when a 3D camera sensor is used, position information of two or more dimensions regarding the user can be transmitted as a bitmap.
  • the display mode of the image from the source device in consideration of the overlapping of persons included in the image generated by the 3D camera sensor.
  • information on up to six axes of position information (XYZ) related to the person who operates the image from the source device and position information (XYZ) related to the person who views the image from the source device is acquired and used. be able to.
  • 6-axis information may be estimated.
  • information of two or more dimensions other than the estimated axis is required.
  • the respective 6-axis information can be transmitted.
  • 6-axis information it is possible to detect 6-axis information using a portable information processing device such as a smartphone. Further, for example, the position and orientation of the body can be detected using an information processing device (wearable terminal) worn on the body.
  • a portable information processing device such as a smartphone.
  • the position and orientation of the body can be detected using an information processing device (wearable terminal) worn on the body.
  • FIG. 5 is a diagram illustrating a communication example when the sensor device 303 according to the embodiment of the present technology is connected to the sink device 301 or the source device 302.
  • FIG. 5 a shows an example of communication when the sensor device 303 is connected to the sink device 301.
  • FIG. 5 b illustrates a communication example when the sensor device 303 is connected to the source device 302.
  • the sink device 301 corresponds to the sink device 100 shown in FIG.
  • the source device 302 corresponds to the source devices 200 and 210 shown in FIG.
  • the sensor device 303 corresponds to the sensor devices 220, 230, and 240 shown in FIG.
  • a protocol between the sensor device 303 and the sink device 301 is executed between the sensor device 303 and the sink device 301 (304). Further, a protocol between the source device 302 and the sink device 301 is executed between the source device 302 and the sink device 301 (305).
  • a protocol between the sensor device 303 and the source device 302 is executed between the sensor device 303 and the source device 302 (306). Further, a protocol between the source device 302 and the sink device 301 is executed between the source device 302 and the sink device 301 (307).
  • FIG. 6 is a sequence chart illustrating an example of communication processing when the sensor device 303 is connected to the sink device 301 according to the embodiment of the present technology.
  • FIG. 6 shows an example of communication processing when the example corresponds to the example shown in FIG.
  • FIG. 6 shows an example in which the sink device 301 functions as a personal identification device (personal recognition device).
  • the sensor device 303 is a device capable of generating a stereoscopic image (3D image).
  • the sensor device 303 can include an imaging unit (corresponding to the imaging unit 120 illustrated in FIG. 2) that generates image data of a stereoscopic image (3D image).
  • the imaging unit is configured so that each of the optical system and the imaging element is a pair of left and right in order to generate a left-eye viewing image and a right-eye viewing image.
  • the sensor device 303 is an example of an information processing apparatus described in the claims.
  • the imaging unit included in the sensor device 303 is an example of an acquisition unit described in the claims.
  • FIG. 6 shows an example in which one source device is connected to the sink device 301, but the same can be applied to a case where a plurality of source devices are connected to the sink device 301.
  • RTSP Real Time Streaming Protocol
  • FIG. 6 shows an example of transmitting a 2D image and a 3D image as sensor information.
  • the sensor device 303 transmits the 3D image generated by the own device using Wi-Fi CERTIFIED Miracast (313).
  • the sensor device 303 uses the 3D sensor format shown in FIG. 4B to convert the 3D image into a 2D image (stored in the image data 406) and Depth information (stored in the Depth information 408). (313). Further, the sensor device 303 transmits the information (2D image and depth information) to the sink device 301 before the transmission of the 2D image from the source device 302 to the sink device 301 is started or during the transmission (317). Transmit periodically (or irregularly) (313).
  • the depth information can be acquired using, for example, a known method.
  • Depth information can be calculated using the property of subject depth (see, for example, Japanese Patent Application Laid-Open No. 2011-19084).
  • depth information can be acquired using a method such as a TOF (Time of Flight) method or a blur amount analysis (Depth of Defocus).
  • the control unit (corresponding to the control unit 130 shown in FIG. 2) of the sensor device 303 acquires the 3D image generated by the imaging unit (corresponding to the imaging unit 120 shown in FIG. 2).
  • the control unit of the sensor device 303 transmits information corresponding to the 3D image to the sink device 301 using a format based on the Wi-Fi CERTIFIED Miracast specification.
  • the control unit of the sensor device 303 associates the 2D image (planar image) corresponding to the 3D image with information (Depth information) for specifying the depth of the object included in the 3D image, and the sink device 301. Can be sent in real time.
  • the sink device 301 that has received the sensor information (information corresponding to the 3D image) from the sensor device 303 can acquire information (user information) about the user based on the received sensor information. For example, when a 2D image corresponding to a 3D image and depth information related to the 3D image are received, the sink device 301 detects a person included in the 2D image, and determines the position of each person in the 2D image. Can be identified. That is, it is possible to specify the vertical and horizontal positions of the person when the sensor device 303 is used as a reference.
  • a detection method for detecting a person for example, a known detection method can be used. For example, a detection method (for example, see Japanese Patent Application Laid-Open No.
  • 2004-133737 based on matching between a template in which luminance distribution information of an object (for example, a human face) is recorded and an actual image can be used.
  • a detection method for detecting an object (for example, a human body) included in an image using the gradient intensity and gradient direction of the luminance in the image can be used (see, for example, JP-A-2010-67102). .
  • the sink device 301 can specify the depth of each person detected in the 2D image (for example, the distance between the sensor device 303 and each person) based on the depth information. Thereby, the sink device 301 can specify the position of the person (position in the three-dimensional space) when the sensor device 303 is used as a reference. That is, the sink device 301 can acquire the relative positional relationship between the detected person and the sink device 301. For example, the sink device 301 holds the relative positional relationship between the sink device 301 and the sensor device 303.
  • the sink device 301 uses the relative position between the person and the sink device 301 based on the position of the person when the sensor device 303 is used as a reference and the relative positional relationship between the sink device 301 and the sensor device 303.
  • the positional relationship can be acquired.
  • the sensor information is transmitted using the 3D sensor format shown in FIG.
  • the sensor device 303 functions as a personal identification device (personal recognition device)
  • the sensor information may be transmitted using a personal identification format shown in FIG.
  • the sensor device 303 generates and transmits each piece of information shown in c of FIG.
  • user recognition processing is performed between the sink device 301 and the source device 302 (314).
  • an image transmitted from the source device 302 and displayed on the sink device 301 is associated with the user.
  • the image transmitted from the source device 302 and displayed on the sink device 301 and the sensor information (image including the user) transmitted from the sensor device 303 can be displayed on the display unit of the sink device 301.
  • related can be performed by a user's manual operation.
  • the sink device 301 holds and manages information regarding the association.
  • user authentication may be performed.
  • authentication using a user ID or a gesture for example, a method of calling the user's name and raising his hand
  • a gesture for example, a method of calling the user's name and raising his hand
  • images are transmitted from a plurality of source devices and a plurality of images are displayed on the sink device 301, these images can be associated with the user.
  • information such as whether the user views the image of the sink device or the user who operates it is associated.
  • information indicating a device to be operated (for example, a source device, a sink device, and both) is also associated.
  • the sink device 301 determines the priority of the position and size of the image transmitted from the source device 302 and displayed on the display unit (315).
  • the priority can be determined based on the user operation or the user status (distance from the sink device, presence / absence of movement). For example, the user with the closest distance from the sink device can be given the first priority, and the user priority can be lowered as the distance from the sink device increases. In addition, among the moving users, the user with the longest moving distance can be given the first priority, and the user's priority can be set according to the moving distance.
  • the priority may be determined based on a combination of distance and movement, or a combination of other elements. Further, for example, the determined priority may be adjusted using a UI (user interface) of the source device 302 or the sink device 301.
  • RTSP is executed between the sink device 301 and the source device 302 (316).
  • the 2D image is transmitted from the source device 302 to the sink device 301 (317). That is, the source device 302 transmits a 2D image to be displayed on the sink device 301 by Wi-Fi CERTIFIED Miracast (317).
  • the source device 302 includes a sensor function (for example, the imaging units 202 and 212 shown in FIG. 1).
  • the sensor information may be transmitted from the source device 302 to the sink device 301 in the same manner as the transmission from the sensor device 303 described above (317).
  • the sink device 301 can change the display mode of the image (image transmitted from the source device 302) displayed on the sink device 301 based on the sensor information transmitted from the sensor device 303.
  • the sink device 301 can change the display mode of the image according to the position of the user associated with the image displayed on the sink device 301 (the image transmitted from the source device 302).
  • the sink device 301 can change the display mode of the image by moving the image displayed on the sink device 301 in the moving direction of the user (direction substantially parallel to the display surface of the sink device 301). it can.
  • the sink device 301 enlarges or reduces the size of the image displayed on the sink device 301 in accordance with the moving direction of the user (the direction substantially perpendicular to the display surface of the sink device 301).
  • the display mode can be changed.
  • FIG. 7 is a sequence chart illustrating an example of communication processing when negotiation is performed between the sink device 321 and the sensor device 322 according to the embodiment of the present technology.
  • FIG. 7 shows an example in which the personal identification device 323 is arranged between the sink device 321 and the sensor device 322. Further, the negotiation shown in FIG. 7 corresponds to the negotiation 311 shown in FIG.
  • the personal identification device 323 is realized by, for example, an electronic device (for example, a smartphone or a tablet terminal) having a face recognition function and a user recognition function and capable of personal identification.
  • an electronic device for example, a smartphone or a tablet terminal
  • the Wi-Fi CERTIFIED Miracast protocol can be used with the personal identification device 323 and the sensor device 322 as the source device and the sink device. Further, even when the sensor device 322 is a 3D or higher sensor device, the Wi-Fi CERTIFIED Miracast protocol can be used with the personal identification device 323 and the sensor device 322 as the source device and the sink device. However, in this case, information exceeding 2D is added as other information (for example, direction information, depth information) and transmitted as an extension of Wi-Fi CERTIFIED Miracast. For example, it can be transmitted with an identifier of being extended.
  • the sink device 321 transmits the recognition capability query to the personal identification device 323 in order to acquire the personal identification capability (personal recognition capability) of the personal identification device 323 (331, 332).
  • the personal identification device 323 Upon receiving the recognition capability query (332), the personal identification device 323 transmits the sensor capability query to the sensor device 322 in order to acquire the sensor capability of the sensor device 322 (333, 334).
  • the sensor device 322 Upon receiving the sensor capability query (334), the sensor device 322 transmits a sensor capability response for notifying the sensor capability of the own device to the personal identification device 323 (335, 336).
  • the personal identification device 323 Upon receiving the sensor capability response (336), the personal identification device 323 determines the sensor capability to be executed by the sensor device 322 based on the received sensor capability response (337). Subsequently, in order to notify the determined sensor capability, the personal identification device 323 transmits the determined sensor capability to the sensor device 322 (338, 339).
  • the personal identification device 323 transmits a recognition capability response for notifying the recognition capability of the device itself to the sink device 321 (340, 341).
  • the sink device 321 When the sink device 321 receives the recognition capability response (341), the sink device 321 determines the recognition capability to be executed by the personal identification device 323 based on the received recognition capability response (342). Subsequently, the sink device 321 transmits the determined recognition capability to the personal identification device 323 in order to notify the determined recognition capability (343, 344).
  • the personal identification device 323 transmits a sensor image transmission start notification to the sensor device 322 (345, 346). Further, the personal identification device 323 transmits a recognition information provision start notification to the sink device 321 (347, 348).
  • devices for example, the personal identification device 323 and the sink device 100
  • an ID authentication function personal identification function
  • devices for example, the personal identification device 323 and the sink device 100
  • ID authentication function personal identification function
  • the present technology is not limited to these.
  • other messages may be exchanged.
  • the personal identification device 323 before starting transmission (333) of the sensor capability query to the recognition capability query (332) from the sink device 321, the personal identification device 323 sends a message to the sink device 321 in response to receiving the message. You may make it transmit.
  • the sink device 321 in response to the recognition capability response (341) from the personal identification device 323, before starting the determination of the recognition capability (342), the sink device 321 sends a message in response to receiving the message to the personal identification device. You may make it transmit to H.323.
  • the depth information 408 may be managed in correspondence with the MMT (MPEG media transport) format. Further, for example, the time when the depth information is acquired may be added to the format as a time stamp and managed.
  • MMT MPEG media transport
  • FIG. 8 is a diagram schematically illustrating the relationship between the relative positional relationship between each device and the user and the image display mode according to the embodiment of the present technology.
  • the display mode of the image is changed based on the relationship between the user who is to display the image displayed on the sink device (the image transmitted from the source device) and the user who operates the image.
  • An example is shown.
  • the user of the source device views an image displayed on the sink device and the user operates only the sink device
  • the user can operate the image displayed on the sink device at a position that is easy for the user to view. It is preferable to display in a size that is easy to do.
  • An example of an easy-to-see image arrangement is shown in FIG.
  • FIGS. 9 to 11 are diagrams illustrating arrangement examples of images displayed on the sink device according to the embodiment of the present technology.
  • a shows an example in which an image is displayed at the position of the face of the user 40
  • b in each figure shows an example in which an image is displayed at or near the foot of the user 40. Indicates.
  • FIG. 9 shows a display example when images are arranged at easy-to-see positions.
  • FIG. 9A shows a display example when the image 41 is arranged ahead of the line of sight 42 at the eye level of the user 40.
  • FIG. 9B shows a display example when the image 43 is placed ahead of the line of sight 44 at the foot of the user 40.
  • FIG. 10 shows a display example when images are arranged at positions and sizes that are easy to operate.
  • FIG. 10A shows a display example when the image 45 is arranged in a range where the hand 46 of the user 40 can reach.
  • FIG. 10 b shows a display example when the image 47 is arranged in a range where the hand 48 of the user 40 can reach (a range beyond the line of sight of the user's feet).
  • FIG. 11 shows a display example when images are arranged in a size that is easy to see.
  • FIG. 11 a shows a display example when the size of the image 50 is changed according to the distance to the user 40.
  • the size of the image 50 is increased so that the user 40 can easily see.
  • the size of the image 50 can be changed according to the distance to the user 40 as indicated by dotted rectangles 51 and 52.
  • the user 40 moves in the direction of the arrow 54 (direction approaching the image 50), it is assumed that the user 40 is easy to see, and therefore the size of the image 50 can be reduced.
  • FIG. 11 b shows a display example when the size of the image 55 is changed according to the distance to the user 40.
  • the size of the image 55 is increased so that the user 40 can easily see.
  • the size of the image 55 can be changed according to the distance to the user 40.
  • the user 40 moves in the direction of the arrow 59 (direction approaching the image 55), it is assumed that the user 40 is easy to see, so the size of the image 55 can be reduced.
  • FIG. 12 is a diagram schematically illustrating the position of each user when there are a plurality of users (or users who operate) viewing images displayed on the sink device according to the embodiment of the present technology.
  • FIGS. 12A to 12C show simplified images (images around the sink device) generated by the sensor device.
  • FIG. 12a shows an example in which two users 61 and 62 who view the image 60 displayed on the sink device overlap in the image generated by the sensor device.
  • the user 62 closer to the image 60 and the user 61 farther from the image 60 than the user 62 can be recognized based on the front and back relationship (depth relationship) of the overlapping faces.
  • FIG. 12B shows an example in which two users 61 and 62 located around a table 63 installed around the sink device overlap in the vertical direction of the image generated by the sensor device. .
  • the user 62 closer to the sensor device and the user 61 farther from the sensor device than the user 62 can be recognized.
  • FIG. 12c shows an example in which two users 61 and 62 located around the sink device (floor 64) overlap in the vertical direction of the image generated by the sensor device.
  • the user 61 closer to the sensor device and the user 62 farther from the sensor device than the user 61 can be recognized based on the size and depth information on the images of the users 61 and 62.
  • FIG. 13 is a diagram illustrating a display example when images displayed on the sink device according to the embodiment of the present technology overlap.
  • FIG. 13 shows an example in which the display position and display size of the image are changed based on the position of the user corresponding to the image.
  • FIG. 13 a shows a display example when two images 71 and 72 overlap in the Z-axis direction (front-rear direction).
  • the image 72 on the front side (the corresponding user is the sink device side) is displayed with priority.
  • the region of the image 72 may be displayed as semi-transparent. Thereby, the user can easily see the two images 71 and 72.
  • overlapping portions of the image 71 are indicated by dotted lines.
  • FIG. 13 b shows a display example when two images 73 and 74 overlap in the X-axis direction (lateral direction).
  • the image 74 including the center position (indicated by a dotted line 75) that is easy for the user to see is displayed with priority.
  • FIG. 13c shows a display example when two images 76 and 77 overlap in the Y-axis direction (vertical direction).
  • the image 77 including the center position (indicated by a dotted line 78) that is easy for the user to see is displayed with priority.
  • the display mode of a plurality of images can be changed by overlapping in the front-rear direction, in the upper-lower direction, in the left-right direction, or the like.
  • the display mode of each image may be changed based on a predetermined priority (priority order). For example, an image with a high priority can be enlarged.
  • the positions and sizes of these images can be adjusted based on the priority.
  • FIG. 14 is a diagram illustrating a display example when the priority of the image to be operated is increased among the images displayed on the sink device according to the embodiment of the present technology.
  • Fig. 14a shows a display example when two images 81 and 82 are displayed side by side. In this case, it is assumed that neither of the two images 81 and 82 is an operation target.
  • FIG. 14 b shows a display example when an operation is performed on the image 81 out of the two images 81 and 82 shown in FIG.
  • an image 83 obtained by enlarging the image 81 that is the operation target is displayed.
  • when there is no image to be operated for example, when no operation is performed for a predetermined time
  • FIG. 82 are returned to the original size and displayed side by side.
  • FIG. 15 is a flowchart illustrating an example of a processing procedure of image display processing by the sink device 100 according to the embodiment of the present technology.
  • FIG. 15 shows an operation example when images from a plurality of source devices are displayed on the display unit 160.
  • FIG. 15 shows an operation example corresponding to the communication example shown in FIG.
  • step S803 the control unit 130 of the sink device 100 negotiates with the sensor device (step S801). Subsequently, the control unit 130 executes RTSP with the sensor device (step S802). Subsequently, the control unit 130 starts receiving sensor information (2D image and 3D image) from the sensor device (step S803). Note that step S803 is an example of a receiving procedure described in the claims.
  • control unit 130 performs user recognition processing with the source device (step S804). Subsequently, the control unit 130 determines the priority (or user priority) of the position and size of the image transmitted from the source device and displayed on the display unit 160 (step S805).
  • control unit 130 executes RTSP with the source device (step S806). Subsequently, the control unit 130 starts receiving a 2D image from the source device by Wi-Fi CERTIFIED Miracast (step S807).
  • control unit 130 determines whether or not there are overlapping images among images (images from a plurality of source devices) displayed on the display unit 160 (step S808). If there is no overlapping image (step S808), the process proceeds to step S810. If there are overlapping images (step S808), the control unit 130 changes the display mode of each image so as to eliminate the overlapping of images based on the determined priority (step S809). For example, for overlapping images, the display mode of each image can be changed so that an image with a higher priority is displayed on the upper side (step S809).
  • control unit 130 determines the display position and size of each image based on the sensor information (2D image and 3D image) from the sensor device (step S810).
  • the display position and size of each image can be determined based on the relative positional relationship between the sink device and the user (step S810).
  • steps S808 to S810 are an example of a determining procedure described in the claims.
  • control unit 130 determines whether an image display end instruction has been issued (step S811). When an instruction to end image display is given (step S811), the image display processing operation ends. If no image display end instruction has been issued (step S811), the process returns to step S808.
  • FIG. 16 is a flowchart illustrating an example of a processing procedure of image display processing by the sink device 100 according to the embodiment of the present technology.
  • FIG. 16 shows an operation example when a topology of a plurality of devices is constructed. A part of the processing procedure common to FIG. 15 is omitted.
  • control unit 130 of the sink device 100 searches for devices existing in the vicinity using wireless communication (step S821). If there are no communicable devices in the vicinity (step S822), the image display processing operation is terminated.
  • control unit 130 acquires the capability information and API of each device that exists in the vicinity (step S823). For example, it is searched whether the device has a user discrimination function or a function that combines a 2D image to form a 3D sensor.
  • the control unit 130 determines the topology of each device based on the information (step S824).
  • the role can be determined using the Wi-Fi Direct protocol.
  • a case is assumed in which there are a device having a 3D sensor and a user discrimination function and a device having a function of combining the 2D sensor and the 2D sensor into a 3D sensor.
  • 2D image information including 3D images that have been converted into 2D images
  • 3D or more information for example, depth information, person direction (for example, face direction) You may make it perform exchange.
  • the control unit 130 searches for devices using wireless communication, and displays a sink device, a source device, and other devices (for example, a sensor device and a personal identification device) that display an image on the display unit 160.
  • the role can be determined.
  • the control unit 130 can determine the role of each device based on at least one of the capability, communication amount, power consumption, mobile presence / absence, and API of each device.
  • necessary devices can be grasped based on the ability. Based on at least one of the communication amount, the power consumption, and the presence / absence of mobile, it is possible to grasp a device to be used preferentially. For example, among the devices extracted as necessary devices, a device with a large amount of communication, a device with low power consumption, and a device that is not mobile can be determined as a device to be used preferentially.
  • control unit 130 performs connection processing for connecting each device based on the determined topology (step S825). For example, when a connection is made between other devices, the control unit 130 transmits the connection instruction to each device.
  • control unit 130 displays the image transmitted from the source device on the display unit 160 (step S826). Subsequently, the control unit 130 performs a process of associating the image transmitted from the source device with the user manually by the user or automatically (step S827).
  • control unit 130 determines the priority (or user priority) of the position and size of the image transmitted from the source device and displayed on the display unit 160 (step S828). For example, when the sensor device and the ID identification device exist around the sink device 100, the priority can be determined based on the combination thereof.
  • control unit 130 acquires user information acquired by each device or the sink device 100 (step S829).
  • the position of the user with respect to the sink device 100 can be measured and used as user information.
  • the control unit 130 determines whether there is a change in the user state based on the user information (step S830). If there is no change in the user state (step S830), the process proceeds to step S832.
  • the control unit 130 changes the display mode of the image (image from the source device) displayed on the display unit 160 based on the user information after the change (step S830).
  • Step S831 the display mode of the image (image from the source device) displayed on the display unit 160 can be changed based on the combination of the user's position, the person who operates it, the viewer, and the like.
  • the display mode of the image can be changed based on the position and size easy for the user to see, the position and size easy for the user to operate, the priority of each image that the user can easily see and operate, and the like.
  • a position and size that is easy for the user to see, a position and size that the user can easily operate, and priority can be determined.
  • information specific to Wi-Fi CERTIFIED Miracast can be used.
  • control unit 130 determines whether there is an image with an overlapping display area among the images displayed on the display unit 160 (step S832). If there are no images with overlapping display areas (step S832), the process proceeds to step S834. If there are images with overlapping display areas (step S832), the control unit 130 changes the display mode of the images with overlapping display areas (step S833). For example, when the position and size that the user can easily see or the position and size that the user can easily operate overlap, the position and size of the overlapping images can be adjusted based on the priority.
  • control unit 130 determines whether or not an image display end instruction has been issued (step S834). If an instruction to end display of an image is given (step S834), the image display processing operation ends. If no image display end instruction has been issued (step S834), the process returns to step S829.
  • large-scale wall displays such as 4K ultra-short focus projectors and table top displays are showing signs of widespread use.
  • one or more electronic devices for example, smartphones and air conditioners
  • smartphones and air conditioners including a large number of sensors are owned by one person, or one or more electronic apparatuses are installed in one room.
  • an imaging device for example, a surveillance camera
  • a surveillance camera may be installed in the room.
  • Wi-Fi CERTIFIED Miracast when performing image transmission by Wi-Fi CERTIFIED Miracast between a plurality of source devices and sink devices, it is possible to easily search for each sensor device. Further, it is possible to automatically construct a topology for the searched sensor device, source device, and sink device. In addition, by searching, a sensor device and another device (for example, an ID identification device (personal identification device)) can be connected through a wireless network to perform one operation.
  • Wi-Fi CERTIFIED Miracast It is possible to search for usable sensors in combination with Wi-Fi CERTIFIED Miracast provided in the device.
  • the sink device 100, 301, 321, the source device 200, 210, 302, the sensor device 220, 230, 240, 303, and the personal identification device 323 are a smartphone, a tablet PC (Personal Computer), a notebook PC, a portable game terminal Alternatively, it may be realized as a mobile terminal such as a digital camera, a television receiver, a fixed terminal such as a printer, a digital scanner, or a network storage, or an in-vehicle terminal such as a car navigation device.
  • a mobile terminal such as a digital camera, a television receiver, a fixed terminal such as a printer, a digital scanner, or a network storage, or an in-vehicle terminal such as a car navigation device.
  • the sink devices 100, 301, 321, the source devices 200, 210, 302, the sensor devices 220, 230, 240, 303, and the personal identification device 323 may be a smart meter, a vending machine, a remote monitoring device, or a POS (Point Of Sale). It may be realized as a terminal (also referred to as an MTC (Machine Type Communication) terminal) such as a terminal that performs M2M (Machine To Machine) communication. Furthermore, the sink devices 100, 301, 321, the source devices 200, 210, 302, the sensor devices 220, 230, 240, 303, and the personal identification device 323 are wireless communication modules (for example, one die) mounted on these terminals. It may be an integrated circuit module).
  • MTC Machine Type Communication
  • FIG. 17 is a block diagram illustrating an example of a schematic configuration of a smartphone 900 to which the technology according to the present disclosure can be applied.
  • the smartphone 900 includes a processor 901, a memory 902, a storage 903, an external connection interface 904, a camera 906, a sensor 907, a microphone 908, an input device 909, a display device 910, a speaker 911, a wireless communication interface 913, an antenna switch 914, an antenna 915, A bus 917, a battery 918, and an auxiliary controller 919 are provided.
  • the processor 901 may be, for example, a CPU (Central Processing Unit) or a SoC (System on Chip), and controls the functions of the application layer and other layers of the smartphone 900.
  • the memory 902 includes a RAM (Random Access Memory) and a ROM (Read Only Memory), and stores programs and data executed by the processor 901.
  • the storage 903 can include a storage medium such as a semiconductor memory or a hard disk.
  • the external connection interface 904 is an interface for connecting an external device such as a memory card or a USB (Universal Serial Bus) device to the smartphone 900.
  • the camera 906 includes, for example, an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and generates a captured image.
  • the sensor 907 may include a sensor group such as a positioning sensor, a gyro sensor, a geomagnetic sensor, and an acceleration sensor.
  • the microphone 908 converts sound input to the smartphone 900 into an audio signal.
  • the input device 909 includes, for example, a touch sensor that detects a touch on the screen of the display device 910, a keypad, a keyboard, a button, or a switch, and receives an operation or information input from a user.
  • the display device 910 has a screen such as a liquid crystal display (LCD) or an organic light emitting diode (OLED) display, and displays an output image of the smartphone 900.
  • the speaker 911 converts an audio signal output from the smartphone 900 into audio.
  • the wireless communication interface 913 supports one or more wireless LAN standards such as IEEE802.11a, 11b, 11g, 11n, 11ac, and 11ad, and performs wireless communication.
  • the wireless communication interface 913 can communicate with other devices via a wireless LAN access point in the infrastructure mode.
  • the wireless communication interface 913 can directly communicate with other devices in the ad-hoc mode or the direct communication mode such as Wi-Fi Direct.
  • Wi-Fi Direct unlike the ad hoc mode, one of two terminals operates as an access point, but communication is performed directly between the terminals.
  • the wireless communication interface 913 can typically include a baseband processor, an RF (Radio Frequency) circuit, a power amplifier, and the like.
  • the wireless communication interface 913 may be a one-chip module in which a memory that stores a communication control program, a processor that executes the program, and related circuits are integrated.
  • the wireless communication interface 913 may support other types of wireless communication methods such as a short-range wireless communication method, a proximity wireless communication method, or a cellular communication method in addition to the wireless LAN method.
  • the antenna switch 914 switches the connection destination of the antenna 915 among a plurality of circuits (for example, circuits for different wireless communication schemes) included in the wireless communication interface 913.
  • the antenna 915 includes a single antenna element or a plurality of antenna elements (for example, a plurality of antenna elements constituting a MIMO antenna), and is used for transmission and reception of radio signals by the radio communication interface 913.
  • the smartphone 900 is not limited to the example in FIG. 17, and may include a plurality of antennas (for example, an antenna for a wireless LAN and an antenna for a proximity wireless communication method). In that case, the antenna switch 914 may be omitted from the configuration of the smartphone 900.
  • the bus 917 connects the processor 901, memory 902, storage 903, external connection interface 904, camera 906, sensor 907, microphone 908, input device 909, display device 910, speaker 911, wireless communication interface 913, and auxiliary controller 919 to each other.
  • the battery 918 supplies electric power to each block of the smartphone 900 shown in FIG. 17 through a power supply line partially shown by a broken line in the drawing.
  • the auxiliary controller 919 operates the minimum necessary functions of the smartphone 900 in the sleep mode.
  • control unit 130 described with reference to FIG. 2 may be implemented in the wireless communication interface 913.
  • at least a part of these functions may be implemented in the processor 901 or the auxiliary controller 919.
  • the smartphone 900 may operate as a wireless access point (software AP) when the processor 901 executes the access point function at the application level. Further, the wireless communication interface 913 may have a wireless access point function.
  • FIG. 18 is a block diagram illustrating an example of a schematic configuration of a car navigation device 920 to which the technology according to the present disclosure can be applied.
  • the car navigation device 920 includes a processor 921, a memory 922, a GPS (Global Positioning System) module 924, a sensor 925, a data interface 926, a content player 927, a storage medium interface 928, an input device 929, a display device 930, a speaker 931, and wireless communication.
  • An interface 933, an antenna switch 934, an antenna 935, and a battery 938 are provided.
  • the processor 921 may be a CPU or SoC, for example, and controls the navigation function and other functions of the car navigation device 920.
  • the memory 922 includes RAM and ROM, and stores programs and data executed by the processor 921.
  • the GPS module 924 measures the position (for example, latitude, longitude, and altitude) of the car navigation device 920 using GPS signals received from GPS satellites.
  • the sensor 925 may include a sensor group such as a gyro sensor, a geomagnetic sensor, and an atmospheric pressure sensor.
  • the data interface 926 is connected to the in-vehicle network 941 through a terminal (not shown), for example, and acquires data generated on the vehicle side such as vehicle speed data.
  • the content player 927 reproduces content stored in a storage medium (for example, CD or DVD) inserted into the storage medium interface 928.
  • the input device 929 includes, for example, a touch sensor, a button, or a switch that detects a touch on the screen of the display device 930, and receives an operation or information input from the user.
  • the display device 930 has a screen such as an LCD or an OLED display, and displays a navigation function or an image of content to be reproduced.
  • the speaker 931 outputs the navigation function or the audio of the content to be played back.
  • the wireless communication interface 933 supports one or more wireless LAN standards such as IEEE802.11a, 11b, 11g, 11n, 11ac, and 11ad, and executes wireless communication.
  • the wireless communication interface 933 can communicate with other devices via a wireless LAN access point in the infrastructure mode.
  • the wireless communication interface 933 can directly communicate with other devices in the ad-hoc mode or the direct communication mode such as Wi-Fi Direct.
  • the wireless communication interface 933 may typically include a baseband processor, an RF circuit, a power amplifier, and the like.
  • the wireless communication interface 933 may be a one-chip module in which a memory that stores a communication control program, a processor that executes the program, and related circuits are integrated.
  • the wireless communication interface 933 may support other types of wireless communication systems such as a short-range wireless communication system, a proximity wireless communication system, or a cellular communication system.
  • the antenna switch 934 switches the connection destination of the antenna 935 among a plurality of circuits included in the wireless communication interface 933.
  • the antenna 935 includes a single antenna element or a plurality of antenna elements, and is used for transmission and reception of a radio signal by the radio communication interface 933.
  • the car navigation device 920 may include a plurality of antennas without being limited to the example of FIG. In that case, the antenna switch 934 may be omitted from the configuration of the car navigation device 920.
  • the battery 938 supplies power to each block of the car navigation apparatus 920 shown in FIG. 18 through a power supply line partially shown by a broken line in the figure. Further, the battery 938 stores electric power supplied from the vehicle side.
  • the car navigation device 920 shown in FIG. 18 may be implemented in the control unit 130 and the wireless communication interface 933 described with reference to FIG. Further, at least a part of these functions may be implemented in the processor 921.
  • the technology according to the present disclosure may be realized as an in-vehicle system (or vehicle) 940 including one or more blocks of the car navigation device 920 described above, an in-vehicle network 941, and a vehicle side module 942.
  • vehicle-side module 942 generates vehicle-side data such as vehicle speed, engine speed, or failure information, and outputs the generated data to the in-vehicle network 941.
  • the processing procedure described in the above embodiment may be regarded as a method having a series of these procedures, and a program for causing a computer to execute these series of procedures or a recording medium storing the program. You may catch it.
  • a recording medium for example, a CD (Compact Disc), an MD (MiniDisc), a DVD (Digital Versatile Disc), a memory card, a Blu-ray disc (Blu-ray (registered trademark) Disc), or the like can be used.
  • a communication unit that receives user information about the relative position between the user and the display unit from the electronic device;
  • An information processing apparatus comprising: a control unit that performs control to determine a display mode in the display unit of an image transmitted from a source device based on the user information.
  • the control unit determines a priority related to the image based on the user information.
  • the control unit performs control so that the user information is exchanged with the electronic device using a Wi-Fi (Wireless Fidelity) CERTIFIED Miracast protocol. apparatus.
  • Wi-Fi Wireless Fidelity
  • the control unit changes a display mode based on the priority for an image in which display areas in the display unit overlap among a plurality of images transmitted from the source device and displayed on the display unit.
  • the control unit overwrites and displays the high priority image among the overlapping images, or displays the high priority image in a large size to change the display mode of the overlapping image.
  • the information processing apparatus according to (4) which is changed.
  • the control unit determines at least one of a display position and a display size of the image on the display unit based on a relative positional relationship between the user associated with the image and the display unit.
  • the information processing apparatus according to any one of (1) to (5).
  • the control unit according to (6), wherein at least one of a movement of a display area of the image associated with the user in the display unit and a direction of the image is determined based on the movement of the user.
  • Information processing device The control unit searches for the electronic device using wireless communication, and determines the roles of the sink device, the source device, and the electronic device that cause the display unit to display the image.
  • the information processing apparatus according to any one of 7).
  • the control unit determines the role of the electronic device based on at least one of the capability, communication amount, power consumption, mobile presence / absence, and API (Application Programming Interface) of the electronic device.
  • API Application Programming Interface
  • the information processing apparatus is a sink device, The information processing apparatus according to any one of (1) to (9), wherein the information processing apparatus and the source device perform real-time image transmission in accordance with a Wi-Fi CERTIFIED Miracast specification.
  • An acquisition unit for acquiring a stereoscopic image Using a format based on the Wi-Fi CERTIFIED Miracast specification, the planar image corresponding to the stereoscopic image and the information for specifying the depth of the object included in the stereoscopic image are associated with each other and transmitted to another information processing apparatus And an information processing apparatus.
  • a communication system comprising: an information processing device that determines a display mode in the display unit of an image transmitted from a source device based on the user information.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Hardware Design (AREA)
  • Information Transfer Between Computers (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

 ユーザに見易く、操作し易い画像を提供する。 電子機器は、ユーザと表示部との相対的な位置に関するユーザ情報を取得する。そして、電子機器は、そのユーザ情報を情報処理装置に送信する。情報処理装置は、通信部および制御部を具備する。この通信部は、電子機器により取得された、ユーザと表示部との相対的な位置に関するユーザ情報を、電子機器から受信するものである。また、制御部は、電子機器から受信したユーザ情報に基づいて、ソース機器から送信された画像の表示部における表示態様を決定する制御を行うものである。

Description

情報処理装置、通信システム、情報処理方法およびプログラム
 本技術は、情報処理装置に関する。詳しくは、無線通信を利用して各種情報のやり取りを行う情報処理装置、通信システムおよび情報処理方法ならびに当該方法をコンピュータに実行させるプログラムに関する。
 従来、無線通信を利用して各種データのやり取りを行う無線通信技術が存在する。また、例えば、無線通信を利用して2つの情報処理装置間において画像情報のやりとりを行う無線通信技術が提案されている。
 例えば、1以上の通信端末からの抽出画像を並べて配置することにより生成された合成画像を表示する情報処理装置が提案されている(例えば、特許文献1参照。)。
特開2014-60577号公報
 上述の従来技術によれば、有線回線で接続しなくても無線通信を利用して2つの情報処理装置間において各種情報のやり取りを行うことができる。例えば、送信側の情報処理装置から送信された画像データに基づく画像を、受信側の情報処理装置の表示部に表示させることができる。
 このように、送信側の情報処理装置から送信された画像データに基づく画像を、受信側の情報処理装置が表示部に表示している場合に、その画像を見ているユーザが移動することも想定される。このように、表示されている画像とこの画像を見ているユーザとの関係が相対的に変化するような場合には、その変化の前後でユーザに見易く、操作し易い画像を提供することが重要である。
 本技術はこのような状況に鑑みて生み出されたものであり、ユーザに見易く、操作し易い画像を提供することを目的とする。
 本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、ユーザと表示部との相対的な位置に関するユーザ情報を電子機器から受信する通信部と、上記ユーザ情報に基づいて、ソース機器から送信された画像の上記表示部における表示態様を決定する制御を行う制御部とを具備する情報処理装置およびその情報処理方法ならびに当該方法をコンピュータに実行させるプログラムである。これにより、ユーザと表示部との相対的な位置に関するユーザ情報に基づいて、ソース機器から送信された画像の表示部における表示態様を決定するという作用をもたらす。
 また、この第1の側面において、上記制御部は、上記ユーザ情報に基づいて、上記画像に関する優先度を決定するようにしてもよい。これにより、ユーザ情報に基づいて、画像に関する優先度を決定するという作用をもたらす。
 また、この第1の側面において、上記制御部は、上記電子機器との間でWi-Fi(Wireless Fidelity) CERTIFIED Miracastのプロトコルを用いて上記ユーザ情報のやりとりを行うように制御するようにしてもよい。これにより、電子機器との間でWi-Fi CERTIFIED Miracastのプロトコルを用いてユーザ情報のやりとりを行うという作用をもたらす。
 また、この第1の側面において、上記制御部は、上記ソース機器から送信されて上記表示部に表示されている複数の画像のうち、上記表示部における表示領域が重複する画像については、上記優先度に基づいて表示態様を変更するようにしてもよい。これにより、表示部における表示領域が重複する画像については、優先度に基づいて表示態様を変更するという作用をもたらす。
 また、この第1の側面において、上記制御部は、上記重複する画像のうち、上記優先度が高い画像を上書きして表示する、または、上記優先度が高い画像を大きいサイズで表示することにより、上記重複する画像の表示態様を変更するようにしてもよい。これにより、優先度が高い画像を上書きして表示する、または、優先度が高い画像を大きいサイズで表示するという作用をもたらす。
 また、この第1の側面において、上記制御部は、上記画像に関連付けられているユーザと上記表示部との相対的な位置関係に基づいて、上記表示部における上記画像の表示位置および表示サイズのうちの少なくとも1つを決定するようにしてもよい。これにより、画像に関連付けられているユーザと表示部との相対的な位置関係に基づいて、表示部における画像の表示位置および表示サイズのうちの少なくとも1つを決定するという作用をもたらす。
 また、この第1の側面において、上記制御部は、上記ユーザの移動に基づいて上記表示部における当該ユーザに関連付けられている上記画像の表示領域の移動および当該画像の向きのうちの少なくとも1つを決定するようにしてもよい。これにより、ユーザの移動に基づいて、表示部におけるユーザに関連付けられている画像の表示領域の移動および画像の向きのうちの少なくとも1つを決定するという作用をもたらす。
 また、この第1の側面において、上記制御部は、無線通信を利用して上記電子機器を検索して、上記画像を上記表示部に表示させるシンク機器と上記ソース機器と上記電子機器との役割を決定するようにしてもよい。これにより、無線通信を利用して電子機器を検索して、シンク機器とソース機器と電子機器との役割を決定するという作用をもたらす。
 また、この第1の側面において、上記制御部は、上記電子機器の能力と通信量と消費電力とモバイルの有無とAPI(Application Programming Interface)とのうちの少なくとも1つに基づいて上記電子機器の役割を決定するようにしてもよい。これにより、電子機器の能力と通信量と消費電力とモバイルの有無とAPIとのうちの少なくとも1つに基づいて電子機器の役割を決定するという作用をもたらす。
 また、この第1の側面において、上記情報処理装置は、シンク機器であり、上記情報処理装置および上記ソース機器は、Wi-Fi CERTIFIED Miracast仕様に従ってリアルタイム画像伝送を行うようにしてもよい。これにより、シンク機器およびソース機器は、Wi-Fi CERTIFIED Miracast仕様に従ってリアルタイム画像伝送を行うという作用をもたらす。
 また、この第1の側面において、上記情報処理装置と上記ソース機器と上記電子機器とを、Wi-Fi CERTIFIED Miracast仕様のデバイスとするようにしてもよい。これにより、Wi-Fi CERTIFIED Miracast仕様のデバイスを用いるという作用をもたらす。
 また、本技術の第2の側面は、立体視画像を取得する取得部と、Wi-Fi CERTIFIED Miracast仕様に基づくフォーマットを用いて、上記立体視画像に対応する平面画像と当該立体視画像に含まれる物体の奥行を特定するための情報とを関連付けて他の情報処理装置に送信する制御部とを具備する情報処理装置およびその情報処理方法ならびに当該方法をコンピュータに実行させるプログラムである。これにより、立体視画像に対応する平面画像と、その立体視画像に含まれる物体の奥行を特定するための情報とを関連付けて他の情報処理装置に送信するという作用をもたらす。
 また、本技術の第3の側面は、ユーザと表示部との相対的な位置に関するユーザ情報を取得して情報処理装置に送信する電子機器と、上記ユーザ情報に基づいて、ソース機器から送信された画像の上記表示部における表示態様を決定する情報処理装置とを具備する通信システムおよびその情報処理方法ならびに当該方法をコンピュータに実行させるプログラムである。これにより、ユーザと表示部との相対的な位置に関するユーザ情報に基づいて、ソース機器から送信された画像の表示部における表示態様を決定するという作用をもたらす。
 本技術によれば、ユーザに見易く、操作し易い画像を提供することができるという優れた効果を奏し得る。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の実施の形態における通信システム10のシステム構成例を示すブロック図である。 本技術の実施の形態におけるシンク機器100の機能構成例を示すブロック図である。 本技術の実施の形態におけるセンサ機器により検出されるセンサ情報を模式的に示す図である。 本技術の実施の形態における各機器間でやりとりされるフレームフォーマット例を簡略化して示す図である。 本技術の実施の形態におけるセンサ機器303をシンク機器301またはソース機器302に接続する場合の通信例を示す図である。 本技術の実施の形態におけるセンサ機器303をシンク機器301に接続する場合の通信処理例を示すシーケンスチャートである。 本技術の実施の形態におけるシンク機器321およびセンサ機器322間でネゴシエーションを行う場合の通信処理例を示すシーケンスチャートである。 本技術の実施の形態における各機器およびユーザの相対的な位置関係と、画像の表示態様との関係を簡略化して示す図である。 本技術の実施の形態におけるシンク機器に表示される画像の配置例を示す図である。 本技術の実施の形態におけるシンク機器に表示される画像の配置例を示す図である。 本技術の実施の形態におけるシンク機器に表示される画像の配置例を示す図である。 本技術の実施の形態におけるシンク機器に表示される画像を見るユーザ(または、操作するユーザ)が複数存在する場合の各ユーザの位置を簡略化して示す図である。 本技術の実施の形態におけるシンク機器に表示される画像が重なる場合の表示例を示す図である。 本技術の実施の形態におけるシンク機器に表示される画像のうち、操作対象となる画像の優先度を高くする場合の表示例を示す図である。 本技術の実施の形態におけるシンク機器100による画像表示処理の処理手順の一例を示すフローチャートである。 本技術の実施の形態におけるシンク機器100による画像表示処理の処理手順の一例を示すフローチャートである。 スマートフォンの概略的な構成の一例を示すブロック図である。 カーナビゲーション装置の概略的な構成の一例を示すブロック図である。
 以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
 1.実施の形態(センサ機器からのユーザ情報に基づいてシンク機器の画像の表示態様を変更する例)
 2.応用例
 <1.実施の形態>
 [通信システムの構成例]
 図1は、本技術の実施の形態における通信システム10のシステム構成例を示すブロック図である。図1では、P2P(Peer to Peer)ダイレクト通信により無線接続を行うことができる通信システムの一例を示す。
 通信システム10は、シンク機器100と、ソース機器200と、ソース機器210と、センサ機器220と、センサ機器230と、センサ機器240とを備える。また、通信システム10は、ソース機器200およびソース機器210のうちの少なくとも1つから送信されるデータ(例えば、画像データや音声データ)をシンク機器100が受信する通信システムである。なお、シンク機器100は、請求の範囲に記載の情報処理装置の一例である。
 また、通信システム10を構成する各機器(シンク機器100、ソース機器200、ソース機器210、センサ機器220、センサ機器230およびセンサ機器240)は、無線通信機能を備える情報処理装置や電子機器である。そして、通信システム10を構成する各機器は、無線通信機能を利用して各種情報のやり取りを行うことができる。
 例えば、シンク機器100、ソース機器200およびソース機器210は、無線通信機能を備える固定型の情報処理装置や携帯型の情報処理装置である。なお、固定型の情報処理装置は、例えば、パーソナルコンピュータ、映像視聴装置(例えば、テレビジョン)である。また、携帯型の情報処理装置は、例えば、スマートフォン、タブレット端末である。
 また、例えば、シンク機器100、ソース機器200およびソース機器210として、カメラを搭載した電子機器(例えば、パソコン、ゲーム機、スマートフォン、タブレット端末)を用いるようにしてもよい。また、例えば、シンク機器100、ソース機器200およびソース機器210として、表示部を備える他の電子機器(例えば、撮像装置、ゲーム機、スマートフォン、タブレット端末)を用いるようにしてもよい。
 また、センサ機器220、センサ機器230およびセンサ機器240は、ユーザや環境に関する測定をすることにより各情報を取得することが可能なセンサ機器である。このセンサ機器は、例えば、Raiderを含む3D系のセンサ機器、イメージセンサ機器、タッチパネル機器、圧力センサ機器、タッチセンサ機器、無線系センサ機器、温度センサ機器である。なお、イメージセンサ機器は、例えば、撮像機能を備える撮像装置(例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor))により実現される。また、圧力センサ機器は、例えば、小型の圧力センサ、大型の圧力センサ(例えば、床面に張る圧力センサ)により実現される。また、無線系センサ機器は、例えば、Wi-Fi(Wireless Fidelity)、GPS(Global Positioning System)等の無線系センサにより実現される。また、温度センサ機器は、例えば、エアコン等の機器により実現される。また、温度センサ機器は、例えば、人の存在を検出するセンサ機器(例えば、人が発する熱を検出して、人が存在する位置を検出するエアコン)として用いることができる。
 例えば、センサ機器220、センサ機器230およびセンサ機器240のそれぞれが撮像装置である場合を想定する。この場合には、シンク機器100が設置されている場所の周囲を撮像範囲とするように、センサ機器220、センサ機器230およびセンサ機器240のそれぞれが配置される。また、例えば、センサ機器220、センサ機器230およびセンサ機器240のうちの少なくとも1つを魚眼カメラとすることができる。この場合には、魚眼カメラで周囲のユーザの位置を取得することができ、他の撮像装置により、各ユーザの状態(例えば、顔の向き、視線の方向)を検出することができる。
 また、例えば、通信システム10を構成する各機器は、IEEE(Institute of Electrical and Electronics Engineers)802.11、IEEE802.15、IEEE802.16仕様に準拠した無線通信装置である。また、例えば、通信システム10を構成する各機器は、3GPP(3rd Generation Partnership Project)仕様に準拠した無線通信装置である。なお、3GPP仕様は、例えば、W-CDMA(Wideband Code Division Multiple Access)、GSM(登録商標)(Global System for Mobile Communications)、WiMAX(Worldwide Interoperability for Microwave Access)、WiMAX2、LTE(Long Term Evolution)、LTE-A(Advanced)である。
 ここで、一例として、通信システム10を構成する各機器間で無線LAN(Local Area Network)を用いた無線通信を行う場合の例を説明する。
 この無線LANとして、例えば、Wi-Fi(Wireless Fidelity) Direct、TDLS(Tunneled Direct Link Setup)、アドホックネットワーク、メッシュネットワークを用いることができる。また、通信システム10に用いられる近距離無線AV(Audio Visual)伝送通信として、例えば、Wi-Fi CERTIFIED Miracast(技術仕様書名:Wi-Fi Display)を用いることができる。なお、Wi-Fi CERTIFIED Miracastは、Wi-Fi DirectやTDLSの技術を利用して、一方の端末で再生される音声や表示画像を他の端末に送信し、他の端末でも同様にその音声、画像データを出力させるミラーリング技術である。
 また、Wi-Fi CERTIFIED Miracastでは、TCP/IP(Transmission Control Protocol/Internet Protocol)上でUIBC(User Input Back Channel)を実現している。UIBCは、一方の端末から他方の端末へマウスやキーボード等の入力機器の操作情報を送信する技術である。なお、Wi-Fi CERTIFIED Miracastの代わりに、他のリモートデスクトップソフトウェア(例えば、VNC(Virtual Network Computing))を適用するようにしてもよい。
 ここで、Wi-Fi CERTIFIED Miracastでは、画像(映像)を、例えば、H.264を用いて圧縮・展開することが定められている。また、例えば、Wi-Fi CERTIFIED Miracastでは、H.264を送信側で調整することができる。なお、H.264に限らず、例えば、H.265、MPEG(Moving Picture Experts Group)4、JPEG(Joint 1Photographic Experts Group)2000にも対応することができる。ここで、H.265は、例えば、HEVC(high efficiency video coding)、SHVC(scalable video coding extensions of high efficiency video coding)である。また、例えば、1ライン以上を束ねて圧縮したり、2ライン以上を2×2以上のマクロブロックに分割して圧縮・展開を行うラインベースコーデックにも対応することができる。なお、ラインベースコーデックは、例えば、Wavelet、DCT(Discrete Cosine Transform)である。また、例えば、特定の符号量領域(Pictureまたは複数ラインの束またはマクロブロック等)の前符号量領域との差分を求めることでDCTやWavelet等の圧縮を行わずに伝送レートを減らすコーデックにも対応することができる。また、非圧縮で画像(映像)を送信・受信するようにしてもよい。
 また、例えば、ソース機器200およびソース機器210は、撮像動作により生成されたコンテンツや、記憶部(例えば、ハードディスク)に保存されているコンテンツを送信対象とすることができる。この送信対象となるコンテンツは、例えば、画像データおよび音声データからなるコンテンツである。なお、ソース機器200およびソース機器210がテザリング機能を備える場合には、無線または有線ネットワークを介してISP(Internet Services Provider)に保存されたコンテンツを送信対象とするようにしてもよい。
 例えば、ソース機器200の記憶部(例えば、ハードディスク)に保存されているコンテンツがシンク機器100に送信され、そのコンテンツに基づく画像31がシンク機器100の表示部160に表示される。また、ソース機器210の記憶部(例えば、ハードディスク)に保存されているコンテンツがシンク機器100に送信され、そのコンテンツに基づく画像32がシンク機器100の表示部160に表示される。
 また、図1では、ソース機器200を所有するユーザ21が、ソース機器200から送信された画像データに基づく画像31を見ている場合(ユーザ21の視線を点線23で示す)を示す。また、図1では、ソース機器210を所有するユーザ22が、ソース機器210から送信された画像データに基づく画像32を見ている場合(ユーザ22の視線を点線24で示す)を示す。
 このように、図1では、複数のユーザ21、22が存在し、複数のソース機器(ソース機器200、210)が存在する通信システム10の一例を示す。通信システム10において、各ソース機器(ソース機器200、210)から送信された画像をシンク機器100が表示する場合に、各ユーザ21、22が見易くなるように、各画像の表示態様を決定する例を示す。すなわち、ソース機器の物理的位置と、シンク機器における画像表示とが異なる状況においても、各ユーザにとって見やすい表示を行い、ユーザが移動した場合には、その画像もユーザが見やすい表示位置へ移動する例を示す。
 具体的には、シンク機器に表示される複数の画像の表示領域(表示ウィンドウ)とユーザとの関連付けを行う。そして、このリンク情報をソース機器とシンク機器とのやりとりにより管理し、ユーザの移動に応じてそのユーザにリンクされている画像の表示領域を決定する。
 なお、図1では、2人以上のユーザが存在し、各ユーザが所有する機器以外の機器(シンク機器100)を共有する場合の例を示すが、本技術はこれに限定されない。例えば、複数のユーザが1人のユーザのディスプレイを共有するケースにも対応することができる。この場合には、複数のユーザの中から画像をリンクしているユーザを常に識別していることが必要となる。さらに、画像にリンクしているユーザを途中で変更するユーザインターフェースがあってもよいものとする。
 また、通信システム10を構成する各機器をWi-Fi CERTIFIED Miracast仕様のデバイスとすることができる。
 ここで、例えば、各機器を有線接続する場合には、各機器の設置場所を選び、各機器を自由に設置することができないおそれがある。そこで、図1に示すように、無線通信機能を備える機器を使用することにより、各機器を自由に設置することができる。この場合には、無線を有効利用して各機器を接続するため、トポロジを適切に設定する必要がある。また、トポロジを適切に設定して、センサ機器と、センサ機器を必要とする他の電子機器(例えば、ID認証装置(人認証装置)、シンク機器)とを無線で適切に接続することが重要である。
 また、例えば、複数のセンサ(例えば、2Dセンサ)を組み合わせて、3Dの座標を推定する方式を取ることにより、3Dセンサを実現することが一般に行われている。例えば、位置情報を取得するセンサ機器(例えば、2Dセンサ)を複数配置する場合に、設置が難しい場所(例えば、天井)に配置する必要があることも想定される。このように、3Dセンサを実現するため、センサ機器を設置する場合には、それらの構造が複雑となることも想定される。
 そこで、本技術の実施の形態では、トポロジを適切に設定して、各機器を無線で適切に接続する例を示す。
 また、複数のソース機器を接続して、これらのソース機器からの画像を同時に表示するシンク機器について、シンク機器に対するユーザの位置をセンサ機器で検出し、ユーザの位置に応じて、ソース機器からの画像の表示態様を変更する場合を想定する。例えば、ユーザの立ち位置がシンク機器から見て重なっていることも想定される。このような場合でも、ユーザが見易く、操作し易い、位置やサイズとなるように、ソース機器からの画像を表示することが好ましい。そこで、本技術の実施の形態では、ユーザが見易く、操作し易い、位置やサイズとなるように、ソース機器からの画像を表示する例を示す。
 ここで、ソース機器およびシンク機器の双方が、撮像装置(例えば、2Dカメラ)を備えることも多い。そこで、これらの撮像装置(例えば、2Dカメラ)を適切に用いることが重要である。例えば、Wi-Fi CERTIFIED Miracastのソース機器またはシンク機器に備えられている撮像装置(例えば、2Dカメラ)を位置センサとして利用することができる。すなわち、Wi-Fi CERTIFIED Miracastのデバイス(例えば、スマートフォン)または、他の電子機器に内蔵されているセンサデバイス(例えば、2Dカメラ)を利用することにより、適用範囲を拡大することができる。
 また、位置情報を取得するセンサ機器が出力するデータが膨大となることも多い。そこで、センサ機器から出力されるデータを効率よく伝送することが重要となる。そこで、例えば、Wi-Fi CERTIFIED Miracastのネットワークに、位置情報を取得するセンサ機器を混在させることにより、センサ機器から出力されるデータを効率よく伝送することができる。
 [シンク機器の構成例]
 図2は、本技術の実施の形態におけるシンク機器100の機能構成例を示すブロック図である。
 シンク機器100は、通信部110と、撮像部120と、制御部130と、記憶部140と、操作受付部150と、表示部160と、音声出力部170とを備える。
 通信部110は、アンテナ(図示せず)を介して、電波の送受信を行うためのモジュール(例えば、無線LANモデム)である。例えば、通信部110は、無線LANの通信方式により無線通信を行うことができる。
 例えば、通信部110は、上述したように、IEEE802.11、IEEE802.15、IEEE802.16、3GPP仕様に準拠した通信方式により無線通信を行うことができる。そして、通信部110は、無線通信機能を利用して各種情報のやり取りを行うことができる。例えば、各装置間で無線LANを用いた無線通信を行うことができる。
 また、上述したように、通信部110は、Wi-Fi CERTIFIED Miracast仕様に従って他の情報処理装置との間でリアルタイム画像伝送を行うことができる。また、通信部110は、Wi-Fi CERTIFIED Miracast仕様に従って、第1機器(例えば、ソース機器)から第2機器(例えば、他のシンク機器)への画像伝送を中継することができる。また、通信部110は、ユーザの表示部160との相対的な位置に関するユーザ情報を電子機器(例えば、ソース機器200、210、センサ機器220、230、240)から受信することができる。
 撮像部120は、制御部130の制御に基づいて、被写体を撮像して画像データを生成するものであり、生成された画像データを制御部130に出力する。撮像部120は、例えば、レンズ、撮像素子(例えば、CCD、CMOS)、信号処理回路により構成される。
 制御部130は、記憶部140に格納されている制御プログラムに基づいてシンク機器100の各部を制御するものである。制御部130は、例えば、CPU(Central Processing Unit)により実現される。また、例えば、制御部130は、送受信した情報の信号処理を行う。また、例えば、制御部130は、他の情報処理装置との接続処理、認証処理、切断処理を行う。
 また、例えば、制御部130は、電子機器(例えば、ソース機器200、210、センサ機器220、230、240)から受信したユーザ情報に基づいて、ソース機器200、210から送信された画像の表示部160における表示態様を決定する制御を行う。例えば、制御部130は、画像に関連付けられているユーザと表示部160との相対的な位置関係に基づいて、表示部160における画像の表示位置および表示サイズのうちの少なくとも1つを決定することができる。また、制御部130は、ユーザの移動に基づいて、表示部160におけるユーザに関連付けられている画像の表示領域の移動および画像の向きのうちの少なくとも1つを決定することができる。
 また、例えば、制御部130は、そのユーザ情報に基づいて、ソース機器200、210から送信された画像(または、ユーザ)に関する優先度を決定することができる。この場合に、制御部130は、ソース機器200、210から送信されて表示部160に表示されている複数の画像のうち、表示部160における表示領域が重複する画像については、その優先度に基づいて表示態様を変更することができる。例えば、制御部130は、その重複する画像のうち、優先度が高い画像を上書きして表示する、または、優先度が高い画像を大きいサイズで表示することにより、その重複する画像の表示態様を変更することができる。
 また、例えば、制御部130は、他の機器との間でWi-Fi CERTIFIED Miracastのプロトコルを用いて、ユーザ情報のやりとりを行うように制御することができる。
 記憶部140は、各種情報を格納するメモリである。例えば、記憶部140には、シンク機器100が所望の動作を行うために必要となる各種情報(例えば、制御プログラム)が格納される。また、例えば、記憶部140は、シンク機器100がデータを送受信する際に用いられるバッファを含む。
 操作受付部150は、ユーザにより行われた操作入力を受け付ける操作受付部であり、受け付けられた操作入力に応じた操作情報を制御部130に出力する。例えば、操作受付部150は、ネットワークへの接続指示操作やネットワークからの切断指示操作を受け付ける。また、操作受付部150は、例えば、タッチパネル、キーボード、マウス、センサ(例えば、タッチインタフェース)により実現される。
 表示部160は、制御部130の制御に基づいて各画像を表示する表示部である。表示部160として、例えば、有機EL(Electro Luminescence)パネル、LCD(Liquid Crystal Display)パネルを用いることができる。なお、操作受付部150および表示部160については、使用者がその指を表示面に接触または近接することにより操作入力を行うことが可能なタッチパネルを用いて一体で構成することができる。
 音声出力部170は、制御部130の制御に基づいて各種情報を音声出力する音声出力部(例えば、マイク)である。
 このように、シンク機器100は、他の機器とWi-Fi Direct接続することができる。また、シンク機器100は、Wi-Fi CERTIFIED Miracastにより、他の機器との間で画像通信を行うことができる。
 [ユーザの位置および状態を特定するための情報例]
 図3は、本技術の実施の形態におけるセンサ機器により検出されるセンサ情報を模式的に示す図である。図3では、ユーザの位置を3次元で特定する場合の例を示す。
 図3に示すように、3軸(X軸、Y軸、Z軸)の座標により、3次元空間におけるユーザの位置を特定することができる。また、3軸の回転情報(θx、θy、θz)により、3次元空間におけるユーザの向き(例えば、顔の向き、身体の向き)を特定することができる。
 このように、センサ機器により検出されたセンサ情報(3軸の座標情報)は、所定のフォーマットに格納されて、センサ機器から他の機器(例えば、ソース機器、ソース機器、個人識別機器)に送信される。このフォーマット例については、図4に示す。
 [フォーマット例]
 図4は、本技術の実施の形態における各機器間でやりとりされるフレームフォーマット例を簡略化して示す図である。
 図4のaには、ネゴシエーションのフレームフォーマットの一例を示す。このフレームフォーマットは、例えば、ヘッダ401と、センサビットマップ402と、処理ビットマップ403とにより構成される。
 センサビットマップ402には、このフレームフォーマットを送信するセンサ機器の性能に関する各情報(例えば、Capability情報)が格納される。これにより、各センサ機器が有する性能を把握することができる。ここで、センサ機器が有する性能は、例えば、撮像機能、温度検出機能、通信量、消費電力、モバイルか否か、API(Application Programming Interface)である。
 処理ビットマップ403には、このフレームフォーマットを送信するセンサ機器による処理に関する各情報が格納される。これにより、各センサ機器が実行可能な各処理(例えば、撮像処理、立体視画像生成処理、奥行検出処理、温度検出処理、ジェスチャー検出処理、表情判定処理、個人識別処理)を把握することができる。
 図4のbには、3Dセンサのフレームフォーマットの一例を示す。このフレームフォーマットは、例えば、3D画像を生成することが可能なセンサ機器(例えば、立体視画像を生成することが可能な撮像装置)から送信される。例えば、Wi-Fi CERTIFIED Miracast仕様に基づく送信に使用することができる。
 このフレームフォーマットは、例えば、PES(Packetized Elementary Stream)ヘッダ405と、画像データ406と、PESヘッダ407と、Depth情報408とにより構成される。
 画像データ406には、3Dセンサ機器により生成された3D画像のうちの2D画像のデータが格納される。
 Depth情報408には、3Dセンサ機器により生成された3D画像のうちの2D画像に含まれる物体の奥行を特定するための情報(Depth情報)が格納される。このように、画像データ406に格納されている2D画像のデータと、Depth情報408に格納されているDepth情報とにより、受信側の機器は、3Dセンサ機器により生成された3D画像を扱うことが可能となる。例えば、Wi-Fi CERTIFIED Miracast仕様の機器が、3Dセンサ機器により生成された3D画像を扱うことが可能となる。
 図4のcには、個人特定のフレームフォーマットの一例を示す。このフレームフォーマットには、例えば、シンク機器100に表示される画像を見ているユーザや操作しているユーザを特定するための情報が格納される。
 このフレームフォーマットは、例えば、ヘッダ411と、個人のID412と、位置情報413と、向き情報414と、画面上の位置情報415と、操作機器に関する情報416とにより構成される。
 個人のID412には、ユーザを識別するための識別情報(例えば、ユーザID)が格納される。
 位置情報413には、ユーザが存在する位置を特定するための情報(例えば、図3に示すセンサ情報(3軸の座標情報)が格納される。例えば、シンク機器100を基準とした場合(例えば、シンク機器100の位置を原点とする場合)における位置情報を用いることができる。
 向き情報414には、ユーザの向き(例えば、顔の向き、身体の向き)を特定するための情報(例えば、図3に示す3軸の回転情報(θx、θy、θz)が格納される。
 画面上の位置情報415には、ユーザを含む画像(センサ機器(撮像装置)により生成される画像)において、その画像におけるそのユーザの位置に関する情報が格納される。例えば、画像におけるユーザの位置を特定するためのtop、left、widthが格納される。
 操作機器に関する情報416には、シンク機器に表示される画像を操作する機器に関する情報(例えば、シンク機器およびソース機器の何れかを特定する情報)が格納される。
 例えば、センサ機器として、3Dカメラセンサを用いる場合には、ユーザに関する2次元以上の位置情報を取得することが可能である。例えば、3次元空間におけるユーザの位置に関する位置情報(XYZ)と、ユーザの向き(例えば、顔の向き、身体の向き)に関する情報(例えば、ベクトル情報)(XYZ)との6軸分を取得することができる。このように、3Dカメラセンサを用いる場合には、ユーザに関する2次元以上の位置情報をビットマップとして送信することができる。
 ここで、3Dカメラセンサにより生成される画像に含まれる人物の重なりを考慮して、ソース機器からの画像の表示態様を変更することも可能である。この場合には、例えば、ソース機器からの画像を操作する人物に関する位置情報(XYZ)と、ソース機器からの画像を見る人物に関する位置情報(XYZ)との最大6軸の情報を取得して用いることができる。
 ただし、これらの6軸情報は、推定となる場合もある。このように、6軸情報を推定する場合には、推定する軸以外の2次元以上の情報が必要となる。
 例えば、ソース機器からの画像を操作する人物と、ソース機器からの画像を見る人物との双方が特定されている場合には、それぞれの6軸情報を送信することができる。また、例えば、ソース機器からの画像を操作する人物と、ソース機器からの画像を見る人物との双方が特定されていない場合には、2次元平面の全部の6軸情報を送信することが好ましい。
 また、例えば、スマートフォン等の携帯型の情報処理装置を用いて、6軸の情報を検出することも可能である。また、例えば、身体に装着する情報処理装置(ウェアラブル端末)を用いて、身体の位置および向きを検出することができる。
 [センサ機器をシンク機器またはソース機器に接続する場合の通信例]
 図5は、本技術の実施の形態におけるセンサ機器303をシンク機器301またはソース機器302に接続する場合の通信例を示す図である。図5のaには、センサ機器303をシンク機器301に接続する場合の通信例を示す。また、図5のbには、センサ機器303をソース機器302に接続する場合の通信例を示す。
 なお、シンク機器301は、図1に示すシンク機器100に対応する。また、ソース機器302は、図1に示すソース機器200、210に対応する。また、センサ機器303は、図1に示すセンサ機器220、230、240に対応する。
 図5のaに示すように、センサ機器303をシンク機器301に接続する場合には、センサ機器303およびシンク機器301間では、センサ機器303およびシンク機器301間のプロトコルを実行する(304)。また、ソース機器302およびシンク機器301間では、ソース機器302およびシンク機器301間のプロトコルを実行する(305)。
 図5のbに示すように、センサ機器303をソース機器302に接続する場合には、センサ機器303およびソース機器302間では、センサ機器303およびソース機器302間のプロトコルを実行する(306)。また、ソース機器302およびシンク機器301間では、ソース機器302およびシンク機器301間のプロトコルを実行する(307)。
 [センサ機器をシンク機器に接続する場合の通信例]
 図6は、本技術の実施の形態におけるセンサ機器303をシンク機器301に接続する場合の通信処理例を示すシーケンスチャートである。なお、図6では、図5のaに示す例に対応する場合の通信処理例を示す。また、図6では、シンク機器301が、個人識別装置(個人認識装置)として機能する場合の例を示す。また、センサ機器303は、立体視画像(3D画像)を生成することが可能な機器であるものとする。例えば、センサ機器303は、立体視画像(3D画像)の画像データを生成する撮像部(図2に示す撮像部120に相当)を備えることができる。この撮像部は、例えば、左眼視用画像および右眼視用画像を生成するため、光学系、撮像素子のそれぞれが左右1組となるように構成される。なお、センサ機器303は、請求の範囲に記載の情報処理装置の一例である。また、センサ機器303が備える撮像部は、請求の範囲に記載の取得部の一例である。また、図6では、シンク機器301に接続されるソース機器が1つの場合の例を示すが、シンク機器301には、複数のソース機器が接続される場合についても同様に適用することができる。
 最初に、シンク機器301およびセンサ機器303間でネゴシエーションが行われる(311)。続いて、シンク機器301およびセンサ機器303間でRTSP(Real Time Streaming Protocol)が実行される(312)。
 続いて、センサ機器303からシンク機器301に、センサ情報が送信される(313)。図6では、センサ情報として、2D画像および3D画像を送信する例を示す。すなわち、センサ機器303は、Wi-Fi CERTIFIED Miracastにより、自装置で生成された3D画像を送信する(313)。
 ここで、Wi-Fi CERTIFIED Miracastによる画像伝送では、2D画像を送信することができるが、3D画像を送信することはできない。そこで、例えば、センサ機器303は、図4のbに示す3Dセンサのフォーマットを用いて、3D画像を、2D画像(画像データ406に格納)およびDepth情報(Depth情報408に格納)としてシンク機器301に送信する(313)。また、センサ機器303は、ソース機器302からシンク機器301への2D画像の送信が開始される前、または、その送信中において(317)、その情報(2D画像およびDepth情報)をシンク機器301に定期的(または不定期)に送信する(313)。
 なお、Depth情報は、例えば、公知の方法を用いて取得することができる。例えば、被写体深度の性質を用いてDepth情報を算出することができる(例えば、特開2011-19084号公報参照。)。また、例えば、TOF(Time of flight)方式やボケ量解析(Depth from Defocus)等の方法を用いてDepth情報を取得することができる。
 このように、センサ機器303の制御部(図2に示す制御部130に相当)は、撮像部(図2に示す撮像部120に相当)により生成された3D画像を取得する。そして、センサ機器303の制御部は、Wi-Fi CERTIFIED Miracast仕様に基づくフォーマットを用いて、その3D画像に相当する情報をシンク機器301に送信する。例えば、センサ機器303の制御部は、その3D画像に対応する2D画像(平面画像)と、その3D画像に含まれる物体の奥行を特定するための情報(Depth情報)とを関連付けてシンク機器301にリアルタイム送信することができる。
 また、センサ機器303からのセンサ情報(3D画像に相当する情報)を受信したシンク機器301は、その受信したセンサ情報に基づいて、ユーザに関する情報(ユーザ情報)を取得することができる。例えば、3D画像に対応する2D画像と、その3D画像に関するDepth情報とを受信した場合には、シンク機器301は、その2D画像に含まれる人物を検出し、その2D画像における各人物の位置を特定することができる。すなわち、センサ機器303を基準とする場合における人物の上下方向および左右方向の位置を特定することができる。なお、人物を検出する検出方法として、例えば、公知の検出方法を用いることができる。例えば、対象物(例えば、人物の顔)の輝度分布情報が記録されているテンプレートと実画像とのマッチングによる検出方法(例えば、特開2004-133637参照。)を用いることができる。また、例えば、画像における輝度の勾配強度および勾配方向を用いて、画像に含まれる対象物(例えば、人体)を検出する検出方法を用いることができる(例えば、特開2010-67102号参照。)。
 また、シンク機器301は、そのDepth情報に基づいて、2D画像において検出された各人物の奥行(例えば、センサ機器303と各人物との距離)を特定することができる。これにより、シンク機器301は、センサ機器303を基準とする場合における人物の位置(3次元空間における位置)を特定することができる。すなわち、シンク機器301は、検出された人物とシンク機器301との相対的な位置関係を取得することができる。例えば、シンク機器301は、シンク機器301とセンサ機器303との相対的な位置関係を保持しておく。そして、シンク機器301は、センサ機器303を基準とする場合における人物の位置と、シンク機器301とセンサ機器303との相対的な位置関係とに基づいて、人物とシンク機器301との相対的な位置関係を取得することができる。
 なお、ここでは、図4のbに示す3Dセンサのフォーマットを用いて、センサ情報を送信する例を示した。ただし、センサ機器303が個人識別装置(個人認識装置)として機能する場合には、図4のcに示す個人特定のフォーマットを用いて、センサ情報を送信するようにしてもよい。この場合には、センサ機器303が、図4のcに示す各情報を生成して送信する。
 また、シンク機器301およびソース機器302間でユーザ認識処理が行われる(314)。このユーザ認識処理では、ソース機器302から送信されてシンク機器301に表示される画像と、ユーザとの関連付けが行われる。例えば、ソース機器302から送信されてシンク機器301に表示される画像と、センサ機器303から送信されたセンサ情報(ユーザが含まれる画像)とをシンク機器301の表示部に表示させることができる。そして、関連付けるべき画像とユーザとを指定する指定操作をユーザの手動操作により行うことができる。このように、シンク機器301に表示される画像と、ユーザとの関連付けが行われた場合には、シンク機器301は、その関連付けに関する情報を保持して管理する。
 また、このユーザ認識処理では、ユーザ認証を行うようにしてもよい。例えば、ユーザIDやジェスチャー(例えば、ユーザの名前を呼んで手を挙げてもらう方法)を用いた認証を行うようにしてもよい。
 また、複数のソース機器から画像が送信されてシンク機器301に複数の画像が表示されている場合には、これらの各画像について、ユーザとの関連付けを行うことができる。また、複数のユーザが存在する場合には、シンク機器の画像を見るユーザであるか、操作するユーザであるか等の情報を関連付けるようにする。また、操作対象となる機器(例えば、ソース機器、シンク機器、これらの双方)を示す情報についても関連付けるようにする。
 続いて、シンク機器301は、ソース機器302から送信されて表示部に表示される画像の位置およびサイズの優先度を決定する(315)。例えば、ユーザ操作やユーザ状態(シンク機器からの距離、移動の有無)に基づいて、優先度を決定することができる。例えば、シンク機器からの距離が最も近いユーザの優先順位を1位とし、シンク機器からの距離が遠くなるのに応じてユーザの優先順位を下げることができる。また、移動しているユーザのうち、移動距離が最も長いユーザの優先順位を1位とし、移動距離に応じてユーザの優先順位を設定することができる。また、距離と移動との組み合わせ、または、他の要素との組み合わせに基づいて優先度を決定するようにしてもよい。また、例えば、ソース機器302またはシンク機器301のUI(user interface)を用いて、決定された優先度を調整するようにしてもよい。
 続いて、シンク機器301およびソース機器302間でRTSPが実行される(316)。続いて、ソース機器302からシンク機器301に、2D画像が送信される(317)。すなわち、ソース機器302は、Wi-Fi CERTIFIED Miracastにより、シンク機器301に表示すべき2D画像を送信する(317)。
 ここで、ソース機器302が、センサ機能(例えば、図1に示す撮像部202、212)を備えることも想定される。この場合には、上述したセンサ機器303からの送信と同様に、ソース機器302からシンク機器301に、センサ情報を送信するようにしてもよい(317)。
 また、シンク機器301は、センサ機器303から送信されたセンサ情報に基づいて、シンク機器301に表示される画像(ソース機器302から送信された画像)の表示態様を変更することができる。例えば、シンク機器301は、シンク機器301に表示される画像(ソース機器302から送信された画像)と関連付けられているユーザの位置に応じて、その画像の表示態様を変更することができる。例えば、シンク機器301は、ユーザの移動方向(シンク機器301の表示面と略平行な方向)に、シンク機器301に表示される画像を移動させることにより、その画像の表示態様を変更することができる。また、例えば、シンク機器301は、ユーザの移動方向(シンク機器301の表示面と略垂直な方向)に応じて、シンク機器301に表示される画像のサイズを拡大縮小させることにより、その画像の表示態様を変更することができる。
 [シンク機器およびセンサ機器間のネゴシエーション例]
 図7は、本技術の実施の形態におけるシンク機器321およびセンサ機器322間でネゴシエーションを行う場合の通信処理例を示すシーケンスチャートである。なお、図7では、シンク機器321およびセンサ機器322間に個人識別装置323が配置される例を示す。また、図7に示すネゴシエーションは、図6に示すネゴシエーション311に対応する。
 ここで、個人識別装置323は、例えば、顔認識機能、ユーザ認識機能を備え、個人識別が可能な電子機器(例えば、スマートフォン、タブレット端末)により実現される。
 また、例えば、センサ機器322が2Dセンサ機器である場合には、個人識別装置323およびセンサ機器322を、ソース機器およびシンク機器として、Wi-Fi CERTIFIED Miracastのプロトコルを用いることができる。また、センサ機器322が3D以上のセンサ機器である場合についても、個人識別装置323およびセンサ機器322を、ソース機器およびシンク機器として、Wi-Fi CERTIFIED Miracastのプロトコルを用いることができる。ただし、この場合には、2Dを超えた情報を、別情報(例えば、方向情報、Depth情報)として付加して、Wi-Fi CERTIFIED Miracastの拡張として送信するようにする。例えば、拡張されているという識別子を付与して送信することができる。
 最初に、シンク機器321は、個人識別装置323の個人識別能力(個人認識能力)を取得するため、認識能力queryを個人識別装置323に送信する(331、332)。個人識別装置323は、認識能力queryを受信すると(332)、センサ機器322のセンサ能力を取得するため、センサ能力queryをセンサ機器322に送信する(333、334)。
 センサ機器322は、センサ能力queryを受信すると(334)、自機器のセンサ能力を通知するためのセンサ能力応答を個人識別装置323に送信する(335、336)。
 個人識別装置323は、センサ能力応答を受信すると(336)、受信したセンサ能力応答に基づいて、センサ機器322に実行させるセンサ能力を決定する(337)。続いて、個人識別装置323は、その決定されたセンサ能力を通知するため、その決定されたセンサ能力をセンサ機器322に送信する(338、339)。
 続いて、個人識別装置323は、受信したセンサ能力応答に基づいて、自装置が可能な認識能力を通知するための認識能力応答をシンク機器321に送信する(340、341)。
 シンク機器321は、認識能力応答を受信すると(341)、受信した認識能力応答に基づいて、個人識別装置323に実行させる認識能力を決定する(342)。続いて、シンク機器321は、その決定された認識能力を通知するため、その決定された認識能力を個人識別装置323に送信する(343、344)。
 これらのやりとりにより、センサ機器322が実行するセンサ能力と、個人識別装置323が実行する認識能力とが決定される。
 続いて、個人識別装置323は、センサ用画像伝送開始通知をセンサ機器322に送信する(345、346)。また、個人識別装置323は、認識情報提供開始通知をシンク機器321に送信する(347、348)。
 なお、ID認証機能(個人特定機能)を備える機器(例えば、個人識別装置323、シンク機器100)は、センサ機器からの情報として、2D情報以上の情報を必要とすることが多い。このため、ID認証機能(個人特定機能)を備える機器に対して、ソース画像(ソース機器からの画像)をリダイレクトするようにしてもよい。
 また、本技術は、これらに限定されない。例えば、図7に示す例において、他のメッセージのやりとりを行うようにしてもよい。例えば、シンク機器321からの認識能力query(332)に対し、センサ能力queryの送信(333)を開始する前に、個人識別装置323は、メッセージを受け取ったことに応答するメッセージをシンク機器321に送信するようにしてもよい。また、例えば、個人識別装置323からの認識能力応答(341)に対し、認識能力の決定(342)を開始する前に、シンク機器321は、メッセージを受け取ったことに応答するメッセージを個人識別装置323に送信するようにしてもよい。
 また、例えば、図4のbでは、PESヘッダを記載しているが、MMT(MPEG media transport)フォーマットにも対応させ、Depth情報408を管理するようにしてもよい。また、例えば、Depth情報を取得した時間をタイムスタンプとしてフォーマットに追加して管理するようにしてもよい。
 [各機器とユーザとの相対的な位置関係に基づく画像の表示例]
 次に、ユーザおよびシンク機器の相対的な位置関係に基づいてシンク機器に表示される画像の表示態様を変更する例を示す。
 図8は、本技術の実施の形態における各機器およびユーザの相対的な位置関係と、画像の表示態様との関係を簡略化して示す図である。
 図8では、シンク機器に表示される画像(ソース機器から送信された画像)を見せる対象となるユーザと、その画像について操作を行うユーザとの関係に基づいて、その画像の表示態様を変更する例を示す。
 例えば、ソース機器のユーザが、シンク機器に表示される画像を見る場合に、そのユーザがシンク機器のみを操作する場合には、シンク機器に表示される画像を、そのユーザが見易い位置に、操作し易いサイズで表示することが好ましい。なお、見易い画像の配置例については、図9に示す。
 図9乃至図11は、本技術の実施の形態におけるシンク機器に表示される画像の配置例を示す図である。各図のaには、ユーザ40の顔の位置に画像が表示される場合の例を示し、各図のbには、ユーザ40の足元またはその付近の位置に画像が表示される場合の例を示す。
 図9には、見易い位置に画像を配置する場合の表示例を示す。図9のaには、ユーザ40の目の高さの視線42の先に画像41を配置する場合の表示例を示す。図9のbには、ユーザ40の足元の視線44の先に画像43を配置する場合の表示例を示す。
 図10には、操作し易い位置およびサイズで画像を配置する場合の表示例を示す。図10のaには、ユーザ40の手46が届く範囲に画像45を配置する場合の表示例を示す。図10のbには、ユーザ40の手48が届く範囲(ユーザの足元の視線の先の範囲)に画像47を配置する場合の表示例を示す。
 図11には、見易いサイズで画像を配置する場合の表示例を示す。図11のaには、ユーザ40との距離に応じて画像50のサイズを変更する場合の表示例を示す。例えば、矢印53の方向(画像50から離れる方向)にユーザ40が移動した場合には、ユーザ40が見易いように、画像50のサイズを大きくする。例えば、点線の矩形51、52に示すように、ユーザ40との距離に応じて画像50のサイズを変更することができる。また、例えば、矢印54の方向(画像50に近づく方向)にユーザ40が移動した場合には、ユーザ40が見易いと想定されるため、画像50のサイズを小さくすることができる。
 図11のbには、ユーザ40との距離に応じて画像55のサイズを変更する場合の表示例を示す。例えば、矢印58の方向(画像55から離れる方向)にユーザ40が移動した場合には、ユーザ40が見易いように、画像55のサイズを大きくする。例えば、点線の矩形56、57に示すように、ユーザ40との距離に応じて画像55のサイズを変更することができる。また、例えば、矢印59の方向(画像55に近づく方向)にユーザ40が移動した場合には、ユーザ40が見易いと想定されるため、画像55のサイズを小さくすることができる。
 [複数のユーザが重なる場合の例]
 図12は、本技術の実施の形態におけるシンク機器に表示される画像を見るユーザ(または、操作するユーザ)が複数存在する場合の各ユーザの位置を簡略化して示す図である。図12のa乃至cには、センサ機器により生成される画像(シンク機器の周囲の画像)を簡略化して示す。
 図12のaには、シンク機器に表示される画像60を見る2人のユーザ61、62が、センサ機器により生成される画像において重複する場合の例を示す。この場合には、重複する顔の前後関係(奥行関係)により、画像60に近いユーザ62と、ユーザ62よりも画像60から離れているユーザ61とを認識することができる。
 図12のbには、シンク機器の周囲に設置されているテーブル63の回りに位置する2人のユーザ61、62が、センサ機器により生成される画像の上下方向において重複する場合の例を示す。この場合には、テーブル63との重複に基づいて、センサ機器に近いユーザ62と、ユーザ62よりもセンサ機器から離れているユーザ61とを認識することができる。
 図12のcには、シンク機器の周囲(フロア64)に位置する2人のユーザ61、62が、センサ機器により生成される画像の上下方向において重複する場合の例を示す。この場合には、ユーザ61、62の画像上におけるサイズ、奥行情報等に基づいて、センサ機器に近いユーザ61と、ユーザ61よりもセンサ機器から離れているユーザ62とを認識することができる。
 [画像が重なる場合の表示例]
 図13は、本技術の実施の形態におけるシンク機器に表示される画像が重なる場合の表示例を示す図である。図13では、画像に対応するユーザの位置に基づいて、画像の表示位置および表示サイズを変更する場合の例を示す。
 図13のaには、2つの画像71、72がZ軸方向(前後方向)に重なる場合の表示例を示す。2つの画像71、72がZ軸方向(前後方向)に重なる場合には、前側(対応するユーザがシンク機器側)の画像72が優先して表示される。この場合に、画像71、72の重複部分については、画像72の領域を半透明として表示するようにしてもよい。これにより、ユーザは2つの画像71、72を容易に見ることができる。なお、画像71の重複部分については、点線で示す。
 図13のbには、2つの画像73、74がX軸方向(横方向)に重なる場合の表示例を示す。2つの画像73、74がX軸方向(横方向)に重なる場合には、ユーザに見易い中心位置(点線75で示す)を含む画像74が優先して表示される。
 図13のcには、2つの画像76、77がY軸方向(縦方向)に重なる場合の表示例を示す。2つの画像76、77がY軸方向(縦方向)に重なる場合には、ユーザに見易い中心位置(点線78で示す)を含む画像77が優先して表示される。
 このように、ユーザ情報に基づいて、複数の画像の表示態様を、前後に重ねる、上下に重ねる、左右に重ねる等により変更することができる。この場合に、予め決定された優先度(優先順位)に基づいて、各画像の表示態様を変更するようにしてもよい。例えば、優先度の大きい画像を大きくすることができる。
 また、ユーザに見易い位置およびサイズ、または、ユーザが操作し易い位置およびサイズで表示された画像が重複する場合にも、優先度に基づいて、それらの画像の位置およびサイズを調整することができる。
 [操作対象となる画像の優先度を高くする場合の表示例]
 図14は、本技術の実施の形態におけるシンク機器に表示される画像のうち、操作対象となる画像の優先度を高くする場合の表示例を示す図である。
 図14のaには、2つの画像81、82が並べて表示される場合の表示例を示す。この場合には、2つの画像81、82の双方が操作対象となっていないものとする。
 図14のbには、図14のaに示す2つの画像81、82のうち、画像81について操作が行われた場合の表示例を示す。この場合には、操作対象となった画像81を拡大した画像83を表示する。また、図14のbに示す状態で、操作対象となる画像が存在しない場合(例えば、所定時間、操作が行われない場合)には、図14のaに示すように、2つの画像81、82を元のサイズに戻して並べて表示される。
 [シンク機器の動作例]
 図15は、本技術の実施の形態におけるシンク機器100による画像表示処理の処理手順の一例を示すフローチャートである。図15では、複数のソース機器からの画像を表示部160に表示する場合における動作例を示す。また、図15では、図6に示す通信例に対応する動作例を示す。
 最初に、シンク機器100の制御部130は、センサ機器との間でネゴシエーションを行う(ステップS801)。続いて、制御部130は、センサ機器との間でRTSPを実行する(ステップS802)。続いて、制御部130は、センサ機器からのセンサ情報(2D画像および3D画像)の受信を開始する(ステップS803)。なお、ステップS803は、請求の範囲に記載の受信する手順の一例である。
 続いて、制御部130は、ソース機器との間でユーザ認識処理を行う(ステップS804)。続いて、制御部130は、ソース機器から送信されて表示部160に表示される画像の位置およびサイズの優先度(または、ユーザの優先度)を決定する(ステップS805)。
 続いて、制御部130は、ソース機器との間でRTSPを実行する(ステップS806)。続いて、制御部130は、ソース機器からのWi-Fi CERTIFIED Miracastによる2D画像の受信を開始する(ステップS807)。
 続いて、制御部130は、表示部160に表示される画像(複数のソース機器からの画像)のうち、重複する画像が存在するか否かを判断する(ステップS808)。重複する画像が存在しない場合には(ステップS808)、ステップS810に進む。重複する画像が存在する場合には(ステップS808)、制御部130は、決定された優先度に基づいて、画像の重複を解消するように、各画像の表示態様を変更する(ステップS809)。例えば、重複する画像については、優先順位が高い画像を上側に表示するように、各画像の表示態様を変更することができる(ステップS809)。
 続いて、制御部130は、センサ機器からのセンサ情報(2D画像および3D画像)に基づいて、各画像の表示位置およびサイズを決定する(ステップS810)。例えば、シンク機器およびユーザ間の相対的な位置関係に基づいて、各画像の表示位置およびサイズを決定することができる(ステップS810)。なお、ステップS808乃至S810は、請求の範囲に記載の決定する手順の一例である。
 続いて、制御部130は、画像の表示終了指示が行われたか否かを判断する(ステップS811)。そして、画像の表示終了指示が行われた場合には(ステップS811)、画像表示処理の動作を終了する。また、画像の表示終了指示が行われていない場合には(ステップS811)、ステップS808に戻る。
 [シンク機器の動作例]
 図16は、本技術の実施の形態におけるシンク機器100による画像表示処理の処理手順の一例を示すフローチャートである。図16では、複数の機器のトポロジを構築する場合における動作例を示す。なお、図15と共通する処理手順の一部は、省略して示す。
 最初に、シンク機器100の制御部130は、無線通信を利用して、周囲に存在する機器を検索する(ステップS821)。通信可能な機器が周囲に存在しない場合には(ステップS822)、画像表示処理の動作を終了する。
 通信可能な機器が周囲に存在する場合には(ステップS822)、制御部130は、周囲に存在する各機器のCapability情報およびAPIを取得する(ステップS823)。例えば、ユーザ判別機能や、2D画像を組み合わせて3Dセンサとする機能を有するデバイスであるか等が検索される。
 続いて、制御部130は、それらの情報に基づいて、各機器のトポロジを決定する(ステップS824)。例えば、Wi-Fi Directのプロトコルを使用して、役割(ソース機器、シンク機器)を決定することができる。また、例えば、3Dセンサおよびユーザ判別機能を備える機器と、2Dセンサおよび2Dセンサを組み合わせて3Dセンサとする機能を備える機器とが存在する場合を想定する。この場合には、3Dセンサおよびユーザ判別機能を備える機器と、2Dセンサおよび2Dセンサを組み合わせて3Dセンサとする機能を備える機器とを、ソース機器およびシンク機器とするトポロジを決定することができる。この場合に、ソース機器およびシンク機器間で、2D画像(2D画像化された3D画像を含む)情報以外に、3D以上の情報(例えば、Depth情報、人物の方向(例えば、顔の方向))のやりとりを行うようにしてもよい。
 このように、制御部130は、無線通信を利用して機器を検索して、画像を表示部160に表示させるシンク機器とソース機器と他の機器(例えば、センサ機器、個人識別装置)との役割を決定することができる。この場合に、制御部130は、各機器の能力と通信量と消費電力とモバイルの有無とAPIとのうちの少なくとも1つに基づいて各機器の役割を決定することができる。例えば、能力に基づいて、必要な機器を把握することができる。そして、通信量と消費電力とモバイルの有無との少なくとも1つに基づいて、優先的に使用する機器を把握することができる。例えば、必要な機器として抽出された機器のうち、通信量が多い機器、消費電力が少ない機器、モバイルでない機器を優先的に使用する機器として決定することができる。
 続いて、制御部130は、決定されたトポロジに基づいて、各機器を接続するための接続処理を行う(ステップS825)。例えば、他の機器間で接続を行う場合には、制御部130は、その接続指示をその各機器に送信する。
 続いて、制御部130は、ソース機器から送信された画像を表示部160に表示する(ステップS826)。続いて、制御部130は、ユーザによる手動操作、または、自動で、ソース機器から送信された画像と、ユーザとを関連付ける処理を行う(ステップS827)。
 続いて、制御部130は、ソース機器から送信されて表示部160に表示される画像の位置およびサイズの優先度(または、ユーザの優先度)を決定する(ステップS828)。例えば、シンク機器100の周囲にセンサ機器およびID識別装置が存在する場合には、これらの組み合わせに基づいて、優先度を決定することができる。
 続いて、制御部130は、各機器またはシンク機器100により取得されるユーザ情報を取得する(ステップS829)。例えば、シンク機器100に対するユーザの位置を計測してユーザ情報として用いることができる。また、例えば、操作する人と見る人とが設定されている場合には、操作する人と見る人との双方の位置を計測することが好ましい。
 続いて、制御部130は、ユーザ情報に基づいて、ユーザ状態に変化があるか否かを判断する(ステップS830)。ユーザ状態に変化がない場合には(ステップS830)、ステップS832に進む。ユーザ状態に変化がある場合には(ステップS830)、制御部130は、変化後のユーザ情報に基づいて、表示部160に表示される画像(ソース機器からの画像)の表示態様を変更する(ステップS831)。例えば、ユーザの位置、操作する人、見る人等の組み合わせに基づいて、表示部160に表示される画像(ソース機器からの画像)の表示態様を変更することができる。例えば、ユーザに見やすい位置およびサイズ、ユーザが操作し易い位置およびサイズ、ユーザが見易い、操作し易い、それぞれの画像の優先度等に基づいて、画像の表示態様を変更することができる。
 また、例えば、シンク機器100の周囲にセンサ機器およびID識別装置が存在する場合には、これらの組み合わせに基づいて、ユーザが見やすい位置およびサイズと、ユーザが操作し易い位置およびサイズと、優先度を決定することができる。この場合には、Wi-Fi CERTIFIED Miracast固有の情報を使用することができる。
 続いて、制御部130は、表示部160に表示される画像のうち、表示領域が重複する画像が存在するか否かを判断する(ステップS832)。表示領域が重複する画像が存在しない場合には(ステップS832)、ステップS834に進む。また、表示領域が重複する画像が存在する場合には(ステップS832)、制御部130は、表示領域が重複する画像の表示態様を変更する(ステップS833)。例えば、ユーザが見易い位置およびサイズ、または、ユーザが操作し易い位置およびサイズが重複する場合には、優先度に基づいて、重複する画像の位置およびサイズを調整することができる。
 続いて、制御部130は、画像の表示終了指示が行われたか否かを判断する(ステップS834)。そして、画像の表示終了指示が行われた場合には(ステップS834)、画像表示処理の動作を終了する。また、画像の表示終了指示が行われていない場合には(ステップS834)、ステップS829に戻る。
 ここで、近年では、4K超短焦点プロジェクター等の大型の壁面ディスプレイや、テーブルトップディスプレイが普及する兆しを見せている。また、多数のセンサを備える電子機器(例えば、スマートフォン、エアコン)を、一人が1または複数所有したり、一部屋に1または複数台設置されたりするようになりつつある。また、セキュリティの確保のため、部屋に撮像装置(例えば、監視カメラ)が設置されることも想定される。
 そこで、このように別々に設置される電子機器を適切に組み合わせて、1つの機能を実現することが考えられる。例えば、複数のソース機器およびシンク機器間で、Wi-Fi CERTIFIED Miracastによる画像伝送を行う場合に、各センサ機器の検索を容易に行うことができる。また、検索されたセンサ機器と、ソース機器と、シンク機器とについて、自動でトポロジを構築することができる。また、検索によって、センサ機器と、他の機器(例えば、ID識別装置(個人識別装置)とを無線ネットワークで接続して1つの動作をさせることができる。また、例えば、Wi-Fi CERTIFIED Miracastのデバイスに備えられているWi-Fi CERTIFIED Miracastと組み合わせて使用可能なセンサを検索することができる。
 これにより、別々に設置されているセンサ機器を適切に組み合わせて、Wi-Fi CERTIFIED Miracastのソース機器およびシンク機器の何れかの機器として、1つの機能を実現することができる。また、ユーザに見易く、操作し易い画像を提供することができる。
 <2.応用例>
 本開示に係る技術は、様々な製品へ応用可能である。例えば、シンク機器100、301、321、ソース機器200、210、302、センサ機器220、230、240、303、個人識別装置323は、スマートフォン、タブレットPC(Personal Computer)、ノートPC、携帯型ゲーム端末若しくはデジタルカメラなどのモバイル端末、テレビジョン受像機、プリンタ、デジタルスキャナ若しくはネットワークストレージなどの固定端末、又はカーナビゲーション装置などの車載端末として実現されてもよい。また、シンク機器100、301、321、ソース機器200、210、302、センサ機器220、230、240、303、個人識別装置323は、スマートメータ、自動販売機、遠隔監視装置又はPOS(Point Of Sale)端末などの、M2M(Machine To Machine)通信を行う端末(MTC(Machine Type Communication)端末ともいう)として実現されてもよい。さらに、シンク機器100、301、321、ソース機器200、210、302、センサ機器220、230、240、303、個人識別装置323は、これら端末に搭載される無線通信モジュール(例えば、1つのダイで構成される集積回路モジュール)であってもよい。
 [2-1.第1の応用例]
 図17は、本開示に係る技術が適用され得るスマートフォン900の概略的な構成の一例を示すブロック図である。スマートフォン900は、プロセッサ901、メモリ902、ストレージ903、外部接続インタフェース904、カメラ906、センサ907、マイクロフォン908、入力デバイス909、表示デバイス910、スピーカ911、無線通信インタフェース913、アンテナスイッチ914、アンテナ915、バス917、バッテリー918及び補助コントローラ919を備える。
 プロセッサ901は、例えばCPU(Central Processing Unit)又はSoC(System on Chip)であってよく、スマートフォン900のアプリケーションレイヤ及びその他のレイヤの機能を制御する。メモリ902は、RAM(Random Access Memory)及びROM(Read Only Memory)を含み、プロセッサ901により実行されるプログラム及びデータを記憶する。ストレージ903は、半導体メモリ又はハードディスクなどの記憶媒体を含み得る。外部接続インタフェース904は、メモリーカード又はUSB(Universal Serial Bus)デバイスなどの外付けデバイスをスマートフォン900へ接続するためのインタフェースである。
 カメラ906は、例えば、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を有し、撮像画像を生成する。センサ907は、例えば、測位センサ、ジャイロセンサ、地磁気センサ及び加速度センサなどのセンサ群を含み得る。マイクロフォン908は、スマートフォン900へ入力される音声を音声信号へ変換する。入力デバイス909は、例えば、表示デバイス910の画面上へのタッチを検出するタッチセンサ、キーパッド、キーボード、ボタン又はスイッチなどを含み、ユーザからの操作又は情報入力を受け付ける。表示デバイス910は、液晶ディスプレイ(LCD)又は有機発光ダイオード(OLED)ディスプレイなどの画面を有し、スマートフォン900の出力画像を表示する。スピーカ911は、スマートフォン900から出力される音声信号を音声に変換する。
 無線通信インタフェース913は、IEEE802.11a、11b、11g、11n、11ac及び11adなどの無線LAN標準のうちの1つ以上をサポートし、無線通信を実行する。無線通信インタフェース913は、インフラストラクチャーモードにおいては、他の装置と無線LANアクセスポイントを介して通信し得る。また、無線通信インタフェース913は、アドホックモード又はWi-Fi Direct等のダイレクト通信モードにおいては、他の装置と直接的に通信し得る。なお、Wi-Fi Directでは、アドホックモードとは異なり2つの端末の一方がアクセスポイントとして動作するが、通信はそれら端末間で直接的に行われる。無線通信インタフェース913は、典型的には、ベースバンドプロセッサ、RF(Radio Frequency)回路及びパワーアンプなどを含み得る。無線通信インタフェース913は、通信制御プログラムを記憶するメモリ、当該プログラムを実行するプロセッサ及び関連する回路を集積したワンチップのモジュールであってもよい。無線通信インタフェース913は、無線LAN方式に加えて、近距離無線通信方式、近接無線通信方式又はセルラ通信方式などの他の種類の無線通信方式をサポートしてもよい。アンテナスイッチ914は、無線通信インタフェース913に含まれる複数の回路(例えば、異なる無線通信方式のための回路)の間でアンテナ915の接続先を切り替える。アンテナ915は、単一の又は複数のアンテナ素子(例えば、MIMOアンテナを構成する複数のアンテナ素子)を有し、無線通信インタフェース913による無線信号の送信及び受信のために使用される。
 なお、図17の例に限定されず、スマートフォン900は、複数のアンテナ(例えば、無線LAN用のアンテナ及び近接無線通信方式用のアンテナ、など)を備えてもよい。その場合に、アンテナスイッチ914は、スマートフォン900の構成から省略されてもよい。
 バス917は、プロセッサ901、メモリ902、ストレージ903、外部接続インタフェース904、カメラ906、センサ907、マイクロフォン908、入力デバイス909、表示デバイス910、スピーカ911、無線通信インタフェース913及び補助コントローラ919を互いに接続する。バッテリー918は、図中に破線で部分的に示した給電ラインを介して、図17に示したスマートフォン900の各ブロックへ電力を供給する。補助コントローラ919は、例えば、スリープモードにおいて、スマートフォン900の必要最低限の機能を動作させる。
 図17に示したスマートフォン900において、図2を用いて説明した制御部130は、無線通信インタフェース913において実装されてもよい。また、これら機能の少なくとも一部は、プロセッサ901又は補助コントローラ919において実装されてもよい。
 なお、スマートフォン900は、プロセッサ901がアプリケーションレベルでアクセスポイント機能を実行することにより、無線アクセスポイント(ソフトウェアAP)として動作してもよい。また、無線通信インタフェース913が無線アクセスポイント機能を有していてもよい。
 [2-2.第2の応用例]
 図18は、本開示に係る技術が適用され得るカーナビゲーション装置920の概略的な構成の一例を示すブロック図である。カーナビゲーション装置920は、プロセッサ921、メモリ922、GPS(Global Positioning System)モジュール924、センサ925、データインタフェース926、コンテンツプレーヤ927、記憶媒体インタフェース928、入力デバイス929、表示デバイス930、スピーカ931、無線通信インタフェース933、アンテナスイッチ934、アンテナ935及びバッテリー938を備える。
 プロセッサ921は、例えばCPU又はSoCであってよく、カーナビゲーション装置920のナビゲーション機能及びその他の機能を制御する。メモリ922は、RAM及びROMを含み、プロセッサ921により実行されるプログラム及びデータを記憶する。
 GPSモジュール924は、GPS衛星から受信されるGPS信号を用いて、カーナビゲーション装置920の位置(例えば、緯度、経度及び高度)を測定する。センサ925は、例えば、ジャイロセンサ、地磁気センサ及び気圧センサなどのセンサ群を含み得る。データインタフェース926は、例えば、図示しない端子を介して車載ネットワーク941に接続され、車速データなどの車両側で生成されるデータを取得する。
 コンテンツプレーヤ927は、記憶媒体インタフェース928に挿入される記憶媒体(例えば、CD又はDVD)に記憶されているコンテンツを再生する。入力デバイス929は、例えば、表示デバイス930の画面上へのタッチを検出するタッチセンサ、ボタン又はスイッチなどを含み、ユーザからの操作又は情報入力を受け付ける。表示デバイス930は、LCD又はOLEDディスプレイなどの画面を有し、ナビゲーション機能又は再生されるコンテンツの画像を表示する。スピーカ931は、ナビゲーション機能又は再生されるコンテンツの音声を出力する。
 無線通信インタフェース933は、IEEE802.11a、11b、11g、11n、11ac及び11adなどの無線LAN標準のうちの1つ以上をサポートし、無線通信を実行する。無線通信インタフェース933は、インフラストラクチャーモードにおいては、他の装置と無線LANアクセスポイントを介して通信し得る。また、無線通信インタフェース933は、アドホックモード又はWi-Fi Direct等のダイレクト通信モードにおいては、他の装置と直接的に通信し得る。無線通信インタフェース933は、典型的には、ベースバンドプロセッサ、RF回路及びパワーアンプなどを含み得る。無線通信インタフェース933は、通信制御プログラムを記憶するメモリ、当該プログラムを実行するプロセッサ及び関連する回路を集積したワンチップのモジュールであってもよい。無線通信インタフェース933は、無線LAN方式に加えて、近距離無線通信方式、近接無線通信方式又はセルラ通信方式などの他の種類の無線通信方式をサポートしてもよい。アンテナスイッチ934は、無線通信インタフェース933に含まれる複数の回路の間でアンテナ935の接続先を切り替える。アンテナ935は、単一の又は複数のアンテナ素子を有し、無線通信インタフェース933による無線信号の送信及び受信のために使用される。
 なお、図18の例に限定されず、カーナビゲーション装置920は、複数のアンテナを備えてもよい。その場合に、アンテナスイッチ934は、カーナビゲーション装置920の構成から省略されてもよい。
 バッテリー938は、図中に破線で部分的に示した給電ラインを介して、図18に示したカーナビゲーション装置920の各ブロックへ電力を供給する。また、バッテリー938は、車両側から給電される電力を蓄積する。
 図18に示したカーナビゲーション装置920において、図2を用いて説明した制御部130、無線通信インタフェース933において実装されてもよい。また、これら機能の少なくとも一部は、プロセッサ921において実装されてもよい。
 また、本開示に係る技術は、上述したカーナビゲーション装置920の1つ以上のブロックと、車載ネットワーク941と、車両側モジュール942とを含む車載システム(又は車両)940として実現されてもよい。車両側モジュール942は、車速、エンジン回転数又は故障情報などの車両側データを生成し、生成したデータを車載ネットワーク941へ出力する。
 なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。
 また、上述の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disc)、メモリカード、ブルーレイディスク(Blu-ray(登録商標)Disc)等を用いることができる。
 なお、本明細書に記載された効果はあくまで例示であって、限定されるものではなく、また、他の効果があってもよい。
 なお、本技術は以下のような構成もとることができる。
(1)
 ユーザと表示部との相対的な位置に関するユーザ情報を電子機器から受信する通信部と、
 前記ユーザ情報に基づいて、ソース機器から送信された画像の前記表示部における表示態様を決定する制御を行う制御部と
を具備する情報処理装置。
(2)
 前記制御部は、前記ユーザ情報に基づいて、前記画像に関する優先度を決定する前記(1)に記載の情報処理装置。
(3)
 前記制御部は、前記電子機器との間でWi-Fi(Wireless Fidelity) CERTIFIED Miracastのプロトコルを用いて前記ユーザ情報のやりとりを行うように制御する前記(1)または(2)に記載の情報処理装置。
(4)
 前記制御部は、前記ソース機器から送信されて前記表示部に表示されている複数の画像のうち、前記表示部における表示領域が重複する画像については、前記優先度に基づいて表示態様を変更する前記(2)に記載の情報処理装置。
(5)
 前記制御部は、前記重複する画像のうち、前記優先度が高い画像を上書きして表示する、または、前記優先度が高い画像を大きいサイズで表示することにより、前記重複する画像の表示態様を変更する前記(4)に記載の情報処理装置。
(6)
 前記制御部は、前記画像に関連付けられているユーザと前記表示部との相対的な位置関係に基づいて、前記表示部における前記画像の表示位置および表示サイズのうちの少なくとも1つを決定する前記(1)から(5)のいずれかに記載の情報処理装置。
(7)
 前記制御部は、前記ユーザの移動に基づいて前記表示部における当該ユーザに関連付けられている前記画像の表示領域の移動および当該画像の向きのうちの少なくとも1つを決定する前記(6)に記載の情報処理装置。
(8)
 前記制御部は、無線通信を利用して前記電子機器を検索して、前記画像を前記表示部に表示させるシンク機器と前記ソース機器と前記電子機器との役割を決定する前記(1)から(7)のいずれかに記載の情報処理装置。
(9)
 前記制御部は、前記電子機器の能力と通信量と消費電力とモバイルの有無とAPI(Application Programming Interface)とのうちの少なくとも1つに基づいて前記電子機器の役割を決定する前記(8)に記載の情報処理装置。
(10)
 前記情報処理装置は、シンク機器であり、
 前記情報処理装置および前記ソース機器は、Wi-Fi CERTIFIED Miracast仕様に従ってリアルタイム画像伝送を行う
前記(1)から(9)のいずれかに記載の情報処理装置。
(11)
 前記情報処理装置と前記ソース機器と前記電子機器とは、Wi-Fi CERTIFIED Miracast仕様のデバイスである前記(1)から(10)のいずれかに記載の情報処理装置。
(12)
 立体視画像を取得する取得部と、
 Wi-Fi CERTIFIED Miracast仕様に基づくフォーマットを用いて、前記立体視画像に対応する平面画像と当該立体視画像に含まれる物体の奥行を特定するための情報とを関連付けて他の情報処理装置に送信する制御部と
を具備する情報処理装置。
(13)
 ユーザと表示部との相対的な位置に関するユーザ情報を取得して情報処理装置に送信する電子機器と、
 前記ユーザ情報に基づいて、ソース機器から送信された画像の前記表示部における表示態様を決定する情報処理装置と
を具備する通信システム。
(14)
 ユーザと表示部との相対的な位置に関するユーザ情報を電子機器から受信する手順と、
 前記ユーザ情報に基づいて、ソース機器から送信された画像の前記表示部における表示態様を決定する手順と
を具備する情報処理方法。
(15)
 ユーザと表示部との相対的な位置に関するユーザ情報を電子機器から受信する手順と、
 前記ユーザ情報に基づいて、ソース機器から送信された画像の前記表示部における表示態様を決定する手順と
をコンピュータに実行させるプログラム。
 10 通信システム
 100、301、321 シンク機器
 110 通信部
 120 撮像部
 130 制御部
 140 記憶部
 150 操作受付部
 160 表示部
 170 音声出力部
 200、210、302 ソース機器
 201、211 表示部
 202、212 撮像部
 220、230、240、303、322 センサ機器
 323 個人識別装置
 900 スマートフォン
 901 プロセッサ
 902 メモリ
 903 ストレージ
 904 外部接続インタフェース
 906 カメラ
 907 センサ
 908 マイクロフォン
 909 入力デバイス
 910 表示デバイス
 911 スピーカ
 913 無線通信インタフェース
 914 アンテナスイッチ
 915 アンテナ
 917 バス
 918 バッテリー
 919 補助コントローラ
 920 カーナビゲーション装置
 921 プロセッサ
 922 メモリ
 924 GPSモジュール
 925 センサ
 926 データインタフェース
 927 コンテンツプレーヤ
 928 記憶媒体インタフェース
 929 入力デバイス
 930 表示デバイス
 931 スピーカ
 933 無線通信インタフェース
 934 アンテナスイッチ
 935 アンテナ
 938 バッテリー
 941 車載ネットワーク
 942 車両側モジュール

Claims (15)

  1.  ユーザと表示部との相対的な位置に関するユーザ情報を電子機器から受信する通信部と、
     前記ユーザ情報に基づいて、ソース機器から送信された画像の前記表示部における表示態様を決定する制御を行う制御部と
    を具備する情報処理装置。
  2.  前記制御部は、前記ユーザ情報に基づいて、前記画像に関する優先度を決定する請求項1記載の情報処理装置。
  3.  前記制御部は、前記電子機器との間でWi-Fi(Wireless Fidelity) CERTIFIED Miracastのプロトコルを用いて前記ユーザ情報のやりとりを行うように制御する請求項1記載の情報処理装置。
  4.  前記制御部は、前記ソース機器から送信されて前記表示部に表示されている複数の画像のうち、前記表示部における表示領域が重複する画像については、前記優先度に基づいて表示態様を変更する請求項2記載の情報処理装置。
  5.  前記制御部は、前記重複する画像のうち、前記優先度が高い画像を上書きして表示する、または、前記優先度が高い画像を大きいサイズで表示することにより、前記重複する画像の表示態様を変更する請求項4記載の情報処理装置。
  6.  前記制御部は、前記画像に関連付けられているユーザと前記表示部との相対的な位置関係に基づいて、前記表示部における前記画像の表示位置および表示サイズのうちの少なくとも1つを決定する請求項1記載の情報処理装置。
  7.  前記制御部は、前記ユーザの移動に基づいて前記表示部における当該ユーザに関連付けられている前記画像の表示領域の移動および当該画像の向きのうちの少なくとも1つを決定する請求項6記載の情報処理装置。
  8.  前記制御部は、無線通信を利用して前記電子機器を検索して、前記画像を前記表示部に表示させるシンク機器と前記ソース機器と前記電子機器との役割を決定する請求項1記載の情報処理装置。
  9.  前記制御部は、前記電子機器の能力と通信量と消費電力とモバイルの有無とAPI(Application Programming Interface)とのうちの少なくとも1つに基づいて前記電子機器の役割を決定する請求項8記載の情報処理装置。
  10.  前記情報処理装置は、シンク機器であり、
     前記情報処理装置および前記ソース機器は、Wi-Fi CERTIFIED Miracast仕様に従ってリアルタイム画像伝送を行う
    請求項1記載の情報処理装置。
  11.  前記情報処理装置と前記ソース機器と前記電子機器とは、Wi-Fi CERTIFIED Miracast仕様のデバイスである請求項1記載の情報処理装置。
  12.  立体視画像を取得する取得部と、
     Wi-Fi CERTIFIED Miracast仕様に基づくフォーマットを用いて、前記立体視画像に対応する平面画像と当該立体視画像に含まれる物体の奥行を特定するための情報とを関連付けて他の情報処理装置に送信する制御部と
    を具備する情報処理装置。
  13.  ユーザと表示部との相対的な位置に関するユーザ情報を取得して情報処理装置に送信する電子機器と、
     前記ユーザ情報に基づいて、ソース機器から送信された画像の前記表示部における表示態様を決定する情報処理装置と
    を具備する通信システム。
  14.  ユーザと表示部との相対的な位置に関するユーザ情報を電子機器から受信する手順と、
     前記ユーザ情報に基づいて、ソース機器から送信された画像の前記表示部における表示態様を決定する手順と
    を具備する情報処理方法。
  15.  ユーザと表示部との相対的な位置に関するユーザ情報を電子機器から受信する手順と、
     前記ユーザ情報に基づいて、ソース機器から送信された画像の前記表示部における表示態様を決定する手順と
    をコンピュータに実行させるプログラム。
PCT/JP2015/079632 2015-01-21 2015-10-21 情報処理装置、通信システム、情報処理方法およびプログラム WO2016117194A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP15878883.6A EP3249934A4 (en) 2015-01-21 2015-10-21 Information processing apparatus, communication system, information processing method and program
US15/541,844 US10795831B2 (en) 2015-01-21 2015-10-21 Information processing device, communication system, information processing method
JP2016570490A JPWO2016117194A1 (ja) 2015-01-21 2015-10-21 情報処理装置、通信システム、情報処理方法およびプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-009306 2015-01-21
JP2015009306 2015-01-21

Publications (1)

Publication Number Publication Date
WO2016117194A1 true WO2016117194A1 (ja) 2016-07-28

Family

ID=56416756

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/079632 WO2016117194A1 (ja) 2015-01-21 2015-10-21 情報処理装置、通信システム、情報処理方法およびプログラム

Country Status (4)

Country Link
US (1) US10795831B2 (ja)
EP (1) EP3249934A4 (ja)
JP (1) JPWO2016117194A1 (ja)
WO (1) WO2016117194A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018141965A (ja) * 2017-02-24 2018-09-13 株式会社半導体エネルギー研究所 情報端末、表示装置、および画像処理システム
WO2018182295A1 (ko) * 2017-03-27 2018-10-04 삼성전자 주식회사 터치 스크린을 포함하는 전자 장치와 이의 동작 방법
JP7432861B2 (ja) 2019-08-08 2024-02-19 パナソニックIpマネジメント株式会社 制御システム、及び、制御方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102193036B1 (ko) * 2016-07-05 2020-12-18 삼성전자주식회사 디스플레이장치, 디스플레이장치의 구동방법 및 컴퓨터 판독가능 기록매체
US11330029B2 (en) * 2018-03-27 2022-05-10 Lenovo (Singapore) Pte. Ltd. Sharing content with a detected device
US11197056B2 (en) * 2019-08-08 2021-12-07 Lenovo (Singapore) Pte. Ltd. Techniques for content cast mode

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013115644A (ja) * 2011-11-29 2013-06-10 Canon Inc 表示装置及び表示方法
JP2014096074A (ja) * 2012-11-12 2014-05-22 Sony Corp 情報処理装置、通信システムおよび情報処理方法
JP2014523207A (ja) * 2011-07-14 2014-09-08 クゥアルコム・インコーポレイテッド ワイヤレス3dストリーミングサーバ
JP2015002485A (ja) * 2013-06-17 2015-01-05 シャープ株式会社 表示装置、表示方法、表示プログラム、及びプロセッサ

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050229200A1 (en) * 2004-04-08 2005-10-13 International Business Machines Corporation Method and system for adjusting a display based on user distance from display device
JP4142073B2 (ja) * 2006-10-13 2008-08-27 株式会社コナミデジタルエンタテインメント 表示装置、表示方法、ならびに、プログラム
JP4907483B2 (ja) * 2007-09-28 2012-03-28 パナソニック株式会社 映像表示装置
JP5347279B2 (ja) * 2008-02-13 2013-11-20 ソニー株式会社 画像表示装置
US8464160B2 (en) 2008-09-29 2013-06-11 Panasonic Corporation User interface device, user interface method, and recording medium
WO2011136190A1 (ja) * 2010-04-28 2011-11-03 富士フイルム株式会社 立体画像再生装置及び方法、立体撮像装置、立体ディスプレイ装置
US8754831B2 (en) * 2011-08-02 2014-06-17 Microsoft Corporation Changing between display device viewing modes
WO2013027292A1 (ja) * 2011-08-25 2013-02-28 パイオニア株式会社 タッチパネル装置、および、これを用いた情報処理方法
JP6257329B2 (ja) * 2012-01-13 2018-01-10 サターン ライセンシング エルエルシーSaturn Licensing LLC 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
JP2014060577A (ja) 2012-09-18 2014-04-03 Sony Corp 通信端末、プログラムおよび情報処理装置
KR102127926B1 (ko) * 2013-05-31 2020-06-29 엘지전자 주식회사 영상 표시 장치 및 그것의 제어 방법
WO2014192414A1 (ja) * 2013-05-31 2014-12-04 ソニー株式会社 情報処理装置および情報処理方法
KR102230024B1 (ko) * 2014-09-05 2021-03-18 엘지전자 주식회사 전자 기기 및 그 동작방법
JP6492531B2 (ja) * 2014-10-27 2019-04-03 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014523207A (ja) * 2011-07-14 2014-09-08 クゥアルコム・インコーポレイテッド ワイヤレス3dストリーミングサーバ
JP2013115644A (ja) * 2011-11-29 2013-06-10 Canon Inc 表示装置及び表示方法
JP2014096074A (ja) * 2012-11-12 2014-05-22 Sony Corp 情報処理装置、通信システムおよび情報処理方法
JP2015002485A (ja) * 2013-06-17 2015-01-05 シャープ株式会社 表示装置、表示方法、表示プログラム、及びプロセッサ

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3249934A4 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018141965A (ja) * 2017-02-24 2018-09-13 株式会社半導体エネルギー研究所 情報端末、表示装置、および画像処理システム
WO2018182295A1 (ko) * 2017-03-27 2018-10-04 삼성전자 주식회사 터치 스크린을 포함하는 전자 장치와 이의 동작 방법
KR20180109249A (ko) * 2017-03-27 2018-10-08 삼성전자주식회사 터치 스크린을 포함하는 전자 장치와 이의 동작 방법
US11126345B2 (en) 2017-03-27 2021-09-21 Samsung Electronics Co., Ltd. Electronic device comprising touch screen and operation method thereof
KR102346080B1 (ko) 2017-03-27 2021-12-31 삼성전자주식회사 터치 스크린을 포함하는 전자 장치와 이의 동작 방법
JP7432861B2 (ja) 2019-08-08 2024-02-19 パナソニックIpマネジメント株式会社 制御システム、及び、制御方法

Also Published As

Publication number Publication date
US10795831B2 (en) 2020-10-06
JPWO2016117194A1 (ja) 2017-12-07
EP3249934A4 (en) 2018-12-05
US20180004684A1 (en) 2018-01-04
EP3249934A1 (en) 2017-11-29

Similar Documents

Publication Publication Date Title
WO2016117194A1 (ja) 情報処理装置、通信システム、情報処理方法およびプログラム
JP6729372B2 (ja) 情報処理装置および情報処理方法
JP6897566B2 (ja) 装置及び方法
US10462517B2 (en) Information processing apparatus, communication system, and information processing method
WO2014115387A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP6503558B2 (ja) 情報処理装置、情報処理システム、および情報処理方法
TWI684101B (zh) 資訊處理裝置、資訊處理方法及非暫時性電腦可讀取之記錄媒體
CN109804346B (zh) 无线装置和无线系统
US11715177B2 (en) Information processing apparatus and method, electronic device and computer readable medium
KR101618783B1 (ko) 이동 단말기, 이동 단말기의 제어방법, 그리고, 이동 단말기를 포함하는 제어시스템
EP3269145B1 (en) Information processing apparatus, communication system, information processing method and non-transitory computer readable medium
WO2013187471A1 (ja) 携帯電子機器、位置確認方法、位置確認プログラム及び位置確認システム
US20170353761A1 (en) Information processing device and information processing method
WO2015072199A1 (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15878883

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016570490

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2015878883

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15541844

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE