WO2020241459A1 - 情報処理装置、操作端末、および情報処理方法 - Google Patents

情報処理装置、操作端末、および情報処理方法 Download PDF

Info

Publication number
WO2020241459A1
WO2020241459A1 PCT/JP2020/020185 JP2020020185W WO2020241459A1 WO 2020241459 A1 WO2020241459 A1 WO 2020241459A1 JP 2020020185 W JP2020020185 W JP 2020020185W WO 2020241459 A1 WO2020241459 A1 WO 2020241459A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
information
light emitting
control information
operation terminal
Prior art date
Application number
PCT/JP2020/020185
Other languages
English (en)
French (fr)
Inventor
夏樹 石本
太郎 砂田
哲史 山田
友輔 青嶋
幸造 森田
直毅 斎藤
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US17/595,628 priority Critical patent/US20220256223A1/en
Priority to JP2021522295A priority patent/JPWO2020241459A1/ja
Priority to CN202080038513.5A priority patent/CN113875260A/zh
Publication of WO2020241459A1 publication Critical patent/WO2020241459A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4131Peripherals receiving signals from specially adapted client devices home appliance, e.g. lighting, air conditioning system, metering devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • H04N21/4432Powering on the client, e.g. bootstrap loading using setup parameters being stored locally or received from the server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • H04N21/4436Power management, e.g. shutting down unused components of the receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4882Data services, e.g. news ticker for displaying messages, e.g. warnings, reminders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2209/00Arrangements in telecontrol or telemetry systems
    • H04Q2209/80Arrangements in the sub-station, i.e. sensing device

Definitions

  • the present disclosure relates to an information processing device operated by an operation terminal, the operation terminal thereof, and an information processing method used in such an information processing device.
  • Patent Document 1 discloses a television receiver that can be operated by a remote control device.
  • the information processing device includes a generation unit and a transmission unit.
  • the generation unit is configured to be able to generate control information for controlling the light emission of the light emitting unit provided in the operation terminal.
  • the transmission unit is configured to be able to transmit control information to the operation terminal.
  • the operation terminal includes an operation unit, a light emitting unit, a reception unit, and a control unit.
  • the operation unit is configured to be able to accept user operations.
  • the light emitting unit is configured to be capable of emitting light from the operation surface of the operation unit.
  • the receiving unit is configured to be able to receive control information from the information processing device.
  • the control unit is configured to be able to control the light emission of the light emitting unit based on the control information.
  • the information processing device generates control information for controlling the light emission of the light emitting unit provided in the operation terminal, and the information processing device causes the operation terminal to perform light emission control.
  • the control information is transmitted, and the operation terminal controls the light emission of the light emitting unit based on the control information transmitted from the information processing device.
  • control information for controlling the light emission of the light emitting unit provided in the operation terminal is generated, and the control information is transmitted to the operation terminal. ..
  • the control information transmitted from the information processing device is received, and the light emission control of the light emitting unit provided in the operation terminal is performed based on the control information. ..
  • FIG. 3 is a timing diagram showing an operation example of the light emitting control unit 37 and the light emitting unit 32 shown in FIG. It is another timing diagram which shows one operation example of the light emitting control unit 37 and the light emitting unit 32 shown in FIG.
  • FIG. 1 It is a block diagram which shows one configuration example of the display system which concerns on 6th Embodiment. It is a flowchart which shows one operation example of the display device shown in FIG. It is a sequence diagram which shows one operation example of the display system shown in FIG.
  • FIG. 1 shows a configuration example of a display system 1 including an information processing device (display device 10) according to the first embodiment. Since the information processing method according to the embodiment of the present disclosure is embodied by the present embodiment, it will be described together.
  • the display system 1 includes a display device 10 and an operation terminal 30.
  • the display device 10 is a so-called television receiver, and includes a tuner 11, an infrared light receiving unit 12, a wireless communication unit 13, an external device interface 14, a network communication unit 15, a display unit 16, a speaker 17, and the like. It has an illuminance sensor 18, a power supply unit 19, and a control unit 21.
  • the tuner 11 is configured to select a desired video signal (stream) from the digital broadcast wave received by the antenna 9.
  • the infrared light receiving unit 12 is configured to receive an infrared signal instructing the operation of the display device 10 transmitted from the operation terminal 30.
  • the wireless communication unit 13 is configured to exchange information with the operation terminal 30 by using short-range wireless communication.
  • the wireless communication unit 13 communicates with the operation terminal 30 using Bluetooth (registered trademark).
  • Bluetooth registered trademark
  • the present invention is not limited to this, and for example, Zigbee (registered trademark), wireless LAN (Local Area Network), or the like may be used.
  • the wireless communication unit 13 transmits control information INF for controlling the light emitting operation of the light emitting unit 32 in the operation terminal 30 to the operation terminal 30.
  • the external device interface 14 is configured to communicate with an external device such as a hard disk recorder.
  • the external device interface 14 is adapted to communicate with an external device using, for example, HDMI (registered trademark).
  • the network communication unit 15 is connected to the Internet NET and is configured to perform network communication with a communication partner via the Internet NET.
  • the network communication unit 15 can receive video information by streaming from, for example, the content server 201 of the video streaming service.
  • the display unit 16 is configured to display a video based on, for example, a video signal selected by the tuner 11.
  • the display unit 16 is configured by using, for example, a liquid crystal display, an organic EL (Electro Luminescence) display, or the like.
  • the speaker 17 is configured to emit sound based on, for example, a video signal selected by the tuner 11.
  • the illuminance sensor 18 is configured to detect the brightness of the environment around the display device 10.
  • the control unit 21 adjusts the display brightness of the display unit 16 based on the detection result of the illuminance sensor 18. Further, in the display system 1, as will be described later, the operation of the light emitting unit 32 in the operation terminal 30 is controlled based on the detection result of the illuminance sensor 18.
  • the power supply unit 19 is configured to generate various power supply voltages based on, for example, a power supply signal supplied from a commercial power supply, and supply these power supply voltages to each block in the display device 10.
  • the control unit 21 is configured to control the operation of the display device 10 by controlling the operation of each block of the display device 10.
  • the control unit 21 is configured by using, for example, a processor capable of executing a program.
  • the control unit 21 has a control information generation unit 22.
  • the control information generation unit 22 is configured to generate control information INF for controlling the light emission operation of the light emitting unit 32 in the operation terminal 30 based on the detection result of the illuminance sensor 18. Then, the control unit 21 transmits the control information INF generated by the control information generation unit 22 to the operation terminal 30 via the wireless communication unit 13.
  • the operation terminal 30 is a so-called remote control terminal that controls the operation of the display device 10 by remote control based on the user's operation.
  • the operation terminal 30 includes an operation unit 31, a light emitting unit 32, an acceleration sensor 33, an infrared light emitting unit 34, a wireless communication unit 35, a power supply unit 36, and a control unit 37.
  • the operation unit 31 is configured to accept user operations.
  • the operation unit 31 has a plurality of buttons B.
  • the control unit 37 causes the infrared light emitting unit 34 to transmit an infrared signal based on the user's operation on the plurality of buttons B.
  • FIG. 2 shows an example of a configuration of the operation terminal 30.
  • the plurality of buttons B are arranged on the operation surface S of the operation terminal 30.
  • the plurality of buttons B include a power button B1, a video service selection button B2, a number button B3, a color button B4, a voice assistant call button B5, a setting button B6, an input switching button B7, a cursor button B8, an enter button B9, and a back button B10. , Channel button B11, volume button B12, mute button B13, audio switching button B14, subtitle button B15, video content operation button B16, recording list button B17, help button B18, and data broadcasting button B19.
  • the power button B1 is operated when the power of the display device 10 is turned on or off.
  • the video service selection button B2 is operated when selecting a video streaming service.
  • the video service selection button B2 includes six buttons corresponding to six different video streaming services (services S1 to S6).
  • the number button B3 is operated when selecting a channel to be viewed or when inputting a number.
  • the numeric button B3 includes twelve buttons.
  • the color button B4 is operated, for example, when performing a selection operation in a data broadcasting compatible content or an electronic program guide.
  • the voice assistant call button B5 is operated when calling the voice assistant.
  • the setting button B6 is operated when displaying a setting screen for setting the display device 10.
  • the input switching button B7 is operated when selecting a video source to be displayed from, for example, a tuner 11 or an external device connected to the external device interface 14.
  • the cursor button B8 is operated, for example, when moving the cursor in data broadcasting compatible content or an electronic program guide.
  • the decision button B9 is operated when performing the decision operation.
  • the back button B10 is operated, for example, when returning to the previous menu.
  • the channel button B11 is operated when selecting a channel to be viewed.
  • the volume button B12 is operated when adjusting the volume.
  • the mute button B13 is operated when muffling.
  • the audio switching button B14 is operated, for example, when selecting audio in audio multiplex broadcasting compatible content.
  • the voice switching button B14 is operated, for example, when selecting English or Japanese for content corresponding to multiple languages, and for content including main voice and sub voice, the main voice and sub voice are selected. It is operated when you do.
  • the subtitle button B15 is operated when the subtitle display is set to be on or off in the subtitle-compatible content.
  • the video content operation button B16 is operated when playing back the video content.
  • the video content operation button B16 includes a play button, a fast rewind button, a fast forward button, a previous button, a next button, a stop button, and a pause button.
  • the recording list button B17 is operated when displaying a list of recorded contents, for example, when a recording / playback device is connected to the external device interface 14.
  • the help button B18 is operated when displaying help information such as guidance on an operation method.
  • the data broadcasting button B19 is selected when displaying data broadcasting in the data broadcasting compatible content.
  • the operation unit 31 has a plurality of buttons B in this way. These buttons B are configured so that they can be emphasized by the light emitted by the light emitting unit 32 provided on the back of the buttons B.
  • the button B can be configured by using a translucent material, and the button B can be emphasized by transmitting the light emitted from the light emitting unit 32. ..
  • the button B is not limited to this, and for example, the button B is formed by using a material that does not allow light to pass through, and the light emitted from the light emitting unit 32 leaks from the gap around the button B. B may be emphasized.
  • the light emitting unit 32 is configured to emphasize a plurality of buttons B in the operation unit 31 by emitting light.
  • the light emitting unit 32 has a plurality of light emitting elements.
  • the light emitting operation of the plurality of light emitting elements can be individually controlled.
  • the plurality of light emitting elements are provided on the back of the plurality of buttons B, for example.
  • the light emitting unit 32 has six light emitting elements corresponding to the six buttons included in the moving image service selection button B2. Therefore, the light emitting unit 32 can individually emphasize these six buttons by emitting light individually from the six light emitting elements.
  • the light emitting unit 32 has one light emitting element corresponding to the 12 buttons included in the number button B3. Therefore, the light emitting unit 32 can emphasize these 12 buttons together by emitting light from the light emitting element.
  • the acceleration sensor 33 is configured to detect the movement of the operation terminal 30.
  • the acceleration sensor 33 is provided, but the present invention is not limited to this, and any sensor that can detect the movement of the operation terminal 30 may be used. Specifically, for example, a gyro sensor may be provided.
  • the infrared light emitting unit 34 is configured to transmit an infrared signal instructing the operation of the display device 10 to the infrared light receiving unit 12 of the operation terminal 30.
  • the wireless communication unit 35 is configured to exchange information with the wireless communication unit 13 of the display device 10 by using short-range wireless communication. As will be described later, the wireless communication unit 35 receives the control information INF for controlling the light emitting operation of the light emitting unit 32 transmitted from the display device 10.
  • the power supply unit 36 is configured to supply, for example, the voltage supplied from the battery to each block in the operation terminal 30.
  • the battery that supplies power to the power supply unit 36 may be a rechargeable battery.
  • the rechargeable battery may be rechargeable using wireless power supply such as Qi (registered trademark).
  • the control unit 37 is configured to control the operation of the operation terminal 30 by controlling the operation of each block of the operation terminal 30. Further, the control unit 37 can set the operation state of the operation terminal 30 to the sleep state or the normal operation state by controlling the operation of each block of the operation terminal 30. In the sleep state, for example, the power supply unit 36 stops supplying voltage to various blocks except the operation unit 31, the acceleration sensor 33, and the control unit 37.
  • the control unit 37 is configured by using, for example, a processor capable of executing a program.
  • the control unit 37 has a light emission control unit 38.
  • the light emitting control unit 38 is configured to control the light emitting operation of the light emitting unit 32 based on the control information INF transmitted from the display device 10.
  • the control information generation unit 22 of the display device 10 generates control information INF for controlling the light emission operation of the light emitting unit 32 in the operation terminal 30 based on the detection result of the illuminance sensor 18. To do. Then, the wireless communication unit 13 of the display device 10 transmits this control information INF to the wireless communication unit 35 of the operation terminal 30.
  • the light emitting control unit 38 of the operation terminal 30 controls the light emitting operation of the light emitting unit 32 based on this control information INF.
  • the operation terminal 30 does not have a network communication unit that can be connected to the Internet NET, and uses the infrared light emitting unit 34 or the wireless communication unit 35 to transmit information to or from an external device. It is configured to be able to receive information.
  • the operation terminal 30 may have a network communication unit that can connect to the Internet NET without being limited to this. In this case, since the operation terminal 30 can use network communication, various functions can be realized. Further, for example, an operation terminal may be realized by using a smartphone or a tablet terminal.
  • the display device 10 corresponds to a specific example of the "information processing device” in the present disclosure.
  • the control information generation unit 22 corresponds to a specific example of the “generation unit” in the present disclosure.
  • the control information INF corresponds to a specific example of "control information" in the present disclosure.
  • the wireless communication unit 13 corresponds to a specific example of the “transmission unit” in the present disclosure.
  • the illuminance sensor 18 corresponds to a specific example of the “environmental sensor” in the present disclosure.
  • the operation terminal 30 corresponds to a specific example of the "operation terminal” in the present disclosure.
  • the operation unit 31 corresponds to a specific example of the “operation unit” in the present disclosure.
  • the light emitting unit 32 corresponds to a specific example of the “light emitting unit” in the present disclosure.
  • the wireless communication unit 35 corresponds to a specific example of "reception” in the present disclosure.
  • the light emission control unit 38 corresponds to a specific example of the “control unit” in the present disclosure.
  • the tuner 11 selects a desired video signal from the broadcast wave received by the antenna 9.
  • the infrared light receiving unit 12 receives an infrared signal instructing the operation of the display device 10 transmitted from the infrared light emitting unit 34 of the operation terminal 30.
  • the wireless communication unit 13 exchanges information with the wireless communication unit 35 of the operation terminal 30 by using short-range wireless communication.
  • the external device interface 14 communicates with the external device.
  • the network communication unit 15 receives video information from a plurality of content servers 201 by video streaming.
  • the display unit 16 displays a video based on, for example, a video signal selected by the tuner 11.
  • the speaker 17 emits sound based on, for example, a video signal selected by the tuner 11.
  • the illuminance sensor 18 detects the brightness of the environment around the display device 10.
  • the power supply unit 19 generates various power supply voltages based on, for example, a power supply signal supplied from a commercial power supply, and supplies these power supply voltages to each block in the display device 10.
  • the control unit 21 controls the operation of the display device 10 by controlling the operation of each block of the display device 10.
  • the plurality of buttons B of the operation unit 31 accept the user's operation.
  • the light emitting unit 32 emphasizes the plurality of buttons B in the operation unit 31 by emitting light.
  • the acceleration sensor 33 detects the movement of the operation terminal 30.
  • the infrared light emitting unit 34 transmits an infrared signal instructing the operation of the display device 10 to the infrared receiving unit 12 of the operation terminal 30.
  • the wireless communication unit 35 exchanges information with the wireless communication unit 13 of the display device 10 by using short-range wireless communication.
  • the power supply unit 36 supplies, for example, the voltage supplied from the battery to each block in the operation terminal 30.
  • the control unit 37 controls the operation of the operation terminal 30 by controlling the operation of each block of the operation terminal 30.
  • the control information generation unit 22 of the display device 10 generates control information INF for controlling the light emission operation of the light emitting unit 32 in the operation terminal 30 based on the detection result of the illuminance sensor 18.
  • the wireless communication unit 13 transmits the control information INF generated by the control information generation unit 22 to the operation terminal 30.
  • the wireless communication unit 35 of the operation terminal 30 receives the control information INF transmitted from the display device 10.
  • the light emitting control unit 38 controls the light emitting operation of the light emitting unit 32 based on the control information INF.
  • FIG. 3 shows an operation example of the operation terminal 30.
  • the operation terminal 30 requests the display device 10 to transmit the control information INF when the movement is detected or the user operation on the operation unit 31 is detected. Then, the operation terminal 30 controls the light emitting operation of the light emitting unit 32 based on the control information INF transmitted from the display device 10. This operation will be described in detail below.
  • control unit 37 confirms whether or not the movement of the operation terminal 30 is detected based on the detection result of the acceleration sensor 33 (step S101). For example, when the user lifts the operation terminal 30 placed on the desk, the control unit 37 detects the movement of the operation terminal 30.
  • step S101 the control unit 37 confirms whether or not the user operation on the operation unit 31 has been detected (step S102). For example, when the user operates the button B of the operation terminal 30 placed on the desk, the control unit 37 detects the user operation on the operation unit 31. If the user operation on the operation unit 31 is not detected (“N” in step S102), the process returns to step S101, and the control unit 37 detects the movement of the operation terminal 30 or performs the user operation on the operation unit 31. Steps S101 and S102 are repeated until they are detected.
  • the control unit 37 of the operation terminal 30 may control the acceleration sensor 33 so as to detect the movement of the operation terminal 30 at predetermined intervals. Further, when the control unit 37 detects the movement of the operation terminal 30 or the user operation on the operation unit 31, the control unit 37 detects the movement of the operation terminal 30 at an interval different from that before detecting the movement or the user operation. May be good. For example, as shown in FIG. 4, the control unit 37 can usually detect acceleration (movement of the operation terminal 30) at a detection interval T of 500 ms. Further, when the control unit 37 detects the movement of the operation terminal 30 or the user operation on the operation unit 31, the control unit 37 may detect the acceleration at the detection interval T of 100 ms.
  • the detection interval T may be returned to 500 ms after a predetermined time (for example, 30 seconds) has elapsed after the light emitting control unit 38 causes the light emitting unit 32 to emit light and ends the light emission.
  • a predetermined time for example, 30 seconds
  • step S101 When the movement of the operation terminal 30 is detected in step S101 (“Y” in step S101) or when the user operation on the operation unit 31 is detected in step S102 (“Y” in step S102), the control unit 37 changes the operating state of the operating terminal 30 from the sleeping state to the normal operating state (step S103).
  • control unit 37 requests the display device 10 to transmit the control information INF via the wireless communication unit 35 (step S104).
  • the control information INF includes the sensor information INF1 indicating the detection result of the illuminance sensor 18. Then, the control unit 37 receives the control information INF transmitted from the display device 10 in response to the transmission request via the wireless communication unit 35.
  • the light emission control unit 38 of the control unit 37 confirms whether the brightness of the environment indicated by the sensor information INF1 included in the control information INF is darker than the predetermined brightness (step S105).
  • the brightness is brighter than the predetermined brightness (“N” in step S105)
  • this flow ends. That is, when the brightness of the environment is brighter than a predetermined brightness, the user can easily visually recognize each button B of the operation unit 31 of the operation terminal 30, so that the light emission control unit 38 displays the light emission unit 32. This flow ends without emitting light.
  • step S105 when the brightness of the environment indicated by the sensor information INF1 is darker than the predetermined brightness (“Y” in step S105), the light emitting control unit 38 determines the light emitting unit 32 based on the sensor information INF1.
  • the light emission control information INFBL instructing the light emission operation is generated (step S106).
  • the light emission control information INFBL includes, for example, information about light emission start, light emission end, light emission brightness, light emission time, light emission cycle, and the like of each light emitting element of the light emitting unit 32.
  • the light emitting control unit 38 controls the light emitting operation of the light emitting unit 32 based on the light emitting control information INFBL (step S107).
  • the operation unit 31 of the operation terminal 30 is emphasized by the light emitted from the light emitting unit 32.
  • FIG. 5 shows an operation example of the display system 1 when the user lifts the operation terminal 30 placed on the desk in a dark environment.
  • control unit 37 of the operation terminal 30 detects the movement of the operation terminal 30 and changes the operation state of the operation terminal 30 from the sleep state to the normal operation state (step S121). Then, the control unit 37 requests the display device 10 to transmit the control information INF including the sensor information INF1 via the wireless communication unit 35 (step S122). The control unit 21 of the display device 10 receives this transmission request via the wireless communication unit 13.
  • the control information generation unit 22 of the display device 10 acquires the detection result of the illuminance sensor 18 as the sensor information INF1 in response to this transmission request (step S123).
  • the sensor information INF1 contains information about the brightness of the environment, which is darker than the predetermined brightness.
  • the control unit 21 transmits the control information INF including the sensor information INF1 to the operation terminal 30 via the wireless communication unit 13 (step S124).
  • the control unit 37 of the operation terminal 30 receives this control information INF via the wireless communication unit 35.
  • the light emission control unit 38 of the operation terminal 30 generates light emission control information INFBL based on the sensor information INF1 included in the control information INF (step S125). That is, in this example, since the brightness of the environment is darker than the predetermined brightness, the light emission control unit 38 generates the light emission control information INFBL based on the sensor information INF1.
  • the light emission control information INFBL is information instructing all the light emitting elements in the light emitting unit 32 to emit light for a predetermined time.
  • the light emission control unit 38 starts the light emission of the light emission control unit 32 based on the light emission control information INFBL (step S126).
  • the operation unit 31 of the operation terminal 30 is emphasized by the light emitted from the light emitting unit 32.
  • the light emitting control unit 38 ends the light emitting of the light emitting unit 32 after a lapse of a predetermined time based on the light emitting control information INFBL (step S127).
  • the light emitting control unit 38 may be controlled so as to change the light emitting method of the light emitting unit 32 at one or both of the light emitting unit 32 at the start of light emission and at the end of light emission.
  • the light emitting unit 32 may gradually change the brightness from the current brightness to the target brightness at the start and end of the light emission, and after reaching the target brightness, emit light at a constant brightness.
  • the length of the period in which the brightness changes gradually and the length of the period in which the brightness is maintained at a constant level may be a predetermined time or may be dynamically changed according to the usage status of the operation terminal 30.
  • Good. 6A to 6H show an example of a light emitting method of the light emitting unit 32.
  • the brightness of the light emitting unit 32 gradually changes at the start of light emission and at the end of light emission.
  • the user is pressing button B.
  • the time from the start of light emission to the end of light emission is set to 3 seconds, and the light emission time at the target brightness is set to 1 second.
  • the brightness of the light emitting unit 32 gradually increases from the start of light emission, reaches the target brightness 1 second, is maintained at a constant brightness for 1 second, and then gradually decreases to 0 (zero) 1 second later. become.
  • the pressing time TP of the button B is sufficiently short (for example, 1 second or less)
  • the light emitting unit 32 emits light for 3 seconds from the start of light emission to the end of light emission (extinguishing) as described above.
  • the brightness of the light emitting unit 32 is maintained for 1 second after reaching the target brightness again, and then gradually decreases to 0 (zero) after 1 second.
  • the case where the user presses the button B again during the end of light emission has been described, but when the user presses the button B again while the light emitting unit 32 maintains the target brightness, the user presses the button B again.
  • the light emission end operation may be started one second after the timing when B is pressed again.
  • the time from the start of light emission to the end of light emission is set to 3 seconds, as in the case of FIG. 6A.
  • the user operates the user by moving the operation terminal 30. In this way, when the acceleration corresponding to the user operation is detected only during the period when the brightness of the light emitting unit 32 is increasing (1 second in this example), the light emitting unit 32 is the same as in the case of FIG. 6A. , Lights up for 3 seconds from the start of light emission to the end of light emission (turns off).
  • the light emitting unit 32 accelerates after emitting light in response to pressing the button B. It emits light according to the detection of.
  • the user first presses the button B longer than a predetermined time (for example, 60 seconds).
  • the light emitting unit 32 performs the light emitting process corresponding to the pressing of the button B for a total of 61 seconds, and then sets the brightness to 0.
  • the detection interval T of the acceleration sensor 33 is set from the pressing of the button B or the detection of the acceleration until a predetermined time (for example, 30 seconds) elapses. It will be shorter than usual. Therefore, when the light emission corresponding to the detection of the acceleration is performed within a predetermined time from the light emission corresponding to the pressing of the button B, the response from the user moving the operation terminal 30 until the light emitting unit 32 emits light. The time is shortened.
  • the above-mentioned light emission control is an example and is not limited to these examples.
  • the time for changing from the start of light emission to the target brightness, the time for maintaining the target brightness, and the time for ending light emission are each set to 1 second, but the time is not limited to this, for example. It may be shorter than 1 second or longer than 1 second.
  • the brightness of the light emitting unit 32 is set to change gradually at both the start and end of light emission, but the present invention is not limited to this. For example, the brightness of the light emitting unit 32 may be gradually changed only at either the start of light emission or the end of light emission.
  • the brightness of the light emitting unit 32 may not be gradually changed at both the start of light emission and the end of light emission. In this case, the brightness of the light emitting unit 32 changes to the target brightness (state of constant brightness or state of brightness 0) in a short time. Further, the brightness of the light emitting unit 32 may be changed to the target brightness in a short time without gradually changing only when the pressing of the button B is detected or the acceleration is detected during the end of light emission.
  • the control information generation unit 22 of the display device 10 uses the illuminance sensor 18 for adjusting the display brightness of the display unit 16 and controls according to the detection result of the illuminance sensor 18.
  • the information INF is generated, and the light emitting control unit 38 of the operation terminal 30 controls the light emitting operation of the light emitting unit 32 based on the control information INF.
  • the display system 1 for example, when the surroundings of the display device 10 are dark, the operation unit 31 can be emphasized by the light from the light emitting unit 32, so that the user can easily operate the operation terminal 30. it can. As a result, the display system 1 can improve the convenience of the user.
  • the display system 1 when the brightness of the environment is darker than the predetermined brightness, the light emitting operation of the light emitting unit 32 is controlled. Therefore, when the surroundings of the display device 10 are bright, the light emitting unit 32 controls the light emitting operation. Since it is not necessary to emit light, power consumption can be reduced. As a result, in the display system 1, for example, the number of times the battery used in the operation terminal 30 is replaced and the number of times the battery is charged can be reduced, so that the convenience of the user can be improved.
  • the light emitting operation of the light emitting unit 32 is controlled based on the control information INF. Therefore, for example, after a predetermined time has elapsed from starting the light emitting of the light emitting unit 32, the light emitting unit 32 It is possible to end the light emission of. As a result, the light emitting time of the light emitting unit 32 can be limited, so that the power consumption can be reduced. As a result, in the display system 1, for example, the number of times the battery used in the operation terminal 30 is replaced and the number of times the battery is charged can be reduced, so that the convenience of the user can be improved.
  • the illuminance sensor 18 for adjusting the display brightness of the display unit 16 provided in the display device 10 since the illuminance sensor 18 for adjusting the display brightness of the display unit 16 provided in the display device 10 is used, it is not necessary to provide the illuminance sensor in the operation terminal 30. The number of parts of the operation terminal 30 can be reduced. As a result, in the display system 1, for example, the cost of the operation terminal 30 can be reduced.
  • the control information generation unit of the display device generates control information according to the detection result of the illuminance sensor, and the light emission control unit of the operation terminal is based on this control information. Since the light emitting operation is controlled, for example, when the surroundings of the display device are dark, the operation unit can be emphasized by the light from the light emitting unit, so that the convenience of the user can be enhanced.
  • the light emitting operation of the light emitting unit is controlled. Therefore, for example, the number of times the battery used for the operation terminal is replaced or the number of times the battery is charged can be determined. Since it can be reduced, the convenience of the user can be improved.
  • the light emitting operation of the light emitting unit is controlled based on the control information. Therefore, for example, the light emitting unit is stopped after a predetermined time has elapsed from the start of the light emitting unit. be able to. As a result, for example, the number of times the battery used for the operation terminal is replaced and the number of times the battery is charged can be reduced, so that the convenience of the user can be improved.
  • the cost of the operation terminal can be reduced.
  • control information INF includes the sensor information INF1, but the present invention is not limited to this, and includes various information for controlling the light emitting operation of the light emitting unit 32 in the operation terminal 30. Can be done.
  • control information INF includes the light emission control information INFBL instructing the light emission operation of the light emitting unit 32 will be described in detail below.
  • the display system 1A has a display device 10A and an operation terminal 30A, as in the case of the above embodiment (FIG. 1).
  • the display device 10A has a control unit 21A.
  • the control unit 21A has a control information generation unit 22A.
  • the control information generation unit 22A is configured to generate control information INF including light emission control information INFBL based on the detection result of the illuminance sensor 18.
  • the operation terminal 30A has a control unit 37A.
  • the control unit 37A has a light emission control unit 38A.
  • the light emitting control unit 38A is configured to control the light emitting operation of the light emitting unit 32 based on the control information INF including the light emitting control information INFBL.
  • FIG. 7 shows an operation example of the operation terminal 30A.
  • control unit 37A confirms whether or not the movement of the operation terminal 30A has been detected based on the detection result of the acceleration sensor 33 (step S101).
  • the control unit 37A confirms whether or not the user operation on the operation unit 31 has been detected (step S102). If the user operation on the operation unit 31 is not detected (“N” in step S102), the process returns to step S101.
  • step S101 When the movement of the operation terminal 30A is detected in step S101 (“Y” in step S101) or when the user operation on the operation unit 31 is detected in step S102 (“Y” in step S102), the control unit 37A changes the operating state of the operating terminal 30A from the sleeping state to the normal operating state (step S103).
  • control unit 37A requests the display device 10A to transmit the control information INF via the wireless communication unit 35 (step S134).
  • the control information INF includes the light emission control information INFBL that instructs the light emission operation of the light emitting unit 32. Then, the control unit 37A receives the control information INF transmitted from the display device 10A in response to the transmission request via the wireless communication unit 35.
  • the light emitting control unit 38A of the control unit 37A controls the light emitting operation of the light emitting unit 32 based on the light emitting control information INFBL included in the control information INF (step S137).
  • the operation unit 31 of the operation terminal 30A is emphasized by the light emitted from the light emitting unit 32. This is the end of this flow.
  • FIG. 8 shows an operation example of the display device 10A.
  • the display device 10A confirms whether or not it has received the transmission request of the control information INF including the light emission control information INFBL from the operation terminal 30A (step S141).
  • the control information generation unit 22A of the control unit 21A acquires the detection result of the illuminance sensor 18 as the sensor information INF1 (step S142).
  • the control information generation unit 22A confirms whether the brightness of the environment indicated by the sensor information INF1 is darker than the predetermined brightness (step S143).
  • the control information generation unit 22A When the brightness is darker than the predetermined brightness (“Y” in step S143), the control information generation unit 22A generates light emission control information INFBL including an instruction to make the light emitting unit 32 emit light based on the sensor information INF1 (“Y”).
  • Step S144 When the brightness is brighter than the predetermined brightness (“N” in step S143), the control information generation unit 22A generates a light emission control information INFBL including an instruction not to make the light emitting unit 32 emit light based on the sensor information INF1. (Step S145).
  • control unit 21A transmits the control information INF including the light emission control information INFBL to the operation terminal 30A via the wireless communication unit 13 (step S146). This is the end of this flow.
  • FIG. 9 shows an operation example of the display system 1A when the user operates the operation unit 31 of the operation terminal 30A placed on the desk in a dark environment.
  • the control unit 37A of the operation terminal 30A detects the user operation and changes the operation state of the operation terminal 30A from the sleep state to the normal operation state (step S151). Then, the control unit 37A requests the display device 10A to transmit the control information INF including the light emission control information INFBL via the wireless communication unit 35 (step S152). The wireless communication unit 13 of the display device 10A receives this transmission request.
  • the control information generation unit 22A of the display device 10A acquires the detection result of the illuminance sensor 18 as the sensor information INF1 in response to this transmission request (step S153).
  • the sensor information INF1 contains information about the brightness of the environment, which is darker than the predetermined brightness.
  • the control information generation unit 22A generates the light emission control information INFBL based on the sensor information INF1 (step S154).
  • the control information generation unit 22A instructs that all the light emitting elements in the light emitting unit 32 emit light for a predetermined time based on the sensor information INF1.
  • Light emission control information INFBL is generated.
  • control unit 21A transmits the control information INF including the light emission control information INFBL to the operation terminal 30A via the wireless communication unit 13 (step S155).
  • the control unit 37A of the operation terminal 30A receives this control information INF via the wireless communication unit 35.
  • the light emission control unit 38A of the operation terminal 30A starts the light emission of the light emitting unit 32 based on the light emission control information INFBL included in the control information INF (step S126).
  • the operation unit 31 of the operation terminal 30A is emphasized by the light emitted from the light emitting unit 32.
  • the light emission control unit 38A ends the light emission of the light emission control unit 32 after a lapse of a predetermined time based on the light emission control information INFBL (step S127). This is the end of this sequence.
  • the light emitting control unit 38 instructs the light emitting control information INFBL to emit light from all the light emitting elements in the light emitting unit 32 when the brightness of the environment indicated by the sensor information INF1 is darker than a predetermined brightness. Was generated, but is not limited to this. Instead of this, for example, even if the light emission control information INFBL instructing that the light emission brightness of all the light emitting elements in the light emitting unit 32 is emitted with higher brightness as the brightness of the environment indicated by the sensor information INF1 becomes darker, Good.
  • control information generation unit 22 generates the control information INF based on the brightness of the environment detected by the illuminance sensor 18, but the present invention is not limited to this.
  • the control information generator may generate the control information INF based on other parameters about the environment. The present modification will be described in detail below with some examples.
  • FIG. 10 shows a configuration example of the display system 1B according to this modified example.
  • the display system 1B includes a display device 10B and an operation terminal 30B.
  • the display device 10B has a color sensor 18B and a control unit 21B.
  • the color sensor 18B is configured to detect the color of the environment around the display device 10. Specifically, the color sensor 18B can detect, for example, the color of the illumination of the room in which the display device 10B is arranged.
  • the control unit 21B adjusts the display color on the display unit 16 based on the detection result of the color sensor 18B.
  • the illuminance sensor 18 and the color sensor 18B correspond to a specific example of the "environmental sensor" in the present disclosure.
  • the control unit 21B has a control information generation unit 22B.
  • the control information generation unit 22B is configured to generate control information INF based on the detection result of the illuminance sensor 18 and the detection result of the color sensor 18B. That is, the control information generation unit 22B generates the control information INF based on the brightness of the environment and the color of the environment.
  • the operation terminal 30B includes a light emitting unit 32B and a control unit 37B.
  • the light emitting unit 32B is configured to emphasize a plurality of buttons B in the operation unit 31 by emitting light.
  • the light emitting unit 32B has, for example, a plurality of light emitting elements.
  • the plurality of light emitting elements include, for example, a light emitting element that emits red light, a light emitting element that emits green light, and a light emitting element that emits blue light.
  • the control unit 37B has a light emission control unit 38B.
  • the light emitting control unit 38B is configured to control the light emitting operation of the light emitting unit 32B based on the control information INF transmitted from the display device 10B. Specifically, for example, when the color of the illumination of the room in which the display device 10B is arranged is neutral white, the light emitting control unit 38B sets each light emitting element so that the light emitting unit 32B emits white light. Generates light emission control information INFBL instructing light emission.
  • the light emitting control unit 38B sets each light emitting element so that the light emitting unit 32B emits light of a warm color. Generates light emission control information INFBL instructing light emission. That is, in this example, the light emission control information INFBL also includes information about the light emission color of the light emitting unit 32B.
  • the display system 1B controls the light emitting operation of the light emitting unit 32B based on the information on the brightness of the environment obtained by the illuminance sensor 18 and the information on the color of the environment obtained by the color sensor 18B. can do.
  • FIG. 11 shows a configuration example of another display system 1C according to this modified example.
  • the display system 1C includes a display device 10C and an operation terminal 30B.
  • the display device 10C includes a camera 18C and a control unit 21C.
  • the camera 18C is configured to generate an captured image by imaging a user in front of the display device 10C.
  • the display device 10C can realize, for example, the function of a videophone by using this captured image.
  • the captured image contains information about the brightness of the environment and the color of the environment.
  • the camera 18C corresponds to a specific example of the "environmental sensor" in the present disclosure.
  • the control unit 21C has a control information generation unit 22C.
  • the control information generation unit 22C is configured to generate control information INF based on the captured image obtained by the camera 18C. That is, the control information generation unit 22B according to the display device 10B (FIG. 10) is based on the information about the brightness of the environment obtained by the illuminance sensor 18 and the information about the color of the environment obtained by the color sensor 18B. , The control information INF is generated, but the control information generation unit 22C generates the control information INF based on the information about the brightness of the environment and the color of the environment obtained by the camera 18C.
  • the display system 1C can control the light emitting operation of the light emitting unit 32B based on the information about the brightness of the environment and the color of the environment obtained by the camera 18C.
  • the operation terminal 30 has a plurality of buttons B, but the present invention is not limited to this, and instead, for example, it is shown in FIG.
  • the display unit 39D may be further provided in addition to the plurality of buttons B.
  • the display unit 39D is configured by using, for example, a liquid crystal display, an organic EL display, or the like.
  • the light emitting unit 32 may emphasize the plurality of buttons B by emitting light, as in the case of the above embodiment.
  • the light emitting control unit 38D according to this modification may control the light emitting operation of the light emitting unit 32 and also control the display operation of the display unit 39D based on the control information INF.
  • the light emitting control unit 38D can make the light emitting unit 32 emit light and display the information on the display unit 39D based on the control information INF, for example.
  • the operation terminal may have a touch panel in addition to the display unit, for example.
  • the user can perform the operation by touching the button image displayed on the display unit.
  • the light emission control unit can control the display operation of the display unit so that the display unit highlights the button image based on the control information INF.
  • a smartphone may be used as an operation terminal.
  • the illuminance sensor 18 is provided in the display device 10, but the present invention is not limited to this, and the illuminance sensor may be provided in the operation terminal 30. Then, the light emitting control unit 38 of the operation terminal 30 may control the light emitting operation of the light emitting unit 32 based on the detection result of the illuminance sensor 18 of the display device 10 and the detection result of the illuminance sensor of the operation terminal 30. Good. Further, when the illuminance sensor provided in the operation terminal 30 can be used to control the light emission operation without using the illuminance sensor 18 provided in the display device 10, the light emission control unit 38 can control the illuminance in the operation terminal 30. The light emission operation may be controlled using only the detection result of the sensor. In that case, the display device 10 does not have to be provided with the illuminance sensor 18.
  • the illuminance sensor 18 and the color sensor 18B are provided in the display device 10B, but the present invention is not limited to this, and the operation terminal 30B is provided.
  • An illuminance sensor and a color sensor may be provided.
  • the light emitting control unit 38B controls the light emitting operation of the light emitting unit 32 based on the detection results of the illuminance sensor 18 and the color sensor 18B of the display device 10B and the detection results of the illuminance sensor and the color sensor of the operation terminal 30. It may be.
  • the light emission operation can be controlled without using one or both of the illuminance sensor 18 and the color sensor 18B provided in the display device 10B.
  • the light emission control unit 38B may control the light emission operation using only the detection result of the sensor in the operation terminal 30B.
  • the display device 10B may not be provided with one or both of the illuminance sensor 18 and the color sensor 18B.
  • control unit 21B of the display device 10B receives the environmental information (for example, the brightness of the environment and the color of the environment) acquired by one or both of the illuminance sensor and the color sensor provided in the operation terminal 30B from the operation terminal 30B. By doing so, the operation of the display device 10B may be controlled. Specifically, for example, the control unit 21B may adjust the display brightness of the display unit 16 based on the information regarding the brightness of the environment acquired by the illuminance sensor of the operation terminal 30B. Further, for example, the control unit 21B may adjust the display contrast of the display unit 16 based on the information regarding the color of the environment acquired by the color sensor of the operation terminal 30B.
  • the environmental information for example, the brightness of the environment and the color of the environment
  • the control unit 21B may adjust the display contrast of the display unit 16 based on the information regarding the color of the environment acquired by the color sensor of the operation terminal 30B.
  • the control of the display device 10B based on the environment sensor of the operation terminal 30B is not limited to the control of the display unit 16, and any setting of the display device 10B may be changed.
  • the sensor information transmitted from the environment sensor of the operation terminal 30B to the display device 10B may be information corresponding to the sensor information INF1 or the control information INF.
  • the power supply unit 36 responds to the detection timing based on the detection of the movement of the operation terminal 30B or the detection of the user operation on the operation unit 31.
  • the power supply voltage may be supplied to the environmental sensor of the operation terminal 30B only for a short period of time.
  • the transmission timing of the infrared signal and the timing of the illuminance detection process are set in order to reduce the influence of the fluctuation of the infrared signal and the power supply voltage on the illuminance sensor of the operation terminal 30B. They may be offset from each other.
  • control unit 37B detects information on the brightness of the environment using the illuminance sensor when the user presses the button B of the operation unit 31, and after the detection process by the illuminance sensor is completed.
  • the infrared light emitting unit 34 may be controlled so as to transmit the infrared signal corresponding to the button B to the operation target device such as the display device 10B.
  • control unit 21B may operate the display device 10B by using the detection result of the acceleration sensor 33 as well as the environment sensor of the operation terminal 30B. Specifically, the control unit 21B supplies the power supply voltage to the display unit 16 when, for example, determines that the operation terminal 30 has been turned inside out based on the detection result of the illuminance sensor or the acceleration sensor 33 of the operation terminal 30B. May be stopped or the power of the display device 10B may be turned off. At this time, the display device 10B may receive, for example, sensor information indicating that the operation unit 31 and the operation surface S provided with the illuminance sensor are directed downward in the vertical direction from the operation terminal 30B.
  • the display system 2 according to the present embodiment is configured to control the light emitting operation of the light emitting unit of the operation terminal according to the content displayed by the display device.
  • the components substantially the same as the display system 1 according to the first embodiment are designated by the same reference numerals, and the description thereof will be omitted as appropriate.
  • FIG. 13 shows an example of a configuration of the display system 2.
  • the display system 2 includes a display device 40 and an operation terminal 50.
  • the display device 40 has a control unit 41.
  • the control unit 41 has a content analysis unit 43 and a control information generation unit 42.
  • the content analysis unit 43 is configured to analyze the content displayed by the display unit 16 of the display device 40. Specifically, when the display unit 16 displays a video based on, for example, a video signal selected by the tuner 11, the content analysis unit 43 analyzes the broadcast metadata included in the video signal. , It is designed to analyze the content.
  • the control information generation unit 42 is configured to generate control information INF for controlling the light emission operation of the light emitting unit 32 in the operation terminal 50 based on the analysis result of the content analysis unit 43. Then, the display device 40 transmits the control information INF generated by the control information generation unit 42 to the operation terminal 50 via the wireless communication unit 13.
  • the operation terminal 50 has a control unit 57.
  • the control unit 57 has a light emission control unit 58.
  • the light emitting control unit 58 is configured to control the light emitting operation of the light emitting unit 32 based on the control information INF transmitted from the display device 40.
  • FIG. 14 shows an operation example of the display device 40.
  • control unit 41 confirms whether or not the infrared light receiving unit 12 has received the infrared signal transmitted from the operation terminal 50 (step S201).
  • the control unit 41 confirms whether or not the user has performed the channel change operation (step S202). Specifically, the control unit 41 performs a channel change operation by, for example, confirming whether the infrared signal is a signal corresponding to the operation of the number button B3 or the channel button B11 shown in FIG. Check if you went.
  • the content analysis unit 43 uses the broadcast meta included in the video signal corresponding to the channel newly selected by the channel change operation. Based on the data, it is confirmed whether or not the displayed content is sound multiplex broadcasting compatible content (step S203).
  • the sound multiplex broadcasting compatible content includes, for example, content corresponding to multiple languages and content including main audio and sub audio.
  • the control information generation unit 42 includes information indicating that the displayed content is sound multiplex broadcasting compatible content.
  • the content information INF2 is generated (step S204).
  • the content analysis unit 43 confirms whether or not the displayed content is subtitle-compatible content based on the broadcast metadata (step S205).
  • the control information generation unit 42 provides content information INF2 including information indicating that the displayed content is subtitle-compatible content. Generate (step S206).
  • the content analysis unit 43 confirms whether or not the displayed content is data broadcasting compatible content based on the broadcasting metadata (step S207).
  • the control information generation unit 42 contains content information including information indicating that the displayed content is data broadcasting compatible content.
  • Generate INF2 step S208. Then, the process proceeds to step S211.
  • step S202 when the user has not performed the channel change operation (“N” in step S201), the control unit 41 confirms whether or not the user has performed the video streaming service selection operation (step S209). Specifically, the control unit 41 confirms, for example, whether or not the infrared signal is a signal corresponding to the operation of the video service selection button B2 shown in FIG. 2, so that the user can select the video streaming service. Check if you have done. If the user has not performed the video streaming service selection operation (“N” in step S209), this flow ends.
  • step S209 When the user performs the video streaming service selection operation in step S209 (“Y” in step S209), the content displayed by the control information generation unit 42 is the content provided by the operation streaming service.
  • the content information INF2 including the information to that effect is generated (step S210). Then, the process proceeds to step S211.
  • control information generation unit 42 when the control information generation unit 42 generates the content information INF2, the control unit 41 transmits the control information INF including the content information INF2 to the operation terminal 50 via the wireless communication unit 13. (Step S211). This is the end of this flow.
  • FIG. 15 shows an operation example of the display system 2 when the user performs a channel change operation.
  • the control unit 57 of the operation terminal 50 detects this operation and puts the operation state of the operation terminal 50 to sleep. The state is changed from the normal operating state (step S221). Then, the infrared light emitting unit 34 transmits an infrared signal corresponding to this channel change operation (step S222). The infrared light receiving unit 12 of the display device 40 receives this infrared signal.
  • the tuner 11 of the display device 40 switches channels based on the information about the channel change operation included in the infrared signal (step S223).
  • the content analysis unit 43 analyzes the content by analyzing the broadcast metadata included in the video signal selected by the tuner 11 (step S224).
  • the control information generation unit 42 generates the content information INF2 based on the analysis result of the content analysis unit 43 (step S225).
  • the control unit 41 transmits the control information INF including the content information INF2 to the operation terminal 50 via the wireless communication unit 13 (step S226).
  • the control unit 57 of the operation terminal 50 receives this control information INF via the wireless communication unit 35.
  • the light emission control unit 58 of the operation terminal 50 generates light emission control information INFBL based on the content information INF2 included in the control information INF (step S227).
  • the light emitting control unit 58 may use the sound switching button B14 (FIG. 2) in the light emitting unit 32. Generates light emission control information INFBL instructing the light emitting element corresponding to the above to emit light for a predetermined time.
  • the light emission control unit 58 presses the subtitle button B15 (FIG. 2) in the light emitting unit 32. Generates light emission control information INFBL instructing the corresponding light emitting element to emit light for a predetermined time.
  • the light emitting control unit 58 may use the data broadcasting button B19 and the color button in the light emitting unit 32. Generates light emission control information INFBL instructing the light emitting element corresponding to B4 and the number button B3 (FIG. 2) to emit light for a predetermined time.
  • the light emission control unit 58 is not limited to this, for example, when the displayed content is data broadcasting compatible content and the content does not accept the operation of the color button B4 or the number button B3. , The light emission control information INFBL instructing the light emitting element corresponding to the data broadcasting button B19 to emit light for a predetermined time may be generated.
  • the light emission control unit 58 may use the data broadcasting button B19 and the color button B4. , And the light emission control information INFBL instructing the light emitting element corresponding to the number button B3 to emit light for a predetermined time may be generated.
  • the light emitting control unit 58 may use the video content operation button on the light emitting unit 32. Generates light emission control information INFBL instructing the light emitting element corresponding to B16 (FIG. 2) to emit light for a predetermined time.
  • the light emission control unit 58 starts the light emission of the light emission control unit 32 based on the light emission control information INFBL (step S228).
  • the button B instructed by the light emission control information INFBL in the operation unit 31 of the operation terminal 50 is emphasized by the light emitted from the light emitting unit 32.
  • the light emitting control unit 58 ends the light emitting of the light emitting unit 32 after a lapse of a predetermined time based on the light emitting control information INFBL (step S229). This is the end of this sequence.
  • the control information generation unit 42 of the display device 40 generates the control information INF corresponding to the content displayed by the display device 40, and the light emission control unit 58 of the operation terminal 50 performs this.
  • the light emitting operation of the light emitting unit 32 is controlled based on the control information INF.
  • the button B which is likely to be operated by the user, can be emphasized by the light from the light emitting unit 32. Therefore, for example, the user can easily find the button B to be operated among the plurality of buttons B. As a result, the display system 2 can improve the convenience of the user.
  • the control information generation unit of the display device generates control information according to the content displayed by the display device, and the light emission control unit of the operation terminal is based on this control information. Since the light emitting operation of the light emitting unit is controlled, for example, the button that the user wants to operate can be easily found, so that the convenience of the user can be improved. Other effects are the same as in the case of the first embodiment.
  • control information INF includes the content information INF2, but the present invention is not limited to this, and for example, as in the case of the modification 1-1 of the first embodiment.
  • the control information INF may include the light emission control information INFBL instructing the light emission operation of the light emitting unit 32.
  • the button B corresponding to the content is pressed by the light emitting unit 32. I tried to emphasize it with the light from, but it is not limited to this.
  • the corresponding button B may be emphasized for three or less types of contents among these four types of contents.
  • the button B corresponding to the content is emphasized and displayed.
  • the content is data broadcasting compatible content, it is not necessary to emphasize the corresponding button B.
  • the display system 3 according to the present embodiment is configured to analyze the displayed image and control the light emitting operation of the light emitting unit of the operation terminal according to the analysis result.
  • the components substantially the same as those of the display system 1 according to the first embodiment are designated by the same reference numerals, and the description thereof will be omitted as appropriate.
  • FIG. 16 shows an example of a configuration of the display system 3.
  • the display system 3 includes a display device 60 and an operation terminal 70.
  • the display device 60 has a control unit 61.
  • the control unit 61 has an image analysis unit 63 and a control information generation unit 62.
  • the image analysis unit 63 is configured to analyze the image displayed by the display unit 16 based on the video signal. Specifically, the image analysis unit 63 generates information about the average color of all the pixels in the frame image, for example, based on the video signal. In this example, the image analysis unit 63 of the display device 60 analyzes the image, but the present invention is not limited to this, and instead, for example, an external server analyzes the image. May be good.
  • the control information generation unit 62 is configured to generate control information INF for controlling the light emission operation of the light emitting unit 72 in the operation terminal 70 based on the analysis result of the image analysis unit 63. Then, the control unit 61 transmits the control information INF generated by the control information generation unit 62 to the operation terminal 70 via the wireless communication unit 13.
  • the operation terminal 70 has a light emitting unit 72 and a control unit 77.
  • the light emitting unit 72 is configured so that light can be emitted from the entire surface of the operation surface S.
  • the housing and the button B of the operation terminal 70 may be configured by using a translucent material, and the light emitting unit 72 may emit light so that the light is emitted from the operation surface S. it can.
  • the light emitting unit 72 includes, for example, a light emitting element that emits red light, a light emitting element that emits green light, and a light emitting element that emits blue light.
  • the control unit 77 has a light emission control unit 78.
  • the light emitting control unit 78 is configured to control the light emitting operation of the light emitting unit 72 based on the control information INF transmitted from the display device 60.
  • FIG. 17 shows an operation example of the display device 60.
  • the display device 60 repeats the following operations every time a predetermined time (for example, about several seconds) elapses.
  • the image analysis unit 63 analyzes the image displayed by the display unit 16 based on the video signal (step S301).
  • the control information generation unit 62 generates the image color information INF3 based on the analysis result of the image analysis unit 63 (step S302).
  • the image color information INF3 includes information about the average color in the frame image in this example.
  • the image color information INF3 can be represented by using, for example, a luminance signal (Y) and a color difference signal (Cr, Cb).
  • the present invention is not limited to this, and a red signal (R), a green signal (G), and a blue signal (B) may be used for expression.
  • control unit 61 transmits the control information INF including the image color information INF3 to the operation terminal 70 via the wireless communication unit 13 (step S303). This is the end of this flow.
  • FIG. 18 shows an operation example of the display system 3.
  • the image analysis unit 63 of the display device 60 analyzes the image based on the video signal (step S321), and the control information generation unit 62 generates the image color information INF3 based on the image analysis result (step S322). Then, the control unit 61 transmits the control information INF including the image color information INF3 to the operation terminal 70 via the wireless communication unit 13 (step S323).
  • the control unit 77 of the operation terminal 70 receives this control information INF via the wireless communication unit 35.
  • the light emission control unit 78 of the operation terminal 70 generates light emission control information INFBL based on the image color information INF3 included in the control information INF (step S324).
  • the image color information INF3 includes information about, for example, red.
  • the light emitting control unit 78 generates the light emitting control information INFBL by setting the light emitting brightness of each light emitting element so that the light emitting unit 72 emits red light.
  • the image color information INF3 includes information about, for example, green.
  • the light emitting control unit 78 generates light emission control information INFBL instructing each light emitting element to emit light so that the light emitting unit 72 emits green light.
  • the image color information INF3 includes information about blue, for example.
  • the light emitting control unit 78 generates light emission control information INFBL instructing each light emitting element to emit light so that the light emitting unit 72 emits blue light.
  • the light emitting control unit 78 controls the light emitting operation of the light emitting unit 72 based on the light emitting control information INFBL (step S325). As a result, light of a color corresponding to the scene displayed by the display unit 16 is emitted from the operation surface S of the operation terminal 70.
  • the operation terminal 70 can continue to emit light of a color corresponding to the scene displayed by the display unit 16.
  • the control information generation unit 62 of the display device 60 generates the control information INF corresponding to the color displayed by the display unit 16, and the light emission control unit 78 of the operation terminal 70 performs this.
  • the light emitting operation of the light emitting unit 72 is controlled based on the control information INF.
  • the operation terminal 70 can emit light of a color corresponding to the scene displayed by the display unit 16, so that, for example, a user who is viewing the content can feel more realistic. ..
  • control information generation unit of the display device generates control information according to the color displayed by the display unit, and the light emission control unit of the operation terminal is based on this control information. Since the light emitting operation of the light emitting unit is controlled, the user can feel more realistic.
  • control information INF includes the image color information INF3, but the present invention is not limited to this, and for example, the display system 1A according to the modified example 1-1 of the first embodiment.
  • control information INF may include the light emission control information INFBL instructing the light emission operation of the light emitting unit 72.
  • the light emitting unit 72 capable of emitting light from the entire surface of the operation surface S is provided, but the present invention is not limited to this, and for example, a modification 1- of the above first embodiment. Similar to the display system 1B according to No. 3, a light emitting unit 32B that can emphasize a plurality of buttons B in the operation unit 31 by emitting light may be provided. Also in this case, by controlling the emission brightness of the light emitting elements of each color included in the light emitting unit 32B, the light of the color corresponding to the scene displayed by the display unit 16 can be emitted from the operation surface S. ..
  • the display system 4 according to the present embodiment is configured to control the light emitting operation of the light emitting unit of the operation terminal according to the information to be notified when the display device notifies the user of the information.
  • the components substantially the same as the display system 1 according to the first embodiment are designated by the same reference numerals, and the description thereof will be omitted as appropriate.
  • FIG. 19 shows an example of a configuration of the display system 4.
  • the display system 4 includes a display device 80 and an operation terminal 90.
  • the display device 80 has a control unit 81.
  • the control unit 81 has a notification processing unit 83 and a control information generation unit 82.
  • the notification processing unit 83 is configured to confirm whether or not there is information to be notified to the user, and when there is information to be notified to the user, for example, generate a notification message to be displayed on the display unit 16. ..
  • the control information generation unit 82 is configured to generate control information INF for controlling the light emission operation of the light emitting unit 32 in the operation terminal 90 based on the processing of the notification processing unit 83. Then, the control unit 81 transmits the control information INF generated by the control information generation unit 82 to the operation terminal 90 via the wireless communication unit 13.
  • the operation terminal 90 has a control unit 97.
  • the control unit 97 has a light emission control unit 98.
  • the light emitting control unit 98 is configured to control the light emitting operation of the light emitting unit 32 based on the control information INF transmitted from the display device 80.
  • the software distribution server 202 is connected to the Internet NET.
  • the software distribution server 202 is configured to distribute software such as firmware to the display device 60.
  • 20A and 20B show an operation example of the display device 80.
  • the control unit 81 confirms whether or not the software to be updated is newly registered in the software distribution server 202 (step S401).
  • the notification processing unit 83 When the software to be updated is newly registered (“Y” in step S401), the notification processing unit 83 generates a notification message indicating that there is software to be updated, and the display unit 16 displays this notification message. Is displayed (step S402). Then, the control information generation unit 82 generates notification information INF4 including information that there is software to be updated (step S403).
  • control unit 81 confirms whether or not an external device is newly connected to the external device interface 14 (step S404).
  • the notification processing unit 83 generates a notification message indicating that the external device is newly connected, and the display unit 16 displays this notification message.
  • the control information generation unit 82 generates the notification information INF4 including the information that the external device is newly connected (step S406).
  • the control unit 81 confirms whether or not there is newly recorded content in the recording / playback device, for example, when the recording / playback device is connected to the external device interface 14 (step S407).
  • the notification processing unit 83 When there is newly recorded content (“Y” in step S407), the notification processing unit 83 generates a notification message indicating that there is newly recorded content, and the display unit 16 generates this notification message. Is displayed (step S408).
  • the control information generation unit 82 generates the notification information INF4 including the information that there is newly recorded content (step S409).
  • the control unit 81 confirms whether or not there is a proposal for changing the setting to the user (step S410).
  • the notification processing unit 83 generates a notification message about the content of the setting change to be proposed, and the display unit 16 displays this notification message.
  • the control information generation unit 82 generates notification information INF4 including information that there is a proposal for setting change (step S412).
  • the control unit 81 confirms whether or not the content is newly registered in the content server 201 of the video streaming service (step S413).
  • the notification processing unit 83 When the content is newly registered (“Y” in step S413), the notification processing unit 83 generates a notification message indicating that the content is newly registered in the video streaming service, and the display unit 16 displays this. Display the notification message (step S414).
  • the control information generation unit 82 generates the notification information INF4 including the information that the content is newly registered in the video streaming service (step S415).
  • control unit 81 transmits the control information INF including the notification information INF4 to the operation terminal 90 via the wireless communication unit 13 (step S416). This is the end of this flow.
  • FIG. 21 shows an operation example of the display system 4.
  • the notification processing unit 83 of the display device 80 generates a notification message, and the display unit 16 displays this notification message (step S421).
  • the control information generation unit 82 generates the notification information INF4 based on the processing of the notification processing unit 83 (step S422).
  • the control unit 81 transmits the control information INF including the notification information INF4 to the operation terminal 90 via the wireless communication unit 13 (step S423).
  • the control unit 97 of the operation terminal 90 receives this control information INF via the wireless communication unit 35.
  • the light emission control unit 98 of the operation terminal 90 generates light emission control information INFBL based on the notification information INF4 included in the control information INF (step S424).
  • the light emitting control unit 98 determines a light emitting element corresponding to the help button B18 (FIG. 2) in the light emitting unit 32. Generates light emission control information INFBL instructing light emission over time.
  • the light emitting control unit 98 corresponds to the input switching button B7 (FIG. 2) in the light emitting unit 32. Generates light emission control information INFBL instructing the light emitting element to emit light for a predetermined time.
  • the light emitting control unit 98 corresponds to the recording list button B17 (FIG. 2) in the light emitting unit 32. Generates light emission control information INFBL instructing the light emitting element to emit light for a predetermined time.
  • the light emitting control unit 98 is a light emitting element corresponding to the setting button B6 (FIG. 2) in the light emitting unit 32. Generates light emission control information INFBL instructing that the light is emitted for a predetermined time.
  • the light emitting control unit 98 receives the video service selection button B2 (FIG. 2) in the light emitting unit 32. ) Is generated to generate light emission control information INFBL instructing the light emitting element to emit light for a predetermined time.
  • the light emission control unit 98 corresponds to the button B corresponding to the service S1 of the video service selection button B2. It is possible to generate light emission control information INFBL instructing the light emitting element to emit light.
  • the light emission control unit 98 starts the light emission of the light emission control unit 32 based on the light emission control information INFBL (step S425).
  • the button B instructed by the light emission control information INFBL in the operation unit 31 of the operation terminal 90 is emphasized by the light emitted from the light emitting unit 32.
  • the light emitting control unit 98 ends the light emitting of the light emitting unit 32 after a lapse of a predetermined time based on the light emitting control information INFBL (step S426). This is the end of this sequence.
  • the control information generation unit 82 of the display device 80 generates the control information INF according to the information to be notified to the user, and the light emission control unit 98 of the operation terminal 90 generates the control information INF.
  • the light emitting operation of the light emitting unit 32 is controlled based on the above.
  • the button B which is likely to be operated by the user, can be emphasized by the light from the light emitting unit 32. Therefore, for example, the user can easily find the button B to be operated among the plurality of buttons B. As a result, the display system 4 can improve the convenience of the user.
  • the control information generation unit of the display device generates control information according to the information to be notified to the user, and the light emission control unit of the operation terminal is based on this control information. Since the light emitting operation of the above is controlled, for example, the button that the user wants to operate can be easily found, so that the convenience of the user can be improved. Other effects are the same as in the case of the first embodiment.
  • control information INF includes the notification information INF4, but the present invention is not limited to this, and for example, the display system 1A according to the modified example 1-1 of the first embodiment.
  • control information INF may include the light emission control information INFBL instructing the light emission operation of the light emitting unit 32.
  • the software distribution server 202 distributes the software, but the present invention is not limited to this, and for example, a broadcasting station may distribute the software using a digital broadcast wave. Good.
  • the control unit 81 may check whether or not the software has been updated based on the software supplied using the digital broadcast wave.
  • the button B corresponding to the information to be notified in the operation terminal 90 is emphasized by the light from the light emitting unit 32 for a predetermined time, but the present invention is limited to this. It is not something that is done. Instead, for example, when the display unit 16 of the display device 80 displays the notification message in step S421, the button B corresponding to the notification message is emphasized during the period when the display unit 16 is displaying the notification message. You may.
  • the notification processing unit 83 for example, when the user finishes watching the broadcasted movie, provides another movie related to the movie director of the movie among the video streaming services.
  • a notification message indicating that the movie can be viewed in S1 is generated, and the display unit 16 displays this notification message.
  • the control information generation unit 82 generates the notification information INF4 in response to this notification message, and the control unit 81 transmits the control information INF including the notification information INF4 to the operation terminal 90 via the wireless communication unit 13. Send.
  • the operation terminal 90 emphasizes the button B corresponding to the service S1 of the moving image service selection buttons B2 by the light from the light emitting unit 32.
  • the notification processing unit 83 provides the drama to the VOD (Video On Demand) service of the set-top box connected to the external device interface 14.
  • VOD Video On Demand
  • a notification message to the effect that it can be viewed is created, and the display unit 16 displays this notification message.
  • the control information generation unit 82 generates the notification information INF4 in response to this notification message, and the control unit 81 transmits the control information INF including the notification information INF4 to the operation terminal 90 via the wireless communication unit 13.
  • the operation terminal 90 emphasizes the input switching button B7 with the light from the light emitting unit 32 based on the notification information INF4 included in the control information INF.
  • the display device 80 can recommend the content to the user by displaying the notification message based on the content viewed by the user. Then, the operation terminal 90 emphasizes the button B according to the method in which the recommended content can be viewed, so that the user can easily find the button to be operated in order to view the content. Convenience can be enhanced.
  • the light emitting unit 32 of the operation terminal 90 emits light based on the notification information INF4 related to the content transmitted from the display device 80, but the present invention is not limited to this.
  • the notification processing unit 83 of the display device 80 may generate a notification message, and the display unit 16 may display the notification message according to the status of the battery built in the operation terminal 90. Specifically, when the remaining amount of the battery built in the operation terminal 90 is below a predetermined level or the battery built in the operation terminal 90 is charged, the operation terminal 90 is the display device 80. Information on the status of those batteries may be transmitted to the display device 80, and the display unit 16 of the display device 80 may display a notification message corresponding to the information on the status of the received batteries.
  • the information related to the notification such as the information related to the battery status transmitted from the operation terminal 90 to the display device 80 may be the information corresponding to the notification information INF4 and the control information INF, and the wireless communication unit 35 and the wireless communication unit The information may be exchanged via 13.
  • the operation terminal 90 may make the light emitting unit 32 emit light depending on the condition of the built-in battery. In that case, at that time, one or a plurality of buttons B may be emphasized at a predetermined color or at a predetermined timing. Specifically, when the remaining battery level falls below a predetermined level, the power button B1 may be controlled to blink in red, and when the battery charging is started, the power button B1 may be controlled. May be emphasized in a color other than red. At this time, the plurality of buttons B (for example, the power button B1 and the number button B3) may be emphasized. Further, the display device 80 or the operation terminal 90 may make the highlighted expression of the button B of the operation terminal 90 correspond to the notification message displayed on the display unit 16.
  • the color or timing at which the light emitting unit 32 emits light may correspond to the color or timing of the notification message displayed on the display unit 16.
  • the color emitted by the light emitting unit 32 and the frequency of blinking are displayed on the display unit 16. It may be controlled to be the same as the color and blinking frequency of the notification message.
  • the operation terminal 90 displays information on the light emission of the light emitting unit 32 or the state of the battery when placed in the wireless power supply charger. May be sent to.
  • the display system 5 according to the present embodiment is configured to control the light emitting operation of the light emitting unit of the operation terminal according to the voice assistant selected by the user when a plurality of voice assistants are mounted on the display device. Will be done.
  • the components substantially the same as those of the display system 1 according to the first embodiment are designated by the same reference numerals, and the description thereof will be omitted as appropriate.
  • FIG. 22 shows a configuration example of the display system 5.
  • the display system 5 includes a display device 100 and an operation terminal 110.
  • the display device 100 has a control unit 101.
  • the control unit 101 has two voice assistant processing units 103 (voice assistant processing units 103A and 103B) and a control information generation unit 102.
  • the voice assistant processing unit 103 is configured to perform processing according to a user's instruction included in the voice data based on the user's voice data.
  • the voice assistant processing unit 103A realizes the function of the voice assistant VA
  • the voice assistant processing unit 103B realizes the function of the voice assistant VB.
  • the user selects the voice assistant to be used from the voice assistants VA and VB by operating the voice assistant call button B5 of the operation terminal 110.
  • the control unit 101 of the display device 100 selects one of the voice assistants VA and VB based on the button operation code corresponding to the operation of the voice assistant call button B5 received from the operation terminal 110 via the wireless communication unit 13. select.
  • the voice assistant processing unit 103A When the button operation code transmitted from the operation terminal 110 indicates a selection operation of the voice assistant VA by the user, the voice assistant processing unit 103A connects the voice data transmitted from the operation terminal 110 to the Internet NET. It is transmitted to the server 204A. Then, the voice assistant processing unit 103A performs processing according to the user's instruction included in the voice data based on the information analyzed by the server 204A.
  • the voice assistant processing unit 103B When the button operation code transmitted from the operation terminal 110 indicates a user's selection operation of the voice assistant VB, the voice assistant processing unit 103B connects the voice data transmitted from the operation terminal 110 to the Internet NET. It is transmitted to the server 204B. Then, the voice assistant processing unit 103B performs processing according to the user's instruction included in the voice data based on the information analyzed by the server 204B.
  • the control information generation unit 102 generates a control information INF for controlling the light emission operation of the light emitting unit 112 in the operation terminal 110 according to the voice assistant selected by the user among the two voice assistants VA and VB. It is configured as follows. Then, the control unit 101 transmits the control information INF generated by the control information generation unit 102 to the operation terminal 110 via the wireless communication unit 13.
  • the operation terminal 110 has a light emitting unit 112, a microphone 113, and a control unit 117.
  • the light emitting unit 112 is configured to emphasize a plurality of buttons B in the operation unit 31 by emitting light.
  • the light emitting unit 112 has, for example, a plurality of light emitting elements.
  • the plurality of light emitting elements include, for example, a light emitting element that emits red light, a light emitting element that emits green light, and a light emitting element that emits blue light.
  • the microphone 113 is configured to convert, for example, a user's voice into an electric signal.
  • the control unit 117 generates voice data based on the electric signal supplied from the microphone 113, and transmits the voice data to the display device 100 via the wireless communication unit 35.
  • the control unit 117 transmits a button operation code via the wireless communication unit 35, for example, when the user operates the voice assistant call button B5 (FIG. 2).
  • the button operation code includes a press code indicating that the voice assistant call button B5 has been pressed and a release code indicating that the pressed voice assistant call button B5 has been released.
  • the control unit 117 has a light emission control unit 118.
  • the light emitting control unit 118 is configured to control the light emitting operation of the light emitting unit 112 based on the control information INF transmitted from the display device 100.
  • the display device 100 corresponds to a specific example of the "information processing device” in the present disclosure.
  • the control information generation unit 102 corresponds to a specific example of the “generation unit” in the present disclosure.
  • the voice assistant processing unit 103 corresponds to a specific example of the “voice analysis unit” in the present disclosure.
  • FIG. 23 shows an operation example of the display device 100.
  • the control unit 101 confirms whether or not the user operation for the voice assistant call button B5 has been detected (step S501). For example, when the user selects the voice assistant VA, the voice assistant call button B5 (FIG. 2) on the operation terminal 110 is pressed for a short time, and when the voice assistant VB is selected, the voice assistant call button B5 ( Press Fig. 2) for a long time.
  • the button operation code received via the wireless communication unit 13 indicates that the voice assistant call button B5 (FIG. 2) has been pressed for a short time
  • the control unit 101 selects the voice assistant VA and wirelessly.
  • the button operation code received via the communication unit 13 indicates that the voice assistant call button B5 (FIG. 2) has been pressed for a long time
  • the voice assistant VB is selected. If the user operation for the voice assistant call button B5 is not detected (“N” in step S501), this flow ends.
  • the voice assistant VA and VB selection operations are performed based on the length of time that the voice assistant call button B5 is pressed, but the present invention is not limited to this, and for example, the voice assistant call is performed.
  • the voice assistants VA and VB may be selected based on the number of times the button B5 is pressed. For example, when the button operation code received via the wireless communication unit 13 indicates that the voice assistant call button B5 has been pressed once, the control unit 101 selects the voice assistant VA and selects the voice assistant VA. If the button operation code received via the above indicates that the voice assistant call button B5 has been pressed twice in succession, the voice assistant VB may be selected.
  • step S501 When a user operation for the voice assistant call button B5 is detected in step S501, the control unit 101 transmits a microphone activation code to the operation terminal 110 via the wireless communication unit 13 (step S502).
  • step S503 it is confirmed whether or not the voice assistant VA is selected (step S503).
  • the control information generation unit 102 When the voice assistant VA is selected (“Y” in step S503), the control information generation unit 102 generates assistant information INF5 including information indicating that the voice assistant VA has been selected (step S504).
  • the voice assistant VB is selected (“N” in step S503), the control information generation unit 102 generates assistant information INF5 including information indicating that the voice assistant VB is selected (step S505). ..
  • control unit 101 transmits the control information INF including the assistant information INF 5 to the operation terminal 110 via the wireless communication unit 13 (step S506). This is the end of this flow.
  • FIG. 24 shows an operation example of the display system 5 when the user operates the voice assistant call button B5.
  • the control unit 117 of the operation terminal 110 detects this operation and changes the operation state of the operation terminal 110 from the sleep state to the normal operation state (step S521). .. Then, the control unit 117 transmits a button operation code corresponding to the operation of the voice assistant call button B5 via the wireless communication unit 35 (step S522). The control unit 101 of the display device 100 receives this button operation code via the wireless communication unit 13.
  • the control unit 101 of the display device 100 transmits the microphone activation code to the operation terminal 110 via the wireless communication unit 13 (step S523).
  • the control unit 117 of the operation terminal 110 receives the microphone activation code via the wireless communication unit 35.
  • the control unit 117 activates the microphone 113 based on the microphone activation code.
  • the operation terminal 110 receives the voice input.
  • the control unit 101 of the display device 100 selects one of the voice assistants VA and VB based on the information about the operation of the voice assistant call button B5 included in the microphone activation code (step S524).
  • the control information generation unit 102 generates assistant information INF5 based on the selection result of the voice assistant (step S525).
  • the control unit 101 transmits the control information INF including the assistant information INF 5 to the operation terminal 110 via the wireless communication unit 13 (step S526).
  • the control unit 117 of the operation terminal 110 receives this control information INF via the wireless communication unit 35.
  • the light emission control unit 118 of the operation terminal 110 generates light emission control information INFBL based on the assistant information INF5 included in the control information INF (step S527).
  • the light emitting control unit 118 has a voice in the light emitting unit 112 for a period during which the voice assistant VA accepts the voice input. Generates light emission control information INFBL instructing each light emitting element to emit light so that the assistant call button B5 (FIG. 2) is highlighted in orange, for example.
  • the light emitting control unit 118 has the light emitting unit 112 in the light emitting unit 112 for a period during which the voice assistant VB accepts the voice input.
  • Voice assistant call button B5 (FIG. 2) generates light emission control information INFBL instructing each light emitting element to emit light so as to be highlighted in blue, for example.
  • the light emission control unit 118 starts the light emission of the light emission control unit 112 based on the light emission control information INFBL (step S528).
  • the voice assistant call button B5 in the operation unit 31 of the operation terminal 110 is emphasized by the light emitted from the light emitting unit 112.
  • the light emission control unit 118 ends the light emission of the light emitting unit 112 after the period in which the voice assistant accepts the voice input ends (step S529). This is the end of this sequence.
  • the control information generation unit 102 of the display device 100 generates the control information INF corresponding to the selected voice assistant, and the light emission control unit 118 of the operation terminal 110 is used as the control information INF. Based on this, the light emitting operation of the light emitting unit 112 is controlled.
  • the user can easily grasp the selected voice assistant among the two voice assistants VA and VB, and whether or not the selected voice assistant accepts voice input. It can be easily grasped. As a result, the display system 5 can improve the convenience of the user.
  • control information generation unit of the display device generates control information according to the selected voice assistant, and the light emission control unit of the operation terminal is based on this control information. Since the light emission operation is controlled, for example, the user can easily grasp the selected voice assistant, which can improve the convenience of the user. Other effects are the same as in the case of the first embodiment.
  • control information INF includes the assistant information INF5, but the present invention is not limited to this, and for example, the display system 1A according to the modification 1-1 of the first embodiment.
  • control information INF may include the light emission control information INFBL instructing the light emission operation of the light emitting unit 112.
  • the user operates the voice assistant call button B5 to select the voice assistant to be used from the voice assistants VA and VB, but the present invention is not limited to this. Instead, for example, the user issues a voice assistant call word (call word WA, WB) associated with the voice assistants VA and VB, respectively, so that the voice assistant to be used among the voice assistants VA and VB is used. You may choose.
  • the present modification will be described in detail below.
  • FIG. 25 shows a configuration example of the display system 5A according to this modified example.
  • the display system 5A includes a display device 100A and an operation terminal 110A.
  • the display device 100A has a control unit 101A.
  • the control unit 101 has two voice assistant processing units 103 (voice assistant processing units 103A and 103B).
  • the user uses the voice assistants VA and VB by issuing voice assistant call words (call words WA and WB) associated with the voice assistant processes 103A and 103B, respectively, toward the microphone 113 of the operation terminal 110A.
  • Voice and WB voice assistant call words
  • the control unit 101A of the display device 100A selects one of the voice assistants VA and VB based on the assistant selection code including the information about the voice assistant to be used received from the operation terminal 110A via the wireless communication unit 13. It is designed to do.
  • the operation terminal 110A has a control unit 117A.
  • the control unit 117A controls the microphone 113 so as to always accept the voice input, unlike the case of the above embodiment.
  • the control unit 117A has two voice processing units 119 (voice processing units 119A and 119B).
  • the voice processing unit 119A generates an assistant selection code instructing the selection of the voice assistant VA when the voice data acquired by the microphone 113 includes the voice assistant call word (call word WA) associated with the voice assistant VA. To do.
  • the voice processing unit 119B selects an assistant that instructs the selection of the voice assistant VB when the voice data acquired by the microphone 113 includes the voice assistant call word (call word WB) associated with the voice assistant VB.
  • the control unit 117A transmits the generated assistant selection code to the display device 100A via the wireless communication unit 35.
  • FIG. 26 shows an operation example of the display device 100A.
  • control unit 101A confirms whether or not the assistant selection code has been received via the wireless communication unit 13 (step S531). If the assistant selection code has not been received (“N” in step S531), this flow ends.
  • the control unit 101A confirms whether or not the voice assistant VA is selected (step S503).
  • the control information generation unit 102 generates assistant information INF5 including information indicating that the voice assistant VA has been selected (step S504).
  • the control information generation unit 102 generates assistant information INF5 including information indicating that the voice assistant VB is selected (step S505). ..
  • control unit 101A transmits the control information INF including the assistant information INF5 to the operation terminal 110A via the wireless communication unit 13 (step S506). This is the end of this flow.
  • the operation terminal 110 is provided with the microphone 113, but the present invention is not limited to this.
  • the display device may be provided with a microphone.
  • the display system 5B includes a display device 100B and an operation terminal 110B.
  • the display device 100B includes a microphone 108B and a control unit 101B.
  • the operation terminal 110B has a control unit 117B.
  • the control unit 101B of the display device 100B generates audio data based on the electric signal supplied from the microphone 108B of the display device 100B.
  • the control information generation unit 102 of the display device 100B When the voice assistant VA is selected, the control information generation unit 102 of the display device 100B generates assistant information INF5 including information indicating that the voice assistant VA is selected, and when the voice assistant VB is selected. Generates assistant information INF5 that includes information that the voice assistant VB has been selected.
  • the control unit 101B transmits the control information INF including the assistant information INF 5 to the operation terminal 110B via the wireless communication unit 13.
  • the display device 100 is provided with two voice assistant processing units 103, but the present invention is not limited to this, and the display device is provided with one voice assistant processing unit and is connected to the display device.
  • One voice assistant processing unit may be provided in the external device.
  • the external device is, for example, a smart speaker.
  • These display devices and external devices are connected by, for example, a wireless LAN.
  • the smart speaker generates voice data based on the user's voice and transmits the voice data to a server connected to the Internet NET and associated with the smart speaker.
  • the server analyzes this voice data.
  • the server transmits information about the operation instruction to the display device.
  • the voice assistant processing unit of the display device When the voice assistant processing unit of the display device receives an operation instruction for the display device from the server, the voice assistant processing unit of the display device generates assistant information INF5 including information indicating that the voice assistant of the display device is selected. Then, the control unit of the display device transmits the control information INF including the assistant information INF 5 to the operation terminal 110 via the wireless communication unit 13.
  • the voice assistant call button B5 (FIG. 2) is emphasized by the light emitted by the light emitting unit 32 according to the selected voice assistant, but the present invention is not limited to this. Alternatively, for example, depending on the selected voice assistant, all the buttons B on the operating terminal 110 may be emphasized by the light emitted by the light emitting unit 32.
  • the operation is performed according to the selected voice assistant, but the operation is not limited to this.
  • the button B related to the instruction may be emphasized by the light emitted by the light emitting unit 32.
  • the button B corresponding to the service S1 of the video service selection buttons B2 is emphasized by the light emitted by the light emitting unit 32. May be good.
  • the display system 6 according to the present embodiment is configured to control the light emitting operation of the light emitting unit of the operation terminal according to the connected external device when an external device such as a set-top box is connected to the display device. Will be done.
  • the components substantially the same as the display system 1 according to the first embodiment are designated by the same reference numerals, and the description thereof will be omitted as appropriate.
  • FIG. 28 shows an example of a configuration of the display system 6.
  • the display system 6 includes a display device 120 and an operation terminal 130.
  • the display device 120 has a control unit 121.
  • the control unit 121 includes an external device detection unit 123, a switching control unit 124, and a control information generation unit 122.
  • the set-top box 203 is connected to the external device interface 14 of the display device 120.
  • the external device detection unit 123 detects that the external device is connected, and detects the connection through the external device interface 14. By communicating with an external device, it is configured to acquire information about what kind of device this external device is.
  • Types of external devices include, for example, set-top boxes, recording / playback devices, playback devices, and the like.
  • the switching control unit 124 sets the source of the video to be displayed based on the information about the operation of the input switching button B7 included in the infrared signal, and sets the control target by the operation terminal 130 according to the set source. It is configured to do. Specifically, when the set-top box 203 connected to the external device interface 14 is set as the source of the video to be displayed, for example, the switching control unit 124 allows the user to, for example, a number button. When the B3, the cursor button B8, the enter button B9, the channel button B11, the video content operation button B16, and the recording list button B17 are operated, the control target based on these user operations is changed to the set-top box 203.
  • the display device 120 when the display device 120 displays an image based on the image signal selected by the tuner 11, the user operates the operation unit 31 of the operation terminal 130.
  • the display device 120 can remotely operate the display device 120 and the display device 120 displays an image based on the image signal supplied from the set-top box 203, the user can operate the operation unit 31 of the operation terminal 130.
  • the set-top box 203 can be remotely operated by operating.
  • the control information generation unit 122 When the external device connected to the external device interface 14 is selected as the source of the video to be displayed by, for example, the user operating the input switching button B7, the control information generation unit 122 responds to the external device. Therefore, it is configured to generate control information INF for controlling the light emitting operation of the light emitting unit 32 in the operation terminal 130. Then, the control unit 121 transmits the control information INF generated by the control information generation unit 122 to the operation terminal 130 via the wireless communication unit 13.
  • the operation terminal 130 has a control unit 137.
  • the control unit 137 has a light emission control unit 138.
  • the light emitting control unit 138 is configured to control the light emitting operation of the light emitting unit 32 based on the control information INF transmitted from the display device 120.
  • the display device 120 corresponds to a specific example of the "information processing device” in the present disclosure.
  • the control information generation unit 122 corresponds to a specific example of the “generation unit” in the present disclosure.
  • the external device interface 14 corresponds to a specific example of the “connection unit” in the present disclosure.
  • the set-top box 203 corresponds to a specific example of the "external device” in the present disclosure.
  • the external device detection unit 123 corresponds to a specific example of the “acquisition unit” in the present disclosure.
  • FIG. 29 shows an operation example of the display device 120.
  • the set-top box 203 is already connected to the external device interface 14, and the external device detection unit 123 has detected that the set-top box 203 is connected.
  • control unit 121 confirms whether or not, for example, an input switching operation to an external device has been detected (step S601). Specifically, the control unit 121, for example, when the infrared signal received by the infrared light receiving unit 12 indicates that the input switching button B7 has been operated, the control unit 121 of the image to be displayed by the external device after the input switching. Check if it is selected as the source.
  • step S601 When the input switching operation to the external device is detected in step S601 (“Y” in step S601), the switching control unit 124 sets the video source to the external device (step S602), and the operation terminal 130. The control target according to is set to the external device (step S603).
  • control information generation unit 122 generates the external device information INF6 according to the connected external device based on the detection result of the external device detection unit 123 (step S604). Specifically, for example, when the set-top box is connected as an external device, the control information generation unit 122 generates the external device information INF6 including the information that the set-top box is connected.
  • control unit 121 transmits the control information INF including the external device information INF 6 to the operation terminal 130 via the wireless communication unit 13 (step S605). Then, this flow ends.
  • step S601 When the input switching operation to the display device 120 is detected in step S601 (“N” in step S601), the switching control unit 124 sets the video source to the display device 120 (step S606). The control target by the operation terminal 130 is set in the display device 120 (step S607). This is the end of this flow.
  • FIG. 30 shows an operation example of the display system 6 when the set-top box 203 is connected to the display device 120 and the input is switched to the set-top box 203.
  • the control unit 137 of the operation terminal 130 detects this operation, and the control unit 137 changes the operation state of the operation terminal 130 from the sleep state to the normal operation state. (Step S621). Then, the infrared light emitting unit 34 transmits an infrared signal corresponding to the operation of the input switching button B7 (step S622). The infrared light receiving unit 12 of the display device 120 receives this infrared signal.
  • the switching control unit 124 of the display device 120 sets the video source in the set-top box 203 based on the information about the operation of the input switching button B7 included in the infrared signal (step S623), and is controlled by the operation terminal 130.
  • the target is set in the set-top box 203 (step S624).
  • the control information generation unit 122 generates the external device information INF6 including the information that the set-top box is connected based on the detection result of the external device detection unit 123 (step S625).
  • the control unit 121 transmits the control information INF including the external device information INF 6 to the operation terminal 130 via the wireless communication unit 13 (step S626).
  • the control unit 137 of the operation terminal 130 receives this control information INF via the wireless communication unit 35.
  • the light emission control unit 138 of the operation terminal 130 generates the light emission control information INFBL based on the external device information INF6 included in the control information INF (step S627).
  • the light emitting control unit 138 since the external device information INF6 includes the information that the set-top box is connected, the light emitting control unit 138 is used to view the content of the light emitting unit 32 by the set-top box 203. It generates light emission control information INFBL instructing the light emitting element corresponding to the button B to be used to emit light for a predetermined time.
  • the light emission control unit 138 corresponds to, for example, a number button B3, a cursor button B8, an enter button B9, a back button B10, a channel button B11, a volume button B12, a video content operation button B16, and a recording list button B17.
  • the light emission control unit 138 starts the light emission of the light emission control unit 32 based on the light emission control information INFBL (step S628).
  • the button B used for viewing the content by the set-top box 203 in the operation unit 31 of the operation terminal 130 is emphasized by the light emitted from the light emitting unit 32.
  • the light emitting control unit 138 ends the light emitting of the light emitting unit 32 after a predetermined time has elapsed based on the light emitting control information INFBL (step S629). This is the end of this sequence.
  • the control information generation unit 122 of the display device 120 generates the control information INF corresponding to the connected external device, and the light emission control unit 138 of the operation terminal 130 uses this control information INF. Based on this, the light emitting operation of the light emitting unit 32 is controlled. Thereby, in the display system 6, the user can easily grasp the button B that can be used when viewing the content supplied from the connected external device. As a result, the display system 6 can improve the convenience of the user.
  • the control information generation unit of the display device generates control information according to the connected external device, and the light emission control unit of the operation terminal is based on this control information. Since the light emitting operation is controlled, for example, the button B available to the user can be easily grasped, so that the convenience of the user can be improved. Other effects are the same as in the case of the first embodiment.
  • control information INF includes the external device information INF6, but the present invention is not limited to this, and for example, the display system 1A according to the modification 1-1 of the first embodiment.
  • control information INF may include the light emission control information INFBL instructing the light emission operation of the light emitting unit 32.
  • the operation terminal is provided with an infrared light emitting unit 34
  • the display device is provided with an infrared light receiving unit 12, and the operation terminal transmits an infrared signal to the display device, whereby the display device I tried to control the operation, but it is not limited to this.
  • the infrared light emitting unit 34 and the infrared receiving unit 12 are omitted, and the operation terminal operates the display device by using the communication between the wireless communication unit 35 of the operation terminal and the wireless communication unit 13 of the display device. You may control it.
  • the present technology is applied to a display device, but the present technology is not limited thereto, and for example, a hard disk recorder, a Blu-ray disc player, a Blu-ray disc recorder, a set-top box, a smart speaker, and a game. It can be applied to various household electronic devices such as machines.
  • the operation terminal may be a remote control terminal that controls the operation of the set-top box by remote control based on the user's operation. ..
  • a display device which is, for example, a television receiver is connected to the set-top box.
  • the operation terminal may be a controller of the game machine.
  • the light emitting element corresponding to the button B is made to emit light, but the present invention is not limited to this, and for example, various indicators provided on the operation terminal are associated with the button B.
  • the light emitting element which is not used may be made to emit light.
  • this technology can have the following configuration. According to the present technology having the following configuration, the convenience of the user can be enhanced.
  • a generation unit that can generate control information for controlling the light emission of the light emitting unit provided in the operation terminal.
  • An information processing device including a transmission unit capable of transmitting the control information to the operation terminal.
  • the light emission control includes controlling one or more of light emission start, light emission end, light emission brightness, light emission color, light emission time, and light emission cycle.
  • the generation unit can generate the control information based on the detection result of the environment sensor.
  • the environment sensor includes a sensor capable of detecting the brightness of the environment.
  • the information processing device wherein the light emitting unit can emit light when the brightness is darker than a predetermined brightness based on the control information. (6) Based on the control information, the light emitting unit can emit light at the first brightness when the brightness is the first brightness, and the brightness is higher than the first brightness.
  • the information processing apparatus according to (4) above, wherein when the second brightness is dark, light can be emitted at a second brightness brighter than the first brightness.
  • the generation unit can generate the control information based on the content to be processed by the information processing device.
  • the content contains metadata and The content analysis unit can analyze the metadata, and the content analysis unit can analyze the metadata.
  • the content includes image information.
  • (11) The information processing device according to (1) or (2), wherein the generation unit can generate the control information based on the notification information to the user.
  • control information includes information for causing the light emitting unit to emit light so as to correspond to a button related to the notification information presented to the user among a plurality of buttons possessed by the operation terminal.
  • Processing equipment Further provided with a voice processing unit capable of processing voice information received from the user.
  • the information processing device according to (1) or (2), wherein the generation unit can generate the control information based on the processing of the voice processing unit.
  • the voice processing unit includes a plurality of processing units, and one of the plurality of processing units can be selected according to the operation of the user.
  • the information processing apparatus according to (13), wherein the control information is information corresponding to a processing unit selected from the plurality of processing units.
  • connections that can be connected to external devices It also has an acquisition unit that acquires information about the functions of the external device.
  • the information processing device according to (1) or (2), wherein the generation unit can generate the control information based on information about the function of the external device.
  • the control information includes information for causing the light emitting unit to emit light so as to correspond to a button related to the operation of the external device among a plurality of buttons possessed by the operation terminal.
  • Processing equipment 17.
  • An operation unit that can accept user operations and A light emitting unit capable of emitting light from the operation surface of the operation unit, A receiver that can receive control information transmitted from the information processing device,
  • An operation terminal including a control unit capable of controlling light emission of the light emitting unit based on the control information.
  • the control information is provided in the information processing device and includes information corresponding to processing of a voice processing unit capable of processing voice information.
  • the information processing device generates control information for controlling the light emission of the light emitting unit provided in the operation terminal.
  • An information processing method including the operation terminal performing light emission control of the light emitting unit based on the control information transmitted from the information processing device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Environmental Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Emergency Management (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Telephone Function (AREA)
  • Selective Calling Equipment (AREA)

Abstract

本開示の情報処理装置は、操作端末に設けられた発光部の発光制御を行うための制御情報を生成可能な生成部と、操作端末に対して制御情報を送信可能な送信部とを備える。

Description

情報処理装置、操作端末、および情報処理方法
 本開示は、操作端末により操作される情報処理装置、その操作端末、およびそのような情報処理装置において用いられる情報処理方法に関する。
 情報処理装置は、しばしばリモートコントロール装置などの操作端末により操作可能に構成される。例えば特許文献1には、リモートコントロール装置により操作可能なテレビジョン受像機が開示されている。
特開2014-110517号公報
 ところで、情報処理装置では、ユーザの利便性が高いことが望まれており、さらなる利便性の向上が期待されている。
 ユーザの利便性を高めることができる情報処理装置、操作端末、および情報処理方法を提供することが望ましい。
 本開示の一実施の形態における情報処理装置は、生成部と、送信部とを備えている。生成部は、操作端末に設けられた発光部の発光制御を行うための制御情報を生成可能に構成される。送信部は、操作端末に対して制御情報を送信可能に構成される。
 本開示の一実施の形態における操作端末は、操作部と、発光部と、受信部と、制御部とを備えている。操作部は、ユーザの操作を受け付けることが可能に構成される。発光部は、操作部の操作面から光を射出可能に構成される。受信部は、情報処理装置から制御情報を受信可能に構成される。制御部は、制御情報に基づいて、発光部の発光制御を行うことが可能に構成される。
 本開示の一実施の形態における情報処理方法は、情報処理装置が、操作端末に設けられた発光部の発光制御を行うための制御情報を生成することと、情報処理装置が、操作端末に対して制御情報を送信することと、操作端末が、情報処理装置から送信された制御情報に基づいて、発光部の発光制御を行うことを含む。
 本開示の一実施の形態における情報処理装置および情報処理方法では、操作端末に設けられた発光部の発光制御を行うための制御情報が生成され、その制御情報が操作端末に対して送信される。
 本開示の一実施の形態における操作端末および情報処理方法では、情報処理装置から送信された制御情報が受信され、その制御情報に基づいて、操作端末に設けられた発光部の発光制御が行われる。
本開示の第1の実施の形態に係る表示システムの一構成例を表すブロック図である。 一実施の形態に係る操作端末の一構成例を表す説明図である。 図1に示した操作端末の一動作例を表すフローチャートである。 図1に示した制御部37の一動作例を表す説明図である。 図1に示した表示システムの一動作例を表すシーケンス図である。 図1に示した発光制御部37および発光部32の一動作例を表すタイミング図である。 図1に示した発光制御部37および発光部32の一動作例を表す他のタイミング図である。 図1に示した発光制御部37および発光部32の一動作例を表す他のタイミング図である。 図1に示した発光制御部37および発光部32の一動作例を表す他のタイミング図である。 図1に示した発光制御部37および発光部32の一動作例を表す他のタイミング図である。 図1に示した発光制御部37および発光部32の一動作例を表す他のタイミング図である。 図1に示した発光制御部37および発光部32の一動作例を表す他のタイミング図である。 図1に示した発光制御部37および発光部32の一動作例を表す他のタイミング図である。 第1の実施の形態の変形例に係る操作端末の一動作例を表すフローチャートであるである。 第1の実施の形態の変形例に係る表示装置の一動作例を表すフローチャートであるである。 第1の実施の形態の変形例に係る表示システムの一動作例を表すシーケンス図である。 第1の実施の形態の他の変形例に係る表示システムの一構成例を表すブロック図である。 第1の実施の形態の他の変形例に係る表示システムの一構成例を表すブロック図である。 第1の実施の形態の他の変形例に係る操作端末の一構成例を表す説明図である。 第2の実施の形態に係る表示システムの一構成例を表すブロック図である。 図13に示した表示装置の一動作例を表すフローチャートである。 図13に示した表示システムの一動作例を表すシーケンス図である。 第3の実施の形態に係る表示システムの一構成例を表すブロック図である。 図16に示した表示装置の一動作例を表すフローチャートである。 図16に示した表示システムの一動作例を表すシーケンス図である。 第4の実施の形態に係る表示システムの一構成例を表すブロック図である。 図19に示した表示装置の一動作例を表すフローチャートである。 図19に示した表示装置の一動作例を表すフローチャートである。 図19に示した表示システムの一動作例を表すシーケンス図である。 第5の実施の形態に係る表示システムの一構成例を表すブロック図である。 図22に示した表示装置の一動作例を表すフローチャートである。 図22に示した表示システムの一動作例を表すシーケンス図である。 第5の実施の形態の変形例に係る表示システムの一構成例を表すブロック図である。 図25に示した表示装置の一動作例を表すフローチャートである。 第5の実施の形態の他の変形例に係る表示システムの一構成例を表すブロック図である。 第6の実施の形態に係る表示システムの一構成例を表すブロック図である。 図28に示した表示装置の一動作例を表すフローチャートである。 図28に示した表示システムの一動作例を表すシーケンス図である。
 以下、本開示の実施の形態について、図面を参照して詳細に説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(環境の明るさに基づいて発光動作を制御する例)
2.第2の実施の形態(表示しているコンテンツに基づいて発光動作を制御する例)
3.第3の実施の形態(表示している画像の色に基づいて発光動作を制御する例)
4.第4の実施の形態(ユーザへの通知情報に基づいて発光動作を制御する例)
5.第5の実施の形態(選択された音声アシスタントに基づいて発光動作を制御する例)
6.第6の実施の形態(使用する外部機器に基づいて発光動作を制御する例)
<1.第1の実施の形態>
[構成例]
 図1は、第1の実施の形態に係る情報処理装置(表示装置10)を備えた表示システム1の一構成例を表すものである。なお、本開示の一実施の形態に係る情報処理方法は、本実施の形態により具現化されるので、併せて説明する。表示システム1は、表示装置10と、操作端末30とを備えている。
(表示装置10)
 表示装置10は、いわゆるテレビジョン受像機であり、チューナ11と、赤外線受光部12と、無線通信部13と、外部機器インタフェース14と、ネットワーク通信部15と、表示部16と、スピーカ17と、照度センサ18と、電源部19と、制御部21とを有している。
 チューナ11は、アンテナ9により受信されたデジタル放送波から、所望の映像信号(ストリーム)を選択するように構成される。
 赤外線受光部12は、操作端末30から送信された、表示装置10の動作を指示する赤外線信号を受信するように構成される。
 無線通信部13は、近距離無線通信を用いて、操作端末30との間で情報のやりとりを行うように構成される。無線通信部13は、この例では、ブルートゥース(登録商標)を用いて操作端末30との間で通信を行う。なお、これに限定されるものではなく、例えば、Zigbee(登録商標)や、無線LAN(Local Area Network)などを用いてもよい。無線通信部13は、後述するように、操作端末30に対して、操作端末30における発光部32の発光動作を制御するための制御情報INFを送信するようになっている。
 外部機器インタフェース14は、例えばハードディスクレコーダなどの外部機器との間で通信を行うように構成される。外部機器インタフェース14は、例えば、HDMI(登録商標)を用いて外部機器との間で通信を行うようになっている。
 ネットワーク通信部15は、インターネットNETに接続され、このインターネットNETを介して、通信相手との間でネットワーク通信を行うように構成される。ネットワーク通信部15は、例えば、動画ストリーミングサービスのコンテンツサーバ201から、ストリーミングにより映像情報を受信することができるようになっている。
 表示部16は、例えばチューナ11により選択された映像信号に基づいて、映像を表示するように構成される。表示部16は、例えば、液晶ディスプレイや、有機EL(Electro Luminescence)ディスプレイなどを用いて構成される。
 スピーカ17は、例えばチューナ11により選択された映像信号に基づいて、音を発するように構成される。
 照度センサ18は、表示装置10の周囲の環境の明るさを検出するように構成される。制御部21は、この照度センサ18の検出結果に基づいて、表示部16における表示輝度を調節する。また、表示システム1では、後述するように、この照度センサ18の検出結果に基づいて、操作端末30における発光部32の動作を制御するようになっている。
 電源部19は、例えば商用電源から供給された電源信号に基づいて各種電源電圧を生成し、表示装置10内の各ブロックにこれらの電源電圧を供給するように構成される。
 制御部21は、表示装置10の各ブロックの動作を制御することにより、表示装置10の動作を制御するように構成される。制御部21は、例えば、プログラムを実行可能なプロセッサを用いて構成される。制御部21は、制御情報生成部22を有している。制御情報生成部22は、照度センサ18の検出結果に基づいて、操作端末30における発光部32の発光動作を制御するための制御情報INFを生成するように構成される。そして、制御部21は、無線通信部13を介して、この制御情報生成部22が生成した制御情報INFを操作端末30に送信するようになっている。
(操作端末30)
 操作端末30は、ユーザの操作に基づいて、遠隔操作により表示装置10の動作を制御する、いわゆるリモートコントロール端末である。操作端末30は、操作部31と、発光部32と、加速度センサ33と、赤外線発光部34と、無線通信部35と、電源部36と、制御部37とを有している。
 操作部31は、ユーザの操作を受け付けるように構成される。操作部31は、複数のボタンBを有している。制御部37は、複数のボタンBに対するユーザの操作に基づいて、赤外線発光部34に赤外線信号を送信させるようになっている。
 図2は、操作端末30の一構成例を表すものである。複数のボタンBは、操作端末30の操作面Sに配置される。複数のボタンBは、電源ボタンB1、動画サービス選択ボタンB2、数字ボタンB3、カラーボタンB4、音声アシスタント呼出ボタンB5、設定ボタンB6、入力切換ボタンB7、カーソルボタンB8、決定ボタンB9、戻るボタンB10、チャンネルボタンB11、音量ボタンB12、消音ボタンB13、音声切換ボタンB14、字幕ボタンB15、動画コンテンツ操作ボタンB16、録画リストボタンB17、ヘルプボタンB18、およびデータ放送ボタンB19を有している。
 電源ボタンB1は、表示装置10の電源をオンまたはオフにする際に操作される。動画サービス選択ボタンB2は、動画ストリーミングサービスを選択する際に操作される。この例では、動画サービス選択ボタンB2は、互いに異なる6つの動画ストリーミングサービス(サービスS1~S6)に対応する6つのボタンを含んでいる。数字ボタンB3は、視聴したいチャンネルを選択する際や、数字を入力する際に操作される。この例では、数字ボタンB3は、12個のボタンを含んでいる。カラーボタンB4は、例えばデータ放送対応コンテンツや電子番組表において選択操作を行う際に操作される。音声アシスタント呼出ボタンB5は、音声アシスタントを呼び出す際に操作される。設定ボタンB6は、表示装置10の設定を行うための設定画面を表示する際に操作される。入力切換ボタンB7は、例えば、チューナ11や、外部機器インタフェース14に接続された外部機器などのうち、表示すべき映像のソースを選択する際に操作される。カーソルボタンB8は、例えばデータ放送対応コンテンツや電子番組表においてカーソルを移動させる際に操作される。決定ボタンB9は、決定操作を行う際に操作される。戻るボタンB10は、例えば一つ前のメニューに戻る際に操作される。チャンネルボタンB11は、視聴したいチャンネルを選択する際に操作される。音量ボタンB12は、音量を調節する際に操作される。消音ボタンB13は、消音する際に操作される。音声切換ボタンB14は、例えば音声多重放送対応コンテンツにおいて、音声を選択する際に操作される。具体的には、音声切換ボタンB14は、例えば、多言語に対応したコンテンツでは、英語または日本語を選択する際に操作され、主音声および副音声を含むコンテンツでは、主音声および副音声を選択する際に操作される。字幕ボタンB15は、字幕対応コンテンツにおいて、字幕表示をオンまたはオフに設定する際に操作される。動画コンテンツ操作ボタンB16は、動画コンテンツを再生する際に操作される。動画コンテンツ操作ボタンB16は、この例では、再生ボタン、早戻しボタン、早送りボタン、前ボタン、次ボタン、停止ボタン、一時停止ボタンを含んでいる。録画リストボタンB17は、例えば外部機器インタフェース14に録画再生機器が接続されている場合において、録画されたコンテンツのリストを表示する際に操作される。ヘルプボタンB18は、例えば操作方法についてのガイダンスなどのヘルプ情報を表示する際に操作される。データ放送ボタンB19は、データ放送対応コンテンツにおいて、データ放送を表示する際に選択される。
 操作部31は、このように複数のボタンBを有している。これらのボタンBは、これらのボタンBの裏に設けられた発光部32が射出した光により強調されることができるように構成される。具体的には、例えば、半透明な素材を用いてボタンBを構成し、ボタンBが発光部32から射出された光を透過することにより、そのボタンBが強調されるようにすることができる。なお、これに限定されるものではなく、例えば、光を通さない素材を用いてボタンBを構成し、ボタンBの周囲の隙間から、発光部32から射出された光が漏れることにより、そのボタンBが強調されるようにしてもよい。
 発光部32は、光を射出することにより、操作部31における複数のボタンBを強調するように構成される。発光部32は、複数の発光素子を有している。複数の発光素子は、例えば、個別に発光動作が制御されることができるようになっている。複数の発光素子は、例えば、複数のボタンBの裏に設けられる。具体的には、例えば、発光部32は、動画サービス選択ボタンB2に含まれる6つのボタンにそれぞれ対応する6つの発光素子を有している。よって、発光部32は、6つの発光素子が個別に光を射出することにより、これらの6つのボタンを個別に強調することができる。また、例えば、発光部32は、数字ボタンB3に含まれる12個のボタンに対応する1つの発光素子を有している。よって、発光部32は、この発光素子が光を射出することにより、これらの12個のボタンをまとめて強調することができるようになっている。
 加速度センサ33は、操作端末30の動きを検出するように構成される。なお、この例では加速度センサ33を設けたが、これに限定されるものではなく、操作端末30の動きを検出することができるセンサであれば、どのようなものであってもよい。具体的には、例えばジャイロセンサを設けるようにしてもよい。
 赤外線発光部34は、操作端末30の赤外線受光部12に対して、表示装置10の動作を指示する赤外線信号を送信するように構成される。
 無線通信部35は、近距離無線通信を用いて、表示装置10の無線通信部13との間で情報のやりとりを行うように構成される。無線通信部35は、後述するように、表示装置10から送信された、発光部32の発光動作を制御するための制御情報INFを受信するようになっている。
 電源部36は、例えば電池から供給された電圧を、操作端末30内の各ブロックに供給するように構成される。電源部36に電源を供給する電池は、充電池であってもよい。充電池は、例えばQi(登録商標)などのワイヤレス給電を用いて充電可能なものであってもよい。
 制御部37は、操作端末30の各ブロックの動作を制御することにより、操作端末30の動作を制御するように構成される。また、制御部37は、操作端末30の各ブロックの動作を制御することにより、操作端末30の動作状態をスリープ状態または通常動作状態にすることができる。スリープ状態では、例えば、電源部36は、操作部31、加速度センサ33、制御部37を除く様々なブロックへの電圧の供給を停止するようになっている。制御部37は、例えば、プログラムを実行可能なプロセッサを用いて構成される。制御部37は、発光制御部38を有している。発光制御部38は、表示装置10から送信された制御情報INFに基づいて、発光部32の発光動作を制御するように構成される。
 この構成により、表示システム1では、表示装置10の制御情報生成部22が、照度センサ18の検出結果に基づいて、操作端末30における発光部32の発光動作を制御するための制御情報INFを生成する。そして、表示装置10の無線通信部13が、操作端末30の無線通信部35に対して、この制御情報INFを送信する。操作端末30の発光制御部38は、この制御情報INFに基づいて、発光部32の発光動作を制御する。これにより、表示システム1では、例えば、表示装置10の周囲が暗い場合に、発光部32から射出された光により操作部31を強調することができ、その結果、ユーザが容易に操作端末30を操作することができるようになっている。
 この例では、操作端末30は、インターネットNETに接続可能なネットワーク通信部を有しておらず、赤外線発光部34あるいは無線通信部35を用いて、外部機器への情報の送信あるいは外部機器からの情報の受信を行うことができるように構成される。なお、これに限定されず、操作端末30は、インターネットNETに接続可能なネットワーク通信部を有していてもよい。この場合には、操作端末30は、ネットワーク通信を利用することができるため、様々な機能を実現することができる。また、例えばスマートフォンやタブレット端末を用いて操作端末を実現してもよい。
 ここで、表示装置10は、本開示における「情報処理装置」の一具体例に対応する。制御情報生成部22は、本開示における「生成部」の一具体例に対応する。制御情報INFは、本開示における「制御情報」の一具体例に対応する。無線通信部13は、本開示における「送信部」の一具体例に対応する。照度センサ18は、本開示における「環境センサ」の一具体例に対応する。操作端末30は、本開示における「操作端末」の一具体例に対応する。操作部31は、本開示における「操作部」の一具体例に対応する。発光部32は、本開示における「発光部」の一具体例に対応する。無線通信部35は、本開示における「受信」の一具体例に対応する。発光制御部38は、本開示における「制御部」の一具体例に対応する。
[動作および作用]
 続いて、本実施の形態の表示システム1の動作および作用について説明する。
(全体動作概要)
 まず、図1を参照して、表示システム1の全体動作概要を説明する。表示装置10において、チューナ11は、アンテナ9により受信された放送波から、所望の映像信号を選択する。赤外線受光部12は、操作端末30の赤外線発光部34から送信された、表示装置10の動作を指示する赤外線信号を受信する。無線通信部13は、近距離無線通信を用いて、操作端末30の無線通信部35との間で情報のやりとりを行う。外部機器インタフェース14は、外部機器との間で通信を行う。ネットワーク通信部15は、複数のコンテンツサーバ201から動画ストリーミングにより映像情報を受信する。表示部16は、例えばチューナ11により選択された映像信号に基づいて、映像を表示する。スピーカ17は、例えばチューナ11により選択された映像信号に基づいて、音を発する。照度センサ18は、表示装置10の周囲の環境の明るさを検出する。電源部19は、例えば商用電源から供給された電源信号に基づいて各種電源電圧を生成し、表示装置10内の各ブロックにこれらの電源電圧を供給する。制御部21は、表示装置10の各ブロックの動作を制御することにより、表示装置10の動作を制御する。
 操作端末30において、操作部31の複数のボタンBは、ユーザの操作を受け付ける。発光部32は、光を射出することにより、操作部31における複数のボタンBを強調する。加速度センサ33は、操作端末30の動きを検出する。赤外線発光部34は、操作端末30の赤外線受光部12に対して、表示装置10の動作を指示する赤外線信号を送信する。無線通信部35は、近距離無線通信を用いて、表示装置10の無線通信部13との間で情報のやりとりを行う。電源部36は、例えば電池から供給された電圧を、操作端末30内の各ブロックに供給する。制御部37は、操作端末30の各ブロックの動作を制御することにより、操作端末30の動作を制御する。
 表示装置10の制御情報生成部22は、照度センサ18の検出結果に基づいて、操作端末30における発光部32の発光動作を制御するための制御情報INFを生成する。無線通信部13は、この制御情報生成部22が生成した制御情報INFを操作端末30に送信する。操作端末30の無線通信部35は、表示装置10から送信された制御情報INFを受信する。発光制御部38は、この制御情報INFに基づいて、発光部32の発光動作を制御する。
(詳細動作)
 図3は、操作端末30の一動作例を表すものである。操作端末30は、動きを検出した場合や、操作部31に対するユーザ操作を検出した場合に、表示装置10に対して、制御情報INFの送信要求を行う。そして、操作端末30は、表示装置10から送信された制御情報INFに基づいて、発光部32の発光動作を制御する。以下に、この動作について詳細に説明する。
 まず、制御部37は、加速度センサ33の検出結果に基づいて、操作端末30の動きを検出したかどうかを確認する(ステップS101)。例えば、ユーザが机の上に置かれた操作端末30を持ち上げた場合に、制御部37は、操作端末30の動きを検出する。
 ステップS101において、操作端末30の動きを検出していない場合(ステップS101において“N”)には、制御部37は、操作部31に対するユーザ操作を検出したかどうかを確認する(ステップS102)。例えば、ユーザが、机の上に置かれた操作端末30のボタンBを操作した場合に、制御部37は、操作部31に対するユーザ操作を検出する。操作部31に対するユーザ操作を検出していない場合(ステップS102において“N”)には、ステップS101に戻り、制御部37は、操作端末30の動きを検出し、あるいは操作部31に対するユーザ操作を検出するまで、ステップS101,S102を繰り返す。
 ここで、操作端末30の制御部37は、所定の間隔で操作端末30の動きを検出するように、加速度センサ33を制御してもよい。また、制御部37は、操作端末30の動きや操作部31に対するユーザ操作を検出した際には、動きやユーザ操作を検出する前とは異なる間隔で操作端末30の動きを検出するようにしてもよい。例えば、図4で示すように、制御部37は、通常、500msの検出間隔Tで加速度(操作端末30の動き)を検出することができる。また、制御部37が操作端末30の動きの検出もしくは操作部31に対するユーザ操作を検出した場合に、制御部37は、100msの検出間隔Tで加速度を検出するようにしてもよい。そして、発光制御部38が発光部32を発光させ、発光を終了させた後に、所定の時間(例えば30秒)が経過してから、検出間隔Tを500msに戻してもよい。これにより、例えば、ユーザが操作端末30を持ち上げてから、発光部32が発光するまでの遅延を抑えることが可能になる。
 ステップS101において、操作端末30の動きを検出した場合(ステップS101において“Y”)や、ステップS102において、操作部31に対するユーザ操作を検出した場合(ステップS102において“Y”)には、制御部37は、操作端末30の動作状態をスリープ状態から通常動作状態に変化させる(ステップS103)。
 次に、制御部37は、無線通信部35を介して、表示装置10に対して制御情報INFの送信要求を行う(ステップS104)。この例では、制御情報INFは、照度センサ18の検出結果を示すセンサ情報INF1を含む。そして、制御部37は、この送信要求に応じて表示装置10から送信された制御情報INFを、無線通信部35を介して受信する。
 次に、制御部37の発光制御部38は、制御情報INFに含まれるセンサ情報INF1が示す環境の明るさが、所定の明るさよりも暗いかどうかを確認する(ステップS105)。所定の明るさよりも明るい場合(ステップS105において“N”)には、このフローは終了する。すなわち、環境の明るさが所定の明るさよりも明るい場合には、ユーザは、操作端末30の操作部31の各ボタンBを容易に視認することができるので、発光制御部38が発光部32を発光させることなく、このフローは終了する。
 ステップS105において、センサ情報INF1が示す環境の明るさが所定の明るさよりも暗い場合(ステップS105において“Y”)には、発光制御部38は、このセンサ情報INF1に基づいて、発光部32の発光動作を指示する発光制御情報INFBLを生成する(ステップS106)。この発光制御情報INFBLは、例えば、発光部32の各発光素子の発光開始、発光終了、発光輝度、発光時間、発光周期などについての情報を含んでいる。
 そして、発光制御部38は、この発光制御情報INFBLに基づいて、発光部32の発光動作を制御する(ステップS107)。これにより、操作端末30の操作部31が、発光部32から射出された光により強調される。
 以上で、このフローは終了する。
 図5は、暗い環境において、ユーザが机の上に置かれた操作端末30を持ち上げた場合における、表示システム1の一動作例を表すものである。
 ユーザが操作端末30を持ち上げると、操作端末30の制御部37は、操作端末30の動きを検出し、操作端末30の動作状態をスリープ状態から通常動作状態に変化させる(ステップS121)。そして、制御部37は、無線通信部35を介して、表示装置10に対して、センサ情報INF1を含む制御情報INFの送信要求を行う(ステップS122)。表示装置10の制御部21は、無線通信部13を介して、この送信要求を受け取る。
 表示装置10の制御情報生成部22は、この送信要求に応じて、照度センサ18の検出結果をセンサ情報INF1として取得する(ステップS123)。この例では、センサ情報INF1は、所定の明るさよりも暗い、環境の明るさについての情報を含んでいる。そして、制御部21は、このセンサ情報INF1を含む制御情報INFを、無線通信部13を介して、操作端末30に対して送信する(ステップS124)。操作端末30の制御部37は、無線通信部35を介して、この制御情報INFを受信する。
 操作端末30の発光制御部38は、この制御情報INFに含まれるセンサ情報INF1に基づいて発光制御情報INFBLを生成する(ステップS125)。すなわち、この例では、環境の明るさが所定の明るさよりも暗いので、発光制御部38は、このセンサ情報INF1に基づいて発光制御情報INFBLを生成する。この例では、発光制御情報INFBLは、発光部32における全ての発光素子を所定の時間にわたり発光させることを指示する情報である。
 次に、発光制御部38は、この発光制御情報INFBLに基づいて、発光部32の発光を開始させる(ステップS126)。これにより、操作端末30の操作部31が、発光部32から射出された光により強調される。そして、発光制御部38は、この発光制御情報INFBLに基づいて、所定時間経過後に、発光部32の発光を終了させる(ステップS127)。
 以上で、このシーケンスは終了する。
 発光制御部38は、発光部32の発光開始時および発光終了時のうちの一方または双方において、発光部32の発光方法を変えるように制御してもよい。例えば、発光部32が、発光開始時および発光終了時において、現在の輝度から目標輝度まで、緩やかに輝度を変化させ、目標輝度に達した後は一定の輝度で発光するようにしてもよい。また、緩やかに輝度が変化する期間の長さや、一定の輝度を保つ期間の長さは、所定の時間であってもよいし、操作端末30の使用状況に応じて動的に変化してもよい。図6A~6Hに、発光部32の発光方法の例を示す。
(ケースC1、ボタンBの押下時間TPが短い場合)
 図6Aの例では、ユーザが操作部31を操作した場合において、発光部32の輝度が発光開始時および発光終了時に緩やかに変化する。この例では、ユーザがボタンBを押下している。発光開始から発光終了までの時間が3秒に設定され、目標輝度での発光時間は1秒に設定されている。具体的には、発光部32の輝度は、発光開始から緩やかに上昇して1秒後に目標輝度に達し、1秒間一定の輝度に維持され、その後に緩やかに下がって1秒後に0(ゼロ)になる。例えば、ボタンBの押下時間TPが十分に短い場合(例えば、1秒以下)には、発光部32は、上記の通り発光開始から発光終了(消灯)まで3秒間発光する。
(ケースC2、ボタンBの押下時間TPが長い場合)
 図6Bの例では、図6Aの場合と同様に、発光開始から発光終了までの時間が3秒に設定されている場合において、ユーザがボタンBを図6Aの場合よりも長く押下している。ボタンB押下時間TPが1秒を超える場合には、発光部32の輝度は、ユーザがボタンBを押下している間に、目標輝度まで1秒で緩やかに上昇し、その後は一定の輝度に維持される。そして、発光部32の輝度は、ユーザがボタンBを押下し終えてから1秒が経過するまで、一定の輝度に維持される。ユーザがボタンBを押下し終えてから1秒が経過した後、発光部32の輝度は、緩やかに下がって1秒後に0(ゼロ)になる。
(ケースC3、ボタンBの押下時間TPが所定の時間を超える場合)
 図6Cの例では、図6Aの場合と同様に、発光開始から発光終了までの時間が3秒に設定されている場合において、ユーザがボタンBを図6Bの場合よりも長く押下している。ボタンBの押下時間TPが1秒を超え、さらに所定の時間(例えば60秒)を超える場合には、発光部32の輝度は、ユーザがボタンBを押下している間に、目標輝度まで1秒で緩やかに上昇し、その後は所定の時間(例えば60秒)が経過するまでに、一定の輝度に維持される。この所定の時間が経過した後、発光部32の輝度は、緩やかに下がって1秒後に0(ゼロ)になる。
(ケースC4、発光終了中にボタンBが押下された場合)
 図6Dの例では、図6Aの場合と同様に、発光開始から発光終了までの時間が3秒に設定されている場合において、発光終了中にユーザがボタンBを再度押下する。このとき、発光部32の輝度は、ユーザがボタンBを再度押下したタイミングにおける輝度から、目標輝度まで緩やかに上昇する。ボタンBが押下されたタイミングから輝度が目標輝度に到達するまでの時間は、発光終了動作が開始されてからボタンBが押下されるまでの時間と同じであってもよい。発光部32の輝度は、目標輝度に再度達してから1秒間維持され、その後に緩やかに下がって1秒後に0(ゼロ)になる。この例では、発光終了中にユーザがボタンBを再度押下した場合について説明したが、発光部32が目標輝度を維持している間にユーザがボタンBを再度押下した場合には、ユーザがボタンBを再度押下したタイミングから1秒経過後に発光終了動作へ移行するようにしてもよい。
(ケースC5、輝度上昇中に加速度を検出した場合)
 図6Eの例では、図6Aの場合と同様に、発光開始から発光終了までの時間が3秒に設定されている。この例では、発光開始時において、ユーザは操作端末30を動かすことによりユーザ操作を行っている。このように、発光部32の輝度が増加している期間(この例では1秒間)のみにおいてユーザ操作に応じた加速度が検出された場合には、発光部32は、図6Aの場合と同様に、発光開始から発光終了(消灯)まで3秒間発光する。
(ケースC6、輝度維持中に加速度を検出した場合)
 図6Fの例では、図6Eの場合と同様に、発光開始から発光終了までの時間が3秒に設定されている場合において、発光開始から1秒が経過し、発光部32が目標輝度を維持している期間に、さらにユーザ操作に応じた加速度が検出される。このとき、発光部32の輝度は、目標輝度を維持している期間において加速度が検出されたタイミングから1秒が経過した後、緩やかに下がって1秒後に0(ゼロ)になる。
(ケースC7、発光終了中に加速度を検出した場合)
 図6Gの例では、図6Eの場合と同様に、発光開始から発光終了までの時間が3秒に設定されている場合において、発光終了中に、さらにユーザ操作に応じた加速度が検出される。このとき、発光部32の輝度は、発光終了中に最初に加速度を検出したタイミングにおける輝度から、目標輝度まで緩やかに上昇する。最初に加速度を検出したタイミングから輝度が目標輝度に到達するまでの時間は、発光終了動作が開始されてから最初に加速度を検出するまでの時間と同じであってもよい。
(ケースC8、ボタンBの押下後に加速度を検出した場合)
 図6Hの例では、図6Aの場合と同様に、発光開始から発光終了までの時間が3秒に設定されている場合において、発光部32は、ボタンBの押下に応じた発光の後、加速度の検出に応じた発光を行う。ここでは、図6Cの例と同様に、ユーザはまずボタンBを所定の時間(例えば60秒)よりも長く押下する。これにより、発光部32は、このボタンBの押下に応じた発光処理を合計で61秒間行った後、輝度を0にする。その後、ユーザが操作端末30を動かしたことによる加速度が検出された場合、発光部32は再び発光処理を行う。なお、図4に示したように、ある実施の形態においては、ボタンBの押下や加速度の検出から所定の時間(例えば30秒)が経過するまでの間は、加速度センサ33の検出間隔Tが通常よりも短くなる。よって、加速度の検出に応じた発光がボタンBの押下に応じた発光から所定の時間以内に行われた場合には、ユーザが操作端末30を動かしてから、発光部32が発光するまでの応答時間が短くなる。
 このように、図6Aから図6Hを用いてケースC1~C8までの発光制御の例を示したが、上述の発光制御は一例であり、これらの例に限定されない。例えば、ケースC1の例では、発光開始から目標輝度まで変化する時間、目標輝度を維持する時間、および発光終了にかかる時間をそれぞれ1秒としたが、これに限定されるものではなく、例えば、1秒よりも短くてもよいし、1秒よりも長くてもよい。また、発光開始時および発光終了時の双方において、発光部32の輝度が緩やかに変化するようにしたが、これに限定されるものではない。例えば、発光開始時および発光終了時のうちのどちらか一方においてのみ、発光部32の輝度が緩やかに変化するようにしてもよい。また、例えば、発光開始時および発光終了時の双方において、発光部32の輝度が緩やかに変化しないようにしてもよい。この場合、発光部32の輝度は、短時間で目標輝度(一定輝度の状態または輝度0の状態)に変化する。また、発光終了中にボタンBの押下を検出した場合や加速度を検出した場合にのみ、発光部32の輝度が、緩やかに変化せずに短時間で目標輝度に変化するようにしてもよい。
 このように、表示システム1では、表示装置10の制御情報生成部22が、表示部16の表示輝度を調節するための照度センサ18を利用して、その照度センサ18の検出結果に応じた制御情報INFを生成し、操作端末30の発光制御部38が、この制御情報INFに基づいて発光部32の発光動作を制御するようにした。これにより、表示システム1では、例えば、表示装置10の周囲が暗い場合に、発光部32からの光により操作部31を強調することができるので、ユーザが容易に操作端末30を操作することができる。その結果、表示システム1では、ユーザの利便性を高めることができる。
 また、表示システム1では、環境の明るさが所定の明るさよりも暗い場合に、発光部32の発光動作を制御するようにしたので、表示装置10の周囲が明るい場合には、発光部32は発光しないで済むので、消費電力を低減することができる。その結果、表示システム1では、例えば、操作端末30に用いられる電池の交換回数や電池の充電回数を減らすことができるので、ユーザの利便性を高めることができる。
 また、表示システム1では、制御情報INFに基づいて発光部32の発光動作を制御するようにしたので、例えば、発光部32の発光を開始させてから所定の時間が経過した後に、発光部32の発光を終了させることができる。これにより、発光部32の発光時間を制限することができるので、消費電力を低減することができる。その結果、表示システム1では、例えば、操作端末30に用いられる電池の交換回数や電池の充電回数を減らすことができるので、ユーザの利便性を高めることができる。
 また、表示システム1では、表示装置10に設けられた、表示部16の表示輝度を調節するための照度センサ18を利用するようにしたので、操作端末30に照度センサを設ける必要がないため、操作端末30の部品点数を削減することができる。その結果、表示システム1では、例えば操作端末30のコストを削減することができる。
[効果]
 以上のように本実施の形態では、表示装置の制御情報生成部が、照度センサの検出結果に応じた制御情報を生成し、操作端末の発光制御部が、この制御情報に基づいて発光部の発光動作を制御するようにしたので、例えば、表示装置の周囲が暗い場合に、発光部からの光により操作部を強調することができるので、ユーザの利便性を高めることができる。
 本実施の形態では、環境の明るさが所定の明るさよりも暗い場合に、発光部の発光動作を制御するようにしたので、例えば、操作端末に用いられる電池の交換回数や電池の充電回数を減らすことができるので、ユーザの利便性を高めることができる。
 本実施の形態では、制御情報に基づいて発光部の発光動作を制御するようにしたので、例えば、発光部の発光を開始させてから所定の時間が経過した後に、発光部の発光を終了させることができる。これにより、例えば、操作端末に用いられる電池の交換回数や電池の充電回数を減らすことができるので、ユーザの利便性を高めることができる。
 本実施の形態では、表示装置に設けられた、表示部の表示輝度を調節するための照度センサを利用するようにしたので、操作端末のコストを削減することができる。
[変形例1-1]
 上記実施の形態では、制御情報INFがセンサ情報INF1を含むようにしたが、これに限定されるものではなく、操作端末30における発光部32の発光動作を制御するための様々な情報を含むことができる。以下に、制御情報INFが、発光部32の発光動作を指示する発光制御情報INFBLを含む例について、詳細に説明する。
 本変形例に係る表示システム1Aは、上記実施の形態の場合(図1)と同様に、表示装置10Aと、操作端末30Aとを有している。表示装置10Aは、制御部21Aを有している。制御部21Aは、制御情報生成部22Aを有している。制御情報生成部22Aは、照度センサ18の検出結果に基づいて、発光制御情報INFBLを含む制御情報INFを生成するように構成される。操作端末30Aは、制御部37Aを有している。制御部37Aは、発光制御部38Aを有している。発光制御部38Aは、発光制御情報INFBLを含む制御情報INFに基づいて、発光部32の発光動作を制御するように構成される。
 図7は、操作端末30Aの一動作例を表すものである。
 まず、制御部37Aは、加速度センサ33の検出結果に基づいて、操作端末30Aの動きを検出したかどうかを確認する(ステップS101)。操作端末30Aの動きを検出していない場合(ステップS101において“N”)には、制御部37Aは、操作部31に対するユーザ操作を検出したかどうかを確認する(ステップS102)。操作部31に対するユーザ操作を検出していない場合(ステップS102において“N”)には、ステップS101に戻る。
 ステップS101において、操作端末30Aの動きを検出した場合(ステップS101において“Y”)や、ステップS102において、操作部31に対するユーザ操作を検出した場合(ステップS102において“Y”)には、制御部37Aは、操作端末30Aの動作状態をスリープ状態から通常動作状態に変化させる(ステップS103)。
 次に、制御部37Aは、無線通信部35を介して、表示装置10Aに対して制御情報INFの送信要求を行う(ステップS134)。この例では、制御情報INFは、発光部32の発光動作を指示する発光制御情報INFBLを含む。そして、制御部37Aは、この送信要求に応じて表示装置10Aから送信された制御情報INFを、無線通信部35を介して受信する。
 次に、制御部37Aの発光制御部38Aは、この制御情報INFに含まれる発光制御情報INFBLに基づいて、発光部32の発光動作を制御する(ステップS137)。これにより、操作端末30Aの操作部31が、発光部32から射出された光により強調される。以上で、このフローは終了する。
 図8は、表示装置10Aの一動作例を表すものである。
 まず、表示装置10Aは、操作端末30Aから、発光制御情報INFBLを含む制御情報INFの送信要求を受け取ったかどうかを確認する(ステップS141)。制御情報INFの送信要求を受け取った場合(ステップS141において“Y”)には、制御部21Aの制御情報生成部22Aは、照度センサ18の検出結果をセンサ情報INF1として取得する(ステップS142)。
 次に、制御情報生成部22Aは、センサ情報INF1が示す環境の明るさが、所定の明るさよりも暗いかどうかを確認する(ステップS143)。所定の明るさよりも暗い場合(ステップS143において“Y”)には、制御情報生成部22Aは、このセンサ情報INF1に基づいて、発光部32を発光させる指示を含む発光制御情報INFBLを生成する(ステップS144)。また、所定の明るさよりも明るい場合(ステップS143において“N”)には、制御情報生成部22Aは、このセンサ情報INF1に基づいて、発光部32を発光させない指示を含む発光制御情報INFBLを生成する(ステップS145)。
 そして、制御部21Aは、この発光制御情報INFBLを含む制御情報INFを、無線通信部13を介して、操作端末30Aに対して送信する(ステップS146)。以上で、このフローは終了する。
 図9は、暗い環境において、ユーザが机の上に置かれた操作端末30Aの操作部31を操作した場合における、表示システム1Aの一動作例を表すものである。
 ユーザが操作端末30Aの操作部31を操作すると、操作端末30Aの制御部37Aは、そのユーザ操作を検出し、操作端末30Aの動作状態をスリープ状態から通常動作状態に変化させる(ステップS151)。そして、制御部37Aは、無線通信部35を介して、表示装置10Aに対して、発光制御情報INFBLを含む制御情報INFの送信要求を行う(ステップS152)。表示装置10Aの無線通信部13は、この送信要求を受け取る。
 表示装置10Aの制御情報生成部22Aは、この送信要求に応じて、照度センサ18の検出結果をセンサ情報INF1として取得する(ステップS153)。この例では、センサ情報INF1は、所定の明るさよりも暗い、環境の明るさについての情報を含んでいる。そして、制御情報生成部22Aは、このセンサ情報INF1に基づいて発光制御情報INFBLを生成する(ステップS154)。この例では、環境の明るさが所定の明るさよりも暗いので、制御情報生成部22Aは、このセンサ情報INF1に基づいて、発光部32における全ての発光素子を所定の時間にわたり発光させることを指示する発光制御情報INFBLを生成する。そして、制御部21Aは、この発光制御情報INFBLを含む制御情報INFを、無線通信部13を介して、操作端末30Aに対して送信する(ステップS155)。操作端末30Aの制御部37Aは、無線通信部35を介して、この制御情報INFを受信する。
 次に、操作端末30Aの発光制御部38Aは、この制御情報INFに含まれる発光制御情報INFBLに基づいて、発光部32の発光を開始させる(ステップS126)。これにより、操作端末30Aの操作部31が、発光部32から射出された光により強調される。そして、発光制御部38Aは、この発光制御情報INFBLに基づいて、所定時間経過後に、発光部32の発光を終了させる(ステップS127)。以上で、このシーケンスは終了する。
[変形例1-2]
 上記実施の形態では、発光制御部38は、センサ情報INF1が示す環境の明るさが所定の明るさよりも暗い場合に、発光部32における全ての発光素子を発光させることを指示する発光制御情報INFBLを生成したが、これに限定されるものではない。これに代えて、例えば、センサ情報INF1が示す環境の明るさが暗いほど、発光部32における全ての発光素子の発光輝度を高い輝度で発光させることを指示する発光制御情報INFBLを生成してもよい。
[変形例1-3]
 上記実施の形態では、制御情報生成部22は、照度センサ18が検出した環境の明るさに基づいて制御情報INFを生成したが、これに限定されるものではない。制御情報生成部は、環境についての他のパラメータにも基づいて制御情報INFを生成してもよい。以下に、本変形例について、いくつか例を挙げて詳細に説明する。
 図10は、本変形例に係る表示システム1Bの一構成例を表すものである。表示システム1Bは、表示装置10Bと、操作端末30Bとを備えている。
 表示装置10Bは、色センサ18Bと、制御部21Bとを有している。
 色センサ18Bは、表示装置10の周囲の環境の色を検出するように構成される。具体的には、色センサ18Bは、例えば、表示装置10Bが配置された部屋の照明の色を検出することができるようになっている。制御部21Bは、この色センサ18Bの検出結果に基づいて、表示部16における表示色を調節するようになっている。ここで、照度センサ18および色センサ18Bは、本開示における「環境センサ」の一具体例に対応する。
 制御部21Bは、制御情報生成部22Bを有している。制御情報生成部22Bは、照度センサ18の検出結果および色センサ18Bの検出結果に基づいて、制御情報INFを生成するように構成される。すなわち、制御情報生成部22Bは、環境の明るさおよび環境の色に基づいて、制御情報INFを生成するようになっている。
 操作端末30Bは、発光部32Bと、制御部37Bとを備えている。
 発光部32Bは、光を射出することにより、操作部31における複数のボタンBを強調するように構成される。発光部32Bは、例えば、複数の発光素子を有している。複数の発光素子は、例えば、赤色光を射出する発光素子、緑色光を射出する発光素子、および青色光を射出する発光素子を含んでいる。
 制御部37Bは、発光制御部38Bを有している。発光制御部38Bは、表示装置10Bから送信された制御情報INFに基づいて、発光部32Bの発光動作を制御するように構成される。具体的には、発光制御部38Bは、例えば、表示装置10Bが配置された部屋の照明の色が昼白色である場合には、発光部32Bが白色の光を射出するように各発光素子を発光させることを指示する発光制御情報INFBLを生成する。また、発光制御部38Bは、例えば、表示装置10Bが配置された部屋の照明の色が電球色である場合には、発光部32Bが温かみのある色の光を射出するように各発光素子を発光させることを指示する発光制御情報INFBLを生成する。すなわち、この例では、発光制御情報INFBLは、発光部32Bの発光色についての情報をも含んでいる。
 この構成により、表示システム1Bでは、照度センサ18により得られた環境の明るさについての情報、および色センサ18Bにより得られた環境の色についての情報に基づいて、発光部32Bの発光動作を制御することができる。
 図11は、本変形例に係る他の表示システム1Cの一構成例を表すものである。表示システム1Cは、表示装置10Cと、操作端末30Bとを備えている。表示装置10Cは、カメラ18Cと、制御部21Cとを有している。
 カメラ18Cは、表示装置10Cの前のユーザを撮像することにより撮像画像を生成するように構成される。表示装置10Cは、この撮像画像を利用して、例えばテレビ電話の機能を実現することができるようになっている。撮像画像は、環境の明るさや環境の色についての情報を含んでいる。ここで、カメラ18Cは、本開示における「環境センサ」の一具体例に対応する。
 制御部21Cは、制御情報生成部22Cを有している。制御情報生成部22Cは、カメラ18Cにより得られた撮像画像に基づいて、制御情報INFを生成するように構成される。すなわち、表示装置10B(図10)に係る制御情報生成部22Bは、照度センサ18により得られた環境の明るさについての情報、および色センサ18Bにより得られた環境の色についての情報に基づいて、制御情報INFを生成したが、制御情報生成部22Cは、カメラ18Cにより得られた環境の明るさおよび環境の色についての情報に基づいて、制御情報INFを生成する。
 この構成により、表示システム1Cでは、カメラ18Cにより得られた環境の明るさおよび環境の色についての情報に基づいて、発光部32Bの発光動作を制御することができる。
[変形例1-4]
 上記実施の形態では、図2に示したように、操作端末30は、複数のボタンBを有するようにしたが、これに限定されるものではなく、これに代えて、例えば、図12に示す操作端末30Dのように、複数のボタンBに加えて、さらに表示部39Dを有するようにしてもよい。表示部39Dは、例えば、液晶ディスプレイや、有機ELディスプレイなどを用いて構成される。この場合、発光部32は、上記実施の形態の場合と同様に、光を射出することにより、複数のボタンBを強調するようにしてもよい。本変形例に係る発光制御部38Dは、制御情報INFに基づいて、発光部32の発光動作を制御するとともに表示部39Dの表示動作をも制御してもよい。具体的には、発光制御部38Dは、制御情報INFに基づいて、例えば、発光部32を発光させるとともに、表示部39Dに情報を表示させるようにすることができる。
 また、例えば、操作端末は、例えば、表示部に加えてタッチパネルを有していてもよい。この場合には、ユーザは、表示部に表示されたボタン画像をタッチすることにより、操作を行うことができる。発光制御部は、制御情報INFに基づいて、表示部がボタン画像を強調表示するように、表示部の表示動作を制御することができる。例えば、スマートフォンを操作端末として利用してもよい。
[変形例1-5]
 上記の実施の形態では、照度センサ18を表示装置10に設けたが、これに限定されるものではなく、操作端末30に照度センサを設けてもよい。そして、操作端末30の発光制御部38は、表示装置10の照度センサ18の検出結果と、操作端末30の照度センサの検出結果に基づいて、発光部32の発光動作を制御するようにしてもよい。また、操作端末30に設けられた照度センサを用いることにより、表示装置10に設けられた照度センサ18を用いずに発光動作を制御できる場合には、発光制御部38は、操作端末30における照度センサの検出結果のみを用いて発光動作を制御してもよい。その場合には、表示装置10に照度センサ18を設けなくてもよい。
 同様に、例えば、変形例1-3の表示システム1B(図10)では、照度センサ18および色センサ18Bを表示装置10Bに設けたが、これに限定されるものではなく、操作端末30Bに、照度センサおよび色センサを設けてもよい。そして、発光制御部38Bは、表示装置10Bの照度センサ18および色センサ18Bの検出結果と、操作端末30の照度センサおよび色センサの検出結果に基づいて、発光部32の発光動作を制御するようにしてもよい。また、操作端末30Bに設けられた照度センサおよび色センサの一方または双方を用いることにより、表示装置10Bに設けられた照度センサ18および色センサ18Bの一方または双方を用いずに発光動作を制御できる場合には、発光制御部38Bは、操作端末30Bにおけるセンサの検出結果のみを用いて発光動作を制御してもよい。その場合には、表示装置10Bに照度センサ18および色センサ18Bの一方または双方を設けなくてもよい。
 また、表示装置10Bの制御部21Bは、操作端末30Bに設けられた照度センサおよび色センサの一方または双方によって取得された環境情報(例えば、環境の明るさや環境の色)を操作端末30Bから受信することにより、表示装置10Bの動作を制御してもよい。具体的には、例えば、制御部21Bは、操作端末30Bの照度センサによって取得された環境の明るさに関する情報に基づいて、表示部16の表示輝度を調整してもよい。また、例えば、制御部21Bは、操作端末30Bの色センサによって取得された環境の色に関する情報に基づいて、表示部16の表示コントラストを調整してもよい。このように操作端末30Bに設けられた環境センサの情報を用いることにより、表示装置10Bの表示部16から発せられる光の反射による影響が少なくなるような環境情報を取得することができる。なお、操作端末30Bの環境センサに基づく表示装置10Bの制御は、表示部16の制御に限定されず、表示装置10Bのいかなる設定が変更されてもよい。また、操作端末30Bの環境センサから表示装置10Bへ送信されるセンサ情報は、センサ情報INF1や制御情報INFに対応する情報であってもよい。
 また、操作端末30Bに照度センサや色センサなどの環境センサを設ける場合には、電源部36は、操作端末30Bの動きの検出または操作部31に対するユーザ操作の検出に基づいて、検出タイミングに応じた短い期間においてのみ、操作端末30Bの環境センサに電源電圧を供給してもよい。また、操作端末30Bが赤外線信号を送信する場合には、操作端末30Bの照度センサに対する赤外線信号および電源電圧の揺れの影響を小さくするために、赤外線信号の送信タイミングと照度検出処理のタイミングとを互いにずらすようにしてもよい。具体的には、例えば、制御部37Bは、ユーザが操作部31のボタンBを押下した際に、照度センサを用いて環境の明るさに関する情報を検出し、照度センサによる検出処理が終了した後に、ボタンBに対応する赤外線信号を表示装置10Bなどの操作対象機器へ送信するように赤外線発光部34を制御してもよい。
 また、制御部21Bは、操作端末30Bの環境センサだけでなく、加速度センサ33の検出結果を用いて表示装置10Bを操作してもよい。具体的には、制御部21Bは、例えば、操作端末30Bの照度センサまたは加速度センサ33の検出結果に基づいて、操作端末30が裏返されたと判断した場合に、表示部16への電源電圧の供給を停止し、あるいは表示装置10Bの電源をオフにしてもよい。このとき、表示装置10Bは、例えば、操作部31や照度センサが設けられた操作面Sが鉛直方向において下向きに向けられたこと示すセンサ情報を、操作端末30Bから受信するようにしてもよい。
[その他の変形例]
 また、これらの変形例のうちの2以上を組み合わせてもよい。
<2.第2の実施の形態>
 次に、第2の実施の形態に係る表示システム2について説明する。本実施の形態に係る表示システム2は、表示装置が表示するコンテンツに応じて操作端末の発光部の発光動作を制御するように構成される。なお、上記第1の実施の形態に係る表示システム1と実質的に同一の構成部分には同一の符号を付し、適宜説明を省略する。
 図13は、表示システム2の一構成例を表すものである。表示システム2は、表示装置40と、操作端末50とを備えている。
 表示装置40は、制御部41を有している。制御部41は、コンテンツ解析部43と、制御情報生成部42とを有している。
 コンテンツ解析部43は、表示装置40の表示部16が表示するコンテンツを解析するように構成される。具体的には、コンテンツ解析部43は、表示部16が、例えばチューナ11により選択された映像信号に基づいて映像を表示する場合には、その映像信号に含まれる放送メタデータを解析することにより、コンテンツを解析するようになっている。
 制御情報生成部42は、コンテンツ解析部43の解析結果に基づいて、操作端末50における発光部32の発光動作を制御するための制御情報INFを生成するように構成される。そして、表示装置40は、無線通信部13を介して、この制御情報生成部42が生成した制御情報INFを操作端末50に送信するようになっている。
 操作端末50は、制御部57を有している。制御部57は、発光制御部58を有している。発光制御部58は、表示装置40から送信された制御情報INFに基づいて、発光部32の発光動作を制御するように構成される。
 図14は、表示装置40の一動作例を表すものである。
 まず、制御部41は、赤外線受光部12が、操作端末50から送信された赤外線信号を受信したかどうかを確認する(ステップS201)。
 赤外線受光部12が赤外線信号を受信した場合(ステップS201において“Y”)には、制御部41は、ユーザがチャンネル変更操作を行ったかどうかを確認する(ステップS202)。具体的には、制御部41は、例えば、赤外線信号が、図2に示した数字ボタンB3やチャンネルボタンB11の操作に応じた信号であるかどうかを確認することにより、ユーザがチャンネル変更操作を行ったかどうかを確認する。
 ステップS202において、ユーザがチャンネル変更操作を行った場合(ステップS202において“Y”)には、コンテンツ解析部43は、チャンネル変更操作により新たに選択されたチャンネルに対応する映像信号に含まれる放送メタデータに基づいて、表示しているコンテンツが音声多重放送対応コンテンツであるかどうかを確認する(ステップS203)。音声多重放送対応コンテンツは、例えば、多言語に対応したコンテンツや、主音声および副音声を含むコンテンツなどがある。表示しているコンテンツが音声多重放送対応コンテンツである場合(ステップS203において“Y”)には、制御情報生成部42は、表示しているコンテンツが音声多重放送対応コンテンツである旨の情報を含むコンテンツ情報INF2を生成する(ステップS204)。
 次に、コンテンツ解析部43は、その放送メタデータに基づいて、表示しているコンテンツが字幕対応コンテンツであるかどうかを確認する(ステップS205)。表示しているコンテンツが字幕対応コンテンツである場合(ステップS205において“Y”)には、制御情報生成部42は、表示しているコンテンツが字幕対応コンテンツである旨の情報を含むコンテンツ情報INF2を生成する(ステップS206)。
 次に、コンテンツ解析部43は、その放送メタデータに基づいて、表示しているコンテンツがデータ放送対応コンテンツであるかどうかを確認する(ステップS207)。表示しているコンテンツがデータ放送対応コンテンツである場合(ステップS207において“Y”)には、制御情報生成部42は、表示しているコンテンツがデータ放送対応コンテンツである旨の情報を含むコンテンツ情報INF2を生成する(ステップS208)。そして、ステップS211に進む。
 ステップS202において、ユーザがチャンネル変更操作を行っていない場合(ステップS201において“N”)には、制御部41は、ユーザが動画ストリーミングサービスの選択操作を行ったかどうかを確認する(ステップS209)。具体的には、制御部41は、例えば、赤外線信号が、図2に示した動画サービス選択ボタンB2の操作に応じた信号であるかどうかを確認することにより、ユーザが動画ストリーミングサービスの選択操作を行ったかどうかを確認する。ユーザが動画ストリーミングサービスの選択操作を行っていない場合(ステップS209において“N”)には、このフローは終了する。
 ステップS209において、ユーザが動画ストリーミングサービスの選択操作を行った場合(ステップS209において“Y”)には、制御情報生成部42は、表示しているコンテンツが、動作ストリーミングサービスが提供するコンテンツである旨の情報を含むコンテンツ情報INF2を生成する(ステップS210)。そして、ステップS211に進む。
 そして、制御部41は、制御情報生成部42がコンテンツ情報INF2を生成した場合には、このコンテンツ情報INF2を含む制御情報INFを、無線通信部13を介して、操作端末50に対して送信する(ステップS211)。以上で、このフローは終了する。
 図15は、ユーザがチャンネル変更操作を行った場合における、表示システム2の一動作例を表すものである。
 ユーザが、例えば操作端末50の数字ボタンB3やチャンネルボタンB11を操作することによりチャンネル変更操作を行うと、操作端末50の制御部57は、この操作を検出し、操作端末50の動作状態をスリープ状態から通常動作状態に変化させる(ステップS221)。そして、赤外線発光部34は、このチャンネル変更操作に応じた赤外線信号を送信する(ステップS222)。表示装置40の赤外線受光部12は、この赤外線信号を受信する。
 表示装置40のチューナ11は、この赤外線信号に含まれるチャンネル変更操作についての情報に基づいて、チャンネルを切り換える(ステップS223)。そして、コンテンツ解析部43は、チューナ11により選択された映像信号に含まれる放送メタデータを解析することにより、コンテンツを解析する(ステップS224)。制御情報生成部42は、コンテンツ解析部43の解析結果に基づいて、コンテンツ情報INF2を生成する(ステップS225)。そして、制御部41は、このコンテンツ情報INF2を含む制御情報INFを、無線通信部13を介して、操作端末50に対して送信する(ステップS226)。操作端末50の制御部57は、無線通信部35を介して、この制御情報INFを受信する。
 操作端末50の発光制御部58は、この制御情報INFに含まれるコンテンツ情報INF2に基づいて発光制御情報INFBLを生成する(ステップS227)。
 例えば、コンテンツ情報INF2が、表示しているコンテンツが音声多重放送対応コンテンツである旨の情報を含んでいる場合には、発光制御部58は、発光部32における、音声切換ボタンB14(図2)に対応する発光素子を所定の時間にわたり発光させることを指示する発光制御情報INFBLを生成する。
 また、例えば、コンテンツ情報INF2が、表示しているコンテンツが字幕対応コンテンツである旨の情報を含んでいる場合には、発光制御部58は、発光部32における、字幕ボタンB15(図2)に対応する発光素子を所定の時間にわたり発光させることを指示する発光制御情報INFBLを生成する。
 また、例えば、コンテンツ情報INF2が、表示しているコンテンツがデータ放送対応コンテンツである旨の情報を含んでいる場合には、発光制御部58は、発光部32における、データ放送ボタンB19、カラーボタンB4、および数字ボタンB3(図2)に対応する発光素子を所定の時間にわたり発光させることを指示する発光制御情報INFBLを生成する。なお、これに限定されるものではなく、例えば、表示しているコンテンツがデータ放送対応コンテンツであり、カラーボタンB4や数字ボタンB3の操作を受け付けないコンテンツである場合には、発光制御部58は、データ放送ボタンB19に対応する発光素子を所定の時間にわたり発光させることを指示する発光制御情報INFBLを生成するようにしてもよい。また、例えば、表示しているコンテンツがデータ放送対応コンテンツであり、かつ、カラーボタンB4や数字ボタンB3の操作を受け付けるコンテンツである場合に、発光制御部58は、データ放送ボタンB19、カラーボタンB4、および数字ボタンB3に対応する発光素子を所定の時間にわたり発光させることを指示する発光制御情報INFBLを生成してもよい。
 また、例えば、コンテンツ情報INF2が、表示しているコンテンツが動画ストリーミングサービスが提供するコンテンツである旨の情報を含んでいる場合には、発光制御部58は、発光部32における、動画コンテンツ操作ボタンB16(図2)に対応する発光素子を所定の時間にわたり発光させることを指示する発光制御情報INFBLを生成する。
 次に、発光制御部58は、この発光制御情報INFBLに基づいて、発光部32の発光を開始させる(ステップS228)。これにより、操作端末50の操作部31における、発光制御情報INFBLにより指示されたボタンBが、発光部32から射出された光により強調される。そして、発光制御部58は、この発光制御情報INFBLに基づいて、所定時間経過後に、発光部32の発光を終了させる(ステップS229)。以上で、このシーケンスは終了する。
 このように、表示システム2では、表示装置40の制御情報生成部42が、表示装置40が表示しているコンテンツに応じた制御情報INFを生成し、操作端末50の発光制御部58が、この制御情報INFに基づいて発光部32の発光動作を制御するようにした。これにより、表示システム2では、ユーザが操作する可能性が高いボタンBを、発光部32からの光により強調することができる。よって、例えば、ユーザは、複数のボタンBのうちの操作したいボタンBを容易に見つけることができる。その結果、表示システム2では、ユーザの利便性を高めることができる。
 以上のように本実施の形態では、表示装置の制御情報生成部が、表示装置が表示しているコンテンツに応じた制御情報を生成し、操作端末の発光制御部が、この制御情報に基づいて発光部の発光動作を制御するようにしたので、例えば、ユーザが操作したいボタンを容易に見つけることができるので、ユーザの利便性を高めることができる。その他の効果は、上記第1の実施の形態の場合と同様である。
[変形例2-1]
 上記実施の形態では、制御情報INFがコンテンツ情報INF2を含むようにしたが、これに限定されるものではなく、例えば、上記第1の実施の形態の変形例1-1の場合と同様に、制御情報INFが、発光部32の発光動作を指示する発光制御情報INFBLを含んでもよい。
[変形例2-2]
 上記実施の形態では、表示しているコンテンツが音声多重放送対応コンテンツ、字幕対応コンテンツ、データ放送対応コンテンツ、動画ストリーミングサービスが提供するコンテンツである場合に、そのコンテンツに対応するボタンBを発光部32からの光により強調するようにしたが、これに限定されるものではない。例えば、これらの4種類のコンテンツのうちの3種類以下のコンテンツについて、対応するボタンBを強調するようにしてもよい。具体的には、例えば、表示しているコンテンツが音声多重放送対応コンテンツ、字幕対応コンテンツ、動画ストリーミングサービスが提供するコンテンツである場合に、そのコンテンツに対応するボタンBを強調し、表示しているコンテンツがデータ放送対応コンテンツである場合には、対応するボタンBを強調しなくてもよい。
<3.第3の実施の形態>
 次に、第3の実施の形態に係る表示システム3について説明する。本実施の形態に係る表示システム3は、表示している映像を解析し、その解析結果に応じて操作端末の発光部の発光動作を制御するように構成される。なお、上記第1の実施の形態に係る表示システム1と実質的に同一の構成部分には同一の符号を付し、適宜説明を省略する。
 図16は、表示システム3の一構成例を表すものである。表示システム3は、表示装置60と、操作端末70とを備えている。
 表示装置60は、制御部61を有している。制御部61は、画像解析部63と、制御情報生成部62とを有している。
 画像解析部63は、映像信号に基づいて、表示部16が表示する画像を解析するように構成される。具体的には、画像解析部63は、例えば、映像信号に基づいて、フレーム画像において、全画素での平均色についての情報を生成するようになっている。なお、この例では、表示装置60の画像解析部63が、画像を解析するようにしたが、これに限定されるものではなく、これに代えて、例えば、外部のサーバが画像を解析してもよい。
 制御情報生成部62は、画像解析部63の解析結果に基づいて、操作端末70における発光部72の発光動作を制御するための制御情報INFを生成するように構成される。そして、制御部61は、無線通信部13を介して、この制御情報生成部62が生成した制御情報INFを操作端末70に送信するようになっている。
 操作端末70は、発光部72と、制御部77とを有している。
 発光部72は、操作面Sの全面から光を射出することができるように構成される。具体的には、例えば、半透明な素材を用いて操作端末70の筺体およびボタンBを構成し、発光部72が光を射出することにより、操作面Sから光が射出するようにすることができる。発光部72は、例えば、赤色光を射出する発光素子、緑色光を射出する発光素子、および青色光を射出する発光素子を含んでいる。
 制御部77は、発光制御部78を有している。発光制御部78は、表示装置60から送信された制御情報INFに基づいて、発光部72の発光動作を制御するように構成される。
 図17は、表示装置60の一動作例を表すものである。表示装置60は、所定の時間(例えば数秒程度)が経過する度に、以下の動作を繰り返し行う。
 まず、画像解析部63は、映像信号に基づいて、表示部16が表示する画像を解析する(ステップS301)。
 次に、制御情報生成部62は、画像解析部63の解析結果に基づいて、画像色情報INF3を生成する(ステップS302)。画像色情報INF3は、この例では、フレーム画像における平均色についての情報を含む。画像色情報INF3は、例えば輝度信号(Y)および色差信号(Cr,Cb)を用いて表すことができる。なお、これに限定されるものではなく、赤色信号(R)、緑色信号(G)、および青色信号(B)を用いて表してもよい。
 そして、制御部61は、この画像色情報INF3を含む制御情報INFを、無線通信部13を介して、操作端末70に対して送信する(ステップS303)。以上で、このフローは終了する。
 図18は、表示システム3の一動作例を表すものである。
 表示装置60の画像解析部63は、映像信号に基づいて画像を解析し(ステップS321)、制御情報生成部62は、この画像解析結果に基づいて画像色情報INF3を生成する(ステップS322)。そして、制御部61は、この画像色情報INF3を含む制御情報INFを、無線通信部13を介して、操作端末70に対して送信する(ステップS323)。操作端末70の制御部77は、無線通信部35を介して、この制御情報INFを受信する。
 操作端末70の発光制御部78は、この制御情報INFに含まれる画像色情報INF3に基づいて発光制御情報INFBLを生成する(ステップS324)。
 例えば、表示部16が、何かが燃えているシーンを表示している場合には、画像色情報INF3は、例えば赤色についての情報を含む。この場合には、発光制御部78は、発光部72が赤色の光を射出するように各発光素子の発光輝度を設定することにより、発光制御情報INFBLを生成する。また、例えば、表示部16が森林のシーンを表示している場合には、画像色情報INF3は、例えば緑色についての情報を含む。この場合には、発光制御部78は、発光部72が緑色の光を射出するように各発光素子を発光させることを指示する発光制御情報INFBLを生成する。また、例えば、表示部16が海のシーンや青空のシーンを表示している場合には、画像色情報INF3は、例えば青色についての情報を含む。この場合には、発光制御部78は、発光部72が青色の光を射出するように各発光素子を発光させることを指示する発光制御情報INFBLを生成する。
 次に、発光制御部78は、この発光制御情報INFBLに基づいて、発光部72の発光動作を制御する(ステップS325)。これにより、操作端末70の操作面Sから、表示部16が表示しているシーンに応じた色の光が射出される。
 以上で、このシーケンスは終了する。このシーケンスが繰り返されることにより、操作端末70は、表示部16が表示しているシーンに応じた色の光を射出し続けることができる。
 このように、表示システム3では、表示装置60の制御情報生成部62が、表示部16が表示している色に応じた制御情報INFを生成し、操作端末70の発光制御部78が、この制御情報INFに基づいて発光部72の発光動作を制御するようにした。これにより、操作端末70は、表示部16が表示しているシーンに応じた色の光を射出することができるので、例えば、コンテンツを視聴しているユーザは、より臨場感を感じることができる。
 以上のように本実施の形態では、表示装置の制御情報生成部が、表示部が表示している色に応じた制御情報を生成し、操作端末の発光制御部が、この制御情報に基づいて発光部の発光動作を制御するようにしたので、ユーザがより臨場感を感じることができる。
[変形例3-1]
 上記実施の形態では、制御情報INFが画像色情報INF3を含むようにしたが、これに限定されるものではなく、例えば、上記第1の実施の形態の変形例1-1に係る表示システム1Aの場合と同様に、制御情報INFが、発光部72の発光動作を指示する発光制御情報INFBLを含んでもよい。
[変形例3-2]
 上記実施の形態では、操作面Sの全面から光を射出することができる発光部72を設けたが、これに限定されるものではなく、例えば、上記第1の実施の形態の変形例1-3に係る表示システム1Bと同様に、光を射出することにより、操作部31における複数のボタンBを強調することができる発光部32Bを設けてもよい。この場合にも、発光部32Bに含まれる各色の発光素子の発光輝度を制御することにより、表示部16が表示しているシーンに応じた色の光を、操作面Sから射出することができる。
<4.第4の実施の形態>
 次に、第4の実施の形態に係る表示システム4について説明する。本実施の形態に係る表示システム4は、表示装置がユーザに対して情報の通知を行う際に、通知する情報に応じて操作端末の発光部の発光動作を制御するように構成される。なお、上記第1の実施の形態に係る表示システム1と実質的に同一の構成部分には同一の符号を付し、適宜説明を省略する。
 図19は、表示システム4の一構成例を表すものである。表示システム4は、表示装置80と、操作端末90とを備えている。
 表示装置80は、制御部81を有している。制御部81は、通知処理部83と、制御情報生成部82とを有している。
 通知処理部83は、ユーザに通知すべき情報があるかどうかを確認し、ユーザに通知すべき情報がある場合に、例えば、表示部16に表示すべき通知メッセージを生成するように構成される。
 制御情報生成部82は、通知処理部83の処理に基づいて、操作端末90における発光部32の発光動作を制御するための制御情報INFを生成するように構成される。そして、制御部81は、無線通信部13を介して、この制御情報生成部82が生成した制御情報INFを操作端末90に送信するようになっている。
 操作端末90は、制御部97を有している。制御部97は、発光制御部98を有している。発光制御部98は、表示装置80から送信された制御情報INFに基づいて、発光部32の発光動作を制御するように構成される。
 また、この例では、インターネットNETには、ソフトウェア配信サーバ202が接続されている。ソフトウェア配信サーバ202は、表示装置60に対して、例えばファームウェアなどのソフトウェアを配信するように構成される。
 図20A,20Bは、表示装置80の一動作例を表すものである。
 まず、制御部81は、ソフトウェア配信サーバ202に、アップデートすべきソフトウェアが新たに登録されたかどうかを確認する(ステップS401)。アップデートすべきソフトウェアが新たに登録された場合(ステップS401において“Y”)には、通知処理部83は、アップデートすべきソフトウェアがある旨の通知メッセージを生成し、表示部16は、この通知メッセージを表示する(ステップS402)。そして、制御情報生成部82は、アップデートすべきソフトウェアがある旨の情報を含む通知情報INF4を生成する(ステップS403)。
 次に、制御部81は、新たに外部機器が外部機器インタフェース14に接続されたかどうかを確認する(ステップS404)。新たに外部機器が外部機器インタフェース14に接続された場合には、通知処理部83は、新たに外部機器が接続された旨の通知メッセージを生成し、表示部16は、この通知メッセージを表示する(ステップS405)。そして、制御情報生成部82は、新たに外部機器が接続された旨の情報を含む通知情報INF4を生成する(ステップS406)。
 次に、制御部81は、例えば録画再生機器が外部機器インタフェース14に接続されている場合において、その録画再生機器に新たに録画されたコンテンツがあるかどうかを確認する(ステップS407)。新たに録画されたコンテンツがある場合(ステップS407において“Y”)には、通知処理部83は、新たに録画されたコンテンツがある旨の通知メッセージを生成し、表示部16は、この通知メッセージを表示する(ステップS408)。そして、制御情報生成部82は、新たに録画されたコンテンツがある旨の情報を含む通知情報INF4を生成する(ステップS409)。
 次に、制御部81は、ユーザに対して設定変更についての提案があるかどうかを確認する(ステップS410)。設定変更についての提案がある場合(ステップS410において“Y”)には、通知処理部83は、提案すべき設定変更の内容についての通知メッセージを生成し、表示部16は、この通知メッセージを表示する(ステップS411)。そして、制御情報生成部82は、設定変更についての提案がある旨の情報を含む通知情報INF4を生成する(ステップS412)。
 次に、制御部81は、動画ストリーミングサービスのコンテンツサーバ201に、新たにコンテンツが登録されたかどうかを確認する(ステップS413)。新たにコンテンツが登録された場合(ステップS413において“Y”)には、通知処理部83は、動画ストリーミングサービスに新たにコンテンツが登録された旨の通知メッセージを生成し、表示部16は、この通知メッセージを表示する(ステップS414)。そして、制御情報生成部82は、動画ストリーミングサービスに新たにコンテンツが登録された旨の情報を含む通知情報INF4を生成する(ステップS415)。
 そして、制御部81は、この通知情報INF4を含む制御情報INFを、無線通信部13を介して、操作端末90に対して送信する(ステップS416)。以上で、このフローは終了する。
 図21は、表示システム4の一動作例を表すものである。
 表示装置80の通知処理部83は、通知メッセージを生成し、表示部16がこの通知メッセージを表示する(ステップS421)。制御情報生成部82は、通知処理部83の処理に基づいて通知情報INF4を生成する(ステップS422)。そして、制御部81は、この通知情報INF4を含む制御情報INFを、無線通信部13を介して、操作端末90に対して送信する(ステップS423)。操作端末90の制御部97は、無線通信部35を介して、この制御情報INFを受信する。
 操作端末90の発光制御部98は、この制御情報INFに含まれる通知情報INF4に基づいて発光制御情報INFBLを生成する(ステップS424)。
 例えば、通知情報INF4が、アップデートすべきソフトウェアがある旨の情報を含んでいる場合には、発光制御部98は、発光部32における、ヘルプボタンB18(図2)に対応する発光素子を所定の時間にわたり発光させることを指示する発光制御情報INFBLを生成する。
 また、例えば、通知情報INF4が、新たに外部機器が接続された旨の情報を含んでいる場合には、発光制御部98は、発光部32における、入力切換ボタンB7(図2)に対応する発光素子を所定の時間にわたり発光させることを指示する発光制御情報INFBLを生成する。
 また、例えば、通知情報INF4が、新たに録画されたコンテンツがある旨の情報を含んでいる場合には、発光制御部98は、発光部32における、録画リストボタンB17(図2)に対応する発光素子を所定の時間にわたり発光させることを指示する発光制御情報INFBLを生成する。
 また、例えば、通知情報INF4が、設定変更についての提案がある旨の情報を含んでいる場合には、発光制御部98は、発光部32における、設定ボタンB6(図2)に対応する発光素子を所定の時間にわたり発光させることを指示する発光制御情報INFBLを生成する。
 また、例えば、通知情報INF4が、動画ストリーミングサービスに新たにコンテンツが登録された旨の情報を含んでいる場合には、発光制御部98は、発光部32における、動画サービス選択ボタンB2(図2)に対応する発光素子を所定の時間にわたり発光させることを指示する発光制御情報INFBLを生成する。具体的には、例えば、動画ストリーミングサービスのうちのサービスS1に新たにコンテンツが登録された場合には、発光制御部98は、動画サービス選択ボタンB2のうちのサービスS1に対応するボタンBに対応する発光素子を発光させることを指示する発光制御情報INFBLを生成することができる。
 次に、発光制御部98は、この発光制御情報INFBLに基づいて、発光部32の発光を開始させる(ステップS425)。これにより、操作端末90の操作部31における、発光制御情報INFBLにより指示されたボタンBが、発光部32から射出された光により強調される。そして、発光制御部98は、この発光制御情報INFBLに基づいて、所定時間経過後に、発光部32の発光を終了させる(ステップS426)。以上で、このシーケンスは終了する。
 このように、表示システム4では、表示装置80の制御情報生成部82が、ユーザに通知すべき情報に応じた制御情報INFを生成し、操作端末90の発光制御部98が、この制御情報INFに基づいて発光部32の発光動作を制御するようにした。これにより、表示システム4では、ユーザが操作する可能性が高いボタンBを、発光部32からの光により強調することができる。よって、例えば、ユーザは、複数のボタンBのうちの操作したいボタンBを容易に見つけることができる。その結果、表示システム4では、ユーザの利便性を高めることができる。
 以上のように本実施の形態では、表示装置の制御情報生成部が、ユーザに通知すべき情報に応じた制御情報を生成し、操作端末の発光制御部が、この制御情報に基づいて発光部の発光動作を制御するようにしたので、例えば、ユーザが操作したいボタンを容易に見つけることができるので、ユーザの利便性を高めることができる。その他の効果は、上記第1の実施の形態の場合と同様である。
[変形例4-1]
 上記実施の形態では、制御情報INFが通知情報INF4を含むようにしたが、これに限定されるものではなく、例えば、上記第1の実施の形態の変形例1-1に係る表示システム1Aの場合と同様に、制御情報INFが、発光部32の発光動作を指示する発光制御情報INFBLを含んでもよい。
[変形例4-2]
 上記実施の形態では、ソフトウェア配信サーバ202がソフトウェアを配信するようにしたが、これに限定されるものではなく、例えば、放送局が、デジタル放送波を用いて、ソフトウェアを配信するようにしてもよい。この場合、制御部81は、デジタル放送波を用いて供給されたソフトウェアに基づいて、ソフトウェアがアップデートされたかどうかどうかを確認するようにしてもよい。
[変形例4-3]
 上記実施の形態では、ステップS425,S426に示したように、操作端末90における、通知する情報に応じたボタンBを、所定の時間にわたり、発光部32からの光により強調したが、これに限定されるものではない。これに代えて、例えば、ステップS421において表示装置80の表示部16が通知メッセージを表示する際、表示部16がその通知メッセージを表示している期間において、その通知メッセージに応じたボタンBを強調してもよい。
[変形例4-4]
 上記の実施の形態では、ユーザに通知すべき情報について、いくつかの例を挙げて説明したが、これに限定されるものではない。例えばユーザが視聴したコンテンツに関連するコンテンツが、放送や動画ストリーミングサービスなどにより視聴できる場合に、表示部16がその旨の通知メッセージを表示するとともに、その通知メッセージに応じたボタンBを、発光部32からの光により強調してもよい。
 具体的には、表示装置80では、通知処理部83は、例えば、ユーザが、放送された映画を視聴し終えたときに、その映画の映画監督に関する他の映画を動画ストリーミングサービスのうちのサービスS1で視聴できる旨の通知メッセージを生成し、表示部16がこの通知メッセージを表示する。制御情報生成部82は、この通知メッセージに応じた通知情報INF4を生成し、制御部81は、この通知情報INF4を含む制御情報INFを、無線通信部13を介して、操作端末90に対して送信する。操作端末90は、この制御情報INFに含まれる通知情報INF4に基づいて、動画サービス選択ボタンB2のうちの、サービスS1に対応するボタンBを、発光部32からの光により強調する。
 また、例えば、通知処理部83は、ユーザが、動画ストリーミングサービスによりドラマの公式トレーラを視聴した場合に、そのドラマを、外部機器インタフェース14に接続されたセットトップボックスのVOD(Video On Demand)サービスで視聴できる旨の通知メッセージを作成し、表示部16がこの通知メッセージを表示する。制御情報生成部82は、この通知メッセージに応じた通知情報INF4を生成し、制御部81は、この通知情報INF4を含む制御情報INFを、無線通信部13を介して、操作端末90に対して送信する。操作端末90は、この制御情報INFに含まれる通知情報INF4に基づいて、入力切換ボタンB7を、発光部32からの光により強調する。
 このように、表示装置80は、ユーザが視聴したコンテンツに基づいて、通知メッセージを表示することにより、ユーザにコンテンツを推奨することができる。そして、操作端末90は、推奨するコンテンツを視聴できる方法に応じたボタンBを強調することにより、ユーザは、そのコンテンツを視聴するために操作すべきボタンを容易に見つけることができるので、ユーザの利便性を高めることができる。
[変形例4-5]
 上記の実施の形態では、表示装置80から送信された、コンテンツに関連する通知情報INF4に基づいて、操作端末90の発光部32が発光したが、これに限定されるものではない。例えば、操作端末90に内蔵された電池の状況に応じて、表示装置80の通知処理部83は、通知メッセージを生成し、表示部16がこの通知メッセージを表示するようにしてもよい。具体的には、操作端末90に内蔵された電池の残量が所定の水準を下回った状態や、操作端末90に内蔵された電池が充電されている場合には、操作端末90は表示装置80へそれらの電池の状況に関する情報を送信してもよく、表示装置80の表示部16は、受信した電池の状況に関する情報に対応する通知メッセージを表示してもよい。このとき、操作端末90から表示装置80へ送信される電池の状況に関する情報などの通知に関する情報は通知情報INF4や制御情報INFに対応する情報であってもよく、無線通信部35および無線通信部13を介してやりとりされる情報であってもよい。
 また、操作端末90は、内蔵する電池の状況に応じて発光部32を発光させてもよい。その場合には、その際には一つまたは複数のボタンBが、所定の色や所定のタイミングで強調されるようにしてもよい。具体的には、電池残量が所定の水準を下回った際には、電源ボタンB1が赤色で点滅するように制御されてもよいし、電池の充電が開始された際には、電源ボタンB1が赤色以外の色で強調されるようにしてもよい。このとき、複数のボタンB(例えば、電源ボタンB1と数字ボタンB3)が強調されるようにしてもよい。また、表示装置80あるいは操作端末90は、操作端末90のボタンBの強調表現と表示部16に表示される通知メッセージが対応するようにしてもよい。具体的には、発光部32が発光する色またはタイミングと、表示部16に表示される通知メッセージの色またはタイミングが対応するようにしてもよい。このとき、例えば、操作端末90の電池残量が所定の水準を下回った場合や電池の充電が開始された場合に、発光部32が発光する色や点滅の頻度が、表示部16に表示される通知メッセージの色や点滅の頻度と同じになるように制御されてもよい。また、操作端末30の電池がワイヤレス給電により充電される場合には、操作端末90は、ワイヤレス給電の充電器に置かれた際に、発光部32の発光または電池の状況に関する情報を表示装置80に対して送信してもよい。
<5.第5の実施の形態>
 次に、第5の実施の形態に係る表示システム5について説明する。本実施の形態に係る表示システム5は、表示装置に複数の音声アシスタントが搭載されている場合において、ユーザに選択された音声アシスタントに応じて操作端末の発光部の発光動作を制御するように構成される。なお、上記第1の実施の形態に係る表示システム1と実質的に同一の構成部分には同一の符号を付し、適宜説明を省略する。
 図22は、表示システム5の一構成例を表すものである。表示システム5は、表示装置100と、操作端末110とを備えている。
 表示装置100は、制御部101を有している。制御部101は、2つの音声アシスタント処理部103(音声アシスタント処理部103A,103B)と、制御情報生成部102とを有している。
 音声アシスタント処理部103は、ユーザの音声データに基づいて、その音声データに含まれるユーザの指示に応じた処理を行うように構成される。音声アシスタント処理部103Aは、音声アシスタントVAの機能を実現し、音声アシスタント処理部103Bは、音声アシスタントVBの機能を実現する。ユーザは、操作端末110の音声アシスタント呼出ボタンB5の操作することにより、音声アシスタントVA,VBのうちの使用する音声アシスタントを選択する。表示装置100の制御部101は、操作端末110から無線通信部13を介して受け取った、音声アシスタント呼出ボタンB5の操作に応じたボタン操作コードに基づいて、音声アシスタントVA,VBのうちの一方を選択する。
 音声アシスタント処理部103Aは、操作端末110から送信されたボタン操作コードが、ユーザによる音声アシスタントVAの選択操作を示す場合に、その後に操作端末110から送信された音声データを、インターネットNETに接続されたサーバ204Aに送信する。そして、音声アシスタント処理部103Aは、サーバ204Aにより解析された情報に基づいて、その音声データに含まれるユーザの指示に応じた処理を行うようになっている。
 音声アシスタント処理部103Bは、操作端末110から送信されたボタン操作コードが、ユーザによる音声アシスタントVBの選択操作を示す場合に、その後に操作端末110から送信された音声データを、インターネットNETに接続されたサーバ204Bに送信する。そして、音声アシスタント処理部103Bは、サーバ204Bにより解析された情報に基づいて、その音声データに含まれるユーザの指示に応じた処理を行うようになっている。
 制御情報生成部102は、2つの音声アシスタントVA,VBのうちの、ユーザにより選択された音声アシスタントに応じて、操作端末110における発光部112の発光動作を制御するための制御情報INFを生成するように構成される。そして、制御部101は、無線通信部13を介して、この制御情報生成部102が生成した制御情報INFを操作端末110に送信するようになっている。
 操作端末110は、発光部112と、マイク113と、制御部117とを有している。
 発光部112は、光を射出することにより、操作部31における複数のボタンBを強調するように構成される。発光部112は、例えば、複数の発光素子を有している。複数の発光素子は、例えば、赤色光を射出する発光素子、緑色光を射出する発光素子、および青色光を射出する発光素子を含んでいる
 マイク113は、例えばユーザの音声を電気信号に変換するように構成される。制御部117は、マイク113から供給された電気信号に基づいて音声データを生成し、無線通信部35を介して、この音声データを表示装置100に送信するようになっている。
 制御部117は、例えば、ユーザが音声アシスタント呼出ボタンB5(図2)を操作した場合に、無線通信部35を介して、ボタン操作コードを送信する。ボタン操作コードは、音声アシスタント呼出ボタンB5が押されたことを示すプレスコードと、押された音声アシスタント呼出ボタンB5が離されたことを示すリリースコードとを含んでいる。
 制御部117は、発光制御部118を有している。発光制御部118は、表示装置100から送信された制御情報INFに基づいて、発光部112の発光動作を制御するように構成される。
 ここで、表示装置100は、本開示における「情報処理装置」の一具体例に対応する。制御情報生成部102は、本開示における「生成部」の一具体例に対応する。音声アシスタント処理部103は、本開示における「音声解析部」の一具体例に対応する。
 図23は、表示装置100の一動作例を表すものである。
 まず、制御部101は、音声アシスタント呼出ボタンB5に対するユーザ操作を検出したかどうかを確認する(ステップS501)。ユーザは、例えば、音声アシスタントVAを選択する場合には、操作端末110における音声アシスタント呼出ボタンB5(図2)を短い時間だけ押し、音声アシスタントVBを選択する場合には、音声アシスタント呼出ボタンB5(図2)を長い時間押す。制御部101は、無線通信部13を介して受信したボタン操作コードが、音声アシスタント呼出ボタンB5(図2)が短い時間だけ押されたことを示す場合には、音声アシスタントVAを選択し、無線通信部13を介して受信したボタン操作コードが、音声アシスタント呼出ボタンB5(図2)が長い時間押されたことを示す場合には、音声アシスタントVBを選択する。音声アシスタント呼出ボタンB5に対するユーザ操作を検出していない場合(ステップS501において“N”)には、このフローは終了する。
 なお、この例では、音声アシスタント呼出ボタンB5を押す時間の長さに基づいて、音声アシスタントVA,VBの選択操作を行うようにしたが、これに限定されるものではなく、例えば、音声アシスタント呼出ボタンB5を押す回数に基づいて、音声アシスタントVA,VBの選択操作を行ってもよい。例えば、制御部101は、無線通信部13を介して受信したボタン操作コードが、音声アシスタント呼出ボタンB5が1回押されたことを示す場合には、音声アシスタントVAを選択し、無線通信部13を介して受信したボタン操作コードが、音声アシスタント呼出ボタンB5が2回連続して押されたことを示す場合には、音声アシスタントVBを選択するようにしてもよい。
 ステップS501において、音声アシスタント呼出ボタンB5に対するユーザ操作を検出した場合には、制御部101は、無線通信部13を介して、マイク起動コードを操作端末110に対して送信する(ステップS502)。
 次に、音声アシスタントVAが選択されたかどうかを確認する(ステップS503)。音声アシスタントVAが選択された場合(ステップS503において“Y”)には、制御情報生成部102は、音声アシスタントVAが選択された旨の情報を含むアシスタント情報INF5を生成する(ステップS504)。また、音声アシスタントVBが選択された場合(ステップS503において“N”)には、制御情報生成部102は、音声アシスタントVBが選択された旨の情報を含むアシスタント情報INF5を生成する(ステップS505)。
 そして、制御部101は、このアシスタント情報INF5を含む制御情報INFを、無線通信部13を介して、操作端末110に対して送信する(ステップS506)。以上で、このフローは終了する。
 図24は、ユーザが音声アシスタント呼出ボタンB5を操作した場合における、表示システム5の一動作例を表すものである。
 ユーザが操作端末110の音声アシスタント呼出ボタンB5を操作すると、操作端末110の制御部117は、この操作を検出し、操作端末110の動作状態をスリープ状態から通常動作状態に変化させる(ステップS521)。そして、制御部117は、無線通信部35を介して、音声アシスタント呼出ボタンB5の操作に応じたボタン操作コードを送信する(ステップS522)。表示装置100の制御部101は、無線通信部13を介してこのボタン操作コードを受信する。
 次に、表示装置100の制御部101は、無線通信部13を介して、マイク起動コードを操作端末110に対して送信する(ステップS523)。操作端末110の制御部117は、無線通信部35を介して、このマイク起動コードを受信する。制御部117は、このマイク起動コードに基づいてマイク113を起動させる。これにより、操作端末110は、音声入力を受け付ける。
 表示装置100の制御部101は、このマイク起動コードに含まれる音声アシスタント呼出ボタンB5の操作についての情報に基づいて、音声アシスタントVA,VBのうちの一方を選択する(ステップS524)。制御情報生成部102は、音声アシスタントの選択結果に基づいて、アシスタント情報INF5を生成する(ステップS525)。そして、制御部101は、このアシスタント情報INF5を含む制御情報INFを、無線通信部13を介して、操作端末110に対して送信する(ステップS526)。操作端末110の制御部117は、無線通信部35を介して、この制御情報INFを受信する。
 操作端末110の発光制御部118は、この制御情報INFに含まれるアシスタント情報INF5に基づいて発光制御情報INFBLを生成する(ステップS527)。
 例えば、アシスタント情報INF5が、音声アシスタントVAが選択された旨の情報を含んでいる場合には、発光制御部118は、音声アシスタントVAが音声入力を受け付けている期間にわたり、発光部112における、音声アシスタント呼出ボタンB5(図2)が例えばオレンジ色で強調されるように各発光素子を発光させることを指示する発光制御情報INFBLを生成する。
 また、例えば、アシスタント情報INF5が、音声アシスタントVBが選択された旨の情報を含んでいる場合には、発光制御部118は、音声アシスタントVBが音声入力を受け付けている期間にわたり、発光部112における、音声アシスタント呼出ボタンB5(図2)が例えば青色で強調されるように各発光素子を発光させることを指示する発光制御情報INFBLを生成する。
 次に、発光制御部118は、この発光制御情報INFBLに基づいて、発光部112の発光を開始させる(ステップS528)。これにより、操作端末110の操作部31における音声アシスタント呼出ボタンB5が、発光部112から射出された光により強調される。そして、発光制御部118は、この発光制御情報INFBLに基づいて、音声アシスタントが音声入力を受け付ける期間が終了した後に、発光部112の発光を終了させる(ステップS529)。以上で、このシーケンスは終了する。
 このように、表示システム5では、表示装置100の制御情報生成部102が、選択された音声アシスタントに応じた制御情報INFを生成し、操作端末110の発光制御部118が、この制御情報INFに基づいて発光部112の発光動作を制御するようにした。これにより、表示システム5では、ユーザは、2つの音声アシスタントVA,VBのうちの選択された音声アシスタントを容易に把握することができるとともに、選択された音声アシスタントが音声入力を受け付けているかどうかを容易に把握することができる。その結果、表示システム5では、ユーザの利便性を高めることができる。
 以上のように本実施の形態では、表示装置の制御情報生成部が、選択された音声アシスタントに応じた制御情報を生成し、操作端末の発光制御部が、この制御情報に基づいて発光部の発光動作を制御するようにしたので、例えば、ユーザが選択された音声アシスタントを容易に把握することができるので、ユーザの利便性を高めることができる。その他の効果は、上記第1の実施の形態の場合と同様である。
[変形例5-1]
 上記実施の形態では、制御情報INFがアシスタント情報INF5を含むようにしたが、これに限定されるものではなく、例えば、上記第1の実施の形態の変形例1-1に係る表示システム1Aの場合と同様に、制御情報INFが、発光部112の発光動作を指示する発光制御情報INFBLを含んでもよい。
[変形例5-2]
 上記実施の形態では、ユーザが音声アシスタント呼出ボタンB5を操作することにより、音声アシスタントVA,VBのうちの使用する音声アシスタントを選択するようにしたが、これに限定されるものではない。これに代えて、例えば、ユーザが、音声アシスタントVA,VBにそれぞれ対応付けられた音声アシスタント呼出ワード(呼出ワードWA,WB)を発することにより、音声アシスタントVA,VBのうちの使用する音声アシスタントを選択してもよい。以下に、本変形例について詳細に説明する。
 図25は、本変形例に係る表示システム5Aの一構成例を表すものである。表示システム5Aは、表示装置100Aと、操作端末110Aとを備えている。
 表示装置100Aは、制御部101Aを有している。制御部101は、2つの音声アシスタント処理部103(音声アシスタント処理部103A,103B)を有している。ユーザは、操作端末110Aのマイク113に向かって、音声アシスタント処理103A,103Bにそれぞれ対応付けられた音声アシスタント呼出ワード(呼出ワードWA,WB)を発することにより、音声アシスタントVA,VBのうちの使用する音声アシスタントを選択する。表示装置100Aの制御部101Aは、操作端末110Aから無線通信部13を介して受け取った、使用する音声アシスタントについての情報を含むアシスタント選択コードに基づいて、音声アシスタントVA,VBのうちの一方を選択するようになっている。
 操作端末110Aは、制御部117Aを有している。制御部117Aは、上記実施の形態の場合と異なり、マイク113が常に音声入力を受け付けるように制御する。制御部117Aは、2つの音声処理部119(音声処理部119A,119B)を有している。音声処理部119Aは、マイク113が取得した音声データが、音声アシスタントVAに対応付けられた音声アシスタント呼出ワード(呼出ワードWA)を含む場合に、音声アシスタントVAの選択を指示するアシスタント選択コードを生成する。同様に、音声処理部119Bは、マイク113が取得した音声データが、音声アシスタントVBに対応付けられた音声アシスタント呼出ワード(呼出ワードWB)を含む場合に、音声アシスタントVBの選択を指示するアシスタント選択コードを生成する。制御部117Aは、無線通信部35を介して、生成したアシスタント選択コードを表示装置100Aに対して送信するようになっている。
 図26は、表示装置100Aの一動作例を表すものである。
 まず、制御部101Aは、無線通信部13を介して、アシスタント選択コードを受信したかどうかを確認する(ステップS531)。アシスタント選択コードを受信していない場合(ステップS531において“N”)には、このフローは終了する。
 ステップS531において、アシスタント選択コードを受信した場合には、制御部101Aは、音声アシスタントVAが選択されたかどうかを確認する(ステップS503)。音声アシスタントVAが選択された場合(ステップS503において“Y”)には、制御情報生成部102は、音声アシスタントVAが選択された旨の情報を含むアシスタント情報INF5を生成する(ステップS504)。また、音声アシスタントVBが選択された場合(ステップS503において“N”)には、制御情報生成部102は、音声アシスタントVBが選択された旨の情報を含むアシスタント情報INF5を生成する(ステップS505)。
 そして、制御部101Aは、このアシスタント情報INF5を含む制御情報INFを、無線通信部13を介して、操作端末110Aに対して送信する(ステップS506)。以上で、このフローは終了する。
[変形例5-3]
 上記実施の形態では、操作端末110にマイク113を設けたが、これに限定されるものではない。これに代えて、例えば、図27に示す表示システム5Bのように、表示装置にマイクを設けてもよい。表示システム5Bは、表示装置100Bと、操作端末110Bとを有している。表示装置100Bは、マイク108Bと、制御部101Bとを有している。操作端末110Bは、制御部117Bを有している。この例では、表示装置100Bの制御部101Bは、表示装置100Bのマイク108Bから供給された電気信号に基づいて音声データを生成する。表示装置100Bの制御情報生成部102は、音声アシスタントVAが選択された場合には、音声アシスタントVAが選択された旨の情報を含むアシスタント情報INF5を生成し、音声アシスタントVBが選択された場合には、音声アシスタントVBが選択された旨の情報を含むアシスタント情報INF5を生成する。制御部101Bは、このアシスタント情報INF5を含む制御情報INFを、無線通信部13を介して、操作端末110Bに対して送信する。
[変形例5-4]
 上記実施の形態では、表示装置100に2つの音声アシスタント処理部103を設けたが、これに限定されるものではなく、表示装置に1つの音声アシスタント処理部を設けるとともに、表示装置に接続された外部機器に1つの音声アシスタント処理部を設けてもよい。外部機器は、例えば、スマートスピーカである。これらの表示装置および外部機器は、例えば無線LANにより接続される。この例では、スマートスピーカは、ユーザの音声に基づいて音声データを生成し、この音声データを、インターネットNETに接続された、そのスマートスピーカに対応づけられたサーバに送信する。サーバは、この音声データを解析する。音声データに含まれるユーザの指示が、表示装置に対する操作指示である場合には、サーバは、表示装置に対して、その操作指示についての情報を送信する。表示装置の音声アシスタント処理部は、サーバから、表示装置に対する操作指示を受け取った場合には、表示装置の音声アシスタントが選択された旨の情報を含むアシスタント情報INF5を生成する。そして、表示装置の制御部は、このアシスタント情報INF5を含む制御情報INFを、無線通信部13を介して、操作端末110に対して送信する。
[変形例5-5]
 上記実施の形態では、選択された音声アシスタントに応じて、音声アシスタント呼出ボタンB5(図2)を、発光部32が射出した光により強調したが、これに限定されるものではない。これに代えて、例えば、選択された音声アシスタントに応じて、操作端末110における全てのボタンBを、発光部32が射出した光により強調してもよい。
[変形例5-6]
 上記実施の形態では、選択された音声アシスタントに応じて動作を行うようにしたが、これに限定されるものではない。例えば、音声データに含まれるユーザの指示に応じて、その指示に係るボタンBを、発光部32が射出した光により強調してもよい。例えば、音声データが、サービスS1のコンテンツを視聴するための指示である場合には、動画サービス選択ボタンB2のうちのサービスS1に対応するボタンBを、発光部32が射出した光により強調してもよい。
<6.第6の実施の形態>
 次に、第6の実施の形態に係る表示システム6について説明する。本実施の形態に係る表示システム6は、セットトップボックスなどの外部機器が表示装置に接続された場合において、接続された外部機器に応じて操作端末の発光部の発光動作を制御するように構成される。なお、上記第1の実施の形態に係る表示システム1と実質的に同一の構成部分には同一の符号を付し、適宜説明を省略する。
 図28は、表示システム6の一構成例を表すものである。表示システム6は、表示装置120と、操作端末130とを備えている。
 表示装置120は、制御部121を有している。制御部121は、外部機器検出部123と、切換制御部124と、制御情報生成部122とを有している。この例では、表示装置120の外部機器インタフェース14にセットトップボックス203が接続されている。
 外部機器検出部123は、外部機器(この例ではセットトップボックス203)が外部機器インタフェース14に接続された場合に、外部機器が接続されたことを検出するとともに、外部機器インタフェース14を介してこの外部機器と通信を行うことにより、この外部機器がどのような種類の機器であるかについての情報を取得するように構成される。外部機器の種類は、例えば、セットトップボックス、録画再生機器、再生機器などを含む。
 切換制御部124は、赤外線信号に含まれる入力切換ボタンB7の操作についての情報に基づいて、表示すべき映像のソースを設定し、設定されたソースに応じて、操作端末130による制御対象を設定するように構成される。具体的には、切換制御部124は、例えば、外部機器インタフェース14に接続されたセットトップボックス203が、表示すべき映像のソースとして設定された場合には、例えば、ユーザが、例えば、数字ボタンB3、カーソルボタンB8、決定ボタンB9、チャンネルボタンB11、動画コンテンツ操作ボタンB16、および録画リストボタンB17を操作したときに、これらのユーザ操作に基づく制御対象をセットトップボックス203に変更する。これにより、表示システム6では、例えば、表示装置120が、チューナ11により選択された映像信号に基づいて映像を表示している場合には、ユーザは、操作端末130の操作部31を操作することにより表示装置120を遠隔操作することができ、表示装置120が、セットトップボックス203から供給された映像信号に基づいて映像を表示している場合には、ユーザは、操作端末130の操作部31を操作することによりセットトップボックス203を遠隔操作することができるようになっている。
 制御情報生成部122は、例えばユーザが入力切換ボタンB7を操作することにより、外部機器インタフェース14に接続された外部機器が、表示すべき映像のソースとして選択された場合に、その外部機器に応じて、操作端末130における発光部32の発光動作を制御するための制御情報INFを生成するように構成される。そして、制御部121は、無線通信部13を介して、この制御情報生成部122が生成した制御情報INFを操作端末130に送信するようになっている。
 操作端末130は、制御部137を有している。制御部137は、発光制御部138を有している。発光制御部138は、表示装置120から送信された制御情報INFに基づいて、発光部32の発光動作を制御するように構成される。
 ここで、表示装置120は、本開示における「情報処理装置」の一具体例に対応する。制御情報生成部122は、本開示における「生成部」の一具体例に対応する。外部機器インタフェース14は、本開示における「接続部」の一具体例に対応する。セットトップボックス203は、本開示における「外部機器」の一具体例に対応する。外部機器検出部123は、本開示における「取得部」の一具体例に対応する。
 図29は、表示装置120の一動作例を表すものである。この例では、すでに、セットトップボックス203が外部機器インタフェース14に接続されており、外部機器検出部123は、このセットトップボックス203が接続されていることを検出している。
 まず、制御部121は、例えば外部機器への入力切換操作を検出したかどうかを確認する(ステップS601)。具体的には、制御部121は、例えば、赤外線受光部12が受信した赤外線信号が、入力切換ボタンB7が操作されたことを示す場合には、入力切換後に、外部機器が表示すべき映像のソースとして選択されるかどうかを確認する。
 ステップS601において、外部機器への入力切換操作を検出した場合(ステップS601において“Y”)には、切換制御部124は、映像のソースをその外部機器に設定し(ステップS602)、操作端末130による制御対象をその外部機器に設定する(ステップS603)。
 次に、制御情報生成部122は、外部機器検出部123の検出結果に基づいて、接続された外部機器に応じた外部機器情報INF6を生成する(ステップS604)。具体的には、制御情報生成部122は、例えば、セットトップボックスが外部機器として接続されている場合には、セットトップボックスが接続されている旨の情報を含む外部機器情報INF6を生成する。
 そして、制御部121は、この外部機器情報INF6を含む制御情報INFを、無線通信部13を介して、操作端末130に対して送信する(ステップS605)。そして、このフローは終了する。
 また、ステップS601において、表示装置120への入力切換操作を検出した場合(ステップS601において“N”)には、切換制御部124は、映像のソースを表示装置120に設定し(ステップS606)、操作端末130による制御対象を表示装置120に設定する(ステップS607)。以上で、このフローは終了する。
 図30は、セットトップボックス203が表示装置120に接続されており、セットトップボックス203への入力切り換えを行う場合における、表示システム6の一動作例を表すものである。
 ユーザが操作端末110の入力切換ボタンB7を操作すると、操作端末130の制御部137は、この操作を検出し、制御部137は、操作端末130の動作状態をスリープ状態から通常動作状態に変化させる(ステップS621)。そして、赤外線発光部34は、入力切換ボタンB7の操作に応じた赤外線信号を送信する(ステップS622)。表示装置120の赤外線受光部12は、この赤外線信号を受信する。
 表示装置120の切換制御部124は、この赤外線信号に含まれる入力切換ボタンB7の操作についての情報に基づいて、映像のソースをセットトップボックス203に設定し(ステップS623)、操作端末130による制御対象をセットトップボックス203に設定する(ステップS624)。そして、制御情報生成部122は、外部機器検出部123の検出結果に基づいて、セットトップボックスが接続されている旨の情報を含む外部機器情報INF6を生成する(ステップS625)。制御部121は、この外部機器情報INF6を含む制御情報INFを、無線通信部13を介して、操作端末130に対して送信する(ステップS626)。操作端末130の制御部137は、無線通信部35を介して、この制御情報INFを受信する。
 操作端末130の発光制御部138は、この制御情報INFに含まれる外部機器情報INF6に基づいて発光制御情報INFBLを生成する(ステップS627)。この例では、外部機器情報INF6が、セットトップボックスが接続されている旨の情報を含んでいるので、発光制御部138は、発光部32のうち、セットトップボックス203によるコンテンツを視聴するために使用されるボタンBに対応する発光素子を所定の時間にわたり発光させることを指示する発光制御情報INFBLを生成する。具体的には、発光制御部138は、例えば、数字ボタンB3、カーソルボタンB8、決定ボタンB9、戻るボタンB10、チャンネルボタンB11、音量ボタンB12、動画コンテンツ操作ボタンB16、および録画リストボタンB17に対応する発光素子を所定の時間にわたり発光させることを指示する発光制御情報INFBLを生成する。
 次に、発光制御部138は、この発光制御情報INFBLに基づいて、発光部32の発光を開始させる(ステップS628)。これにより、操作端末130の操作部31における、セットトップボックス203によるコンテンツを視聴するために使用されるボタンBが、発光部32から射出された光により強調される。そして、発光制御部138は、この発光制御情報INFBLに基づいて、所定の時間が経過した後に、発光部32の発光を終了させる(ステップS629)。以上で、このシーケンスは終了する。
 このように、表示システム6では、表示装置120の制御情報生成部122が、接続された外部機器に応じた制御情報INFを生成し、操作端末130の発光制御部138が、この制御情報INFに基づいて発光部32の発光動作を制御するようにした。これにより、表示システム6では、ユーザは、接続された外部機器から供給されたコンテンツを視聴する際に利用可能なボタンBを容易に把握することができる。その結果、表示システム6では、ユーザの利便性を高めることができる。
 以上のように本実施の形態では、表示装置の制御情報生成部が、接続された外部機器に応じた制御情報を生成し、操作端末の発光制御部が、この制御情報に基づいて発光部の発光動作を制御するようにしたので、例えば、ユーザが利用可能なボタンBを容易に把握することができるので、ユーザの利便性を高めることができる。その他の効果は、上記第1の実施の形態の場合と同様である。
[変形例6-1]
 上記実施の形態では、制御情報INFが外部機器情報INF6を含むようにしたが、これに限定されるものではなく、例えば、上記第1の実施の形態の変形例1-1に係る表示システム1Aの場合と同様に、制御情報INFが、発光部32の発光動作を指示する発光制御情報INFBLを含んでもよい。
 以上、いくつかの実施の形態および変形例を挙げて本技術を説明したが、本技術はこれらの実施の形態等には限定されず、種々の変形が可能である。
 例えば、上記の各実施の形態では、操作端末に赤外線発光部34を設けるとともに、表示装置に赤外線受光部12を設け、操作端末が表示装置に対して赤外線信号を送信することにより、表示装置の動作を制御するようにしたが、これに限定されるものではない。これに代えて、赤外線発光部34および赤外線受光部12を省き、操作端末が、操作端末の無線通信部35と表示装置の無線通信部13との間の通信を用いて、表示装置の動作を制御してもよい。
 例えば、上記の各実施の形態では、表示装置に本技術を適用したが、これに限定されるものではなく、例えば、ハードディスクレコーダ、ブルーレイディスクプレーヤ、ブルーレイディスクレコーダ、セットトップボックス、スマートスピーカ、ゲーム機などの各種家庭用電子機器に適用することができる。具体的には、本技術をセットトップボックスに適用した場合には、操作端末は、ユーザの操作に基づいて、遠隔操作によりそのセットトップボックスの動作を制御する、リモートコントロール端末であってもよい。セットトップボックスには、例えばテレビジョン受像機である表示装置が接続される。また、本技術をゲーム機に適用した場合には、操作端末は、そのゲーム機のコントローラであってもよい。
 例えば、上記の各実施の形態では、ボタンBに対応する発光素子を発光させるようにしたが、これに限定されるものではなく、例えば、操作端末に設けられた各種インジケータなど、ボタンBに関連づけられていない発光素子を発光させるようにしてもよい。
 また、例えば、上記の各実施の形態および変形例のうちの2以上を組み合わせてもよい。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 なお、本技術は以下のような構成とすることができる。以下の構成の本技術によれば、ユーザの利便性を高めることができる。
(1)操作端末に設けられた発光部の発光制御を行うための制御情報を生成可能な生成部と、
 前記操作端末に対して前記制御情報を送信可能な送信部と
 を備えた情報処理装置。
(2)前記発光制御は、発光開始、発光終了、発光輝度、発光色、発光時間、発光周期のうちの1つ以上を制御することを含む
 前記(1)に記載の情報処理装置。
(3)前記情報処理装置の環境を検出可能な環境センサをさらに備え、
 前記生成部は、前記環境センサの検出結果に基づいて前記制御情報を生成可能である
 前記(1)または(2)に記載の情報処理装置。
(4)前記環境センサは、前記環境の明るさを検出可能なセンサを含む
 前記(3)に記載の情報処理装置。
(5)前記発光部は、前記制御情報に基づいて、前記明るさが所定の明るさよりも暗い場合に発光可能である
 前記(4)に記載の情報処理装置。
(6)前記発光部は、前記制御情報に基づいて、前記明るさが第1の明るさである場合には第1の輝度で発光可能であり、前記明るさが前記第1の明るさよりも暗い第2の明るさである場合には第1の輝度よりも明るい第2の輝度で発光可能である
 前記(4)に記載の情報処理装置。
(7)前記制御情報は、前記環境センサの前記検出結果を含む
 前記(3)から(6)のいずれかに記載の情報処理装置。
(8)前記生成部は、前記情報処理装置の処理対象であるコンテンツに基づいて前記制御情報を生成可能である
 前記(1)または(2)に記載の情報処理装置。
(9)コンテンツ解析部をさらに備え、
 前記コンテンツはメタデータを含み、
 前記コンテンツ解析部は、前記メタデータを解析可能であり、
 前記生成部は、前記コンテンツ解析部の解析結果に基づいて前記制御情報を生成可能である
 前記(8)に記載の情報処理装置。
(10)前記コンテンツは画像情報を含み、
 前記生成部は、前記画像情報の解析結果に基づいて前記制御情報を生成可能である
 前記(8)に記載の情報処理装置。
(11)前記生成部は、ユーザに対する通知情報に基づいて前記制御情報を生成可能である
 前記(1)または(2)に記載の情報処理装置。
(12)前記通知情報を生成可能な通知処理部をさらに備え、
 前記制御情報は、前記操作端末が有する複数のボタンのうち、ユーザに提示された前記通知情報に関連するボタンに対応するように前記発光部を発光させる情報を含む
 前記(11)に記載の情報処理装置。
(13)ユーザから受け付けた音声情報を処理可能な音声処理部をさらに備え、
 前記生成部は、前記音声処理部の処理に基づいて前記制御情報を生成可能である
 前記(1)または(2)に記載の情報処理装置。
(14)前記音声処理部は、複数の処理部を含み、ユーザの操作に応じて、前記複数の処理部のうちの1つを選択することが可能であり、
 前記制御情報は、前記複数の処理部のうちの選択された処理部に応じた情報である
 前記(13)に記載の情報処理装置。
(15)外部機器に接続可能な接続部と、
 前記外部機器の機能に関する情報を取得する取得部と
 をさらに備え、
 前記生成部は、前記外部機器の機能に関する情報に基づいて前記制御情報を生成可能である
 前記(1)または(2)に記載の情報処理装置。
(16)前記制御情報は、前記操作端末が有する複数のボタンのうち、前記外部機器の操作に関連するボタンに対応するように前記発光部を発光させる情報を含む
 前記(15)に記載の情報処理装置。
(17)ユーザの操作を受け付けることが可能な操作部と、
 前記操作部の操作面から光を射出可能な発光部と、
 情報処理装置から送信された制御情報を受信可能な受信部と、
 前記制御情報に基づいて、前記発光部の発光制御を行うことが可能な制御部と
 を備えた操作端末。
(18)前記制御情報は、前記情報処理装置に設けられ、前記情報処理装置の環境を検出可能な環境センサの検出結果に応じた情報を含む
 前記(17)に記載の操作端末。
(19)前記制御情報は、前記情報処理装置に設けられ、音声情報を処理可能な音声処理部の処理に応じた情報を含む
 前記(17)に記載の操作端末。
(20)情報処理装置が、操作端末に設けられた発光部の発光制御を行うための制御情報を生成することと、
 前記情報処理装置が、前記操作端末に対して前記制御情報を送信することと、
 前記操作端末が、前記情報処理装置から送信された前記制御情報に基づいて、前記発光部の発光制御を行うこと
 を含む情報処理方法。
 本出願は、日本国特許庁において2019年5月30日に出願された日本特許出願番号2019-100957号、および日本国特許庁において2019年12月26日に出願された日本特許出願番号2019-235744号を基礎として優先権を主張するものであり、この出願のすべての内容を参照によって本出願に援用する。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (20)

  1.  操作端末に設けられた発光部の発光制御を行うための制御情報を生成可能な生成部と、
     前記操作端末に対して前記制御情報を送信可能な送信部と
     を備えた情報処理装置。
  2.  前記発光制御は、発光開始、発光終了、発光輝度、発光色、発光時間、発光周期のうちの1つ以上を制御することを含む
     請求項1に記載の情報処理装置。
  3.  前記情報処理装置の環境を検出可能な環境センサをさらに備え、
     前記生成部は、前記環境センサの検出結果に基づいて前記制御情報を生成可能である
     請求項1に記載の情報処理装置。
  4.  前記環境センサは、前記環境の明るさを検出可能なセンサを含む
     請求項3に記載の情報処理装置。
  5.  前記発光部は、前記制御情報に基づいて、前記明るさが所定の明るさよりも暗い場合に発光可能である
     請求項4に記載の情報処理装置。
  6.  前記発光部は、前記制御情報に基づいて、前記明るさが第1の明るさである場合には第1の輝度で発光可能であり、前記明るさが前記第1の明るさよりも暗い第2の明るさである場合には第1の輝度よりも明るい第2の輝度で発光可能である
     請求項4に記載の情報処理装置。
  7.  前記制御情報は、前記環境センサの前記検出結果を含む
     請求項3に記載の情報処理装置。
  8.  前記生成部は、前記情報処理装置の処理対象であるコンテンツに基づいて前記制御情報を生成可能である
     請求項1に記載の情報処理装置。
  9.  コンテンツ解析部をさらに備え、
     前記コンテンツはメタデータを含み、
     前記コンテンツ解析部は、前記メタデータを解析可能であり、
     前記生成部は、前記コンテンツ解析部の解析結果に基づいて前記制御情報を生成可能である
     請求項8に記載の情報処理装置。
  10.  前記コンテンツは画像情報を含み、
     前記生成部は、前記画像情報の解析結果に基づいて前記制御情報を生成可能である
     請求項8に記載の情報処理装置。
  11.  前記生成部は、ユーザに対する通知情報に基づいて前記制御情報を生成可能である
     請求項1に記載の情報処理装置。
  12.  前記通知情報を生成可能な通知処理部をさらに備え、
     前記制御情報は、前記操作端末が有する複数のボタンのうち、ユーザに提示された前記通知情報に関連するボタンに対応するように前記発光部を発光させる情報を含む
     請求項11に記載の情報処理装置。
  13.  ユーザから受け付けた音声情報を処理可能な音声処理部をさらに備え、
     前記生成部は、前記音声処理部の処理に基づいて前記制御情報を生成可能である
     請求項1に記載の情報処理装置。
  14.  前記音声処理部は、複数の処理部を含み、ユーザの操作に応じて、前記複数の処理部のうちの1つを選択することが可能であり、
     前記制御情報は、前記複数の処理部のうちの選択された処理部に応じた情報である
     請求項13に記載の情報処理装置。
  15.  外部機器に接続可能な接続部と、
     前記外部機器の機能に関する情報を取得する取得部と
     をさらに備え、
     前記生成部は、前記外部機器の機能に関する情報に基づいて前記制御情報を生成可能である
     請求項1に記載の情報処理装置。
  16.  前記制御情報は、前記操作端末が有する複数のボタンのうち、前記外部機器の操作に関連するボタンに対応するように前記発光部を発光させる情報を含む
     請求項15に記載の情報処理装置。
  17.  ユーザの操作を受け付けることが可能な操作部と、
     前記操作部の操作面から光を射出可能な発光部と、
     情報処理装置から送信された制御情報を受信可能な受信部と、
     前記制御情報に基づいて、前記発光部の発光制御を行うことが可能な制御部と
     を備えた操作端末。
  18.  前記制御情報は、前記情報処理装置に設けられ、前記情報処理装置の環境を検出可能な環境センサの検出結果に応じた情報を含む
     請求項17に記載の操作端末。
  19.  前記制御情報は、前記情報処理装置に設けられ、音声情報を処理可能な音声処理部の処理に応じた情報を含む
     請求項17に記載の操作端末。
  20.  情報処理装置が、操作端末に設けられた発光部の発光制御を行うための制御情報を生成することと、
     前記情報処理装置が、前記操作端末に対して前記制御情報を送信することと、
     前記操作端末が、前記情報処理装置から送信された前記制御情報に基づいて、前記発光部の発光制御を行うこと
     を含む情報処理方法。
PCT/JP2020/020185 2019-05-30 2020-05-21 情報処理装置、操作端末、および情報処理方法 WO2020241459A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/595,628 US20220256223A1 (en) 2019-05-30 2020-05-21 Information processing apparatus, operation terminal, and information processing method
JP2021522295A JPWO2020241459A1 (ja) 2019-05-30 2020-05-21
CN202080038513.5A CN113875260A (zh) 2019-05-30 2020-05-21 信息处理设备、操作终端和信息处理方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2019-100957 2019-05-30
JP2019100957 2019-05-30
JP2019-235744 2019-12-26
JP2019235744 2019-12-26

Publications (1)

Publication Number Publication Date
WO2020241459A1 true WO2020241459A1 (ja) 2020-12-03

Family

ID=73553469

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/020185 WO2020241459A1 (ja) 2019-05-30 2020-05-21 情報処理装置、操作端末、および情報処理方法

Country Status (4)

Country Link
US (1) US20220256223A1 (ja)
JP (1) JPWO2020241459A1 (ja)
CN (1) CN113875260A (ja)
WO (1) WO2020241459A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0560069U (ja) * 1992-01-10 1993-08-06 東陶機器株式会社 リモコン信号送受信装置
JPH07288882A (ja) * 1994-04-19 1995-10-31 Sanyo Electric Co Ltd リモコン送信機

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7154428B2 (en) * 2003-06-25 2006-12-26 Universal Electronics Inc. Remote control with selective key illumination
WO2006098239A1 (ja) * 2005-03-15 2006-09-21 Matsushita Electric Industrial Co., Ltd. テレビジョンシステム、放送受信装置および操作端末
US20070157235A1 (en) * 2006-01-04 2007-07-05 Lucent Technologies Inc. Method and apparatus for reverting to a preferred program at the end of a commercial interruption
US9870123B1 (en) * 2008-04-18 2018-01-16 Universal Electronics Inc. Selecting a picture of a device to identify an associated codeset
US8401362B2 (en) * 2008-04-23 2013-03-19 At&T Intellectual Property I, L.P. Indication of trickplay availability for selected multimedia stream
TW201126505A (en) * 2010-01-20 2011-08-01 Prime View Int Co Ltd Display device for converting between bright and dark states and method thereof
US9252950B2 (en) * 2010-05-28 2016-02-02 Ram Caspi Methods and apparatus for interactive multimedia communication
WO2016072635A1 (en) * 2014-11-03 2016-05-12 Samsung Electronics Co., Ltd. User terminal device and method for control thereof and system for providing contents
CN104796750A (zh) * 2015-04-20 2015-07-22 京东方科技集团股份有限公司 遥控器、遥控显示系统
CN105118444B (zh) * 2015-08-14 2018-12-14 联想(北京)有限公司 一种信息处理方法及电子设备
CN105792018B (zh) * 2016-03-09 2018-12-28 广州视源电子科技股份有限公司 智能电视机的系统信息提示及系统信息推送方法和系统
CN205864643U (zh) * 2016-07-29 2017-01-04 江苏奥斯汀光电科技股份有限公司 一种电视机端控制对应遥控器发音发光的系统
CN107747799A (zh) * 2017-09-21 2018-03-02 广东美的制冷设备有限公司 遥控器的控制方法、遥控器、空调系统及可读存储介质
WO2019139986A1 (en) * 2018-01-09 2019-07-18 Lutron Electronics Co., Inc. Device for powering a modular assembly
KR102613210B1 (ko) * 2018-11-08 2023-12-14 현대자동차주식회사 차량 및 그 제어방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0560069U (ja) * 1992-01-10 1993-08-06 東陶機器株式会社 リモコン信号送受信装置
JPH07288882A (ja) * 1994-04-19 1995-10-31 Sanyo Electric Co Ltd リモコン送信機

Also Published As

Publication number Publication date
US20220256223A1 (en) 2022-08-11
JPWO2020241459A1 (ja) 2020-12-03
CN113875260A (zh) 2021-12-31

Similar Documents

Publication Publication Date Title
KR102393815B1 (ko) 무선 스피커 시스템
US11197064B2 (en) Display device, display control method, and program
US9479723B2 (en) Display device, display control method, and program
US20110115983A1 (en) Image Display Apparatus to Which Multiple Image Sources Can Be Connected
KR20120124566A (ko) 인핸스드 전자 프로그램 가이드 기능을 제공하는 디스플레이 장치 및 그 제어 방법
US10902763B2 (en) Display device, display control method, and program
KR20120124908A (ko) 채널 가이드 화면을 제공하는 디스플레이 장치 및 그 제어 방법
CN112073955B (zh) 显示设备及蓝牙设备扫描方法
KR100910411B1 (ko) 대화형 tv를 위한 마우스 기능을 갖는 리모컨과 그제어방법
CN112073761B (zh) 蓝牙功能的实现方法及装置、双硬件系统显示设备
JP6487596B1 (ja) 使い勝手が良いカラオケ機器切替装置
WO2020241459A1 (ja) 情報処理装置、操作端末、および情報処理方法
CN112995733B (zh) 一种显示设备、设备发现方法及存储介质
CN112073954B (zh) 显示设备及扫描外部蓝牙设备的方法
CN108370461B (zh) 一种包括用户接口装置的音频播放设备
KR20210087190A (ko) 디스플레이 장치 및 그 제어 방법
KR20170004774A (ko) 디스플레이장치, 서버 및 그 제어방법
CN101420566A (zh) 一种电视机画面关闭实现方法及其系统
CN112073952B (zh) 外部蓝牙设备分类展示方法及装置、双硬件系统显示设备
CN112399071B (zh) 一种摄像头马达的控制方法、装置及显示设备
TW201426529A (zh) 通訊設備及其播放方法
CN112995113B (zh) 一种显示设备、端口控制方法及存储介质
TWM561894U (zh) 充電式觸控行動ktv系統
KR20090067129A (ko) 대화형 tv를 위한 마우스 기능을 갖는 리모컨과 그 제어방법
KR20170105884A (ko) 무선 전력 전송 장치 및 무선 전력 전송 장치의 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20812701

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021522295

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20812701

Country of ref document: EP

Kind code of ref document: A1