WO2013099632A1 - 表示装置、表示制御方法、およびプログラム - Google Patents

表示装置、表示制御方法、およびプログラム Download PDF

Info

Publication number
WO2013099632A1
WO2013099632A1 PCT/JP2012/082378 JP2012082378W WO2013099632A1 WO 2013099632 A1 WO2013099632 A1 WO 2013099632A1 JP 2012082378 W JP2012082378 W JP 2012082378W WO 2013099632 A1 WO2013099632 A1 WO 2013099632A1
Authority
WO
WIPO (PCT)
Prior art keywords
indicator
unit
display
user
image
Prior art date
Application number
PCT/JP2012/082378
Other languages
English (en)
French (fr)
Inventor
真生 近藤
宏崇 田幸
矢野 賢
陽子 土橋
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP12861778.4A priority Critical patent/EP2800359B1/en
Priority to CN201280063462.7A priority patent/CN104025570B/zh
Priority to JP2013551602A priority patent/JP6242686B2/ja
Priority to BR112014015149A priority patent/BR112014015149A8/pt
Priority to US14/367,444 priority patent/US9479723B2/en
Publication of WO2013099632A1 publication Critical patent/WO2013099632A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47214End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for content reservation or setting reminders; for requesting event notification, e.g. of sport results or stock market
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4882Data services, e.g. news ticker for displaying messages, e.g. warnings, reminders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/50Tuning indicators; Automatic tuning control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/08Arrangements within a display terminal for setting, manually or automatically, display parameters of the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device

Definitions

  • the present technology relates to a display device, a display control method, and a program, and more particularly, to a display device, a display control method, and a program that can express various states of the device in a limited area.
  • the area where the indicator indicating the operation and state of the display device is arranged is limited, and a new method for expressing the operation of the display device and the like is desired.
  • the present technology has been made in view of such a situation, and enables various states of the apparatus to be expressed in a limited area.
  • the display device is disposed at least at a part of the periphery of the display unit, and includes an indicator that is lit at a predetermined brightness, and an operation detection unit that detects a user operation, An indicator control unit that controls lighting of the indicator, and the indicator control unit turns on the indicator when an operation of the user with respect to the indicator unit is detected.
  • the display control method includes an indicator unit that is disposed at least at a part of the periphery of the display unit and has an indicator that is lit at a predetermined luminance, and an operation detection unit that detects a user operation.
  • the indicator control unit of a display device including an indicator control unit that controls lighting of the indicator turns on the indicator when an operation of the user with respect to the indicator unit is detected.
  • a program is a display device that includes an indicator unit that is disposed at least at a part of the periphery of a display unit and includes an indicator that lights up with a predetermined luminance and an operation detection unit that detects a user operation.
  • an operation detection unit that detects a user operation.
  • the indicator when a user operation on the indicator unit is detected, the indicator is controlled to be lit.
  • the display device is arranged in at least a part of the periphery of the display unit and includes an indicator unit having an indicator that lights up with a predetermined luminance, and the indicator unit of another communication device held by the user.
  • an operation detection unit that detects proximity or contact of the indicator
  • an indicator control unit that controls lighting of the indicator
  • a proximity region of the indicator A display control unit that displays an image controlled to high brightness on the display unit, and the indicator control unit displays an image in which a region near the indicator of the indicator unit is controlled to high brightness on the display unit.
  • the indicator is lit for a predetermined period before or after being displayed.
  • the display control method includes an indicator unit that is disposed at least part of the periphery of the display unit and has an indicator that is lit at a predetermined luminance, and the indicator unit of another communication device that is held by a user
  • the display control unit of a display device comprising: an operation detection unit that detects proximity or contact to the display; an indicator control unit that controls lighting of the indicator; and a display control unit that controls an image to be displayed on the display unit.
  • the program according to the second aspect of the present technology is arranged in at least a part of the periphery of the display unit and includes an indicator unit having an indicator that lights up with a predetermined luminance, and the indicator unit of another communication device held by the user.
  • an indicator unit having an indicator that lights up with a predetermined luminance
  • the indicator unit of another communication device held by the user When the proximity or contact of the other communication device to the indicator unit is detected by a computer that controls a display device including an operation detection unit that detects proximity or contact, the vicinity region of the indicator is controlled with high brightness.
  • the displayed image is displayed on the display unit, and in the display unit, the indicator is turned on for a predetermined period before or after the image in which the area near the indicator of the indicator unit is controlled to be high brightness is displayed. The process is executed.
  • the display unit when the proximity or contact of another communication device to the indicator unit is detected, an image in which the area near the indicator is controlled to have high brightness is displayed on the display unit, and the display unit The indicator is controlled to be lit only for a predetermined period before or after the image in which the area near the indicator of the indicator unit is controlled to have high brightness is displayed.
  • the display device may be an independent device or an internal block constituting one device.
  • various states of the apparatus can be expressed in a limited area.
  • FIG. 1 shows an external configuration example of a television vision receiver as an embodiment of a display device to which the present technology is applied.
  • the display main body 11 includes a display 14 that displays a predetermined image such as an image of a received broadcast program, and a frame portion 15 disposed in the periphery thereof.
  • the smart unit 12 is an indicator unit having at least an LED (Light Emitting Diode) indicator 84 (FIG. 4) as a lighting unit that represents the operation and state of the TV 1 by illumination.
  • a camera 93 is provided in front of the smart unit 12.
  • the smart unit 12 is disposed in the lower frame portion 15 of the display main body 11, but the smart unit 12 is disposed in any of the upper, left, and right frame portions 15 of the display main body 11. May be. In other words, the smart unit 12 may be disposed at least at a part of the periphery of the display 14.
  • FIG. 2 is an enlarged side view of the vicinity of the smart unit 12 for explaining the LED indicator 84 in the smart unit 12.
  • FIG. 3A is a front view of the smart unit 12
  • FIG. 3B is a smart unit. It is a figure which shows arrangement
  • the LED indicator 84 is composed of one white LED 21W and two color LEDs 21L and 21R, as shown in FIG. 3B.
  • the white LED 21W is disposed in the central portion in the smart unit 12 in the left-right direction and slightly forward in the front-rear direction.
  • the color LED 21L is disposed behind and to the left of the white LED 21W, and the color LED 21R is disposed behind and to the right of the white LED 21W.
  • the white LED 21W is a white single color LED and emits white light.
  • the color LEDs 21L and 21R are composed of three LEDs of R (red), G (green), and B (blue), and can emit light with a predetermined color.
  • the light of the white LED 21W is output from the output unit 23 (A in FIG. 3) in front of the smart unit 12 through a light guide plate (not shown).
  • Light of the color LED 21L and the color LED 21R is output from an output unit 23 (A in FIG. 3) in front of the smart unit 12 and an output unit 23 (not shown) below the smart unit 12 through a light guide plate (not shown). .
  • a film antenna 22 including an electrode pad that is a part of the touch sensor 85 (FIG. 4) and an NFC communication antenna is embedded.
  • the white LED 21W, the color LED 21L, and the color LED 21R are also simply referred to as LED 21W, LED 21L, and LED 21R.
  • LED 21W, LED 21L, and LED 21R are simply referred to as LEDs 21.
  • FIG. 4 shows a control block diagram of the TV 1.
  • the power supply unit 51 is connected to an external AC power supply, converts the received AC power into a DC power having a predetermined voltage, and supplies the DC power to the DC / DC converter 52.
  • the DC / DC converter 52 converts the first power supply voltage supplied from the power supply unit 51 into a second power supply voltage, and supplies the second power supply voltage to each unit such as the panel drive unit 53, the control unit 66, and the smart unit 12. Note that the power supply voltages supplied to each unit may be different or the same.
  • the panel driving unit 53 drives the panel 54 and the backlight 55 based on the video signal supplied from the control unit 66 to display the video.
  • the panel 54 and the backlight 55 correspond to the display 14 in FIG.
  • the panel 54 controls the liquid crystal aperture of each pixel based on the drive control of the panel drive unit 53.
  • the backlight 55 emits light with a predetermined luminance based on the drive control of the panel drive unit 53. That is, the display 14 in FIG. 1 is an LCD (Liquid Crystal Display), and the backlight 55 is disposed on the back side of the panel 54.
  • HDMI switch 56 appropriately switches the HDMI terminals 55 1 to 55 3, based on the HDMI control signals, and an external device connected to the HDMI terminal 55 1 to 55 3, are exchanged between the control unit 66 Relay HDMI signals.
  • the analog AV input terminal 57 inputs an analog AV signal (Audio and Visual signal) from an external device and supplies it to the control unit 66.
  • an analog AV signal (Audio and Visual signal) from an external device and supplies it to the control unit 66.
  • the PC input terminal 58 is composed of, for example, a mini D-Sub 15-pin terminal, inputs an analog video signal among AV signals output from the personal computer, and supplies the analog video signal to the control unit 66.
  • the analog audio output terminal 59 outputs an analog audio signal supplied from the control unit 66 to a connected external device.
  • the optical digital audio output terminal 60 outputs the audio optical digital signal supplied from the control unit 66 to the connected external device.
  • the LAN terminal 61 is composed of a 10BASE-T / 100BASE-TX connector, for example, and is connected to a predetermined network such as a home network or the Internet.
  • the tuner 62 is connected to an antenna (not shown) via the antenna terminal 63, acquires a broadcast signal of a predetermined channel from the radio wave received by the antenna, and supplies the broadcast signal to the control unit 66.
  • the radio wave received by tuner 62 is, for example, a terrestrial digital broadcast signal.
  • a CAS card I / F 64 is inserted with a B-CAS (registered trademark) card 65 in which an encryption key for descrambling terrestrial digital broadcasting is stored.
  • the CAS card I / F 64 reads the encryption key stored in the B-CAS (registered trademark) card 65 and supplies it to the control unit 66.
  • the control unit 66 controls the entire TV 1 based on a control program stored in an internal memory 66A composed of ROM (Read Only Memory) or the like.
  • the control unit 66 performs, for example, A / D (Analog to Digital) conversion or D / A (Digital to Analog) conversion processing of a video signal and an audio signal, descrambling processing and decoding processing of a broadcast signal.
  • the control unit 66 also performs control based on a brightness signal, an IR signal, a touch sensor signal, and a USB I / F signal from the smart unit 12, which will be described later, and LED control of the LED indicator 84.
  • the control unit 66 can be configured by an SoC (System on chip) in which a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a DRAM (Dynamic Random Access Memory), and the like are integrated on one chip.
  • SoC System on chip
  • the control program stored in the internal memory 66A can be installed via a wired or wireless transmission medium such as a USB memory or a hard disk device connected to a USB terminal input unit 90 or the like, which will be described later, or a home network or the Internet. it can.
  • a wired or wireless transmission medium such as a USB memory or a hard disk device connected to a USB terminal input unit 90 or the like, which will be described later, or a home network or the Internet. it can.
  • the audio amplifier 67 amplifies the analog audio signal supplied from the control unit 66 and supplies it to the speaker 68.
  • the speaker 68 outputs a sound corresponding to the analog sound signal from the audio amplifier 67.
  • the power supplied from the display main body 11 is supplied to each part of the smart unit 12 via the relay part 81.
  • brightness signals, IR signals, LED control signals, touch sensor signals, and USB I / F signals which will be described later, are also exchanged between the display main body 11 and the control unit 66 of the smart unit 12 via the relay unit 81.
  • the brightness sensor 82 detects the brightness around the TV 1 (for example, the brightness of the room in which the TV 1 is installed) and supplies the detection result to the control unit 66 as a brightness signal.
  • the IR light receiving unit 83 receives, for example, an IR signal corresponding to a user operation emitted from the remote controller when the user operates a remote controller (not shown) and supplies the IR signal to the control unit 66.
  • the LED indicator 84 turns on or off the LED based on the LED control signal from the control unit 66.
  • the touch sensor 85 has, for example, a plurality of electrodes whose capacitance changes according to the proximity of a human finger or the like.
  • the touch sensor 85 detects the proximity operation and contact operation of the user based on the change in capacitance of the plurality of electrodes, and supplies the detection result to the control unit 66 as a touch sensor signal.
  • the USB control unit 86 includes a relay unit 81, a Wi-Fi (wireless communication) communication unit 87, an NFC (near field communication) communication unit 88, a BT (Bluetooth (registered trademark)) communication unit 89, and a USB (universal serial bus) terminal.
  • the input units 90 and 91 and the encoder 92 are connected.
  • the USB control unit 86 is supplied from the Wi-Fi communication unit 87, the NFC communication unit 88, the BT communication unit 89, the USB terminal input unit 90, the USB terminal input unit 91, and the encoder 92.
  • An I / F signal is acquired and output to the control unit 66.
  • the USB control unit 86 converts the USB I / F signal supplied from the control unit 66 via the relay unit 81 into the Wi-Fi communication unit 87, the NFC communication unit 88, the BT communication unit 89, and the USB terminal input unit 90. , And appropriately distribute to the USB terminal input unit 91 or the encoder 92.
  • the Wi-Fi communication unit 87 transmits the data supplied from the USB control unit 86 as a USB I / F signal to another communication device such as a mobile phone by wireless communication using a Wi-Fi communication method. .
  • the Wi-Fi communication unit 87 receives data transmitted from another communication device (Wi-Fi device) by Wi-Fi wireless communication, and supplies the data to the USB control unit 86 as a USB I / F signal. .
  • the NFC communication unit 88 transmits the data supplied from the USB control unit 86 as a USB I / F signal to another communication device (NFC device) such as a cellular phone, for example, by NFC as defined by ISO / IEC / 18092. Send by communication.
  • NFC device such as a cellular phone
  • the NFC communication unit 88 receives data transmitted from another communication device by proximity wireless communication, and supplies the data to the USB control unit 86 as a USB I / F signal.
  • the BT communication unit 89 transmits data supplied from the USB control unit 86 as a USB I / F signal to another communication device such as a mobile phone by wireless communication (BT communication) using Bluetooth (registered trademark). To do.
  • the BT communication unit 89 receives data transmitted from another communication device (BT device) by BT communication, and supplies the data to the USB control unit 86 as a USB I / F signal.
  • the USB terminal input unit 90 and the USB terminal input unit 91 are connectors to which a USB terminal is connected.
  • a USB memory or a hard disk storage device as an external storage device is connected to the USB terminal input unit 90 or the USB terminal input unit 91.
  • the USB terminal input unit 90 and the USB terminal input unit 91 are provided so as to face both side surfaces of the housing of the smart unit 12, for example.
  • a camera 93 and a microphone 94 are connected to the encoder 92.
  • the camera 93 includes an image sensor such as a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor, and supplies a video signal obtained by imaging to the encoder 92.
  • the microphone 94 supplies an audio signal obtained by collecting sound to the encoder 92.
  • the encoder 92 performs signal processing such as A / D conversion processing and encoding processing of the video signal and audio signal, and supplies the processed signal to the USB controller 86 as a USB I / F signal.
  • FIG. 6 shows a more detailed functional block diagram of the control unit 66.
  • control unit 66 At least the AV signal processing unit 101, the communication control unit 102, the LED control unit 103, and the sensor control unit 104 are realized by executing a control program stored in the internal memory 66A.
  • the AV signal processing unit 101 performs control for displaying a predetermined image on the display 14. For example, the AV signal processing unit 101 performs input / output processing of video and audio signals, A / D (Analog to Digital) conversion processing, D / A (Digital to Analog) conversion processing, descrambling processing of broadcast signals, and decoding processing And so on.
  • a / D Analog to Digital
  • D / A Digital to Analog
  • the communication control unit 102 controls communication to a network connected via the LAN terminal 61, Wi-Fi communication, NFC communication, BT (Bluetooth (registered trademark)) communication, and the like.
  • the LED control unit 103 performs LED control of the LED indicator 84. Specifically, the LED control unit 103 controls the light emission luminance by controlling the supply current to the LED by PWM (Pulse Width Modulation) control.
  • the PWM control is a method of controlling an average current by switching between an on state and an off state of current by switching and changing a ratio (duty ratio) between the on state and the off state.
  • the sensor control unit 104 acquires a brightness signal from the brightness sensor 82, an IR signal from the IR light receiving unit 83, an imaging signal captured by the camera 93, and performs control according to the acquired signal.
  • the sensor control unit 104 also controls the AV signal processing unit 101, the communication control unit 102, and the LED control unit 103 in accordance with the acquired signal.
  • the display 14 displays illumination (expression by light) that makes the user intuitively recognize the operation and state of the TV 1 or the operation performed on the TV 1 by the user. This is performed by cooperation between the image and lighting of the LED indicator 84 of the smart unit 12.
  • illumination expression by light
  • FIG. 6A shows a display example when only the central LED 21W is lit among the LED indicators 84
  • FIG. 6B shows a display example when three LEDs 21 are lit in white. Yes.
  • each component of the smart unit 12 is not shown, and the LED indicator 84 of the smart unit 12 is appropriately turned off or turned on with a predetermined concentration.
  • turning off or turning on the LED indicator 84 is also referred to as turning off or turning on the smart unit 12.
  • the light of the LED 21W is output only from the front (the output unit 23) of the smart unit 12. Therefore, when only the LED 21W is lit, only the front surface of the smart unit 12 emits light in a line shape, as shown in FIG. 6A.
  • the light of the LED 21L and the LED 21R is output from the front and lower (the output unit 23) of the smart unit 12. Therefore, when the three LEDs 21 are lit, semicircular light is formed vertically downward from the smart unit 12 in addition to light emission from the front of the smart unit 12, as shown in FIG. 6B. .
  • FIG. 7 shows an arrangement of three LEDs 21 when the smart unit 12 is viewed from above and an example of lighting in front of the smart unit 12.
  • the smart unit 12 emits light in a linear shape (line shape) as shown on the right side of FIG.
  • the LED indicator 84 for the two types of light emission states, that is, the point expression and the line expression, it is possible to express a difference in state such as the power-on state and the standby state of the TV 1.
  • the user When expressing with two types of light emission states of point expression and line expression, the user can recognize the difference between the two states of the TV 1 without identifying the color.
  • the two color LEDs 21L and 21R need only be able to be lit in white, so that the two color LEDs 21L and 21R can be realized even if they are white LEDs.
  • the LED indicator 84 is assumed to be composed of three LEDs 21.
  • the two LEDs 21 arranged at the front and rear also represent a point expression and a line expression. These two types of light emission states can be expressed. Further, for example, as shown in FIG. 9, even when three LEDs 21 are arranged in the horizontal direction, two types of light emission states of point expression and line expression can be expressed.
  • the LED indicator 84 is composed of one LED 21 at the front center and two LEDs 21 at the left and right rear, but the number of LEDs 21 constituting the LED indicator 84 is two or more. What is necessary is just to arrange
  • 6 to 9 are diagrams in which both ends of the smart unit 12 do not emit light for convenience of explanation, but actually, the LED indicator 84 can emit light to both ends of the smart unit 12.
  • LED indicator 84 sequence lighting example The example described with reference to FIGS. 6 to 9 is an example of lighting when one or more LEDs 21 are turned on / off at a predetermined emission luminance.
  • FIG. 10 shows an example of lighting when the emission luminance of one or more LEDs 21 is continuously changed by PWM control.
  • the LED control unit 103 controls to turn on the white LED 21W at the front of the center first and then gradually dimm it, and gradually turn on the color LEDs 21L and 21R on the left and right rear and then turn off the light.
  • a lighting expression as indicated by 10 A is possible. That is, a lighting expression is possible in which the central portion of the line-shaped smart unit 12 shines first, and the light moves from side to side and flows.
  • Such a lighting expression that changes the lighting position and the luminance as time elapses can be adopted as an expression indicating the continuous operation of the TV 1.
  • it can be expressed as an operation when the TV 1 is connected to an external device such as a remote controller, a PC (personal computer), or a mobile terminal (smartphone) to transmit and receive data.
  • the lighting expression of A in FIG. 10 the user outputs (transfers) the data from the TV 1 to an external device with the smart unit 12 as the center of the TV 1 (core) or the input / output unit.
  • the lighting expression B in FIG. 10 the user can conceive the operation in which data is input from the external device to the TV 1.
  • FIG. 11 shows an example of the linked lighting expression in which the image display on the display 14 is combined with the lighting expression of the LED indicator 84 shown in FIG.
  • the width of the smart unit 12 is shown to be the same as the width of the display body 11 in order to facilitate understanding of the lighting expression of the smart unit 12.
  • a of FIG. 11 is an example of lighting expression that combines lighting by one white LED 21W and image display of the display 14, and is an example of lighting expression that makes the user think about data output as in FIG. is there.
  • FIG. 11A first, an image in which white light is arranged at the center of the screen is displayed on the display 14. Then, the light displayed at the center of the screen gradually moves downward in the screen, which is the direction of the smart unit 12. When the light on the display 14 is extinguished, the white LED 21W of the smart unit 12 is turned on and then extinguished.
  • B in FIG. 11 is an example of lighting expression that combines lighting by one white LED 21W and image display on the display 14, and is an example of lighting expression that makes the user think of data input in the same manner as B in FIG. is there.
  • the center of the smart unit 12 is turned on by the white LED 21W and then turned off. As the white LED 21W is extinguished, an image in which white light appears in the vicinity of the smart unit 12 in the screen is displayed on the display 14. Then, the white light displayed on the screen gradually moves upward on the screen, and an image disappearing at the center of the screen is displayed on the display 14.
  • C in FIG. 11 is an example of lighting expression that combines lighting by three LEDs 21 and image display of the display 14, and is an example of lighting expression that makes the user think about data output.
  • FIG. 11C first, an image in which white light is arranged at the center of the screen is displayed on the display 14, and the light displayed at the center of the screen gradually moves downward in the screen, which is the direction of the smart unit 12. To do. Then, as the light on the display 14 disappears, the white LED 21W arranged at the center of the smart unit 12 is turned on, and then the lighting expression is such that the light at the center of the smart unit 12 moves to the left and right and flows.
  • D in FIG. 11 is an example of lighting expression that combines lighting by three LEDs 21 and image display on the display 14, and is an example of lighting expression that makes the user think about data input.
  • both ends of the smart unit 12 are lit in white by the color LEDs 21L and 21R and then extinguished.
  • the white LED 21W is gradually turned on and then extinguished.
  • a lighting expression in which both ends of the smart unit 12 shine first and the light moves to the central portion and flows is possible.
  • an image in which white light appears in the vicinity of the smart unit 12 in the screen is displayed on the display 14.
  • the white light displayed on the screen gradually moves upward on the screen, and an image disappearing at the center of the screen is displayed on the display 14.
  • the input / output of data is made to be considered by the user. be able to.
  • FIG. 12 shows an example of lighting expression corresponding to the start operation from the standby state (power off) to the start state (power on) of the TV 1 and the standby operation from the start state to the standby state.
  • the LED control unit 103 controls the color LEDs 21L and 21R to emit light with a luminance of 50% of the maximum luminance (MAX) as shown in FIG.
  • MAX maximum luminance
  • LED control that emits light at 50% of the maximum brightness is referred to as lighting with 50% brightness.
  • the LED control unit 103 turns on the color LED 21L and the color LED 21R with 100% luminance as shown in FIG. 12B.
  • a predetermined logo (“SOMY”) is displayed on the display 14 for a moment.
  • FIG. 12C shows a control sequence of the brightness of the three LEDs 21 when the activation operation is detected.
  • the LED control unit 103 controls the color LEDs 21L and 21R to light at 100% luminance and then to have 0% luminance in a predetermined time.
  • the LED control unit 103 controls the white LED 21W having 0% luminance to light up gradually after a certain period of time has elapsed from the activation operation so that the luminance becomes 50% in a predetermined time after the activation operation.
  • the LED control unit 103 performs the LED control shown in D of FIG. That is, the LED control unit 103 performs control to gradually increase the output of the color LEDs 21L and 21R from 0% luminance to 50% luminance and to gradually change the white LED 21W from 50% luminance to 0% luminance.
  • FIG. 13 shows a lighting expression of the LED indicator 84 when a predetermined button such as a channel button or program guide button of the remote controller of the TV 1 is pressed.
  • the LED lamp In conventional television receivers, the LED lamp generally shines only for the moment when a button operation is detected. In this case, if the user's line of sight deviates from the screen even a little, it is difficult for the user to recognize whether or not a button operation has been detected because the LED lamp has been turned off.
  • the LED control unit 103 changes the output of the three LEDs 21 from 0% luminance at the time of button operation in a short time (for example, 0.1 second). Then, control is performed so that the luminance is gradually decreased to 0% over a predetermined time (for example, 0.9 seconds).
  • the LED control unit 103 temporarily reaches the maximum luminance as shown by the solid line in FIG. After the output is increased, control is performed to return to the original output.
  • a predetermined output for example, 50% luminance
  • the operation feedback corresponding to the user's button operation the brightness is changed over time, and the lighting expression that leaves a remnant is left, so that the user's line of sight is slightly off the screen or missed for a moment Even in the case of lighting, the lighting can be recognized, and the visibility is improved.
  • the lighting expression that leaves a reverberation may be a control opposite to the luminance control described above, as indicated by a broken line in FIG. 13A and FIG. 13B. That is, the control indicated by the solid line in FIG. 13 is a control in which the first brightness is set and then gradually lowered to the second brightness lower than the first brightness. The control may be set and then gradually increased to a second luminance higher than the first luminance.
  • the control value of the light emission luminance in the above-described example is merely an example, and it is needless to say that the value can be set to an arbitrary value without being limited to the illustrated numerical value (the same applies to other examples).
  • FIG. 14 shows a setting screen when the timer is set in the TV 1.
  • each item described above is displayed on a black background and a background image that shines in a predetermined color in a circular shape with the center of the screen as a base point.
  • the color of the dimly lit circle is a color assigned in advance to the timer function, for example, orange.
  • the user sets each item on the setting screen to a desired value and then presses a determination button on the remote controller, for example, as an operation to confirm (register) the setting contents.
  • a determination button on the remote controller, for example, as an operation to confirm (register) the setting contents.
  • the TV 1 performs a linked expression that combines image display on the display 14 and lighting by the LED indicator 84 of the smart unit 12, as shown in FIG.
  • the orange light circle on the setting screen gradually moves downward in the screen, which is the direction of the smart unit 12.
  • the LED indicator 84 is lit in synchronization with or interlocking with the disappearance of the orange light circle on the setting screen.
  • the color LEDs 21L and 21R gradually emit light until the smart unit 12 is orange and has the maximum luminance, and then gradually fades to a certain luminance (for example, , 20% brightness).
  • the state in which the LED indicator 84 of the smart unit 12 is always lit at a constant luminance indicates that the function corresponding to the light emission color is operating on the TV 1.
  • a constant luminance for example, 20% luminance
  • the smart unit 12 When the smart unit 12 is always lit at a constant luminance (for example, 20% luminance), this means that a predetermined function is operating on the TV 1, and the user presses the screen display button of the remote controller. Thus, it is possible to confirm what function is being operated.
  • a constant luminance for example, 20% luminance
  • FIG. 16 shows the operation of the TV 1 when the screen display button of the remote controller is pressed when the timer function is in operation and the user is viewing a predetermined broadcast program.
  • FIG. 16 shows a state in which the smart unit 12 is lit with a certain luminance (for example, 20% luminance) in orange indicating that the timer function is operating.
  • a certain luminance for example, 20% luminance
  • the display image on the display 14 and the lighting of the smart unit 12 change in the order indicated by the arrows as time passes. That is, on the display 14, a small screen showing the setting contents of the timer function being operated is superimposed on the area above the smart unit 12 in the display image, and is erased after a predetermined time has elapsed.
  • the degree of superimposition of the child screen on the broadcast program image that is the parent screen increases with the passage of time and then decreases with the passage of time.
  • the orange emission brightness of the smart unit 12 also increases with the passage of time in synchronization with the degree of superimposition of the sub-screens, and then decreases.
  • the sub-screen showing the setting contents of the timer function has a meaning as supplementary information that supplements the function currently being operated (function corresponding to the lighting color of the smart unit 12).
  • the smart unit 12 is lit in red during the recording operation.
  • the TV 1 displays the channel name, the program name, the image of the broadcast program, etc. during the recording operation on the sub screen as shown in FIG. 12 lights up in luminance synchronized with the superimposed display of the sub-screen and in red.
  • the smart unit 12 when the user is using the video chat function via the Internet and the video chat screen (also referred to as a video chat image) is hidden and the program image is displayed in full screen, the smart unit 12 is displayed. Emits yellow light corresponding to the video chat function. Then, when the screen display button of the remote controller is pressed, as shown in FIG. 17C, the display 14 displays the video chat screen on the child screen, and the smart unit 12 is synchronized with the superimposed display of the child screen. Lights up with brightness and yellow.
  • the display 14 displays supplementary information on the sub screen, and the smart unit 12 corresponds to the brightness synchronized with the sub screen and the type of supplement information. Lights in the color to be used.
  • the user can know what function is operating on the TV 1 only by looking at the state in which the smart unit 12 is always lit in a predetermined color. That is, the operation or setting state of a predetermined function of the TV 1 can be intuitively recognized. If necessary, supplementary information of the function being operated can be displayed as a sub-screen.
  • “A” displayed on the light circle in the display image of the display 14 indicates a predetermined function that the user is currently operating (up / down key operation, drag operation). It is a display to show.
  • FIG. 18 shows a coordinated lighting expression when the up key is pressed among the four direction keys of the up, down, right, and left keys of the remote controller.
  • the coordinated lighting expression is performed so that the light that is lit up moves in the upward direction corresponding to the up key.
  • the smart unit 12 is lit first. Thereafter, as the light of the smart unit 12 gradually turns off, an image that moves so that the light displayed in the vicinity of the smart unit 12 rises to the center of the screen is displayed on the display 14.
  • FIG. 19 shows a coordinated lighting expression when the lower key of the remote controller is pressed.
  • the coordinated lighting expression is performed so that the light that has been turned on moves downward corresponding to the down key. Specifically, first, an image having circular light at the center of the screen is displayed on the display 14. Then, an image in which the circular light at the center of the screen moves downward toward the smart unit 12 is displayed on the display 14. Next, as the light on the display 14 disappears, the smart unit 12 is turned on and then turned off.
  • FIG. 20 shows a coordinated lighting expression when the display 14 of the TV 1 is a touch panel and the user touches the display 14 with a finger and drags it downward toward the smart unit 12.
  • the TV 1 performs the same image display and lighting as when the down key of the remote controller described in FIG. 19 is pressed.
  • FIG. 21 shows a cooperative lighting expression when the user touches the display 14 with a finger and drags it from the vicinity of the smart unit 12 when the display 14 of the TV 1 is a touch panel.
  • the TV 1 performs the same image display and lighting as when the upper key of the remote controller described with reference to FIG. 18 is pressed.
  • the user performs the predetermined operation as described above when the smart unit 12 is lit or blinking with a predetermined luminance and color, thereby indicating the contents (meaning) indicated by the lighting or blinking of the smart unit 12. You can check instantly and easily.
  • the TV 1 includes a camera 93 in the smart unit 12 and can detect a user in front of the TV 1 based on an image captured by the camera 93.
  • the TV 1 has a blanking function that hides an image for power saving when it is detected that the user does not exist for a certain period of time before the TV 1.
  • 22A shows a cooperative expression that combines image display on the display 14 and lighting by the smart unit 12 when the TV 1 shifts to the blanking mode.
  • the control unit 66 displays the image so that the image to be erased is sucked into the smart unit 12 disposed below the display 14 as shown in FIG. 14 image display is controlled. That is, in the image displayed on the display 14, the emission luminance in the vicinity of the smart unit 12 increases as the image to be erased is sucked into the smart unit 12. Then, as the image displayed on the display 14 is sucked into the smart unit 12, the smart unit 12 is lit brighter (the luminance increases). In other words, the control unit 66 controls the display of the display 14 and the lighting of the smart unit 12 so that the display rate of the image on the display 14 and the light emission luminance of the smart unit 12 are inversely proportional.
  • 22B shows a cooperative expression that combines the image display on the display 14 and the lighting by the smart unit 12 when returning from the blanking mode to the normal mode (display mode).
  • the control unit 66 controls the display image so that the display target image is discharged from the smart unit 12, as shown in FIG. That is, the vicinity of the smart unit 12 of the display 14 becomes a high-brightness image, and then the image to be displayed is enlarged to the full screen.
  • the smart unit 12 gradually changes to low luminance as the display target image is displayed on the display 14. In other words, the light emission luminance of the smart unit 12 decreases in inverse proportion to the display rate of the display target image on the display 14.
  • control unit 66 displays a coordinated expression between the display 14 and the smart unit 12 such that the image to be erased is sucked into the smart unit 12 and the image to be displayed is discharged from the smart unit 12. Do.
  • the user can be made to think that the smart unit 12 is the core (central part, core) of the TV 1.
  • FIG. 23 shows a screen transition when using the video chat function via the Internet in the TV 1.
  • the TV 1 displays the video as in the image 202.
  • the smart unit 12 is turned on in synchronization with the sound indicating the incoming call.
  • lighting up in synchronization with the sound indicating the incoming video chat indicates that the luminance of the LED indicator 84 changes according to the pitch or volume of the sound indicating the incoming video chat.
  • the light emission color of the LED indicator 84 is associated with a predetermined function. Therefore, even when the user stops making a sound indicating the incoming video chat, By visually recognizing the lighting color of the LED indicator 84, it is possible to recognize that there is an incoming video chat.
  • the user responds to an incoming video chat by pressing a predetermined button on the remote controller. Then, as shown in the images 203 to 204, the control unit 66 of the TV 1 performs the video chat with the cooperative expression that combines the image display on the display 14 and the lighting by the smart unit 12 described with reference to FIG. Display the screen. That is, the control unit 66 controls the lighting of the smart unit 12 and the display image on the display 14 so that the video chat image is discharged from the smart unit 12 on the broadcast program image currently being viewed.
  • the control unit 66 of the TV 1 When the user ends the video chat, the control unit 66 of the TV 1 performs the image display on the display 14 described with reference to FIG. 22A and the lighting by the smart unit 12 as shown in the images 206 to 209. Eliminate video chat images with combined linked expressions. That is, the control unit 66 controls the lighting of the smart unit 12 and the display image on the display 14 so that the video chat image is sucked into the smart unit 12 disposed on the lower side of the display 14.
  • the video chat it is possible to chat only by voice conversation without displaying the video chat image on the display 14.
  • the voice conversation mode in which chat is performed only by voice conversation, as shown in images 210 and 211, the video chat image is deleted, and the smart unit 12 is turned on in synchronization with the voice (sound) of the other party.
  • the video chat image is displayed on the broadcast program image being displayed.
  • FIG. 24 shows an example in which an expression combining image display on the display 14 and lighting by the smart unit 12 is applied to an electronic POP (Point-of-purchase-advertising).
  • POP Point-of-purchase-advertising
  • the image of the display 14 is also used for displaying and erasing an information providing screen that recognizes an individual user based on a user image captured by the camera 93 of the smart unit 12 and provides optimal information to the recognized user.
  • An expression that combines display and lighting by the smart unit 12 can be employed.
  • the content of the information provided to the user on the information providing screen can be changed according to the time, date, weather and the like as well as the recognized individual user. For example, when a certain user is recognized in the morning on weekdays, traffic information (traffic congestion information) such as train routes and roads registered in advance can be presented on the information providing screen.
  • the second image which is another image
  • the second image is sucked into the smart unit 12, or A coordinated expression that is discharged from the smart unit 12 can be employed.
  • each of the three positions on the left side, the center, and the right side can be identified by lighting each of them independently. it can.
  • the control unit 66 displays an explanatory image explaining predetermined information on the display 14 at positions corresponding to the three LEDs 21 on the left side, the center, and the right side.
  • An image explaining the above is displayed.
  • control unit 66 turns on the three LEDs 21 sequentially, for example, one by one while displaying the explanation image for explaining “information A”, “information B”, and “information C”. , Let the user recognize the correspondence between information B, information C and the LED 21.
  • the image displayed on the display 14 is switched and the explanation image is deleted.
  • an image showing a mountain is displayed on the display 14 of the TV 1, but this means that it is irrelevant to the lighting of the smart unit 12, and the image itself has no meaning.
  • the control unit 66 When the left LED 21L is lit while the mountain image is displayed on the display 14, the user who sees the LED 21L knows that it is “Information A”. When the central LED 21W is lit, the user who sees it knows that it is “Information B”. When the right LED 21R is lit, the user who sees it knows that it is “information C”. As described above, when the control unit 66 represents predetermined information, the control unit 66 turns on the LED 21 at a position corresponding to the information.
  • the control unit 66 for example, as “information A” of the explanation image displayed on the display 14, a photographed image of the user A, as “information B”, a photographed image of the user B, and “information C”. After displaying the photographed image of user C, the display 14 is switched to the broadcast program image. Then, the control unit 66 lights the left LED 21L when the user A is talking, lights the central LED 21W when the user B is talking, and turns the right LED 21W when the user C is talking. Turn on the LED21R.
  • the user in front of the TV 1 can easily recognize which user is talking by simply looking at the lighting position of the LED indicator 84.
  • an image with an explanation such as “This position is user A” may be displayed instead of the captured images of user A, user B, and user C.
  • FIG. 26 shows another example in which the user recognizes predetermined information according to the lighting position of the LED indicator 84.
  • control unit 66 displays the explanation image in the same manner as in FIG. 25, and then moves the image explaining “information B” downward in the screen. Then, the image explaining “information B” disappears, and the central LED 21W corresponding to “information B” is turned on to allow the user to recognize the correspondence between the predetermined information and the LED 21. Thereby, even if the image is switched, if the central LED 21W is lit, the user who sees it can know that it is “information B”.
  • the number of pieces of information to be described is “information A” to “information F”.
  • the control unit 66 displays the explanation images of “information A” to “information F” on the display 14 and displays the explanation images of “information A” to “information F”. , And display sequentially with different blinking patterns. At this time, the LED 21W of the LED indicator 84 is also lit with the brightness synchronized with the blinking pattern of the image.
  • the smart unit 12 lights up with any one of the blinking patterns of “information A” to “information F” presented in the previous explanation image.
  • the LED 21W of the smart unit 12 is lit (flashes) with the blinking pattern of “information A”.
  • the user knows that the information is “Information A” even when an irrelevant image is displayed on the display 14.
  • the control unit 66 displays an explanation image explaining “information A”, “information B”, and “information C” on the display 14.
  • FIG. 28 is different in that explanation images for explaining “information A”, “information B”, and “information C” are expressed in different colors. For example, “Information A” is displayed in red, “Information B” is displayed in blue, and “Information C” is displayed in green.
  • the left and right directions of the smart unit 12 as a time axis and lighting a plurality of colors side by side in the time axis direction, information contents and their ranking can be recognized by the lighting of the smart unit 12. .
  • the color LED 21L is displayed in green and the color LED 21R is displayed in red, the user knows that “information C” and “information A” are in the order of green and red. .
  • the smart unit 12 includes the touch sensor 85 and can detect contact or proximity of a user's hand or finger.
  • the smart unit 12 includes an NFC communication unit 88 and a BT communication unit 89, and can communicate with other NFC devices and BT devices. Furthermore, since the smart unit 12 has the camera 93, it can detect a user's operation.
  • the TV 1 can perform a predetermined cooperative expression by lighting the LED indicator 84 and displaying an image on the display 14 in response to various user operations on the smart unit 12.
  • FIG. 29 shows an example of a cooperative expression corresponding to a touch operation on the smart unit 12.
  • FIG. 29 shows an example in which the same cooperative expression is performed when a touch operation on the smart unit 12 is detected instead of pressing the screen display button of the example of FIG.
  • the smart unit 12 When the timer function is operating in the TV 1, the smart unit 12 is lit in the luminescent orange color corresponding to the timer function. The user touches the smart unit 12 lit in orange with his / her hand.
  • the control unit 66 of the TV 1 detects a user's touch operation on the smart unit 12, as shown in FIG. 16, the control unit 66 performs superimposition display of the sub-screen as supplementary information and synchronizes with the sub-screen. (LED indicator 84) is caused to emit light in a color corresponding to the function.
  • the user can know what function of the TV 1 is operating only by looking at the state in which the smart unit 12 is always lit in a predetermined color. That is, the operation or setting state of a predetermined function of the TV 1 can be intuitively recognized. Further, by a simple operation of touching the smart unit 12, supplementary information on the function being operated can be displayed as a sub-screen, and the contents can be called up.
  • FIG. 29 shows an example in which a predetermined image such as a broadcast program image is displayed as the main screen, as in FIG. 16 described above, but FIG. 30 shows that the TV 1 is in a standby state and the image is not displayed. In some cases, a touch operation on the smart unit 12 is detected.
  • the TV 1 when the TV 1 detects a touch operation on the smart unit 12 by the user, the TV 1 displays supplementary information in the vicinity of the smart unit 12 in the display 14 and synchronizes with the display of the supplementary information.
  • the LED indicator 84 is caused to emit light in a color corresponding to the function.
  • FIG. 31 shows an example of cooperative expression corresponding to the NFC proximity operation for the smart unit 12.
  • the user grips a mobile terminal (smartphone or the like) 221 having an NFC communication function instead of his / her hand, and brings it closer to the smart unit 12.
  • the TV 1 When the TV 1 detects the proximity of the mobile terminal 221 to the smart unit 12, the TV 1 turns on to indicate that the smart unit 12 has detected the proximity.
  • the LED indicator 84 is lit in synchronization with or interlocking with the LED lamp of the portable terminal 221.
  • TV1 performs the same cooperative expression as FIG. That is, as shown in FIG. 16, the TV 1 performs superimposition display of the sub screen as supplementary information, and causes the LED indicator 84 to emit light in a color corresponding to the function in synchronization with the sub screen.
  • FIG. 32 shows an example when the proximity of the mobile terminal 221 to the smart unit 12 is detected when the TV 1 is in the standby state.
  • the smart unit 12 when the proximity of the mobile terminal 221 to the smart unit 12 is detected, the smart unit 12 turns on to indicate that the proximity has been detected.
  • supplementary information is displayed near the smart unit 12 in the display 14, and the LED indicator 84 emits light in a color corresponding to the function in synchronization with the display of the supplemental information.
  • FIG. 33 shows an example of cooperative expression corresponding to data transfer performed between the mobile terminal 221 and the smart unit 12 that are close to each other.
  • 33A shows an example of cooperative expression when data is transferred from the mobile terminal 221 to the TV 1.
  • the user brings the mobile terminal 221 closer to the smart unit 12 of the TV 1.
  • the control unit 66 of the TV 1 turns on the smart unit 12 in synchronization with the LED lamp of the mobile terminal 221. That is, the LED indicator 84 of the smart unit 12 and the LED lamp of the portable terminal 221 emit light at the same timing and are always lit or repeatedly turned on and off with the same blinking pattern.
  • the control unit 66 of the TV 1 starts acquiring predetermined data from the mobile terminal 221 by NFC communication.
  • the control unit 66 of the TV 1 performs lighting expression representing data input in combination with lighting of the LED lamp of the mobile terminal 221. Specifically, first, the LED lamp of the portable terminal 221 is lit with a predetermined luminance. Then, in response to the operation of turning off the LED lamp of the portable terminal 221 (reducing the brightness), the control unit 66 of the TV 1 combines the LED indicator 84 and the image display of the display 14 shown in FIG. Make a lighting expression.
  • a of FIG. 32 shows an example in which the TV 1 performs the lighting expression of B of FIG.
  • FIG. 33B shows an example of a cooperative expression when data is transferred from the TV 1 to the mobile terminal 221.
  • the lighting expression when the TV 1 (the smart unit 12) as the NFC communication device and the portable terminal 221 detect the communication partner is the same as A in FIG.
  • the control unit 66 of the TV 1 When the data transfer from the TV 1 to the mobile terminal 221 is started, the control unit 66 of the TV 1 performs lighting expression representing data output in combination with lighting of the LED lamp of the mobile terminal 221. Specifically, first, the control unit 66 of the TV 1 performs a lighting expression in which the LED indicator 84 and the image display on the display 14 are combined as shown in A of FIG. 11 or C of FIG. In the portable terminal 221, the LED lamp of the portable terminal 221 is gradually turned on and then turned off in response to the turn-off operation (reduction in luminance) of the LED indicator 84.
  • B of FIG. 33 shows an example in which the TV 1 performs the lighting expression of A of FIG.
  • the TV 1 detects that the communication partner has been detected by using the LED indicator 84 to light up the display unit (LED lamp) of the external device that is the communication partner of NFC communication. To express.
  • the TV 1 performs data input / output operations by linking the LED expression 84 lighting and image display (video expression) in combination with the LED lamp lighting of the external device that is the communication partner of NFC communication. Represents.
  • the TV 1 has a gesture input mode in which a predetermined command is given to the TV 1 by a gesture operation and predetermined information is input.
  • control unit 66 of the TV 1 detects the user's hand and recognizes the gesture in the gesture input mode, the control unit 66 performs control to turn on the LED indicator 84 as shown in FIG.
  • a user in front of TV 1 turns his palm toward TV 1 (camera 93).
  • the control unit 66 detects the user's hand based on the image photographed by the camera 93, the control unit 66 turns on the LED indicator 84 with the first luminance (for example, 40% luminance).
  • the control unit 66 of the TV 1 recognizes the gesture based on the image captured by the camera 93, the first luminance is changed to the second luminance (for example, 100). % Brightness). Thereafter, the control unit 66 gradually decreases the luminance so that the second luminance is changed to the first luminance.
  • control unit 66 When the control unit 66 recognizes the gesture again based on the image photographed by the camera 93, the control unit 66 instantaneously increases the first luminance to the second luminance and gradually returns to the first luminance. On the other hand, when the user drops his hand and the palm of the user to be recognized cannot be detected, the control unit 66 turns off the LED indicator 84.
  • control unit 66 changes the first luminance to the second luminance as time elapses, and sets the LED indicator 84 so that the lighting expression is such that a remnant is left. Control. By performing such lighting, it is easily understood whether or not the TV 1 on the side receiving a predetermined command or information is receiving a user instruction.
  • FIG. 35 shows an example of cooperative expression corresponding to the pairing operation of the BT device.
  • the headphone 241 shown in FIG. 35 is a BT device that receives an audio signal such as a broadcast program from the TV 1 by BT communication and outputs the audio.
  • the headphone 241 has an LED lamp 242 that emits predetermined light according to a power supply state or a communication state.
  • both the LED indicator 84 of the TV 1 and the LED lamp 242 of the headphone 241 are turned off before the TV 1 and the headphone 241 which are BT devices are paired.
  • the user performs a pairing operation between the TV 1 and the headphones 241. That is, when the user performs a predetermined operation on the headphones 241 in advance, the headphones 241 are changed to the pairing mode. Further, the TV 1 is also changed to the pairing mode, and the control unit 66 of the TV 1 searches for a BT device within the communicable range and detects the headphones 241.
  • the control unit 66 of the TV 1 performs a pairing operation with the detected headphone 241. As a result, the same pass code (PIN code) is shared between the TV 1 and the headphones 241.
  • the TV 1 When the pairing is completed, the TV 1 performs linked expression combining lighting of the LED indicator 84 and image display (video expression) indicating that the pairing is completed, as shown in FIG. That is, the TV 1 causes the LED indicator 84 to emit light with a first luminance (for example, 100% luminance) and causes the display 14 to display a semicircular light image centered on the smart unit 12. In the image displayed on the display 14, characters “Pairing with Headphone!” Are also displayed.
  • the lighting and image display of the LED indicator 84 are controlled so as to be performed in synchronism so as to be the same as the blinking pattern of the LED lamp 242 of the headphones 241.
  • the lighting of the LED indicator 84 and the image display may be performed so as to be interlocked with the blinking pattern of the LED lamp 242 of the headphones 241 while maintaining a predetermined time difference.
  • synchronized lighting control similar to B in FIG. 35 is also performed when a mutual BT device is detected.
  • the LED indicator 84 of the smart unit 12 and the LED lamp 242 of the headphone 241 have a second luminance lower than the first luminance (for example, 40% luminance). Always lights up.
  • the TV 1 turns on the smart unit 12 in accordance with the communication state with other communication devices connected to the home network by wire or wireless.
  • the TV 1 is, for example, a DLNA compatible device that complies with the DLNA (Digital Living Network Alliance) standard, acquires content from other DLNA compatible devices that comply with the DLNA standard, and displays an image of the acquired content on the display 14. Can do.
  • DLNA Digital Living Network Alliance
  • the operation (action) of outputting the content (image) reproduced and displayed on the first DLNA compatible device from the first DLNA compatible device to the second DLNA compatible device is referred to as slow.
  • an operation (action) for causing the first DLNA-compatible device to input the content (image) reproduced and displayed on the second DLNA-compatible device is referred to as catch.
  • FIG. 36 shows an example of cooperative expression between the TV 1 and the mobile terminal 261 when content is thrown from the mobile terminal 261 that is the first DLNA compatible device to the TV 1 as the second DLNA compatible device.
  • slow device icons 281 and 282 which are icons of DLNA compatible devices connected to the home network are displayed as candidates for the throw destination. Is done.
  • the slow device icon 281 corresponds to the TV 1
  • the slow device icon 282 corresponds to a personal computer (not shown) connected to the home network.
  • the slow device icon 281 is also referred to as a TV icon 281
  • the slow device icon 282 is also referred to as a PC icon 282.
  • the user drags the content icon 283 using the thumbnail of the content being played back with a finger and moves it to the slow device icon 281 or 282 to be thrown.
  • the user releases the finger dragged on the TV icon 281 from the display 262, selecting TV1 as the throw destination.
  • the content icon 283 disappears so as to be sucked into the TV icon 281 as shown in FIG. It becomes like this.
  • the LED indicator 84 of the smart unit 12 has a first luminance (50% luminance). ) Gradually becomes brighter and rises to the second luminance (100% luminance). Then, as shown in FIG. 36D, as the LED indicator 84 is gradually turned off from the second luminance, an image of the content reproduced and displayed on the mobile terminal 261 is displayed on the display 14 of the TV 1. .
  • FIG. 37 shows a state in which the content image 291 reproduced and displayed on the display 262 of the mobile terminal 261 is gradually displayed on the TV 1.
  • the content image 291 being reproduced on the portable terminal 261 is displayed on the TV 1 as shown in A ⁇ B in FIG. 37 ⁇ C in FIG. 37 ⁇ D in FIG. 37 ⁇ E in FIG.
  • a TV 1, a tablet terminal 301, and a mobile terminal 302, also called a smartphone, are connected to the home network to which the TV 1 is connected.
  • the tablet terminal 301 includes a display 311 and an LED lamp 312, a control unit (not shown) that controls them, and a wireless communication unit (not shown) that performs wireless communication such as Wi-Fi communication, NFC communication, and BT communication. Have.
  • a predetermined content image 313 is displayed on the display 311 of the tablet terminal 301.
  • the portable terminal 302 also includes a display 321 and an LED lamp 322, a control unit (not shown) that controls them, and a wireless communication unit (not shown).
  • a predetermined content image 323 is displayed on the display 321 of the portable terminal 302.
  • a content image 331 such as a broadcast program is displayed on the display 14 of the TV 1.
  • a slow catch instruction screen shown in A of FIG. 39 is displayed on the display 321.
  • a slow selection icon 341 operated when executing the slow process and a catch selection icon 342 operated when executing the catch process are displayed.
  • the TV icon 343 corresponding to the TV 1 and the tablet icon corresponding to the tablet terminal 301 as the throw destination candidates. 344 is displayed on the display 321 of the portable terminal 302.
  • the user taps either the TV icon 343 or the tablet icon 344 displayed on the mobile terminal 302 and selects it as the throw destination, so that the content image 323 reproduced and displayed on the mobile terminal 302 is displayed on the TV 1 or tablet terminal. Thrown to 301.
  • the user moves the mobile terminal 302 being held to the throw destination. As close to the smart unit 12 of the TV1. Then, the TV 1 and the mobile terminal 302 detect proximity to each other by NFC communication, the TV 1 is selected as a throw destination, and the content image 323 reproduced and displayed on the mobile terminal 302 is thrown to the TV 1.
  • the coordinated expression of the display 14 of the TV 1 and the LED indicator 84 described with reference to FIG. 37 is executed between the TV 1 as the throw destination and the mobile terminal 302.
  • the catch selection icon 342 is tapped on the slow catch instruction screen shown in A of FIG. 39 and catch (processing) is selected, the catch destination selection screen similar to B of FIG. Is displayed on the display 321. Then, the DLNA-compatible device to be caught is designated by the tap of the TV icon 343 or the tablet icon 344 or the proximity of the mobile terminal 302. As a result, a content image is input from the designated DLNA-compatible device and displayed on the display 321 of the mobile terminal 302.
  • 41 and 42 are diagrams for explaining other operation methods of the cooperative communication.
  • the content image 323 displayed on the display 321 is dragged upward from the state where the throw destination selection screen shown in FIG. 39B is displayed, and the TV icon 343 or the tablet icon 344 is By releasing the finger, the TV 1 or the portable terminal 302 can be designated as the throw destination.
  • the LED indicator 84 of the smart unit 12 of the TV 1 corresponding to the TV icon 343 is displayed. Lights up at a predetermined cycle.
  • the mobile terminal 302 transmits a control signal indicating that the content image 323A is selected to the TV 1 selected as the throw destination when the content image 323A is overlapped with the TV icon 343.
  • the LED indicator 84 of the smart unit 12 is turned on at a predetermined cycle.
  • the LED lamp 312 of the tablet terminal 301 corresponding to the tablet icon 344 is turned on for a predetermined period. Lights on.
  • the mobile terminal 302 transmits a control signal indicating that the content image 323A is selected to the tablet terminal 301 selected as the throw destination when the content image 323A overlaps the tablet icon 344.
  • the LED indicator 84 of the smart unit 12 is turned on at a predetermined cycle.
  • the TV 1 and the tablet terminal 301 are lit at a predetermined cycle when the mobile terminal 302 selects itself as the output destination of the content image 323. Thereby, the user can easily recognize the device of the throw destination (content data output destination).
  • FIG. 43 is a diagram for explaining still another operation method of cooperative communication.
  • the user drags on the display 321 of the mobile terminal 302 in the upward direction of the drawing while the content image 323 is reproduced and displayed on the mobile terminal 302 as shown in FIG. .
  • the mobile terminal 302 detects the upward drag operation of the user, the mobile terminal 302 recognizes that a slow command has been instructed, and causes the display 321 to superimpose a slow icon 361 indicating a slow motion. Thereafter, a throw destination selection screen similar to B in FIG. 39 is displayed on the display 321.
  • the user drags on the display 321 of the portable terminal 302 in the downward direction of the drawing.
  • the mobile terminal 302 detects a downward drag operation of the user, the mobile terminal 302 recognizes that a catch command has been instructed, and displays a catch icon 362 indicating a catch operation on the display 321 in a superimposed manner. Thereafter, a catch destination selection screen similar to B in FIG. 39 is displayed on the display 321.
  • FIG. 44 is a diagram for explaining still another operation method of cooperative communication.
  • the user uses the gripped mobile terminal 302 as the smart device of the TV 1 as the cooperative communication destination. Move closer to unit 12. Then, the TV 1 and the mobile terminal 302 detect proximity to each other by NFC communication. Then, the LED indicator 84 of the smart unit 12 of the TV 1 and the LED lamp 322 of the mobile terminal 302 are turned on in synchronization.
  • the mobile terminal 302 causes the display 321 to display a cooperative communication selection screen similar to that shown in FIG.
  • the slow selection icon 341 is tapped (selected) on the cooperative communication selection screen
  • the content image 323 reproduced and displayed on the mobile terminal 302 is thrown to the TV 1.
  • the catch selection icon 342 is tapped (selected) on the cooperative communication selection screen
  • the content image 331 reproduced and displayed on the TV 1 is caught by the mobile terminal 302 from the TV 1 and displayed on the display 321 of the mobile terminal 302. Is done.
  • the two communication devices 401 (401A, 401B) in FIG. 45 and FIG. 46 have the same functions as the TV 1, the tablet terminal 301, and the mobile terminal 302 described above, and include LED indicators 411 (411A, 411B). .
  • the communication device 401A and the communication device 401B detect (recognize) each other.
  • the communication device 401A and the communication device 401B detect the other party, the communication apparatus 401A and the communication apparatus 401B are turned on by the same lighting method as the other party.
  • the LED indicator 411A of the communication device 401A and the LED indicator 411B of the communication device 401B blink simultaneously.
  • the user can easily recognize that the communication device 401A and the communication device 401B have recognized each other.
  • the color of light may be changed, or the shape of the lighted portion may be changed.
  • the LED indicator 411A of the communication device 401A and the LED indicator 411B of the communication device 401B are turned on so that the light transition corresponds to the movement of data. Be controlled. That is, first, the LED indicator 411A of the communication device 401A that is the data transfer source is turned on with high brightness, and the LED indicator 411B of the transfer destination communication device 401B is turned on with high brightness in response to the turn-off of the LED indicator 411A. Control can be performed such that it is repeated in predetermined data units. As a result, the user can intuitively recognize that data is being exchanged between the communication devices 401A and 401B. Alternatively, the LED indicator 411A of the communication device 401A and the LED indicator 411B of the communication device 401B may be lit so as to be repeatedly turned on and off at the same timing.
  • FIG. 47 is a flowchart of processing for realizing the above-described cooperative expression of the image display on the display 14 and the lighting of the LED indicator 84 by the TV 1.
  • step S1 the control unit 66 of the TV 1 determines whether or not a user operation or the like as a trigger for performing cooperative expression is detected.
  • the user operation includes various operations or device states such as button operation of the remote controller described above, user operation such as a gesture, proximity of another communication device to the smart unit 12, reception of a message requesting cooperative communication, etc. Corresponds.
  • step S1 is repeated until it is determined that a user operation or the like is detected. If it is determined in step S1 that a user operation or the like is detected, the process proceeds to step S2.
  • step S ⁇ b> 2 the control unit 66 of the TV 1 performs linked expression in which the image display on the display 14 and the lighting of the LED indicator 84 are linked as described above.
  • the present technology is capable of displaying images such as LCD and EL (Electro Luminescence) displays, such as mobile terminals such as smartphones, tablet terminals, etc.
  • the present invention can be applied to all display devices having a display unit and an indicator (lighting unit) such as an LED that indicates a predetermined operation / state with illumination.
  • Embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.
  • this technique can also take the following structures.
  • An indicator unit that is disposed at least in a part of the periphery of the display unit and has an indicator that lights at a predetermined luminance;
  • An operation detection unit for detecting a user operation;
  • An indicator control unit for controlling lighting of the indicator,
  • the said indicator control part is a display apparatus provided with the said indicator being lighted, when the said user's operation with respect to the said indicator unit is detected.
  • a display control unit for controlling, The indicator control unit turns on the indicator in synchronization with or interlocked with a display in which an image is sucked into the indicator unit in the display unit or a display in which an image is discharged from the indicator unit. ).
  • the operation detection unit detects a connection with another communication device held by the user as an operation of the user with respect to the indicator unit, When the connection to the other communication device is detected, the indicator control unit turns on the indicator in synchronization with or interlocked with the lighting of the other communication device. Any one of (1) to (5) The display device described in 1.
  • the operation detection unit detects the user's gesture toward the indicator unit as the user's operation on the indicator unit, When the user's gesture is detected, the indicator control unit sets the light emission luminance of the indicator to the first luminance, and then gradually changes to the second luminance different from the first luminance.
  • the display device according to any one of (1) to (6).
  • a display including an indicator unit that is disposed at least in a part of the periphery of the display unit and has an indicator that lights up with a predetermined luminance, an operation detection unit that detects a user operation, and an indicator control unit that controls lighting of the indicator Of the equipment The display control method of turning on the indicator when the indicator control unit detects the user operation on the indicator unit.
  • a computer that controls a display device that includes an indicator unit that is disposed at least part of the periphery of the display unit and has an indicator that lights up with a predetermined luminance, and an operation detection unit that detects a user operation.
  • the program which performs the process which makes the said indicator light when the said user's operation with respect to the said indicator unit is detected.
  • An indicator unit that is disposed at least in a part of the periphery of the display unit and has an indicator that lights at a predetermined luminance;
  • An operation detection unit that detects proximity or contact of the other communication device held by the user to the indicator unit;
  • An indicator control unit for controlling lighting of the indicator;
  • a display control unit that causes the display unit to display an image in which the vicinity region of the indicator is controlled to have high brightness when proximity or contact of the other communication device to the indicator unit is detected, and
  • the indicator control unit causes the indicator to light up for a predetermined period before or after an image in which a region near the indicator of the indicator unit is controlled to have high brightness is displayed on the display unit.
  • An indicator unit that is arranged at least in the periphery of the display unit and has an indicator that lights up with a predetermined brightness; an operation detection unit that detects proximity or contact of the other communication device held by the user to the indicator unit;
  • a display device comprising: an indicator control unit that controls lighting of the indicator; and a display control unit that controls an image to be displayed on the display unit.
  • the display control unit detects the proximity or contact of the other communication device to the indicator unit, the display unit displays an image in which the vicinity region of the indicator is controlled with high brightness
  • the display control method wherein the indicator control unit turns on the indicator only for a predetermined period before or after an image in which the area near the indicator of the indicator unit is controlled to be high brightness is displayed on the display unit.
  • An indicator unit that is disposed at least at a part of the periphery of the display unit and has an indicator that lights up with a predetermined luminance; and an operation detection unit that detects proximity or contact of another communication device held by a user to the indicator unit.
  • a computer that controls a display device provided, When proximity or contact of the other communication device to the indicator unit is detected, an image in which the vicinity region of the indicator is controlled to have high brightness is displayed on the display unit,
  • a program for executing a process of turning on the indicator for a predetermined period before or after an image in which a region near the indicator of the indicator unit is controlled to have high brightness is displayed.

Abstract

 本技術は、限られた領域で、装置の様々な状態を表現できるようにする表示装置、表示制御方法、およびプログラムに関する。 テレビジョン受像機は、表示部の周辺の少なくとも一部に配置され、所定の輝度で点灯するインジケータと、ユーザの操作を検出する操作検出部とを有するインジケータユニットと、インジケータの点灯を制御するインジケータ制御部とを備える。インジケータ制御部は、インジケータユニットに対するユーザの操作が検出された場合に、インジケータを点灯させる。本発明は、例えば、テレビジョン受像機等の表示装置に適用できる。

Description

表示装置、表示制御方法、およびプログラム
 本技術は、表示装置、表示制御方法、およびプログラムに関し、特に、限られた領域で、装置の様々な状態を表現できるようにする表示装置、表示制御方法、およびプログラムに関する。
 近年、テレビジョン受像機では、画像を表示するパネル周辺の額縁部が徐々にスリム化(狭額縁化)してきている。額縁部には、従来、例えば、リモートコントローラの受光部、電源オン、スタンバイ等を示すインジケータ(ランプ)、本体動作の設定操作を行う操作ボタン等が配置されていた(例えば、特許文献1参照)。
特開2005-267897号公報
 しかしながら、額縁部のスリム化に伴い、表示装置の動作や状態を示すインジケータを配置する領域が制限されることとなり、表示装置の動作等を表現する新たな方法が望まれる。
本技術は、このような状況に鑑みてなされたものであり、限られた領域で、装置の様々な状態を表現できるようにするものである。
 本技術の第1の側面の表示装置は、表示部の周辺の少なくとも一部に配置され、所定の輝度で点灯するインジケータと、ユーザの操作を検出する操作検出部とを有するインジケータユニットと、前記インジケータの点灯を制御するインジケータ制御部とを備え、前記インジケータ制御部は、前記インジケータユニットに対する前記ユーザの操作が検出された場合に、前記インジケータを点灯させる。
 本技術の第1の側面の表示制御方法は、表示部の周辺の少なくとも一部に配置され、所定の輝度で点灯するインジケータと、ユーザの操作を検出する操作検出部とを有するインジケータユニットと、前記インジケータの点灯を制御するインジケータ制御部とを備える表示装置の、前記インジケータ制御部が、前記インジケータユニットに対する前記ユーザの操作が検出された場合、前記インジケータを点灯させる。
 本技術の第1の側面のプログラムは、表示部の周辺の少なくとも一部に配置され、所定の輝度で点灯するインジケータと、ユーザの操作を検出する操作検出部とを有するインジケータユニットを備える表示装置を制御するコンピュータに、前記インジケータユニットに対する前記ユーザの操作が検出された場合、前記インジケータを点灯させる処理を実行させるものである。
 本技術の第1の側面においては、インジケータユニットに対するユーザの操作が検出された場合、インジケータが点灯するように制御される。
 本技術の第2の側面の表示装置は、表示部の周辺の少なくとも一部に配置され、所定の輝度で点灯するインジケータを有するインジケータユニットと、ユーザが把持する他の通信装置の前記インジケータユニットへの近接または接触を検出する操作検出部と、前記インジケータの点灯を制御するインジケータ制御部と、前記インジケータユニットへの前記他の通信装置の近接または接触が検出された場合、前記インジケータの近傍領域を高輝度に制御した画像を前記表示部に表示させる表示制御部とを備え、前記インジケータ制御部は、前記表示部において、前記インジケータユニットの前記インジケータの近傍領域を高輝度に制御した画像が表示される前または表示された後に、前記インジケータを所定期間だけ点灯させる。
 本技術の第2の側面の表示制御方法は、表示部の周辺の少なくとも一部に配置され、所定の輝度で点灯するインジケータを有するインジケータユニットと、ユーザが把持する他の通信装置の前記インジケータユニットへの近接または接触を検出する操作検出部と、前記インジケータの点灯を制御するインジケータ制御部と、前記表示部に表示させる画像を制御する表示制御部とを備える表示装置の、前記表示制御部が、前記インジケータユニットへの前記他の通信装置の近接または接触が検出された場合、前記インジケータの近傍領域を高輝度に制御した画像を前記表示部に表示させ、前記インジケータ制御部が、前記表示部において、前記インジケータユニットの前記インジケータの近傍領域を高輝度に制御した画像が表示される前または表示された後に、前記インジケータを所定期間だけ点灯させる。
 本技術の第2の側面のプログラムは、表示部の周辺の少なくとも一部に配置され、所定の輝度で点灯するインジケータを有するインジケータユニットと、ユーザが把持する他の通信装置の前記インジケータユニットへの近接または接触を検出する操作検出部とを備える表示装置を制御するコンピュータに、前記インジケータユニットへの前記他の通信装置の近接または接触が検出された場合、前記インジケータの近傍領域を高輝度に制御した画像を前記表示部に表示させ、前記表示部において、前記インジケータユニットの前記インジケータの近傍領域を高輝度に制御した画像が表示される前または表示された後に、前記インジケータを所定期間だけ点灯させる処理を実行させるものである。
 本技術の第2の側面においては、インジケータユニットへの他の通信装置の近接または接触が検出された場合、インジケータの近傍領域を高輝度に制御した画像を表示部に表示させ、前記表示部において、前記インジケータユニットの前記インジケータの近傍領域を高輝度に制御した画像が表示される前または表示された後に、前記インジケータが所定期間だけ点灯するように制御される。
 表示装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
 本技術の第1及び第2の側面によれば、限られた領域で、装置の様々な状態を表現できる。
本技術が適用された表示装置の一実施の形態としてのテレビビジョン受像機の斜視図である。 スマートユニット内のLEDインジケータの構成を説明する図である。 スマートユニット内のLEDインジケータの構成を説明する図である。 TVの制御ブロック図である。 TVの制御部のさらに詳細な機能ブロック図である。 LEDインジケータの基本点灯例を説明する図である。 LEDインジケータの基本点灯例を説明する図である。 LEDインジケータの基本点灯例を説明する図である。 LEDインジケータの基本点灯例を説明する図である。 LEDインジケータのシーケンス点灯例を説明する図である。 LEDインジケータの画像表示との連携点灯例を説明する図である。 起動・オフ操作に対応した点灯表現の例を説明する図である。 所定のボタン押下時のLEDインジケータの点灯表現を説明する図である。 タイマー設定を行うときの設定画面例を示す図である。 タイマー設定操作時の連携表現の例を説明する図である。 画面表示ボタン操作時のTVの動作を示す図である。 LEDインジケータの点灯色を説明する図である。 上キー操作に対応する連携点灯表現の例を説明する図である。 下キー操作に対応する連携点灯表現の例を説明する図である。 下方向ドラッグ操作に対応する連携点灯表現の例を説明する図である。 上方向ドラッグ操作に対応する連携点灯表現の例を説明する図である。 消画動作における連携点灯表現の例を示す図である。 ビデオチャット機能を使用する際の画面遷移を示す図である。 電子POPにおける連携点灯表現の例を示す図である。 点灯位置に対応するLEDインジケータの情報表現の例を説明する図である。 点灯位置に対応するLEDインジケータの情報表現の例を説明する図である。 点灯周期に対応するLEDインジケータの情報表現の例を説明する図である。 点灯色に対応するLEDインジケータの情報表現の例を説明する図である。 スマートユニットへのタッチ操作に対応した連携表現の例を示す図である。 スマートユニットへのタッチ操作に対応した連携表現の例を示す図である。 スマートユニットに対するNFC近接操作に対応した連携表現の例を示す図である。 スマートユニットに対するNFC近接操作に対応した連携表現の例を示す図である。 データ転送に対応した連携表現の例を示す図である。 ジェスチャ操作に対応した連携表現の例を示す図である。 BT機器のペアリング操作に対応した連携表現の例を示す図である。 Wi-Fi機器との連携表現の例を示す図である。 Wi-Fi機器との連携表現の例を示す図である。 Wi-Fi機器との連携表現の例を示す図である。 Wi-Fi機器との連携表現の例を示す図である。 Wi-Fi機器との連携表現の例を示す図である。 Wi-Fi機器との連携表現の例を示す図である。 Wi-Fi機器との連携表現の例を示す図である。 Wi-Fi機器との連携表現の例を示す図である。 Wi-Fi機器との連携表現の例を示す図である。 Wi-Fi機器との連携表現の例を示す図である。 Wi-Fi機器との連携表現の例を示す図である。 連携表現を実現する処理を説明するフローチャートである。
 以下、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.表示装置の外観構成例
2.制御ブロック図
3.LEDインジケータの基本点灯例
4.LEDインジケータのシーケンス点灯例
5.画像表示との連携点灯例
6.TV操作に対応したLEDインジケータの点灯表現
7.消画動作における連携点灯表現
8.ビデオチャット画面とLEDインジケータの連携
9.映像視聴体験に基づくLEDインジケータの情報表現
10.スマートユニットに対して行ったユーザ操作に対応した連携表現
11.連携表現を実現するフローチャート
[1.表示装置の外観構成例]
 図1は、本技術が適用された表示装置の一実施の形態としてのテレビビジョン受像機の外観構成例を示している。
 図1のテレビジョン受像機(以下、TVという)1は、ディスプレイ本体11、スマートユニット12、およびスタンド13とから構成される。ディスプレイ本体11は、受信した放送番組の画像など、所定の画像を表示するディスプレイ14と、その周辺部に配置された額縁部15とから構成される。
 スマートユニット12は、TV1の動作や状態を照明で表す点灯部としてのLED(Light Emitting Diode)インジケータ84(図4)を少なくとも有するインジケータユニットである。スマートユニット12の正面には、カメラ93が設けられている。
 なお、スマートユニット12は、図1ではディスプレイ本体11の下側の額縁部15に配置されているが、スマートユニット12を、ディスプレイ本体11の上側、左側、右側の額縁部15のいずれに配置させてもよい。換言すれば、スマートユニット12は、ディスプレイ14の周辺の少なくとも一部に配置されていればよい。
 図2および図3を参照して、スマートユニット12内のLEDインジケータ84の構成について説明する。
 図2は、スマートユニット12内のLEDインジケータ84を説明するための、スマートユニット12付近の拡大側面図であり、図3のAは、スマートユニット12の正面図、図3のBは、スマートユニット12を上側から見たときの、LEDインジケータ84の配置を示す図である。なお、図2および図3において、スマートユニット12の縮尺、スマートユニット12内各部の配置等は、説明の理解を容易にするための変更が加えられている。
 LEDインジケータ84は、図3のBに示されるように、1つのホワイトLED21Wと、2つのカラーLED21Lおよび21Rとで構成される。ホワイトLED21Wは、左右方向についてはスマートユニット12内の中央部、前後方向についてはやや前方に配置されている。カラーLED21Lは、ホワイトLED21Wの後方かつ左側に配置され、カラーLED21Rは、ホワイトLED21Wの後方かつ右側に配置されている。ホワイトLED21Wは、白色の単色LEDであり、白色で発光する。カラーLED21Lおよび21Rは、R(赤),G(緑),B(青)の3つのLEDで構成され、所定の色で発光することができる。
 ホワイトLED21Wの光は、図示せぬ導光板を介して、スマートユニット12前方の出力部23(図3のA)から出力される。カラーLED21LおよびカラーLED21Rの光は、図示せぬ導光板を介して、スマートユニット12前方の出力部23(図3のA)と、スマートユニット12下方の出力部23(不図示)から出力される。
 スマートユニット12の底面付近には、図2に示されるように、タッチセンサ85(図4)の一部である電極パッドや、NFC通信のアンテナなどを含むフィルムアンテナ22が埋設されている。これにより、後述するように、スマートユニット12に対するユーザの手、指等の接触、近接(数十ミリ以内の距離で近づくこと)、NFC通信装置の近接を検出することができるようになっている。
 以下の説明において、ホワイトLED21W、カラーLED21L、およびカラーLED21Rは、単に、LED21W、LED21L、およびLED21Rとも称する。また、LED21W、LED21L、およびLED21Rそれぞれを特に区別する必要がない場合には、単にLED21と称する。
[2.制御ブロック図]
 図4は、TV1の制御ブロック図を示している。
 まずTV1のディスプレイ本体11の構成について説明する。
 電源供給部51は、外部のAC電源と接続され、受電したAC電源を所定電圧のDC電源に変換して、DC/DCコンバータ52に供給する。DC/DCコンバータ52は、電源供給部51から供給される第1の電源電圧を第2の電源電圧に変換し、パネル駆動部53、制御部66、およびスマートユニット12などの各部に供給する。なお、各部に供給される電源電圧は、それぞれ異なるものでもよいし、同一であってもよい。
 パネル駆動部53は、制御部66から供給される映像信号に基づいて、パネル54とバックライト55を駆動し、映像を表示させる。このパネル54とバックライト55が図1のディスプレイ14に相当する。パネル54は、パネル駆動部53の駆動制御に基づいて、各画素の液晶の開口を制御する。バックライト55は、パネル駆動部53の駆動制御に基づいて、所定の輝度で発光する。すなわち図1のディスプレイ14はLCD(Liquid Crystal Display)であり、バックライト55はパネル54の背面側に配置されている。
 HDMI端子55乃至55それぞれは、各端子の接続先の外部機器とHDMI(High-Definition Multimedia Interface)信号の授受を行う。HDMIスイッチ56は、HDMIの制御信号に基づいてHDMI端子55乃至55を適宜切り替えて、HDMI端子55乃至55に接続されている外部機器と、制御部66との間で授受されるHDMI信号の中継を行う。
 アナログAV入力端子57は、外部機器からのアナログのAV信号(Audio and Visual信号)を入力させ、制御部66に供給する。
 PC入力端子58は、例えば、ミニD-Sub15ピン端子で構成され、パーソナルコンピュータが出力するAV信号のうちの、アナログの映像信号を入力させて、制御部66に供給する。
 アナログ音声出力端子59は、制御部66から供給されるアナログの音声信号を、接続先の外部機器に出力する。光デジタル音声出力端子60は、制御部66から供給される音声の光デジタル信号を、接続先の外部機器に出力する。
 LAN端子61は、例えば、10BASE-T/100BASE-TXコネクタ等で構成され、ホームネットワーク、インターネットといった所定のネットワークに接続される。
 チューナ62は、アンテナ端子63を介してアンテナ(不図示)と接続されており、アンテナで受信された電波から、所定のチャンネルの放送信号を取得して、制御部66に供給する。なお、本実施の形態においては、チューナ62が受信する電波は、例えば、地上デジタル放送の放送信号であるとする。
 CASカードI/F64には、地上デジタル放送のスクランブルを解くための暗号キーが記憶されているB-CAS(登録商標)カード65が挿入される。CASカードI/F64は、B-CAS(登録商標)カード65に記憶されている暗号キーを読み出し、制御部66に供給する。
 制御部66は、ROM(Read Only Memory)等で構成される内部メモリ66Aに記憶されている制御プログラムに基づいて、TV1全体の制御を行う。制御部66は、例えば、映像信号および音声信号のA/D(Analog to Digital)変換やD/A(Digital to Analog)変換の処理、放送信号のスクランブル解除処理やデコード処理などを行う。また、制御部66は、後述するスマートユニット12からの明るさ信号、IR信号、タッチセンサ信号、USB I/F信号に基づく制御や、LEDインジケータ84のLED制御も行う。制御部66は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DRAM(Dynamic Random Access Memory)等が1つのチップに集積されたSoC(System on a Chip)で構成することができる。
 内部メモリ66Aに記憶される制御プログラムは、後述するUSB端子入力部90等に接続されるUSBメモリやハードディスク装置、あるいは、ホームネットワーク、インターネットといった、有線または無線の伝送媒体を介してインストールすることができる。
 オーディオアンプ67は、制御部66から供給されるアナログの音声信号を増幅し、スピーカ68に供給する。スピーカ68は、オーディオアンプ67からのアナログの音声信号に応じた音声を出力する。
 次に、TV1のスマートユニット12の構成について説明する。
 ディスプレイ本体11から供給される電力は、中継部81を介してスマートユニット12の各部へ供給される。また、後述する明るさ信号、IR信号、LED制御信号、タッチセンサ信号、USB I/F信号も、中継部81を介して、ディスプレイ本体11とスマートユニット12の制御部66との間で授受される。
 明るさセンサ82は、TV1の周囲の明るさ(例えば、TV1が設置されている部屋の明るさ等)を検知し、その検知結果を、明るさ信号として制御部66に供給する。
 IR受光部83は、例えば、ユーザが図示せぬリモートコントローラを操作したときリモートコントローラから出射される、ユーザの操作に対応するIR信号を受光し、制御部66に供給する。
 LEDインジケータ84は、制御部66からのLED制御信号に基づいて、LEDを点灯または消灯させる。
 タッチセンサ85は、例えば、人間の指等の近接に応じて静電容量が変化する複数の電極を有している。タッチセンサ85は、複数の電極の静電容量の変化に基づいて、ユーザの近接操作および接触操作を検知し、その検知結果を、タッチセンサ信号として制御部66に供給する。
 USB制御部86は、中継部81、Wi-Fi(wireless fidelity)通信部87、NFC(near field communication)通信部88、BT(Bluetooth(登録商標))通信部89、USB(universal serial bus)端子入力部90および91、並びにエンコーダ92と接続されている。
 USB制御部86は、Wi-Fi通信部87、NFC通信部88、BT通信部89、USB端子入力部90、USB端子入力部91、及びエンコーダ92それぞれから供給される、USB規格に従ったUSB I/F信号を取得して、制御部66に出力する。また、USB制御部86は、中継部81を介して制御部66から供給されたUSB I/F信号を、Wi-Fi通信部87、NFC通信部88、BT通信部89、USB端子入力部90、USB端子入力部91、またはエンコーダ92へ適切に振り分ける。
 Wi-Fi通信部87は、USB I/F信号としてUSB制御部86から供給されるデータを、例えば携帯電話機等の他の通信装置に、Wi-Fiによる通信方式を用いた無線通信により送信する。また、Wi-Fi通信部87は、Wi-Fi無線通信により他の通信装置(Wi-Fi機器)から送信されてくるデータを受信し、USB I/F信号にしてUSB制御部86に供給する。
 NFC通信部88は、USB I/F信号としてUSB制御部86から供給されるデータを、例えば携帯電話機等の他の通信装置(NFC機器)に、ISO/IEC 18092として規定されるNFCによる近接無線通信により送信する。また、NFC通信部88は、近接無線通信により他の通信装置から送信されてくるデータを受信し、USB I/F信号にしてUSB制御部86に供給する。
 BT通信部89は、USB I/F信号としてUSB制御部86から供給されるデータを、例えば携帯電話機等の他の通信装置に、Bluetooth(登録商標)を用いた無線通信(BT通信)により送信する。また、BT通信部89は、BT通信により他の通信装置(BT機器)から送信されてくるデータを受信し、USB I/F信号にしてUSB制御部86に供給する。
 USB端子入力部90及びUSB端子入力部91は、USB端子が接続されるコネクタである。USB端子入力部90やUSB端子入力部91には、例えば、外部記憶装置としてのUSBメモリやハードディスク記憶装置などが接続される。USB端子入力部90とUSB端子入力部91は、例えば、スマートユニット12の筐体の両側面に対向するように設けられている。
 エンコーダ92には、カメラ93及びマイクロフォン94が接続されている。カメラ93は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子により構成され、撮像により得られる映像信号を、エンコーダ92に供給する。マイクロフォン94は、集音により得られる音声信号を、エンコーダ92に供給する。エンコーダ92は、映像信号および音声信号のA/D変換処理、エンコード処理等の信号処理を行い、処理後の信号をUSB I/F信号にしてUSB制御部86に供給する。
 図6は、制御部66のさらに詳細な機能ブロック図を示している。
 制御部66では、内部メモリ66Aに記憶されている制御プログラムが実行されることにより、少なくともAV信号処理部101、通信制御部102、LED制御部103、およびセンサ制御部104が実現される。
 AV信号処理部101は、ディスプレイ14に所定の画像を表示するための制御を行う。例えば、AV信号処理部101は、映像信号および音声信号の入出力処理、A/D(Analog to Digital)変換処理、D/A(Digital to Analog)変換処理、放送信号のスクランブル解除処理、デコード処理などを行う。
 通信制御部102は、LAN端子61を介して接続されるネットワークへの通信、Wi-Fi通信、NFC通信、BT(Bluetooth(登録商標))通信、などの制御を行う。
 LED制御部103は、LEDインジケータ84のLED制御を行う。具体的には、LED制御部103は、PWM(Pulse Width Modulation:パルス幅変調)制御により、LEDへの供給電流を制御し、発光輝度を制御する。PWM制御とは、電流のオン状態とオフ状態とをスイッチングにより切換え、そのオン状態とオフ状態との比率(デューティ比)を可変することにより、平均電流を制御する方式である。
 センサ制御部104は、明るさセンサ82からの明るさ信号、IR受光部83からのIR信号、カメラ93で撮像された撮像信号などを取得し、取得した信号に応じた制御を行う。センサ制御部104は、取得した信号に応じて、AV信号処理部101、通信制御部102、及びLED制御部103の制御も行う。
 以上のように構成されるTV1では、TV1の動作や状態、あるいは、ユーザがTV1に対して行った操作を、ユーザに直感的に認識させるようなイルミネーション(光による表現)を、ディスプレイ14の表示画像とスマートユニット12のLEDインジケータ84の点灯の連携により行う。以下、ディスプレイ14の表示画像とスマートユニット12のLEDインジケータ84の点灯による、各種の表現について説明する。
[3.LEDインジケータ84の基本点灯例]
 初めに、スマートユニット12のLEDインジケータ84の最もシンプルな点灯方法について説明する。
 図6のAは、LEDインジケータ84のうち、中央のLED21Wのみを点灯させた場合の表示例を示しており、図6のBは、3つのLED21を白色点灯させた場合の表示例を示している。
 なお、図6以降の図面では、点灯表現を理解しやすくするため、スマートユニット12の各構成の図示を省略し、スマートユニット12のLEDインジケータ84の消灯または点灯を、所定の濃度で適宜表す。また、以下の説明において、LEDインジケータ84の消灯または点灯を、スマートユニット12の消灯または点灯ともいう。
 図2を参照して説明したように、LED21Wの光は、スマートユニット12前方(の出力部23)のみから出力される。したがって、LED21Wのみが点灯した場合、図6のAに示されるように、スマートユニット12の正面のみがライン状に発光する。
 LED21LおよびLED21Rの光は、スマートユニット12前方と下方(の出力部23)から出力される。したがって、3つのLED21が点灯した場合には、図6のBに示されるように、スマートユニット12の正面の発光に加えて、スマートユニット12から垂直下方向に半円形状の光が形成される。
 図7は、スマートユニット12を上方から見たときの3つのLED21の配置と、スマートユニット12前方の点灯例を示している。
 LED21Wのみが点灯した場合、LED21Wはスマートユニット12の中央前方に配置されているので、図7左側に示されるように、ライン状のスマートユニット12の中央のみが点状に発光する。
 一方、中央のLED21Wとともに、その左右後方に配置された2つのLED21Lおよび21Rが点灯した場合には、図7右側に示されるように、スマートユニット12が線状(ライン状)に発光する。
 このように、LEDインジケータ84で、点表現と線表現の2種類の発光状態を使い分けることで、例えば、TV1の電源オン状態とスタンバイ状態など、状態の違いを表現することができる。
 点表現と線表現の2種類の発光状態で表現する場合には、ユーザは、色を識別しなくてもTV1の2種類の状態の違いを認識することができる。このような表現を行う場合には、2つのカラーLED21Lおよび21Rは白色で点灯できればよいので、2つのカラーLED21Lおよび21RがホワイトLEDであっても実現できる。
 また、本実施の形態では、LEDインジケータ84が3つのLED21で構成されるものとしているが、例えば、図8に示されるように、前後に配置された2つのLED21によっても、点表現と線表現の2種類の発光状態を表現することができる。また例えば、図9に示されるように、3つのLED21を横方向に並べて配置した場合にも、点表現と線表現の2種類の発光状態を表現することができる。
 すなわち、本実施の形態では、LEDインジケータ84が、前方中央に1つのLED21、その左右後方に2つのLED21で構成されるものとしているが、LEDインジケータ84を構成するLED21の個数は2つ以上であればよく、またLED21の配置も適宜決定することができる。
 なお、図6ないし図9では、説明の便宜上、スマートユニット12の両端が発光しないような図となっているが、実際には、LEDインジケータ84はスマートユニット12の両端まで発光させることができる。
[4.LEDインジケータ84のシーケンス点灯例]
 図6ないし図9を参照して説明した例は、1つ以上のLED21を所定の発光輝度でオン、オフした場合の点灯例である。
 図10は、PWM制御により1つ以上のLED21の発光輝度を連続的に変化させた場合の点灯例を示している。
 LED制御部103が、初めに中央前方のホワイトLED21Wを点灯させ、その後、徐々に減光させるとともに、左右後方のカラーLED21Lおよび21Rを徐々に白色点灯させ、その後減光させる制御を行うと、図10のAに示すような点灯表現が可能となる。すなわち、ライン状のスマートユニット12の中央部が最初に光り、その光が左右へ移動して流れるような点灯表現が可能となる。
 また図10のAの点灯制御と逆の制御を行うと、図10のBに示すような点灯表現が可能となる。すなわち、ライン状のスマートユニット12の両端が最初に光り、その光が中央部へ移動して流れるような点灯表現が可能となる。
 このような、点灯位置および輝度を時間経過に応じて変化させる点灯表現は、TV1の連続的な動作を示す表現として採用することができる。例えば、TV1が、リモートコントローラ、PC(パーソナルコンピュータ)、携帯端末(スマートフォン)などの外部機器と接続して、データを送受信する場合の動作を示す表現とすることができる。図10のAの点灯表現がされた場合、ユーザは、スマートユニット12をTV1の中心部(コア:core)、あるいは、入出力部に見立てて、データがTV1から外部機器へ出力(転送)される動作を観念することができる。図10のBの点灯表現がされた場合、ユーザは、データが外部機器からTV1へ入力される動作を観念することができる。
[5.画像表示との連携点灯例]
 図11は、図10に示したLEDインジケータ84の点灯表現に、ディスプレイ14の画像表示も組み合わせた連携点灯表現の例を示している。なお、図11では、スマートユニット12の点灯表現を理解しやすくするため、スマートユニット12の幅を、ディスプレイ本体11の幅と同一にして示している。
 図11のAは、1個のホワイトLED21Wによる点灯と、ディスプレイ14の画像表示を組み合わせた点灯表現の例であって、図10のAと同様にデータ出力をユーザに観念させる点灯表現の例である。
 図11のAでは、初めに、白色の光を画面中央に配置した画像が、ディスプレイ14に表示される。そして、画面中央に表示された光が、徐々にスマートユニット12の方向である画面下方向に移動する。そして、ディスプレイ14上の光が消滅すると、スマートユニット12のホワイトLED21Wが点灯し、その後消光する。
 図11のBは、1個のホワイトLED21Wによる点灯と、ディスプレイ14の画像表示を組み合わせた点灯表現の例であって、図10のBと同様にデータ入力をユーザに観念させる点灯表現の例である。
 図11のBでは、最初に、ホワイトLED21Wによりスマートユニット12中央が点灯し、その後消光する。ホワイトLED21Wの消光とともに、画面内のスマートユニット12近傍に白色の光が出現する画像がディスプレイ14に表示される。そして、画面に表示された白色の光が徐々に画面上方向に移動し、画面中央部で消滅する画像がディスプレイ14に表示される。
 図11のCは、3個のLED21による点灯とディスプレイ14の画像表示とを組み合わせた点灯表現の例であって、データ出力をユーザに観念させる点灯表現の例である。
 図11のCでは、初めに、白色の光を画面中央に配置した画像が、ディスプレイ14に表示され、画面中央に表示された光が、徐々にスマートユニット12の方向である画面下方向に移動する。そして、ディスプレイ14上の光の消滅とともに、スマートユニット12の中央に配置されたホワイトLED21Wが点灯し、その後、スマートユニット12中央の光が左右へ移動して流れるような点灯表現となる。
 図11のDは、3個のLED21による点灯とディスプレイ14の画像表示とを組み合わせた点灯表現の例であって、データ入力をユーザに観念させる点灯表現の例である。
 図11のDでは、最初に、カラーLED21Lおよび21Rによりスマートユニット12両端が白色で点灯し、その後消光する。カラーLED21Lおよび21Rの消光とともにホワイトLED21Wが徐々に点灯し、その後消光する。これにより、図10のBと同様に、スマートユニット12両端が最初に光り、その光が中央部へ移動して流れるような点灯表現が可能となる。そして、ホワイトLED21Wの消光とともに、画面内のスマートユニット12近傍に白色の光が出現する画像がディスプレイ14に表示される。そして、画面に表示された白色の光が徐々に画面上方向に移動し、画面中央部で消滅する画像がディスプレイ14に表示される。
 以上のように、LEDインジケータ84による点灯表現と、白色の光がスマートユニット12に吸い込まれる、または、スマートユニット12から吐き出されるような画像表示を組み合わせることで、データの入出力をユーザに観念させることができる。
[6.TV操作に対応したLEDインジケータ84の点灯表現]
 次に、TV1への操作に対応したLEDインジケータ84の点灯表現について説明する。
[6.1 起動・オフ操作]
 図12は、TV1のスタンバイ状態(電源オフ)から起動状態(電源オン)への起動操作、および、起動状態からスタンバイ状態へのスタンバイ操作に対応した点灯表現の例を示している。
 TV1がスタンバイ状態である場合、LED制御部103は、カラーLED21Lおよび21Rを、例えば、図12のAに示されるように、最大輝度(MAX)の50%の輝度で発光するように制御する。なお以下の説明において、例えば、最大輝度の50%の輝度で発光するLED制御を50%輝度の点灯などという。
 そして、ユーザが、リモートコントローラの電源オンボタン等を押下し、TV1をスタンバイ状態から起動状態にする起動操作を行う。そのユーザの操作に対応して、LED制御部103は、図12のBに示されるように、カラーLED21LおよびカラーLED21Rを100%輝度で点灯させる。また、ディスプレイ14には、所定のロゴ(「SOMY」)が一瞬表示される。
 図12のCは、起動操作検出時の3つのLED21の輝度の制御シーケンスを示している。LED制御部103は、カラーLED21Lおよび21Rを100%輝度で点灯させた後、所定時間で0%輝度となるように制御する。また、LED制御部103は、0%輝度であるホワイトLED21Wを、起動操作の一定時間経過後から徐々に点灯させ、起動操作から所定時間で50%輝度となるように制御する。
 一方、ユーザがTV1を起動状態からスタンバイ状態にするスタンバイ操作を行うと、LED制御部103は、図12のDに示されるLED制御を行う。すなわち、LED制御部103は、カラーLED21Lおよび21Rの出力を、0%輝度から徐々に50%輝度に増大するとともに、ホワイトLED21Wを、50%輝度から徐々に0%輝度にする制御を行う。
[6.2 ボタン操作]
 図13は、TV1のリモートコントローラのチャンネルボタンや番組表ボタンなど、所定のボタンが押下された場合のLEDインジケータ84の点灯表現を示している。
 従来のテレビジョン受像機では、ボタン操作を検知した一瞬のみ、LEDランプが光るのが一般的である。この場合、ユーザの視線が画面から少しでも外れていた場合には、LEDランプの点灯を見逃し、ボタン操作が検知されたか否かをユーザが認識しにくい。
 そこで、LED制御部103は、例えば、図13のAの実線に示されるように、3つのLED21の出力を、ボタン操作時の0%輝度から、短時間(例えば、0.1秒)で90%輝度に制御し、その後、所定時間(例えば、0.9秒)をかけて0%輝度まで徐々に減少させる制御を行う。
 また例えば、初期状態が所定の出力(例えば、50%輝度)で発光している状態である場合には、LED制御部103は、図13のBの実線に示されるように、一旦最大輝度まで出力を上げた後、元の出力に戻すように制御する。
 このように、ユーザのボタン操作に対応する操作フィードバックとして、輝度を時間経過に応じて変化させ、余韻を残すような点灯表現をすることで、ユーザの視線が画面から少し外れていたり、一瞬見逃した場合でも、点灯を認識することができ、視認性が向上する。
 なお、余韻を残すような点灯表現は、図13のAおよび図13のBにおいて破線で示されるような、上述した輝度制御とは反対の制御でもよい。すなわち、図13の実線で示される制御は、第1の輝度に設定し、その後、第1の輝度より低い第2の輝度に徐々に低下させる制御であるが、反対に、第1の輝度に設定し、その後、第1の輝度より高い第2の輝度に徐々に上昇させる制御でもよい。また、上述した例における発光輝度の制御値はあくまで一例であり、例示の数値に限定されず、任意の値に設定することが可能であることは言うまでもない(その他の例についても同様)。
[6.3 タイマー操作]
 次に、所定の機能を実行するユーザの操作に対応したLEDインジケータ84の点灯表現について説明する。ここでは、所定の機能として、TV1を、所定の設定時刻で電源をオンまたはオフさせるタイマー機能の例について説明する。
 図14は、TV1において、タイマー設定を行うときの設定画面を示している。
 設定画面では、指定された時刻に「電源オン」するか、または、「電源オフ」するかを指定する項目である「On Timer」、日にちを指定する項目である「Day」、時刻を指定する項目である「Time」、チャンネルを指定する項目である「Channel」、音声ボリュームを指定する項目である「Voume」などが設けられている。
 設定画面において、上述した各項目は、黒色の背景に、画面中心を基点として円状にぼんやりと所定の色で光る背景画像上に表示されている。ここで、ぼんやりと光っている円の色は、タイマー機能に対して予め割り当てられた色であり、例えば、オレンジ色とする。
 ユーザは、設定画面の各項目を所望の値に設定した上で、設定内容を確定(登録)する操作として、例えば、リモートコントローラの決定ボタンを押下する。ユーザにより決定ボタンが押下されると、TV1は、図15に示されるような、ディスプレイ14の画像表示と、スマートユニット12のLEDインジケータ84による点灯を組み合わせた連携表現を行う。
 すなわち、図11のAに示した点灯表現と同様に、設定画面のオレンジ色の光の円が、徐々にスマートユニット12の方向である画面下方向に移動する。そして、設定画面のオレンジ色の光の円の消滅に同期または連動して、LEDインジケータ84が点灯する。例えば、設定画面上の円の光が消滅すると、カラーLED21L及び21Rにより、スマートユニット12がオレンジ色で最大輝度となるまで徐々に発光し、その後、徐々に減光して、一定の輝度(例えば、20%輝度)で常時点灯する。
 スマートユニット12のLEDインジケータ84が一定の輝度(例えば、20%輝度)で常時点灯している状態は、その発光している色に対応する機能がTV1で動作中であることを示す。いまの例では、タイマー機能にオレンジ色が割り当てられているため、LEDインジケータ84は一定輝度のオレンジ色で点灯し、タイマー機能が動作中であることを示す。
 スマートユニット12が一定の輝度(例えば、20%輝度)で常時点灯している場合には、所定の機能がTV1で動作中であることを意味し、ユーザはリモートコントローラの画面表示ボタンを押下することで、どのような機能が動作中であるかを確認することができる。
 図16は、タイマー機能が動作中であり、かつ、ユーザが所定の放送番組を視聴している場合に、リモートコントローラの画面表示ボタンが押下されたときのTV1の動作を示している。
 図16の一番左側は、スマートユニット12が、タイマー機能が動作中を示すオレンジ色で、一定の輝度(例えば、20%輝度)で点灯している状態を示している。
 リモートコントローラの画面表示ボタンが押下されると、ディスプレイ14の表示画像とスマートユニット12の点灯が、時間経過とともに矢印で示される順に変化する。すなわち、ディスプレイ14では、表示画像のスマートユニット12の上側の領域に、動作中のタイマー機能の設定内容を示す子画面が重畳表示され、所定時間経過後に消去される。このとき、親画面である放送番組画像に対する子画面の重畳の度合いは、時間の経過とともに大きくなり、その後、時間の経過とともに小さくなる。そして、スマートユニット12のオレンジ色の発光輝度も、子画面の重畳の度合いに同期して、時間の経過とともに大きくなり、その後、小さくなる。タイマー機能の設定内容を示す子画面は、現在動作中の機能(スマートユニット12の点灯色に対応する機能)を補足する補足情報としての意味を有する。
 その他、例えば、TV1が裏番組の録画機能を有しているものとして、TV1が録画動作中である場合には、スマートユニット12は録画動作中には赤色で点灯する。そして、リモートコントローラの画面表示ボタンが押下されると、TV1では、図17のBに示すように、録画動作中のチャンネル名、番組名、放送番組の画像などが子画面により表示され、スマートユニット12が、子画面の重畳表示に同期した輝度、かつ、赤色で点灯する。
 また例えば、ユーザがインターネットを介したビデオチャット機能を使用中であり、ビデオチャット画面(ビデオチャット画像ともいう。)を非表示にして番組画像をフルスクリーンで表示している状態では、スマートユニット12は、ビデオチャット機能に対応する黄色で発光する。そして、リモートコントローラの画面表示ボタンが押下されると、図17のCに示すように、ディスプレイ14は、ビデオチャット画面を子画面により表示し、スマートユニット12は、子画面の重畳表示に同期した輝度、かつ、黄色で点灯する。
 このように、ユーザがリモートコントローラの画面表示ボタンを押下したとき、ディスプレイ14は、子画面により補足情報を表示し、スマートユニット12は、その子画面に同期した輝度、および、補足情報の種類に対応する色で点灯する。
 これにより、ユーザは、スマートユニット12が所定の色で常時点灯している状態を見るだけで、TV1で何の機能が動作中であるかを知ることができる。すなわち、TV1の所定の機能の動作または設定状態を直感的に認識することができる。そして、必要に応じて、動作中の機能の補足情報を子画面として表示させることもできる。
[6.4 その他の操作]
 図18乃至図21を参照して、その他の操作に対応する、ディスプレイ14の画像表示と、LEDインジケータ84の点灯表現を組み合わせた連携点灯表現の例について説明する。
 なお、図18乃至図21において、ディスプレイ14の表示画像において、光の円の上に表示されている「A」は、ユーザが現在操作(上下キー操作、ドラッグ操作)している所定の機能を示す表示である。
 図18は、リモートコントローラの上キー、下キー、右キー、左キーの4方向の方向キーのうち、上キーが押下されたときの連携点灯表現を示している。
 上キーが押下された場合、点灯させた光が、上キーに対応する上方向の移動となるように、連携点灯表現が行われる。具体的には、スマートユニット12が先に点灯する。その後、スマートユニット12の光が次第に消灯するのに合わせて、スマートユニット12近傍に表示された光が画面中央に上昇するように移動する画像が、ディスプレイ14に表示される。
 図19は、リモートコントローラの下キーが押下されたときの連携点灯表現を示している。
 下キーが押下された場合、点灯させた光が、下キーに対応する下方向の移動となるように、連携点灯表現が行われる。具体的には、まず、画面中央に円状の光を有する画像がディスプレイ14に表示される。そして、画面中央の円状の光が、スマートユニット12に向かって画面下方向に移動する画像がディスプレイ14に表示される。次に、ディスプレイ14上の光の消滅に合わせて、スマートユニット12が点灯、その後消灯する。
 図20は、TV1のディスプレイ14がタッチパネルである場合に、ユーザがディスプレイ14を指でタッチして、スマートユニット12に向かって画面下方向にドラッグしたときの連携点灯表現を示している。この場合、TV1は、図19で説明した、リモートコントローラの下キーが押下されたときと同様の画像表示および点灯を行う。
 図21は、TV1のディスプレイ14がタッチパネルである場合に、ユーザがディスプレイ14を指でタッチして、スマートユニット12近傍から画面上方向にドラッグしたときの連携点灯表現を示している。この場合、TV1は、図18で説明した、リモートコントローラの上キーが押下されたときと同様の画像表示および点灯を行う。
 以上のように、TV1に対して所定の設定操作が行われたとき、円状の光がスマートユニット12に吸い込まれる、または、円状の光がスマートユニット12から吐き出されるような連携点灯表現が実行される。なお、連携点灯表現は、例示の「円状」に限定されず、任意の色、形状を採用することができる。また「円状の光」に代えて、所定の文字、図形、またはそれらの組み合わせを用いることができる。
 ユーザは、スマートユニット12が所定の輝度、色で点灯または点滅しているときに、上述したような予め定められた操作を行うことで、スマートユニット12の点灯または点滅が示す内容(意味)を即座かつ簡単に確認することができる。
[7.消画動作における連携点灯表現]
 TV1は、スマートユニット12内にカメラ93を備えており、カメラ93が撮像した画像をもとにTV1前方のユーザを検知することができる。そして、TV1は、ユーザがTV1の前に一定時間存在しない状態が検知されると、省電力のために画像を非表示とする消画機能を有している。
 図22のAは、TV1が消画モードに移行する場合の、ディスプレイ14の画像表示と、スマートユニット12による点灯を組み合わせた連携表現を示している。
 消画モードに移行する場合には、制御部66は、図22のAに示されるように、消画対象の画像が、ディスプレイ14下側に配置されたスマートユニット12に吸い込まれるように、ディスプレイ14の画像表示を制御する。すなわち、ディスプレイ14に表示される画像では、消画対象の画像がスマートユニット12に吸い込まれるに従い、スマートユニット12近傍の発光輝度が高くなっている。そして、ディスプレイ14に表示されていた画像がスマートユニット12に吸い込まれるほど、スマートユニット12が明るく点灯する(輝度が上昇する)。換言すれば、制御部66は、ディスプレイ14上の画像の表示率と、スマートユニット12の発光輝度が反比例するように、ディスプレイ14の表示とスマートユニット12の点灯を制御する。
 図22のBは、消画モードから通常モード(表示モード)に復帰する場合の、ディスプレイ14の画像表示と、スマートユニット12による点灯を組み合わせた連携表現を示している。
 通常モードに復帰する場合には、制御部66は、図22のBに示されるように、表示対象の画像がスマートユニット12から吐き出されるように、表示画像を制御する。すなわち、ディスプレイ14のスマートユニット12近傍が高輝度の画像となり、その後、表示対象の画像が全画面へと拡大する。スマートユニット12は、表示対象の画像がディスプレイ14に表示されるに応じて徐々に低輝度に変化する。換言すれば、スマートユニット12の発光輝度は、ディスプレイ14の表示対象の画像の表示率に反比例して低くなる。
 このように、制御部66は、消画対象の画像がスマートユニット12に吸い込まれるような、また、表示対象の画像がスマートユニット12から吐き出されるような、ディスプレイ14とスマートユニット12の連携表現を行う。スマートユニット12が、TV1のコア(中心部、中核)であるように、ユーザに観念させることができる。
[8.ビデオチャット画面とLEDインジケータ84の連携]
 図23は、TV1において、インターネットを介したビデオチャット機能を使用する際の画面遷移を示している。
 画像201のように、ユーザが所定の放送番組をTV1で視聴しているとき、インターネット等のネットワークを介して他のユーザからビデオチャットの着信があると、TV1は、画像202のように、ビデオチャットの着信を示す音と同期して、スマートユニット12を点灯させる。ここで、ビデオチャットの着信を示す音と同期して点灯するとは、ビデオチャットの着信を示す音の音程またはボリュームに応じてLEDインジケータ84の発光輝度が変化することを表す。図17のCを参照して上述したように、LEDインジケータ84の発光色は、所定の機能と対応付けられているので、ユーザは、仮に、ビデオチャットの着信を示す音がしなくなったときでも、LEDインジケータ84の点灯色を視認することで、ビデオチャットの着信があったことを認識することができる。
 ユーザが、リモートコントローラの所定のボタンを押下するなどして、ビデオチャットの着信に応答する。すると、TV1の制御部66は、画像203ないし204に示されるように、図22のBを参照して説明した、ディスプレイ14の画像表示と、スマートユニット12による点灯を組み合わせた連携表現でビデオチャット画面を表示させる。すなわち、制御部66は、いま視聴していた放送番組画像の上に、ビデオチャット画像がスマートユニット12から吐き出されるように、スマートユニット12の点灯とディスプレイ14の表示画像を制御する。
 ユーザがビデオチャットを終了した場合、TV1の制御部66は、画像206乃至209に示されるように、図22のAを参照して説明した、ディスプレイ14の画像表示と、スマートユニット12による点灯を組み合わせた連携表現でビデオチャット画像を消去させる。すなわち、制御部66は、ビデオチャット画像が、ディスプレイ14下側に配置されたスマートユニット12に吸い込まれるように、スマートユニット12の点灯とディスプレイ14の表示画像を制御する。
 なお、ビデオチャットでは、ビデオチャット画像をディスプレイ14に表示させず、音声会話のみでチャットすることもできる。音声会話のみでチャットする音声会話モードでは、画像210および211に示されるように、ビデオチャット画像が消去され、通話相手の音声(音)と同期して、スマートユニット12が点灯する。
 上述した例は、表示中の放送番組画像の上に、ビデオチャット画像を表示する例を説明した。しかし、その他の画像を表示および消去する場合にも、このようなディスプレイ14の画像表示と、スマートユニット12による点灯を組み合わせた表現を採用することができる。
 図24は、ディスプレイ14の画像表示と、スマートユニット12による点灯を組み合わせた表現を電子POP(Point of purchase advertising)に適用した例を示している。
 また例えば、スマートユニット12のカメラ93で撮像したユーザ画像に基づいてユーザ個人を認識し、認識したユーザに最適な情報を提供する情報提供画面の表示および消去にも、このようなディスプレイ14の画像表示と、スマートユニット12による点灯を組み合わせた表現を採用することができる。情報提供画面においてユーザに提供する情報の内容は、認識したユーザ個人だけでなく、時刻、日付、天気などに応じて変更することができる。例えば、あるユーザを平日の朝に認識した場合に、情報提供画面により、予め登録されている電車路線、道路などの交通情報(渋滞情報)などを提示することができる。
 以上のように、ディスプレイ14に表示中の第1の画像上に、別の画像である第2の画像を重畳表示・消去する際に、第2の画像がスマートユニット12に吸い込まれる、または、スマートユニット12から吐き出されるような連携表現を採用することができる。
[9.映像視聴体験に基づくLEDインジケータ84の情報表現]
 次に、ディスプレイ14に表示された情報説明画像と、スマートユニット12のLEDインジケータ84が所定の点灯をすることによって、ユーザに所定の情報(状態)を認識させる例について説明する。
[9.1 点灯位置に対応]
 図25を参照して、情報説明画像と、LEDインジケータ84の点灯位置に応じて、ユーザに所定の情報を認識させる例について説明する。
 上述したように、LEDインジケータ84は、3つのLED21が横方向に並んで配置されているので、それぞれを独立に点灯させることで、左側、中央、右側の3つの位置をユーザに識別させることができる。
 そこで、初めに、制御部66は、図25上側に示されるように、ディスプレイ14において、左側、中央、右側の3つのLED21に対応する位置に、所定の情報を説明する説明画像を表示する。図25上側の例では、左側のLED21Lに対応して「情報A」を説明する画像、中央のLED21Wに対応して「情報B」を説明する画像、右側のLED21Rに対応して「情報C」を説明する画像が表示されている。
 そして、制御部66は、「情報A」、「情報B」、および「情報C」を説明する説明画像を表示している間、3つのLED21を、例えば、1個ずつ順次点灯させ、情報A,情報B,情報CとLED21との対応関係をユーザに認識させる。
 その後、図25下側のように、ディスプレイ14に表示される画像が切り換えられ、説明画像が消去される。図25下側の例では、山を映した画像がTV1のディスプレイ14に表示されているが、スマートユニット12の点灯とは無関係という程度の意味であり、画像自体に意味はない。
 ディスプレイ14において山の画像を表示中、左側のLED21Lが点灯すると、それを見たユーザは、「情報A」であることがわかる。中央のLED21Wが点灯すると、それを見たユーザは、「情報B」であることがわかる。右側のLED21Rが点灯すると、それを見たユーザは、「情報C」であることがわかる。このように、制御部66は、所定の情報を表す場合に、その情報に対応する位置のLED21を点灯させる。
 具体的な例で説明する。例えば、3人の相手と同時にビデオチャットをしているシーンを想定する。この場合、制御部66は、例えば、ディスプレイ14に表示する説明画像の「情報A」として、ユーザAさんの撮影画像、「情報B」として、ユーザBさんの撮影画像、「情報C」として、ユーザCさんの撮影画像を表示した後、ディスプレイ14を放送番組画像に切り換える。そして、制御部66は、ユーザAさんが通話しているときには左側のLED21Lを点灯させ、ユーザBさんが通話しているときには中央のLED21Wを点灯させ、ユーザCさんが通話しているときには、右側のLED21Rを点灯させる。TV1の前のユーザは、LEDインジケータ84の点灯位置を見るだけで、どのユーザが通話しているのかを容易に認識することができる。
 なお上述した例において、ユーザAさん、ユーザBさん、ユーザCさんの撮影画像の代わりに、「この位置がユーザAさんです」のような説明が書かれた画像を表示してもよい。
 図26は、LEDインジケータ84の点灯位置に応じて、ユーザに所定の情報を認識させるその他の例を示している。
 図26の例では、制御部66は、図25と同様に説明画像を表示した後、「情報B」を説明する画像を画面下方向に移動させる。そして、「情報B」を説明する画像が消えるとともに、「情報B」に対応する中央のLED21Wを点灯させることで、所定の情報とLED21との対応関係をユーザに認識させる。これにより、画像が切り換えられた後でも、中央のLED21Wが点灯した場合、それを見たユーザは、「情報B」であることがわかる。
[9.2 点灯周期に対応]
 図27を参照して、情報説明画像と、LEDインジケータ84の点灯周期(明滅パターン)に応じて、ユーザに所定の情報を認識させる例について説明する。
 図27の例では、説明する情報の個数が「情報A」ないし「情報F」の6個になっている。
 制御部66は、初めに、図27上側に示されるように、「情報A」ないし「情報F」の説明画像をディスプレイ14に表示し、「情報A」ないし「情報F」の各説明画像を、それぞれ異なる明滅パターンで、順次、表示させる。またこのとき、LEDインジケータ84のLED21Wも画像の明滅パターンに同期した明度で点灯される。
 その後、ディスプレイ14の画像が切り換えられた後、スマートユニット12が、先ほどの説明画像で提示された「情報A」ないし「情報F」の明滅パターンのうちの、いずれか一つの明滅パターンで点灯する。例えば、図27に示されるように、スマートユニット12のLED21Wが「情報A」の明滅パターンで点灯(点滅)したとする。この場合、ユーザは、無関係の画像がディスプレイ14に表示されている場合であっても、「情報A」であることがわかる。
[9.3 点灯色に対応]
 次に、図28を参照して、情報説明画像と、LEDインジケータ84の点灯色に応じて、ユーザに所定の情報を認識させる例について説明する。
 初めに、制御部66は、図25に示した例と同様に、「情報A」、「情報B」、および「情報C」を説明する説明画像をディスプレイ14に表示する。ただし、図28では、「情報A」、「情報B」、および「情報C」を説明する説明画像が、異なる色で表現されている点が異なる。例えば、「情報A」は、赤色で表示され、「情報B」は、青色で表示され、「情報C」は、緑色で表示される。
 その後、ディスプレイ14の画像が切り換えられ、説明画像が消去された後、図28左側に示されるように、カラーLED21Lが赤色で点灯すると、それを見たユーザは、「情報A」であることがわかる。
 また、スマートユニット12の左右方向を時間軸と定義して、時間軸方向に複数の色を並べて点灯させることで、情報の内容と、その順位付けもスマートユニット12の点灯で認識させることができる。図28右側の例では、カラーLED21Lが緑色、カラーLED21Rが赤色で表示されているので、ユーザは、緑色、赤色の順である「情報C」、「情報A」の順番になったことがわかる。
[10.スマートユニット12に対して行ったユーザ操作に対応した連携表現]
 スマートユニット12は、上述したように、タッチセンサ85を有し、ユーザの手や指の接触または近接を検知することができる。また、スマートユニット12は、NFC通信部88およびBT通信部89を有し、他のNFC機器やBT機器と通信することができる。さらに、スマートユニット12は、カメラ93を有しているので、ユーザの動作を検知することができる。TV1は、スマートユニット12に対する様々なユーザの操作に対応して、LEDインジケータ84の点灯とディスプレイ14の画像表示による所定の連携表現を行うことができる。
[10.1 スマートユニット12へのタッチ操作に対応した連携表現]
 図29は、スマートユニット12へのタッチ操作に対応した連携表現の例を示している。
 上述した図16の例では、TV1においてタイマー機能が動作中である場合に、タイマー機能に対応する発光色であるオレンジ色でスマートユニット12が点灯し、リモートコントローラの画面表示ボタンが押下されると、子画面により補足情報が表示される例について説明した。
 図29の例は、図16の例の画面表示ボタンの押下に代えて、スマートユニット12へのタッチ操作が検出された場合に、同様の連携表現を行う例を示している。
 TV1においてタイマー機能が動作中である場合に、タイマー機能に対応する発光色のオレンジ色でスマートユニット12が点灯している。ユーザは、オレンジ色で点灯しているスマートユニット12を手でタッチする。TV1の制御部66は、ユーザのスマートユニット12へのタッチ操作を検出すると、図16に示したように、補足情報としての子画面の重畳表示を行うとともに、その子画面に同期させてスマートユニット12(のLEDインジケータ84)を、その機能に対応する色で発光させる。
 ユーザは、スマートユニット12が所定の色で常時点灯している状態を見るだけで、TV1の何の機能が動作中であるかを知ることができる。すなわち、TV1の所定の機能の動作または設定状態を直感的に認識することができる。また、スマートユニット12へのタッチという簡単な操作で、動作中の機能の補足情報を子画面として表示させることができ、内容を呼び出すことができる。
 図29は、上述した図16の場合と同様、放送番組画像など所定の画像を親画面として表示している場合の例であるが、図30は、TV1がスタンバイ状態で、画像が非表示のときに、スマートユニット12へのタッチ操作が検出された場合の例を示している。
 この場合も同様に、TV1は、ユーザのスマートユニット12へのタッチ操作を検出すると、ディスプレイ14内のスマートユニット12近傍に補足情報を表示し、その補足情報の表示に同期させてスマートユニット12のLEDインジケータ84を、機能に対応する色で発光させる。
[10.2 スマートユニット12に対するNFC近接操作に対応した連携表現]
 図31は、スマートユニット12に対するNFC近接操作に対応した連携表現の例を示している。
 図31の例では、ユーザが、自分の手ではなく、NFC通信機能を備えた携帯端末(スマートフォンなど)221を把持して、スマートユニット12へ近づける。
 TV1は、携帯端末221のスマートユニット12への近接を検出すると、スマートユニット12が、近接を検出したことを示す点灯を行う。例えば、携帯端末221のLEDランプと同期または連動してLEDインジケータ84が点灯する。
 その後、TV1は、図29と同様の連携表現を行う。すなわち、TV1は、図16に示したように、補足情報としての子画面の重畳表示を行うとともに、その子画面に同期させてLEDインジケータ84を、その機能に対応する色で発光させる。
 図32は、TV1がスタンバイ状態であるときに、スマートユニット12に対する携帯端末221の近接が検出された場合の例を示している。
 この場合も同様に、携帯端末221のスマートユニット12への近接を検出すると、スマートユニット12が、近接を検出したことを示す点灯を行う。次に、ディスプレイ14内のスマートユニット12近傍に補足情報が表示され、その補足情報の表示と同期してLEDインジケータ84が、機能に対応する色で発光する。
[10.3 携帯端末とTV1とのデータ転送に対応した連携表現]
 図33は、近接された携帯端末221とスマートユニット12との間で行われるデータ転送に対応した連携表現の例を示している。
 図33のAは、携帯端末221からTV1へデータを転送する場合の連携表現例を示している。
 ユーザが携帯端末221をTV1のスマートユニット12に近づける。TV1の制御部66は、携帯端末221のスマートユニット12への近接を検出すると、スマートユニット12を、携帯端末221のLEDランプと同期して点灯させる。すなわち、スマートユニット12のLEDインジケータ84と携帯端末221のLEDランプが、同一タイミングで発光し、常時点灯する、若しくは、同一の明滅パターンで点灯および消灯を繰り返す。
 次に、NFC通信による携帯端末221からTV1へのデータ転送が開始する。TV1の制御部66は、NFC通信により、携帯端末221から所定のデータの取得を開始する。
 データの転送動作中、TV1の制御部66は、携帯端末221のLEDランプの点灯と組み合わせた、データ入力を表す点灯表現を行う。具体的には、初めに、携帯端末221のLEDランプが所定の輝度で点灯する。そして、携帯端末221のLEDランプの消灯動作(輝度の低減)に対応して、TV1の制御部66は、図11のBまたは図11のDの、LEDインジケータ84とディスプレイ14の画像表示を組み合わせた点灯表現を行う。図32のAは、TV1が図11のBの点灯表現を行う例を示している。
 図33のBは、TV1から携帯端末221へデータを転送する場合の連携表現例を示している。
 NFC通信装置としてのTV1(のスマートユニット12)と携帯端末221が、通信相手を検出した際の点灯表現は、図33のAと同様である。
 TV1から携帯端末221へデータの転送が開始されると、TV1の制御部66は、携帯端末221のLEDランプの点灯と組み合わせた、データ出力を表す点灯表現を行う。具体的には、初めに、TV1の制御部66は、図11のAまたは図11のCの、LEDインジケータ84とディスプレイ14の画像表示を組み合わせた点灯表現を行う。そして、携帯端末221では、LEDインジケータ84の消灯動作(輝度の低減)に対応して、携帯端末221のLEDランプが徐々に点灯し、その後、消灯する。図33のBは、TV1が図11のAの点灯表現を行う例を示している。
 以上のように、TV1は、LEDインジケータ84で、NFC通信の通信相手の外部機器の表示部(LEDランプ)と連携(同期または連動)した点灯表現をすることにより、通信相手を検出したことを表す。
 また、TV1は、LEDインジケータ84の点灯と画像表示(映像表現)とを組み合わせた連携表現を、さらにNFC通信の通信相手の外部機器のLEDランプの点灯と連携させることにより、データの入出力動作を表す。
[10.4 スマートユニット12に対するジェスチャ操作に対応した連携表現]
 TV1は、ジェスチャ操作によってTV1に対して所定の命令を与えたり、所定の情報を入力するジェスチャ入力モードを備える。
 TV1の制御部66は、ジェスチャ入力モードにおいて、ユーザの手の検出、ジェスチャの認識を行った場合、LEDインジケータ84を図34に示すように点灯させる制御を行う。
 すなわち、TV1前にいるユーザが、手のひらをTV1(のカメラ93)に向ける。制御部66は、カメラ93で撮影された画像に基づいてユーザの手を検出すると、LEDインジケータ84を、第1の輝度(例えば、40%輝度)で点灯させる。
 ユーザが、予め決定された所定のジェスチャを行い、TV1の制御部66が、カメラ93で撮影された画像に基づいて、そのジェスチャを認識すると、第1の輝度から第2の輝度(例えば、100%輝度)に瞬間的に上昇させる。その後、制御部66は、第2の輝度から第1の輝度となるように徐々に輝度を低下させる。
 制御部66は、カメラ93で撮影された画像に基づいてジェスチャを再度認識すると、第1の輝度から第2の輝度に瞬間的に上昇させ、徐々に第1の輝度に戻す制御を行う。一方、ユーザが手を下ろし、認識対象のユーザの手のひらが検出できなくなると、制御部66は、LEDインジケータ84を消灯させる。
 このように、制御部66は、ジェスチャが認識されたときに、時間経過に応じて第1の輝度から第2の輝度に変化させ、余韻を残すような点灯表現となるよう、LEDインジケータ84を制御する。このような点灯を行うことで、所定の命令や情報を受け付ける側のTV1が、ユーザの指示を受け付けているか否かが容易にわかる。
[10.5 BT機器のペアリング操作に対応した連携表現]
 図35は、BT機器のペアリング操作に対応した連携表現の例を示している。
 図35に示されるヘッドフォン241は、TV1から放送番組等の音声信号をBT通信により受信し、音声出力するBT機器である。ヘッドフォン241は、電源状態または通信状態に応じて所定の光を発光するLEDランプ242を有している。
 図35のAに示されるように、BT機器であるTV1とヘッドフォン241がペアリングされる前、TV1のLEDインジケータ84と、ヘッドフォン241のLEDランプ242はともに消灯している。
 ユーザは、TV1とヘッドフォン241のペアリング操作を行う。すなわち、ユーザがヘッドフォン241に対して予め決定された所定の操作を行うことで、ヘッドフォン241がペアリングモードに変更される。また、TV1もペアリングモードに変更され、TV1の制御部66は、通信可能範囲内のBT機器を検索し、ヘッドフォン241を検出する。
 TV1の制御部66は、検出されたヘッドフォン241とペアリング動作を実行する。これにより、TV1とヘッドフォン241との間で、同一パスコード(PINコード)が共有される。
 ペアリングが終了すると、TV1は、図35のBに示されるような、ペアリングが終了したことを示す、LEDインジケータ84の点灯と画像表示(映像表現)とを組み合わせた連携表現を行う。すなわち、TV1は、LEDインジケータ84を第1の輝度(例えば、100%輝度)で発光させるとともに、スマートユニット12を中心とする半円状の光の画像をディスプレイ14に表示させる。ディスプレイ14に表示される画像には、「Pairing with Headphone!」の文字も表示されている。このLEDインジケータ84の点灯と画像表示は、ヘッドフォン241のLEDランプ242の明滅パターンと同一となるように同期して行われるように制御される。なお、LEDインジケータ84の点灯と画像表示は、ヘッドフォン241のLEDランプ242の明滅パターンと所定の時間差を保って連動するように行われてもよい。
 ペアリング設定が行われたTV1とヘッドフォン241の2回目以降の接続において、お互いのBT機器が検出されたときも、図35のBと同様の、同期した点灯制御が行われる。また、TV1とヘッドフォン241がBT通信により接続中である場合、スマートユニット12のLEDインジケータ84とヘッドフォン241のLEDランプ242は、第1の輝度よりも低い第2の輝度(例えば、40%輝度)で常時点灯する。
[10.6 ホームネットワーク内のWi-Fi機器との連携表現]
 TV1は、有線または無線により、ホームネットワークに接続された他の通信機器との通信状態に応じて、スマートユニット12を点灯させる。
 TV1は、例えば、DLNA(Digital Living Network Alliance)規格に対応したDLNA対応機器であり、DLNA規格に準拠した他のDLNA対応機器からコンテンツを取得し、取得したコンテンツの画像をディスプレイ14に表示させることができる。
 第1のDLNA対応機器から第2のDLNA対応機器へ、第1のDLNA対応機器で再生表示しているコンテンツ(の画像)を出力させる操作(動作)をスローと称する。逆に、第2のDLNA対応機器で再生表示されているコンテンツ(の画像)を、第1のDLNA対応機器に入力させる操作(動作)をキャッチと称する。
 図36は、第1のDLNA対応機器である携帯端末261から、第2のDLNA対応機器としてのTV1にコンテンツをスローする際の、TV1および携帯端末261の連携表現の例を示している。
 初めに、ユーザは、携帯端末261において、現在再生表示しているコンテンツのスロー処理を選択する。これにより、図36のAに示されるように、携帯端末261のディスプレイ262には、スロー先の候補として、ホームネットワークに接続されているDLNA対応機器のアイコンであるスロー機器アイコン281および282が表示される。この例では、スロー機器アイコン281がTV1に対応し、スロー機器アイコン282が、ホームネットワークに接続されたパーソナルコンピュータ(不図示)に対応するものとする。以下では、スロー機器アイコン281はTVアイコン281、スロー機器アイコン282はPCアイコン282ともいう。
 ユーザは、再生表示されているコンテンツのサムネイルを用いたコンテンツアイコン283を指でドラッグして、スローしたいスロー機器アイコン281または282まで移動させる。
 ユーザは、スロー先としてTV1を選択するとして、TVアイコン281の上でドラッグした指をディスプレイ262から離す。
 TVアイコン281の上で、ドラッグした指が離されると、コンテンツアイコン283が、図36のCに示されるように、TVアイコン281に吸い込まれるように消えて、最終的に、図36のDのようになる。コンテンツアイコン283がTVアイコン281に吸い込まれて消えていき、消滅するのと対照的に、図36のCに示されるように、スマートユニット12のLEDインジケータ84が、第1の輝度(50%輝度)から徐々に明るくなり、第2の輝度(100%輝度)まで上昇する。そして、図36のDに示されるように、LEDインジケータ84が第2の輝度から徐々に消灯されるに従い、TV1のディスプレイ14に、携帯端末261で再生表示されていたコンテンツの画像が表示される。
 図37は、携帯端末261のディスプレイ262で再生表示されているコンテンツ画像291が、徐々にTV1に表示される様子を示している。図37のA→図37のB→図37のC→図37のD→図37のEのように、携帯端末261で再生中のコンテンツ画像291が、TV1に表示されていく。
[キャッチ&スローの各種の操作]
 図38ないし図44を参照して、キャッチまたはスローの連携通信と、それに対応するTV1のディスプレイ14とLEDインジケータ84の連携表現について説明する。
 まず、TV1が接続しているホームネットワークには、図38に示されるように、TV1、タブレット端末301、および、スマートフォンとも呼ばれる携帯端末302が接続されている。
 タブレット端末301は、ディスプレイ311およびLEDランプ312と、それらを制御する制御部(不図示)、並びに、Wi-Fi通信、NFC通信、BT通信等の無線通信を行う無線通信部(不図示)を有する。タブレット端末301のディスプレイ311には、所定のコンテンツ画像313が表示されている。携帯端末302も、ディスプレイ321およびLEDランプ322と、それらを制御する制御部(不図示)、並びに、無線通信部(不図示)を有する。携帯端末302のディスプレイ321には、所定のコンテンツ画像323が表示されている。TV1のディスプレイ14には、放送番組等のコンテンツ画像331が表示されている。
 ユーザが、携帯端末302において、ディスプレイ321をタップするなどの、予め決められた所定の操作を行うと、図39のAに示されるスローキャッチ指示画面がディスプレイ321に表示される。スローキャッチ指示画面には、スロー処理を実行する際に操作されるスロー選択アイコン341と、キャッチ処理を実行する際に操作されるキャッチ選択アイコン342が表示されている。
 携帯端末302で再生表示されているコンテンツ画像323をスローする場合には、ユーザは、ディスプレイ321に表示されたスロー選択アイコン341をタップ(選択)する。
 スロー選択アイコン341がタップされ、スロー(処理)が選択されると、図39のBに示されるように、スロー先候補としての、TV1に対応するTVアイコン343、タブレット端末301に対応するタブレットアイコン344が、携帯端末302のディスプレイ321に表示される。
 ユーザは、携帯端末302に表示されたTVアイコン343またはタブレットアイコン344のいずれかをタップしてスロー先として選択することで、携帯端末302で再生表示されているコンテンツ画像323が、TV1またはタブレット端末301にスローされる。
 また、図39のBに示されるスロー先選択画面が携帯端末302のディスプレイ321に表示されている状態において、図40に示されるように、ユーザは、把持している携帯端末302を、スロー先としてのTV1のスマートユニット12へ近づける。すると、TV1と携帯端末302がNFC通信により互いの近接を検出し、TV1がスロー先として選択され、携帯端末302で再生表示されているコンテンツ画像323が、TV1にスローされる。
 スロー処理では、スロー先のTV1と携帯端末302との間で、図37を参照して説明したTV1のディスプレイ14とLEDインジケータ84の連携表現が実行される。
 一方、図39のAに示されるスローキャッチ指示画面において、キャッチ選択アイコン342がタップされ、キャッチ(処理)が選択された場合にも、図39のBと同様のキャッチ先選択画面が携帯端末302のディスプレイ321に表示される。そして、TVアイコン343若しくはタブレットアイコン344のタップ、または携帯端末302の近接により、キャッチ対象のDLNA対応機器が指定される。その結果、指定された方のDLNA対応機器から、コンテンツ画像が入力され、携帯端末302のディスプレイ321に表示される。
 図41及び図42は、連携通信のその他の操作方法を説明する図である。
 携帯端末302において、図39のBのスロー先選択画面が表示された状態から、ディスプレイ321に表示されているコンテンツ画像323を図面上方向にドラッグし、TVアイコン343またはタブレットアイコン344の上で、指を離す操作をすることで、スロー先としてTV1または携帯端末302を指定することができる。
 このとき、図41に示されるように、ドラッグにより、コンテンツ画像323が縮小されたコンテンツ画像323Aが、TVアイコン343と重なる状態になると、TVアイコン343に対応するTV1のスマートユニット12のLEDインジケータ84が所定周期で点灯する。換言すれば、携帯端末302は、コンテンツ画像323AがTVアイコン343と重なる状態とされることによりスロー先として選択されたTV1に対して、選択されていることを示す制御信号を送信することにより、スマートユニット12のLEDインジケータ84を所定周期で点灯させる。
 一方、図42に示されるように、ドラッグにより、コンテンツ画像323が縮小されたコンテンツ画像323Aが、タブレットアイコン344と重なる状態になると、タブレットアイコン344に対応するタブレット端末301のLEDランプ312が所定周期で点灯する。換言すれば、携帯端末302は、コンテンツ画像323Aがタブレットアイコン344と重なる状態とされることによりスロー先として選択されたタブレット端末301に対して、選択されていることを示す制御信号を送信することにより、スマートユニット12のLEDインジケータ84を所定周期で点灯させる。
 このように、TV1およびタブレット端末301は、携帯端末302において、コンテンツ画像323の出力先として、自分が選択されている場合に所定周期で点灯する。これにより、ユーザがスロー先(コンテンツデータの出力先)の装置を容易に認識することができる。
 図43は、連携通信のさらにその他の操作方法を説明する図である。
 図38に示した、ユーザが、携帯端末302でコンテンツ画像323を再生表示している状態において、図43のAに示されるように、携帯端末302のディスプレイ321上を、図面上方向にドラッグする。携帯端末302は、ユーザの上方向のドラッグ操作を検出すると、スロー命令が指示されたと認識し、スロー動作を意味するスローアイコン361をディスプレイ321に重畳表示させる。その後、図39のBと同様のスロー先選択画面がディスプレイ321に表示される。
 一方、ユーザが、図43のBに示されるように、携帯端末302のディスプレイ321上を、図面下方向にドラッグする。携帯端末302は、ユーザの下方向のドラッグ操作を検出すると、キャッチ命令が指示されたと認識し、キャッチ動作を意味するキャッチアイコン362をディスプレイ321に重畳表示させる。その後、図39のBと同様のキャッチ先選択画面がディスプレイ321に表示される。
 スロー先またはキャッチ先の選択画面表示後の動作は、上述した例と同様であるので省略する。
 図44は、連携通信のさらにその他の操作方法を説明する図である。
 図38に示した、携帯端末302でコンテンツ画像323を再生表示している状態において、ユーザは、図44に示されるように、把持している携帯端末302を、連携通信先としてのTV1のスマートユニット12へ近づける。すると、TV1と携帯端末302はNFC通信により互いの近接を検出する。そして、TV1のスマートユニット12のLEDインジケータ84と、携帯端末302のLEDランプ322が、同期して点灯する。
 同時に携帯端末302は、ディスプレイ321に、図39のAと同様の連携通信選択画面を表示させる。連携通信選択画面において、スロー選択アイコン341がタップ(選択)された場合、携帯端末302で再生表示されているコンテンツ画像323が、TV1にスローされる。一方、連携通信選択画面において、キャッチ選択アイコン342がタップ(選択)された場合、TV1で再生表示されているコンテンツ画像331が、TV1から携帯端末302にキャッチされ、携帯端末302のディスプレイ321に表示される。
 図45および図46の2つの通信装置401(401A,401B)は、上述したTV1、タブレット端末301、携帯端末302と同様の機能を有し、LEDインジケータ411(411A,411B)を備える装置である。
 2つの通信装置401Aと401Bを近づけることで通信装置401Aと401B間でキャッチ、スロー等の連携通信を開始するような場合には、図45に示されるように、最初に、通信装置401AのLEDインジケータ411Aと、通信装置401BのLEDインジケータ411Bを光らせておくことで、どこを近づけたらよいかを、ユーザにわかりやすくすることができる。
 そして、ユーザが、光っている通信装置401AのLEDインジケータ411A付近と、通信装置401BのLEDインジケータ411B付近を近づけると、通信装置401Aと通信装置401Bが相互に相手を検出(認識)する。通信装置401Aと通信装置401Bは、相手を検出した場合に、相手と同じ点灯方法で点灯する。例えば、通信装置401AのLEDインジケータ411Aと通信装置401BのLEDインジケータ411Bは同時に明滅する。これにより、通信装置401Aと通信装置401Bが、相互に相手を認識したことを、ユーザに容易に認識させることができる。発光輝度を変化させる代わりに、光る色を変化させる、光る部分の形を変化させるなどしてもよい。
 また、データの通信中には、図46に示されるように、データの移動に対応した光の遷移となるように、通信装置401AのLEDインジケータ411Aと、通信装置401BのLEDインジケータ411Bの点灯が制御される。すなわち、初めに、データの転送元である通信装置401AのLEDインジケータ411Aが高輝度に点灯し、LEDインジケータ411Aの消灯に応じて、転送先の通信装置401BのLEDインジケータ411Bが高輝度に点灯する制御が、所定のデータ単位で繰り返されるように実行することができる。これにより、通信装置401Aと401Bとの間で、データの授受が行われていることを、ユーザが直感的に認識することができる。あるいは、通信装置401AのLEDインジケータ411Aと、通信装置401BのLEDインジケータ411Bは、同一タイミングで点灯および消灯を繰り返すような点灯を行ってもよい。
[11.連携表現を実現するフローチャート]
 図47は、TV1による、上述したディスプレイ14の画像表示とLEDインジケータ84の点灯の連携表現を実現する処理のフローチャートである。
 この処理では、初めに、ステップS1において、TV1の制御部66が、連携表現を行うトリガーとしての、ユーザの操作等が検出されたか否かを判定する。ユーザの操作等には、上述したリモートコントローラのボタン操作、ジェスチャなどのユーザの操作、他の通信装置のスマートユニット12への近接、連携通信を要求するメッセージの受信など、各種の動作または装置状態が対応する。
 ユーザの操作等が検出されたと判定されるまで、ステップS1の処理が繰り返され、ステップS1で、ユーザの操作等が検出されたと判定された場合、処理がステップS2に進む。そして、ステップS2において、TV1の制御部66は、上述したような、ディスプレイ14の画像表示と、LEDインジケータ84の点灯を連携させた連携表現を行う。
 上述した例では、TV1が行う連携表現を主に説明したが、本技術は、テレビビジョン受像機の他、スマートフォン等の携帯端末、タブレット端末など、LCD,EL(Electro Luminescence)ディスプレイ等の画像表示部と、所定の動作・状態を照明で表すLED等のインジケータ(点灯部)を有する表示装置全般に適用することができる。
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 なお、本技術は以下のような構成も取ることができる。
(1)
 表示部の周辺の少なくとも一部に配置され、所定の輝度で点灯するインジケータを有するインジケータユニットと、
 ユーザの操作を検出する操作検出部と、
 前記インジケータの点灯を制御するインジケータ制御部と
 を備え、
 前記インジケータ制御部は、前記インジケータユニットに対する前記ユーザの操作が検出された場合に、前記インジケータを点灯させる
 を備える表示装置。
(2)
 前記操作検出部は、前記インジケータユニットに対する前記ユーザの操作として、前記インジケータユニットに対する前記ユーザの近接または接触を検出する
 前記(1)に記載の表示装置。
(3)
 前記操作検出部は、前記インジケータユニットに対する前記ユーザの操作として、前記ユーザが把持する他の通信装置の前記インジケータユニットへの近接または接触を検出する
 前記(1)または(2)に記載の表示装置。
(4)
 前記インジケータ制御部は、前記他の通信装置の前記インジケータユニットへの近接または接触を検出した場合、前記他の通信装置の点灯に同期または連動して、前記インジケータを点灯させる
 前記(1)乃至(3)のいずれかに記載の表示装置。
(5)
 前記インジケータユニットへの前記他の通信装置の近接または接触を検出した場合、前記インジケータユニットに画像が吸い込まれる、または、前記インジケータユニットから画像が吐き出されるように、前記表示部に表示させる前記画像を制御する表示制御部をさらに備え、
 前記インジケータ制御部は、前記表示部における前記インジケータユニットに画像が吸い込まれる表示、若しくは、前記インジケータユニットから画像が吐き出される表示に同期または連動させて、前記インジケータを点灯させる
 前記(1)乃至(4)のいずれかに記載の表示装置。
(6)
 前記操作検出部は、前記インジケータユニットに対する前記ユーザの操作として、前記ユーザが把持する他の通信装置との接続を検出し、
 前記インジケータ制御部は、前記他の通信装置との接続が検出された場合、前記他の通信装置の点灯に同期または連動して、前記インジケータを点灯させる
 前記(1)乃至(5)のいずれかに記載の表示装置。
(7)
 前記操作検出部は、前記インジケータユニットに対する前記ユーザの操作として、前記インジケータユニットに向けた前記ユーザのジェスチャを検出し、
 前記インジケータ制御部は、前記ユーザのジェスチャが検出された場合、前記インジケータの発光輝度を第1の輝度に設定し、その後、前記第1の輝度と異なる第2の輝度に徐々に変化するように制御する
 前記(1)乃至(6)のいずれかに記載の表示装置。
(8)
 表示部の周辺の少なくとも一部に配置され、所定の輝度で点灯するインジケータを有するインジケータユニットと、ユーザの操作を検出する操作検出部と、前記インジケータの点灯を制御するインジケータ制御部とを備える表示装置の、
 前記インジケータ制御部が、前記インジケータユニットに対する前記ユーザの操作が検出された場合、前記インジケータを点灯させる
 表示制御方法。
(9)
 表示部の周辺の少なくとも一部に配置され、所定の輝度で点灯するインジケータを有するインジケータユニットと、ユーザの操作を検出する操作検出部とを備える表示装置を制御するコンピュータに、
 前記インジケータユニットに対する前記ユーザの操作が検出された場合、前記インジケータを点灯させる
 処理を実行させるプログラム。
(10)
 表示部の周辺の少なくとも一部に配置され、所定の輝度で点灯するインジケータを有するインジケータユニットと、
 ユーザが把持する他の通信装置の前記インジケータユニットへの近接または接触を検出する操作検出部と、
 前記インジケータの点灯を制御するインジケータ制御部と、
 前記インジケータユニットへの前記他の通信装置の近接または接触が検出された場合、前記インジケータの近傍領域を高輝度に制御した画像を前記表示部に表示させる表示制御部と
 を備え、
 前記インジケータ制御部は、前記表示部において、前記インジケータユニットの前記インジケータの近傍領域を高輝度に制御した画像が表示される前または表示された後に、前記インジケータを所定期間だけ点灯させる
 表示装置。
(11)
 表示部の周辺の少なくとも一部に配置され、所定の輝度で点灯するインジケータを有するインジケータユニットと、ユーザが把持する他の通信装置の前記インジケータユニットへの近接または接触を検出する操作検出部と、前記インジケータの点灯を制御するインジケータ制御部と、前記表示部に表示させる画像を制御する表示制御部とを備える表示装置の、
 前記表示制御部が、前記インジケータユニットへの前記他の通信装置の近接または接触が検出された場合、前記インジケータの近傍領域を高輝度に制御した画像を前記表示部に表示させ、
 前記インジケータ制御部が、前記表示部において、前記インジケータユニットの前記インジケータの近傍領域を高輝度に制御した画像が表示される前または表示された後に、前記インジケータを所定期間だけ点灯させる
 表示制御方法。
(12)
 表示部の周辺の少なくとも一部に配置され、所定の輝度で点灯するインジケータを有するインジケータユニットと、ユーザが把持する他の通信装置の前記インジケータユニットへの近接または接触を検出する操作検出部とを備える表示装置を制御するコンピュータに、
 前記インジケータユニットへの前記他の通信装置の近接または接触が検出された場合、前記インジケータの近傍領域を高輝度に制御した画像を前記表示部に表示させ、
 前記表示部において、前記インジケータユニットの前記インジケータの近傍領域を高輝度に制御した画像が表示される前または表示された後に、前記インジケータを所定期間だけ点灯させる
 処理を実行させるプログラム。
 1 テレビジョン受像機, 11 ディスプレイ本体, 12 スマートユニット, 14 ディスプレイ, 15 額縁部, 66 制御部, 84 LEDインジケータ, 85 タッチセンサ, 87 Wi-Fi通信部, 88 NFC通信部, 89 BT通信部, 93 カメラ, 101 AV信号処理部, 102 通信制御部, 103 LED制御部, 104 カメラ制御部

Claims (12)

  1.  表示部の周辺の少なくとも一部に配置され、所定の輝度で点灯するインジケータを有するインジケータユニットと、
     ユーザの操作を検出する操作検出部と、
     前記インジケータの点灯を制御するインジケータ制御部と
     を備え、
     前記インジケータ制御部は、前記インジケータユニットに対する前記ユーザの操作が検出された場合に、前記インジケータを点灯させる
     表示装置。
  2.  前記操作検出部は、前記インジケータユニットに対する前記ユーザの操作として、前記インジケータユニットに対する前記ユーザの近接または接触を検出する
     請求項1に記載の表示装置。
  3.  前記操作検出部は、前記インジケータユニットに対する前記ユーザの操作として、前記ユーザが把持する他の通信装置の前記インジケータユニットへの近接または接触を検出する
     請求項1に記載の表示装置。
  4.  前記インジケータ制御部は、前記他の通信装置の点灯に同期または連動して、前記インジケータを点灯させる
     請求項3に記載の表示装置。
  5.  前記インジケータユニットへの前記他の通信装置の近接または接触を検出した場合、前記インジケータユニットに画像が吸い込まれる、または、前記インジケータユニットから画像が吐き出されるように、前記表示部に表示させる前記画像を制御する表示制御部をさらに備え、
     前記インジケータ制御部は、前記表示部における前記インジケータユニットに画像が吸い込まれる表示、若しくは、前記インジケータユニットから画像が吐き出される表示に同期または連動させて、前記インジケータを点灯させる
     請求項3に記載の表示装置。
  6.  前記操作検出部は、前記インジケータユニットに対する前記ユーザの操作として、前記ユーザが把持する他の通信装置との接続を検出し、
     前記インジケータ制御部は、前記他の通信装置との接続が検出された場合、前記他の通信装置の点灯に同期または連動して、前記インジケータを点灯させる
     請求項1に記載の表示装置。
  7.  前記操作検出部は、前記インジケータユニットに対する前記ユーザの操作として、前記インジケータユニットに向けた前記ユーザのジェスチャを検出し、
     前記インジケータ制御部は、前記ユーザのジェスチャが検出された場合、前記インジケータの発光輝度を第1の輝度に設定し、その後、前記第1の輝度と異なる第2の輝度に徐々に変化するように制御する
     請求項1に記載の表示装置。
  8.  表示部の周辺の少なくとも一部に配置され、所定の輝度で点灯するインジケータを有するインジケータユニットと、ユーザの操作を検出する操作検出部と、前記インジケータの点灯を制御するインジケータ制御部とを備える表示装置の、
     前記インジケータ制御部が、前記インジケータユニットに対する前記ユーザの操作が検出された場合、前記インジケータを点灯させる
     表示制御方法。
  9.  表示部の周辺の少なくとも一部に配置され、所定の輝度で点灯するインジケータを有するインジケータユニットと、ユーザの操作を検出する操作検出部とを備える表示装置を制御するコンピュータに、
     前記インジケータユニットに対する前記ユーザの操作が検出された場合、前記インジケータを点灯させる
     処理を実行させるプログラム。
  10.  表示部の周辺の少なくとも一部に配置され、所定の輝度で点灯するインジケータを有するインジケータユニットと、
     ユーザが把持する他の通信装置の前記インジケータユニットへの近接または接触を検出する操作検出部と、
     前記インジケータの点灯を制御するインジケータ制御部と、
     前記インジケータユニットへの前記他の通信装置の近接または接触が検出された場合、前記インジケータの近傍領域を高輝度に制御した画像を前記表示部に表示させる表示制御部と
     を備え、
     前記インジケータ制御部は、前記表示部において、前記インジケータユニットの前記インジケータの近傍領域を高輝度に制御した画像が表示される前または表示された後に、前記インジケータを所定期間だけ点灯させる
     表示装置。
  11.  表示部の周辺の少なくとも一部に配置され、所定の輝度で点灯するインジケータを有するインジケータユニットと、ユーザが把持する他の通信装置の前記インジケータユニットへの近接または接触を検出する操作検出部と、前記インジケータの点灯を制御するインジケータ制御部と、前記表示部に表示させる画像を制御する表示制御部とを備える表示装置の、
     前記表示制御部が、前記インジケータユニットへの前記他の通信装置の近接または接触が検出された場合、前記インジケータの近傍領域を高輝度に制御した画像を前記表示部に表示させ、
     前記インジケータ制御部が、前記表示部において、前記インジケータユニットの前記インジケータの近傍領域を高輝度に制御した画像が表示される前または表示された後に、前記インジケータを所定期間だけ点灯させる
     表示制御方法。
  12.  表示部の周辺の少なくとも一部に配置され、所定の輝度で点灯するインジケータを有するインジケータユニットと、ユーザが把持する他の通信装置の前記インジケータユニットへの近接または接触を検出する操作検出部とを備える表示装置を制御するコンピュータに、
     前記インジケータユニットへの前記他の通信装置の近接または接触が検出された場合、前記インジケータの近傍領域を高輝度に制御した画像を前記表示部に表示させ、
     前記表示部において、前記インジケータユニットの前記インジケータの近傍領域を高輝度に制御した画像が表示される前または表示された後に、前記インジケータを所定期間だけ点灯させる
     処理を実行させるプログラム。
PCT/JP2012/082378 2011-12-28 2012-12-13 表示装置、表示制御方法、およびプログラム WO2013099632A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP12861778.4A EP2800359B1 (en) 2011-12-28 2012-12-13 Display device, display control method, and program
CN201280063462.7A CN104025570B (zh) 2011-12-28 2012-12-13 显示装置、显示控制方法
JP2013551602A JP6242686B2 (ja) 2011-12-28 2012-12-13 表示装置、表示制御方法、およびプログラム
BR112014015149A BR112014015149A8 (pt) 2011-12-28 2012-12-13 dispositivo de exibição, método para controle de exibição de um dispositivo de exibição, e, programa
US14/367,444 US9479723B2 (en) 2011-12-28 2012-12-13 Display device, display control method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011288090 2011-12-28
JP2011-288090 2011-12-28

Publications (1)

Publication Number Publication Date
WO2013099632A1 true WO2013099632A1 (ja) 2013-07-04

Family

ID=48697124

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/082378 WO2013099632A1 (ja) 2011-12-28 2012-12-13 表示装置、表示制御方法、およびプログラム

Country Status (6)

Country Link
US (1) US9479723B2 (ja)
EP (1) EP2800359B1 (ja)
JP (1) JP6242686B2 (ja)
CN (1) CN104025570B (ja)
BR (1) BR112014015149A8 (ja)
WO (1) WO2013099632A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150093442A (ko) * 2014-02-07 2015-08-18 삼성전자주식회사 사용자단말기 및 그 제어방법
US10708535B2 (en) 2016-10-31 2020-07-07 Sharp Kabushiki Kaisha Light output system

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6225029B2 (ja) * 2011-12-28 2017-11-01 サターン ライセンシング エルエルシーSaturn Licensing LLC 表示装置、表示制御方法、およびプログラム
TWD175824S (zh) * 2014-06-06 2016-05-21 樂視網信息技術 北京 股份有&# 顯示螢幕之圖形化使用者介面
US20170056684A1 (en) * 2015-08-31 2017-03-02 Sasson Elihue Moulavi Lipolysis exercise device.
KR102420877B1 (ko) * 2017-08-25 2022-07-13 엘지전자 주식회사 영상표시장치
JP2020077182A (ja) * 2018-11-07 2020-05-21 シャープ株式会社 情報処理装置、情報処理方法、および、プログラム
CN111831243A (zh) * 2019-04-18 2020-10-27 三星电子株式会社 显示装置、用户终端装置、以及装置的控制方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005267897A (ja) 2004-03-16 2005-09-29 Sony Corp 表示操作装置及び薄型映像表示装置
JP2005323048A (ja) * 2004-05-07 2005-11-17 Mitsubishi Electric Corp 入力デバイス
JP2007157157A (ja) * 2005-12-02 2007-06-21 Lg Electronics Inc 携帯端末機及びその動作方法
JP2008257442A (ja) * 2007-04-04 2008-10-23 Sharp Corp 電子掲示装置
WO2010007851A1 (ja) * 2008-07-16 2010-01-21 日本電気株式会社 携帯通信端末、プログラムおよび状態表示方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004054879A (ja) * 2002-05-27 2004-02-19 Sony Corp 表示装置および表示方法
JPWO2007052395A1 (ja) * 2005-10-31 2009-04-30 シャープ株式会社 視聴環境制御装置、視聴環境制御システム、視聴環境制御方法、データ送信装置及びデータ送信方法
US20110267374A1 (en) 2009-02-05 2011-11-03 Kotaro Sakata Information display apparatus and information display method
US9830123B2 (en) * 2009-06-09 2017-11-28 Samsung Electronics Co., Ltd. Method for transmitting content with intuitively displaying content transmission direction and device using the same
US20110051019A1 (en) * 2009-09-03 2011-03-03 Sony Corporation Edge lighting control
JP2013514620A (ja) * 2009-12-18 2013-04-25 ティーピー ビジョン ホールディング ビー ヴィ グローバルなコンテンツ特性を使用した、アンビエンス照明システム
JP6225029B2 (ja) * 2011-12-28 2017-11-01 サターン ライセンシング エルエルシーSaturn Licensing LLC 表示装置、表示制御方法、およびプログラム
RU2606235C2 (ru) * 2011-12-28 2017-01-10 Сони Корпорейшн Отображающее устройство, способ управления отображением и программа

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005267897A (ja) 2004-03-16 2005-09-29 Sony Corp 表示操作装置及び薄型映像表示装置
JP2005323048A (ja) * 2004-05-07 2005-11-17 Mitsubishi Electric Corp 入力デバイス
JP2007157157A (ja) * 2005-12-02 2007-06-21 Lg Electronics Inc 携帯端末機及びその動作方法
JP2008257442A (ja) * 2007-04-04 2008-10-23 Sharp Corp 電子掲示装置
WO2010007851A1 (ja) * 2008-07-16 2010-01-21 日本電気株式会社 携帯通信端末、プログラムおよび状態表示方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2800359A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150093442A (ko) * 2014-02-07 2015-08-18 삼성전자주식회사 사용자단말기 및 그 제어방법
EP3103020B1 (en) * 2014-02-07 2021-03-03 Samsung Electronics Co., Ltd. User terminal and control method thereof
KR102263481B1 (ko) * 2014-02-07 2021-06-11 삼성전자 주식회사 사용자단말기 및 그 제어방법
US10708535B2 (en) 2016-10-31 2020-07-07 Sharp Kabushiki Kaisha Light output system

Also Published As

Publication number Publication date
US9479723B2 (en) 2016-10-25
US20150312514A1 (en) 2015-10-29
BR112014015149A2 (pt) 2017-06-13
JPWO2013099632A1 (ja) 2015-04-30
BR112014015149A8 (pt) 2017-07-04
EP2800359A1 (en) 2014-11-05
EP2800359B1 (en) 2022-10-12
CN104025570B (zh) 2018-06-05
JP6242686B2 (ja) 2017-12-06
CN104025570A (zh) 2014-09-03
EP2800359A4 (en) 2015-08-26

Similar Documents

Publication Publication Date Title
JP6165062B2 (ja) 表示装置、表示制御方法、およびプログラム
US11682355B2 (en) Display apparatus, display control method, and portable terminal apparatus, and program
JP6242686B2 (ja) 表示装置、表示制御方法、およびプログラム
JP6225029B2 (ja) 表示装置、表示制御方法、およびプログラム
CN112835549B (zh) 一种切换音频输出设备的方法及设备
US20170068449A1 (en) Method, computer program and device for providing cognitive support of a user interface
US11853640B2 (en) Display apparatus and method of controlling the same
RU2575879C2 (ru) Дисплейное устройство, способ управления дисплеем, портативный терминал и программа
CN116740870A (zh) 应援棒控制信息发送装置、应援棒控制系统及控制方法
CN114401574A (zh) 发光控制方法及系统、显示设备、可读存储介质
JP2016019020A (ja) 電気機器システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12861778

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013551602

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2012861778

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14367444

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112014015149

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112014015149

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20140620