WO2018078904A1 - 光出力システム - Google Patents

光出力システム Download PDF

Info

Publication number
WO2018078904A1
WO2018078904A1 PCT/JP2017/009437 JP2017009437W WO2018078904A1 WO 2018078904 A1 WO2018078904 A1 WO 2018078904A1 JP 2017009437 W JP2017009437 W JP 2017009437W WO 2018078904 A1 WO2018078904 A1 WO 2018078904A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
light
output system
light output
cpu
Prior art date
Application number
PCT/JP2017/009437
Other languages
English (en)
French (fr)
Inventor
広紀 阿部
英樹 西村
周作 水上
裕功 井上
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to CN201780052898.9A priority Critical patent/CN109863744B/zh
Priority to US16/326,876 priority patent/US10708535B2/en
Publication of WO2018078904A1 publication Critical patent/WO2018078904A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/3406Control of illumination source
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4131Peripherals receiving signals from specially adapted client devices home appliance, e.g. lighting, air conditioning system, metering devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4882Data services, e.g. news ticker for displaying messages, e.g. warnings, reminders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4886Data services, e.g. news ticker for displaying a ticker, e.g. scrolling banner for news, stock exchange, weather data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/028Casings; Cabinets ; Supports therefor; Mountings therein associated with devices performing functions other than acoustics, e.g. electric candles
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • H05B47/12Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings by detecting audible sound
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/66Transforming electric information into light information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/15Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B45/00Circuit arrangements for operating light-emitting diodes [LED]
    • H05B45/20Controlling the colour of the light
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Definitions

  • One embodiment of the present invention relates to a method for outputting light from a device, and more particularly, to a technique for outputting light according to sound output from the device or the state of the device.
  • Patent Document 1 discloses a display device.
  • a television receiver is disposed at least in the periphery of a display unit that displays a predetermined image, has an indicator unit that has an indicator that lights up with a predetermined luminance, and a predetermined unit that displays on the display unit.
  • a display control unit that controls the image to be linked with the lighting of the indicator.
  • An object of one embodiment of the present invention is to provide a light output system that can output light suitable for sound output from a device or a state of the device.
  • the speaker, the light output unit, the first sound and the second sound are output from the speaker, and the light output unit outputs light corresponding to the second sound output.
  • An optical output system is provided comprising a processor for processing.
  • the two types of sound may be different from each other in the acquisition source and the acquisition source, or may be the same in the acquisition source and the acquisition source, but different in the type of sound and the type of information.
  • the light corresponding to the second sound may blink at the same tempo as the sound, or may change the brightness, intensity, etc. according to the pitch.
  • the light output system further includes a display.
  • the processor causes the display to display an image corresponding to at least one of the first sound and the second sound.
  • the processor outputs light in the vicinity of the light output unit of the display in accordance with the light output from the light output unit.
  • the processor displays the video corresponding to the first audio and the video corresponding to the second audio side by side on the display.
  • the light output unit is a part or all of the display.
  • the second voice is a secondary voice.
  • the second sound includes information related to the next program.
  • the light output system further includes a communication interface for communicating with other electrical devices or servers.
  • the second sound includes information from other electrical devices or servers.
  • the light output system further includes a communication interface for communicating with other electrical devices or servers.
  • the processor sets the color of light output from the light output unit based on information from another electrical device or server.
  • the light output system further includes a microphone.
  • the processor outputs the second sound to the speaker based on the sound input from the microphone.
  • the processor causes the speaker to output the second sound based on the acquired text.
  • the speaker, the light output unit, the first sound and the second sound are output from the speaker, and the light is output to the light output unit corresponding to the output of the second sound.
  • a television is provided comprising a processor for outputting.
  • a method for controlling an optical output system including a speaker and an optical output unit includes a step of outputting the first sound and the second sound from the speaker, and a step of outputting light to the light output unit corresponding to the output of the second sound.
  • a program for an optical output system including a speaker, an optical output unit, and a processor is provided.
  • the program causes the processor to execute a step of outputting the first sound and the second sound from the speaker, and a step of outputting light to the light output unit in response to the output of the second sound.
  • a computer-readable recording medium for recording a program for an optical output system including a speaker, an optical output unit, and a processor.
  • the program causes the processor to execute a step of outputting the first sound and the second sound from the speaker, and a step of outputting light to the light output unit in response to the output of the second sound.
  • an optical output system that can output light output from a device or light suitable for the state of the device.
  • 1 is a front view showing an optical output system 100 according to a first embodiment. It is a block diagram showing the structure of the optical output system 100 concerning 1st Embodiment. It is a flowchart which shows the information processing in the optical output system 100 concerning 1st Embodiment. It is an image figure which shows the audio
  • light output system 100 is a television.
  • the optical output system 100 receives the television broadcast, and outputs the first sound corresponding to the video from the speaker while outputting the video from the display.
  • the optical output system 100 may acquire various types of information from a server via the Internet or the like.
  • the light output system 100 outputs a second sound different from the television broadcast.
  • the second voice is a user's schedule or weather forecast downloaded via the Internet or the like.
  • the light output system 100 is equipped with the LED light 135. Then, the light output system 100 emits the LED light 135 so as to correspond to the second sound.
  • the LED light 135 emits light corresponding to the second sound, so that the user is likely to notice that the second sound is output each time.
  • FIG. 2 is a block diagram showing the configuration of the optical output system 100 according to the present embodiment.
  • the light output system 100 includes a CPU (Central Processing Unit) 110, a memory 120, a display 130, an LED light 135, an operation unit 140, an antenna 150, and communication as main components.
  • An interface 160, a speaker 170, a microphone 180, a GPS (Global Positioning System) 190, a camera 195, a brightness sensor 196, an audio signal output interface 197, and a timer 198 are included.
  • the CPU 110 controls each unit of the light output system 100 by executing a program stored in the memory 120.
  • the CPU 110 executes programs stored in the memory 120 and executes various processes described later by referring to various data.
  • the memory 120 is realized by various RAMs (Random Access Memory), various ROMs (Read-Only Memory), and the like.
  • the memory 120 stores a program executed by the CPU 110, data generated by execution of the program by the CPU 110, the correspondence between the second sound and the luminance / intensity of light, the store, and the like.
  • the display 130 displays text and images based on signals from the CPU 110.
  • the LED light 135 is issued in response to the second sound based on a signal from the CPU 110.
  • the operation unit 140 receives a command from a service administrator and inputs the command to the CPU 110.
  • the antenna 150 receives a television broadcast or the like. More specifically, the optical output system 100 may include a connector that receives a television broadcast signal from an outdoor antenna instead of the antenna 150.
  • the communication interface 160 transmits data from the CPU 110 to another device such as a server via the Internet, a carrier network, a router, or the like. Conversely, the communication interface 160 receives data from other devices such as a server via the Internet, a carrier network, a router, etc., and passes it to the CPU 110.
  • Speaker 170 outputs sound based on a signal from CPU 110.
  • the microphone 180 creates an audio signal based on external audio and inputs it to the CPU 110.
  • the GPS 190 acquires the current position of the light output system 100 and passes it to the CPU 110.
  • the camera 195 photographs the outside of the light output system 100 based on a signal from the CPU 110.
  • the captured image data is stored in the memory 120.
  • the brightness sensor 196 detects the brightness around the light output system 100 based on a signal from the CPU 110. The detection result is stored in the memory 120.
  • the audio signal output interface 197 outputs an audio signal to an external speaker, amplifier, headphone, earphone or the like.
  • the timer 198 measures an elapsed time from a predetermined time or measures a remaining time until the predetermined time, and passes the time to the CPU 110.
  • the CPU 110 of the light output system 100 executes the following processing when outputting the second sound.
  • the CPU 110 analyzes the second voice (step S102).
  • CPU110 specifies the light output method corresponding to the analyzed voice (step S104). For example, you can increase the intensity of light for loud sounds, decrease the intensity of light for small sounds, set the brightness to be close to red for high sounds, Set the brightness to be close to blue in response to low sound, speed up the flashing tempo in response to loud fluctuations, slow down the flashing tempo in response to low fluctuations To do.
  • CPU 110 causes the speaker 170 to output sound and causes the LED light 135 to emit light based on the determined output method as shown in FIG. 4B (step S106).
  • the output of the second sound is visually enhanced.
  • the LED light 135 When the LED light 135 is lit, the user can visually recognize that information that is not program information is being output.
  • the CPU 110 may receive data including information indicating the importance level, and the CPU 110 may display more important information on the display 130 or cause the LED light 135 to shine strongly.
  • the light output method corresponding to the analyzed second sound is specified.
  • the second sound while the second sound is being output, it is lit or flashed with a constant intensity or brightness.
  • the CPU 110 of the light output system 100 analyzes the second sound as shown in FIG. 5A (step S102).
  • CPU110 specifies the light output method by specifying the period during which the second sound is output (step S104).
  • the CPU 110 causes the LED light 135 to emit light based on the determined output method (step S106).
  • the light output system 100 is a television.
  • the light output system 100 is not limited to a television.
  • the light output system 100 may be a car navigation system 100B as shown in FIG. More specifically, the light output system 100 outputs car navigation information as the first sound while displaying road guidance information. Then, the light output system 100 outputs other notices and talks as the second sound. Also in the present embodiment, in the light output system 100, the LED light 135 is turned on or blinks in response to the second sound. Thereby, the user can recognize that the second sound is output.
  • the light output system 100 may be a smartphone 100C (or smart TV), as shown in FIG. More specifically, the light output system 100 outputs the sound of the content as the first sound while displaying the video of the content acquired from a video browsing site or a television. Then, the light output system 100 outputs other notices and talks as the second sound. Also in the present embodiment, in the light output system 100, the LED light 135 is turned on or blinks in response to the second sound.
  • the light output system 100 may be a device not equipped with a display as shown in FIG.
  • the light output system 100 may be a speaker 100D. More specifically, the light output system 100 outputs the sound of the acquired content from the CD or antenna as the first sound. Then, the light output system 100 outputs other notices and talks as the second sound. Also in the present embodiment, in the light output system 100, the LED light 135 is turned on or blinks in response to the second sound.
  • the light output system 100 emits the LED light 135 in response to the second sound.
  • the light output system 100 may emit a part or all of the display 130 instead of the LED light 135 in accordance with the second sound.
  • the CPU 110 of the light output system 100 blinks or lights a part of the display 130 while blinking or lighting the LED light 135 in accordance with the second sound output from the speaker 170. You may let them.
  • the CPU 110 may cause the display 130 to output light in the form of a wave from the vicinity of the LED light 135 when the LED light 135 blinks and lights up.
  • the light output system 100 emits the LED light 135 in response to the second sound.
  • the light output system 100 may repeatedly output the second sound a plurality of times.
  • the light output system 100 outputs a notification message to the user as the second sound a plurality of times every predetermined time. Then, as the number of times increases, the light output system 100 may increase the second sound, give a gentle tone, or change the intensity, brightness, and tempo of the LED light 135.
  • the memory 120 of the light output system 100 repeatedly stores the database 121.
  • the repetitive database 121 stores the relationship between the number of outputs, volume, light intensity, light color (luminance), and flashing tempo.
  • the memory 120 further stores a notification database 122 as shown in FIG.
  • the notification database 122 includes a correspondence relationship between a notification ID, voice data or its address, and a flag for each output count for each notification message.
  • the CPU 110 of the light output system 100 executes the following processing when outputting the second sound.
  • the CPU 110 analyzes the second voice (step S102). Then, the CPU 110 refers to the notification database 122 and specifies the number of times of the next output of the sound to be output (step S103).
  • CPU110 specifies the light output method corresponding to the analyzed voice (step S104).
  • CPU 110 refers to repetitive database 121 and identifies a sound output method and a light output method based on the number of sound outputs.
  • CPU 110 causes speaker 170 to output sound based on the determined sound output method, and causes LED light 135 to emit light based on the determined light output method, as shown in FIG. (Step S106). For example, some display may be performed near the outer periphery of the display so that the number of outputs can be understood.
  • the light output method is different based on the number of outputs.
  • the memory 120 of the light output system 100 may store the emotion database 123.
  • the emotion database 123 stores emotion, light intensity, light color (luminance), and flashing tempo corresponding to the operation of the device and the surrounding state of the device. Store relationships.
  • the emotion is an emotion of the light output system 100 when it is assumed that the light output system 100 has an emotion similar to that of a human being. For example, it is preferable to output blue light when a sad emotion is set in the light output system 100 and red light when an angry emotion is set. Accordingly, the user can feel as if the light output system 100 has an emotion.
  • the emotion database 123 may store the volume for each emotion.
  • the CPU 110 of the light output system 100 executes the following processing when outputting the second sound.
  • the CPU 110 analyzes the second voice (step S102). Then, the CPU 110 specifies an emotion according to the current operation state of the light output system 100, or acquires the emotion of the light output system 100 from the server via the communication interface 160 (step S103B).
  • CPU110 specifies the light output method corresponding to the analyzed voice (step S104).
  • CPU 110 refers to emotion database 123 and specifies a sound output method and a light output method based on the emotion of light output system 100.
  • CPU 110 causes speaker 170 to output sound based on the determined sound output method, and causes LED light 135 to emit light based on the determined light output method, as shown in FIG. (Step S106).
  • the memory 120 of the light output system 100 may store the time zone database 124. More specifically, with reference to FIG. 16, the time zone database 124 stores the relationship between the time zone, light intensity, light color (luminance), and flashing tempo. The time zone database 124 may store the volume for each time zone.
  • the CPU 110 of the light output system 100 executes the following processing when outputting the second sound.
  • the CPU 110 analyzes the second voice (step S102). And CPU110 acquires the present time slot
  • CPU110 specifies the light output method corresponding to the analyzed voice (step S104).
  • CPU 110 refers to time zone database 124 and specifies a sound output method and a light output method according to the current time zone.
  • CPU 110 causes speaker 170 to output sound based on the determined sound output method, and causes LED light 135 to emit light based on the determined light output method, as shown in FIG. (Step S106).
  • the output method of sound and light may be different between a normal notification message and a notification message with a high warning level. That is, instead of the repeat database 121 or in addition to the repeat database 121, the memory 120 of the light output system 100 may store the urgency database 125. More specifically, referring to FIG. 19, the urgency database 125 stores a relationship between urgency, light intensity, light color (luminance), and flashing tempo. Note that the urgency database 125 may store a volume for each urgency.
  • the CPU 110 of the light output system 100 executes the following processing when outputting the second sound.
  • the CPU 110 acquires the second sound from the data acquired from the outside.
  • CPU110 analyzes a 2nd audio
  • the CPU 110 acquires the urgency of the notification information from the data (step S103D).
  • the urgency may be included in the data from the server, or the CPU 110 may determine the urgency from the data from the server.
  • CPU110 specifies the light output method corresponding to the analyzed voice (step S104).
  • CPU 110 refers to urgency level database 125 and identifies a sound output method and a light output method according to the urgency level.
  • CPU 110 causes speaker 170 to output sound based on the determined sound output method, and causes LED light 135 to emit light based on the determined light output method, as shown in FIG. (Step S106).
  • the sound and light output methods may be varied depending on the users around the light output system 100. That is, the memory 120 of the light output system 100 may store the user database 126 instead of or in addition to the repetition database 121. More specifically, referring to FIG. 22, the user database 126 stores a relationship among a user ID, light intensity, light color (luminance), and light blinking tempo for each user. Note that the user database 126 may also store the volume for each user.
  • the CPU 110 of the light output system 100 executes the following processing when outputting the second sound.
  • the CPU 110 analyzes the second voice (step S102). Then, the CPU 110 identifies users around the light output system 100 based on the image from the camera 195 (step S103E). Note that the CPU 110 may identify surrounding users based on the sound from the microphone 180, or identify surrounding users by detecting the user's smartphone via the communication interface 160 via WiFi or Bluetooth. May be.
  • CPU110 specifies the light output method corresponding to the analyzed voice (step S104).
  • CPU 110 refers to user database 126 to identify a sound output method and a light output method according to the user.
  • CPU 110 causes speaker 170 to output sound based on the determined sound output method, and causes LED light 135 to emit light based on the determined light output method, as shown in FIG. (Step S106).
  • the CPU 110 of the light output system 100 when the CPU 110 of the light output system 100 receives information on emergency breaking information such as text, the text may be converted into voice and the voice may be handled as the second voice. .
  • the CPU 110 of the optical output system 100 executes the following processing when the emergency bulletin information is received.
  • the CPU 110 acquires text emergency breaking information from the received data (step S202).
  • CPU110 converts the said text into an audio
  • CPU110 specifies the output method of the light corresponding to the audio
  • CPU 110 causes speaker 170 to output sound based on the determined sound output method, and causes LED light 135 to emit light based on the determined light output method, as shown in FIG. (Step S106).
  • the CPU 110 of the light output system 100 may cause the LED light 135 to emit light in accordance with the sound corresponding to the video on either screen while displaying two screens on the display 130.
  • a plurality of LED lights 135, 135 may be arranged outside the display 130 below each of the two screens.
  • the form which light-emits a part in the lower display 130 of each of two screens may be sufficient.
  • the LED light 135 may be turned on / flashed in synchronization with the sound when one sound is reproduced and the other sound is output without being output. Alternatively, the LED light 135 may be turned on and blinking in accordance with the sound while outputting the sound of the content of the other application, or the sound of the content of the other application is output without being output. The LED light 135 may be turned on / flashed in synchronization.
  • the CPU 110 of the optical output system 100 may receive information on the next program and cause the speaker 170 to output the next program name.
  • the memory 120 of the light output system 100 may store the theme database 127 instead of or in addition to the repetition database 121. More specifically, with reference to FIG. 30, the theme database 127 stores the relationship among the theme, genre, light intensity, light color (luminance), and light flashing tempo.
  • the CPU 110 of the light output system 100 executes the following processing when outputting the second sound.
  • the CPU 110 acquires information on the next program as the second sound from the data acquired from the outside.
  • CPU110 analyzes a 2nd audio
  • CPU 110 specifies the theme and genre of the next program from the data (step S103F).
  • the data and the genre may be included in the data from the server, or the theme and genre may be determined from the data received by the CPU 110.
  • CPU110 specifies the light output method corresponding to the analyzed voice (step S104).
  • CPU 110 refers to theme database 127 and specifies an audio output method and a light output method according to the genre of the next program.
  • CPU 110 causes speaker 170 to output sound based on the determined sound output method, and causes LED light 135 to emit light based on the determined light output method, as shown in FIG. (Step S106).
  • the CPU 110 of the light output system 100 detects that the users around the light output system 100 are facing the light output system 100 based on the image data from the camera 195. In this case, sound or light may be output.
  • the CPU 110 when the CPU 110 acquires data to be output, the CPU 110 causes the LED light 135 to output light in order to indicate that the sound to be output is accumulated (step S302). .
  • the CPU 110 searches for users around the light output system 100 via the camera 195 (step S304).
  • CPU 110 When CPU 110 detects that there is a user around light output system 100 based on the image from camera 195 (YES in step S304), CPU 110 creates audio data from the acquired data (step S306). .
  • the CPU 110 analyzes the sound data and specifies a light output method corresponding to the analyzed sound (step S308).
  • CPU 110 causes speaker 170 to output sound based on the determined sound output method, and causes LED light 135 to emit light based on the determined light output method, as shown in FIG. (Step S310).
  • the light output system 100 outputs sound when it is convenient for the user.
  • the user feels the life of the light output system 100, that is, the user feels as if the light output system 100 is thinking about the user.
  • the light output system 100 may be connected to another electrical device such as an interphone 3001. Then, when the optical output system 100 outputs audio data input from the interphone 3001, the optical output system 100 may output light in accordance with the audio.
  • the light output system 100 may be connected to other electrical devices such as a telephone 3002 and a washing machine 3003. Then, when the light output system 100 outputs sound data input from the telephone 3002 or the washing machine 3003, the light output system 100 may output light in accordance with the sound.
  • the electrical devices are not limited to the interphone 3001, the telephone 3002, and the washing machine 3003, but include microwave ovens, air conditioners, refrigerators, vacuum cleaners, air purifiers, humidifiers, dehumidifiers, rice cookers, lightings, and other home appliances, televisions, It may be an AV (audio / visual) device such as a hard disk recorder, a projector, or a music player, a built-in lighting, a solar power generator, a hot water heater, or a housing facility such as a hot water washing toilet seat controller.
  • AV audio / visual
  • the dialog box for notifying that the notification is from the electric device can prevent the video of a TV program such as a drama from being hidden.
  • the light output system 100 may be another type of display.
  • a goggle type display 100E as shown in FIG. 36 may be used.
  • the optical output system 100 outputs sound from headphones as the speaker 170 while displaying an image on the display 130.
  • the CPU 110 of the light output system 100 acquires sound outside the light output system 100 from the microphone 180 and outputs the sound from the speaker 170 of the headphones while displaying the sound according to the sound. 130 or the LED light 135 is turned on or blinked.
  • the CPU 110 of the light output system 100 acquires external sound from a server or the like via the communication interface 160 and outputs the sound from the speaker 170 of the headphone, while matching the sound with the display 130.
  • the LED light 135 may be turned on or blinked.
  • the light output system 100 may communicate with other devices.
  • the light output system 100 is a television 100X, and is configured to be able to communicate with another television 100Y.
  • Each of the televisions 100X and 100Y as the optical output system 100 outputs the audio of the television program as the first audio while outputting the video of the television program.
  • one CPU 110 of televisions 100X and 100Y obtains the user's voice via microphone 180 and transmits the user's voice via communication interface 160 to the other television. Send to. Then, the CPU 110 receives the user's voice from another TV via the communication interface 160, outputs the voice as the second voice from the speaker 170, and matches the voice with the LED light 135. Lights up or blinks.
  • the light output system 100 may exchange the voices of two users between two televisions, or may exchange the voices of more users between more televisions.
  • the CPU 110 In addition to the form of outputting a television broadcast, as shown in FIG. 38, the CPU 110 outputs the voice of the users between the speakers 170 as the second voice during the game, and matches the voice.
  • the LED light 135 may be turned on / flashing.
  • the optical output system 100 may handle the audio output from the external amplifier 300X as the second audio. . That is, the CPU 110 of the light output system 100 may determine whether or not the external amplifier 300X is connected, and may turn on and blink the LED light 135 in accordance with the sound output from the external amplifier 300X. This makes it possible to visually recognize where the sound is coming from. ⁇ Eighteenth embodiment>
  • the light output system 100 may output audio data from the terminal 300Y such as a smartphone from the speaker 170 via Bluetooth or WiFi as the second audio. That is, the CPU 110 outputs the sound from the terminal 300Y from the speaker 170, and lights or blinks the display 130 or the LED light 135 in accordance with the sound.
  • the CPU 110 of the light output system 100 receives audio data from a server or the like via the communication interface 160 and outputs the audio from the speaker 170 while matching the audio with the display 130 or the LED light. 135 may be turned on or blinked. It becomes easy to clearly distinguish the audio of the program and the audio of the application of the smartphone 300. ⁇ Nineteenth embodiment>
  • the light output system 100 may have a timer function. Then, the CPU 110 of the light output system 100 causes the speaker 170 to output the sound of the television program as the first sound while outputting the video of the television program on the display 130.
  • the CPU 110 of the light output system 100 outputs the sound related to the timer 198 from the speaker 170 as the second sound, and turns on and blinks the LED light 135 according to the second sound. .
  • the memory 120 of the light output system 100 may store the timer database 128 instead of or in addition to the repetition database 121.
  • timer database 128 stores the relationship between remaining time of timer 198, light intensity, light color (luminance), and flashing tempo.
  • the CPU 110 of the light output system 100 executes the following processing when outputting the second sound.
  • the CPU 110 analyzes the second voice (step S102). And CPU110 acquires the remaining time of the timer 198 (step S103G).
  • CPU110 specifies the light output method corresponding to the analyzed voice (step S104).
  • the CPU 110 refers to the timer database 128 to identify the sound output method and the light output method.
  • CPU 110 causes speaker 170 to output sound based on the determined sound output method, and causes LED light 135 to emit light based on the determined light output method, as shown in FIG. (Step S106).
  • the CPU 110 of the optical output system 100 when the automatic channel selection of the channel is completed, the CPU 110 of the optical output system 100 outputs the fact that the automatic channel selection is completed and the name of the TV program to be output from the speaker 170.
  • the LED light 135 is turned on / flashed in accordance with the message.
  • the CPU 110 of the light output system 100 outputs information indicating that automatic channel selection is in progress from the speaker 170 and turns on / flashes the LED light 135 in accordance with the message.
  • the CPU 110 of the light output system 100 when starting the automatic channel selection of the channel, the CPU 110 of the light output system 100 outputs information indicating that the automatic channel selection is to be started from the speaker 170, and lights / flashes the LED light 135 in accordance with the message. .
  • the CPU 110 of the optical output system 100 may handle the sub sound as the second sound when outputting the sub sound. That is, the CPU 110 may cause the LED light 135 to emit light in accordance with the sub audio. It becomes easier for the user to recognize the output of the sub sound.
  • the CPU 110 of the light output system 100 may handle the translation as the second voice when outputting the translation. Then, the CPU 110 may cause the LED light 135 to emit light in accordance with the translated speech. It becomes easier for the user to recognize the output of the translated speech. In particular, when the translation is performed by the translation function of the optical output system 100, the user can recognize that the voice of the translation by the optical output system 100 is output. Can be reduced.
  • the CPU 110 of the light output system 100 may automatically read out Twitter (registered trademark) and handle the read-out voice as the second voice. Then, the CPU 110 may cause the LED light 135 to emit light in accordance with the reading voice. It becomes easy for the user to recognize that the text of Twitter (registered trademark) is output as a voice.
  • the techniques of the first to twenty-first embodiments can also be used for the following optical output system 100.
  • the light output system 100 is a television and outputs light using a different method for each operation.
  • the memory 120 of the light output system 100 stores an operation pattern database 1201 as shown in FIG.
  • the operation pattern database 1201 includes a correspondence relationship between an activation trigger, presence / absence of screen interlock, light color, and light output method for each operation.
  • the CPU 110 of the light output system 100 refers to the operation pattern database 1201 to turn on and blink the LED light 135 according to its own operation and surrounding conditions.
  • the light output system 100 performs the “wake-up” operation when the light output system 100 is activated. Specifically, when the light output system 100 is activated, the CPU 110 slowly generates small light on the display 130 and starts the screen from the light. Alternatively, the CPU 110 displays an image on the display 130 while slowly increasing the intensity of the LED light 135.
  • the light output system 100 performs a “sleep” operation when the power of the light output system 100 is turned off. Specifically, when the power of the light output system 100 is turned off, the CPU 110 turns off the screen on the display 130 and gradually weakens the light. Alternatively, the CPU 110 erases the image on the display 130 while slowly decreasing the intensity of the LED light 135.
  • the light output system 100 executes a “react” operation when receiving a command from the remote controller or the main body operation unit. Specifically, when the CPU 110 receives a command from the remote controller or the main body operation unit, the CPU 110 displays light on a part of the display 130 or causes the LED light 135 to light up.
  • the light output system 100 When the light output system 100 receives a command for changing the sound volume, the light output system 100 performs a “react (link)” operation. Specifically, CPU 110 displays an image for indicating the volume on a part of display 130 when a command for changing the volume is received from the remote controller or the main body operation unit. More specifically, the CPU 110 displays a semicircular indicator as shown in FIGS. 46 and 47 in the left and right center of the display 130. In other words, a plurality of bars indicating the sound volume are arranged in a semicircular shape or a fan shape. Then, the CPU 110 displays more bars on the display 130 from the left side to the right side as the volume increases.
  • FIG. 46 is an image diagram showing screen transition of the display 130 when a command for changing the volume is input only once.
  • FIG. 47 is a conceptual diagram showing screen transition of the display 130 when commands for increasing the volume are continuously input.
  • the CPU 110 changes the number of the plurality of bars arranged radially on the display 130 in accordance with the changed volume, like a speedometer such as an automobile.
  • the CPU 110 displays the changed volume indicator for a predetermined time and then turns off the indicator. If the user further presses an instruction to increase the volume before the indicator disappears, the CPU 110 changes the display as it is without erasing the image of the volume indicator. When the user presses and holds a command to increase the volume, the CPU 110 continuously changes without erasing the volume indicator image.
  • part or all of the LED light 135 or the display 130 shine whenever the user presses a button for changing the volume.
  • the light output system 100 executes a “react (link)” operation.
  • CPU 110 displays an image or text indicating a channel on a part of display 130 when a command for changing a channel is received from a remote controller or a main body operation unit. More specifically, as shown in FIGS. 48, 49, and 50, the CPU 110 displays the changed channel on the left and right center of the lower part of the display 130.
  • FIG. 48 is an image diagram showing screen transition of the display 130 when a channel designation command is input.
  • the CPU 110 causes the display 130 to display the changed channel on the lower part, displays the changed channel and program information on the upper part, switches the entire screen to black, and then displays the video of the changed channel.
  • FIG. 49 is an image diagram showing screen transition of the display 130 when a command for increasing the channel is input.
  • the CPU 110 causes the display 130 to display an image indicating that the channel is up at the bottom, displays the changed channel and program information on the upper left side, switches the entire screen to black after a predetermined time, and then displays the changed channel. Display channel video.
  • FIG. 50 is an image diagram showing screen transition of the display 130 when the channel up key is pressed and held.
  • the CPU 110 causes the display 130 to display an image indicating that the changed channel is being updated on the lower part, and displays the changed channel and program information on the upper left side. While the channel up key is pressed, the CPU 110 switches the channel and program information on the upper part while displaying an image indicating that the changed channel is being updated on the lower part. When the channel up key is not pressed, the CPU 110 switches the entire screen to black, and then displays the changed channel image on the display 130.
  • part or all of the LED light 135 or the display 130 is lit whenever the user presses a button for changing a channel.
  • the light output system 100 executes a “listening” operation when spoken by the user. Specifically, when the CPU 110 detects a voice from the user via the microphone 180, the CPU 110 causes a part of the display 130 or the LED light 135 to blink at a constant rhythm as if there is a conflict.
  • the light output system 100 performs a “suggest” operation to the user. Specifically, the CPU 110 first outputs a part of the display 130 or the LED light 135 so that various light colors are mixed while outputting proposal information to the user from the speaker 170, and thereafter Decrease the light and then increase the standard color light. For example, it is preferable to flicker light softly or reciprocate.
  • the light output system 100 executes a “speak” operation to the user.
  • the CPU 110 causes a part of the display 130 or the LED light 135 to blink at a rhythm corresponding to the conversation while outputting the conversation from the speaker 170 to the user. For example, it is preferable to flicker light softly or reciprocate.
  • the light output system 100 performs the “meet” operation at the time of initial setting. Specifically, the CPU 110 displays an image on the display 130 for several seconds when the initial setting is completed. For example, as shown in FIG. 51, when the initial setting is completed, an image in which bubbles expand is displayed. Alternatively, the CPU 110 may cause part of the display 130 or the LED light 135 to output light when the connection of WiFi or Bluetooth is completed.
  • the CPU 110 may cause a part of the display 130 or the LED light 135 to output light.
  • the CPU 110 may cause a part of the display 130 or the LED light 135 to output light so that the power of the light output system 100 is not turned off by the user during software upgrade.
  • the light output system 100 executes the “notification” operation when executing the reservation operation or a predetermined time before the reservation operation. Specifically, the CPU 110 causes a part of the display 130 or the LED light 135 to output the same as “Reaction (small)”, or perform other lighting / flashing operations. As a result, it is not necessary to disturb the video at the time of notification. However, as shown in FIG. 52, CPU 110 may cause notification information text to be displayed on display 130, or notification information to be output in sound from speaker 170. ⁇ Twenty-third Embodiment>
  • the CPU 110 of the optical output system 100 detects that no sound is output from the amplifier 300X even though the external amplifier 300X is connected, and sends the signal to the speaker 170. It is preferable to output error information as the second sound, or to output light according to the sound to a part of the display 130 or the LED light 135. This makes it easier for the user to notice an unintended output state.
  • the CPU 110 of the light output system 100 when the CPU 110 of the light output system 100 receives an emergency alert broadcast via the antenna 150 or the communication interface 160, the CPU 110 outputs the fact as a second sound from the speaker 170.
  • the CPU 110 of the light output system 100 when outputting a recorded program, causes a part of the display 130 or the LED light 135 to output light according to the sound of the program. Also good. Or conversely, when outputting a program that is not recorded, the CPU 110 of the light output system 100 may cause a part of the display 130 or the LED light 135 to output light in accordance with the sound of the program. This can reduce the possibility that the user will misunderstand the LIVE information when the recording is being output. ⁇ Twenty-seventh embodiment>
  • the CPU 110 of the light output system 100 may output light according to the amount of communication.
  • the memory 120 of the light output system 100 may store the transmission / reception amount database 1202 instead of or in addition to the repetition database 121. More specifically, with reference to FIG. 57, the transmission / reception amount database 1202 stores the relationship between the amount of transmission / reception of data, the intensity of light, the color (luminance) of light, and the flashing tempo.
  • light output system 100 performs the following information processing.
  • the CPU 110 acquires the data transmission / reception amount (step S302).
  • the CPU 110 refers to the transmission / reception amount database 1202 to identify the light output method corresponding to the transmission / reception amount (step S304).
  • the CPU 110 causes a part of the display 130 and the LED light 135 to emit light based on the specified light output method (step S306).
  • the CPU 110 of the light output system 100 may output light according to the radio wave intensity. That is, instead of the repetition database 121 or in addition to the repetition database 121, the memory 120 of the optical output system 100 may store the radio wave intensity database 1203. More specifically, with reference to FIG. 59, the radio wave intensity database 1203 stores the relationship among radio wave intensity, light intensity, light color (luminance), and flashing tempo for wireless communication.
  • the light output system 100 performs the following information processing.
  • the CPU 110 measures the intensity of radio waves via the communication interface 160 (step S302).
  • the CPU 110 refers to the radio wave intensity database 1203 and identifies the light output method corresponding to the radio wave intensity (step S304).
  • the CPU 110 causes a part of the display 130 and the LED light 135 to emit light based on the specified light output method (step S306).
  • the CPU 110 of the light output system 100 may output light according to the type of error. That is, the memory 120 of the light output system 100 may store the error database 1204 instead of or in addition to the repetition database 121. More specifically, referring to FIG. 61, error database 1204 stores the relationship between error type, light intensity, light color (luminance), and flashing tempo. For example, the light output system 100 outputs weak blue light when the abnormal level is low, and outputs strong red light when the abnormal level is high.
  • the types of errors may be that the remote control number is wrong or the child is locked. Or, regarding various settings, a case where an abnormal value that is greater than or equal to a predetermined value or less is set.
  • the light output system 100 performs the following information processing.
  • the CPU 110 specifies the type of error via the communication interface 160 (step S302).
  • the CPU 110 refers to the error database 1204 and identifies the light output method corresponding to the type of error (step S304).
  • the CPU 110 causes a part of the display 130 and the LED light 135 to emit light based on the specified light output method (step S306).
  • the CPU 110 of the light output system 100 may output light according to the emergency broadcast level. That is, the memory 120 of the light output system 100 may store the abnormal level database 1205 instead of or in addition to the repetition database 121. More specifically, with reference to FIG. 63, the abnormal level database 1205 stores the relationship among the abnormal level of the situation, the light intensity, the light color (luminance), and the flashing tempo.
  • the light output system 100 performs the following information processing.
  • the CPU 110 identifies the level of emergency abnormality based on the acquired emergency information, the address of the light output system 100, the postal code, and the like (step S302).
  • the emergency level is specified based on the seismic intensity at the position of the light output system 100 or the level of the tsunami. Even in the case of tsunami information, when the position of the light output system 100 is away from the sea, it may be output that the degree of urgency is low.
  • the CPU 110 refers to the abnormal level database 1205 and identifies the light output method corresponding to the abnormal level of the emergency (step S304).
  • the CPU 110 causes a part of the display 130 and the LED light 135 to emit light based on the specified light output method (step S306).
  • the CPU 110 of the light output system 100 may output light according to the volume level that the light output system 100 is outputting. That is, the memory 120 of the light output system 100 may store the volume database 1206 instead of or in addition to the repetition database 121. More specifically, with reference to FIG. 65, volume database 1206 stores the relationship among volume level, light intensity, light color (luminance), and flashing tempo.
  • the light output system 100 performs the following information processing.
  • the CPU 110 specifies the volume level that the light output system 100 is outputting (step S302).
  • the CPU 110 refers to the volume database 1206 to identify the light output method corresponding to the volume (step S304).
  • the CPU 110 causes a part of the display 130 and the LED light 135 to emit light based on the specified light output method (step S306).
  • the CPU 110 of the light output system 100 may output light according to the ambient brightness or the brightness of the display 130. That is, the memory 120 of the light output system 100 may store the brightness database 1207 instead of or in addition to the repetition database 121. More specifically, with reference to FIG. 67, the brightness database 1207 stores the relationship between the brightness level, the light intensity, the light color (luminance), and the flashing tempo.
  • the light output system 100 performs the following information processing.
  • the CPU 110 specifies the brightness around the light output system 100 or the brightness of the display 130 (step S302).
  • the CPU 110 refers to the brightness database 1207 to identify the light output method corresponding to the current brightness (step S304).
  • the CPU 110 causes a part of the display 130 and the LED light 135 to emit light based on the specified light output method (step S306).
  • the brightness database 1207 may store the pitch and sound quality of sound corresponding to the brightness. Then, based on the brightness database 1207, the CPU 110 outputs a high pitched pleasant sound from the speaker 170 at a high volume when the surroundings are bright, and a low pitched quiet sound at a low volume when the surroundings are dark. It is preferable to output from the speaker 170.
  • the CPU 110 of the light output system 100 emits a part of the display 130 or the LED light 135 according to the strength of the backlight when the automatic light control of the display 130 of the light output system 100 is enabled. You may let them. This makes it easier for the user to recognize that the automatic light control function is working. ⁇ Other application examples>
  • one aspect of the present invention can also be applied to a case where the object is achieved by supplying a program to a system or apparatus. Then, a storage medium (or memory) storing a program represented by software for achieving one embodiment of the present invention is supplied to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores it. The effect of one embodiment of the present invention can also be enjoyed by reading and executing the program code stored in the medium.
  • the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes one aspect of the present invention.
  • the speaker 170, the light output units 135 and 130, the first sound and the second sound are output from the speaker 170, and the light output unit corresponds to the second sound output.
  • a light output system 100 is provided, comprising a processor 110 for causing the light sources 135 and 130 to output light.
  • the light output system 100 further includes a display 130.
  • the processor 110 causes the display 130 to display an image corresponding to at least one of the first sound and the second sound.
  • the processor 110 outputs light in the vicinity of the light output unit 135 of the display 130 in accordance with the light output from the light output unit 135.
  • the processor 110 causes the display 130 to display a video corresponding to the first audio and a video corresponding to the second audio side by side.
  • the light output unit 135 is a part or all of the display 130.
  • the second voice is a secondary voice or a translated voice.
  • the second sound includes information related to the next program.
  • the optical output system 100X further includes a communication interface 160 for communicating with another electrical device 100Y or a server.
  • the second sound includes information from another electrical device 100Y or a server.
  • the light output system 100 further includes a communication interface 160 for communicating with another electrical device 100Y or a server.
  • the processor 110 sets the color of light output from the light output unit 135 based on information from another electrical device 100Y or a server.
  • the light output system 100 further includes a microphone 180.
  • the processor 110 outputs the second sound to the speaker 170 based on the sound input from the microphone 180.
  • the processor 110 causes the speaker 170 to output the second sound based on the acquired text.
  • the speaker 170, the light output units 135 and 130, and the speaker 170 output the first sound and the second sound, and the light output corresponding to the output of the second sound.
  • a television 100 including a processor 110 for causing the units 135 and 130 to output light is provided.
  • a method for controlling the optical output system 100 including the speaker 170 and the optical output units 135 and 130 includes a step of outputting the first sound and the second sound from the speaker 170 and a step of causing the light output units 135 and 130 to output light corresponding to the output of the second sound.
  • a program for the optical output system 100 including the speaker 170, the optical output units 135 and 130, and the processor 110 is provided.
  • the program causes the processor 110 to output the first sound and the second sound from the speaker 170 and to output light to the light output units 135 and 130 in response to the output of the second sound. Let it run.
  • a computer-readable recording medium for recording a program for the optical output system 100 including the speaker 170, the optical output units 135 and 130, and the processor 110 is provided.
  • the program causes the processor 110 to output the first sound and the second sound from the speaker 170 and to output light to the light output units 135 and 130 in response to the output of the second sound. Let it run.
  • Optical output system 110 Processor (CPU) 120: Memory 121: Repetition database 122: Notification database 123: Emotion database 124: Time zone database 125: Urgency database 126: User database 127: Theme database 128: Timer database 130: Light output unit (LED light, display) 140: Operation unit 150: Antenna 160: Communication interface 170: Speaker 180: Microphone 190: GPS 195: Camera 196: Brightness sensor 300X: External amplifier 300Y: Terminal 1201: Operation pattern database 1202: Transmission / reception amount database 1203: Radio wave intensity database 1204: Error database 1205: Abnormal level database 1206: Volume database 1207: Brightness database 3001: Interphone 3002: Telephone 3003: Washing machine

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Ecology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Environmental & Geological Engineering (AREA)
  • Emergency Management (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Environmental Sciences (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

スピーカ(170)と、光出力部(135,130)と、スピーカ(170)から第1の音声と第2の音声とを出力させるとともに、第2の音声出力に対応して光出力部(135,130)に光を出力させるためのプロセッサ(110)とを備える、光出力システム(100)が提供される。

Description

光出力システム
 本発明の一態様は、機器からの光の出力方法に関し、特に機器から出力される音声または機器の状態などに応じた光を出力するための技術に関する。
 従来から、所定の条件に従ってライトが点灯する機器が知られている。たとえば、国際公開第13/099630号(特許文献1)には、表示装置が開示されている。特許文献1によると、テレビジョン受像機は、所定の画像を表示する表示部の周辺の少なくとも一部に配置され、所定の輝度で点灯するインジケータを有するインジケータユニットと、表示部に表示する所定の画像を、インジケータの点灯と連携させるように制御する表示制御部とを備える。
国際公開第13/099630号
 本発明の一態様の目的は、機器から出力される音声または機器の状態などに適した光を出力することができる光出力システムを提供することにある。
 この発明のある態様に従うと、スピーカと、光出力部と、スピーカから第1の音声と第2の音声とを出力させるとともに、第2の音声出力に対応して光出力部に光を出力させるためのプロセッサとを備える、光出力システムが提供される。なお、2種類の音声は、取得元や入手元が異なるものであってもよいし、取得元や入手元が同じで音声の種類や情報の種類などが異なるものであってもよい。また第2の音声に対応した光は、音声と同じテンポで点滅するものであってもよいし、音程に合わせて輝度や強度などを変化させるものであってもよい。
 好ましくは、光出力システムは、ディスプレイをさらに備える。プロセッサは、ディスプレイに第1の音声または第2の音声の少なくともいずれかに対応する映像を表示させる。
 好ましくは、プロセッサは、ディスプレイの光出力部の近傍に、光出力部から出力される光に合わせて光を出力させる。
 好ましくは、プロセッサは、ディスプレイに第1の音声に対応する映像と第2の音声に対応する映像とを並べて表示させる。
 好ましくは、光出力部はディスプレイの一部または全部である。
 好ましくは、第2の音声は、副音声である。
 好ましくは、第2の音声は、次の番組に関する情報を含む。
 好ましくは、光出力システムは、他の電気機器またはサーバと通信するための通信インターフェイスをさらに備える。第2の音声は、他の電気機器またはサーバからの情報を含む。
 好ましくは、光出力システムは、他の電気機器またはサーバと通信するための通信インターフェイスをさらに備える。プロセッサは、他の電気機器またはサーバからの情報に基づいて、光出力部から出力される光の色を設定する。
 好ましくは、光出力システムは、マイクをさらに備える。プロセッサは、マイクから入力された音に基づいてスピーカに第2の音声を出力する。
 好ましくは、プロセッサは、取得したテキストに基づいてスピーカに第2の音声を出力させる。
 この発明の別の局面に従うと、スピーカと、光出力部と、スピーカから第1の音声と第2の音声とを出力させるとともに、第2の音声の出力に対応して光出力部に光を出力させるためのプロセッサとを備える、テレビが提供される。
 この発明の別の局面に従うと、スピーカと光出力部とを含む光出力システムの制御方法が提供される。制御方法は、スピーカから第1の音声と第2の音声とを出力させるステップと、第2の音声の出力に対応して光出力部に光を出力させるステップと、を備える。
 この発明の別の局面に従うと、スピーカと光出力部とプロセッサとを含む光出力システムのためのプログラムが提供される。プログラムは、スピーカから第1の音声と第2の音声とを出力させるステップと、第2の音声の出力に対応して光出力部に光を出力させるステップと、をプロセッサに実行させる。
 この発明の別の局面に従うと、スピーカと光出力部とプロセッサとを含む光出力システムのためのプログラムを記録するコンピュータ読取可能な記録媒体が提供される。プログラムは、スピーカから第1の音声と第2の音声とを出力させるステップと、第2の音声の出力に対応して光出力部に光を出力させるステップと、をプロセッサに実行させる。
 以上のように、本発明の一態様によれば、機器から出力される音声または機器の状態などに適した光を出力することができる光出力システムが提供される。
第1の実施の形態にかかる光出力システム100を示す正面図である。 第1の実施の形態にかかる光出力システム100の構成を表わすブロック図である。 第1の実施の形態にかかる光出力システム100における情報処理を示すフローチャートである。 第1の実施の形態にかかる音声解析と光出力とを示すイメージ図である。 第2の実施の形態にかかる音声解析と光出力とを示すイメージ図である。 第3の実施の形態にかかる光出力システム100としてのカーナビゲーションシステムを示す正面図である。 第3の実施の形態にかかる光出力システム100としてのスマートフォンを示す正面図である。 第3の実施の形態にかかる光出力システム100としてのスピーカを示す正面図である。 第4の実施の形態にかかる光出力システム100を示す正面図である。 第5の実施の形態にかかる光出力システム100の動作概要を示すイメージ図である。 第5の実施の形態にかかる繰り返しデータベース121を示すイメージ図である。 第5の実施の形態にかかる通知データベース122を示すイメージ図である。 第5の実施の形態にかかる光出力システム100における情報処理を示すフローチャートである。 第6の実施の形態にかかる感情データベース123を示すイメージ図である。 第6の実施の形態にかかる光出力システム100における情報処理を示すフローチャートである。 第7の実施の形態にかかる時間帯データベース124を示すイメージ図である。 第7の実施の形態にかかる光出力システム100における情報処理を示すフローチャートである。 第8の実施の形態にかかる光出力システム100の動作概要を示すイメージ図である。 第8の実施の形態にかかる緊急度データベース125を示すイメージ図である。 第8の実施の形態にかかる光出力システム100における情報処理を示すフローチャートである。 第9の実施の形態にかかる光出力システム100の動作概要を示すイメージ図である。 第9の実施の形態にかかるユーザデータベース126を示すイメージ図である。 第9の実施の形態にかかる光出力システム100における情報処理を示すフローチャートである。 第10の実施の形態にかかる光出力システム100の動作概要を示すイメージ図である。 第10の実施の形態にかかる光出力システム100における情報処理を示すフローチャートである。 第11の実施の形態にかかる光出力システム100の第1の動作概要を示すイメージ図である。 第11の実施の形態にかかる光出力システム100の第2の動作概要を示すイメージ図である。 第11の実施の形態にかかる光出力システム100の第3の動作概要を示すイメージ図である。 第12の実施の形態にかかる光出力システム100の動作概要を示すイメージ図である。 第12の実施の形態にかかるテーマデータベース127を示すイメージ図である。 第12の実施の形態にかかる光出力システム100における情報処理を示すフローチャートである。 第13の実施の形態にかかる光出力システム100の動作概要を示すイメージ図である。 第13の実施の形態にかかる光出力システム100における情報処理を示すフローチャートである。 第14の実施の形態にかかる光出力システム100の第1の動作概要を示すイメージ図である。 第14の実施の形態にかかる光出力システム100の第2の動作概要を示すイメージ図である。 第15の実施の形態にかかる光出力システム100の動作概要を示すイメージ図である。 第16の実施の形態にかかる光出力システム100の第1の動作概要を示すイメージ図である。 第16の実施の形態にかかる光出力システム100の第2の動作概要を示すイメージ図である。 第17の実施の形態にかかる光出力システム100の動作概要を示すイメージ図である。 第18の実施の形態にかかる光出力システム100の動作概要を示すイメージ図である。 第19の実施の形態にかかる光出力システム100の動作概要を示すイメージ図である。 第19の実施の形態にかかるタイマデータベース128を示すイメージ図である。 第19の実施の形態にかかる光出力システム100における情報処理を示すフローチャートである。 第20の実施の形態にかかる光出力システム100の動作概要を示すイメージ図である。 第22の実施の形態にかかる光出力システム100の動作パターンを示すイメージ図である。 第22の実施の形態にかかる光出力システム100の音量変更の第1の動作概要を示すイメージ図である。 第22の実施の形態にかかる光出力システム100の音量変更の第2の動作概要を示すイメージ図である。 第22の実施の形態にかかる光出力システム100のチャンネル変更の第1の動作概要を示すイメージ図である。 第22の実施の形態にかかる光出力システム100のチャンネル変更の第2の動作概要を示すイメージ図である。 第22の実施の形態にかかる光出力システム100のチャンネル変更の第3の動作概要を示すイメージ図である。 第22の実施の形態にかかる光出力システム100の「出会う」の動作概要を示すイメージ図である。 第22の実施の形態にかかる光出力システム100の「お知らせ」の動作概要を示すイメージ図である。 第23の実施の形態にかかる光出力システム100の動作概要を示すイメージ図である。 第24の実施の形態にかかる光出力システム100の動作概要を示すイメージ図である。 第25の実施の形態にかかる光出力システム100の動作概要を示すイメージ図である。 第26の実施の形態にかかる光出力システム100の動作概要を示すイメージ図である。 第27の実施の形態にかかる送受信量データベース1202を示すイメージ図である。 第27の実施の形態にかかる光出力システム100における情報処理を示すフローチャートである。 第28の実施の形態にかかる電波強度データベース1203を示すイメージ図である。 第28の実施の形態にかかる光出力システム100における情報処理を示すフローチャートである。 第29の実施の形態にかかるエラーデータベース1204を示すイメージ図である。 第29の実施の形態にかかる光出力システム100における情報処理を示すフローチャートである。 第30の実施の形態にかかる異常レベルデータベース1205を示すイメージ図である。 第30の実施の形態にかかる光出力システム100における情報処理を示すフローチャートである。 第31の実施の形態にかかる音量データベース1206を示すイメージ図である。 第31の実施の形態にかかる光出力システム100における情報処理を示すフローチャートである。 第32の実施の形態にかかる明るさデータベース1207を示すイメージ図である。 第32の実施の形態にかかる光出力システム100における情報処理を示すフローチャートである。
 以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
 <第1の実施の形態>
 <光出力システムの動作概要>
 図1を参照して、本実施の形態においては、光出力システム100はテレビである。光出力システム100は、テレビジョン放送を受信することによって、ディスプレイから映像を出力しながら、スピーカから当該映像に対応する第1の音声を出力する。ただし、光出力システム100は、インターネットなどを介してサーバから各種の情報を取得するものであってもよい。
 本実施の形態においては、光出力システム100は、テレビジョン放送とは別の第2の音声を出力する。本実施の形態においては、第2の音声は、インターネットなどを介してダウンロードされるユーザの予定や天気予報などである。
 また、本実施の形態においては、光出力システム100は、LEDライト135を搭載する。そして、光出力システム100は、第2の音声に対応するように、LEDライト135を発光する。
 このように、本実施の形態にかかる光出力システム100は、第2の音声に対応してLEDライト135が発光するので、その都度ユーザが第2の音声が出力されていることに気が付きやすい。
 以下、このような機能を実現するための光出力システム100の具体的な構成について詳述する。
 <光出力システム100の構成>
 まず、本実施の形態にかかる光出力システム100の構成の一態様について説明する。なお、図2は、本実施の形態にかかる光出力システム100の構成を表わすブロック図である。
 図2を参照して、光出力システム100は、主たる構成要素として、CPU(Central Processing Unit)110と、メモリ120と、ディスプレイ130と、LEDライト135と、操作部140と、アンテナ150と、通信インターフェイス160と、スピーカ170と、マイク180と、GPS(Global Positioning System)190と、カメラ195と、明るさセンサ196と、音声信号出力インターフェイス197と、タイマ198とを含む。
 CPU110は、メモリ120に記憶されているプログラムを実行することによって、光出力システム100の各部を制御する。たとえば、CPU110は、メモリ120に格納されているプログラムを実行し、各種のデータを参照することによって、後述する各種の処理を実行する。
 メモリ120は、各種のRAM(Random Access Memory)、各種のROM(Read-Only Memory)などによって実現される。メモリ120は、CPU110によって実行されるプログラムや、CPU110によるプログラムの実行により生成されたデータ、第2の音声と光の輝度・強度・店舗との対応関係などを記憶する。
 ディスプレイ130は、CPU110からの信号に基づいて、テキストや画像を表示する。LEDライト135は、CPU110からの信号に基づいて、第2の音声に呼応して発行する。
 操作部140は、サービスの管理者などの命令を受け付けて、当該命令をCPU110に入力する。
 アンテナ150は、テレビジョン放送などを受信する。より詳細には、光出力システム100は、アンテナ150の代わりに、屋外のアンテナからのテレビジョン放送の信号を受信するコネクタを有してもよい。
 通信インターフェイス160は、CPU110からのデータを、インターネット、キャリア網、ルータなどを介して、サーバなどの他の装置に送信する。逆に、通信インターフェイス160は、インターネット、キャリア網、ルータなどを介してサーバなどの他の装置からのデータを受信して、CPU110に受け渡す。
 スピーカ170は、CPU110からの信号に基づいて、音声を出力する。マイク180は、外部からの音声に基づいて音声信号を作成し、CPU110に入力する。
 GPS190は、光出力システム100の現在位置を取得してCPU110に受け渡す。
 カメラ195は、CPU110からの信号に基づいて、光出力システム100の外部を撮影する。撮影された画像データはメモリ120に格納される。
 明るさセンサ196は、CPU110からの信号に基づいて、光出力システム100の周囲の明るさを検知する。検知結果は、メモリ120に格納される。
 音声信号出力インターフェイス197は、外部のスピーカやアンプやヘッドホンやイヤホンなどに音声信号を出力する。
 タイマ198は、所定のときからの経過時間を計測したり、所定のときまでの残り時間を計測したりして、当該時間をCPU110に受け渡す。
 <光出力システム100における情報処理>
 次に、図3を参照しながら、本実施の形態にかかる光出力システム100における情報処理について説明する。光出力システム100のCPU110は、第2の音声を出力する際に、以下の処理を実行する。
 まず、CPU110は、図4の(A)に示すように、第2の音声を解析する(ステップS102)。
 CPU110は、解析された音声に対応する光の出力方法を特定する(ステップS104)。たとえば、大きい音声に対応して光の強度を強くしたり、小さい音声に対応して光の強度を弱くしたり、高い音声に対応して赤色に近い色にするために輝度を設定したり、低い音声に対応して青色に近い色にするために輝度を設定したり、変動が大きな音声に対応して点滅のテンポを早めたり、変動が小さな声に対応して点滅のテンポを遅くしたりする。
 CPU110は、スピーカ170に音声を出力させるとともに、図4の(B)に示すように、決定された出力方法に基づいて、LEDライト135を発光させる(ステップS106)。
 本実施の形態にかかる光出力システム100に関しては、第2の音声の出力が視覚的により強調されるようになる。そして、LEDライト135が点灯している際に、ユーザが番組の情報ではない情報が出力されていることを視覚的に認識することができる。また、たとえば、重要度を示す情報を含むデータを受信して、CPU110が、重要な情報ほど大きくディスプレイ130に表示したり、LEDライト135を強く光らせたりしてもよい。
 <第2の実施の形態>
 第1の実施の形態では、図4に示すように、解析された第2の音声に対応する光の出力方法を特定するもであった。本実施の形態においては、第2の音声が出力されている間、一定の強度や輝度で点灯したり点滅したりする。
 たとえば、光出力システム100のCPU110は、図5の(A)に示すように、第2の音声を解析する(ステップS102)。CPU110は、第2の音声が出力される期間を特定することによって、光の出力方法を特定する(ステップS104)。CPU110は、図5の(B)に示すように、決定された出力方法に基づいて、LEDライト135を発光させる(ステップS106)。
 <第3の実施の形態>
 第1の実施の形態では、光出力システム100がテレビであった。しかしながら、光出力システム100は、テレビには限定されない。
 たとえば、光出力システム100は、図6に示すように、カーナビゲーションシステム100Bであってもよい。より詳細には、光出力システム100は、道路案内情報を表示しながら、第1の音声としてカーナビゲーション情報を出力する。そして、光出力システム100は、第2の音声として、他のお知らせや話しかけを出力する。本実施の形態においても、光出力システム100は、第2の音声に対応して、LEDライト135が点灯したり点滅したりする。これによって、ユーザは、第2の音声が出力されていることを認識することができる。
 あるいは、光出力システム100は、図7に示すように、スマートフォン100C(またはスマートテレビ)などであってもよい。より詳細には、光出力システム100は、動画閲覧サイトやテレビなどから取得したコンテンツの映像を表示しながら、第1の音声としてコンテンツの音声を出力する。そして、光出力システム100は、第2の音声として、他のお知らせや話しかけを出力する。本実施の形態においても、光出力システム100は、第2の音声に対応して、LEDライト135が点灯したり点滅したりする。
 あるいは、光出力システム100は、図8に示すように、ディスプレイを搭載しない装置であってもよい。たとえば、光出力システム100はスピーカ100Dであってもよい。より詳細には、光出力システム100は、第1の音声として、CDやアンテナからの取得したコンテンツの音声を出力する。そして、光出力システム100は、第2の音声として、他のお知らせや話しかけを出力する。本実施の形態においても、光出力システム100は、第2の音声に対応して、LEDライト135が点灯したり点滅したりする。
 これによって、カーナビゲーションシステム100Bの音声とは違う、サービスやアプリケーションの音声が出力されていることが解る。
 <第4の実施の形態>
 第1~第3の実施の形態においては、光出力システム100が、第2の音声に応じてLEDライト135を発光するものであった。しかしながら、このような形態には限られない。光出力システム100は、第2の音声に合わせて、LEDライト135の代わりに、ディスプレイ130の一部または全部を発光するものであってもよい。
 あるいは、図9に示すように、光出力システム100のCPU110は、スピーカ170から出力される第2の音声に合わせて、LEDライト135を点滅または点灯させつつ、ディスプレイ130の一部を点滅または点灯させてもよい。たとえば、CPU110は、LEDライト135が点滅・点灯する際に、ディスプレイ130に、LEDライト135の近傍から光を波状で出力させてもよい。
 <第5の実施の形態>
 第1~第4の実施の形態においては、光出力システム100が、第2の音声に応じてLEDライト135を発光するものであった。光出力システム100は、第2の音声を複数回繰り返し出力させてもよい。
 たとえば、図10に示すように、光出力システム100は、第2の音声としてのユーザへの通知メッセージを所定の時間毎に複数回出力する。そして、回数が増えるにつれて、光出力システム100は、第2の音声を大きくしたリ、なげやりな口調になったり、LEDライト135の強度や輝度やテンポを変化させたりしてもよい。
 より詳細には、光出力システム100のメモリ120は、繰り返しデータベース121を記憶する。図11に示すように、繰り返しデータベース121は、出力の回数、音量、光の強度、光の色(輝度)、光の点滅のテンポ、の関係を格納する。そして、メモリ120は、さらに、図12に示すように、通知データベース122を記憶する。なお、通知データベース122は、通知メッセージ毎に、通知IDと、音声データまたはそのアドレス、出力回数毎のフラグの対応関係を含む。
 以下では、図13を参照して、本実施の形態にかかる光出力システム100における情報処理について説明する。光出力システム100のCPU110は、第2の音声を出力する際に、以下の処理を実行する。
 まず、CPU110は、図4の(A)に示すように、第2の音声を解析する(ステップS102)。そして、CPU110は、通知データベース122を参照して、出力すべき音声の次の出力が何回目であるかを特定する(ステップS103)。
 CPU110は、解析された音声に対応する光の出力方法を特定する(ステップS104)。本実施の形態においては、CPU110は、繰り返しデータベース121を参照して、音声の出力回数に基づいて、音声の出力方法と光の出力方法とを特定する。
 CPU110は、決定された音声の出力方法に基づいてスピーカ170に音声を出力させるとともに、図4の(B)に示すように、決定された光の出力方法に基づいて、LEDライト135を発光させる(ステップS106)。なお、出力回数が分かるように、例えば、ディスプレイの外周近くに何らかの表示を行っても良い。
 これによって、ユーザがあるメッセージ音声を聞き逃してしまっても、何度も通知を受けていることが、ユーザが後からみて分かる。また、光出力システム100があたかも人間のように感情を有しているようにユーザに感じられる。
 <第6の実施の形態>
 上記の第5の実施の形態においては、出力回数に基づいて光の出力方法が異なるものであった。しかしながら、このような形態には限られない。たとえば、繰り返しデータベース121の代わりに、または繰り返しデータベース121に加えて、光出力システム100のメモリ120は、感情データベース123を記憶してもよい。
 より詳細には、図14を参照して、感情データベース123は、機器の動作や機器の周囲の状態などに対応する感情、光の強度、光の色(輝度)、光の点滅のテンポ、の関係を格納する。感情は、光出力システム100が人間と同様の感情を有していると仮定した場合の光出力システム100の感情である。たとえば、光出力システム100に悲しい感情が設定された際は青い光を、怒りの感情が設定された場合は赤い光を出力することが好ましい。これによって、光出力システム100がまるで情緒を有しているようにユーザが感じることができる。なお、感情データベース123は、感情毎の音量を記憶してもよい。
 以下では、図15を参照して、本実施の形態にかかる光出力システム100における情報処理について説明する。光出力システム100のCPU110は、第2の音声を出力する際に、以下の処理を実行する。
 まず、CPU110は、図4の(A)に示すように、第2の音声を解析する(ステップS102)。そして、CPU110は、光出力システム100の現在の動作状態などに応じて感情を特定したり、通信インターフェイス160を介してサーバから光出力システム100の感情を取得したりする(ステップS103B)。
 CPU110は、解析された音声に対応する光の出力方法を特定する(ステップS104)。本実施の形態においては、CPU110は、感情データベース123を参照して、光出力システム100の感情に基づいて、音声の出力方法と光の出力方法とを特定する。
 CPU110は、決定された音声の出力方法に基づいてスピーカ170に音声を出力させるとともに、図4の(B)に示すように、決定された光の出力方法に基づいて、LEDライト135を発光させる(ステップS106)。
 これによって、光出力システム100があたかも人間のように感情を有しているようにユーザに感じられる。
 <第7の実施の形態>
 あるいは、繰り返しデータベース121の代わりに、または繰り返しデータベース121に加えて、光出力システム100のメモリ120は、時間帯データベース124を記憶してもよい。より詳細には、図16を参照して、時間帯データベース124は、時間帯、光の強度、光の色(輝度)、光の点滅のテンポ、の関係を格納する。なお、時間帯データベース124は、時間帯毎の音量を記憶してもよい。
 以下では、図17を参照して、本実施の形態にかかる光出力システム100における情報処理について説明する。光出力システム100のCPU110は、第2の音声を出力する際に、以下の処理を実行する。
 まず、CPU110は、図4の(A)に示すように、第2の音声を解析する(ステップS102)。そして、CPU110は、現在の時間帯を取得する(ステップS103C)。
 CPU110は、解析された音声に対応する光の出力方法を特定する(ステップS104)。本実施の形態においては、CPU110は、時間帯データベース124を参照して、現在の時間帯に応じた、音声の出力方法と光の出力方法とを特定する。
 CPU110は、決定された音声の出力方法に基づいてスピーカ170に音声を出力させるとともに、図4の(B)に示すように、決定された光の出力方法に基づいて、LEDライト135を発光させる(ステップS106)。
 これによって、ユーザは、時間帯に合わせた気持ち良さを感じることができる。
 <第8の実施の形態>
 あるいは、図18に示すように、通常の通知メッセージと警告レベルが高い通知メッセージとで、音声や光の出力方法を異ならせてもよい。すなわち、繰り返しデータベース121の代わりに、または繰り返しデータベース121に加えて、光出力システム100のメモリ120は、緊急度データベース125を記憶してもよい。より詳細には、図19を参照して、緊急度データベース125は、緊急度、光の強度、光の色(輝度)、光の点滅のテンポ、の関係を格納する。なお、緊急度データベース125は、緊急度毎の音量を記憶してもよい。
 以下では、図20を参照して、本実施の形態にかかる光出力システム100における情報処理について説明する。光出力システム100のCPU110は、第2の音声を出力する際に、以下の処理を実行する。
 まず、CPU110は、図4の(A)に示すように、外部から取得したデータから第2の音声を取得する。CPU110は、第2の音声を解析する(ステップS102)。特に、CPU110は、当該データから通知情報の緊急度を取得する(ステップS103D)。なお、サーバからの当該データに緊急度が含まれていてもよいし、CPU110がサーバからの当該データから緊急度を判断してもよい。
 CPU110は、解析された音声に対応する光の出力方法を特定する(ステップS104)。本実施の形態においては、CPU110は、緊急度データベース125を参照して、緊急度に応じた、音声の出力方法と光の出力方法とを特定する。
 CPU110は、決定された音声の出力方法に基づいてスピーカ170に音声を出力させるとともに、図4の(B)に示すように、決定された光の出力方法に基づいて、LEDライト135を発光させる(ステップS106)。
 これによって、ユーザは、視覚的に緊急度や重要度などが把握できる。
 <第9の実施の形態>
 あるいは、図21に示すように、光出力システム100の周囲にいるユーザに応じて、音声や光の出力方法を異ならせてもよい。すなわち、繰り返しデータベース121の代わりに、または繰り返しデータベース121に加えて、光出力システム100のメモリ120は、ユーザデータベース126を記憶してもよい。より詳細には、図22を参照して、ユーザデータベース126は、ユーザ毎に、ユーザID、光の強度、光の色(輝度)、光の点滅のテンポ、の関係を格納する。なお、ユーザデータベース126は、ユーザ毎の音量なども記憶してもよい。
 これによって、色覚障害者に対しても適切な光を出力することができるようになる。あるいは、高齢のユーザに対して光を弱めて、当該ユーザの目の疲れを低減することができるようになる。あるいは、聴覚障害者に対して、字幕の有無を光で通知してもよい。
 以下では、図23を参照して、本実施の形態にかかる光出力システム100における情報処理について説明する。光出力システム100のCPU110は、第2の音声を出力する際に、以下の処理を実行する。
 まず、CPU110は、図4の(A)に示すように、第2の音声を解析する(ステップS102)。そして、CPU110は、当該カメラ195からの画像に基づいて、光出力システム100の周囲のユーザを特定する(ステップS103E)。なお、CPU110は、マイク180からの音声に基づいて周囲のユーザを特定してもよいし、通信インターフェイス160を介してWiFiやbluetoothを介してユーザのスマートフォンを検知することによって周囲のユーザを特定してもよい。
 CPU110は、解析された音声に対応する光の出力方法を特定する(ステップS104)。本実施の形態においては、CPU110は、ユーザデータベース126を参照して、ユーザに応じた、音声の出力方法と光の出力方法とを特定する。
 CPU110は、決定された音声の出力方法に基づいてスピーカ170に音声を出力させるとともに、図4の(B)に示すように、決定された光の出力方法に基づいて、LEDライト135を発光させる(ステップS106)。
 これによって、それぞれのユーザの好みにカスタマイズすることができるし、障害者にも有効に情報を伝達することが可能になる。また、自分への接し方が他のユーザと異なるため、ユーザそれぞれが光出力システム100に愛着を抱きやすくなる。
 <第10の実施の形態>
 あるいは、図24に示すように、光出力システム100のCPU110は、テキストなどの緊急速報の情報を受け付けた際に、当該テキストを音声に変換し、当該音声を第2の音声として取り扱ってもよい。
 以下では、図25を参照して、本実施の形態にかかる光出力システム100における情報処理について説明する。光出力システム100のCPU110は、緊急速報情報を受信した際に、以下の処理を実行する。
 まず、CPU110は、受信したデータからテキストの緊急速報情報を取得する(ステップS202)。CPU110は、当該テキストを音声に変換する(ステップS204)。CPU110は、変換後の音声に対応する光の出力方法を特定する(ステップS206)。
 CPU110は、決定された音声の出力方法に基づいてスピーカ170に音声を出力させるとともに、図4の(B)に示すように、決定された光の出力方法に基づいて、LEDライト135を発光させる(ステップS106)。
 視力が悪い人や目が不自由な人などが緊急情報を把握しやすくなる。また、LEDライト135と同期表示されるので、放送中の番組の情報と異なる緊急情報があることを把握しやすくなる。
 <第11の実施の形態>
 あるいは、図26に示すように、光出力システム100のCPU110は、ディスプレイ130に2つの画面を表示しつつ、いずれかの画面の映像に対応する音声に合わせてLEDライト135を発光させてもよい。なお、図27に示すように、2つの画面の各々の下方のディスプレイ130の外側に複数のLEDライト135,135を配置してもよい。あるいは、図28に示すように、2つの画面の各々の下方のディスプレイ130内の一部を発光させる形態であってもよい。
 どちらの画面の音声が出力されているか認識しやすくなる。なお、一方の音声を再生して、他方の音声の出力せずに出力した場合の音声に同期させてLEDライト135を点灯・点滅させてもよい。あるいは、他のアプリケーションのコンテンツの音声を出力しつつ当該音声に合わせてLEDライト135を点灯・点滅させてもよいし、他のアプリケーションのコンテンツの音声を出力せずに出力したが場合の音声に同期させてLEDライト135を点灯・点滅させてもよい。
 <第12の実施の形態>
 あるいは、図29に示すように、光出力システム100のCPU110は、次の番組の情報を受信して、スピーカ170に次の番組名を出力させてもよい。そして、本実施の形態においては、繰り返しデータベース121の代わりに、または繰り返しデータベース121に加えて、光出力システム100のメモリ120は、テーマデータベース127を記憶してもよい。より詳細には、図30を参照して、テーマデータベース127は、テーマやジャンル、光の強度、光の色(輝度)、光の点滅のテンポ、の関係を格納する。
 以下では、図31を参照して、本実施の形態にかかる光出力システム100における情報処理について説明する。光出力システム100のCPU110は、第2の音声を出力する際に、以下の処理を実行する。
 まず、CPU110は、図4の(A)に示すように、外部から取得したデータから第2の音声としての次の番組に関する情報を取得する。CPU110は、第2の音声を解析する(ステップS102)。特に、CPU110は、当該データから次の番組のテーマやジャンルを特定する(ステップS103F)。なお、サーバからの当該データにテーマやジャンルが含まれていてもよいし、CPU110が受信した当該データからテーマやジャンルを判断してもよい。
 CPU110は、解析された音声に対応する光の出力方法を特定する(ステップS104)。本実施の形態においては、CPU110は、テーマデータベース127を参照して、次の番組のジャンルに応じた、音声の出力方法と光の出力方法とを特定する。
 CPU110は、決定された音声の出力方法に基づいてスピーカ170に音声を出力させるとともに、図4の(B)に示すように、決定された光の出力方法に基づいて、LEDライト135を発光させる(ステップS106)。
 ユーザが次の番組のテーマやジャンルを把握することができる。
 <第13の実施の形態>
 あるいは、図32に示すように、光出力システム100のCPU110は、カメラ195からの画像データに基づいて、光出力システム100の周囲のユーザが光出力システム100の方へ向いていることを検知した際に、音声や光を出力してもよい。
 より詳細には、図33に示すように、CPU110は、出力すべきデータを取得すると、出力すべき音声が蓄積されていることを示すために、LEDライト135に光を出力させる(ステップS302)。CPU110は、カメラ195を介して光出力システム100の周囲のユーザを探索する(ステップS304)。
 CPU110は、カメラ195からの画像に基づいて、光出力システム100の周囲にユーザがいることを検知すると(ステップS304にてYESである場合)、取得したデータから音声データを作成する(ステップS306)。
 CPU110は、音声データを解析して、解析された音声に対応する光の出力方法を特定する(ステップS308)。CPU110は、決定された音声の出力方法に基づいてスピーカ170に音声を出力させるとともに、図4の(B)に示すように、決定された光の出力方法に基づいて、LEDライト135を発光させる(ステップS310)。
 これによって、ユーザの都合がよいときに、光出力システム100が音声を出力してくれる。ユーザは、光出力システム100の生命感を感じる、すなわち、あたかも光出力システム100がユーザのことを思ってくれているように感じる。
 <第14の実施の形態>
 あるいは、図34に示すように、光出力システム100が、インターフォン3001などの他の電気機器と接続されてもよい。そして、インターフォン3001から入力される音声データを光出力システム100が出力する際に、光出力システム100が当該音声に合わせて光を出力するものであってもよい。
 あるいは、図35に示すように、光出力システム100が、電話3002や洗濯機3003などの他の電気機器と接続されてもよい。そして、電話3002や洗濯機3003から入力される音声データを光出力システム100が出力する際に、光出力システム100が当該音声に合わせて光を出力するものであってもよい。
 なお、電気機器は、インターフォン3001や電話3002や洗濯機3003に限らず、電子レンジ、エアコン、冷蔵庫、掃除機、空気清浄器、加湿器、除湿器、炊飯器、照明、などの家電、テレビ、ハードディスクレコーダ、プロジェクタ、音楽プレーヤーなどのAV(オーディオ・ビジュアル)機器、組み込み照明、太陽光発電機、給湯器、温水洗浄便座コントローラなどの住宅設備、などであってもよい。
 これによって、ユーザが、電気機器からの通知を、ドラマなどのテレビ番組内の音声を勘違いする可能性を低減することができる。また、電気機器からの通知であることを知らせるためのダイアログボックスによって、ドラマなどのテレビ番組の映像が隠れることを回避することができるようになる。
 <第15の実施の形態>
 また、光出力システム100は、他のタイプのディスプレイであってもよい。たとえば、図36に示すようなゴーグル型のディスプレイ100Eであってもよい。光出力システム100は、ディスプレイ130に映像を表示しながら、スピーカ170としてのヘッドホンから音声を出力する。特に本実施の形態においては、光出力システム100のCPU110は、マイク180から光出力システム100の外部の音声を取得して、ヘッドホンのスピーカ170から当該音声を出力しつつ、当該音声に合わせてディスプレイ130またはLEDライト135を点灯または点滅させる。
 なお、当然ながら、光出力システム100のCPU110は、通信インターフェイス160を介して、サーバなどから外部の音声を取得して、ヘッドホンのスピーカ170から当該音声を出力しつつ、当該音声に合わせてディスプレイ130またはLEDライト135を点灯または点滅させてもよい。
 これによって、視聴中のコンテンツとは異なる音声が出力されていることを認識することができる。
 <第16の実施の形態>
 光出力システム100は、他の装置と通信するものであってもよい。たとえば、図37に示すように、本実施の形態においては、光出力システム100は、テレビ100Xであって、他のテレビ100Yと通信可能に構成されている。光出力システム100としてのテレビ100X,100Yの各々は、テレビ番組の映像を出力しながら、当該テレビ番組の音声を第1の音声として出力する。
 そして、本実施の形態においては、テレビ100X,100Yのうちの一方のCPU110は、マイク180を介してユーザの話声を取得して、通信インターフェイス160を介して当該ユーザの話声を他方のテレビに送信する。そして、CPU110は、通信インターフェイス160を介して、他のテレビからユーザの話声を受信して、第2の音声として当該話声をスピーカ170から出力しつつ、当該話声に合わせてLEDライト135を点灯・点滅させる。なお、光出力システム100は、2つのテレビの間で2人のユーザの話声をやり取りしてもよいし、さらに多くのテレビの間でさらに多くのユーザの話声をやり取りしてもよい。
 また、テレビジョン放送を出力する形態に限らず、図38に示すように、CPU110は、ゲーム中にユーザ同士の話声を第2の音声としてスピーカ170から出力しながら、当該話声に合わせてLEDライト135を点灯・点滅させてもよい。
 これによって、番組やゲームの音と、相手の声とを区別しやすくなる。また、相手を身近に感じることができる場合がある。また、相手からの音声であることを知らせるためのダイアログボックスでドラマなどのテレビ番組やゲームの映像が隠れることを回避することができるようになる。
 <第17の実施の形態>
 あるいは、図39に示すように、光出力システム100は、自身の音声信号出力インターフェイスに外部アンプ300Xが接続された場合に、外部アンプ300Xが出力する音声を第2の音声としての取り扱ってもよい。すなわち、光出力システム100のCPU110は、外部アンプ300Xが接続されているか否かを判断し、外部アンプ300Xが出力する音声に合わせて、LEDライト135を点灯・点滅させてもよい。これによって、どこから音声が出ているかを視覚的に認識することができる。
 <第18の実施の形態>
 あるいは、図40に示すように、光出力システム100は、bluetoothやWiFiを介してスマートフォンなどの端末300Yからの音声データを第2の音声としてスピーカ170から出力してもよい。すなわち、CPU110は、端末300Yからの音声をスピーカ170から出力しつつ、当該音声に合わせてディスプレイ130またはLEDライト135を点灯または点滅させる。また、上述した通り、光出力システム100のCPU110は、通信インターフェイス160を介してサーバなどから音声データを受信して、当該音声をスピーカ170から出力しつつ、当該音声に合わせてディスプレイ130またはLEDライト135を点灯または点滅させてもよい。番組の音声とスマートフォン300のアプリケーションの音声とを明確に区別しやすくなる。
 <第19の実施の形態>
 あるいは、図41に示すように、光出力システム100は、タイマ機能を有してもよい。そして、光出力システム100のCPU110は、ディスプレイ130にテレビ番組の映像を出力させながら、当該テレビ番組の音声を第1の音声としてスピーカ170に出力させる。
 そして、本実施の形態においては、光出力システム100のCPU110は、タイマ198に関する音声を第2の音声としてスピーカ170から出力しつつ、当該第2の音声に合わせてLEDライト135を点灯・点滅させる。
 より詳細には、本実施の形態においては、繰り返しデータベース121の代わりに、または繰り返しデータベース121に加えて、光出力システム100のメモリ120は、タイマデータベース128を記憶してもよい。
 より詳細には、図42を参照して、タイマデータベース128は、タイマ198の残り時間、光の強度、光の色(輝度)、光の点滅のテンポ、の関係を格納する。
 以下では、図43を参照して、本実施の形態にかかる光出力システム100における情報処理について説明する。光出力システム100のCPU110は、第2の音声を出力する際に、以下の処理を実行する。
 まず、CPU110は、図4の(A)に示すように、第2の音声を解析する(ステップS102)。そして、CPU110は、タイマ198の残時間を取得する(ステップS103G)。
 CPU110は、解析された音声に対応する光の出力方法を特定する(ステップS104)。本実施の形態においては、CPU110は、タイマデータベース128を参照して、音声の出力方法と光の出力方法とを特定する。
 CPU110は、決定された音声の出力方法に基づいてスピーカ170に音声を出力させるとともに、図4の(B)に示すように、決定された光の出力方法に基づいて、LEDライト135を発光させる(ステップS106)。
 これによって、ユーザがタイマの通知に気付きやすくなる。
 <第20の実施の形態>
 あるいは、図44に示すように、光出力システム100のCPU110は、チャンネルの自動選局が完了した際に、自動選局が完了した旨や出力するテレビ番組名などをスピーカ170から出力するとともに、当該メッセージに合わせてLEDライト135を点灯・点滅させる。
 あるいは、光出力システム100のCPU110は、チャンネルの自動選局中に、自動選局中である旨などをスピーカ170から出力するとともに、当該メッセージに合わせてLEDライト135を点灯・点滅させる。
 あるいは、光出力システム100のCPU110は、チャンネルの自動選局を開始する際に、自動選局を開始する旨などをスピーカ170から出力するとともに、当該メッセージに合わせてLEDライト135を点灯・点滅させる。
 これによって、ユーザは、自動選局が実行されたこと、または自動選局が完了したことを認識しやすくなる。
 <第21の実施の形態>
 あるいは、光出力システム100のCPU110は、副音声を出力する際に、当該副音声を第2の音声として取り扱ってもよい。すなわち、CPU110は、副音声に合わせて、LEDライト135を発光させてもよい。ユーザが、副音声の出力を認識しやすくなる。
 あるいは、光出力システム100のCPU110は、翻訳を出力する際に、当該翻訳を第2の音声として取り扱ってもよい。そして、CPU110は、当該翻訳音声に合わせて、LEDライト135を発光させてもよい。ユーザが、翻訳音声の出力を認識しやすくなる。特に、光出力システム100の翻訳機能によって翻訳している際には、ユーザが、光出力システム100による翻訳の音声が出力されていることを認識できるため、放送局による翻訳と勘違いされる可能性を低減できる。
 あるいは、光出力システム100のCPU110は、Twitter(登録商標)を自動的に読み上げて、当該読み上げ音声を第2の音声として取り扱ってもよい。そして、CPU110は、読み上げ音声に合わせて、LEDライト135を発光させてもよい。ユーザが、Twitter(登録商標)のテキストが音声出力されていることを認識しやすくなる。
 <第22の実施の形態>
 第1~第21の実施の形態の技術は、以下のような光出力システム100にも利用することができる。本実施の形態においては、光出力システム100はテレビであって、動作毎に異なる方法で光を出力する。
 たとえば、光出力システム100のメモリ120は、図45に示すような動作パターンデータベース1201を記憶する。動作パターンデータベース1201は、動作毎に、起動契機と、画面連動の有無と、光の色と、光の出力方法との対応関係を含む。光出力システム100のCPU110は、動作パターンデータベース1201を参照することによって、自身の動作や周囲の状況に応じてLEDライト135を点灯・点滅させる。
 (1)光出力システム100は、光出力システム100が起動された際に、「目覚める」動作を実行する。具体的には、CPU110は、光出力システム100が起動された際に、ディスプレイ130に、ゆっくりと小さな光を生じさせて、当該光から画面を開始させる。あるいは、CPU110は、LEDライト135の強度をゆっくりと高めていきながら、ディスプレイ130に映像を表示させる。
 (2)光出力システム100は、光出力システム100の電源がOFFされた際に、「眠る」動作を実行する。具体的には、CPU110は、光出力システム100の電源がOFFされた際に、ディスプレイ130に、画面を消しつつ、光を少しずつ小さく弱くしていく。あるいは、CPU110は、LEDライト135の強度をゆっくりと弱めていきながら、ディスプレイ130の映像を消す。
 (3)光出力システム100は、リモコンや本体操作部から命令を受け付けた際に、「反応する」動作を実行する。具体的には、CPU110は、リモコンや本体操作部から命令を受け付けた際に、ディスプレイ130の一部にパッと光を表示させたり、LEDライト135をパッと光らせたりする。
 (4)光出力システム100は、音量を変更するための命令を受け付けた際に、「反応する(連動)」動作を実行する。具体的には、CPU110は、リモコンや本体操作部から音量を変更するための命令を受け付けた際に、ディスプレイ130の一部に音量を示すための画像を表示する。より詳細には、CPU110は、ディスプレイ130の下部の左右中央部に、図46と図47に示すような、半円状の、インジケータを表示させる。換言すれば、音量を示す複数のバーが、半円状または扇状に配列される。そして、CPU110は、音量が大きくなればなるほど、左側から右側に向かって、多くのバーをディスプレイ130に表示する。
 図46は、音量を変化させるための命令を1回だけ入力した場合の、ディスプレイ130の画面推移を示すイメージ図である。図47は、音量を上げるための命令を連続して入力した場合の、ディスプレイ130の画面推移を示すイメージ図である。図46と図47に示すように、CPU110は、ディスプレイ130に、自動車などのスピードメータのように、変更後の音量に合わせて、放射状に配列される複数のバーの数を変更する。
 より詳細には、ユーザが音量を上げる命令を1回押すと、CPU110は変更後の音量のインジケータを所定時間表示してから当該インジケータを消す。インジケータが消える前に、ユーザが音量を上げる命令をさらに押すと、CPU110は音量のインジケータの画像を消さずにそのまま表示を変更する。ユーザが音量を上げる命令を長押しすると、CPU110は音量のインジケータの画像を消さずに連続して変更する。
 ここで、ユーザが音量を変更するためのボタンを押すたびにLEDライト135またはディスプレイ130の一部または全部が光ることが好ましい。あるいは、ユーザが音量を変更するためのボタンを押している間、LEDライト135またはディスプレイ130の一部または全部が光っていることが好ましい。
 なお、音量を下げる場合の動作は、音量を上げる場合の動作と同様であるためここでは説明を繰り返さない。
 (5)光出力システム100は、チャンネルを変更するための命令を受け付けた際に、「反応する(連動)」動作を実行する。具体的には、CPU110は、リモコンや本体操作部からチャンネルを変更するための命令を受け付けた際に、ディスプレイ130の一部にチャンネルを示す画像またはテキストを表示する。より詳細には、図48と図49と図50とに示すように、CPU110は、ディスプレイ130の下部の左右中央部に変更後のチャンネルを表示させる。
 図48は、チャンネル指定命令を入力した場合の、ディスプレイ130の画面推移を示すイメージ図である。CPU110は、ディスプレイ130に、下部に変更後のチャンネルを表示させ、上部に変更後のチャンネルや番組情報を表示させ、画面全体を黒に切り替えてから、変更後のチャンネルの映像を表示させる。
 図49は、チャンネルをアップさせるための命令を入力した場合の、ディスプレイ130の画面推移を示すイメージ図である。CPU110は、ディスプレイ130に、下部にチャンネルアップすることを示す画像を表示させ、上部左側に変更後のチャンネルや番組情報を表示させ、所定時間後に、画面全体を黒に切り替えてから、変更後のチャンネルの映像を表示させる。
 図50は、チャンネルアップキーを長押しした場合の、ディスプレイ130の画面推移を示したイメージ図である。CPU110は、ディスプレイ130に、下部に変更後のチャンネルアップ中であることを示す画像を表示させ、上部左側に変更後のチャンネルや番組情報を表示させる。CPU110は、チャンネルアップキーが押されている間、下部に変更後のチャンネルアップ中であることを示す画像を表示させながら、上部のチャンネルや番組情報を切り替えていく。チャンネルアップキーが押されなくなると、CPU110は、画面全体を黒に切り替えてから、変更後のチャンネルの映像をディスプレイ130に表示させる。
 ここで、ユーザがチャンネルを変更するためのボタンを押すたびにLEDライト135またはディスプレイ130の一部または全部が光ることが好ましい。あるいは、ユーザがチャンネルを変更するためのボタンを押している間、LEDライト135またはディスプレイ130の一部または全部が光っていることが好ましい。
 (6)光出力システム100は、ユーザから話しかけられた際に、「聞く」動作を実行する。具体的には、CPU110は、マイク180を介してユーザからの音声を検知した際に、ディスプレイ130の一部またはLEDライト135を、相槌を打っているような一定のリズムで点滅させる。
 (7)光出力システム100は、ユーザへの「提案する」動作を実行する。具体的には、CPU110は、スピーカ170からユーザへの提案情報を出力しつつ、ディスプレイ130の一部またはLEDライト135に、初めに様々な淡い色の光を交じり合うように出力させ、その後に光を弱くして、その後に標準色の光を強めていく。たとえば、光をふわふわと柔らかく点滅させたり、往復させたりすることが好ましい。
 (8)光出力システム100は、ユーザへの「話す」動作を実行する。具体的には、CPU110は、スピーカ170からユーザへの会話を出力しつつ、ディスプレイ130の一部またはLEDライト135に、当該会話に合わせたリズムで点滅させる。たとえば、光をふわふわと柔らかく点滅させたり、往復させたりすることが好ましい。
 (9)光出力システム100は、初期設定の際に「出会う」動作を実行する。具体的には、CPU110は、初期設定を完了した際に、ディスプレイ130に数秒間映像を表示させる。たとえば、図51に示すように、初期設定が完了すると、泡が広がっていくような映像を表示させる。あるいは、WiFiやbluetoothの接続完了時に、CPU110が、ディスプレイ130の一部またはLEDライト135に光を出力させてもよい。
 あるいは、ソフトウェアのバージョンアップが完了した際に、CPU110が、ディスプレイ130の一部またはLEDライト135に光を出力させてもよい。あるいは、ソフトウェアのバージョンアップ中に、ユーザによって光出力システム100の電源がOFFされないように、CPU110が、ディスプレイ130の一部またはLEDライト135に光を出力させてもよい。
 (10)光出力システム100は、予約動作を実行する際や、予約動作の所定時間前に、「お知らせ」動作を実行する。具体的には、CPU110は、ディスプレイ130の一部またはLEDライト135に、「反応(小)」と同様の出力をさせたり、その他の点灯・点滅動作をさせたりする。これによって、お知らせ時に、映像の邪魔をしなくてよい。ただし、図52に示すように、CPU110は、ディスプレイ130にお知らせの情報のテキストを表示させたり、スピーカ170にお知らせの情報を音声出力させたりしてもよい。
 <第23の実施の形態>
 その他にも、図53に示すように、光出力システム100のCPU110は、外部のアンプ300Xが接続されているにも関わらずアンプ300Xから音が出ていないことを検知して、スピーカ170に第2の音声としてのエラー情報を出力させたり、ディスプレイ130の一部やLEDライト135に当該音声に合わせて光を出力させたりすることが好ましい。これによって、意図しない出力状態にユーザが気付きやすくなる。
 <第24の実施の形態>
 あるいは、図54に示すように、タイマ198などを利用して、光出力システム100が自動的に電源OFFされる際やタイマによるスリープ状態に移行する際などに、音声や光を出力してもよい。より詳細には、CPU110は、周囲が暗くなったことや、ユーザがいなくなったことなどを検知して、スピーカ170に第2の音声としての「電源をOFFします。」という音声を出力させつつ、ディスプレイ130の一部やLEDライト135に当該音声に合わせて光を出力させることが好ましい。これによって、ユーザは、電源のOFFやタイマによるスリープ状態への移行に気が付きやすくなる。
 <第25の実施の形態>
 あるいは、図55に示すように、光出力システム100のCPU110は、アンテナ150や通信インターフェイス160を介して、緊急警報放送を受信したときに、その旨を第2の音声としてスピーカ170から出力させつつ、ディスプレイ130の一部やLEDライト135に当該音声に合わせて光を出力させることが好ましい。これによって、ユーザは、新たな緊急情報を受信したことを認識しやすくなる。
 <第26の実施の形態>
 あるいは、図56に示すように、光出力システム100のCPU110は、録画した番組を出力しているときに、ディスプレイ130の一部やLEDライト135に当該番組の音声に合わせて光を出力させてもよい。あるいは、逆に、光出力システム100のCPU110は、録画ではない番組を出力しているときに、ディスプレイ130の一部やLEDライト135に当該番組の音声に合わせて光を出力させてもよい。これによって、ユーザが、録画が出力されている際に、LIVE情報と勘違いする可能性を低減することができる。
 <第27の実施の形態>
 あるいは、光出力システム100のCPU110は、通信量に応じて、光を出力してもよい。本実施の形態においては、繰り返しデータベース121の代わりに、または繰り返しデータベース121に加えて、光出力システム100のメモリ120は、送受信量データベース1202を記憶してもよい。より詳細には、図57を参照して、送受信量データベース1202は、データの送受信量、光の強度、光の色(輝度)、光の点滅のテンポ、の関係を格納する。
 図58を参照して、本実施の形態にかかる光出力システム100は以下のような情報処理を実行する。まず、CPU110は、データの送受信量を取得する(ステップS302)。CPU110は、送受信量データベース1202を参照して、送受信量に対応する光の出力方法を特定する(ステップS304)。CPU110は、特定された光の出力方法に基づいて、ディスプレイ130の一部やLEDライト135を発光させる(ステップS306)。
 <第28の実施の形態>
 あるいは、光出力システム100のCPU110は、電波強度に応じて、光を出力してもよい。すなわち、繰り返しデータベース121の代わりに、または繰り返しデータベース121に加えて、光出力システム100のメモリ120は、電波強度データベース1203を記憶してもよい。より詳細には、図59を参照して、電波強度データベース1203は、無線通信のための電波の強度、光の強度、光の色(輝度)、光の点滅のテンポ、の関係を格納する。
 図60を参照して、本実施の形態にかかる光出力システム100は以下のような情報処理を実行する。まず、CPU110は、通信インターフェイス160を介して、電波の強度を測定する(ステップS302)。CPU110は、電波強度データベース1203を参照して、電波強度に対応する光の出力方法を特定する(ステップS304)。CPU110は、特定された光の出力方法に基づいて、ディスプレイ130の一部やLEDライト135を発光させる(ステップS306)。
 <第29の実施の形態>
 あるいは、光出力システム100のCPU110は、エラーの種類に応じて、光を出力してもよい。すなわち、繰り返しデータベース121の代わりに、または繰り返しデータベース121に加えて、光出力システム100のメモリ120は、エラーデータベース1204を記憶してもよい。より詳細には、図61を参照して、エラーデータベース1204は、エラーの種類、光の強度、光の色(輝度)、光の点滅のテンポ、の関係を格納する。たとえば、光出力システム100は、異常のレベルが低い場合は、弱く青い光を出力し、異常のレベルが高い場合は、強く赤い光を出力する。
 なお、エラーの種類は、リモコン番号が間違っていることや、チャイルドロックがかかっていることなどがあげられる。あるいは、各種の設定に関して、所定値以上または所定値以下の異常値が設定されている場合などがあげられる。
 図62を参照して、本実施の形態にかかる光出力システム100は以下のような情報処理を実行する。まず、CPU110は、通信インターフェイス160を介して、エラーの種類を特定する(ステップS302)。CPU110は、エラーデータベース1204を参照して、エラーの種類に対応する光の出力方法を特定する(ステップS304)。CPU110は、特定された光の出力方法に基づいて、ディスプレイ130の一部やLEDライト135を発光させる(ステップS306)。
 <第30の実施の形態>
 あるいは、光出力システム100のCPU110は、緊急放送のレベルに応じて、光を出力してもよい。すなわち、繰り返しデータベース121の代わりに、または繰り返しデータベース121に加えて、光出力システム100のメモリ120は、異常レベルデータベース1205を記憶してもよい。より詳細には、図63を参照して、異常レベルデータベース1205は、事態の異常のレベル、光の強度、光の色(輝度)、光の点滅のテンポ、の関係を格納する。
 図64を参照して、本実施の形態にかかる光出力システム100は以下のような情報処理を実行する。まず、CPU110は、取得した緊急情報と光出力システム100の住所や郵便番号などに基づいて、緊急事態の異常のレベルを特定する(ステップS302)。たとえば、光出力システム100の位置の震度や津波のレベルに基づいて緊急のレベルを特定する。なお、津波の情報であっても、光出力システム100の位置が海から離れている場合は、逆に緊急度が低い旨を出力してもよい。CPU110は、異常レベルデータベース1205を参照して、緊急事態の異常のレベルに対応する光の出力方法を特定する(ステップS304)。CPU110は、特定された光の出力方法に基づいて、ディスプレイ130の一部やLEDライト135を発光させる(ステップS306)。
 <第31の実施の形態>
 あるいは、光出力システム100のCPU110は、光出力システム100が出力中の音量の大きさに応じて、光を出力してもよい。すなわち、繰り返しデータベース121の代わりに、または繰り返しデータベース121に加えて、光出力システム100のメモリ120は、音量データベース1206を記憶してもよい。より詳細には、図65を参照して、音量データベース1206は、音量のレベル、光の強度、光の色(輝度)、光の点滅のテンポ、の関係を格納する。
 図66を参照して、本実施の形態にかかる光出力システム100は以下のような情報処理を実行する。まず、CPU110は、光出力システム100が出力中の音量の大きさを特定する(ステップS302)。CPU110は、音量データベース1206を参照して、音量に対応する光の出力方法を特定する(ステップS304)。CPU110は、特定された光の出力方法に基づいて、ディスプレイ130の一部やLEDライト135を発光させる(ステップS306)。
 <第32の実施の形態>
 あるいは、光出力システム100のCPU110は、光出力システム100が周囲の明るさまたはディスプレイ130の明るさに応じて、光を出力してもよい。すなわち、繰り返しデータベース121の代わりに、または繰り返しデータベース121に加えて、光出力システム100のメモリ120は、明るさデータベース1207を記憶してもよい。より詳細には、図67を参照して、明るさデータベース1207は、明るさのレベル、光の強度、光の色(輝度)、光の点滅のテンポ、の関係を格納する。
 図68を参照して、本実施の形態にかかる光出力システム100は以下のような情報処理を実行する。まず、CPU110は、光出力システム100の周囲の明るさまたはディスプレイ130の明るさを特定する(ステップS302)。CPU110は、明るさデータベース1207を参照して、現在の明るさに対応する光の出力方法を特定する(ステップS304)。CPU110は、特定された光の出力方法に基づいて、ディスプレイ130の一部やLEDライト135を発光させる(ステップS306)。
 なお、明るさデータベース1207は、明るさに対応する音声の音程や音質を記憶してもよい。そして、CPU110は、明るさデータベース1207に基づいて、周囲が明るい場合は高い音程の楽しい音声を大きめの音量でスピーカ170から出力し、周囲が暗い場合は低い音程の落ち着いた音声を小さめの音量でスピーカ170から出力することが好ましい。
 これによって、LED輝度が周囲の状況に応じて変化するため、ユーザが不快感を受けにくい。また、明るさに応じて、音量や音質が変化するので、ユーザに心地よさを与えることができる。
 <第33の実施の形態>
 あるいは、光出力システム100のCPU110は、光出力システム100のディスプレイ130の自動調光が有効になっている場合に、バックライトの強さに応じて、ディスプレイ130の一部やLEDライト135を発光させてもよい。これによって、ユーザは、自動調光機能が働いていることを認識しやすくなる。
 <その他の応用例>
 本発明の一態様は、システム或いは装置にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明の一態様を達成するためのソフトウェアによって表されるプログラムを格納した記憶媒体(あるいはメモリ)を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の一態様の効果を享受することが可能となる。
 この場合、記憶媒体から読出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明の一態様を構成することになる。
 また、コンピュータが読出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
 さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わる他の記憶媒体に書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
 <まとめ>
 上記の実施の形態においては、スピーカ170と、光出力部135,130と、スピーカ170から第1の音声と第2の音声とを出力させるとともに、第2の音声出力に対応して光出力部135,130に光を出力させるためのプロセッサ110とを備える、光出力システム100が提供される。
 好ましくは、光出力システム100は、ディスプレイ130をさらに備える。プロセッサ110は、ディスプレイ130に第1の音声または第2の音声の少なくともいずれかに対応する映像を表示させる。
 好ましくは、プロセッサ110は、ディスプレイ130の光出力部135の近傍に、光出力部135から出力される光に合わせて光を出力させる。
 好ましくは、プロセッサ110は、ディスプレイ130に第1の音声に対応する映像と第2の音声に対応する映像とを並べて表示させる。
 好ましくは、光出力部135はディスプレイ130の一部または全部である。
 好ましくは、第2の音声は、副音声または翻訳音声である。
 好ましくは、第2の音声は、次の番組に関する情報を含む。
 好ましくは、光出力システム100Xは、他の電気機器100Yまたはサーバと通信するための通信インターフェイス160をさらに備える。第2の音声は、他の電気機器100Yまたはサーバからの情報を含む。
 好ましくは、光出力システム100は、他の電気機器100Yまたはサーバと通信するための通信インターフェイス160をさらに備える。プロセッサ110は、他の電気機器100Yまたはサーバからの情報に基づいて、光出力部135から出力される光の色を設定する。
 好ましくは、光出力システム100は、マイク180をさらに備える。プロセッサ110は、マイク180から入力された音に基づいてスピーカ170に第2の音声を出力する。
 好ましくは、プロセッサ110は、取得したテキストに基づいてスピーカ170に第2の音声を出力させる。
 上記の実施の形態においては、スピーカ170と、光出力部135,130と、スピーカ170から第1の音声と第2の音声とを出力させるとともに、第2の音声の出力に対応して光出力部135,130に光を出力させるためのプロセッサ110とを備える、テレビ100が提供される。
 上記の実施の形態においては、スピーカ170と光出力部135,130とを含む光出力システム100の制御方法が提供される。制御方法は、スピーカ170から第1の音声と第2の音声とを出力させるステップと、第2の音声の出力に対応して光出力部135,130に光を出力させるステップと、を備える。
 上記の実施の形態においては、スピーカ170と光出力部135,130とプロセッサ110とを含む光出力システム100のためのプログラムが提供される。プログラムは、スピーカ170から第1の音声と第2の音声とを出力させるステップと、第2の音声の出力に対応して光出力部135,130に光を出力させるステップと、をプロセッサ110に実行させる。
 上記の実施の形態においては、スピーカ170と光出力部135,130とプロセッサ110とを含む光出力システム100のためのプログラムを記録するコンピュータ読取可能な記録媒体が提供される。プログラムは、スピーカ170から第1の音声と第2の音声とを出力させるステップと、第2の音声の出力に対応して光出力部135,130に光を出力させるステップと、をプロセッサ110に実行させる。
 今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
100   :光出力システム
110   :プロセッサ(CPU)
120   :メモリ
121   :繰り返しデータベース
122   :通知データベース
123   :感情データベース
124   :時間帯データベース
125   :緊急度データベース
126   :ユーザデータベース
127   :テーマデータベース
128   :タイマデータベース
130   :光出力部(LEDライト、ディスプレイ)
140   :操作部
150   :アンテナ
160   :通信インターフェイス
170   :スピーカ
180   :マイク
190   :GPS
195   :カメラ
196   :明るさセンサ
300X  :外部アンプ
300Y  :端末
1201  :動作パターンデータベース
1202  :送受信量データベース
1203  :電波強度データベース
1204  :エラーデータベース
1205  :異常レベルデータベース
1206  :音量データベース
1207  :明るさデータベース
3001  :インターフォン
3002  :電話
3003  :洗濯機

Claims (15)

  1.  スピーカと、
     光出力部と、
     前記スピーカから第1の音声と第2の音声とを出力させるとともに、前記第2の音声の出力に対応して前記光出力部に光を出力させるためのプロセッサとを備える、光出力システム。
  2.  ディスプレイをさらに備え、
     前記プロセッサは、前記ディスプレイに前記第1の音声または前記第2の音声の少なくともいずれかに対応する映像を表示させる、請求項1に記載の光出力システム。
  3.  前記プロセッサは、前記ディスプレイの前記光出力部の近傍に、前記光出力部から出力される光に合わせて光を出力させる、請求項2に記載の光出力システム。
  4.  前記プロセッサは、前記ディスプレイに前記第1の音声に対応する映像と前記第2の音声に対応する映像とを並べて表示させる、請求項2または3に記載の光出力システム。
  5.  前記光出力部はディスプレイの一部または全部である、請求項1から4のいずれか1項に記載の光出力システム。
  6.  前記第2の音声は、副音声または翻訳音声である、請求項1から5のいずれか1項に記載の光出力システム。
  7.  前記第2の音声は、次の番組に関する情報を含む、請求項1から6のいずれか1項に記載の光出力システム。
  8.  他の電気機器またはサーバと通信するための通信インターフェイスをさらに備え、
     前記第2の音声は、前記他の電気機器または前記サーバからの情報を含む、請求項1から7のいずれか1項に記載の光出力システム。
  9.  他の電気機器またはサーバと通信するための通信インターフェイスをさらに備え、
     前記プロセッサは、前記他の電気機器または前記サーバからの情報に基づいて、前記光出力部から出力される光の色を設定する、請求項1から8のいずれか1項に記載の光出力システム。
  10.  マイクをさらに備え、
     前記プロセッサは、前記マイクから入力された音に基づいて前記第2の音声を前記スピーカに出力させる、請求項1から9のいずれか1項に記載の光出力システム。
  11.  前記プロセッサは、取得したテキストに基づいて前記第2の音声を前記スピーカに出力させる、請求項1から10のいずれか1項に記載の光出力システム。
  12.  スピーカと、
     光出力部と、
     前記スピーカから第1の音声と第2の音声とを出力させるとともに、前記第2の音声の出力に対応して前記光出力部に光を出力させるためのプロセッサとを備える、テレビ。
  13.  スピーカと光出力部とを含む光出力システムの制御方法であって、
     前記スピーカから第1の音声と第2の音声とを出力させるステップと、
     前記第2の音声の出力に対応して前記光出力部に光を出力させるステップと、を備える光出力システムの制御方法。
  14.  スピーカと光出力部とプロセッサとを含む光出力システムのためのプログラムであって、
     前記スピーカから第1の音声と第2の音声とを出力させるステップと、
     前記第2の音声の出力に対応して前記光出力部に光を出力させるステップと、を前記プロセッサに実行させるためのプログラム。
  15.  スピーカと光出力部とプロセッサとを含む光出力システムのためのプログラムを記録するコンピュータ読取可能な記録媒体であって、
     前記スピーカから第1の音声と第2の音声とを出力させるステップと、
     前記第2の音声の出力に対応して前記光出力部に光を出力させるステップと、を前記プロセッサに実行させるためのプログラムを記録するコンピュータ読取可能な記録媒体。
     
     
PCT/JP2017/009437 2016-10-31 2017-03-09 光出力システム WO2018078904A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201780052898.9A CN109863744B (zh) 2016-10-31 2017-03-09 光输出系统
US16/326,876 US10708535B2 (en) 2016-10-31 2017-03-09 Light output system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016212931A JP6364054B2 (ja) 2016-10-31 2016-10-31 光出力システム
JP2016-212931 2016-10-31

Publications (1)

Publication Number Publication Date
WO2018078904A1 true WO2018078904A1 (ja) 2018-05-03

Family

ID=62023443

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/009437 WO2018078904A1 (ja) 2016-10-31 2017-03-09 光出力システム

Country Status (4)

Country Link
US (1) US10708535B2 (ja)
JP (1) JP6364054B2 (ja)
CN (1) CN109863744B (ja)
WO (1) WO2018078904A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7156138B2 (ja) * 2019-03-29 2022-10-19 富士通株式会社 情報処理装置、光アクション生成方法、および光アクション生成プログラム
US11328564B2 (en) * 2019-08-31 2022-05-10 Appleton Grp Llc Event indications of hazardous environment luminaires using visual sequences
CN113056066B (zh) * 2019-12-26 2023-05-05 佛山市云米电器科技有限公司 基于电视节目的灯光调节方法、设备、系统及存储介质
KR20230090921A (ko) * 2021-12-15 2023-06-22 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
CN114340102B (zh) * 2021-12-31 2024-05-07 深圳创维-Rgb电子有限公司 灯带控制方法、装置、显示设备、系统以及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0487480A (ja) * 1990-07-31 1992-03-19 Sony Corp 音声モード表示装置
JPH0746565A (ja) * 1993-07-27 1995-02-14 Mitsubishi Electric Corp 通信システム
JPH07210125A (ja) * 1994-01-14 1995-08-11 Mitsubishi Electric Corp 信号情報表示方法および信号情報表示装置
JP2010021991A (ja) * 2008-06-09 2010-01-28 Sony Corp 情報提示装置および情報提示方法
JP2010262105A (ja) * 2009-05-01 2010-11-18 Konica Minolta Business Technologies Inc 画像形成装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4339157B2 (ja) 2004-03-18 2009-10-07 埼玉日本電気株式会社 携帯電話装置
JP4384179B2 (ja) 2004-10-26 2009-12-16 パナソニック株式会社 情報出力装置、情報出力制御方法、情報出力制御プログラム
JP2006135841A (ja) 2004-11-09 2006-05-25 Mitsubishi Electric Corp 通信機器
JP4680627B2 (ja) * 2005-02-16 2011-05-11 ソニー エリクソン モバイル コミュニケーションズ, エービー 情報処理プログラム、携帯端末装置、及び情報処理方法
WO2007037208A1 (ja) * 2005-09-29 2007-04-05 Matsushita Electric Industrial Co., Ltd. 映像音出力装置、及び外部スピーカ制御装置
JP4845581B2 (ja) * 2006-05-01 2011-12-28 三菱電機株式会社 画像及び音声通信機能付テレビジョン放送受像機
JP5410720B2 (ja) * 2008-09-25 2014-02-05 日立コンシューマエレクトロニクス株式会社 ディジタル情報信号送受信装置、およびディジタル情報信号送受信方法
JP2011250113A (ja) * 2010-05-26 2011-12-08 Sharp Corp 表示システム、表示制御方法及びコンピュータプログラム
JP2012054829A (ja) * 2010-09-02 2012-03-15 Sharp Corp 映像提示装置、映像提示方法、映像提示プログラム、記憶媒体
CN104041012B (zh) 2011-12-28 2018-10-19 索尼公司 显示装置及显示控制方法
US9479723B2 (en) 2011-12-28 2016-10-25 Sony Corporation Display device, display control method, and program
JP6055421B2 (ja) 2011-12-28 2016-12-27 サターン ライセンシング エルエルシーSaturn Licensing LLC 表示装置、表示制御方法、携帯端末装置、およびプログラム
US11197064B2 (en) 2011-12-28 2021-12-07 Saturn Licensing Llc Display device, display control method, and program
JP2015015665A (ja) 2013-07-08 2015-01-22 シャープ株式会社 電子機器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0487480A (ja) * 1990-07-31 1992-03-19 Sony Corp 音声モード表示装置
JPH0746565A (ja) * 1993-07-27 1995-02-14 Mitsubishi Electric Corp 通信システム
JPH07210125A (ja) * 1994-01-14 1995-08-11 Mitsubishi Electric Corp 信号情報表示方法および信号情報表示装置
JP2010021991A (ja) * 2008-06-09 2010-01-28 Sony Corp 情報提示装置および情報提示方法
JP2010262105A (ja) * 2009-05-01 2010-11-18 Konica Minolta Business Technologies Inc 画像形成装置

Also Published As

Publication number Publication date
US10708535B2 (en) 2020-07-07
JP2018074410A (ja) 2018-05-10
CN109863744A (zh) 2019-06-07
CN109863744B (zh) 2021-10-22
JP6364054B2 (ja) 2018-07-25
US20190199958A1 (en) 2019-06-27

Similar Documents

Publication Publication Date Title
WO2018078904A1 (ja) 光出力システム
KR102427898B1 (ko) 전자 장치 및 전자 장치의 음악 컨텐츠 시각화 방법
WO2016052018A1 (ja) 家電管理システム、家電、リモコン装置、ロボット
JP2017138476A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2005284492A (ja) 音声利用操作装置
CN111343489B (zh) 一种显示设备及播放终端中音乐的方法
WO2017141530A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP3184429U (ja) 環境制御装置及び映像/音声再生装置
US11068230B2 (en) Bluetooth speaker, and intelligent control method for playing audio
WO2010020924A1 (en) Method, portable device and system for providing feedback related to a user's physical state
JP2007114537A (ja) 音声案内出力装置
JP6446571B2 (ja) 光出力システム
JP6458175B2 (ja) 光出力システム
CN111556198B (zh) 音效控制方法、终端设备及存储介质
US20220229629A1 (en) Content providing system, output device, and information processing method
WO2018078905A1 (ja) 光出力システム
CN109147776A (zh) 具有声控功能的显示装置及声控时机指示方法
EP4301096A1 (en) Electronic device and method of converting audio to light effect thereof
JP2019179295A (ja) 入力支援ユニット及び入力支援システム
CN202711413U (zh) 一种音响设备的火警监测系统
CN116569556A (zh) 根据覆盖层是否可能显示在视频内容之上来确定光效果
JP2015002542A (ja) 表示装置
JP2007116397A (ja) 音響機器
JP2015222910A (ja) 照明装置および記録媒体
JP2009218987A (ja) 映像表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17865517

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17865517

Country of ref document: EP

Kind code of ref document: A1