WO2022035126A1 - 전자 장치 및 이의 제어 방법 - Google Patents

전자 장치 및 이의 제어 방법 Download PDF

Info

Publication number
WO2022035126A1
WO2022035126A1 PCT/KR2021/010323 KR2021010323W WO2022035126A1 WO 2022035126 A1 WO2022035126 A1 WO 2022035126A1 KR 2021010323 W KR2021010323 W KR 2021010323W WO 2022035126 A1 WO2022035126 A1 WO 2022035126A1
Authority
WO
WIPO (PCT)
Prior art keywords
audio
audio data
sound output
output device
mode
Prior art date
Application number
PCT/KR2021/010323
Other languages
English (en)
French (fr)
Inventor
김민상
신현종
윤석현
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of WO2022035126A1 publication Critical patent/WO2022035126A1/ko
Priority to US18/108,178 priority Critical patent/US20230195405A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/001Monitoring arrangements; Testing arrangements for loudspeakers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44231Monitoring of peripheral device or external card, e.g. to detect processing problems in a handheld device or the failure of an external recording device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4882Data services, e.g. news ticker for displaying messages, e.g. warnings, reminders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/008Visual indication of individual signal levels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R31/00Apparatus or processes specially adapted for the manufacture of transducers or diaphragms therefor
    • H04R31/006Interconnection of transducer parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/05Detection of connection of loudspeakers or headphones to amplifiers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/09Applications of special connectors, e.g. USB, XLR, in loudspeakers, microphones or headphones

Definitions

  • the present disclosure relates to an electronic device and a control method thereof, and more particularly, to an electronic device connected to a source device and a sound output device to provide audio data of content received from the source device to the sound output device, and a control method thereof is about
  • HDMI supports eARC (enhanced audio return channel), which is better than ARC (Audio Return Channel), for high-quality content. Accordingly, the user can receive a high-quality service through HDMI.
  • eARC enhanced audio return channel
  • ARC Administered Return Channel
  • the user can receive a high-quality service through HDMI.
  • a sink device that supports eARC is used, compatibility problems occur between the sink device and the connected source device or audio output device, which prevents the user from using eARC as intended. In some cases, the audio output device There was a problem that no sound was output.
  • An object of the present disclosure is to solve the above-described problems, and to provide an electronic device capable of diagnosing an output error in a situation in which a sound is not output from a sound output device, and a control method thereof.
  • a method for controlling an electronic device connected to a source device and a sound output device by receiving the content of the source device and transmitting audio data of the content to the sound output device.
  • providing, when the audio data of the content is not output by the sound output device, diagnosing an output error of at least one of the source device and the sound output device based on the audio mode of the electronic device, the diagnosis result performing reconnection to at least one of the source device and the sound output device based on includes
  • the electronic device receives a communication interface for communicating with a source device and a sound output device, and content of the source device, and provides audio data of the content to the sound output device. control the communication interface to do so, and when the audio data of the content is not output from the sound output device, diagnose an output error of at least one of the source device and the sound output device based on the audio mode of the electronic device, performing reconnection to at least one of the source device and the sound output device based on the diagnosis result, and changing the audio mode if the audio data of the content is not output from the sound output device even after the reconnection , including the processor.
  • the method for controlling the electronic device includes receiving content from a source device and controlling the content. providing audio data to the sound output device; if the audio data of the content is not output from the sound output device, an output error of at least one of the source device and the sound output device based on the audio mode of the electronic device and performing reconnection to at least one of the source device and the sound output device based on the diagnosis result.
  • FIG. 1 is a view for explaining a display system according to an embodiment of the present disclosure
  • FIG. 2 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure
  • FIG. 3 is a view for explaining an operation of an electronic device according to an embodiment of the present disclosure.
  • FIG. 4 is a flowchart illustrating an operation of an electronic device according to an embodiment of the present disclosure
  • FIG. 5 is a view for explaining an electronic device that provides output error information to a user according to an embodiment of the present disclosure
  • FIG. 6 is a view for explaining an operation of an electronic device for diagnosing a sound output error in an eARC mode according to an embodiment of the present disclosure
  • FIG. 7 is a view for explaining an operation of an electronic device for diagnosing a sound output error in an ARC mode according to an embodiment of the present disclosure
  • FIG. 8 is a block diagram illustrating a detailed configuration of an electronic device according to an embodiment of the present disclosure.
  • FIG. 9 is a flowchart illustrating a method of controlling an electronic device according to an embodiment of the present disclosure.
  • expressions such as “have,” “may have,” “include,” or “may include” indicate the presence of a corresponding characteristic (eg, a numerical value, function, operation, or component such as a part). and does not exclude the presence of additional features.
  • expressions such as “A or B,” “at least one of A and/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together.
  • “A or B,” “at least one of A and B,” or “at least one of A or B” means (1) includes at least one A, (2) includes at least one B; Or (3) it may refer to all cases including both at least one A and at least one B.
  • expressions such as “first,” “second,” “first,” or “second,” may modify various elements, regardless of order and/or importance, and refer to one element. It is used only to distinguish it from other components, and does not limit the components. As an example, the use order or arrangement order of components combined with such an ordinal number should not be limited by the number. If necessary, each ordinal number may be used interchangeably.
  • a component eg, a first component is "coupled with/to (operatively or communicatively)" to another component (eg, a second component);
  • another component eg, a second component
  • the certain element may be directly connected to the other element or may be connected through another element (eg, a third element).
  • a component eg, a first component
  • another component eg, a second component
  • a device configured to may mean that the device is “capable of” with other devices or parts.
  • a coprocessor configured (or configured to perform) A, B, and C may refer to a dedicated processor (eg, an embedded processor), or one or more software programs stored on a memory device, to perform the corresponding operations. By doing so, it may mean a generic-purpose processor (eg, a central processing unit (CPU) or an application processor) capable of performing corresponding operations.
  • the term user may refer to a person who uses an electronic device or a device (eg, an artificial intelligence electronic device) using the electronic device.
  • a device eg, an artificial intelligence electronic device
  • FIG. 1 is a view for explaining a display system according to an embodiment of the present disclosure.
  • the display system 1000 includes an electronic device 100 , a source device 200 , and a sound output device 300 .
  • the source device 200 provides content to the electronic device 100 .
  • the source device 200 is a set-top box (set-top box), DVD player, Blu-ray disc player, PC, to be implemented as various types of devices that can provide content to the electronic device 100, such as a game machine.
  • the electronic device 100 may display content provided from the source device 200, such as TV, smart TV, network TV, web TV, Internet Protocol Television (IPTV), and a wall system composed of a plurality of display devices. It may be implemented with various types of display devices capable of outputting. Meanwhile, the electronic device 100 may be implemented as a display device, but if a display is provided separately, the electronic device 100 may be implemented in the form of providing a display by playing content.
  • IPTV Internet Protocol Television
  • the source device 200 may be implemented as a device supporting High Definition Multimedia Interface (HDMI).
  • HDMI High Definition Multimedia Interface
  • the source device 200 and the electronic device 100 may have an HDMI port and may communicate with each other in an HDMI manner. there is.
  • HDMI is one of the uncompressed digital video/audio interface standards, and provides an interface between a source device, a display device, and an audio output device supporting HDMI.
  • HDMI is composed of communication channels such as Transition Minimized Differential Signaling (TMDS), Display Data Channel (DDC), and Consumer Electronics Control (CEC), through which video and audio signals, device information, and control commands can be transmitted and received.
  • TMDS Transition Minimized Differential Signaling
  • DDC Display Data Channel
  • CEC Consumer Electronics Control
  • HDMI performs ARC (Audio Return Channel) function and eARC (enhanced audio return channel) through HEAC (HDMI Ethernet Audio Return Channel), and can perform plug and play function through HPD (Hot Plug Detection).
  • HDMI-based ARC Audio Return Channel
  • an audio processing device such as a TV may receive an image signal using a single HDMI cable and may transmit an audio signal to an audio output device.
  • HDMI-based enhanced Audio Return Channel is a function added from version 2.1 of the HDMI standard, and since it has a higher bandwidth than ARC (ARC: 1 Mbit/sec, eARC: 37 Mbits/sec), audio processing devices using the eARC function
  • the audio output device can transmit high-quality audio data without compression.
  • the electronic device 100 may extract audio data from the content received from the source device 200 and transmit it to the sound output device 300 .
  • the sound output device 300 receives audio data from the electronic device 100 (audio processing device or sink device), such as a speaker, a speaker bar, a Bluetooth speaker, and an A/V receiver (audio/video receiver), It can be implemented as various types of devices that can convert received audio data into sound and output it.
  • the electronic device 100 may convert the extracted audio data into a format suitable for an audio output mode and transmit the converted audio data to the audio output device 300 . Specifically, the electronic device 100 converts audio data into a format suitable for eARC or a format suitable for ARC based on whether the eARC function or the ARC function is activated, and transmits the converted audio data to the sound output device 300 .
  • the sound output device 300 may convert eARC audio data converted into a format corresponding to eARC or ARC audio data converted into a format corresponding to ARC into sound and output the converted sound.
  • the source device 200 transmits the eARC audio data to the electronic device 100 .
  • sound is output due to various causes such as a cable connection error between the source device 200 and the electronic device 100 and a cable connection error between the sound output device 300 and the electronic device 100 . Sound may not be output from the device 300 .
  • the cause of the error in which the sound is not output from the sound output device 300 may be various and is not necessarily limited to the above-described example.
  • the electronic device 100 determines that there is an error in the sound output, and the cause of the sound output error is the source device 200 , the sound output device 300 , or It can be checked whether the electronic device 100 exists. Then, reconnection with the source device 200 or the sound output device 300 may be performed, or the audio output mode of the electronic device 100 may be changed.
  • the electronic device checks the cause of the sound output error, performs reconnection with the source device 200 or the sound output device 300 , or converts the audio output mode of the electronic device 100 . to explain about it.
  • FIG. 2 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure.
  • the electronic device 100 includes a communication interface 110 and a processor 120 .
  • the communication interface 110 is a component for the electronic device 100 to communicate with the source device 200 and the sound output device 300 .
  • the communication interface 110 may be implemented as an HDMI port for receiving high-resolution video and multi-channel digital audio from the source device 200 through a single cable or for transmitting an audio channel to the sound output device 300 .
  • the communication interface 110 includes a Transition Minimized Differential Signaling (TMDS) channel that receives video and audio signals, and device information, video or audio related information (eg, Enhanced Extended (E-EDID)) from the connected source device 200 . It includes a Display Data Channel (DDC) for receiving Display Identification Data) and a Consumer Electronic Control (CEC) capable of transmitting a control signal to the source device 200 or the sound output device 300 .
  • TMDS Transition Minimized Differential Signaling
  • DDC Display Data Channel
  • CEC Consumer Electronic Control
  • the communication interface 110 may be implemented as an HDMI input port and an HDMI output port supporting the HDMI standard.
  • each version of the HDMI port has backward compatibility. Therefore, it is possible to connect and use the source device of the higher standard and the sound output device of the lower standard, or vice versa.
  • only the functions corresponding to the lower standards can be used in both cases. For example, even if the electronic device 100 (eg, TV) supports the function related to HDMI 2.1, if the source device 200 (eg, Blu-ray player) supports the function related to HDMI 2.0, the electronic device ( 100) and the source device 200 can use only functions related to HDMI 2.0.
  • the communication interface 110 may include an audio transmitter 114 including an HDMI Rx (HDMI Receiver) 111 , an ARC transmitter 112 , and an eARC transmitter 113 .
  • an audio transmitter 114 including an HDMI Rx (HDMI Receiver) 111 , an ARC transmitter 112 , and an eARC transmitter 113 .
  • the HDMI RX 111 may be connected to an HDMI transmitter (not shown) of the source device 200 through an HDMI cable to receive data transmitted by the HDMI transmitter (not shown).
  • the HDMI RX 111 receives a signal transmitted by the HDMI transmitter (not shown) of the source device 200 through various channels such as Transition Minimized Differential Signaling (TMDS), Display Data Channel (DDC), and Consumer Electronic Control (CEC).
  • TMDS Transition Minimized Differential Signaling
  • DDC Display Data Channel
  • CEC Consumer Electronic Control
  • the HDMI RX 111 may extract audio data from a Transition Minimized Differential Signaling (TMDS) signal included in the content received from the source device 200 and transmit it to the audio processor 130 .
  • TMDS Transition Minimized Differential Signaling
  • the audio transmitter 114 includes an ARC transmitter 112 and an eARC transmitter 113 , and may receive audio data from the audio processor 130 .
  • the audio transmitter 114 may transmit audio data using the ARC transmitter 112 or the eARC transmitter 113 according to the type of audio data received from the audio processor 130 .
  • the audio transmitter 114 is illustrated as including the ARC transmitter 112 and the eARC transmitter 113, the present disclosure is not limited thereto, and the type of audio data that can be transmitted to the audio transmitter 114 depends on the Depending on the configuration, other configurations may be included.
  • the ARC transmitter 112 may transmit the ARC audio data received from the audio processor 130 to the sound output device 300 through the HDMI cable, and the eARC transmitter 113 may transmit the eARC audio data received from the audio processor 130 . may be transmitted to the sound output device 300 through an HDMI cable.
  • the processor 120 controls the overall operation of the electronic device 100 .
  • the processor 120 functions to control the overall operation of the electronic device 100 .
  • the processor 120 includes a central processing unit (CPU), a digital signal processor (DSP), a microprocessor, a time controller (TCON), a micro processing unit (MPU), and a controller.
  • CPU central processing unit
  • DSP digital signal processor
  • TCON time controller
  • MPU micro processing unit
  • controller controller
  • an application processor application processor
  • CP communication processor
  • the processor 120 is a processing algorithm It may be implemented in the built-in SoC (System on Chip), LSI (large scale integration), or it may be implemented in the form of a field programmable gate array (FPGA).
  • SoC System on Chip
  • LSI large scale integration
  • FPGA field programmable gate array
  • the processor 120 may receive the content received from the source device 200 and control the communication interface 110 to transmit audio data included in the content to the sound output device 300 .
  • the processor 120 may control the HDMI RX 111 to receive content from the source device 200 through the HDMI RX 111 , extract audio data from the received content, and transmit it to the audio processing unit 130 . .
  • the processor 120 may convert audio data according to the audio mode of the electronic device 100 using the audio processing unit 130 .
  • the audio mode includes an Audio Return Channel (ARC) mode, an enhanced Audio Return Channel (eARC) mode, and a built-in speaker mode.
  • the built-in speaker mode refers to a mode in which audio data is output through a speaker (not shown) included in the electronic device 100 rather than the sound output device 300 .
  • the audio mode of the electronic device 100 is limited to the eARC mode, the ARC mode, and the built-in speaker mode, but the audio mode is not necessarily limited thereto, and the type of audio channel supported by the electronic device 100 or It may vary depending on the audio format.
  • the audio processing unit 130 performs signal processing on the input audio data (audio signal), and converts the audio data into a form that can be output by the built-in speaker of the electronic device 100 or the sound output device 300 . am.
  • the processor 120 identifies an audio mode (eg, an ARC mode, an eARC mode, a built-in speaker mode, etc.) of the electronic device 100, and the audio processing unit 130 to convert audio data based on the identified audio mode.
  • an audio mode eg, an ARC mode, an eARC mode, a built-in speaker mode, etc.
  • Audio format information according to the audio mode of the electronic device 100 may be pre-stored in a memory (not shown), and the processor 120 uses the audio format information according to the audio mode to convert the audio data. 130) can be controlled.
  • the processor 120 may control the audio transmitter 114 to transmit the converted audio data to the sound output device 300 . .
  • audio data may not be transmitted to the sound output device 300 due to an error occurring in the process of transmitting the audio data.
  • the audio data may not be output from the sound output device 300 to the audio data transmitted from the sound output device 300 .
  • the processor 120 determines the source device 200 or the sound output device 300 based on the audio mode of the electronic device 100 . At least one output error may be diagnosed, and reconnection to at least one of the source device 200 and the sound output device 300 may be performed based on the diagnosis result.
  • the processor 120 may change the audio mode of the electronic device 100 .
  • FIG. 4 is a flowchart illustrating an operation of an electronic device according to an embodiment of the present disclosure. Specifically, in FIG. 4 , when audio data is not output from the sound output device 300 , an audio output error is diagnosed and reconnection is performed with the source device 200 or the sound output device 300 or the electronic device 100 . It is a flowchart for explaining the electronic device 100 for changing the audio mode of .
  • the processor 120 may be connected to the source device 200 and the sound output device 300 through the HDMI port (S401).
  • the processor 120 may check whether it is connected to the source device 200 and the sound output device 300 using a hot plug detect signal.
  • the hot plug detect signal is a signal standard for determining whether the HDMI cable is connected or disconnected according to the HDMI standard.
  • the voltage detected through a specific pin of the HDMI port, that is, the hot plug detection signal is For example, it transitions to 5V).
  • the source device 200 or the sound output device 300 may recognize that it is connected to the electronic device 100 through the HDMI cable and read EDID information of the electronic device 100 .
  • the processor 120 recognizes that it is connected to the sound output device 300 through the HDMI cable, and the audio output device 300 from the sound output device 300 .
  • Capability Data Structure (CDS) information may be read and updated in the EDID of the electronic device 100 .
  • the CDS information means audio information that can be received by the sound output device 300 supporting the eARC function.
  • the processor 120 may receive content from the source device 200 and provide audio data of the content to the sound output device 300 ( S402 ).
  • the processor 120 may receive content playable in the electronic device 100 from the source device 200 based on EDID information provided when connecting to the source device 200 .
  • the processor 120 may provide audio data outputable from the sound output device 300 .
  • audio data may not be output from the sound output device 300 due to various causes such as an EDID information transmission error or a cable connection error between the source device 200 or the sound output device 300 during the connection process.
  • the processor 120 may check whether audio data is output from the sound output device 300 ( S403 ).
  • the processor 120 uses at least one of a feedback signal received from the sound output device 300 , audio data transmitted from the electronic device 100 to the sound output device 300 , and a volume value of the electronic device 100 to make a sound. It can be checked whether audio data is output from the output device 300 .
  • the processor 120 may check whether the audio data is converted into a format according to the audio mode and output by checking the volume value set in the electronic device 100 . In addition, the processor 120 may determine whether the audio data transmitted to the sound output device 300 through the audio transmitter 114 exists and check whether the audio data is output to the sound output device 300 . In addition, the processor 120 may receive a feedback signal from the sound output device 300 to determine whether the sound output device 300 receives audio data and outputs the received audio data. In addition, the processor 120 may check whether the sound output device 300 outputs audio data through a microphone (not shown) included in the electronic device 100 or an external microphone (not shown) connected to the electronic device 100 . there is.
  • the processor 120 may check the audio mode of the electronic device 100 ( S404 ). The processor 120 may identify the audio mode of the electronic device 100 based on the audio mode setting value set in the electronic device 100 .
  • the processor 120 checks whether the audio processing unit 130 receives audio data through HDMI (S405), and based on the check result, an output error of the source device 200 or an output error of the sound output device 300 ) can be diagnosed as an output error.
  • the audio processing unit 130 receives audio data from the HDMI RX 111 (S405-Y), it means that the HDMI RX 111 extracts audio data from the content received from the source device 200, That is, it means that there is no output error in the source device 200 .
  • the processor 120 may diagnose an output error generated in connection with the sound output device 300 based on the audio mode (S410). This will be described later with reference to FIGS. 6 and 7 .
  • the processor The 120 may check whether the audio data received from the source device 200 is audio data convertible into a format according to the audio mode of the electronic device 100 ( S406 ).
  • the processor 120 may convert the audio data into a format according to the audio mode of the electronic device 100 using channel status bits information included in the audio data received from the source device 200 . It can be identified whether it is audio data.
  • the channel state bit information is information included in the content transmitted from the source device 200 to the electronic device 100 and may include various information such as format, frequency, and size information of audio data.
  • the processor 120 may diagnose an output error based on the audio mode (S410). This will be described later with reference to FIGS. 6 and 7 .
  • the processor 120 when the audio data received from the source device 200 cannot be converted into audio data according to the audio mode of the electronic device 100 (S406-N), the processor 120 generates an output error of the source device 200 , and the source device 200 can be checked (S407).
  • the processor 120 changes the hot plug detection signal related to communication with the source device 200 from a low state to a high state, that is, toggles the source device 200 .
  • the processor 120 may control a display (not shown) to display a screen guiding reconnection of the HDMI cable connected to the source device 200 as shown in FIG. 5 . there is.
  • the processor 120 controls a display (not shown) to display a screen on which the HDMI port connected to the source device 200 and the HDMI cable are displayed so that the user can easily identify the HDMI cable connected to the source device 200 . can do.
  • a display not shown
  • the HDMI port and HDMI cable of the electronic device 100 are displayed in FIG. 5
  • the HDMI port and the HDMI cable of the source device 200 may be displayed according to an embodiment.
  • the processor 120 may check whether audio data is output from the sound output device 300 ( S408 ). A description thereof is the same as in step S403, and a duplicate description is omitted.
  • the processor 120 may change the audio mode of the electronic device 100 ( S409). Specifically, when the audio mode of the electronic device 100 is the eARC mode, the audio mode may be changed to the ARC mode, and if the audio mode of the electronic device 100 is the ARC mode, the audio mode may be changed to the built-in speaker mode.
  • the processor 120 may proceed to step S404 again to diagnose a sound output error of the electronic device 100 .
  • FIG. 6 is a diagram for explaining an operation of an electronic device for diagnosing a sound output error in an eARC mode according to an embodiment of the present disclosure.
  • the processor 120 determines whether the audio processing unit 130 receives audio (S405 of FIG. 4 ), and whether or not the audio data received from the source device 200 is converted (S406 of FIG. 4 ) ), whether the received audio signal is output ( S601 ), and audio information ( S603 ) reproducible in the audio output device 300 are sequentially checked to output at least one of the source device 200 and the sound output device 300 . Errors can be diagnosed.
  • the processor 120 may check whether the eARC audio data converted by the audio processing unit 130 is output to the sound output device 300 ( S601 ).
  • the processor 120 may check whether the eARC audio data is transmitted to the sound output device 300 through the eARC transmitter 113 in the audio transmitter 114 .
  • the processor 120 is configured to 300) can be confirmed (S602).
  • the processor 120 changes the hot plug detection signal related to communication with the sound output device 300 from a low state to a high state, that is, toggles the sound output device ( 300) can be reconnected. More specifically, when the electronic device 100 is connected to the sound output device 300 , the hot plug detection signal is changed to a high state and maintained, and the processor 120 maintains the hot plug detection signal maintained in the high state. Reconnection with the sound output device 300 may be performed by changing .
  • the processor 120 may control a display (not shown) to display a screen guiding the reconnection of the HDMI cable connected to the sound output device 300 . Since the description is the same as that in the case where the source device 200 of FIG. 5 is changed to the sound output device 300, a detailed description thereof will be omitted.
  • the processor 120 reproduces the converted audio data in the sound output device 300 . It can be identified whether it is possible audio data (S603).
  • the processor 120 determines whether the converted audio data is audio data that can be reproduced by the sound output apparatus 300 based on the CDS information received from the sound output apparatus 300 when connected to the sound output apparatus 300 . can
  • the processor 120 may check the sound output device 300 (S605).
  • the processor 120 may not transmit the hot plug detection signal to the sound output device 300 through the HDMI port 116 so that the HDMI port 116 is used to transmit eARC audio data. Instead, the processor 120 may be reconnected to the sound output device 300 by performing the same operation as performing the hot plug detection in software.
  • the processor 120 when the converted audio data as a result of identification is audio data that cannot be reproduced by the sound output device 300 ( S603-N), the processor 120 provides the audio output device 300 with audio that can be reproduced by the sound output device 300 . It is possible to request information about data (S604). Specifically, the processor 120 may control the communication interface 110 to transmit a signal requesting information (CDS information) about audio data reproducible by the sound output device 300 to the sound output device 300 . .
  • CDS information signal requesting information
  • the processor 120 transmits the audio data from the sound output device 300 It can be checked whether is output (S606). A description of this is the same as that of step S404 of FIG. 4 , so a duplicate description will be omitted.
  • the processor 120 may change the audio mode of the electronic device 100 from the eARC mode to the ARC mode (S607).
  • the processor 120 may diagnose a sound output error in the ARC mode.
  • FIG. 7 is a diagram for explaining an operation of an electronic device for diagnosing a sound output error in an ARC mode according to an embodiment of the present disclosure.
  • the processor 120 determines whether the audio processing unit 130 receives audio (S405 of FIG. 4 ), and whether or not the audio data received from the source device 200 is converted ( FIG. 4 ). S406) and whether audio data is output (S701) may be sequentially checked to diagnose an output error of at least one of the source device and the sound output device.
  • the processor 120 may check whether the ARC audio data converted by the audio processing unit 130 is output to the sound output device 300 ( S701 ).
  • the processor 120 may check whether the ARC audio data is transmitted to the sound output device 300 through the ARC transmitter 112 in the audio transmitter 114 .
  • the processor 120 may reset the ARC transmitter 112 (S702). ).
  • resetting the ARC transmitter 112 means resetting a signal output through the ARC transmitter.
  • the processor 120 may check the sound output device 300 ( S705). Content related to checking the sound output device 300 is the same as in step S602 of FIG. 6 , so a duplicate description will be omitted.
  • the processor 120 may check whether audio data is output from the sound output device 300 (S703). A description thereof is the same as in step S404 of FIG. 4 , and thus a duplicate description will be omitted.
  • the processor 120 electronically
  • the audio mode of the device 100 may be changed to a built-in speaker mode (S704).
  • the processor 120 may output audio data through a speaker (not shown) included in the electronic device 100 instead of the external sound output device 300 .
  • FIG. 8 is a block diagram illustrating a detailed configuration of an electronic device according to an embodiment of the present disclosure.
  • the electronic device 100 includes a communication interface 110 , a processor 120 , an audio processing unit 130 , a receiving unit 140 , a memory 150 , a display 160 , and a user interface 170 .
  • a communication interface 110 includes a communication interface 110 , a processor 120 , an audio processing unit 130 , a receiving unit 140 , a memory 150 , a display 160 , and a user interface 170 .
  • the communication interface 110 may further include various wired/wireless interfaces to which external devices may be connected in addition to the above-described HDMI port.
  • wired interfaces such as USB terminal, CVBS (Composite Video Banking Sync) terminal, component terminal, S-video terminal (analog), DVI (Digital Visual Interface) terminal, and WLAN (Wireless LAN), Wi-Fi (Wireless) -Fidelity), Wi-Fi (Wireless Fidelity) Direct, Bluetooth, FID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (UltraWideband), ZigBee, DLNA (Digital Living Network) Alliance) and the like may include a wireless interface using a communication protocol.
  • the receiver 140 may include at least one tuner 141 , a demodulator 142 , and a network interface 143 .
  • the receiver 140 may include the tuner 141 and the demodulator 142 but may not include the network interface 143 , and vice versa.
  • the tuner 141 receives an RF broadcast signal by tuning a channel selected by a user or all channels previously stored among radio frequency (RF) broadcast signals received through an antenna.
  • the demodulator 142 may receive and demodulate the digital IF signal DIF converted by the tuner 141 , and may perform channel decoding and the like.
  • the network interface 143 provides an interface for connecting the electronic device 100 to a wired/wireless network including an Internet network.
  • the network interface 143 may include, for example, an Ethernet (Ethernet) terminal for connection with a wired network, and for connection with a wireless network, for example, a WLAN (WirelessLAN) (Wi-Fi), Wireless broadband (Wibro), World Interoperability for Microwave Access (Wimax), and High Speed Downlink Packet Access (HSDPA) communication standards may be used.
  • Ethernet Ethernet
  • Wi-Fi Wireless broadband
  • Wibro Wireless broadband
  • Wimax World Interoperability for Microwave Access
  • HSDPA High Speed Downlink Packet Access
  • the memory 150 may store a program for processing and controlling each signal in the processor 120 , or may store a signal-processed image, audio, or data signal. Also, the memory 150 may perform a function for temporarily storing an image, audio, or data signal input from the communication interface 110 or the network interface 143 . Also, EDID information of the electronic device 100 may be stored in the memory 150 .
  • the display 160 converts an image signal, a data signal, an OSD signal processed by the processor 120, an image signal, a data signal, etc. received from an external interface (not shown) into R, G, and B signals, respectively, to generate a driving signal.
  • the display 160 may be implemented as a PDP, LCD, OLED, a flexible display, a 3D display, a touch screen, or the like.
  • the user interface 170 transmits a command input by the user to the processor 120 or transmits a signal of the processor 120 to the user.
  • the user interface 170 is implemented in a form that communicates with a remote control device (not shown) according to various communication methods such as an RF communication method and an infrared (IR) communication method, or the electronic device 100 . It may be implemented in the form of a key panel provided in the .
  • FIG. 9 is a flowchart illustrating a method of controlling an electronic device according to an embodiment of the present disclosure.
  • the electronic device 100 may be connected to the source device 200 and the sound output device 300 .
  • the source device 200 and the sound output device 300 may be connected to the electronic device 100 through HDMI, respectively.
  • the content of the source device 200 may be received and audio data of the content may be provided to the sound output device 300 (S910).
  • the sound output device using at least one of a feedback signal received from the sound output device 300 , audio data transmitted from the electronic device 100 to the sound output device 300 , and a volume value of the electronic device 100 .
  • it can be checked whether audio data is output.
  • an output error of at least one of the source device and the sound output device may be diagnosed based on the audio mode of the electronic device 100 ( S920 ).
  • the audio mode may include an eARC mode, an ARC mode, and a built-in speaker mode.
  • the audio mode of the electronic device 100 is the enhanced audio return channel mode
  • whether audio is received by the audio processing unit, whether audio data received from the source device 200 is converted or not, whether audio data is output from the electronic device 100, and An output error of at least one of the source device 200 or the audio output device 300 may be diagnosed by sequentially checking the audio information that can be output from the audio output device 300 .
  • the audio processing unit When the audio mode of the electronic device 100 is an audio return channel mode, whether the audio processing unit receives audio data, whether to convert the audio data received from the source device 200 , and whether to output the audio data from the electronic device 100 are sequentially determined to diagnose an output error of at least one of the source device 200 and the sound output device 300 .
  • an output error of the source device 200 may be diagnosed if conversion to a format according to the audio mode is not possible.
  • the audio processing unit included in the electronic device 100 receives audio data through HDMI, and to diagnose an output error of the source device based on the check result.
  • the audio processing unit included in the electronic device 100 receives audio data through HDMI, it is checked whether the audio data is converted into audio data according to an audio mode and output to the sound output device 300 . and an output error of the sound output device may be diagnosed based on the confirmation result.
  • the audio data is converted into audio data according to the audio mode and output to the sound output device 300 is confirmed, whether the converted audio data is audio data that can be reproduced by the sound output device 300 is identified, and the identification result is converted
  • the converted audio data is audio data that cannot be reproduced by the sound output device 300
  • information on audio data that can be reproduced by the sound output device may be requested from the sound output device.
  • a hot plug detection signal related to communication with at least one of the source device 200 or the sound output device 300 is changed from a low state to a high state to communicate with the source device 200 or the sound output device 300 . Reconnection can be performed.
  • the audio mode may be changed (S940). Specifically, it is possible to change the eARC mode to the ARC mode and the ARC mode to the built-in speaker mode.
  • various operations described as being performed by the electronic device 100 or the electronic device 100 may be performed by one or more electronic devices in the form of a control method or an operation method of the electronic device.
  • the embodiments described in the present disclosure are ASICs (Application Specific Integrated Circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (Programmable logic devices), FPGAs (field programmable gate arrays) ), a processor, a controller, a micro-controller, a microprocessor, and may be implemented using at least one of an electrical unit for performing other functions.
  • ASICs Application Specific Integrated Circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs Programmable logic devices
  • FPGAs field programmable gate arrays
  • embodiments described herein may be implemented by the processor itself. According to the software implementation, embodiments such as the procedures and functions described in this specification may be implemented as separate software modules. Each of the above-described software modules may perform one or more functions and operations described herein.
  • computer instructions for performing a processing operation in a user device or an administrator device may be stored in a non-transitory computer-readable medium.
  • the computer instructions stored in the non-transitory computer-readable medium are executed by the processor of the specific device, the specific device performs the processing operation of the user device and/or the manager device according to the various embodiments described above.
  • the non-transitory readable medium refers to a medium that stores data semi-permanently, rather than a medium that stores data for a short moment, such as a register, cache, memory, and the like, and can be read by a device.
  • a non-transitory readable medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Otolaryngology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Manufacturing & Machinery (AREA)
  • Computational Linguistics (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

소스 장치 및 음향 출력 장치와 연결된 전자 장치의 제어 방법이 개시된다. 본 개시에 따른 전자 장치의 제어 방법은, 소스 장치의 컨텐츠를 수신하여 컨텐츠의 오디오 데이터를 음향 출력 장치로 제공하는 단계, 컨텐츠의 오디오 데이터가 음향 출력 장치에서 미 출력되면, 전자 장치의 오디오 모드에 기초하여 소스 장치 또는 음향 출력 장치 중 적어도 하나의 출력 오류를 진단하는 단계, 진단 결과에 기초하여 소스 장치 또는 음향 출력 장치 중 적어도 하나에 대한 재연결을 수행하는 단계, 및 재연결 후에도 컨텐츠의 오디오 데이터가 음향 출력 장치에서 미 출력되면, 오디오 모드를 변경하는 단계를 포함한다.

Description

전자 장치 및 이의 제어 방법
본 개시는 전자 장치 및 이의 제어 방법에 관한 것으로, 구체적으로는 소스(source) 장치 및 음향 출력 장치와 연결되어 소스 장치로부터 수신한 컨텐츠의 오디오 데이터를 음향 출력 장치로 제공하는 전자 장치 및 이의 제어 방법에 관한 것이다.
CROSS-REFERENCE TO RELATED APPLICATIONS
본출원은 2020년 8월 13일에 출원된 대한민국 특허출원 제10-2020-0101791호에 기초하여 우선권을 주장하며, 해당 출원의 모든 내용은 그 전체가 본 출원에 레퍼런스로 포함된다.
고화질 또는 고음질의 컨텐츠를 이용하려는 사용자의 증가로 HDMI (High-Definition Multimedia Interface) 포트를 구비한 싱크 장치에 대한 수요가 증가하고 있다. 또한, TV와 같은 싱크 장치의 두께가 얇아지면서 스피커 자체의 출력이 줄어들어 음향 출력 장치에 대한 사용자의 관심이 증가하고 있다.
최근 HDMI는 고음질 컨텐츠를 위하여 ARC (Audio Return Channel)보다 향상된 eARC(enhanced Audio Return Channel)를 지원하고 있다. 이에 따라 사용자는 HDMI를 통하여 고음질의 서비스를 제공받을 수 있다. 그러나, eARC를 지원하는 싱크 장치를 사용할 경우, 싱크 장치와 연결되는 소스 장치 또는 음향 출력 장치 간에 호환성 문제가 발생하여 사용자의 의도대로 eARC를 사용하지 못하는 문제가 발생하였으며, 경우에 따라서는 음향 출력 장치에서 소리가 출력되지 않는 문제가 발생되었다.
본 개시는 상술한 문제점을 해결하기 위한 것으로, 음향 출력 장치에서 소리가 출력되지 않는 상황에서 출력 오류를 진단할 수 있는 전자 장치 및 이의 제어 방법을 제공함에 있다.
이상과 같은 목적을 달성하기 위한 본 개시의 일 실시 예에 따른 소스 장치 및 음향 출력 장치와 연결된 전자 장치의 제어 방법은, 상기 소스 장치의 컨텐츠를 수신하여 상기 컨텐츠의 오디오 데이터를 상기 음향 출력 장치로 제공하는 단계, 상기 컨텐츠의 오디오 데이터가 상기 음향 출력 장치에서 미 출력되면, 상기 전자 장치의 오디오 모드에 기초하여 상기 소스 장치 또는 상기 음향 출력 장치 중 적어도 하나의 출력 오류를 진단하는 단계, 상기 진단 결과에 기초하여 상기 소스 장치 또는 상기 음향 출력 장치 중 적어도 하나에 대한 재연결을 수행하는 단계, 및 상기 재연결 후에도 상기 컨텐츠의 오디오 데이터가 상기 음향 출력 장치에서 미 출력되면, 상기 오디오 모드를 변경하는 단계를 포함한다.
또한, 본 개시의 또 다른 일 실시 예에 따른 전자 장치는, 소스 장치 및 음향 출력 장치와 통신을 수행하는 통신 인터페이스 및 상기 소스 장치의 컨텐츠를 수신하여 상기 컨텐츠의 오디오 데이터를 상기 음향 출력 장치로 제공하도록 상기 통신 인터페이스를 제어하고, 상기 컨텐츠의 오디오 데이터가 상기 음향 출력 장치에서 미 출력되면, 상기 전자 장치의 오디오 모드에 기초하여 상기 소스 장치 또는 상기 음향 출력 장치 중 적어도 하나의 출력 오류를 진단하며, 상기 진단 결과에 기초하여 상기 소스 장치 또는 상기 음향 출력 장치 중 적어도 하나에 대한 재연결을 수행하고, 상기 재연결 후에도 상기 컨텐츠의 오디오 데이터가 상기 음향 출력 장치에서 미 출력되면, 상기 오디오 모드를 변경하는, 프로세서를 포함한다.
그리고, 본 개시의 또 다른 일 실시 예에 따른 전자 장치의 제어 방법을 실행하기 위한 프로그램을 포함하는 컴퓨터 판독가능 기록 매체에 있어서, 상기 전자 장치의 제어 방법은 소스 장치의 컨텐츠를 수신하여 상기 컨텐츠의 오디오 데이터를 상기 음향 출력 장치로 제공하는 단계, 상기 컨텐츠의 오디오 데이터가 상기 음향 출력 장치에서 미 출력되면, 상기 전자 장치의 오디오 모드에 기초하여 상기 소스 장치 또는 상기 음향 출력 장치 중 적어도 하나의 출력 오류를 진단하는 단계 및 상기 진단 결과에 기초하여 상기 소스 장치 또는 상기 음향 출력 장치 중 적어도 하나에 대한 재연결을 수행하는 단계를 포함한다.
도 1은 본 개시의 일 실시 예에 따른 디스플레이 시스템을 설명하기 위한 도면,
도 2는 본 개시의 일 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도,
도 3은 본 개시의 일 실시 예에 따른 전자 장치의 동작을 설명하기 위한 도면,
도 4는 본 개시의 일 실시 예에 따른 전자 장치의 동작을 설명하기 위한 흐름도,
도 5는 본 개시의 일 실시 예에 따라 사용자에게 출력 오류 정보를 제공하는 전자 장치를 설명하기 위한 도면,
도 6은 본 개시의 일 실시 예에 따라 eARC 모드일 경우 음향 출력 오류를 진단하는 전자 장치의 동작을 설명하기 위한 도면,
도 7은 본 개시의 일 실시 예에 따라 ARC 모드일 경우 음향 출력 오류를 진단하는 전자 장치의 동작을 설명하기 위한 도면,
도 8은 본 개시의 일 실시 예에 따른 전자 장치의 세부 구성을 설명하기 위한 블록도, 및
도 9는 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
본 개시에 대하여 구체적으로 설명하기에 앞서, 본 명세서 및 도면의 기재 방법에 대하여 설명한다.
본 개시에서 사용되는 용어는 본 개시의 다양한 실시 예들에서의 기능을 고려하여 일반적인 용어들을 선택하였다. 하지만, 이러한 용어들은 당해 기술 분야에 종사하는 기술자의 의도나 법률적 또는 기술적 해석 및 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 일부 용어는 출원인이 임의로 선정한 용어도 있다. 이러한 용어에 대해서는 본 명세서에서 정의된 의미로 해석될 수 있으며, 구체적인 용어 정의가 없으면 본 명세서의 전반적인 내용 및 당해 기술 분야의 통상적인 기술 상식을 토대로 해석될 수도 있다.
이하, 본 개시의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 개시에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 실시 예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다.
또한, 본 개시에 첨부된 각 도면에 기재된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다. 설명 및 이해의 편의를 위해서 서로 다른 실시 예들에서도 동일한 참조번호 또는 부호를 사용하여 설명한다. 즉, 복수의 도면에서 동일한 참조 번호를 가지는 구성요소를 모두 도시되어 있다고 하더라도, 복수의 도면들이 하나의 실시 예를 의미하는 것은 아니다.
본 개시에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 개시에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
본 개시에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.
본 개시에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 일 예로, 이러한 서수와 결합된 구성요소는 그 숫자에 의해 사용 순서나 배치 순서 등이 제한되어서는 안 된다. 필요에 따라서는, 각 서수들은 서로 교체되어 사용될 수도 있다.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.
본 개시에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 부프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU(Central Processing Unit) 또는 application processor)를 의미할 수 있다.
한편, 본 개시에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
이하에서는 도면을 참조하여 본 개시에 대해 상세히 설명하기로 한다.
도 1은 본 개시의 일 실시 예에 따른 디스플레이 시스템을 설명하기 위한 도면이다.
도 1에 도시된 바와 같이, 디스플레이 시스템(1000)은 전자 장치(100), 소스(source) 장치(200) 및 음향 출력 장치(300)를 포함한다.
소스 장치(200)는 전자 장치(100)로 컨텐츠를 제공한다. 여기에서, 소스 장치(200)는 셋톱박스(set-top box), DVD 플레이어, 블루레이 디스크 플레이어, PC, 게임기 등과 같이 전자 장치(100)로 컨텐츠를 제공할 수 있는 다양한 유형의 기기로 구현될 수 있으며, 전자 장치(100)는 TV, 스마트 TV, 네트워크 TV, 웹 TV, IPTV(Internet Protocol Television), 복수의 디스플레이 장치로 구성된 월 시스템(wall system)등 소스 장치(200)로부터 제공받은 컨텐츠를 출력할 수 있는 다양한 유형의 디스플레이 장치로 구현될 수 있다. 한편, 전자 장치(100)는 디스플레이 장치로 구현될 수 있으나, 디스플레이가 별도로 구비된 경우 컨텐츠를 재생하여 디스플레이를 제공하는 형태로 구현될 수도 있다.
소스 장치(200)는 HDMI ((High Definition Multimedia Interface)를 지원하는 장치로 구현될 수 있다. 소스 장치(200) 및 전자 장치(100)는 HDMI 포트를 구비하고 HDMI 방식으로 서로 통신을 수행할 수 있다.
HDMI는 비압축 방식의 디지털 비디오/오디오 인터페이스 규격의 하나로, HDMI를 지원하는 소스 장치, 디스플레이 장치, 음향 출력 장치들 사이의 인터페이스를 제공한다. HDMI는 TMDS(Transition Minimized Differential Signaling), DDC(Display Data Channel) 및 CEC(Consumer Electronics Control) 등과 같은 통신 채널로 구성되며, 이들을 통해 영상 및 오디오 신호, 기기 정보 및 제어 명령 등을 송수신할 수 있다. 또한, HDMI는 HEAC(HDMI Ethernet Audio Return Channel)를 통해 ARC(Audio Return Channel) 기능 및 eARC(enhanced Audio Return Channel)를 수행하고, HPD(Hot Plug Detection)를 통해 플러그 앤 플레이 기능을 수행 할 수 있다.
HDMI 기반의 ARC(Audio Return Channel)는 HDMI 규격의 1.4 버전부터 추가된 기능으로서, 하나의 HDMI 케이블을 이용하여 오디오 처리 장치(또는 싱크 장치)(가령, 전자 장치(100))에서 오디오 출력 장치로 오디오 신호를 전송할 수 있는 방법이다. 이에 따라, TV와 같은 오디오 처리 장치는, 하나의 HDMI 케이블을 이용하여 영상 신호를 수신할 수 있고, 오디오 출력 장치로 오디오 신호를 송신할 수 있다.
HDMI 기반의 eARC(enhanced Audio Return Channel)는 HDMI 규격의 2.1 버전부터 추가된 기능으로서, ARC보다 대역폭이 높기 때문에(ARC: 1Mbit/sec, eARC: 37Mbits/sec) eARC 기능을 사용하는 오디오 처리 장치는 오디오 출력 장치로 고음질의 오디오 데이터를 압축 없이 전송할 수 있다.
전자 장치(100)는 소스 장치(200)로부터 수신한 컨텐츠에서 오디오 데이터를 추출하여 음향 출력 장치(300)로 전송할 수 있다. 본 개시에서 음향 출력 장치(300)는 스피커, 스피커 바, 블루투스 스피커, A/V 리시버(audio/video receiver)와 같이 전자 장치(100)(오디오 처리 장치 또는 싱크 장치)로부터 오디오 데이터를 수신하고, 수신한 오디오 데이터를 사운드로 변환하여 출력할 수 있는 다양한 유형의 장치로 구현될 수 있다.
전자 장치(100)는 추출한 오디오 데이터를 오디오 출력 모드에 맞는 포맷으로 변환하여 음향 출력 장치(300)에 전송할 수 있다. 구체적으로, 전자 장치(100)는 eARC 기능 또는 ARC 기능이 활성화 되어 있는지 여부에 기초하여 오디오 데이터를 eARC에 적합한 포맷 또는 ARC에 적합한 포맷으로 변환하고 변환된 오디오 데이터를 음향 출력 장치(300)에 전송할 수 있다.
음향 출력 장치(300)는 eARC 에 대응되는 포맷으로 변환된 eARC 오디오 데이터 또는 ARC에 대응되는 포맷으로 변환된 ARC 오디오 데이터를 사운드로 변환하여 이를 출력할 수 있다.
한편, 경우에 따라서 음향 출력 장치(300)에서 사운드가 출력되지 않는 경우가 발생할 수도 있다. 가령, 전자 장치(100)가 eARC 오디오 데이터를 음향 출력 장치(300)에 전송하였으나 음향 출력 장치(300)가 eARC 오디오 데이터를 지원하지 않는 경우, 소스 장치(200)에서 전자 장치(100)로 전송한 오디오 데이터에 오류가 존재하는 경우, 소스 장치(200)와 전자 장치(100) 간의 케이블 연결 오류, 음향 출력 장치(300)와 전자 장치(100)간의 케이블 연결 오류와 같은 다양한 원인으로 인하여 음향 출력 장치(300)에서 사운드가 출력되지 않을 수 있다. 여기에서, 음향 출력 장치(300)에서 사운드가 출력되지 않는 오류의 원인은 다양할 수 있으며 반드시 상술한 예에 한정되는 것은 아니다.
전자 장치(100)는 음향 출력 장치(300)에서 사운드가 출력되지 않는 경우, 음향 출력에 오류가 존재함을 판단하고, 음향 출력 오류의 원인이 소스 장치(200), 음향 출력 장치(300) 또는 전자 장치(100)에 존재하는지 확인할 수 있다. 그리고, 소스 장치(200) 또는 음향 출력 장치(300)와의 재연결을 수행하거나, 전자 장치(100)의 오디오 출력 모드를 변환할 수 있다.
이에 따라 이하에서는 전자 장치가 음향 출력 오류의 원인을 확인하고, 소스 장치(200) 또는 음향 출력 장치(300)와의 재연결을 수행하거나, 전자 장치(100)의 오디오 출력 모드를 변환하는 다양한 실시 예에 대해 설명하도록 한다.
도 2는 본 개시의 일 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도이다.
도 2에서 도시된 바와 같이, 전자 장치(100)는 통신 인터페이스(110) 및 프로세서(120)를 포함한다.
통신 인터페이스(110)는 전자 장치(100)가 소스 장치(200) 및 음향 출력 장치(300)와 통신을 수행하기 위한 구성 요소이다. 통신 인터페이스(110)는 소스 장치(200)로부터 고해상도 비디오와 멀티 채널 디지털 오디오를 하나의 케이블로 수신하거나, 음향 출력 장치(300)에 오디오 채널을 전송하기 위한 HDMI 포트로 구현될 수 있다. 구체적으로, 통신 인터페이스(110)는 비디오와 오디오 신호를 입력받는 TMDS(Transition Minimized Differential Signaling) 채널과, 연결된 소스 장치(200)로부터 디바이스 정보, 비디오 또는 오디오에 관련된 정보(예로 E-EDID(Eenhanced Extended Display Identification Data))를 입력받기 위한 DDC(Display Data Channel)와, 소스 장치(200) 또는 음향 출력 장치(300)로 제어신호를 전달할 수 있는 CEC(Consumer Electronic Control)를 포함한다.
특히, 통신 인터페이스(110)는 HDMI 규격을 지원하는 HDMI 입력 포트 및 HDMI 출력 포트로 구현될 수 있다. 여기서, 각 버전의 HDMI 포트는 하위 호환성을 가지고 있다. 때문에 상위 규격의 소스 장치와 하위 규격의 음향 출력 장치를 연결해 사용하거나 혹은 그 반대의 경우도 가능하다. 다만, 이 경우에는 양쪽 모두 하위 규격에 해당하는 기능만 사용이 가능하다. 일 예로, 전자 장치(100)(예를 들어, TV)가 HDMI 2.1과 관련된 기능을 지원하더라도 소스 장치(200)(예를 들어, 블루레이 플레이어)가 HDMI 2.0 과 관련된 기능을 지원한다면 전자 장치(100) 및 소스 장치(200) 모두 HDMI 2.0 과 관련된 기능만 쓸 수 있게 된다.
도 3에 도시된 바와 같이, 통신 인터페이스(110)는 HDMI Rx (HDMI Receiver) (111), ARC 송신부(112) 및 eARC 송신부(113)를 포함하는 오디오 송신부(114)를 포함할 수 있다.
HDMI RX(111)는 HDMI 케이블을 통해 소스 장치(200)의 HDMI 송신부(미도시)와 연결되어 HDMI 송신부(미도시)가 전송하는 데이터를 수신할 수 있다. HDMI RX(111)는 TMDS(Transition Minimized Differential Signaling), DDC(Display Data Channel 및 CEC(Consumer Electronic Control)와 같은 다양한 채널을 통하여 소스 장치(200)의 HDMI 송신부(미도시)가 전송하는 신호를 수신할 수 있다. HDMI RX(111)는 소스 장치(200)로부터 수신한 컨텐츠에 포함된 TMDS (Transition Minimized Differential Signaling) 신호로부터 오디오 데이터를 추출하여 오디오 처리부(130)에 전송할 수 있다.
오디오 송신부(114)는 ARC 송신부(112) 및 eARC 송신부(113)를 포함하고, 오디오 처리부(130)로부터 오디오 데이터를 수신할 수 있다. 오디오 송신부(114)는 오디오 처리부(130)로부터 수신한 오디오 데이터의 종류에 따라 ARC 송신부(112) 또는 eARC 송신부(113)를 이용하여 오디오 데이터를 전송할 수 있다. 한편, 본 개시에서는 오디오 송신부(114)가 ARC 송신부(112) 및 eARC 송신부(113)를 포함하는 것으로 도시하였으나, 반드시 이에 한하는 것은 아니며, 오디오 송신부(114)에 전송할 수 있는 오디오 데이터의 종류에 따라 다른 구성이 포함될 수 있다.
ARC 송신부(112)는 오디오 처리부(130)로부터 수신한 ARC 오디오 데이터를 HDMI 케이블을 통하여 음향 출력 장치(300)에 전송할 수 있으며, eARC 송신부(113)는 오디오 처리부(130)로부터 수신한 eARC 오디오 데이터를 HDMI 케이블을 통하여 음향 출력 장치(300)에 전송할 수 있다.
도 2 및 도 3의 프로세서(120)는 동일한 구성인 바, 설명의 중복을 위하여 함께 기재한다.
프로세서(120)는 전자 장치(100)의 전반적인 동작을 제어한다. 프로세서(120)는 전자 장치(100)의 전반적인 동작을 제어하는 기능을 한다. 여기서, 프로세서(120)는 중앙처리장치(central processing unit(CPU)), 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로 프로세서(microprocessor), TCON(Time controller), MPU(micro processing unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(120)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형태로 구현될 수도 있다.
프로세서(120)는 소스 장치(200)로부터 수신한 컨텐츠를 수신하여, 컨텐츠에 포함된 오디오 데이터를 음향 출력 장치(300)에 전송하도록 통신 인터페이스(110)를 제어할 수 있다.
프로세서(120)는 HDMI RX(111)를 통하여 소스 장치(200)로부터 컨텐츠를 수신하고, 수신된 컨텐츠에서 오디오 데이터를 추출하여 오디오 처리부(130)에 전송하도록 HDMI RX(111)를 제어할 수 있다.
프로세서(120)는 오디오 처리부(130)를 이용하여 전자 장치(100)의 오디오 모드에 따라 오디오 데이터를 변환할 수 있다. 여기에서, 오디오 모드는, ARC (Audio Return Channel, 오디오 리턴 채널) 모드, eARC (enhanced Audio Return Channel, 강화된 오디오 리턴 채널) 모드, 내장 스피커 모드를 포함한다. 내장 스피커 모드는 음향 출력 장치(300)가 아닌, 전자 장치(100)에 포함된 스피커(미도시)를 통하여 오디오 데이터를 출력하는 모드를 의미한다. 한편, 본 개시에서 전자 장치(100)의 오디오 모드는 eARC 모드, ARC 모드, 내장 스피커 모드로 한정하였으나, 오디오 모드는 반드시 이에 한하는 것은 아니며, 전자 장치(100)가 지원가능한 오디오 채널의 종류 또는 오디오 형식에 따라 다양해질 수 있다.
오디오 처리부(130)는 입력된 오디오 데이터(오디오 신호)에 대한 신호 처리를 수행하여, 오디오 데이터를 전자 장치(100)의 내장 스피커 또는 음향 출력 장치(300)에서 출력 가능한 형태로 변환하기 위한 구성 요소이다.
프로세서(120)는 전자 장치(100)의 오디오 모드(가령, ARC 모드, eARC 모드, 내장 스피커 모드 등)를 식별하고, 식별된 오디오 모드를 기초하여 오디오 데이터가 변환될 수 있도록 오디오 처리부(130)를 제어할 수 있다. 전자 장치(100)의 오디오 모드에 따른 오디오 포맷 정보는 메모리(미도시)에 기저장되어 있을 수 있으며, 프로세서(120)는 오디오 모드에 따른 오디오 포맷 정보를 이용하여 오디오 데이터를 변환하도록 오디오 처리부(130)를 제어할 수 있다.
오디오 처리부(130)에 의해 변환된 오디오 데이터가 오디오 송신부(114)에 전달되면, 프로세서(120)는 변환된 오디오 데이터를 음향 출력 장치(300)에 전송하도록 오디오 송신부(114)를 제어할 수 있다.
한편, 오디오 데이터를 전송하는 과정에서 발생되는 오류로 인하여, 오디오 데이터가 음향 출력 장치(300)에 전달되지 않을 수 있다. 또는 음향 출력 장치(300)에 오디오 데이터를 전송하였으나, 전송된 오디오 데이터가 음향 출력 장치(300)에서 음향 출력 장치(300)에서 오디오 데이터가 출력되지 않는 경우가 발생할 수도 있다.
프로세서(120)는 소스 장치(200)로부터 수신한 오디오 데이터가 음향 출력 장치(300)에서 미 출력되면, 전자 장치(100)의 오디오 모드에 기초하여 소스 장치(200) 또는 음향 출력 장치(300) 중 적어도 하나의 출력 오류를 진단하고, 진단 결과에 기초하여 소스 장치(200) 또는 음향 출력 장치(300) 중 적어도 하나에 대한 재연결을 수행할 수 있다.
그리고, 프로세서(120)는 재연결 후에도 컨텐츠의 오디오 데이터가 음향 출력 장치(300)에서 미 출력되면, 전자 장치(100)의 오디오 모드를 변경할 수 있다.
도 4는 본 개시의 일 실시 예에 따른 전자 장치의 동작을 설명하기 위한 흐름도이다. 구체적으로, 도 4는 음향 출력 장치(300)에서 오디오 데이터가 출력되지 않는 경우 오디오 출력 오류를 진단하고, 소스 장치(200) 또는 음향 출력 장치(300)와 재연결을 수행하거나 전자 장치(100)의 오디오 모드를 변경하는 전자 장치(100)를 설명하기 위한 흐름도이다.
프로세서(120)는 HDMI 포트를 통하여 소스 장치(200) 및 음향 출력 장치(300)와 연결될 수 있다(S401).
이때, 프로세서(120)는 핫 플러그 디텍트(hot plug detect) 신호를 이용하여 소스 장치(200) 및 음향 출력 장치(300)와 연결되었는지 확인할 수 있다.
핫 플러그 디텍트(hot plug detect) 신호는 HDMI 규격에 따라 HDMI 케이블이 연결되었는지 해제되었는지를 판별하는 신호 규격이다. 전자 장치(100)가 소스 장치(200) 및 음향 출력 장치(300)와 HDMI 케이블을 통해 연결되면, HDMI 포트의 특정 핀을 통해 감지되는 전압 즉, 핫 플러그 디텍트 신호가 0V에서 기설정된 전압(가령, 5V)로 천이된다.
이 경우, 소스 장치(200) 또는 음향 출력 장치(300)는 HDMI 케이블을 통하여 전자 장치(100)와 연결된 것으로 인식하고, 전자 장치(100)의 EDID 정보를 읽어올 수 있다. 한편, 전자 장치(100)의 오디오 모드가 eARC 모드인 경우, 프로세서(120)는 HDMI 케이블을 통하여 음향 출력 장치(300)와 연결된 것으로 인식하고, 음향 출력 장치(300)로부터 음향 출력 장치(300)의 CDS(Capability Data Structure) 정보를 읽어와 전자 장치(100)의 EDID에 업데이트 할 수 있다. 여기에서, CDS 정보는 eARC 기능을 지원하는 음향 출력 장치(300)에서 수신할 수 있는 오디오 정보를 의미한다.
프로세서(120)는 소스 장치(200)로부터 컨텐츠를 수신하고 컨텐츠의 오디오 데이터를 음향 출력 장치(300)에 제공할 수 있다(S402). 구체적으로, 프로세서(120)는 소스 장치(200)와 연결 시 제공한 EDID 정보를 기초로, 소스 장치(200)로부터 전자 장치(100)에서 재생 가능한 컨텐츠를 수신할 수 있다. 또한, 프로세서(120)는 음향 출력 장치(300)와 연결 시 음향 출력 장치(300)로부터 수신한 CDS 정보를 기초로, 음향 출력 장치(300)에서 출력 가능한 오디오 데이터를 제공할 수 있다.
한편, 연결 과정에서 EDID 정보의 전송 오류 또는 소스 장치(200) 또는 음향 출력 장치(300) 간의 케이블 연결 오류와 같은 다양한 원인으로 인하여 음향 출력 장치(300)에서 오디오 데이터가 출력되지 않을 수 있다.
이 경우, 프로세서(120)는 음향 출력 장치(300)에서 오디오 데이터가 출력되는지 확인할 수 있다(S403).
프로세서(120)는 음향 출력 장치(300)로부터 수신된 피드백 신호, 전자 장치(100)에서 음향 출력 장치(300)로 전송되는 오디오 데이터, 전자 장치(100)의 볼륨 값 중 적어도 하나를 이용하여 음향 출력 장치(300)에서 오디오 데이터가 출력되는지 확인할 수 있다.
구체적으로, 프로세서(120)는 전자 장치(100)에 설정된 볼륨 값을 확인하여 오디오 데이터가 오디오 모드에 따른 형식으로 변환되어 출력되었는지 확인할 수 있다. 또한, 프로세서(120)는 오디오 송신부(114)를 통하여 음향 출력 장치(300)로 전송된 오디오 데이터가 존재하는지 판단하여 오디오 데이터가 음향 출력 장치(300)로 출력되었는지 확인할 수 있다. 그리고, 프로세서(120)는 음향 출력 장치(300)로부터 피드백(feedback) 신호를 수신하여, 음향 출력 장치(300)가 오디오 데이터를 수신하고 수신한 오디오 데이터를 출력하였는지 확인할 수 있다. 그 밖에도 프로세서(120)는 전자 장치(100)에 포함된 마이크(미도시) 또는 전자 장치(100)와 연결된 외부 마이크(미도시)를 통하여 음향 출력 장치(300)가 오디오 데이터를 출력하는지 확인할 수 있다.
음향 출력 장치(300)에서 오디오 데이터가 출력되지 않는 것으로 확인된 경우(S403-N), 프로세서(120)는 전자 장치(100)의 오디오 모드를 확인할 수 있다(S404). 프로세서(120)는 전자 장치(100)에 설정된 오디오 모드 설정 값을 기초로, 전자 장치(100)의 오디오 모드를 확인할 수 있다.
그리고, 프로세서(120)는 오디오 처리부(130)가 HDMI를 통하여 오디오 데이터를 수신하는지 확인하고(S405), 확인 결과에 기초하여 음향 출력 오류를 소스 장치(200)의 출력 오류 또는 음향 출력 장치(300)의 출력 오류로 진단할 수 있다.
오디오 처리부(130)가 HDMI RX(111)로부터 오디오 데이터를 수신한 경우(S405-Y)는 HDMI RX(111)가 소스 장치(200)로부터 수신한 컨텐츠에서 오디오 데이터를 추출하였다는 것을 의미하며, 즉, 소스 장치(200)에 출력 오류가 존재하지 않는다는 것을 의미한다.
이 경우(S405-Y), 프로세서(120)는 오디오 모드에 기초하여 음향 출력 장치(300)와의 연결에서 발생된 출력 오류를 진단할 수 있다(S410). 이에 대하여는 도 6 및 도 7에서 후술하기로 한다.
오디오 처리부(130)가 HDMI RX(111)로부터 오디오 데이터를 수신하지 않은 경우(S405-N), 즉, HDMI RX(111)에서 오디오 처리부(130)로 전송한 오디오 데이터가 존재하지 않는 경우, 프로세서(120)는 소스 장치(200)로부터 수신한 오디오 데이터가 전자 장치(100)의 오디오 모드에 따른 포맷으로 변환 가능한 오디오 데이터인지 확인할 수 있다(S406).
구체적으로, 프로세서(120)는 소스 장치(200)로부터 수신한 오디오 데이터에 포함된 채널 상태 비트(channel status bits) 정보를 이용하여 오디오 데이터가 전자 장치(100)의 오디오 모드에 따른 포맷으로 변환 가능한 오디오 데이터인지 식별할 수 있다. 여기에서 채널 상태 비트 정보는 소스 장치(200)가 전자 장치(100)로 전송한 컨텐츠에 포함된 정보로 오디오 데이터의 포맷, 주파수, 사이즈 정보와 같은 다양한 정보를 포함할 수 있다.
소스 장치(200)로부터 수신된 오디오 데이터가 전자 장치(100)의 오디오 모드에 따른 포맷으로 변환 가능한 경우, 즉, 채널 상태 비트 정보가 전자 장치(100)에서 지원 가능한 오디오 데이터 스펙에 포함되는 경우, 소스 장치(200)는 전자 장치(100)에 적합한 오디오 데이터를 전송하였다는 것을 나타내는바, 프로세서(120)는 오디오 모드에 기초하여 출력 오류를 진단할 수 있다(S410). 이에 대하여는 도 6 및 도 7에서 후술하기로 한다.
한편, 소스 장치(200)로부터 수신한 오디오 데이터가 전자 장치(100)의 오디오 모드에 따른 오디오 데이터로 변환 가능하지 않은 경우(S406-N), 프로세서(120)는 소스 장치(200)의 출력 오류로 진단하고, 소스 장치(200)를 확인할 수 있다(S407).
구체적으로, 프로세서(120)는 소스 장치(200)와의 통신과 관련된 핫 플러그 디텍트 신호를 로우(low) 상태에서 하이(high) 상태로 변경하여, 즉 토글링(toggling)하여 소스 장치(200)와의 재연결을 수행할 수 있다. 더욱 구체적으로, 전자 장치(100)가 소스 장치(200)와 연결되는 경우, 핫 플러그 디텍트 신호가 하이 상태로 변경되어 유지되는데, 프로세서(120)는 하이 상태로 유지되던 핫 플러그 디텍트 신호를 로우 상태로 변경하고, 다시 로우 상태에서 하이 상태로 변경하여 소스 장치(200)와의 재연결을 수행할 수 있다.
한편, 본 개시의 일 실시 예에 따라, 프로세서(120)는, 도 5와 같이, 소스 장치(200)와 연결된 HDMI 케이블의 재연결을 안내하는 화면을 표시하도록 디스플레이(미도시)를 제어할 수 있다.
이때, 프로세서(120)는 사용자가 소스 장치(200)와 연결된 HDMI 케이블을 용이하게 식별할 수 있도록 소스 장치(200)와 연결된 HDMI 포트 및 HDMI 케이블이 표시된 화면을 표시하도록 디스플레이(미도시)를 제어할 수 있다. 도 5에서는 전자 장치(100)의 HDMI 포트 및 HDMI 케이블이 표시되었으나, 실시 예에 따라서는 소스 장치(200)의 HDMI 포트 및 HDMI 케이블이 표시될 수도 있다.
소스 장치(200)와의 재연결을 수행한 후 프로세서(120)는 음향 출력 장치(300)에서 오디오 데이터가 출력되는지 확인할 수 있다(S408). 이에 대한 설명은 S403 단계와 동일한 바, 중복된 설명은 생략한다.
소스 장치(200)와의 재연결을 수행한 후에도 컨텐츠의 오디오 데이터가 음향 출력 장치(300)에서 미 출력되는 것으로 확인되는 경우, 프로세서(120)는 전자 장치(100)의 오디오 모드를 변경할 수 있다(S409). 구체적으로, 전자 장치(100)의 오디오 모드가 eARC 모드인 경우 ARC 모드로 변경하고, 전자 장치(100)의 오디오 모드가 ARC 모드인 경우 내장 스피커 모드로 오디오 모드를 변경할 수 있다.
그리고, 프로세서(120)는 다시 S404 단계를 진행하여 전자 장치(100)의 음향 출력 오류를 진단할 수 있다.
도 6은 본 개시의 일 실시 예에 따라 eARC 모드일 경우 음향 출력 오류를 진단하는 전자 장치의 동작을 설명하기 위한 도면이다.
전자 장치의 오디오 모드가 eARC 모드인 경우, 프로세서(120)는 오디오 처리부(130)의 오디오 수신 여부(도 4의 S405), 소스 장치(200)로부터 수신된 오디오 데이터의 변환 가부(도 4의 S406), 수신된 오디오 신호의 출력 여부(S601), 오디오 출력 장치(300)에서 재생 가능한 오디오 정보(S603)를 순차적으로 확인하여, 소스 장치(200) 또는 음향 출력 장치(300) 중 적어도 하나의 출력 오류를 진단할 수 있다.
오디오 처리부(130)가 HDMI를 통하여 오디오 데이터를 수신하거나(도 4의 S405-Y), 오디오 데이터가 전자 장치(100)의 오디오 모드에 따른 오디오 데이터로 변환 가능한 경우(도4 S406-Y), 프로세서(120)는 오디오 처리부(130)에 의해 변환된 eARC 오디오 데이터가 음향 출력 장치(300)로 출력되었는지 확인할 수 있다(S601).
구체적으로, 프로세서(120)는 오디오 송신부(114) 내 eARC 송신부(113)를 통하여 eARC 오디오 데이터가 음향 출력 장치(300)로 전송되었는지 확인할 수 있다.
오디오 데이터가 오디오 모드(eARC 오디오 모드)에 따른 오디오 데이터(eARC 오디오 데이터)로 변환되어 음향 출력 장치(300)로 출력되지 않는 것으로 확인되면(S601-N), 프로세서(120)는 음향 출력 장치(300)를 확인할 수 있다(S602).
구체적으로, 프로세서(120)는 음향 출력 장치(300)와의 통신과 관련된 핫 플러그 디텍트 신호를 로우(low) 상태에서 하이(high) 상태로 변경하여, 즉 토글링(toggling)하여 음향 출력 장치(300)와의 재연결을 수행할 수 있다. 더욱 구체적으로, 전자 장치(100)가 음향 출력 장치(300)와 연결되는 경우, 핫 플러그 디텍트 신호가 하이 상태로 변경되어 유지되는데, 프로세서(120)는 하이 상태로 유지되던 핫 플러그 디텍트 신호를 로우 상태로 변경하고 다시 로우 상태에서 하이 상태로 변경하여 음향 출력 장치(300)와의 재연결을 수행할 수 있다.
한편, 도 5에서 상술한 바와 마찬가지로, 프로세서(120)는 음향 출력 장치(300)와 연결된 HDMI 케이블의 재연결을 안내하는 화면을 표시하도록 디스플레이(미도시)를 제어할 수 있다. 이에 대한 설명은 도 5의 소스 장치(200)를 음향 출력 장치(300)로 변경한 경우와 동일하므로, 구체적인 설명은 생략한다.
한편, 오디오 데이터가 오디오 모드에 따른 오디오 데이터로 변환되어 음향 출력 장치(300)로 출력되는 것으로 확인되면(S601-Y), 프로세서(120)는 변환된 오디오 데이터가 음향 출력 장치(300)에서 재생 가능한 오디오 데이터인지 식별할 수 있다(S603).
구체적으로, 프로세서(120)는 음향 출력 장치(300)와의 연결 시 음향 출력 장치(300)로부터 수신한 CDS 정보를 기초로, 변환된 오디오 데이터가 음향 출력 장치(300)에서 재생 가능한 오디오 데이터인지 확인할 수 있다.
변환된 오디오 데이터가 음향 출력 장치(300)에서 재생 가능한 오디오 데이터인 경우(S603-Y), 프로세서(120)는 음향 출력 장치(300)를 확인할 수 있다(S605).
이때, 전자 장치(100)가 eARC 송신부(113)를 통해 eARC 오디오 데이터를 음향 출력 장치(300)에 송신하고 송신되는 eARC 오디오 데이터는 음향 출력 장치(300)에서 재생 가능한 오디오 데이터라는 점에서, 프로세서(120)는 HDMI 포트(116)가 eARC 오디오 데이터를 전송하는데 사용되도록 핫 플러그 디텍트 신호를 HDMI 포트(116)를 통하여 음향 출력 장치(300)에 전송하지 않을 수 있다. 대신, 프로세서(120)는 소프트웨어적으로 핫 플러그 디텍트를 수행하는 것과 동일한 동작을 수행하여 음향 출력 장치(300)와 재연결될 수 있다.
한편, 식별 결과 변환된 오디오 데이터가 음향 출력 장치(300)에서 재생 불가능한 오디오 데이터인 경우(S603-N), 프로세서(120)는 음향 출력 장치(300)에 음향 출력 장치(300)에서 재생 가능한 오디오 데이터에 관한 정보를 요청할 수 있다(S604). 구체적으로, 프로세서(120)는 음향 출력 장치(300)에서 재생 가능한 오디오 데이터에 관한 정보(CDS 정보)를 요청하는 신호를 음향 출력 장치(300)에 전송하도록 통신 인터페이스(110)를 제어할 수 있다.
한편, 음향 출력 장치를 확인하거나(S602, 605), 음향 출력 장치(300)에 재생 가능한 오디오 데이터에 관한 정보를 요청(S604)한 후, 프로세서(120)는 음향 출력 장치(300)에서 오디오 데이터가 출력되는지 확인할 수 있다(S606). 이에 관한 설명은 도 4의 S404 단계의 설명과 동일한 바 중복된 설명은 생략한다.
음향 출력 장치(300)에 재생 가능한 오디오 데이터에 관한 정보를 요청(S604)한 후 또는 재연결 후에도 음향 출력 장치(300)에서 컨텐츠의 오디오 데이터가 출력되지 않는 경우(S606-N), 프로세서(120)는 전자 장치(100)의 오디오 모드를 eARC 모드에서 ARC 모드로 변경할 수 있다(S607).
그리고, 프로세서(120)는 ARC 모드에서 음향 출력 오류를 진단할 수 있다.
도 7은 본 개시의 일 실시 예에 따라 ARC 모드일 경우 음향 출력 오류를 진단하는 전자 장치의 동작을 설명하기 위한 도면이다.
전자 장치(100)의 오디오 모드가 ARC 모드이면, 프로세서(120)는 오디오 처리부(130)의 오디오 수신 여부(도 4의 S405), 소스 장치(200)로부터 수신된 오디오 데이터의 변환 가부(도 4의 S406) 및 오디오 데이터의 출력 여부(S701)를 순차적으로 확인하여, 소스 장치 또는 음향 출력 장치 중 적어도 하나의 출력 오류를 진단할 수 있다.
오디오 처리부(130)가 HDMI를 통하여 오디오 데이터를 수신하거나(도 4의 S405-Y), 오디오 데이터가 전자 장치(100)의 오디오 모드에 따른 오디오 데이터로 변환 가능한 경우(도4 S406-Y), 프로세서(120)는 오디오 처리부(130)에 의해 변환된 ARC 오디오 데이터가 음향 출력 장치(300)로 출력되었는지 확인할 수 있다(S701).
구체적으로, 프로세서(120)는 오디오 송신부(114) 내 ARC 송신부(112)를 통하여 ARC 오디오 데이터가 음향 출력 장치(300)로 전송되었는지 확인할 수 있다.
오디오 데이터가 ARC 오디오 모드에 따른 ARC 오디오 데이터로 변환되어 음향 출력 장치(300)로 출력되지 않는 것으로 확인되면(S701-N), 프로세서(120)는 ARC 송신부(112)를 리셋할 수 있다(S702). 여기에서, ARC 송신부(112)를 리셋하는 것은 ARC 송신부를 통하여 출력되는 신호를 리셋하는 것을 의미한다.
한편, 오디오 데이터가 ARC 오디오 보드에 따른 ARC 오디오 데이터로 변환되어 음향 출력 장치(300)로 출력되는 것으로 확인되면(S701-Y), 프로세서(120)는 음향 출력 장치(300)를 확인할 수 있다(S705). 음향 출력 장치(300)를 확인하는 것과 관련된 내용은 도 6의 S602 단계와 동일한 바 중복된 설명은 생략하도록 한다.
ARC 송신부(112)를 리셋(S702)하거나, 음향 출력 장치(300)를 확인(S705)한 이후, 프로세서(120)는 음향 출력 장치(300)에서 오디오 데이터가 출력되는지 확인할 수 있다(S703). 이에 대한 설명은 도 4의 S404 단계와 동일한 바 중복된 설명은 생략한다.
ARC 송신부(112)를 리셋(S702)하거나, 음향 출력 장치(300)를 확인(S705)한 후에도 음향 출력 장치(300)에서 오디오 데이터가 출력되지 않으면(S703-N), 프로세서(120)는 전자 장치(100)의 오디오 모드를 내장 스피커 모드로 변경할 수 있다(S704).
이에 따라, 프로세서(120)는 외부 음향 출력 장치(300)가 아닌, 전자 장치(100)에 포함된 스피커(미도시)를 통하여 오디오 데이터를 출력할 수 있다.
도 8은 본 개시의 일 실시 예에 따른 전자 장치의 세부 구성을 설명하기 위한 블록도이다.
도 8을 참조하면, 전자 장치(100)는 통신 인터페이스(110), 프로세서(120), 오디오 처리부(130), 수신부(140), 메모리(150), 디스플레이(160) 및 사용자 인터페이스(170)를 포함한다. 도 8에 도시된 구성 중 도 2 및 도3에서 상술한 통신 인터페이스(110), 프로세서(120) 및 오디오 처리부(130)와 중복되는 설명은 생략한다.
통신 인터페이스(110)는 상술한 HDMI 포트 이외에 외부 기기가 접속될 수 있는 다양한 유/무선 인터페이스를 더 포함할 수 있다. 예를 들어, USB 단자, CVBS(Composite Video Banking Sync) 단자, 컴포넌트 단자, S-비디오 단자(아날로그), DVI(Digital VisualInterface) 단자 등의 유선 인터페이스 및, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, 블루투스(Bluetooth), FID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(UltraWideband), 지그비(ZigBee), DLNA(Digital Living Network Alliance) 등의 통신 프로토콜을 이용하는 무선 인터페이스를 포함할 수 있다.
수신부(140)는 적어도 하나의 튜너(141), 복조부(142) 및 네트워크 인터페이스(143)를 포함할 수 있다. 경우에 따라, 수신부(140)는 튜너(141)와 복조부(142)는 구비하나 네트워크 인터페이스(143)는 포함하지 않을 수 있으며 그 반대의 경우일 수도 있다. 튜너(141)는 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널 또는 기저장된 모든 채널을 튜닝하여 RF 방송 신호를 수신한다. 복조부(142)는 튜너(141)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조하고, 채널 복호화 등을 수행할 수도 있다.
네트워크 인터페이스(143)는 전자 장치(100)를 인터넷 망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 네트워크 인터페이스(143)는 유선 네트워크와의 접속을 위해 예를 들어, 이더넷(Ethernet) 단자 등을 구비할 수 있으며, 무선 네트워크와의 접속을 위해 예를 들어, WLAN(WirelessLAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 통신 규격 등을 이용할 수 있다.
메모리(150)는 프로세서(120) 내의 각 신호 처리 및 제어를 위한 프로그램을 저장할 수도 있고, 신호 처리된 영상, 음성 또는 데이터 신호를 저장할 수도 있다. 또한, 메모리(150)는 통신 인터페이스(110) 또는 네트워크 인터페이스(143)로부터 입력되는 영상, 음성, 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다. 또한, 메모리(150)에는 전자 장치(100)의 EDID 정보가 저장되어 있을 수 있다.
디스플레이(160)는 프로세서(120)에서 처리된 영상 신호, 데이터 신호, OSD 신호 또는 외부 인터페이스(미도시)에서 수신되는 영상 신호, 데이터 신호 등을 각각 R, G, B 신호로 변환하여 구동 신호를 생성한다. 디스플레이(160)는 PDP, LCD, OLED, 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 터치 스크린 등으로 구현될 수 있다.
사용자 인터페이스(170)는 사용자에 의해 입력된 명령을 프로세서(120)로 전달하거나 프로세서(120)의 신호를 사용자에게 전달한다. 예를 들어, 사용자 인터페이스(170)는, RF 통신 방식, 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격 제어 장치(미도시)와 통신을 수행하는 형태로 구현되거나, 전자 장치(100)에 구비된 키 패널 형태로 구현될 수도 있다.
도 9는 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
전자 장치(100)는 소스 장치(200) 및 음향 출력 장치(300)와 연결될 수 있다. 이때, 소스 장치(200) 및 음향 출력 장치(300)는 각각 HDMI를 통하여 전자 장치(100)와 연결될 수 있다.
소스 장치(200)의 컨텐츠를 수신하여 컨텐츠의 오디오 데이터를 음향 출력 장치(300)에 제공할 수 있다(S910).
그리고, 전송된 컨텐츠의 오디오 데이터가 음향 출력 장치(300)에서 출력되는지 확인할 수 있다.
구체적으로, 음향 출력 장치(300)로부터 수신된 피드백 신호, 전자 장치(100)에서 음향 출력 장치(300)로 전송되는 오디오 데이터, 전자 장치(100)의 볼륨 값 중 적어도 하나를 이용하여 음향 출력 장치(300)에서 오디오 데이터가 출력되는지 확인할 수 있다.
컨텐츠의 오디오 데이터가 음향 출력 장치(300)에서 미 출력되면, 전자 장치(100)의 오디오 모드에 기초하여 소스 장치 또는 음향 출력 장치 중 적어도 하나의 출력 오류를 진단할 수 있다(S920). 여기에서, 오디오 모드는 eARC 모드, ARC 모드, 내장 스피커 모드를 포함할 수 있다.
전자 장치(100)의 오디오 모드가 강화된 오디오 리턴 채널 모드이면, 오디오 처리부의 오디오 수신 여부, 소스 장치(200)로부터 수신된 오디오 데이터의 변환 가부, 전자 장치(100)에서 오디오 데이터의 출력 여부 및 오디오 출력 장치(300)에서 출력 가능한 오디오 정보를 순차적으로 확인하여 소스 장치(200) 또는 음향 출력 장치(300) 중 적어도 하나의 출력 오류를 진단할 수 있다.
전자 장치(100)의 오디오 모드가 오디오 리턴 채널 모드이면, 오디오 처리부의 오디오 데이터 수신 여부, 소스 장치(200)로부터 수신된 오디오 데이터의 변환 가부 및 전자 장치(100)에서 오디오 데이터의 출력 여부를 순차적으로 확인하여 소스 장치(200) 또는 음향 출력 장치(300) 중 적어도 하나의 출력 오류를 진단할 수 있다.
구체적으로, 오디오 데이터에 포함된 채널 상태 비트(channel status bits) 정보를 이용하여 오디오 데이터가 전자 장치(100)의 오디오 모드에 따른 포맷으로 변환 가능한 오디오 데이터인지 식별하고, 오디오 데이터가 전자 장치(100)의 오디오 모드에 따른 포맷으로 변환 가능하지 않으면 소스 장치(200)의 출력 오류로 진단할 수 있다.
일 실시 예에 따라 전자 장치(100)에 포함된 오디오 처리부가 HDMI를 통하여 오디오 데이터를 수신하는지 확인하고, 확인 결과에 기초하여 소스 장치의 출력 오류로 진단할 수 있다.
다른 일 실시 예에 따라, 전자 장치(100)에 포함된 오디오 처리부가 HDMI를 통하여 오디오 데이터를 수신한 후, 오디오 데이터가 오디오 모드에 따른 오디오 데이터로 변환되어 음향 출력 장치(300)로 출력되는지 확인하고, 확인 결과에 기초하여, 음향 출력 장치의 출력 오류로 진단할 수 있다.
또는, 오디오 데이터가 오디오 모드에 따른 오디오 데이터로 변환되어 음향 출력 장치(300)로 출력되는 것으로 확인되면, 변환된 오디오 데이터가 음향 출력 장치(300)에서 재생 가능한 오디오 데이터인지 식별하고, 식별 결과 변환된 오디오 데이터가 음향 출력 장치(300)에서 재생 불가능한 오디오 데이터인 경우, 음향 출력 장치에 음향 출력 장치에서 재생 가능한 오디오 데이터에 관한 정보를 요청할 수 있다.
그리고, 진단 결과에 기초하여 소스 장치(200) 또는 음향 출력 장치(300) 중 적어도 하나에 대한 재연결을 수행할 수 있다(S930).
구체적으로, 소스 장치(200) 또는 음향 출력 장치(300) 중 적어도 하나와의 통신과 관련된 핫 플러그 디텍트 신호를 로우 상태에서 하이 상태로 변경하여 소스 장치(200) 또는 음향 출력 장치(300)와의 재연결을 수행할 수 있다.
재연결 후에도 컨텐츠의 오디오 데이터가 음향 출력 장치(300)에서 미 출력되면, 오디오 모드를 변경할 수 있다(S940). 구체적으로, eARC 모드를 ARC모드로, ARC모드를 내장 스피커 모드로 변경할 수 있다.
이상에서, 전자 장치(100) 또는 전자 장치(100)를 통해 수행되는 것으로 기재된 다양한 동작들은, 전자 장치의 제어 방법 내지는 동작 방법의 형태로 하나 이상의 전자 장치를 통해 수행될 수 있다.
한편, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다.
하드웨어적인 구현에 의하면, 본 개시에서 설명되는 실시 예들은 ASICs(Application Specific Integrated Circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(Programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processor), 컨트롤러(controller), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessor), 기타 기능 수행을 위한 전기적인 유닛(unit) 중 적어도 하나를 이용하여 구현될 수 있다.
일부의 경우에 본 명세서에서 설명되는 실시 예들이 프로세서 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상술한 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 사용자 장치 또는 관리자 장치에서의 처리동작을 수행하기 위한 컴퓨터 명령어(computer instructions)는 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium)에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어는 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 사용자 장치 및/또는 관리자 장치의 처리 동작을 상술한 특정 기기가 수행하도록 한다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시가 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해돼서는 안 될 것이다.

Claims (15)

  1. 소스 장치 및 음향 출력 장치와 연결된 전자 장치의 제어 방법에 있어서,
    상기 소스 장치의 컨텐츠를 수신하여 상기 컨텐츠의 오디오 데이터를 상기 음향 출력 장치로 제공하는 단계;
    상기 컨텐츠의 오디오 데이터가 상기 음향 출력 장치에서 미 출력되면, 상기 전자 장치의 오디오 모드에 기초하여 상기 소스 장치 또는 상기 음향 출력 장치 중 적어도 하나의 출력 오류를 진단하는 단계;
    상기 진단 결과에 기초하여 상기 소스 장치 또는 상기 음향 출력 장치 중 적어도 하나에 대한 재연결을 수행하는 단계; 및
    상기 재연결 후에도 상기 컨텐츠의 오디오 데이터가 상기 음향 출력 장치에서 미 출력되면, 상기 오디오 모드를 변경하는 단계;를 포함하는, 제어 방법.
  2. 제1항에 있어서,
    상기 진단하는 단계는,
    상기 전자 장치에 포함된 오디오 처리부가 HDMI를 통하여 상기 오디오 데이터를 수신하는지 확인하는 단계;
    상기 오디오 데이터에 포함된 채널 상태 비트(channel status bits) 정보를 이용하여 상기 오디오 데이터가 상기 전자 장치의 오디오 모드에 따른 포맷으로 변환 가능한 오디오 데이터인지 식별하는 단계; 및
    상기 오디오 처리부가 오디오 데이터를 수신하지 않거나, 상기 오디오 데이터가 상기 전자 장치의 오디오 모드에 따른 포맷으로 변환 가능하지 않으면, 상기 소스 장치의 출력 오류로 진단하는 단계;를 포함하는, 제어 방법.
  3. 제1항에 있어서,
    상기 진단하는 단계는,
    상기 전자 장치에 포함된 오디오 처리부가 HDMI를 통하여 상기 오디오 데이터를 수신한 경우, 상기 오디오 데이터가 상기 오디오 모드에 따른 오디오 데이터로 변환되어 상기 음향 출력 장치로 출력되는지 확인하는 단계; 및
    상기 확인 결과에 기초하여, 상기 음향 출력 장치의 출력 오류로 진단하는 단계;를 포함하는 제어 방법.
  4. 제1항에 있어서,
    상기 진단하는 단계는,
    상기 오디오 데이터가 상기 오디오 모드에 따른 오디오 데이터로 변환되어 상기 음향 출력 장치로 출력되는 것으로 확인되면, 상기 변환된 오디오 데이터가 상기 음향 출력 장치에서 재생 가능한 오디오 데이터인지 식별하는 단계;를 포함하고,
    상기 제어 방법은,
    상기 식별 결과 변환된 오디오 데이터가 상기 음향 출력 장치에서 재생 불가능한 오디오 데이터인 경우, 상기 음향 출력 장치에 상기 음향 출력 장치에서 재생 가능한 오디오 데이터에 관한 정보를 요청하는 단계;를 더 포함하는, 제어 방법.
  5. 제1항에 있어서,
    상기 진단하는 단계는,
    상기 전자 장치의 오디오 모드가 강화된 오디오 리턴 채널(enhanced Audio Return Channel, eARC) 모드이면, 오디오 처리부의 상기 오디오 데이터 수신 여부, 상기 소스 장치로부터 수신된 오디오 데이터의 변환 가부, 상기 전자 장치에서 오디오 데이터의 출력 여부 및 상기 오디오 출력 장치에서 출력 가능한 오디오 정보를 순차적으로 확인하여 상기 소스 장치 또는 상기 음향 출력 장치 중 적어도 하나의 출력 오류를 진단하는 제어 방법.
  6. 제1항에 있어서,
    상기 진단하는 단계는,
    상기 전자 장치의 오디오 모드가 오디오 리턴 채널(Audio Return Channel, ARC) 모드이면, 오디오 처리부의 상기 오디오 데이터 수신 여부, 상기 소스 장치로부터 수신된 오디오 데이터의 변환 가부 및 상기 전자 장치에서 오디오 데이터의 출력 여부를 순차적으로 확인하여 상기 소스 장치 또는 상기 음향 출력 장치 중 적어도 하나의 출력 오류를 진단하는 제어 방법.
  7. 제1항에 있어서,
    상기 소스 장치 및 상기 오디오 출력 장치는 HDMI를 통해 연결되고,
    상기 오디오 모드는, 상기 오디오 리턴 채널 (Audio Return Channel, ARC) 모드, 강화된 오디오 리턴 채널 (enhanced Audio Return Channel, eARC) 모드, 내장 스피커 모드를 포함하는, 제어 방법.
  8. 제1항에 있어서,
    상기 재연결을 수행하는 단계는,
    상기 소스 장치 또는 상기 음향 출력 장치 중 적어도 하나와의 통신과 관련된 핫 플러그 디텍트(hot plug detect) 신호를 로우 상태에서 하이 상태로 변경하여 상기 소스 장치 또는 상기 음향 출력 장치와의 재연결을 수행하는 단계;를 포함하는, 제어 방법.
  9. 제1항에 있어서,
    상기 출력 오류를 진단하는 단계는,
    상기 음향 출력 장치로부터 수신된 피드백 신호, 상기 전자 장치에서 음향 출력 장치로 전송되는 오디오 데이터, 상기 전자 장치의 볼륨 값 중 적어도 하나를 이용하여 상기 음향 출력 장치에서 상기 오디오 데이터가 출력되는지 확인하는 단계; 및
    상기 음향 출력 장치에서 상기 오디오 데이터가 미 출력되는 것으로 확인되면, 상기 전자 장치의 오디오 모드에 기초하여 상기 소스 장치 또는 상기 음향 출력 장치 중 적어도 하나의 출력 오류를 진단하는 단계;를 포함하는, 제어 방법.
  10. 전자 장치에 있어서,
    소스 장치 및 음향 출력 장치와 통신을 수행하는 통신 인터페이스; 및
    상기 소스 장치의 컨텐츠를 수신하여 상기 컨텐츠의 오디오 데이터를 상기 음향 출력 장치로 제공하도록 상기 통신 인터페이스를 제어하고,
    상기 컨텐츠의 오디오 데이터가 상기 음향 출력 장치에서 미 출력되면, 상기 전자 장치의 오디오 모드에 기초하여 상기 소스 장치 또는 상기 음향 출력 장치 중 적어도 하나의 출력 오류를 진단하고,
    상기 진단 결과에 기초하여 상기 소스 장치 또는 상기 음향 출력 장치 중 적어도 하나에 대한 재연결을 수행하며,
    상기 재연결 후에도 상기 컨텐츠의 오디오 데이터가 상기 음향 출력 장치에서 미 출력되면, 상기 오디오 모드를 변경하는, 프로세서;를 포함하는, 전자 장치.
  11. 제10항에 있어서,
    오디오 처리부;를 더 포함하고,
    상기 통신 인터페이스는 HDMI를 포함하며,
    상기 프로세서는,
    상기 오디오 처리부가 HDMI를 통하여 상기 오디오 데이터를 수신하는지 확인하고,
    상기 오디오 데이터에 포함된 채널 상태 비트(channel status bits) 정보를 이용하여 상기 오디오 데이터가 상기 전자 장치의 오디오 모드에 따른 포맷으로 변환 가능한 오디오 데이터인지 식별하고,
    상기 오디오 처리부가 오디오 데이터를 수신하지 않거나, 상기 오디오 데이터가 상기 전자 장치의 오디오 모드에 따른 포맷으로 변환 가능하지 않으면, 상기 소스 장치의 출력 오류로 진단하는, 전자 장치.
  12. 제10항에 있어서,
    오디오 처리부;를 더 포함하고,
    상기 통신 인터페이스는 HDMI를 포함하며,
    상기 프로세서는,
    상기 오디오 처리부가 HDMI를 통하여 상기 오디오 데이터를 수신한 경우, 상기 오디오 데이터가 상기 오디오 모드에 따른 오디오 데이터로 변환되어 상기 음향 출력 장치로 출력되는지 확인하고,
    상기 확인 결과에 기초하여 상기 음향 출력 장치의 출력 오류로 진단하는, 전자 장치.
  13. 제10항에 있어서,
    상기 프로세서는,
    상기 오디오 데이터가 상기 오디오 모드에 따른 오디오 데이터로 변환되어 상기 음향 출력 장치로 출력되는 것으로 확인되면, 상기 변환된 오디오 데이터가 상기 음향 출력 장치에서 재생 가능한 오디오 데이터인지 식별하고,
    상기 식별 결과 변환된 오디오 데이터가 상기 음향 출력 장치에서 재생 불가능한 오디오 데이터인 경우, 상기 음향 출력 장치에 상기 음향 출력 장치에서 재생 가능한 오디오 데이터에 관한 정보를 요청하는 신호를 전송하도록 상기 통신 인터페이스를 제어하는, 전자 장치.
  14. 제10항에 있어서,
    상기 프로세서는,
    상기 전자 장치의 오디오 모드가 강화된 오디오 리턴 채널 모드이면, 오디오 처리부의 상기 오디오 데이터 수신 여부, 상기 소스 장치로부터 수신된 오디오 데이터의 변환 가부, 상기 전자 장치에서 오디오 데이터의 출력 여부, 및 상기 오디오 출력 장치에서 출력 가능한 오디오 정보를 순차적으로 확인하여 상기 소스 장치 또는 상기 음향 출력 장치 중 적어도 하나의 출력 오류를 진단하는, 전자 장치.
  15. 제10항에 있어서,
    상기 프로세서는,
    상기 전자 장치의 오디오 모드가 오디오 리턴 채널 모드이면, 오디오 처리부의 상기 오디오 데이터 수신 여부, 상기 소스 장치로부터 수신된 오디오 데이터의 변환 가부 및 상기 전자 장치에서 오디오 데이터의 출력 여부를 순차적으로 확인하여 상기 소스 장치 또는 상기 음향 출력 장치 중 적어도 하나의 출력 오류를 진단하는, 전자 장치.
PCT/KR2021/010323 2020-08-13 2021-08-05 전자 장치 및 이의 제어 방법 WO2022035126A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/108,178 US20230195405A1 (en) 2020-08-13 2023-02-10 Electronic apparatus and control method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0101791 2020-08-13
KR1020200101791A KR20220021218A (ko) 2020-08-13 2020-08-13 전자 장치 및 이의 제어 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/108,178 Continuation US20230195405A1 (en) 2020-08-13 2023-02-10 Electronic apparatus and control method thereof

Publications (1)

Publication Number Publication Date
WO2022035126A1 true WO2022035126A1 (ko) 2022-02-17

Family

ID=80246761

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/010323 WO2022035126A1 (ko) 2020-08-13 2021-08-05 전자 장치 및 이의 제어 방법

Country Status (3)

Country Link
US (1) US20230195405A1 (ko)
KR (1) KR20220021218A (ko)
WO (1) WO2022035126A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080032794A (ko) * 2006-10-11 2008-04-16 삼성전자주식회사 데이터저장부를 갖는 전자장치 및 그 제어방법
KR20130112306A (ko) * 2012-04-03 2013-10-14 한국전력공사 전력 기기 음향 진단 장치 및 방법
KR101327214B1 (ko) * 2012-09-21 2013-11-11 시그마엘텍(주) 스피커 이상음 검사방법 및 이를 이용한 스피커 검사장치
KR20140118425A (ko) * 2013-03-29 2014-10-08 주식회사 케이디파워 음향 고장진단 장치를 구비한 수배전반
US20160142455A1 (en) * 2014-11-14 2016-05-19 Qualcomm Incorporated Multi-channel audio alignment schemes

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080032794A (ko) * 2006-10-11 2008-04-16 삼성전자주식회사 데이터저장부를 갖는 전자장치 및 그 제어방법
KR20130112306A (ko) * 2012-04-03 2013-10-14 한국전력공사 전력 기기 음향 진단 장치 및 방법
KR101327214B1 (ko) * 2012-09-21 2013-11-11 시그마엘텍(주) 스피커 이상음 검사방법 및 이를 이용한 스피커 검사장치
KR20140118425A (ko) * 2013-03-29 2014-10-08 주식회사 케이디파워 음향 고장진단 장치를 구비한 수배전반
US20160142455A1 (en) * 2014-11-14 2016-05-19 Qualcomm Incorporated Multi-channel audio alignment schemes

Also Published As

Publication number Publication date
US20230195405A1 (en) 2023-06-22
KR20220021218A (ko) 2022-02-22

Similar Documents

Publication Publication Date Title
WO2019216563A1 (en) Electronic device and control method thereof
WO2020054941A1 (ko) 전자 장치 및 그 제어 방법
US9900653B2 (en) Transmission device and reception device
JP6217813B2 (ja) 受信装置および受信方法
JP5428186B2 (ja) 電子機器
US8918829B2 (en) Communication system and transmitting-receiving device
US8402135B2 (en) DLNA-compliant device, DLNA connection setting method, and program
JP5391911B2 (ja) 電子機器
WO2017142197A1 (en) Electronic device and control method thereof
WO2016060447A2 (ko) Hdmi를 사용한 데이터 송수신 기기 및 방법
US20100275234A1 (en) Display apparatus, data transmitting method in display apparatus, transmission apparatus, and data receiving method in transmission apparatus
WO2009133854A1 (ja) 送信装置、情報送信方法、受信装置および情報処理方法
WO2015190841A1 (ko) 데이터 송수신 기기 및 방법
WO2013172662A1 (ko) Hdmi cec 성능 향상을 위한 시스템 및 그 제어 방법
JP2009284403A (ja) 情報処理装置、情報処理方法、プログラムおよびコンテンツ受信装置
WO2022035126A1 (ko) 전자 장치 및 이의 제어 방법
WO2022092535A1 (ko) 전자 장치 및 그 제어 방법
WO2022260213A1 (en) Method of controlling sink device, source device, and high-definition multimedia interface (hdmi)
JP5477506B1 (ja) 送信装置および情報処理方法
JP5522332B1 (ja) 受信装置および情報処理方法
WO2024043456A1 (ko) 싱크 장치, 소스 장치 및 그 제어 방법
JP5910660B2 (ja) 送信装置および情報処理方法
JP5910661B2 (ja) 受信装置および情報処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21856132

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21856132

Country of ref document: EP

Kind code of ref document: A1