WO2021096036A1 - 디스플레이형 ai 스피커의 제어방법 및 그 장치 - Google Patents

디스플레이형 ai 스피커의 제어방법 및 그 장치 Download PDF

Info

Publication number
WO2021096036A1
WO2021096036A1 PCT/KR2020/011544 KR2020011544W WO2021096036A1 WO 2021096036 A1 WO2021096036 A1 WO 2021096036A1 KR 2020011544 W KR2020011544 W KR 2020011544W WO 2021096036 A1 WO2021096036 A1 WO 2021096036A1
Authority
WO
WIPO (PCT)
Prior art keywords
speaker
mode
display
response
voice
Prior art date
Application number
PCT/KR2020/011544
Other languages
English (en)
French (fr)
Inventor
오정엽
이동진
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2021096036A1 publication Critical patent/WO2021096036A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/028Casings; Cabinets ; Supports therefor; Mountings therein associated with devices performing functions other than acoustics, e.g. electric candles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1058Manufacture or assembly
    • H04R1/1066Constructional aspects of the interconnection between earpiece and earpiece support
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/15Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops

Definitions

  • Embodiments disclosed in this document relate to a method and apparatus for controlling a display type AI speaker for providing a user with a quick execution mode of the display type AI speaker.
  • AI devices such as AI speakers and display-type AI speakers
  • users are increasingly using services or functions through AI devices.
  • a display-type AI speaker users usually enter commands into the device by voice. Through this, it is possible to conveniently use the AI speaker from a distance without manipulating touch input or the like.
  • An apparatus is an AI speaker device, wherein the housing, the housing comprises a first surface forming a bottom surface of the AI speaker, and a second surface adjacent to the first surface. And a third surface adjacent to the first surface and the second surface at the same time; A display disposed on the second surface; At least one sensor; MIC; speaker; A memory in which instructions are stored; And a processor electrically connected to the display, the at least one sensor, the microphone, the speaker, and the memory, wherein the processor is configured to: In response to determining that it is facing this first direction, the AI speaker is controlled in a first mode, and while operating in the first mode: the microphone acquires a first voice input for activating a voice recognition function, and And activating the speech recognition function in response to acquiring the first speech input, and displaying a result of processing through the speech recognition function corresponding to a second speech input following the first speech input by displaying at least one of the speaker or the display. Output using the at least one sensor, and in response to the processor determining
  • a processor in the method of controlling an AI speaker, through at least one sensor of the AI speaker, a processor is provided with a first surface of the housing of the AI speaker in a first direction.
  • controlling, by the processor, the AI speaker in a first mode An operation of obtaining, by a microphone, a first voice input for activating a voice recognition function by a microphone of the AI speaker while operating in the first mode;
  • the processor determines that the third side of the AI speaker faces the
  • a recording medium is a non-transitory recording medium that stores computer-readable instructions, wherein the instructions are executed by at least one processor of an electronic device in which the instructions are stored: AI Through at least one sensor of the speaker, the processor determines that the first surface of the housing of the AI speaker faces the first direction, and the housing of the AI speaker comprises the first surface forming the bottom surface of the AI speaker.
  • controlling, by the processor, the AI speaker in a first mode Obtaining, by the microphone of the AI speaker, a first voice input for activating a voice recognition function while operating in the first mode;
  • the processor is set to switch the AI speaker from the first mode to the second mode. It is a medium.
  • users using display-type AI speakers can quickly and easily use functions of AI speakers that are frequently used in daily life through intuitive mode switching.
  • FIG. 1 illustrates a housing of a display-type AI speaker having a first shape according to an exemplary embodiment.
  • FIG. 2 illustrates a housing of a display-type AI speaker having a second shape according to an exemplary embodiment.
  • FIG. 3 is a block diagram of an electronic device 301 according to an exemplary embodiment.
  • FIG. 4 is a flowchart illustrating a method of processing a voice command according to the first mode 101 or the second mode 102 according to an exemplary embodiment.
  • FIG. 5 is a flowchart illustrating a mode change from the first mode 101 to the second mode 102 according to an exemplary embodiment.
  • FIG 6 illustrates an example of voice command processing of an AI speaker controlled in the first mode 101 according to an embodiment.
  • FIG. 7 illustrates an example of processing a voice command by an AI speaker controlled in the second mode 102 according to an embodiment.
  • FIG 8 is a diagram for mode switching from the inactive mode 801 to the second mode 102 according to an embodiment.
  • FIG. 1 illustrates a housing of a display-type AI speaker having a first shape according to an exemplary embodiment.
  • a housing shape of the electronic device 100 may include a hexahedral housing.
  • the housing of the electronic device 100 includes a first surface 103 forming a bottom surface of the AI speaker, a second surface 104 adjacent to the first surface 103, and the first surface 103. It may include a third surface adjacent to the second surface 104 at the same time.
  • a bottom surface of the electronic device 100 may correspond to a first surface 103
  • a front surface on which the display 106 is located may correspond to a second surface 104
  • a side surface of the electronic device 100 may correspond to a third surface, respectively.
  • the side portion may be adjacent to the bottom surface and the front portion at the same time.
  • the side portion may not be adjacent to the bottom surface and the front portion at the same time.
  • the connection area (connection surface) may be located between the side surface and the bottom surface.
  • the connection area (connection surface) may be located between the side portion and the front portion.
  • a connection area (connection surface) having a cut shape may be formed between the side portion and the bottom surface or the side surface. It may be located between the part and the front part.
  • the side portion may include a left side portion and a right side portion.
  • the third surface corresponding to the left side portion is not shown, and the third surface 105 corresponding to the right side portion is shown.
  • the display 106 may be located on at least a portion of the second surface 104.
  • the speaker 108 or the microphone may be located on at least one of the housing surfaces.
  • Each corner of the electronic device 301 may form a curved surface so that each surface is smoothly connected.
  • the electronic device 100 when the first surface 103 of the housing faces the ground, the electronic device 100 may be controlled in the first mode 101.
  • the first mode 101 may mean a general use mode.
  • the electronic device 100 when the longer side of the hexahedral housing of the electronic device 100 faces the ground, the electronic device 100 may be controlled in the first mode 101.
  • the housing surface of the electronic device 100 supported on the ground may be changed.
  • An arbitrary direction of rotation may change the surface of the housing of the electronic device 100 supported on the ground.
  • the user may rotate the electronic device 100 clockwise to change the housing surface supported on the ground to a third surface (not shown) corresponding to the left side.
  • the user may rotate the electronic device 100 counterclockwise to change the housing surface supported on the ground to the third surface 105 corresponding to the right side.
  • the electronic device 100 may be controlled in the second mode 102.
  • the electronic device 100 may be controlled in the second mode 102.
  • the electronic device 100 is illustrated to have a hexahedral shape having six surfaces, but is not limited thereto. According to various embodiments of the present disclosure, it is sufficient that the electronic device 100 has a shape capable of having two or more modes depending on a surface contacting a floor surface. An exemplary embodiment is further described with reference to FIG. 2.
  • FIG. 2 illustrates a housing of a display-type AI speaker having a second shape according to an exemplary embodiment.
  • the housing shape of the electronic device 200 may include a triangular columnar housing.
  • the housing of the electronic device 200 is simultaneously on the first surface 201 corresponding to the bottom surface, the second surface 202 adjacent to the first surface 201, and the first surface 201 and the second surface 202. It may include an adjacent third side.
  • a bottom surface of the electronic device 200 may correspond to a first surface 201, a front surface of the second surface 202, and a side surface of the electronic device 200 may correspond to a third surface, respectively.
  • the side portion may be adjacent to the bottom surface and the front portion at the same time.
  • the side portion may not be adjacent to the bottom surface and the front portion at the same time.
  • the connection area (connection surface) may be located between the side surface and the bottom surface.
  • the connection area (connection surface) may be located between the side portion and the front portion.
  • a connection area (connection surface) having a cut shape may be formed between the side portion and the bottom surface or the side surface. It may be located between the part and the front part.
  • the side portion may include a left side portion and a right side portion.
  • the third surface corresponding to the left side portion is not shown, and the third surface 203 corresponding to the right side portion is shown.
  • the display 204 may be located on at least a portion of the second surface 202.
  • Each corner of the triangular pillar may form a curved surface so that each surface is smoothly connected.
  • the speaker 205 and the microphone may be located on at least one of the housing surfaces.
  • FIG. 3 is a block diagram of an electronic device 301 according to an exemplary embodiment.
  • the electronic device 301 is applicable to the electronic devices 100, 200, and 705.
  • the electronic device 301 may include a processor 302, a display 303, a speaker 304, a memory 305, a microphone 306, and a sensor module 310.
  • the processor 302 may be electrically connected to the display 303, the speaker 304, the memory 305, the microphone 306, and the sensor module 310.
  • the processor 302 may execute software to control at least one component of the electronic device 301 connected to the processor 302 (for example, a speaker 304 or a microphone 306 or a sensor module 310), and , Various data processing or operations can be performed.
  • the processor 302 may store the command or data received from the at least one component in the memory 305, process the command or data stored in the memory 305, and store the result data in the memory 305. .
  • the display 303 is applicable to the displays 106 and 204.
  • the display 303 may visually provide information to the outside of the electronic device 301.
  • the display 303 may include a touch circuitry set to sense a touch, or a sensor circuit (eg, a pressure sensor) set to measure the strength of a force generated by the touch.
  • the display 303 may sense a touch input for receiving a command or data to be used in a component of the electronic device 301 (for example, the processor 302 ).
  • the display 303 may output a processing result through a speech recognition function corresponding to the speech input.
  • the speaker 304 is applicable to the speakers 108 and 205.
  • the speaker 304 may output an acoustic signal to the outside of the electronic device 301.
  • the speaker 304 may be used for general purposes such as multimedia playback or recording playback.
  • the speaker 304 may output a processing result through a speech recognition function corresponding to the speech input.
  • the memory 305 may store various types of data used by at least one component of the electronic device 301 (eg, the processor 302 or the sensor module 310 ).
  • the data may include input data or output data for software and commands related thereto.
  • the memory 305 may include a volatile memory or a nonvolatile memory.
  • the microphone 306 is applicable to the microphone (not shown) of FIGS. 1 and 2. Commands or data to be used for components of the electronic device 301 (for example, the processor 302) may be received from outside the electronic device 301. The microphone 306 may receive a voice command input from the outside.
  • the processor 302 may determine an operating state (eg, change in position or rotation or vibration) of the electronic device 301.
  • the processor 302 may generate an electrical signal or data value corresponding to the determined state.
  • the sensor module 310 may include at least one of a gyro sensor, a pressure sensor, a gravity sensor, or an acceleration sensor.
  • the gyro sensor may detect a tilt of the electronic device 301.
  • the processor 302 may determine whether any of the housing surfaces of the electronic device 301 faces the ground based on the slope detected by the gyro sensor.
  • Processor 302 is based on the inclination detected by the gyro sensor, the housing surface of the electronic device 301 supported on the ground from the first surface 103 to the third surface (a third surface corresponding to the left side) It may be determined that it is changed to (not shown) or the third surface 105 corresponding to the right side portion.
  • the pressure sensor may detect whether any of the housing surfaces of the electronic device 301 receives pressure from the ground.
  • the pressure sensor may detect that the housing surface of the electronic device 301 receiving pressure from the ground is changed from the first surface 103 to the third surface.
  • FIG. 4 is a flowchart illustrating a method of processing a voice command according to the first mode 101 or the second mode 102 according to an exemplary embodiment.
  • the electronic device 301 may be controlled in the first mode 101 or the second mode 102.
  • the first mode 101 may mean a general use mode of the electronic device 301.
  • the general use mode may be a mode including an activation voice input step for activating a voice recognition function.
  • the second mode 102 may mean a fast execution mode.
  • the quick execution mode may be a mode in which an activation voice input step for activating a voice recognition function is omitted. While the electronic device 301 is being controlled in the second mode 102, the electronic device 301 may be in a state in which the voice recognition function is automatically activated.
  • the gyro sensor may detect the first slope of the electronic device 301.
  • the processor 302 may determine that the floor surface faces in a first direction corresponding to the ground direction based on the sensed first inclination.
  • the electronic device 301 may be controlled in the first mode 101.
  • the microphone 306 may acquire a first voice input for activating the voice recognition function.
  • the electronic device 301 may activate a voice recognition function.
  • the microphone 306 may acquire a second voice input corresponding to the voice command input.
  • the processing result through the voice recognition function corresponding to the second voice input is output through at least one of the speaker 304 or the display 303 Can be.
  • the gyro sensor may detect a second slope of the electronic device 301.
  • the processor 302 may determine that the side surface faces a first direction corresponding to the ground direction based on the sensed second inclination.
  • the electronic device 301 may be controlled in the second mode 102.
  • the third surface a left side portion or a right side portion
  • a series of operations related to speech recognition processing will be described on the assumption that the third surface 105 faces the first surface 103.
  • the electronic device 301 may automatically activate the voice recognition function.
  • the meaning of the operation of automatically activating the voice recognition function may mean omission of a separate activation voice input operation for activating the voice recognition function.
  • the microphone 306 may acquire a third voice other than the first voice. The third voice may correspond to a voice command.
  • the processing result through the voice recognition function corresponding to the third voice input is output through at least one of the speaker 304 or the display 303 Can be.
  • FIG. 5 is a flowchart illustrating a mode change from the first mode 101 to the second mode 102 according to an exemplary embodiment.
  • the electronic device 301 may switch the voice recognition processing mode from the first mode 101 to the second mode 102 according to the surface of the housing supported on the ground.
  • a series of operations related to switching of the speech recognition processing mode will be described.
  • the electronic device 301 in operation 501, when the first surface 103 corresponding to the bottom surface of the electronic device 301 faces the first direction corresponding to the ground direction, the electronic device 301 is It can be controlled by mode 101.
  • the gyro sensor may detect the first tilt of the electronic device 301.
  • the processor 302 may determine that the third surface faces the first direction corresponding to the ground based on the sensed first slope.
  • the processor 302 may determine that the housing surface facing the ground surface of the electronic device 301 changes from the first surface 103 to the third surface 105 based on the inclination detected by the gyro sensor.
  • the pressure sensor may detect whether any of the housing surfaces of the electronic device 301 receives pressure from the ground.
  • the processor 302 may determine whether the third surface of the electronic device 301 faces the first direction based on the inclination detected by the gyro sensor.
  • the processor 302 may be configured with a third surface (not shown) corresponding to the left side of the electronic device 301 or a third surface corresponding to the right side of the electronic device 301 based on the inclination detected by the gyro sensor. It may be determined whether 105) faces the first direction corresponding to the ground.
  • the electronic device 301 may maintain the first mode 101.
  • the electronic device 301 may switch the voice recognition processing mode from the first mode 101 to the second mode 102.
  • FIG 6 illustrates an example of voice command processing of an AI speaker controlled in the first mode 101 according to an embodiment.
  • the operating system (OS) of the AI speaker can be applied to Samsung's bixby and Apple's Siri.
  • operations related to voice recognition processing through Samsung's Bixby will be described.
  • the microphone 306 is a wake-up-word for activating the voice recognition function.
  • the wake up command may correspond to the first voice.
  • the microphone 306 may obtain a wake-up voice input “Hi, Bixby” from the outside.
  • the speech & auto speech recognition (ASR) operation 602 the electronic device 301 that has obtained the wake-up command input may be converted to a voice input standby state.
  • the microphone 306 may acquire a voice command input.
  • the voice command input may correspond to the second voice input. For example, the microphone 306 may obtain the voice command input “three minute timer” from the outside.
  • the task guide content to be executed corresponding to the voice command input is a speaker 304 or a display ( 303).
  • the display 303 may output a task guide content to be executed “I will start the timer”.
  • the task guide content "I'll start the timer” may be output as a voice through a speaker.
  • the electronic device 301 may execute a command corresponding to the voice command.
  • Content related to the execution of the command may be output through the display 303.
  • the electronic clock content which is content related to the voice command "3 minute timer” may be output through the display 303.
  • FIG. 7 illustrates an example of processing a voice command by an AI speaker controlled in the second mode 102 according to an embodiment.
  • the electronic device 705 may be controlled in the second mode 102. While the electronic device 705 is being controlled in the second mode 102, the electronic device 705 may automatically be in a voice input standby state. While the electronic device 705 is controlled in the second mode 102, at least one content on which frequently used functions are automatically displayed may be output through at least one of the display 303 or the speaker 304.
  • the display 303 or the microphone 306 may acquire a touch input or a voice input for selecting a first content from among the at least one content.
  • the electronic device 301 may execute a command corresponding to the selection of the first content.
  • the at least one content may include a menu of “weather”, “music”, and “recipe”.
  • the display 303 or the microphone 306 may acquire the touch input or the voice input for selecting the “weather” content corresponding to the first content.
  • the electronic device 301 may execute a command related to "weather” corresponding to the touch input or the voice input.
  • the electronic device 301 may process a command related to arbitrary content except for at least one content on which the frequently used functions are displayed.
  • the microphone 306 may acquire a command voice input corresponding to the voice command input.
  • the microphone 306 may acquire a command voice input of “3 minutes”.
  • content related to the command voice input may be output through at least one of the display 303 and the speaker 304.
  • the content related to the command voice input “3 minutes” may be at least one of an electronic watch content or a day after day watch object.
  • FIG 8 is a diagram for mode switching from the inactive mode 801 to the second mode 102 according to an embodiment.
  • the electronic device 301 when the time taken from when the electronic device 301 is switched to the second mode 102 until the third voice input is acquired is equal to or greater than a reference time, the electronic device 301 is in the second mode. It may be switched from 102 to the deactivation mode 801.
  • the third voice input may be a command voice input for executing a command.
  • the deactivation mode 801 may mean a state in which the voice recognition function is deactivated.
  • the electronic device 301 In response to the electronic device 301 being switched to the deactivation mode 801, the electronic device 301 may output a notification of the deactivation mode 801 through at least one of the display 303 or the speaker 304. .
  • the notification in the deactivation mode 801 may be displayed on at least a partial area of the display 303.
  • the notification in the deactivation mode 801 may be displayed in a form in which at least a portion of the display 303 flashes.
  • the notification of the deactivation mode 801 may be output through the speaker 304.
  • the display 303 may be turned off.
  • a voice 803 of "It is in the deactivation mode" may be output through the speaker 304.
  • the microphone 306 may acquire a switched voice input.
  • the voice recognition mode of the electronic device 301 may be switched from the inactive mode 801 to the second mode 102.
  • the electronic device 301 may switch from the inactive mode 801 to the second mode 102.
  • the display 303 may display at least one content on which frequently used functions are displayed.
  • the display 303 may acquire a switching touch input.
  • the voice recognition mode of the electronic device 301 may be switched from the inactive mode 801 to the second mode 102.
  • the electronic device 301 may be switched from the inactive mode 801 to the second mode 102.
  • the display 303 may display at least one content on which frequently used functions are displayed.
  • the processor 302 corresponds to the bottom surface of the electronic device 301 based on the slope detected by the gyro sensor. It may be determined whether the number of times the first surface 103 faces the first direction corresponding to the ground is greater than or equal to the reference number during a reference time. For example, the processor 302 may determine whether the electronic device 301 is shaken by the user based on the inclination detected by the gyro sensor. In response to the determination, the electronic device 301 may switch from the inactive mode 801 to the second mode 102. In response to the electronic device 301 switching to the second mode 102, the display 303 may display at least one content on which frequently used functions are displayed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Manufacturing & Machinery (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

AI 스피커 장치에 있어서, 하우징, 상기 하우징은 상기 AI 스피커의 바닥 면(bottom surface)을 형성하는 제1 면, 상기 제1 면과 인접한 제2 면, 및 상기 제1 면과 상기 제2면에 동시에 인접하는 제3 면을 포함함; 상기 제2 면에 배치되는 디스플레이; 적어도 하나의 센서; 마이크; 스피커; 명령어들이 저장된 메모리; 및 상기 디스플레이, 상기 적어도 하나의 센서, 상기 마이크, 상기 스피커, 상기 메모리와 전기적으로 연결된 프로세서를 포함하고, 상기 프로세서는: 상기 적어도 하나의 센서를 통해, 상기 프로세서가 상기 AI 스피커의 상기 제1 면이 제1 방향을 향하는 것으로 판단하는 것에 응답하여, 상기 AI 스피커를 제1 모드로 제어하고, 상기 제1 모드로 동작하는 동안: 상기 마이크가 음성 인식 기능을 활성화하기 위한 제1 음성 입력을 획득하고, 제1 음성 입력 획득에 응답하여 상기 음성 인식 기능을 활성화하고, 상기 제1 음성 입력에 후속하는 제2 음성 입력에 대응하는 상기 음성 인식 기능을 통한 처리 결과를 상기 스피커 또는 상기 디스플레이 중 적어도 하나를 이용하여 출력하고, 상기 적어도 하나의 센서를 통해, 상기 프로세서가 상기 AI 스피커의 상기 제3 면이 상기 제1 방향을 향하는 것으로 판단하는 것에 응답하여, 상기 AI스피커를 상기 제1 모드에서 제2 모드로 전환하도록 설정되는, 장치이다. 이 외에도 명세서를 통해 파악되는 다양한 실시 예가 가능하다.

Description

디스플레이형 AI 스피커의 제어방법 및 그 장치
본 문서에서 개시되는 실시 예들은, 사용자에게 디스플레이형 AI 스피커의 빠른 실행 모드를 제공하기 위한 디스플레이형 AI 스피커의 제어방법 및 그 장치에 관한 것이다.
AI 스피커 및 디스플레이형 AI 스피커 등, AI 기기의 확산으로 인하여, 사용자들이 AI 기기를 통해 서비스나 기능을 이용하는 경우가 늘어나고 있다. 디스플레이형 AI 스피커를 사용하는 경우, 사용자들은 주로 음성으로 기기에 명령을 입력한다. 이를 통해, 터치 입력 등의 조작을 하지 않고도 원거리에서 편리하게 AI 스피커를 이용할 수 있다.
기존의 디스플레이형 AI 스피커를 사용하는 경우, 사용자들은 일상에서 빈번하게 사용하는 기능들을 사용할 때마다 동일한 명령을 반복적으로 말하는 과정이 필요했다. 따라서, 기존의 디스플레이형 AI 스피커의 사용자들은 반복적으로 동일한 명령을 입력해야 하는 불편함을 갖게 됐다. 또한, 기존의 디스플레이형 AI 스피커가 음성 명령 처리를 하는 경우, 사용자들은 음성 명령 수행에 필요한 정보들을 명시적으로 AI 스피커에 전달하거나 단축 명령어 등의 기능을 이용하여 음성 명령 수행에 필요한 정보들을 AI 스피커에 전달하여야 하는 불편함을 갖게 됐다.
본 문서에서 개시되는 다양한 실시 예들은 상술한 문제점들을 해결하기 위한 장치 및 방법 등을 제공한다.
본 문서에 개시되는 일 실시 예에 따른 장치는, AI 스피커 장치에 있어서, 하우징, 상기 하우징은 상기 AI 스피커의 바닥 면(bottom surface)을 형성하는 제1 면, 상기 제1 면과 인접한 제2 면, 및 상기 제1 면과 상기 제2면에 동시에 인접하는 제3 면을 포함함; 상기 제2 면에 배치되는 디스플레이; 적어도 하나의 센서; 마이크; 스피커; 명령어들이 저장된 메모리; 및 상기 디스플레이, 상기 적어도 하나의 센서, 상기 마이크, 상기 스피커, 상기 메모리와 전기적으로 연결된 프로세서를 포함하고, 상기 프로세서는: 상기 적어도 하나의 센서를 통해, 상기 프로세서가 상기 AI 스피커의 상기 제1 면이 제1 방향을 향하는 것으로 판단하는 것에 응답하여, 상기 AI 스피커를 제1 모드로 제어하고, 상기 제1 모드로 동작하는 동안: 상기 마이크가 음성 인식 기능을 활성화하기 위한 제1 음성 입력을 획득하고, 제1 음성 입력 획득에 응답하여 상기 음성 인식 기능을 활성화하고, 상기 제1 음성 입력에 후속하는 제2 음성 입력에 대응하는 상기 음성 인식 기능을 통한 처리 결과를 상기 스피커 또는 상기 디스플레이 중 적어도 하나를 이용하여 출력하고, 상기 적어도 하나의 센서를 통해, 상기 프로세서가 상기 AI 스피커의 상기 제3 면이 상기 제1 방향을 향하는 것으로 판단하는 것에 응답하여, 상기 AI스피커를 상기 제1 모드에서 제2 모드로 전환하도록 설정되는, 장치이다.
또한, 본 문서에 개시되는 일 실시 예에 따른 제어 방법은, AI 스피커의 제어 방법에 있어서, 상기 AI 스피커의 적어도 하나의 센서를 통해, 프로세서가 상기 AI 스피커의 하우징의 제1 면이 제1 방향을 향하는 것을 판단하는 동작, 상기 AI 스피커의 하우징은, 상기 AI 스피커의 바닥 면을 형성하는 상기 제1 면, 상기 제1 면과 인접하고 디스플레이가 배치되는 제2 면, 및 상기 제1 면과 상기 제2 면에 동시에 인접하는 제3 면을 포함함; 상기 판단에 응답하여, 상기 프로세서가 상기 AI 스피커를 제1 모드로 제어하는 동작; 상기 제1 모드로 동작하는 동안, 마이크가 상기 AI 스피커의 마이크가 음성 인식 기능을 활성화하기 위한 제1 음성 입력을 획득하는 동작; 상기 제1 음성 입력 획득에 응답하여 상기 프로세서가 상기 음성 인식 기능을 활성화하는 동작; 상기 제1 음성 입력에 후속하는 제2 음성 입력에 대응하는 상기 음성 인식 기능을 통한 처리 결과를 상기 스피커 또는 상기 디스플레이 중 적어도 하나를 이용하여 출력하는 동작; 상기 적어도 하나의 센서를 통해, 상기 프로세서가 상기 AI 스피커의 상기 제3 면이 상기 제1 방향을 향하는 것을 판단하는 것에 응답하여, 상기 프로세서는 상기 AI 스피커를 상기 제1 모드에서 제2 모드로 전환하도록 설정되는 방법이다.
또한, 본 문서에 개시되는 일 실시 예에 따른 기록 매체는, 컴퓨터 판독 가능한 명령어들을 저장하는 비 일시적 기록 매체에 있어서, 상기 명령어들은 상기 명령어들이 저장된 전자 장치의 적어도 하나의 프로세서에 의해 실행 시: AI 스피커의 적어도 하나의 센서를 통해, 상기 프로세서가 상기 AI 스피커의 하우징의 제1 면이 제1 방향을 향하는 것으로 판단 하는 동작, 상기 AI 스피커의 하우징은, 상기 AI 스피커의 바닥 면을 형성하는 상기 제1 면, 상기 제1 면과 인접하고 디스플레이가 배치되는 제2 면, 및 상기 제1 면과 상기 제2 면에 동시에 인접하는 제3 면을 포함함; 상기 판단에 응답하여, 상기 프로세서가 상기 AI 스피커를 제1 모드로 제어하는 동작; 상기 제1 모드로 동작하는 동안, 상기 AI 스피커의 마이크가 음성 인식 기능을 활성화하기 위한 제1 음성 입력을 획득하는 동작; 상기 제1 음성 입력 획득에 응답하여 상기 프로세서가 상기 음성 인식 기능을 활성화하는 동작; 상기 제1 음성 입력에 후속하는 제2 음성 입력에 대응하는 상기 음성 인식 기능을 통한 처리 결과를 상기 스피커 또는 상기 디스플레이 중 적어도 하나를 이용하여 출력하는 동작; 상기 적어도 하나의 센서가 상기 AI 스피커의 상기 제3 면이 상기 제1 방향을 향하는 것을 감지하는 것에 응답하여, 상기 프로세서는 상기 AI 스피커를 상기 제1 모드에서 제2 모드로 전환하도록 설정되는, 기록매체이다.
본 문서에 개시되는 다양한 실시 예에 따르면, 디스플레이형 AI 스피커를 사용하는 사용자들은 직관적인 모드 전환을 통해 빠르고 쉽게 일상에서 자주 사용하는 AI 스피커의 기능들을 사용할 수 있다.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도 1은 일 실시 예에 따른, 제1 형상을 갖는 디스플레이형 AI 스피커의 하우징을 도시한다.
도 2는 일 실시 예에 따른, 제2 형상을 갖는 디스플레이형 AI 스피커의 하우징을 도시한다.
도 3은 일 실시 예에 따른, 전자 장치(301)의 블록 구성도를 도시한다.
도 4는 일 실시 예에 따른, 제1 모드(101) 또는 제2 모드(102)에 따른 음성 명령 처리 방법에 관한 순서도를 도시한다.
도 5는 일 실시 예에 따른, 제1 모드(101)에서 제2 모드(102)로의 모드 전환에 관한 순서도를 도시한다.
도 6은 일 실시 예에 따른, 제1 모드(101)로 제어되는 AI 스피커의 음성 명령 처리의 예를 도시한다.
도 7은 일 실시 예에 따른, 제2 모드(102)로 제어되는 AI 스피커의 음성 명령 처리의 예를 도시한다.
도 8은 일 실시 예에 따른, 비활성화 모드(801)에서 제2 모드(102)로의 모드 전환에 관해 도시한다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
이하, 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 특정한 실시 형태를 한정하려는 것이 아니며, 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다.
도 1은 일 실시 예에 따른, 제1 형상을 갖는 디스플레이형 AI 스피커의 하우징을 도시한다.
일 실시 예에 따르면, 전자 장치(100)(예: 디스플레이형 AI 스피커)의 하우징 형태는 육면체 모양의 하우징을 포함할 수 있다. 전자 장치(100)의 하우징은 AI 스피커의 바닥 면(bottom surface)을 형성하는 제1 면(103), 제1 면(103)과 인접한 제2 면(104), 및 제1 면(103)과 제2 면(104)에 동시에 인접하는 제3 면을 포함할 수 있다.
일 실시 예에 따르면, 전자 장치(100)의 바닥 면은 제1 면(103), 디스플레이(106)가 위치하는 전면 부는 제2 면(104), 측면 부는 제3 면에 각각 대응될 수 있다. 상기 측면 부는 상기 바닥 면과 상기 전면 부에 동시에 인접할 수 있다.
다른 실시 예에 따르면, 상기 측면 부는 상기 바닥 면과 상기 전면 부에 동시에 인접하지 않을 수 있다. 연결 영역(연결 면)은 상기 측면 부와 상기 바닥 면 사이에 위치할 수 있다. 상기 연결 영역(연결 면)은 상기 측면 부와 상기 전면 부 사이에 위치할 수 있다. 예를 들어, 상기 측면 부와 상기 바닥 면 또는 상기 측면 부와 상기 전면 부 사이의 뾰족함을 방지하기 위해, 커팅된 형상의 연결 영역(연결 면)은 상기 측면 부와 상기 바닥 면 사이 또는 상기 측면 부와 상기 전면 부 사이에 위치할 수 있다.
일 실시 예에 따르면, 측면 부는 왼쪽 측면 부 및 오른쪽 측면 부를 포함할 수 있다. 도 1의 전자 장치(100)에 따르면, 왼쪽 측면 부에 대응되는 제3 면은 미도시 되어있고, 오른쪽 측면 부에 대응되는 제3 면(105)은 도시되어 있다. 디스플레이(106)는 제2 면(104)의 적어도 일부 영역에 위치할 수 있다. 스피커(108) 또는 마이크(미도시)는 상기 하우징 면들 중 적어도 한 면에 위치할 수 있다. 전자 장치(301)의 각 모서리들은 각각의 면이 부드럽게 연결되도록 곡면을 형성할 수 있다.
일 실시 예에 따르면, 상기 하우징의 제1 면(103)이 지면을 향하는 경우, 전자 장치(100)는 제1 모드(101)로 제어될 수 있다. 제1 모드(101)는 일반 사용 모드를 의미할 수 있다. 예를 들어, 전자 장치(100)의 육면체 모양의 하우징 중 길이가 긴 쪽의 면이 지면을 향하는 경우, 전자 장치(100)는 제1 모드(101)로 제어될 수 있다.
일 실시 예에 따르면, 지면에 지지되는 전자 장치(100)의 상기 하우징 면은 변경될 수 있다. 임의의 회전 방향은 지면에 지지되는 전자 장치(100)의 상기 하우징 면을 변경할 수 있다. 예를 들어, 사용자는 전자 장치(100)를 시계 방향으로 회전시켜, 지면에 지지되는 하우징 면을 왼쪽 측면 부에 대응되는 제3 면(미도시)으로 변경할 수 있다. 또는, 사용자는 전자 장치(100)를 반시계 방향으로 회전시켜, 지면에 지지되는 하우징 면을 오른쪽 측면 부에 대응되는 제 3면(105)으로 변경할 수 있다. 미도시된 왼쪽 측면 부에 대응되는 제3 면이 지면을 향하는 경우, 전자 장치(100)는 제2 모드(102)로 제어될 수 있다. 예를 들어, 전자 장치(100)의 육면체 모양의 하우징 중 길이가 짧은 쪽의 면이 상기 바닥 면을 향하는 상태인 경우, 전자 장치(100)는 제2 모드(102)로 제어될 수 있다. 도 1의 실시 예에서, 전자 장치(100)는 여섯 개의 면을 가지는 육면체 형상을 가지는 것으로 도시되었으나, 이에 한정되는 것은 아니다. 다양한 실시 예에 따르면, 전자 장치(100)는 바닥 면과 닿는 면에 따라서 2개 이상의 모드를 가질 수 있는 형상을 가지는 것으로 충분하다. 예시 적인 실시 예가 도 2를 참조하여 더 설명된다.
도 2는 일 실시 예에 따른, 제2 형상을 갖는 디스플레이형 AI 스피커의 하우징을 도시한다.
일 실시 예에 따르면, 전자 장치(200)의 하우징 형태는 삼각 기둥 모양의 하우징을 포함할 수 있다. 전자 장치(200)의 하우징은 바닥 면에 대응되는 제 1면(201)과 제1 면(201)과 인접한 제2 면(202), 제1 면(201)과 제2 면(202)에 동시에 인접한 제3 면을 포함할 수 있다.
일 실시 예에 따르면, 전자 장치(200)의 바닥 면은 제1 면(201), 전면 부는 제2 면(202), 측면 부는 제3 면에 각각 대응될 수 있다. 상기 측면 부는 상기 바닥 면과 상기 전면 부에 동시에 인접할 수 있다.
다른 실시 예에 따르면, 상기 측면 부는 상기 바닥 면과 상기 전면 부에 동시에 인접하지 않을 수 있다. 연결 영역(연결 면)은 상기 측면 부와 상기 바닥 면 사이에 위치할 수 있다. 상기 연결 영역(연결 면)은 상기 측면 부와 상기 전면 부 사이에 위치할 수 있다. 예를 들어, 상기 측면 부와 상기 바닥 면 또는 상기 측면 부와 상기 전면 부 사이의 뾰족함을 방지하기 위해, 커팅된 형상의 연결 영역(연결 면)은 상기 측면 부와 상기 바닥 면 사이 또는 상기 측면 부와 상기 전면 부 사이에 위치할 수 있다.
일 실시 예에 따르면, 측면 부는 왼쪽 측면 부와 오른쪽 측면 부를 포함할 수 있다. 도 2의 전자 장치(200)에 따르면, 왼쪽 측면 부에 대응되는 제3 면은 미도시 되어 있고, 오른쪽 측면 부에 대응되는 제3 면(203)은 도시되어 있다. 디스플레이(204)는 제2 면(202)의 적어도 일부 영역에 위치할 수 있다. 상기 삼각 기둥의 각 모서리들은 각각의 면이 부드럽게 연결되도록 곡면을 형성할 수 있다. 스피커(205) 및 마이크(미도시)는 상기 하우징 면들 중 적어도 한 면에 위치할 수 있다.
도 3은 일 실시 예에 따른, 전자 장치(301)의 블록 구성도를 도시한다.
전자 장치(301)는 전자 장치(100, 200, 705)에 적용 가능하다. 전자 장치(301)는 프로세서(302), 디스플레이(303), 스피커(304), 메모리(305), 마이크(306), 센서 모듈(310)을 포함할 수 있다. 프로세서(302)는 디스플레이(303), 스피커(304), 메모리(305), 마이크(306), 센서 모듈(310)과 전기적으로 연결될 수 있다.
프로세서(302)는 소프트웨어를 실행하여 프로세서(302)에 연결된 전자 장치(301)의 적어도 하나의 구성요소(예: 스피커(304) 또는 마이크(306) 또는 센서 모듈(310))를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 프로세서(302)는 상기 적어도 하나의 구성요소로부터 수신된 명령 또는 데이터를 메모리(305)에 저장하고, 메모리(305)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 메모리(305)에 저장할 수 있다.
디스플레이(303)는 디스플레이(106, 204)에 적용 가능하다. 디스플레이(303)는 전자 장치(301)의 외부로 정보를 시각적으로 제공할 수 있다. 디스플레이(303)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다. 디스플레이(303)는 전자 장치(301)의 구성요소(예: 프로세서(302))에 사용될 명령 또는 데이터를 수신하기 위한 터치 입력을 감지할 수 있다. 디스플레이(303)는 음성 입력에 대응되는 음성 인식 기능을 통한 처리 결과를 출력할 수 있다.
스피커(304)는 스피커(108, 205)에 적용 가능하다. 스피커(304)는 음향 신호를 전자 장치(301)의 외부로 출력할 수 있다. 스피커(304)는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 스피커(304)는 음성 입력에 대응되는 음성 인식 기능을 통한 처리 결과를 출력할 수 있다.
메모리(305)는 전자 장치(301)의 적어도 하나의 구성요소(예: 프로세서(302) 또는 센서 모듈(310))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 상기 데이터는 소프트웨어 및 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(305)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다.
마이크(306)는 도 1 및 도 2의 마이크(미도시)에 적용 가능하다. 전자 장치(301)의 구성요소(예: 프로세서(302))에 사용될 명령 또는 데이터를 전자 장치(301)의 외부로부터 수신할 수 있다. 마이크(306)는 음성 명령 입력을 외부로부터 수신할 수 있다.
센서 모듈(310)을 통해, 프로세서(302)는 전자 장치(301)의 작동 상태(예: 위치 변화 또는 회전 또는 진동)를 판단할 수 있다. 프로세서(302)는 상기 판단된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서 모듈(310)은 자이로 센서(gyro sensor) 또는 압력 센서 또는 중력 센서 또는 가속도 센서 중 적어도 하나를 포함할 수 있다. 상기 자이로 센서는 전자 장치(301)의 기울기를 감지할 수 있다. 프로세서(302)는 상기 자이로 센서가 감지한 상기 기울기에 기초하여, 전자 장치(301)의 하우징 면들 중 임의의 면이 지면을 향하는지 판단할 수 있다. 프로세서(302)는 상기 자이로 센서가 감지한 상기 기울기에 기초하여, 지면에 지지되는 전자 장치(301)의 하우징 면이 제1 면(103)에서 제3 면(왼쪽 측면 부에 대응되는 제3 면(미도시) 또는 오른쪽 측면 부에 대응되는 제3 면(105))으로 변경되는 것을 판단할 수 있다. 상기 압력 센서는 전자 장치(301)의 하우징 면들 중 임의의 면이 지면으로부터 압력을 받는지 감지할 수 있다. 상기 압력 센서는 지면으로부터 압력을 받는 전자 장치(301)의 하우징 면이 제1 면(103)에서 제3 면으로 변경되는 것을 감지할 수 있다.
도 4는 일 실시 예에 따른, 제1 모드(101) 또는 제2 모드(102)에 따른 음성 명령 처리 방법에 관한 순서도를 도시한다.
전자 장치(301)는 제 1 모드(101) 또는 제2 모드(102)로 제어될 수 있다. 제1 모드(101)는 전자 장치(301)의 일반 사용 모드를 의미할 수 있다. 상기 일반 사용 모드는 음성 인식 기능의 활성화를 위한 활성화 음성 입력 단계를 포함한 모드일 수 있다. 제2 모드(102)는 빠른 실행 모드를 의미할 수 있다. 상기 빠른 실행 모드는 음성 인식 기능의 활성화를 위한 활성화 음성 입력 단계를 생략한 모드일 수 있다. 전자 장치(301)가 제2 모드(102)로 제어되고 있는 동안, 전자 장치(301)는 자동으로 음성 인식 기능이 활성화된 상태일 수 있다.
이하에서, 전자 장치(301)가 제1 모드(101)로 제어되는 동안, 음성 인식 처리에 관한 일련의 동작을 설명한다.
일 실시 예에 따르면, 동작 401에서, 상기 자이로 센서는 전자 장치(301)의 제1 기울기를 감지할 수 있다. 프로세서(302)는 상기 감지된 제1 기울기에 기초하여, 상기 바닥 면이 지면 방향에 대응되는 제1 방향을 향하는 것을 판단할 수 있다. 동작 403에서, 제1 면(103)이 상기 제1 방향을 향하는 경우, 전자 장치(301)는 제1 모드(101)로 제어될 수 있다. 동작 405에서, 전자 장치(301)가 제1 모드(101)로 제어되고 있는 동안, 마이크(306)는 음성 인식 기능 활성화를 위한 제1 음성 입력을 획득할 수 있다. 동작 407에서, 마이크(306)의 상기 제1 음성 입력 획득에 응답하여, 전자 장치(301)는 음성 인식 기능을 활성화할 수 있다. 동작 409에서, 전자 장치(301)의 음성 인식 기능이 활성화되고 있는 동안, 마이크(306)는 음성 명령어 입력에 대응되는 제2 음성 입력을 획득할 수 있다. 동작 411에서, 마이크(306)의 상기 제2 음성 입력 획득에 응답하여, 상기 제2 음성 입력에 대응하는 음성 인식 기능을 통한 처리 결과는 스피커(304) 또는 디스플레이(303) 중 적어도 하나를 통해 출력될 수 있다.
이하에서, 전자 장치(301)가 제2 모드(102)로 제어되는 동안, 음성 인식 처리에 관한 일련의 동작을 설명한다.
일 실시 예에 따르면, 동작 401에서, 상기 자이로 센서는 전자 장치(301)의 제2 기울기를 감지할 수 있다. 프로세서(302)는 상기 감지된 제2 기울기에 기초하여, 상기 측면 부가 지면 방향에 대응되는 제1 방향을 향하는 것을 판단할 수 있다. 동작 413에서, 제1 면(103)이 상기 제1 방향을 향하지 않는 경우, 전자 장치(301)는 제2 모드(102)로 제어될 수 있다. 제1 면(103)이 상기 제1 방향을 향하지 않는 경우에는 제3 면(왼쪽 측면 부 또는 오른쪽 측면 부)이 상기 제1 방향을 향하는 경우가 포함될 수 있다. 이하에서, 제3 면(105)이 제1 면(103)을 향하는 경우를 상정하여 음성 인식 처리에 관한 일련의 동작을 설명한다. 동작 415에서, 전자 장치(301)가 제2 모드(102)로 제어되는 동안, 전자 장치(301)는 자동으로 음성 인식 기능을 활성화할 수 있다. 상기 자동으로 음성 인식 기능을 활성화하는 동작의 의미는 음성 인식 기능 활성화를 위한 별도의 활성화 음성 입력 동작의 생략을 의미할 수 있다. 동작 417에서, 마이크(306)는 상기 제1 음성을 제외한 제3 음성을 획득할 수 있다. 상기 제3 음성은 음성 명령어에 해당할 수 있다. 동작 419에서, 마이크(306)의 상기 제3 음성 입력 획득에 응답하여, 상기 제3 음성 입력에 대응하는 음성 인식 기능을 통한 처리 결과는 스피커(304) 또는 디스플레이(303) 중 적어도 하나를 통해 출력될 수 있다.
도 5는 일 실시 예에 따른, 제1 모드(101)에서 제2 모드(102)로의 모드 전환에 관한 순서도를 도시한다.
전자 장치(301)는 지면에 지지되는 하우징 면에 따라 음성 인식 처리모드를 제1 모드(101)에서 제2 모드(102)로 전환할 수 있다. 이하에서, 음성 인식 처리 모드의 전환에 관한 일련의 동작을 설명한다.
일 실시 예에 따르면, 동작 501에서, 전자 장치(301)의 상기 바닥 면에 대응되는 제1 면(103)이 지면 방향에 대응되는 상기 제1 방향을 향하는 경우, 전자 장치(301)는 제1 모드(101)로 제어될 수 있다. 동작 503에서, 상기 자이로 센서는 전자 장치(301)의 상기 제1 기울기를 감지할 수 있다. 프로세서(302)는 상기 감지된 제1 기울기에 기초하여, 제3 면이 지면에 대응되는 상기 제1 방향을 향하는 것을 판단할 수 있다. 프로세서(302)는 상기 자이로 센서가 감지한 기울기에 기초하여, 전자 장치(301)의 지면을 향하는 하우징 면이 제1 면(103)에서 제3 면(105)으로 변화하는 것을 판단할 수 있다. 상기 압력 센서는 전자 장치(301)의 하우징 면들 중 임의의 면이 지면으로부터 압력을 받는지 감지할 수 있다. 상기 압력 센서를 통해, 전자 장치(301)의 지면을 향하는 하우징 면이 제1 면(103)에서 제3 면(105)으로 변화되는 것을 감지할 수 있다. 동작 505에서, 프로세서(302)는 상기 자이로 센서가 감지한 기울기에 기초하여, 전자 장치(301)의 제3 면이 상기 제1 방향을 향하는지 여부를 판단할 수 있다. 예를 들어, 프로세서(302)는 상기 자이로 센서가 감지한 기울기에 기초하여, 전자 장치(301)의 왼쪽 측면 부에 대응되는 제3 면(미도시) 또는 오른쪽 측면 부에 대응되는 제3 면(105)이 지면에 대응되는 상기 제1 방향을 향하는지 판단할 수 있다. 제3 면이 상기 제1 방향을 향하지 않는 경우, 전자 장치(301)는 제1 모드(101)를 유지할 수 있다. 동작 507에서, 제3 면이 상기 제1 방향을 향하는 경우, 전자 장치(301)는 음성 인식 처리 모드를 제1 모드(101)에서 제2 모드(102)로 전환할 수 있다.
도 6은 일 실시 예에 따른, 제1 모드(101)로 제어되는 AI 스피커의 음성 명령 처리의 예를 도시한다.
AI 스피커의 OS(operating system)는 삼성의 빅스비(bixby), 애플의 시리(siri) 등에 적용될 수 있다. 이하에서, 삼성의 빅스비를 통한 음성 인식 처리에 관한 동작들을 설명한다.
일 실시 예에 따르면, 깨우기 동작(601)에서, 전자 장치(301)가 제1 모드(101)로 제어되고 있는 동안, 마이크(306)는 음성 인식 기능 활성화를 위한 깨우기 명령어(wake-up-word) 입력을 획득할 수 있다. 상기 깨우기 명령어는 상기 제1 음성에 대응될 수 있다. 예를 들어, 마이크(306)는 외부로부터 "Hi, Bixby"라는 깨우기 음성 입력을 획득할 수 있다. 말하기&ASR(auto speech recognition)동작(602)에서, 깨우기 명령어 입력을 획득한 전자 장치(301)는 음성 입력 대기 상태로 전환될 수 있다. 마이크(306)는 음성 명령어 입력을 획득할 수 있다. 상기 음성 명령어 입력은 상기 제2 음성 입력에 대응될 수 있다. 예를 들어, 마이크(306)는 외부로부터 "3분 타이머"라는 상기 음성 명령어 입력을 획득할 수 있다. 실행할 태스크(task)안내 동작(603)에서, 마이크(306)가 상기 음성 명령어 입력을 획득한 것에 응답하여, 상기 음성 명령어 입력에 대응되는 실행할 태스크(task) 안내 콘텐트는 스피커(304) 또는 디스플레이(303) 중 적어도 하나를 통해 출력될 수 있다. 예를 들어, 마이크(306)가 "3분 타이머"라는 상기 음성 명령어를 획득한 것에 응답하여, 디스플레이(303)는 "타이머를 시작할게요"라는 실행할 태스크 안내 콘텐트를 출력할 수 있다. 상기 "타이머를 시작할게요"라는 태스크 안내 콘텐트는 스피커를 통해 음성으로 출력할 수 있다. 상기 입력된 음성 명령어의 내용을 보다 정확하게 특정하기 위한 상세한 정보가 필요한 경우, 상기 상세한 정보에 관련된 콘텐트는 디스플레이(303) 또는 스피커(304) 중 적어도 하나를 통해 출력될 수 있다. 실행 동작(604)에서, 전자 장치(301)는 상기 음성 명령어에 대응되는 명령을 실행할 수 있다. 상기 명령 실행에 관련된 콘텐트는 디스플레이(303)를 통해 출력될 수 있다. 예를 들어, 상기 음성 명령어"3분 타이머"와 관련된 콘텐트인 전자 시계 콘텐트는 디스플레이(303)를 통해 출력될 수 있다.
도 7은 일 실시 예에 따른, 제2 모드(102)로 제어되는 AI 스피커의 음성 명령 처리의 예를 도시한다.
일 실시 예에 따르면, 전자 장치(705)는 2D 형태로 전면 부만 도시되고 있다. 전자 장치(705)의 하우징 면들 중 짧은 면이 지면을 향하는 경우, 전자 장치(705)는 제2 모드(102)로 제어될 수 있다. 전자 장치(705)가 제2 모드(102)로 제어되고 있는 동안, 전자 장치(705)는 자동으로 음성 입력 대기 상태일 수 있다. 전자 장치(705)가 제2 모드(102)로 제어되고 있는 동안, 자동으로 자주 사용하는 기능들이 표시된 적어도 하나의 콘텐트는 디스플레이(303) 또는 스피커(304) 중 적어도 하나를 통해 출력될 수 있다. 디스플레이(303) 또는 마이크(306)는 상기 적어도 하나의 콘텐트 중 제1 콘텐트를 선택하는 터치 입력 또는 음성 입력을 획득할 수 있다. 상기 터치 입력 또는 상기 음성 입력에 대응하여, 전자 장치(301)는 상기 제1 콘텐트의 선택에 대응되는 명령을 실행할 수 있다. 예를 들어, 상기 적어도 하나의 콘텐트는 "날씨", "음악", "레피시"의 메뉴를 포함할 수 있다. 디스플레이(303) 또는 마이크(306)는 상기 제1 콘텐트에 대응되는 상기"날씨" 콘텐트를 선택하는 상기 터치 입력 또는 상기 음성 입력을 획득할 수 있다. 전자 장치(301)는 상기 터치 입력 또는 상기 음성 입력에 대응되는 "날씨"에 관련된 명령을 실행할 수 있다.
일 실시 예에 따르면, 전자 장치(301)는 상기 자주 사용하는 기능들이 표시된 적어도 하나의 콘텐트를 제외한 임의의 콘텐트에 관한 명령을 처리할 수 있다. 말하기 동작(701)에서, 마이크(306)는 음성 명령어 입력에 대응되는 명령 음성 입력을 획득할 수 있다. 예를 들어, 마이크(306)는 "3분"이라는 명령 음성 입력을 획득할 수 있다. 실행 동작(702)에서, 마이크(306)의 명령 음성 입력에 응답하여, 상기 명령 음성 입력과 관련된 콘텐트는 디스플레이(303) 또는 스피커(304) 중 적어도 하나를 통해 출력될 수 있다. 예를 들어, 상기 "3분" 이라는 상기 명령 음성 입력과 관련된 상기 콘텐트는 전자 시계 콘텐트 또는 모레 시계 오브젝트 중 적어도 하나 일 수 있다.
도 8은 일 실시 예에 따른, 비활성화 모드(801)에서 제2 모드(102)로의 모드 전환에 관해 도시한다.
일 실시 예에 따르면, 전자 장치(301)가 제2 모드(102)로 전환된 때로부터 상기 제3 음성 입력을 획득한 때까지 걸린 시간이 기준 시간 이상인 경우, 전자 장치(301)는 제2 모드(102)에서 비활성화 모드(801)로 전환될 수 있다. 상기 제3 음성 입력은 명령 실행을 위한 명령 음성 입력일 수 있다. 비활성화 모드(801)는 상기 음성 인식 기능이 비활성화된 상태를 의미할 수 있다. 전자 장치(301)가 비활성화 모드(801)로 전환된 것에 응답하여, 전자 장치(301)는 비활성화 모드(801)의 알림을 디스플레이(303) 또는 스피커(304) 중 적어도 하나를 통해 출력할 수 있다. 비활성화 모드(801)의 상기 알림은 디스플레이(303) 중 적어도 일부 영역에 디스플레이 될 수 있다. 비활성화 모드(801)의 상기 알림은 디스플레이(303) 중 적어도 일부 영역이 점멸하는 형태로 디스플레이 될 수 있다. 비활성화 모드(801)의 알림은 스피커(304)를 통해 출력될 수 있다. 예를 들어, 전자 장치(301)가 비활성화 모드(801)로 전환된 것에 응답하여, 디스플레이(303)는 off 상태가 될 수 있다. 또한, 전자 장치(301)가 비활성화 모드(801)로 전환된 것에 응답하여, "비활성화 모드입니다"의 음성(803)이 스피커(304)를 통해 출력될 수 있다.
일 실시 예에 따르면, 마이크(306)는 전환 음성 입력을 획득할 수 있다. 상기 전환 음성의 획득에 응답하여, 전자 장치(301)의 음성 인식 모드는 비활성화 모드(801)에서 제2 모드(102)로 전환될 수 있다. 마이크(306)의 상기 전환 음성 입력 획득에 응답하여, 전자 장치(301)는 비활성화 모드(801)에서 제2 모드(102)로 전환될 수 있다. 전자 장치(301)가 비활성화 모드(801)에서 제2 모드(102)로 전환된 것에 응답하여, 디스플레이(303)는 자주 사용하는 기능들이 표시된 적어도 하나의 콘텐트를 디스플레이 할 수 있다.
일 실시 예에 따르면, 디스플레이(303)는 전환 터치 입력을 획득할 수 있다. 상기 전환 터치 입력에 응답하여, 전자 장치(301)의 음성 인식 모드는 비활성화 모드(801)에서 제2 모드(102)로 전환될 수 있다. 디스플레이(303)가 전환 터치 입력을 획득한 것에 응답하여, 전자 장치(301)는 비활성화 모드(801)에서 제2 모드(102)로 전환될 수 있다. 전자 장치(301)가 제2 모드(102)로 전환된 것에 응답하여, 디스플레이(303)는 자주 사용하는 기능들이 표시된 적어도 하나의 콘텐트를 디스플레이 할 수 있다.
일 실시 예에 따르면, 전자 장치(301)가 비활성화 모드(801)로 제어되고 있는 동안, 프로세서(302)는 상기 자이로 센서가 감지한 기울기에 기초하여, 전자 장치(301)의 바닥 면에 대응되는 제1 면(103)이 지면에 대응되는 상기 제1 방향을 향하는 횟수가 기준 시간동안 기준 횟수 이상인지 판단할 수 있다. 예를 들어, 프로세서(302)는 상기 자이로 센서가 감지한 기울기에 기초하여, 전자 장치(301)가 사용자에 의해 흔들리는지 여부를 판단할 수 있다. 상기 판단에 응답하여, 전자 장치(301)는 비활성화 모드(801)에서 제2 모드(102)로 전환될 수 있다. 전자 장치(301)가 제2 모드(102)로 전환된 것에 응답하여, 디스플레이(303)는 자주 사용하는 기능들이 표시된 적어도 하나의 콘텐트를 디스플레이 할 수 있다.

Claims (15)

  1. AI 스피커 장치에 있어서,
    하우징, 상기 하우징은 상기 AI 스피커의 바닥 면(bottom surface)을 형성하는 제1 면, 상기 제1 면과 인접한 제2 면, 및 상기 제1 면과 상기 제2면에 동시에 인접하는 제3 면을 포함함;
    상기 제2 면에 배치되는 디스플레이;
    적어도 하나의 센서;
    마이크;
    스피커;
    명령어들이 저장된 메모리; 및
    상기 디스플레이, 상기 적어도 하나의 센서, 상기 마이크, 상기 스피커, 상기 메모리와 전기적으로 연결된 프로세서를 포함하고,
    상기 프로세서는:
    상기 적어도 하나의 센서를 통해, 상기 프로세서가 상기 AI 스피커의 상기 제1 면이 제1 방향을 향하는 것으로 판단하는 것에 응답하여, 상기 AI 스피커를 제1 모드로 제어하고, 상기 제1 모드로 동작하는 동안:
    상기 마이크가 음성 인식 기능을 활성화하기 위한 제1 음성 입력을 획득하고,
    제1 음성 입력 획득에 응답하여 상기 음성 인식 기능을 활성화하고,
    상기 제1 음성 입력에 후속하는 제2 음성 입력에 대응하는 상기 음성 인식 기능을 통한 처리 결과를 상기 스피커 또는 상기 디스플레이 중 적어도 하나를 이용하여 출력하고,
    상기 적어도 하나의 센서를 통해, 상기 프로세서가 상기 AI 스피커의 상기 제3 면이 상기 제1 방향을 향하는 것으로 판단하는 것에 응답하여, 상기 AI스피커를 상기 제1 모드에서 제2 모드로 전환하도록 설정되는, 장치.
  2. 청구항 1에 있어서,
    상기 제2 모드로 동작하는 동안:
    상기 제2 모드로 전환하는 것에 응답하여 자동으로 상기 음성 인식 기능을 활성화하고,
    상기 마이크는 상기 제1 음성 입력을 제외한 제3 음성 입력을 획득하고,
    상기 제3 음성 입력에 대응하는 상기 음성 인식 기능을 통한 처리 결과를 상기 스피커 또는 상기 디스플레이 중 적어도 하나를 이용하여 출력하도록 설정되는, 장치.
  3. 청구항 1에 있어서,
    상기 적어도 하나의 센서는 자이로 센서 또는 압력 센서 중 적어도 하나인 것을 특징으로 하는 장치.
  4. 청구항 1에 있어서,
    상기 제2 모드로 전환된 것에 응답하여, 자주 사용하는 기능들이 표시된 적어도 하나의 콘텐트가 상기 디스플레이 또는 상기 스피커 중 적어도 하나를 이용하여 출력되는 것을 특징으로 하는 장치.
  5. 청구항 4에 있어서,
    상기 마이크가 상기 적어도 하나의 콘텐트 중 제1 콘텐트를 실행하기 위한 사용자 음성을 획득하는 것을 특징으로 하는 장치.
  6. 청구항 4에 있어서,
    상기 디스플레이가 상기 적어도 하나의 콘텐트 중 제1 콘텐트를 실행하기 위한 사용자 입력을 감지하는 것을 특징으로 하는 장치.
  7. 청구항 4에 있어서,
    상기 제2 모드로 전환된 때로부터 상기 제3 음성 입력을 획득한 때까지 걸린 시간이 제1 시간 이상인 경우, 상기 제2 모드가 비활성화 모드로 전환되는 것을 특징으로 하는 장치.
  8. 청구항 7에 있어서,
    상기 비활성화 모드로 전환된 것에 응답하여, 상기 비활성화 모드를 나타내는 알림이 상기 디스플레이 중 적어도 일부 영역에 디스플레이 되는 것을 특징으로 하는 장치.
  9. 청구항 8에 있어서,
    상기 비활성화 모드를 나타내는 알림은 상기 디스플레이 중 적어도 일부 영역이 점멸하는 것을 특징으로 하는 장치.
  10. 청구항 7에 있어서,
    상기 비활성화 모드로 전환된 것에 응답하여, 상기 비활성화 모드를 나타내는 알림이 스피커를 통해 출력되는 것을 특징으로 하는 장치.
  11. 청구항 7에 있어서,
    상기 비활성화 모드로 동작하는 동안, 상기 제2 모드로 전환되기 위한 전환 음성을 획득하고,
    상기 전환 음성 획득에 응답하여, 상기 비활성화 모드를 상기 제2 모드로 전환하고,
    상기 자주 사용하는 기능들이 표시된 적어도 하나의 콘텐트가 상기 디스플레이 또는 상기 스피커 중 적어도 하나를 통해 출력되는 장치.
  12. 청구항 7에 있어서,
    상기 비활성화 모드로 동작하는 동안, 상기 제2 모드로 전환되기 위한 전환 터치를 획득하고,
    상기 전환 터치 획득에 응답하여, 상기 비활성화 모드를 상기 제2 모드로 전환하고,
    상기 자주 사용하는 기능들이 표시된 적어도 하나의 콘텐트가 상기 디스플레이 또는 상기 스피커를 중 적어도 하나를 통해 출력되는 장치.
  13. 청구항 7에 있어서,
    상기 비활성화 모드로 동작하는 동안, 상기 적어도 하나의 센서는 제2 시간 이내에 상기 제1 면이 상기 제1 방향을 향하는 횟수가 제1 횟수 이상인 것을 감지하고,
    상기 감지에 응답하여, 상기 비활성화 모드를 상기 제2 모드로 전환하고,
    상기 자주 사용하는 기능들이 표시된 적어도 하나의 콘텐트가 상기 디스플레이 또는 상기 스피커 중 적어도 하나를 통해 출력되는 장치.
  14. AI 스피커의 제어 방법에 있어서,
    상기 AI 스피커의 적어도 하나의 센서를 통해, 프로세서가 상기 AI 스피커의 하우징의 제1 면이 제1 방향을 향하는 것을 판단하는 동작, 상기 AI 스피커의 하우징은, 상기 AI 스피커의 바닥 면을 형성하는 상기 제1 면, 상기 제1 면과 인접하고 디스플레이가 배치되는 제2 면, 및 상기 제1 면과 상기 제2 면에 동시에 인접하는 제3 면을 포함함;
    상기 판단에 응답하여, 상기 프로세서가 상기 AI 스피커를 제1 모드로 제어하는 동작;
    상기 제1 모드로 동작하는 동안, 마이크가 상기 AI 스피커의 마이크가 음성 인식 기능을 활성화하기 위한 제1 음성 입력을 획득하는 동작;
    상기 제1 음성 입력 획득에 응답하여 상기 프로세서가 상기 음성 인식 기능을 활성화하는 동작;
    상기 제1 음성 입력에 후속하는 제2 음성 입력에 대응하는 상기 음성 인식 기능을 통한 처리 결과를 상기 스피커 또는 상기 디스플레이 중 적어도 하나를 이용하여 출력하는 동작; 및
    상기 적어도 하나의 센서를 통해, 상기 프로세서가 상기 AI 스피커의 상기 제3 면이 상기 제1 방향을 향하는 것을 판단하는 것에 응답하여, 상기 프로세서는 상기 AI 스피커를 상기 제1 모드에서 제2 모드로 전환하도록 설정되는 방법.
  15. 청구항 14에 있어서,
    상기 제2 모드로 동작하는 동안, 상기 프로세서는 상기 제2 모드로 전환하는 것에 응답하여, 자동으로 상기 음성 인식 기능을 활성화하는 동작;
    상기 마이크는 상기 제1 음성 입력을 제외한 제3 음성 입력을 획득하는 동작; 및
    상기 제3 음성 입력에 대응하는 상기 음성 인식 기능을 통한 처리 결과를 상기 스피커 또는 상기 디스플레이 중 적어도 하나를 이용하여 출력하도록 설정되는 방법.
PCT/KR2020/011544 2019-11-11 2020-08-28 디스플레이형 ai 스피커의 제어방법 및 그 장치 WO2021096036A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0143652 2019-11-11
KR1020190143652A KR102661821B1 (ko) 2019-11-11 2019-11-11 디스플레이형 ai 스피커의 제어방법 및 그 장치

Publications (1)

Publication Number Publication Date
WO2021096036A1 true WO2021096036A1 (ko) 2021-05-20

Family

ID=75912152

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/011544 WO2021096036A1 (ko) 2019-11-11 2020-08-28 디스플레이형 ai 스피커의 제어방법 및 그 장치

Country Status (2)

Country Link
KR (1) KR102661821B1 (ko)
WO (1) WO2021096036A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102657180B1 (ko) * 2022-02-16 2024-04-12 이화여자대학교 산학협력단 샐러브리티 npc가 구비된 스트레처블 디스플레이 인공지능 스피커 장치 및 이를 이용한 알림 제공 방법
KR102665099B1 (ko) * 2022-02-16 2024-05-13 이화여자대학교 산학협력단 스트레처블 디스플레이 장치가 구비된 스피커 시스템 및 그의 구동 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101626863B1 (ko) * 2014-06-11 2016-06-03 주식회사 이엠텍 블루투스 스피커
KR101783317B1 (ko) * 2017-05-11 2017-09-29 (주)피케이엘앤에스 마이크 내장 무선 통신 스피커
KR20180057963A (ko) * 2016-11-23 2018-05-31 김형준 스피커의 공명을 최소화하고 조명으로 사용되는 반응형 캐릭터 완구.
US20180308486A1 (en) * 2016-09-23 2018-10-25 Apple Inc. Intelligent automated assistant
KR20190076441A (ko) * 2017-12-22 2019-07-02 김우종 화분겸용 인공지능형 무선 스피커

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190100703A (ko) * 2018-02-21 2019-08-29 한국과학기술원 음원 위치 인식 기술을 이용한 움직임이 가능한 인공지능 스피커 및 그 제어 방법
KR20190085890A (ko) * 2019-07-01 2019-07-19 엘지전자 주식회사 제스처 인식 장치 및 방법
KR20190112684A (ko) * 2019-09-16 2019-10-07 엘지전자 주식회사 음성 처리 방법 및 음성 처리 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101626863B1 (ko) * 2014-06-11 2016-06-03 주식회사 이엠텍 블루투스 스피커
US20180308486A1 (en) * 2016-09-23 2018-10-25 Apple Inc. Intelligent automated assistant
KR20180057963A (ko) * 2016-11-23 2018-05-31 김형준 스피커의 공명을 최소화하고 조명으로 사용되는 반응형 캐릭터 완구.
KR101783317B1 (ko) * 2017-05-11 2017-09-29 (주)피케이엘앤에스 마이크 내장 무선 통신 스피커
KR20190076441A (ko) * 2017-12-22 2019-07-02 김우종 화분겸용 인공지능형 무선 스피커

Also Published As

Publication number Publication date
KR20210056776A (ko) 2021-05-20
KR102661821B1 (ko) 2024-04-30

Similar Documents

Publication Publication Date Title
WO2019147031A1 (ko) 디스플레이를 제어하는 전자 장치 및 방법
WO2020085789A1 (en) Foldable electronic device for controlling user interface and operating method thereof
WO2019143071A1 (en) Electronic device for controlling a plurality of applications
WO2021096036A1 (ko) 디스플레이형 ai 스피커의 제어방법 및 그 장치
CN110308956B (zh) 一种应用界面显示方法、装置及移动终端
KR20100081575A (ko) 휴대단말 표시부의 온/오프 제어 방법 및 장치
CN108897659B (zh) 修改日志级别的方法、装置及存储介质
WO2019156437A1 (ko) 터치입력장치의 블랙화면모드에서 압력으로 인한 지문 센싱 방법 및 터치입력장치
KR20040051202A (ko) 단말기에 있어서 움직임에 의한 기능 설정 장치 및 방법
JP2023506289A (ja) カメラ起動方法及び電子機器
WO2020145570A1 (en) Electronic device, protective case for electronic device, and displaying method thereof
WO2019212156A1 (ko) 발열 제어를 위한 전자 장치 및 그의 동작 방법
CN111400002B (zh) 应用进程与处理器核绑定方法及终端
WO2014168322A1 (ko) 근접 센서 없이 사용자의 귀가 전자 장치에 근접해 있는지 여부 또는 사용자가 전자 장치의 디스플레이를 보고 있는지 여부를 판단하는 방법 및 장치
WO2020013647A1 (ko) 전자 장치 및 전자 장치의 음량 조절 방법
CN108509127B (zh) 启动录屏任务的方法、装置及计算机设备
WO2019151619A1 (ko) 심 카드를 적재하는 트레이가 삽입되는 전자 장치 및 그의 제어 방법
EP3418882A1 (en) Display apparatus having the ability of voice control and method of instructing voice control timing
WO2020040413A1 (ko) 압력 센서를 포함하는 키 어셈블리를 구비하는 전자 장치 및 이의 동작 방법
WO2017078329A1 (ko) 전자장치 및 그의 동작 방법
CN111930438A (zh) 确定页面加载时长的方法、装置、设备及存储介质
WO2020040454A1 (ko) 분할된 화면을 제어하기 위한 전자 장치
WO2021075706A1 (ko) 전력 관리 집적 회로를 포함하는 전자 장치 및 상기 전자 장치의 이상 상태를 회복하기 위한 방법
CN111708669B (zh) 系统运行的分析方法、装置、设备及存储介质
WO2020130729A1 (ko) 이벤트에 관련된 정보를 제공하는 폴더블 전자 장치 및 그의 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20888511

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20888511

Country of ref document: EP

Kind code of ref document: A1