KR102661821B1 - 디스플레이형 ai 스피커의 제어방법 및 그 장치 - Google Patents

디스플레이형 ai 스피커의 제어방법 및 그 장치 Download PDF

Info

Publication number
KR102661821B1
KR102661821B1 KR1020190143652A KR20190143652A KR102661821B1 KR 102661821 B1 KR102661821 B1 KR 102661821B1 KR 1020190143652 A KR1020190143652 A KR 1020190143652A KR 20190143652 A KR20190143652 A KR 20190143652A KR 102661821 B1 KR102661821 B1 KR 102661821B1
Authority
KR
South Korea
Prior art keywords
speaker
mode
display
response
voice
Prior art date
Application number
KR1020190143652A
Other languages
English (en)
Other versions
KR20210056776A (ko
Inventor
이동진
오정엽
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020190143652A priority Critical patent/KR102661821B1/ko
Priority to PCT/KR2020/011544 priority patent/WO2021096036A1/ko
Publication of KR20210056776A publication Critical patent/KR20210056776A/ko
Application granted granted Critical
Publication of KR102661821B1 publication Critical patent/KR102661821B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/028Casings; Cabinets ; Supports therefor; Mountings therein associated with devices performing functions other than acoustics, e.g. electric candles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1058Manufacture or assembly
    • H04R1/1066Constructional aspects of the interconnection between earpiece and earpiece support
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/15Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Manufacturing & Machinery (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

AI 스피커 장치에 있어서, 하우징, 상기 하우징은 상기 AI 스피커의 바닥 면(bottom surface)을 형성하는 제1 면, 상기 제1 면과 인접한 제2 면, 및 상기 제1 면과 상기 제2면에 동시에 인접하는 제3 면을 포함함; 상기 제2 면에 배치되는 디스플레이; 적어도 하나의 센서; 마이크; 스피커; 명령어들이 저장된 메모리; 및 상기 디스플레이, 상기 적어도 하나의 센서, 상기 마이크, 상기 스피커, 상기 메모리와 전기적으로 연결된 프로세서를 포함하고, 상기 프로세서는: 상기 적어도 하나의 센서를 통해, 상기 프로세서가 상기 AI 스피커의 상기 제1 면이 제1 방향을 향하는 것으로 판단하는 것에 응답하여, 상기 AI 스피커를 제1 모드로 제어하고, 상기 제1 모드로 동작하는 동안: 상기 마이크가 음성 인식 기능을 활성화하기 위한 제1 음성 입력을 획득하고, 제1 음성 입력 획득에 응답하여 상기 음성 인식 기능을 활성화하고, 상기 제1 음성 입력에 후속하는 제2 음성 입력에 대응하는 상기 음성 인식 기능을 통한 처리 결과를 상기 스피커 또는 상기 디스플레이 중 적어도 하나를 이용하여 출력하고, 상기 적어도 하나의 센서를 통해, 상기 프로세서가 상기 AI 스피커의 상기 제3 면이 상기 제1 방향을 향하는 것으로 판단하는 것에 응답하여, 상기 AI스피커를 상기 제1 모드에서 제2 모드로 전환하도록 설정되는, 장치이다.
이 외에도 명세서를 통해 파악되는 다양한 실시 예가 가능하다.

Description

디스플레이형 AI 스피커의 제어방법 및 그 장치 {CONTROL METHOD AND ELECTRONIC DEVICE OF DISPLAY TYPE AI SPEAKER}
본 문서에서 개시되는 실시 예들은, 사용자에게 디스플레이형 AI 스피커의 빠른 실행 모드를 제공하기 위한 디스플레이형 AI 스피커의 제어방법 및 그 장치에 관한 것이다.
AI 스피커 및 디스플레이형 AI 스피커 등, AI 기기의 확산으로 인하여, 사용자들이 AI 기기를 통해 서비스나 기능을 이용하는 경우가 늘어나고 있다. 디스플레이형 AI 스피커를 사용하는 경우, 사용자들은 주로 음성으로 기기에 명령을 입력한다. 이를 통해, 터치 입력 등의 조작을 하지 않고도 원거리에서 편리하게 AI 스피커를 이용할 수 있다.
기존의 디스플레이형 AI 스피커를 사용하는 경우, 사용자들은 일상에서 빈번하게 사용하는 기능들을 사용할 때마다 동일한 명령을 반복적으로 말하는 과정이 필요했다. 따라서, 기존의 디스플레이형 AI 스피커의 사용자들은 반복적으로 동일한 명령을 입력해야 하는 불편함을 갖게 됐다. 또한, 기존의 디스플레이형 AI 스피커가 음성 명령 처리를 하는 경우, 사용자들은 음성 명령 수행에 필요한 정보들을 명시적으로 AI 스피커에 전달하거나 단축 명령어 등의 기능을 이용하여 음성 명령 수행에 필요한 정보들을 AI 스피커에 전달하여야 하는 불편함을 갖게 됐다.
본 문서에서 개시되는 다양한 실시 예들은 상술한 문제점들을 해결하기 위한 장치 및 방법 등을 제공한다.
본 문서에 개시되는 일 실시 예에 따른 장치는, AI 스피커 장치에 있어서, 하우징, 상기 하우징은 상기 AI 스피커의 바닥 면(bottom surface)을 형성하는 제1 면, 상기 제1 면과 인접한 제2 면, 및 상기 제1 면과 상기 제2면에 동시에 인접하는 제3 면을 포함함; 상기 제2 면에 배치되는 디스플레이; 적어도 하나의 센서; 마이크; 스피커; 명령어들이 저장된 메모리; 및 상기 디스플레이, 상기 적어도 하나의 센서, 상기 마이크, 상기 스피커, 상기 메모리와 전기적으로 연결된 프로세서를 포함하고, 상기 프로세서는: 상기 적어도 하나의 센서를 통해, 상기 프로세서가 상기 AI 스피커의 상기 제1 면이 제1 방향을 향하는 것으로 판단하는 것에 응답하여, 상기 AI 스피커를 제1 모드로 제어하고, 상기 제1 모드로 동작하는 동안: 상기 마이크가 음성 인식 기능을 활성화하기 위한 제1 음성 입력을 획득하고, 제1 음성 입력 획득에 응답하여 상기 음성 인식 기능을 활성화하고, 상기 제1 음성 입력에 후속하는 제2 음성 입력에 대응하는 상기 음성 인식 기능을 통한 처리 결과를 상기 스피커 또는 상기 디스플레이 중 적어도 하나를 이용하여 출력하고, 상기 적어도 하나의 센서를 통해, 상기 프로세서가 상기 AI 스피커의 상기 제3 면이 상기 제1 방향을 향하는 것으로 판단하는 것에 응답하여, 상기 AI스피커를 상기 제1 모드에서 제2 모드로 전환하도록 설정되는, 장치이다.
또한, 본 문서에 개시되는 일 실시 예에 따른 제어 방법은, AI 스피커의 제어 방법에 있어서, 상기 AI 스피커의 적어도 하나의 센서를 통해, 프로세서가 상기 AI 스피커의 하우징의 제1 면이 제1 방향을 향하는 것을 판단하는 동작, 상기 AI 스피커의 하우징은, 상기 AI 스피커의 바닥 면을 형성하는 상기 제1 면, 상기 제1 면과 인접하고 디스플레이가 배치되는 제2 면, 및 상기 제1 면과 상기 제2 면에 동시에 인접하는 제3 면을 포함함; 상기 판단에 응답하여, 상기 프로세서가 상기 AI 스피커를 제1 모드로 제어하는 동작; 상기 제1 모드로 동작하는 동안, 마이크가 상기 AI 스피커의 마이크가 음성 인식 기능을 활성화하기 위한 제1 음성 입력을 획득하는 동작; 상기 제1 음성 입력 획득에 응답하여 상기 프로세서가 상기 음성 인식 기능을 활성화하는 동작; 상기 제1 음성 입력에 후속하는 제2 음성 입력에 대응하는 상기 음성 인식 기능을 통한 처리 결과를 상기 스피커 또는 상기 디스플레이 중 적어도 하나를 이용하여 출력하는 동작; 상기 적어도 하나의 센서를 통해, 상기 프로세서가 상기 AI 스피커의 상기 제3 면이 상기 제1 방향을 향하는 것을 판단하는 것에 응답하여, 상기 프로세서는 상기 AI 스피커를 상기 제1 모드에서 제2 모드로 전환하도록 설정되는 방법이다.
또한, 본 문서에 개시되는 일 실시 예에 따른 기록 매체는, 컴퓨터 판독 가능한 명령어들을 저장하는 비 일시적 기록 매체에 있어서, 상기 명령어들은 상기 명령어들이 저장된 전자 장치의 적어도 하나의 프로세서에 의해 실행 시: AI 스피커의 적어도 하나의 센서를 통해, 상기 프로세서가 상기 AI 스피커의 하우징의 제1 면이 제1 방향을 향하는 것으로 판단 하는 동작, 상기 AI 스피커의 하우징은, 상기 AI 스피커의 바닥 면을 형성하는 상기 제1 면, 상기 제1 면과 인접하고 디스플레이가 배치되는 제2 면, 및 상기 제1 면과 상기 제2 면에 동시에 인접하는 제3 면을 포함함; 상기 판단에 응답하여, 상기 프로세서가 상기 AI 스피커를 제1 모드로 제어하는 동작; 상기 제1 모드로 동작하는 동안, 상기 AI 스피커의 마이크가 음성 인식 기능을 활성화하기 위한 제1 음성 입력을 획득하는 동작; 상기 제1 음성 입력 획득에 응답하여 상기 프로세서가 상기 음성 인식 기능을 활성화하는 동작; 상기 제1 음성 입력에 후속하는 제2 음성 입력에 대응하는 상기 음성 인식 기능을 통한 처리 결과를 상기 스피커 또는 상기 디스플레이 중 적어도 하나를 이용하여 출력하는 동작; 상기 적어도 하나의 센서가 상기 AI 스피커의 상기 제3 면이 상기 제1 방향을 향하는 것을 감지하는 것에 응답하여, 상기 프로세서는 상기 AI 스피커를 상기 제1 모드에서 제2 모드로 전환하도록 설정되는, 기록매체이다.
본 문서에 개시되는 다양한 실시 예에 따르면, 디스플레이형 AI 스피커를 사용하는 사용자들은 직관적인 모드 전환을 통해 빠르고 쉽게 일상에서 자주 사용하는 AI 스피커의 기능들을 사용할 수 있다.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도 1은 일 실시 예에 따른, 제1 형상을 갖는 디스플레이형 AI 스피커의 하우징을 도시한다.
도 2는 일 실시 예에 따른, 제2 형상을 갖는 디스플레이형 AI 스피커의 하우징을 도시한다.
도 3은 일 실시 예에 따른, 전자 장치(301)의 블록 구성도를 도시한다.
도 4는 일 실시 예에 따른, 제1 모드(101) 또는 제2 모드(102)에 따른 음성 명령 처리 방법에 관한 순서도를 도시한다.
도 5는 일 실시 예에 따른, 제1 모드(101)에서 제2 모드(102)로의 모드 전환에 관한 순서도를 도시한다.
도 6은 일 실시 예에 따른, 제1 모드(101)로 제어되는 AI 스피커의 음성 명령 처리의 예를 도시한다.
도 7은 일 실시 예에 따른, 제2 모드(102)로 제어되는 AI 스피커의 음성 명령 처리의 예를 도시한다.
도 8은 일 실시 예에 따른, 비활성화 모드(801)에서 제2 모드(102)로의 모드 전환에 관해 도시한다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
이하, 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 특정한 실시 형태를 한정하려는 것이 아니며, 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다.
도 1은 일 실시 예에 따른, 제1 형상을 갖는 디스플레이형 AI 스피커의 하우징을 도시한다.
일 실시 예에 따르면, 전자 장치(100)(예: 디스플레이형 AI 스피커)의 하우징 형태는 육면체 모양의 하우징을 포함할 수 있다. 전자 장치(100)의 하우징은 AI 스피커의 바닥 면(bottom surface)을 형성하는 제1 면(103), 제1 면(103)과 인접한 제2 면(104), 및 제1 면(103)과 제2 면(104)에 동시에 인접하는 제3 면을 포함할 수 있다.
일 실시 예에 따르면, 전자 장치(100)의 바닥 면은 제1 면(103), 디스플레이(106)가 위치하는 전면 부는 제2 면(104), 측면 부는 제3 면에 각각 대응될 수 있다. 상기 측면 부는 상기 바닥 면과 상기 전면 부에 동시에 인접할 수 있다.
다른 실시 예에 따르면, 상기 측면 부는 상기 바닥 면과 상기 전면 부에 동시에 인접하지 않을 수 있다. 연결 영역(연결 면)은 상기 측면 부와 상기 바닥 면 사이에 위치할 수 있다. 상기 연결 영역(연결 면)은 상기 측면 부와 상기 전면 부 사이에 위치할 수 있다. 예를 들어, 상기 측면 부와 상기 바닥 면 또는 상기 측면 부와 상기 전면 부 사이의 뾰족함을 방지하기 위해, 커팅된 형상의 연결 영역(연결 면)은 상기 측면 부와 상기 바닥 면 사이 또는 상기 측면 부와 상기 전면 부 사이에 위치할 수 있다.
일 실시 예에 따르면, 측면 부는 왼쪽 측면 부 및 오른쪽 측면 부를 포함할 수 있다. 도 1의 전자 장치(100)에 따르면, 왼쪽 측면 부에 대응되는 제3 면은 미도시 되어있고, 오른쪽 측면 부에 대응되는 제3 면(105)은 도시되어 있다. 디스플레이(106)는 제2 면(104)의 적어도 일부 영역에 위치할 수 있다. 스피커(108) 또는 마이크(미도시)는 상기 하우징 면들 중 적어도 한 면에 위치할 수 있다. 전자 장치(301)의 각 모서리들은 각각의 면이 부드럽게 연결되도록 곡면을 형성할 수 있다.
일 실시 예에 따르면, 상기 하우징의 제1 면(103)이 지면을 향하는 경우, 전자 장치(100)는 제1 모드(101)로 제어될 수 있다. 제1 모드(101)는 일반 사용 모드를 의미할 수 있다. 예를 들어, 전자 장치(100)의 육면체 모양의 하우징 중 길이가 긴 쪽의 면이 지면을 향하는 경우, 전자 장치(100)는 제1 모드(101)로 제어될 수 있다.
일 실시 예에 따르면, 지면에 지지되는 전자 장치(100)의 상기 하우징 면은 변경될 수 있다. 임의의 회전 방향은 지면에 지지되는 전자 장치(100)의 상기 하우징 면을 변경할 수 있다. 예를 들어, 사용자는 전자 장치(100)를 시계 방향으로 회전시켜, 지면에 지지되는 하우징 면을 왼쪽 측면 부에 대응되는 제3 면(미도시)으로 변경할 수 있다. 또는, 사용자는 전자 장치(100)를 반시계 방향으로 회전시켜, 지면에 지지되는 하우징 면을 오른쪽 측면 부에 대응되는 제 3면(105)으로 변경할 수 있다. 미도시된 왼쪽 측면 부에 대응되는 제3 면이 지면을 향하는 경우, 전자 장치(100)는 제2 모드(102)로 제어될 수 있다. 예를 들어, 전자 장치(100)의 육면체 모양의 하우징 중 길이가 짧은 쪽의 면이 상기 바닥 면을 향하는 상태인 경우, 전자 장치(100)는 제2 모드(102)로 제어될 수 있다. 도 1의 실시 예에서, 전자 장치(100)는 여섯 개의 면을 가지는 육면체 형상을 가지는 것으로 도시되었으나, 이에 한정되는 것은 아니다. 다양한 실시 예에 따르면, 전자 장치(100)는 바닥 면과 닿는 면에 따라서 2개 이상의 모드를 가질 수 있는 형상을 가지는 것으로 충분하다. 예시 적인 실시 예가 도 2를 참조하여 더 설명된다.
도 2는 일 실시 예에 따른, 제2 형상을 갖는 디스플레이형 AI 스피커의 하우징을 도시한다.
일 실시 예에 따르면, 전자 장치(200)의 하우징 형태는 삼각 기둥 모양의 하우징을 포함할 수 있다. 전자 장치(200)의 하우징은 바닥 면에 대응되는 제 1면(201)과 제1 면(201)과 인접한 제2 면(202), 제1 면(201)과 제2 면(202)에 동시에 인접한 제3 면을 포함할 수 있다.
일 실시 예에 따르면, 전자 장치(200)의 바닥 면은 제1 면(201), 전면 부는 제2 면(202), 측면 부는 제3 면에 각각 대응될 수 있다. 상기 측면 부는 상기 바닥 면과 상기 전면 부에 동시에 인접할 수 있다.
다른 실시 예에 따르면, 상기 측면 부는 상기 바닥 면과 상기 전면 부에 동시에 인접하지 않을 수 있다. 연결 영역(연결 면)은 상기 측면 부와 상기 바닥 면 사이에 위치할 수 있다. 상기 연결 영역(연결 면)은 상기 측면 부와 상기 전면 부 사이에 위치할 수 있다. 예를 들어, 상기 측면 부와 상기 바닥 면 또는 상기 측면 부와 상기 전면 부 사이의 뾰족함을 방지하기 위해, 커팅된 형상의 연결 영역(연결 면)은 상기 측면 부와 상기 바닥 면 사이 또는 상기 측면 부와 상기 전면 부 사이에 위치할 수 있다.
일 실시 예에 따르면, 측면 부는 왼쪽 측면 부와 오른쪽 측면 부를 포함할 수 있다. 도 2의 전자 장치(200)에 따르면, 왼쪽 측면 부에 대응되는 제3 면은 미도시 되어 있고, 오른쪽 측면 부에 대응되는 제3 면(203)은 도시되어 있다. 디스플레이(204)는 제2 면(202)의 적어도 일부 영역에 위치할 수 있다. 상기 삼각 기둥의 각 모서리들은 각각의 면이 부드럽게 연결되도록 곡면을 형성할 수 있다. 스피커(205) 및 마이크(미도시)는 상기 하우징 면들 중 적어도 한 면에 위치할 수 있다.
도 3은 일 실시 예에 따른, 전자 장치(301)의 블록 구성도를 도시한다.
전자 장치(301)는 전자 장치(100, 200, 705)에 적용 가능하다. 전자 장치(301)는 프로세서(302), 디스플레이(303), 스피커(304), 메모리(305), 마이크(306), 센서 모듈(310)을 포함할 수 있다. 프로세서(302)는 디스플레이(303), 스피커(304), 메모리(305), 마이크(306), 센서 모듈(310)과 전기적으로 연결될 수 있다.
프로세서(302)는 소프트웨어를 실행하여 프로세서(302)에 연결된 전자 장치(301)의 적어도 하나의 구성요소(예: 스피커(304) 또는 마이크(306) 또는 센서 모듈(310))를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 프로세서(302)는 상기 적어도 하나의 구성요소로부터 수신된 명령 또는 데이터를 메모리(305)에 저장하고, 메모리(305)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 메모리(305)에 저장할 수 있다.
디스플레이(303)는 디스플레이(106, 204)에 적용 가능하다. 디스플레이(303)는 전자 장치(301)의 외부로 정보를 시각적으로 제공할 수 있다. 디스플레이(303)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다. 디스플레이(303)는 전자 장치(301)의 구성요소(예: 프로세서(302))에 사용될 명령 또는 데이터를 수신하기 위한 터치 입력을 감지할 수 있다. 디스플레이(303)는 음성 입력에 대응되는 음성 인식 기능을 통한 처리 결과를 출력할 수 있다.
스피커(304)는 스피커(108, 205)에 적용 가능하다. 스피커(304)는 음향 신호를 전자 장치(301)의 외부로 출력할 수 있다. 스피커(304)는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 스피커(304)는 음성 입력에 대응되는 음성 인식 기능을 통한 처리 결과를 출력할 수 있다.
메모리(305)는 전자 장치(301)의 적어도 하나의 구성요소(예: 프로세서(302) 또는 센서 모듈(310))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 상기 데이터는 소프트웨어 및 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(305)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다.
마이크(306)는 도 1 및 도 2의 마이크(미도시)에 적용 가능하다. 전자 장치(301)의 구성요소(예: 프로세서(302))에 사용될 명령 또는 데이터를 전자 장치(301)의 외부로부터 수신할 수 있다. 마이크(306)는 음성 명령 입력을 외부로부터 수신할 수 있다.
센서 모듈(310)을 통해, 프로세서(302)는 전자 장치(301)의 작동 상태(예: 위치 변화 또는 회전 또는 진동)를 판단할 수 있다. 프로세서(302)는 상기 판단된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서 모듈(310)은 자이로 센서(gyro sensor) 또는 압력 센서 또는 중력 센서 또는 가속도 센서 중 적어도 하나를 포함할 수 있다. 상기 자이로 센서는 전자 장치(301)의 기울기를 감지할 수 있다. 프로세서(302)는 상기 자이로 센서가 감지한 상기 기울기에 기초하여, 전자 장치(301)의 하우징 면들 중 임의의 면이 지면을 향하는지 판단할 수 있다. 프로세서(302)는 상기 자이로 센서가 감지한 상기 기울기에 기초하여, 지면에 지지되는 전자 장치(301)의 하우징 면이 제1 면(103)에서 제3 면(왼쪽 측면 부에 대응되는 제3 면(미도시) 또는 오른쪽 측면 부에 대응되는 제3 면(105))으로 변경되는 것을 판단할 수 있다. 상기 압력 센서는 전자 장치(301)의 하우징 면들 중 임의의 면이 지면으로부터 압력을 받는지 감지할 수 있다. 상기 압력 센서는 지면으로부터 압력을 받는 전자 장치(301)의 하우징 면이 제1 면(103)에서 제3 면으로 변경되는 것을 감지할 수 있다.
도 4는 일 실시 예에 따른, 제1 모드(101) 또는 제2 모드(102)에 따른 음성 명령 처리 방법에 관한 순서도를 도시한다.
전자 장치(301)는 제 1 모드(101) 또는 제2 모드(102)로 제어될 수 있다. 제1 모드(101)는 전자 장치(301)의 일반 사용 모드를 의미할 수 있다. 상기 일반 사용 모드는 음성 인식 기능의 활성화를 위한 활성화 음성 입력 단계를 포함한 모드일 수 있다. 제2 모드(102)는 빠른 실행 모드를 의미할 수 있다. 상기 빠른 실행 모드는 음성 인식 기능의 활성화를 위한 활성화 음성 입력 단계를 생략한 모드일 수 있다. 전자 장치(301)가 제2 모드(102)로 제어되고 있는 동안, 전자 장치(301)는 자동으로 음성 인식 기능이 활성화된 상태일 수 있다.
이하에서, 전자 장치(301)가 제1 모드(101)로 제어되는 동안, 음성 인식 처리에 관한 일련의 동작을 설명한다.
일 실시 예에 따르면, 동작 401에서, 상기 자이로 센서는 전자 장치(301)의 제1 기울기를 감지할 수 있다. 프로세서(302)는 상기 감지된 제1 기울기에 기초하여, 상기 바닥 면이 지면 방향에 대응되는 제1 방향을 향하는 것을 판단할 수 있다. 동작 403에서, 제1 면(103)이 상기 제1 방향을 향하는 경우, 전자 장치(301)는 제1 모드(101)로 제어될 수 있다. 동작 405에서, 전자 장치(301)가 제1 모드(101)로 제어되고 있는 동안, 마이크(306)는 음성 인식 기능 활성화를 위한 제1 음성 입력을 획득할 수 있다. 동작 407에서, 마이크(306)의 상기 제1 음성 입력 획득에 응답하여, 전자 장치(301)는 음성 인식 기능을 활성화할 수 있다. 동작 409에서, 전자 장치(301)의 음성 인식 기능이 활성화되고 있는 동안, 마이크(306)는 음성 명령어 입력에 대응되는 제2 음성 입력을 획득할 수 있다. 동작 411에서, 마이크(306)의 상기 제2 음성 입력 획득에 응답하여, 상기 제2 음성 입력에 대응하는 음성 인식 기능을 통한 처리 결과는 스피커(304) 또는 디스플레이(303) 중 적어도 하나를 통해 출력될 수 있다.
이하에서, 전자 장치(301)가 제2 모드(102)로 제어되는 동안, 음성 인식 처리에 관한 일련의 동작을 설명한다.
일 실시 예에 따르면, 동작 401에서, 상기 자이로 센서는 전자 장치(301)의 제2 기울기를 감지할 수 있다. 프로세서(302)는 상기 감지된 제2 기울기에 기초하여, 상기 측면 부가 지면 방향에 대응되는 제1 방향을 향하는 것을 판단할 수 있다. 동작 413에서, 제1 면(103)이 상기 제1 방향을 향하지 않는 경우, 전자 장치(301)는 제2 모드(102)로 제어될 수 있다. 제1 면(103)이 상기 제1 방향을 향하지 않는 경우에는 제3 면(왼쪽 측면 부 또는 오른쪽 측면 부)이 상기 제1 방향을 향하는 경우가 포함될 수 있다. 이하에서, 제3 면(105)이 제1 면(103)을 향하는 경우를 상정하여 음성 인식 처리에 관한 일련의 동작을 설명한다. 동작 415에서, 전자 장치(301)가 제2 모드(102)로 제어되는 동안, 전자 장치(301)는 자동으로 음성 인식 기능을 활성화할 수 있다. 상기 자동으로 음성 인식 기능을 활성화하는 동작의 의미는 음성 인식 기능 활성화를 위한 별도의 활성화 음성 입력 동작의 생략을 의미할 수 있다. 동작 417에서, 마이크(306)는 상기 제1 음성을 제외한 제3 음성을 획득할 수 있다. 상기 제3 음성은 음성 명령어에 해당할 수 있다. 동작 419에서, 마이크(306)의 상기 제3 음성 입력 획득에 응답하여, 상기 제3 음성 입력에 대응하는 음성 인식 기능을 통한 처리 결과는 스피커(304) 또는 디스플레이(303) 중 적어도 하나를 통해 출력될 수 있다.
도 5는 일 실시 예에 따른, 제1 모드(101)에서 제2 모드(102)로의 모드 전환에 관한 순서도를 도시한다.
전자 장치(301)는 지면에 지지되는 하우징 면에 따라 음성 인식 처리모드를 제1 모드(101)에서 제2 모드(102)로 전환할 수 있다. 이하에서, 음성 인식 처리 모드의 전환에 관한 일련의 동작을 설명한다.
일 실시 예에 따르면, 동작 501에서, 전자 장치(301)의 상기 바닥 면에 대응되는 제1 면(103)이 지면 방향에 대응되는 상기 제1 방향을 향하는 경우, 전자 장치(301)는 제1 모드(101)로 제어될 수 있다. 동작 503에서, 상기 자이로 센서는 전자 장치(301)의 상기 제1 기울기를 감지할 수 있다. 프로세서(302)는 상기 감지된 제1 기울기에 기초하여, 제3 면이 지면에 대응되는 상기 제1 방향을 향하는 것을 판단할 수 있다. 프로세서(302)는 상기 자이로 센서가 감지한 기울기에 기초하여, 전자 장치(301)의 지면을 향하는 하우징 면이 제1 면(103)에서 제3 면(105)으로 변화하는 것을 판단할 수 있다. 상기 압력 센서는 전자 장치(301)의 하우징 면들 중 임의의 면이 지면으로부터 압력을 받는지 감지할 수 있다. 상기 압력 센서를 통해, 전자 장치(301)의 지면을 향하는 하우징 면이 제1 면(103)에서 제3 면(105)으로 변화되는 것을 감지할 수 있다. 동작 505에서, 프로세서(302)는 상기 자이로 센서가 감지한 기울기에 기초하여, 전자 장치(301)의 제3 면이 상기 제1 방향을 향하는지 여부를 판단할 수 있다. 예를 들어, 프로세서(302)는 상기 자이로 센서가 감지한 기울기에 기초하여, 전자 장치(301)의 왼쪽 측면 부에 대응되는 제3 면(미도시) 또는 오른쪽 측면 부에 대응되는 제3 면(105)이 지면에 대응되는 상기 제1 방향을 향하는지 판단할 수 있다. 제3 면이 상기 제1 방향을 향하지 않는 경우, 전자 장치(301)는 제1 모드(101)를 유지할 수 있다. 동작 507에서, 제3 면이 상기 제1 방향을 향하는 경우, 전자 장치(301)는 음성 인식 처리 모드를 제1 모드(101)에서 제2 모드(102)로 전환할 수 있다.
도 6은 일 실시 예에 따른, 제1 모드(101)로 제어되는 AI 스피커의 음성 명령 처리의 예를 도시한다.
AI 스피커의 OS(operating system)는 삼성의 빅스비(bixby), 애플의 시리(siri) 등에 적용될 수 있다. 이하에서, 삼성의 빅스비를 통한 음성 인식 처리에 관한 동작들을 설명한다.
일 실시 예에 따르면, 깨우기 동작(601)에서, 전자 장치(301)가 제1 모드(101)로 제어되고 있는 동안, 마이크(306)는 음성 인식 기능 활성화를 위한 깨우기 명령어(wake-up-word) 입력을 획득할 수 있다. 상기 깨우기 명령어는 상기 제1 음성에 대응될 수 있다. 예를 들어, 마이크(306)는 외부로부터 "Hi, Bixby"라는 깨우기 음성 입력을 획득할 수 있다. 말하기&ASR(auto speech recognition)동작(602)에서, 깨우기 명령어 입력을 획득한 전자 장치(301)는 음성 입력 대기 상태로 전환될 수 있다. 마이크(306)는 음성 명령어 입력을 획득할 수 있다. 상기 음성 명령어 입력은 상기 제2 음성 입력에 대응될 수 있다. 예를 들어, 마이크(306)는 외부로부터 "3분 타이머"라는 상기 음성 명령어 입력을 획득할 수 있다. 실행할 태스크(task)안내 동작(603)에서, 마이크(306)가 상기 음성 명령어 입력을 획득한 것에 응답하여, 상기 음성 명령어 입력에 대응되는 실행할 태스크(task) 안내 콘텐트는 스피커(304) 또는 디스플레이(303) 중 적어도 하나를 통해 출력될 수 있다. 예를 들어, 마이크(306)가 "3분 타이머"라는 상기 음성 명령어를 획득한 것에 응답하여, 디스플레이(303)는 "타이머를 시작할게요"라는 실행할 태스크 안내 콘텐트를 출력할 수 있다. 상기 "타이머를 시작할게요"라는 태스크 안내 콘텐트는 스피커를 통해 음성으로 출력할 수 있다. 상기 입력된 음성 명령어의 내용을 보다 정확하게 특정하기 위한 상세한 정보가 필요한 경우, 상기 상세한 정보에 관련된 콘텐트는 디스플레이(303) 또는 스피커(304) 중 적어도 하나를 통해 출력될 수 있다. 실행 동작(604)에서, 전자 장치(301)는 상기 음성 명령어에 대응되는 명령을 실행할 수 있다. 상기 명령 실행에 관련된 콘텐트는 디스플레이(303)를 통해 출력될 수 있다. 예를 들어, 상기 음성 명령어"3분 타이머"와 관련된 콘텐트인 전자 시계 콘텐트는 디스플레이(303)를 통해 출력될 수 있다.
도 7은 일 실시 예에 따른, 제2 모드(102)로 제어되는 AI 스피커의 음성 명령 처리의 예를 도시한다.
일 실시 예에 따르면, 전자 장치(705)는 2D 형태로 전면 부만 도시되고 있다. 전자 장치(705)의 하우징 면들 중 짧은 면이 지면을 향하는 경우, 전자 장치(705)는 제2 모드(102)로 제어될 수 있다. 전자 장치(705)가 제2 모드(102)로 제어되고 있는 동안, 전자 장치(705)는 자동으로 음성 입력 대기 상태일 수 있다. 전자 장치(705)가 제2 모드(102)로 제어되고 있는 동안, 자동으로 자주 사용하는 기능들이 표시된 적어도 하나의 콘텐트는 디스플레이(303) 또는 스피커(304) 중 적어도 하나를 통해 출력될 수 있다. 디스플레이(303) 또는 마이크(306)는 상기 적어도 하나의 콘텐트 중 제1 콘텐트를 선택하는 터치 입력 또는 음성 입력을 획득할 수 있다. 상기 터치 입력 또는 상기 음성 입력에 대응하여, 전자 장치(301)는 상기 제1 콘텐트의 선택에 대응되는 명령을 실행할 수 있다. 예를 들어, 상기 적어도 하나의 콘텐트는 "날씨", "음악", "레피시"의 메뉴를 포함할 수 있다. 디스플레이(303) 또는 마이크(306)는 상기 제1 콘텐트에 대응되는 상기"날씨" 콘텐트를 선택하는 상기 터치 입력 또는 상기 음성 입력을 획득할 수 있다. 전자 장치(301)는 상기 터치 입력 또는 상기 음성 입력에 대응되는 "날씨"에 관련된 명령을 실행할 수 있다.
일 실시 예에 따르면, 전자 장치(301)는 상기 자주 사용하는 기능들이 표시된 적어도 하나의 콘텐트를 제외한 임의의 콘텐트에 관한 명령을 처리할 수 있다. 말하기 동작(701)에서, 마이크(306)는 음성 명령어 입력에 대응되는 명령 음성 입력을 획득할 수 있다. 예를 들어, 마이크(306)는 "3분"이라는 명령 음성 입력을 획득할 수 있다. 실행 동작(702)에서, 마이크(306)의 명령 음성 입력에 응답하여, 상기 명령 음성 입력과 관련된 콘텐트는 디스플레이(303) 또는 스피커(304) 중 적어도 하나를 통해 출력될 수 있다. 예를 들어, 상기 "3분" 이라는 상기 명령 음성 입력과 관련된 상기 콘텐트는 전자 시계 콘텐트 또는 모레 시계 오브젝트 중 적어도 하나 일 수 있다.
도 8은 일 실시 예에 따른, 비활성화 모드(801)에서 제2 모드(102)로의 모드 전환에 관해 도시한다.
일 실시 예에 따르면, 전자 장치(301)가 제2 모드(102)로 전환된 때로부터 상기 제3 음성 입력을 획득한 때까지 걸린 시간이 기준 시간 이상인 경우, 전자 장치(301)는 제2 모드(102)에서 비활성화 모드(801)로 전환될 수 있다. 상기 제3 음성 입력은 명령 실행을 위한 명령 음성 입력일 수 있다. 비활성화 모드(801)는 상기 음성 인식 기능이 비활성화된 상태를 의미할 수 있다. 전자 장치(301)가 비활성화 모드(801)로 전환된 것에 응답하여, 전자 장치(301)는 비활성화 모드(801)의 알림을 디스플레이(303) 또는 스피커(304) 중 적어도 하나를 통해 출력할 수 있다. 비활성화 모드(801)의 상기 알림은 디스플레이(303) 중 적어도 일부 영역에 디스플레이 될 수 있다. 비활성화 모드(801)의 상기 알림은 디스플레이(303) 중 적어도 일부 영역이 점멸하는 형태로 디스플레이 될 수 있다. 비활성화 모드(801)의 알림은 스피커(304)를 통해 출력될 수 있다. 예를 들어, 전자 장치(301)가 비활성화 모드(801)로 전환된 것에 응답하여, 디스플레이(303)는 off 상태가 될 수 있다. 또한, 전자 장치(301)가 비활성화 모드(801)로 전환된 것에 응답하여, "비활성화 모드입니다"의 음성(803)이 스피커(304)를 통해 출력될 수 있다.
일 실시 예에 따르면, 마이크(306)는 전환 음성 입력을 획득할 수 있다. 상기 전환 음성의 획득에 응답하여, 전자 장치(301)의 음성 인식 모드는 비활성화 모드(801)에서 제2 모드(102)로 전환될 수 있다. 마이크(306)의 상기 전환 음성 입력 획득에 응답하여, 전자 장치(301)는 비활성화 모드(801)에서 제2 모드(102)로 전환될 수 있다. 전자 장치(301)가 비활성화 모드(801)에서 제2 모드(102)로 전환된 것에 응답하여, 디스플레이(303)는 자주 사용하는 기능들이 표시된 적어도 하나의 콘텐트를 디스플레이 할 수 있다.
일 실시 예에 따르면, 디스플레이(303)는 전환 터치 입력을 획득할 수 있다. 상기 전환 터치 입력에 응답하여, 전자 장치(301)의 음성 인식 모드는 비활성화 모드(801)에서 제2 모드(102)로 전환될 수 있다. 디스플레이(303)가 전환 터치 입력을 획득한 것에 응답하여, 전자 장치(301)는 비활성화 모드(801)에서 제2 모드(102)로 전환될 수 있다. 전자 장치(301)가 제2 모드(102)로 전환된 것에 응답하여, 디스플레이(303)는 자주 사용하는 기능들이 표시된 적어도 하나의 콘텐트를 디스플레이 할 수 있다.
일 실시 예에 따르면, 전자 장치(301)가 비활성화 모드(801)로 제어되고 있는 동안, 프로세서(302)는 상기 자이로 센서가 감지한 기울기에 기초하여, 전자 장치(301)의 바닥 면에 대응되는 제1 면(103)이 지면에 대응되는 상기 제1 방향을 향하는 횟수가 기준 시간동안 기준 횟수 이상인지 판단할 수 있다. 예를 들어, 프로세서(302)는 상기 자이로 센서가 감지한 기울기에 기초하여, 전자 장치(301)가 사용자에 의해 흔들리는지 여부를 판단할 수 있다. 상기 판단에 응답하여, 전자 장치(301)는 비활성화 모드(801)에서 제2 모드(102)로 전환될 수 있다. 전자 장치(301)가 제2 모드(102)로 전환된 것에 응답하여, 디스플레이(303)는 자주 사용하는 기능들이 표시된 적어도 하나의 콘텐트를 디스플레이 할 수 있다.

Claims (20)

  1. AI 스피커 장치에 있어서,
    하우징, 상기 하우징은 상기 AI 스피커의 바닥 면(bottom surface)을 형성하는 제1 면, 상기 제1 면과 인접한 제2 면, 및 상기 제1 면과 상기 제2면에 동시에 인접하는 제3 면을 포함함;
    상기 제2 면에 배치되는 디스플레이;
    적어도 하나의 센서;
    마이크;
    스피커;
    명령어들이 저장된 메모리; 및
    상기 디스플레이, 상기 적어도 하나의 센서, 상기 마이크, 상기 스피커, 상기 메모리와 전기적으로 연결된 프로세서를 포함하고,
    상기 프로세서는:
    상기 적어도 하나의 센서를 통해, 상기 프로세서가 상기 AI 스피커의 상기 제1 면이 제1 방향을 향하는 것으로 판단하는 것에 응답하여, 상기 AI 스피커를 제1 모드로 제어하고, 상기 제1 모드로 동작하는 동안:
    상기 마이크가 음성 인식 기능을 활성화하기 위한 제1 음성 입력을 획득하고,
    제1 음성 입력 획득에 응답하여 상기 음성 인식 기능을 활성화하고,
    상기 제1 음성 입력에 후속하는 제2 음성 입력에 대응하는 상기 음성 인식 기능을 통한 처리 결과를 상기 스피커 또는 상기 디스플레이 중 적어도 하나를 이용하여 출력하고,
    상기 적어도 하나의 센서를 통해, 상기 프로세서가 상기 AI 스피커의 상기 제3 면이 상기 제1 방향을 향하는 것으로 판단하는 것에 응답하여, 상기 AI스피커를 상기 제1 모드에서 제2 모드로 전환하도록 설정되는, 장치.
  2. 청구항 1에 있어서,
    상기 제2 모드로 동작하는 동안:
    상기 제2 모드로 전환하는 것에 응답하여 자동으로 상기 음성 인식 기능을 활성화하고,
    상기 마이크는 상기 제1 음성 입력을 제외한 제3 음성 입력을 획득하고,
    상기 제3 음성 입력에 대응하는 상기 음성 인식 기능을 통한 처리 결과를 상기 스피커 또는 상기 디스플레이 중 적어도 하나를 이용하여 출력하도록 설정되는, 장치.
  3. 청구항 1에 있어서,
    상기 적어도 하나의 센서는 자이로 센서 또는 압력 센서 중 적어도 하나인 것을 특징으로 하는 장치.
  4. 청구항 1에 있어서,
    상기 제2 모드로 전환된 것에 응답하여, 자주 사용하는 기능들이 표시된 적어도 하나의 콘텐트가 상기 디스플레이 또는 상기 스피커 중 적어도 하나를 이용하여 출력되는 것을 특징으로 하는 장치.
  5. ◈청구항 5은(는) 설정등록료 납부시 포기되었습니다.◈
    청구항 4에 있어서,
    상기 마이크가 상기 적어도 하나의 콘텐트 중 제1 콘텐트를 실행하기 위한 사용자 음성을 획득하는 것을 특징으로 하는 장치.
  6. ◈청구항 6은(는) 설정등록료 납부시 포기되었습니다.◈
    청구항 4에 있어서,
    상기 디스플레이가 상기 적어도 하나의 콘텐트 중 제1 콘텐트를 실행하기 위한 사용자 입력을 감지하는 것을 특징으로 하는 장치.
  7. 청구항 4에 있어서,
    상기 제2 모드로 전환된 때로부터 제3 음성 입력을 획득한 때까지 걸린 시간이 제1 시간 이상인 경우, 상기 제2 모드가 비활성화 모드로 전환되는 것을 특징으로 하는 장치.
  8. 청구항 7에 있어서,
    상기 비활성화 모드로 전환된 것에 응답하여, 상기 비활성화 모드를 나타내는 알림이 상기 디스플레이 중 적어도 일부 영역에 디스플레이 되는 것을 특징으로 하는 장치.
  9. ◈청구항 9은(는) 설정등록료 납부시 포기되었습니다.◈
    청구항 8에 있어서,
    상기 비활성화 모드를 나타내는 알림은 상기 디스플레이 중 적어도 일부 영역이 점멸하는 것을 특징으로 하는 장치.
  10. ◈청구항 10은(는) 설정등록료 납부시 포기되었습니다.◈
    청구항 7에 있어서,
    상기 비활성화 모드로 전환된 것에 응답하여, 상기 비활성화 모드를 나타내는 알림이 스피커를 통해 출력되는 것을 특징으로 하는 장치.
  11. ◈청구항 11은(는) 설정등록료 납부시 포기되었습니다.◈
    청구항 7에 있어서,
    상기 비활성화 모드로 동작하는 동안, 상기 제2 모드로 전환되기 위한 전환 음성을 획득하고,
    상기 전환 음성 획득에 응답하여, 상기 비활성화 모드를 상기 제2 모드로 전환하고,
    상기 자주 사용하는 기능들이 표시된 적어도 하나의 콘텐트가 상기 디스플레이 또는 상기 스피커 중 적어도 하나를 통해 출력되는 장치.
  12. 청구항 7에 있어서,
    상기 비활성화 모드로 동작하는 동안, 상기 제2 모드로 전환되기 위한 전환 터치를 획득하고,
    상기 전환 터치 획득에 응답하여, 상기 비활성화 모드를 상기 제2 모드로 전환하고,
    상기 자주 사용하는 기능들이 표시된 적어도 하나의 콘텐트가 상기 디스플레이 또는 상기 스피커를 중 적어도 하나를 통해 출력되는 장치.
  13. 청구항 7에 있어서,
    상기 비활성화 모드로 동작하는 동안, 상기 적어도 하나의 센서는 제2 시간 이내에 상기 제1 면이 상기 제1 방향을 향하는 횟수가 제1 횟수 이상인 것을 감지하고,
    상기 감지에 응답하여, 상기 비활성화 모드를 상기 제2 모드로 전환하고,
    상기 자주 사용하는 기능들이 표시된 적어도 하나의 콘텐트가 상기 디스플레이 또는 상기 스피커 중 적어도 하나를 통해 출력되는 장치.
  14. AI 스피커의 제어 방법에 있어서,
    상기 AI 스피커의 적어도 하나의 센서를 통해, 프로세서가 상기 AI 스피커의 하우징의 제1 면이 제1 방향을 향하는 것을 판단하는 동작, 상기 AI 스피커의 하우징은, 상기 AI 스피커의 바닥 면을 형성하는 상기 제1 면, 상기 제1 면과 인접하고 디스플레이가 배치되는 제2 면, 및 상기 제1 면과 상기 제2 면에 동시에 인접하는 제3 면을 포함함;
    상기 판단에 응답하여, 상기 프로세서가 상기 AI 스피커를 제1 모드로 제어하는 동작;
    상기 제1 모드로 동작하는 동안, 마이크가 상기 AI 스피커의 마이크가 음성 인식 기능을 활성화하기 위한 제1 음성 입력을 획득하는 동작;
    상기 제1 음성 입력 획득에 응답하여 상기 프로세서가 상기 음성 인식 기능을 활성화하는 동작;
    상기 제1 음성 입력에 후속하는 제2 음성 입력에 대응하는 상기 음성 인식 기능을 통한 처리 결과를 상기 스피커 또는 상기 디스플레이 중 적어도 하나를 이용하여 출력하는 동작; 및
    상기 적어도 하나의 센서를 통해, 상기 프로세서가 상기 AI 스피커의 상기 제3 면이 상기 제1 방향을 향하는 것을 판단하는 것에 응답하여, 상기 프로세서는 상기 AI 스피커를 상기 제1 모드에서 제2 모드로 전환하도록 설정되는 방법.
  15. ◈청구항 15은(는) 설정등록료 납부시 포기되었습니다.◈
    청구항 14에 있어서,
    상기 제2 모드로 동작하는 동안, 상기 프로세서는 상기 제2 모드로 전환하는 것에 응답하여, 자동으로 상기 음성 인식 기능을 활성화하는 동작;
    상기 마이크는 상기 제1 음성 입력을 제외한 제3 음성 입력을 획득하는 동작; 및
    상기 제3 음성 입력에 대응하는 상기 음성 인식 기능을 통한 처리 결과를 상기 스피커 또는 상기 디스플레이 중 적어도 하나를 이용하여 출력하도록 설정되는 방법.
  16. ◈청구항 16은(는) 설정등록료 납부시 포기되었습니다.◈
    청구항 14에 있어서,
    상기 제2 모드로 전환된 것에 응답하여, 자주 사용하는 기능들이 표시된 적어도 하나의 콘텐트가 상기 디스플레이 또는 상기 스피커 중 적어도 하나를 이용하여 출력되는 것을 특징으로 하는 방법.
  17. ◈청구항 17은(는) 설정등록료 납부시 포기되었습니다.◈
    청구항 16에 있어서,
    상기 마이크가 상기 적어도 하나의 콘텐트 중 제1 콘텐트를 실행하기 위한 사용자 음성을 획득하는 것을 특징으로 하는 방법.
  18. ◈청구항 18은(는) 설정등록료 납부시 포기되었습니다.◈
    청구항 16에 있어서,
    상기 디스플레이가 상기 적어도 하나의 콘텐트 중 제1 콘텐트를 실행하기 위한 사용자 입력을 감지하는 것을 특징으로 하는 방법.
  19. ◈청구항 19은(는) 설정등록료 납부시 포기되었습니다.◈
    청구항 16에 있어서,
    상기 제2 모드로 전환된 때로부터 제3 음성 입력을 획득한 때까지 걸린 시간이 제1 시간 이상인 경우, 상기 제2 모드는 비활성화 모드로 전환되는 것을 특징으로 하는 방법.
  20. 컴퓨터 판독 가능한 명령어들을 저장하는 비 일시적 기록 매체에 있어서, 상기 명령어들은 상기 명령어들이 저장된 전자 장치의 적어도 하나의 프로세서에 의해 실행 시:
    AI 스피커의 적어도 하나의 센서를 통해, 상기 프로세서가 상기 AI 스피커의 하우징의 제1 면이 제1 방향을 향하는 것으로 판단 하는 동작, 상기 AI 스피커의 하우징은, 상기 AI 스피커의 바닥 면을 형성하는 상기 제1 면, 상기 제1 면과 인접하고 디스플레이가 배치되는 제2 면, 및 상기 제1 면과 상기 제2 면에 동시에 인접하는 제3 면을 포함함;
    상기 판단에 응답하여, 상기 프로세서가 상기 AI 스피커를 제1 모드로 제어하는 동작;
    상기 제1 모드로 동작하는 동안, 상기 AI 스피커의 마이크가 음성 인식 기능을 활성화하기 위한 제1 음성 입력을 획득하는 동작;
    상기 제1 음성 입력 획득에 응답하여 상기 프로세서가 상기 음성 인식 기능을 활성화하는 동작;
    상기 제1 음성 입력에 후속하는 제2 음성 입력에 대응하는 상기 음성 인식 기능을 통한 처리 결과를 상기 스피커 또는 상기 디스플레이 중 적어도 하나를 이용하여 출력하는 동작;
    상기 적어도 하나의 센서가 상기 AI 스피커의 상기 제3 면이 상기 제1 방향을 향하는 것을 감지하는 것에 응답하여, 상기 AI 스피커를 상기 제1 모드에서 제2 모드로 전환하도록 설정되는, 기록매체.
KR1020190143652A 2019-11-11 2019-11-11 디스플레이형 ai 스피커의 제어방법 및 그 장치 KR102661821B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190143652A KR102661821B1 (ko) 2019-11-11 2019-11-11 디스플레이형 ai 스피커의 제어방법 및 그 장치
PCT/KR2020/011544 WO2021096036A1 (ko) 2019-11-11 2020-08-28 디스플레이형 ai 스피커의 제어방법 및 그 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190143652A KR102661821B1 (ko) 2019-11-11 2019-11-11 디스플레이형 ai 스피커의 제어방법 및 그 장치

Publications (2)

Publication Number Publication Date
KR20210056776A KR20210056776A (ko) 2021-05-20
KR102661821B1 true KR102661821B1 (ko) 2024-04-30

Family

ID=75912152

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190143652A KR102661821B1 (ko) 2019-11-11 2019-11-11 디스플레이형 ai 스피커의 제어방법 및 그 장치

Country Status (2)

Country Link
KR (1) KR102661821B1 (ko)
WO (1) WO2021096036A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102657180B1 (ko) * 2022-02-16 2024-04-12 이화여자대학교 산학협력단 샐러브리티 npc가 구비된 스트레처블 디스플레이 인공지능 스피커 장치 및 이를 이용한 알림 제공 방법
KR102665099B1 (ko) * 2022-02-16 2024-05-13 이화여자대학교 산학협력단 스트레처블 디스플레이 장치가 구비된 스피커 시스템 및 그의 구동 방법

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101626863B1 (ko) * 2014-06-11 2016-06-03 주식회사 이엠텍 블루투스 스피커
US10043516B2 (en) * 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
KR20180057963A (ko) * 2016-11-23 2018-05-31 김형준 스피커의 공명을 최소화하고 조명으로 사용되는 반응형 캐릭터 완구.
KR101783317B1 (ko) * 2017-05-11 2017-09-29 (주)피케이엘앤에스 마이크 내장 무선 통신 스피커
KR20190076441A (ko) * 2017-12-22 2019-07-02 김우종 화분겸용 인공지능형 무선 스피커
KR20190100703A (ko) * 2018-02-21 2019-08-29 한국과학기술원 음원 위치 인식 기술을 이용한 움직임이 가능한 인공지능 스피커 및 그 제어 방법
KR20190085890A (ko) * 2019-07-01 2019-07-19 엘지전자 주식회사 제스처 인식 장치 및 방법
KR20190112684A (ko) * 2019-09-16 2019-10-07 엘지전자 주식회사 음성 처리 방법 및 음성 처리 장치

Also Published As

Publication number Publication date
WO2021096036A1 (ko) 2021-05-20
KR20210056776A (ko) 2021-05-20

Similar Documents

Publication Publication Date Title
US20150301684A1 (en) Apparatus and method for inputting information
US10862595B2 (en) Method for processing radio frequency interference, and electronic device
US9804765B2 (en) Controlling method of screen lock and electronic device supporting the same
JP6129343B2 (ja) 録音装置、及び録音装置の制御方法
KR102661821B1 (ko) 디스플레이형 ai 스피커의 제어방법 및 그 장치
US20090322686A1 (en) Control And Navigation For A Device Implementing a Touch Screen
US9846529B2 (en) Method for processing information and electronic device
CN103164156A (zh) 便携式终端的触摸输入方法和设备
US11435832B2 (en) Input device, control method, and non-transitory recording medium
KR20200100404A (ko) 적응적 전력 관리를 위한 전자 장치
US20160165039A1 (en) Terminal device
US10268362B2 (en) Method and system for realizing functional key on side surface
KR102105967B1 (ko) 정보 표시를 위한 저전력 감지 장치 및 방법
WO2015163474A1 (ja) 携帯電子機器、制御方法、及びプログラム
KR20200015979A (ko) 디스플레이를 통해 외부 장치의 배터리의 충전을 제공하기 위해 어포던스를 표시하는 전자 장치 및 방법
US11182013B2 (en) Display device with touch panel, and operation determination method thereof
JP6906289B2 (ja) 入力装置、車載装置、表示システムおよび入力装置の制御方法
US20160252950A1 (en) Power Supply Mode Switching Method and Apparatus
KR20110133086A (ko) 모바일 기기 인터페이스 장치, 방법 및 이를 위한 기록매체
JP6062519B1 (ja) 電子機器及び電子機器の動作方法
KR101463450B1 (ko) 사용자 인터페이스 인식 장치 및 방법
KR102452540B1 (ko) 차량 단말기 및 그의 동작 제어 방법
KR102719976B1 (ko) 터치 입력에 기반한 동작 방법 및 그 전자 장치
WO2017143769A1 (zh) 一种实现屏幕控制的方法及装置
KR20210016875A (ko) 터치 입력에 기반한 동작 방법 및 그 전자 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant