KR20230086500A - 인공 지능 장치 - Google Patents

인공 지능 장치 Download PDF

Info

Publication number
KR20230086500A
KR20230086500A KR1020210175177A KR20210175177A KR20230086500A KR 20230086500 A KR20230086500 A KR 20230086500A KR 1020210175177 A KR1020210175177 A KR 1020210175177A KR 20210175177 A KR20210175177 A KR 20210175177A KR 20230086500 A KR20230086500 A KR 20230086500A
Authority
KR
South Korea
Prior art keywords
artificial intelligence
processor
devices
command
operation command
Prior art date
Application number
KR1020210175177A
Other languages
English (en)
Inventor
이동희
김성은
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020210175177A priority Critical patent/KR20230086500A/ko
Priority to PCT/KR2022/009538 priority patent/WO2023106531A1/ko
Publication of KR20230086500A publication Critical patent/KR20230086500A/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • G10L17/24Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/18Artificial neural networks; Connectionist approaches
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Selective Calling Equipment (AREA)

Abstract

본 발명의 실시 예에 따른 장치는 기동어 및 동작 명령어를 포함하는 음성 명령어를 수신하는 마이크로폰, 복수의 인공 지능 장치들과 무선으로 통신을 수행하는 무선 통신부 및 상기 복수의 인공 지능 장치들 각각으로부터 상기 기동어의 인식 여부를 나타내는 기동어 인식 정보 및 인공 지능 장치가 수행 가능한 동작들 및 현재 수행 중인 동작을 포함하는 동작 정보를 수신하고, 상기 기동어 인식 정보 및 상기 동작 정보에 기초하여, 상기 복수의 인공 지능 장치들 중 상기 동작 명령어에 상응하는 동작을 수행할 인공 지능 장치를 선정하고, 선정된 인공 지능 장치에 상기 동작 명령어에 상응하는 동작을 수행하도록 하는 제어 명령을 전송하는 프로세서를 포함할 수 있다.

Description

인공 지능 장치{ARTIFICIAL INTELLIGENCE DEVICE}
본 개시는 인공 지능 장치에 관한 것이다.
스마트폰에 시작된 음성인식 기술 경쟁은 사물인터넷(IoT)의 본격 확산과 맞물려 이제 집 안에서 본격적으로 불붙을 전망이다.
특히, 주목할 만한 점은 그 기기가 음성을 매개로 명령을 내리고, 대화를 나눌 수도 있는 인공지능(AI) 기기라는 점이다.
음성인식 서비스는 막대한 양의 데이터베이스를 활용하여, 사용자의 질문에 최적 답변을 선택하는 구조를 갖고 있다.
음성검색 기능 역시 입력된 음성데이터를 클라우드 서버에서 텍스트로 변환하여 분석하고, 그 결과에 따른 실시간 검색결과를 기기로 재전송하는 방식이다.
클라우드 서버는 수많은 단어들을 성별, 연령별, 억양별로 구분된 음성 데이터로 구분하여, 저장하고 실시간으로 처리할 수 있는 컴퓨팅 능력을 보유하고 있다.
음성 인식은 더 많은 음성데이터가 축적될수록, 인간과 동등한(Human parity) 수준 정도로, 정확해질 것이다.
최근에는, 음성 인식이 가능한 복수의 인공 지능 장치들이 댁내에 존재한다.
사용자가 제어할 인공 지능 장치를 선택하기 위해서는, 인공 지능 장치를 활성화시키기 위한 기동어를 발화해야 한다.
그러나, 복수의 인공 지능 장치들이 댁내에 있는 경우, 사용자가 발화한 기동어에 대해 복수의 인공 지능 장치들이 활성화되어, 사용자가 제어할 기기를 선정하는데 어려움이 있다.
즉, 사용자는 기기의 명칭을 발화하지 않은 경우, 어느 기기가 제어되는지 불명확한 문제가 있다.
기존에는 사용자와 인공 지능 장치 간의 거리가 가장 가까운 인공 지능 장치가 선택되는 기술이 있으나, 이는 사용자가 제어하기 원하는 기기가 아닐 수 있다.
본 개시는 동일한 네트워크에 있고, 동일한 기동어를 사용하는 복수의 인공 지능 장치들 중 사용자가 의도하는 장치를 선정할 수 있도록 하는 것에 그 목적이 있다.
본 개시는 동일한 네트워크에 있고, 동일한 기동어를 사용하는 복수의 인공 지능 장치들 중 사용자의 기동어 발화에 어느 하나의 장치 만이 반응할 수 있도록 하는 것에 그 목적이 있다.
본 발명의 실시 예에 따른 장치는 기동어 및 동작 명령어를 포함하는 음성 명령어를 수신하는 마이크로폰, 복수의 인공 지능 장치들과 무선으로 통신을 수행하는 무선 통신부 및 상기 복수의 인공 지능 장치들 각각으로부터 상기 기동어의 인식 여부를 나타내는 기동어 인식 정보 및 인공 지능 장치가 수행 가능한 동작들 및 현재 수행 중인 동작을 포함하는 동작 정보를 수신하고, 상기 기동어 인식 정보 및 상기 동작 정보에 기초하여, 상기 복수의 인공 지능 장치들 중 상기 동작 명령어에 상응하는 동작을 수행할 인공 지능 장치를 선정하고, 선정된 인공 지능 장치에 상기 동작 명령어에 상응하는 동작을 수행하도록 하는 제어 명령을 전송하는 프로세서를 포함할 수 있다.
본 개시의 실시 예에 따르면, 동일한 네트워크에 연결되고, 동일한 기동어를 사용하는 기기들이 존재하더라도 어느 하나의 기기만이 반응하여, 여러 개의 기기가 반응하여 발생되는 혼란이 차단될 수 있다.
이에 따라, 음성 명령어를 통해 원하지 않는 장치가 제어되는 문제가 해결될 수 있다.
도 1은 본 발명의 일 실시 예에 따른 AI 장치를 나타낸다.
도 2는 본 발명의 일 실시 예에 따른 AI 서버를 나타낸다.
도 3은 본 발명의 일 실시 예에 따른 시스템의 동작 방법을 위한 래더 다이어 그램이다.
도 4는 본 개시의 실시 예에 따라 동일한 네트워크에 연결된 복수의 인공 지능 장치들을 설명하는 도면이다.
도 5 내지 도 8은 본 개시의 일 실시 예에 따라 복수의 인공 지능 장치들 중 사용자의 음성 명령에 대응하는 기능을 실행할 기기를 선정하는 과정을 설명하는 도면들이다.
이하, 본 발명과 관련된 실시 예에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
도 1은 본 발명의 일 실시 예에 따른 AI 장치를 나타낸다.
AI 장치(100)는 TV, 프로젝터, 휴대폰, 스마트폰, 데스크탑 컴퓨터, 노트북, 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), DMB 수신기, 라디오, 세탁기, 냉장고, 데스크탑 컴퓨터, 디지털 사이니지, 로봇, 차량 등과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다.
도 1을 참조하면, 단말기(100)는 통신부(110), 입력부(120), 러닝 프로세서(130), 센싱부(140), 출력부(150), 메모리(170) 및 프로세서(180) 등을 포함할 수 있다.
통신부(110)는 유무선 통신 기술을 이용하여 다른 AI 장치(100a 내지 100e)나 AI 서버(200) 등의 외부 장치들과 데이터를 송수신할 수 있다. 예컨대, 통신부(110)는 외부 장치들과 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등을 송수신할 수 있다.
이때, 통신부(110)가 이용하는 통신 기술에는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth??), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), ZigBee, NFC(Near Field Communication) 등이 있다.
입력부(120)는 다양한 종류의 데이터를 획득할 수 있다.
이때, 입력부(120)는 영상 신호 입력을 위한 카메라, 오디오 신호를 수신하기 위한 마이크로폰, 사용자로부터 정보를 입력 받기 위한 사용자 입력부 등을 포함할 수 있다. 여기서, 카메라나 마이크로폰을 센서로 취급하여, 카메라나 마이크로폰으로부터 획득한 신호를 센싱 데이터 또는 센서 정보라고 할 수도 있다.
입력부(120)는 모델 학습을 위한 학습 데이터 및 학습 모델을 이용하여 출력을 획득할 때 사용될 입력 데이터 등을 획득할 수 있다. 입력부(120)는 가공되지 않은 입력 데이터를 획득할 수도 있으며, 이 경우 프로세서(180) 또는 러닝 프로세서(130)는 입력 데이터에 대하여 전처리로써 입력 특징점(input feature)을 추출할 수 있다.
러닝 프로세서(130)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 여기서, 학습된 인공 신경망을 학습 모델이라 칭할 수 있다. 학습 모델은 학습 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있고, 추론된 값은 어떠한 동작을 수행하기 위한 판단의 기초로 이용될 수 있다.
이때, 러닝 프로세서(130)는 AI 서버(200)의 러닝 프로세서(240)과 함께 AI 프로세싱을 수행할 수 있다.
이때, 러닝 프로세서(130)는 AI 장치(100)에 통합되거나 구현된 메모리를 포함할 수 있다. 또는, 러닝 프로세서(130)는 메모리(170), AI 장치(100)에 직접 결합된 외부 메모리 또는 외부 장치에서 유지되는 메모리를 사용하여 구현될 수도 있다.
센싱부(140)는 다양한 센서들을 이용하여 AI 장치(100) 내부 정보, AI 장치(100)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 획득할 수 있다.
이때, 센싱부(140)에 포함되는 센서에는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 라이다, 레이더 등이 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다.
이때, 출력부(150)에는 시각 정보를 출력하는 디스플레이부, 청각 정보를 출력하는 스피커, 촉각 정보를 출력하는 햅틱 모듈 등이 포함될 수 있다.
메모리(170)는 AI 장치(100)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예컨대, 메모리(170)는 입력부(120)에서 획득한 입력 데이터, 학습 데이터, 학습 모델, 학습 히스토리 등을 저장할 수 있다.
프로세서(180)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 장치(100)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 프로세서(180)는 AI 장치(100)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다.
이를 위해, 프로세서(180)는 러닝 프로세서(130) 또는 메모리(170)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 상기 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 장치(100)의 구성 요소들을 제어할 수 있다.
이때, 프로세서(180)는 결정된 동작을 수행하기 위하여 외부 장치의 연계가 필요한 경우, 해당 외부 장치를 제어하기 위한 제어 신호를 생성하고, 생성한 제어 신호를 해당 외부 장치에 전송할 수 있다.
프로세서(180)는 사용자 입력에 대하여 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 사용자의 요구 사항을 결정할 수 있다.
이때, 프로세서(180)는 음성 입력을 문자열로 변환하기 위한 STT(Speech To Text) 엔진 또는 자연어의 의도 정보를 획득하기 위한 자연어 처리(NLP: Natural Language Processing) 엔진 중에서 적어도 하나 이상을 이용하여, 사용자 입력에 상응하는 의도 정보를 획득할 수 있다.
이때, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 적어도 일부가 머신 러닝 알고리즘에 따라 학습된 인공 신경망으로 구성될 수 있다. 그리고, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 러닝 프로세서(130)에 의해 학습된 것이나, AI 서버(200)의 러닝 프로세서(240)에 의해 학습된 것이거나, 또는 이들의 분산 처리에 의해 학습된 것일 수 있다.
프로세서(180)는 AI 장치(100)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리(170) 또는 러닝 프로세서(130)에 저장하거나, AI 서버(200) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.
프로세서(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, AI 장치(100)의 구성 요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(180)는 상기 응용 프로그램의 구동을 위하여, AI 장치(100)에 포함된 구성 요소들 중 둘 이상을 서로 조합하여 동작시킬 수 있다.
도 2는 본 발명의 일 실시 예에 따른 AI 서버를 나타낸다.
도 2를 참조하면, AI 서버(200)는 머신 러닝 알고리즘을 이용하여 인공 신경망을 학습시키거나 학습된 인공 신경망을 이용하는 장치를 의미할 수 있다. 여기서, AI 서버(200)는 복수의 서버들로 구성되어 분산 처리를 수행할 수도 있고, 5G 네트워크로 정의될 수 있다. 이때, AI 서버(200)는 AI 장치(100)의 일부의 구성으로 포함되어, AI 프로세싱 중 적어도 일부를 함께 수행할 수도 있다.
AI 서버(200)는 통신부(210), 메모리(230), 러닝 프로세서(240) 및 프로세서(260) 등을 포함할 수 있다.
통신부(210)는 AI 장치(100) 등의 외부 장치와 데이터를 송수신할 수 있다.
메모리(230)는 모델 저장부(231)를 포함할 수 있다. 모델 저장부(231)는 러닝 프로세서(240)을 통하여 학습 중인 또는 학습된 모델(또는 인공 신경망, 231a)을 저장할 수 있다.
러닝 프로세서(240)는 학습 데이터를 이용하여 인공 신경망(231a)을 학습시킬 수 있다. 학습 모델은 인공 신경망의 AI 서버(200)에 탑재된 상태에서 이용되거나, AI 장치(100) 등의 외부 장치에 탑재되어 이용될 수도 있다.
학습 모델은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다. 학습 모델의 일부 또는 전부가 소프트웨어로 구현되는 경우 학습 모델을 구성하는 하나 이상의 명령어(instruction)는 메모리(230)에 저장될 수 있다.
프로세서(260)는 학습 모델을 이용하여 새로운 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수 있다.
도 3은 본 발명의 일 실시 예에 따른 시스템의 동작 방법을 위한 래더 다이어 그램이다.
도 3의 실시 예에서, 시스템은 3개의 인공 지능 장치들(100-1 내지 100-3)을 포함하는 것을 가정하여 설명하였으나, 이는 예시에 불과하고, 더 많은 개수의 인공 지능 장치들을 포함할 수 있다.
복수의 인공 지능 장치들은 서로 무선 통신을 수행할 수 있다. 예를 들어, 복수의 인공 지능 장치들은 IoT(Internet Of Things)를 통해 서로 연결된 상태일 수 있다.
이를 위해 각 인공 지능 장치는 와이파이 모듈을 구비할 수 있다.
또한, 복수의 인공 지능 장치들 중 2개 이상은 동일한 기동어(wakeup word)로 기동될 수 있음을 가정한다.
도 3을 참조하면, 제1 인공 지능 장치(100-1)의 프로세서(180)는 입력부(120)를 통해 기동어 및 동작 명령어를 포함하는 음성 명령어를 수신한다(S301).
프로세서(180)는 입력부(120)에 구비된 마이크로폰을 통해 음성 명령어를 획득할 수 있다. 음성 명령어는 사용자가 발화한 명령어로 기동어 및 동작 명령어를 포함할 수 있다.
기동어는 인공 지능 장치를 기동하기 위한 명령어로, 인공 지능 장치를 활성화시키는데 사용될 수 있다. 기동어는 인공 지능 장치로 하여금 음성 인식 서비스의 제공을 준비하기 위한 상태로 만들기 위한 명령어일 수 있다.
동작 명령어는 기기의 동작을 제어하기 위한 명령어일 수 있다.
복수의 인공 지능 장치들(100-1 내지 100-3) 각각은 음성 명령어를 수신할 수 있다.
여기서, 제2, 3 인공 지능 장치들(100-2, 100-3) 각각 또한, 사용자가 발화한 음성 명령어를 수신할 수 있다.
복수의 인공 지능 장치들(100-1 내지 100-3) 중 제1 인공 지능 장치(100-1)는 기동어를 가장 먼저 인식함을 가정한다.
제1 인공 지능 장치(100-1)의 프로세서(180)는 기동어를 인식한 경우, 기동어 인식 알림을 제2 인공 지능 장치(100-2) 및 제3 인공 지능 장치(100-3) 각각에 전송한다(S303, S305).
제1 인공 지능 장치(100-1)의 프로세서(180)는 복수의 인공 지능 장치들(100-1 내지 100-3) 중 가장 먼저 기동어를 인식할 수 있다.
제1 인공 지능 장치(100-1)의 프로세서(180)는 기동어 인식 알림을 다른 인인공 지능 장치들(100-2, 100-3)로 전송할 수 있다.
기동어 인식 알림은 제1 인공 지능 장치(100-1)가 기동어를 인식했음을 나타내는 정보 및 기동어 인식 알림을 수신한 주체가 기동어를 인식했음을 문의하는 정보를 포함할 수 있다.
제2 인공 지능 장치(100-2) 및 제3 인공 지능 장치(100-3) 각각은 기동어 인식 알림의 수신에 따라 대기 상태로 진입한다(S307, S309).
제2, 3 인공 지능 장치들(100-2, 100-3) 각각 또한, 기동어를 인식할 수 있으나, 기동어 인식 알림을 다른 장치로부터 수신한 경우, 대기 상태로 진입할 수 있다.
대기 상태에서는, 인공 지능 장치는 기동어를 인식하여도 음성 인식 기능이 활성화되지 않는다. 이에 따라 인공 지능 장치는 동작 명령어를 수신하여도, 아무런 동작을 하지 않을 수 있다.
제2 인공 지능 장치(100-2) 및 제3 인공 지능 장치(100-3) 각각은 기동어 인식 정보 및 동작 정보를 제1 인공 지능 장치(100-1)에 전송한다(S311, S313).
기동어 인식 정보는 기동어를 인식했는지 여부를 나타내는 정보를 포함할 수 있다. 기동어 인식 정보가 1을 포함하는 경우, 기동어를 인식한 것으로, 0을 포함한 경우, 기동어를 인식하지 못한 것을 나타낼 수 있다.
동작 정보는 해당 인공 지능 장치가 수행할 수 있는 동작들(또는 기능들)을 포함할 수 있다. 예를 들어, 인공 지능 장치가 에어컨인 경우, 동작들은 댁내 온도 조절 기능, 풍속 조절 기능, 풍향 조절 기능 등 에어컨이 수행 가능한 작업들을 포함할 수 있다.
동작 정보는 해당 인공 지능 장치가 수행할 수 있는 동작들(또는 기능들) 및 수행 가능한 동작들 중 현재 수행 중인 동작을 포함할 수 있다.
제2 인공 지능 장치(100-2) 및 제3 인공 지능 장치(100-3) 각각은 기동어 인식 정보 및 동작 정보를 기동어 인식 알림을 전송한 주체인 제1 인공 지능 장치(100-1)에 전송할 수 있다.
제1 인공 지능 장치(100-1)의 프로세서(180)는 수신된 기동어 인식 정보에 기초하여, 기동어를 인식한 기기들을 포함하는 제1 기기 그룹을 획득한다(S315).
일 실시 예에서, 제1 인공 지능 장치(100-1)의 프로세서(180)는 기동어 인식 정보에 기초하여 복수의 인공 장치들 중 기동어를 인식한 장치를 추출할 수 있다.
기동어 인식 정보에는 음성 명령어에 포함된 기동어의 인식 여부를 나타내는 정보가 포함되어 있다. 제1 인공 지능 장치(100-1)의 프로세서(180)는 기동어 인식 정보를 이용하여, 기동어를 인식한 기기를 식별할 수 있다.
제1 인공 지능 장치(100-1)의 프로세서(180)는 자신과 연결된 복수의 인공 지능 장치들 중 기동어를 인식한 하나 이상의 기기를 추출하여, 제1 기기 그룹으로 획득할 수 있다.
제1 인공 지능 장치(100-1)의 프로세서(180)는 제1 기기 그룹으로부터 동작 명령어에 상응하는 동작을 수행 가능한 기기들을 포함하는 제2 기기 그룹을 획득한다(S317).
제1 인공 지능 장치(100-1)의 프로세서(180)는 제1 기기 그룹에 속한 기기들 중 동작 명령어에 상응하는 동작을 수행 가능한 기기들을 추출할 수 있고, 추출된 기기들을 제2 기기 그룹으로 획득할 수 있다.
제1 인공 지능 장치(100-1)의 프로세서(180)는 동작 명령어의 의도 분석을 통해 동작 명령어에 상응하는 동작을 획득할 수 있다.
제1 인공 지능 장치(100-1)의 프로세서(180)는 동작 명령어를 STT(Speech To Text) 엔진을 통해 텍스트 데이터로 변환할 수 있다. 제1 인공 지능 장치(100-1)의 프로세서(180)는 자연어 처리(Natural Language Process) 엔진을 이용하여 동작 명령어의 의도를 획득할 수 있다.
STT 엔진 및 NLP 엔진은 프로세서(180)에 저장된 소프트웨어일 수 있다.
또 다른 예로, 제1 인공 지능 장치(100-1)의 프로세서(180)는 AI 서버(200)에 동작 명령어를 전송하여, 동작 명령어에 상응하는 의도를 AI 서버(200)로부터 수신할 수도 있다.
제1 인공 지능 장치(100-1)의 프로세서(180)는 각 인공 지능 장치로부터 수신한 동작 정보에 포함된 동작들과 동작 명령어의 분석을 통해 얻어진 동작을 비교할 수 있다.
제1 인공 지능 장치(100-1)의 프로세서(180)는 비교 결과에 따라 제1 기기 그룹으로부터 동작 명령어의 분석을 통해 얻어진 동작을 수행 가능한 기기들을 제2 기기 그룹으로 획득할 수 있다.
예를 들어, 동작 명령어의 의도가 <채널 변경>이고, 제2 인공 지능 장치(100-2)는 에이컨임을 가정한다. 에어컨의 수행 가능한 동작들에는 TV의 채널 변경 기능이 포함되지 않으므로, 에어컨은 제2 기기 그룹에 속할 수 없다.
제1 인공 지능 장치(100-1)의 프로세서(180)는 동작 정보에 포함된 동작들과 동작 명령어에 상응하는 동작 간의 비교에 따라 제1 기기 그룹으로부터 제2 기기 그룹을 추출할 수 있다.
프로세서(180)는 동작 명령어에 상응하는 동작이 동작 정보에 포함된 수행 가능한 동작들에 포함된 경우, 해당 인공 지능 장치를 제2 기기 그룹으로 분류할 수 있다.
제1 인공 지능 장치(100-1)의 프로세서(180)는 제2 기기 그룹에서 다른 동작을 수행 중인 기기를 제외한 제3 기기 그룹을 획득한다(S319).
일 실시 예에서, 제1 인공 지능 장치(100-1)의 프로세서(180)는 제2 기기 그룹에 포함된 복수의 인공 지능 장치들 중 동작 명령어에 상응하는 동작 이외의 다른 동작을 수행 중인 기기들을 추출하고, 추출된 기기들을 제3 기기 그룹으로 획득할 수 있다.
예를 들어, 제2 기기 그룹에 포함된 기기들이 에이컨 및 공기 청정기이고, 에어컨이 냉방 가동 중이고, 공기 청정기는 가동 중이지 않은 상태임을 가정한다. 이 상태에서 사용자의 동작 명령어가 <공기 청정 기능 실행>인 경우, 에어컨 및 공기 청정기는 공기 청정 기능을 수행할 수 있으나, 에어컨은 냉방 모드로 동작 중이이다.
제1 인공 지능 장치(100-1)의 프로세서(180)는 에어컨은 다른 동작을 수행 중인 것으로 판단하고, 에어컨을 제외한 공기 청정기를 제3 기기 그룹으로 결정할 수 있다.
제1 인공 지능 장치(100-1)의 프로세서(180)는 기 설정된 우선 순위에 따라 제3 기기 그룹으로부터 동작 명령어에 상응하는 동작을 수행할 기기를 선정한다(S321).
일 실시 예에서 기 설정된 우선 순위는 사용자의 설정에 따라 달라질 수 있다. 즉, 사용자는 동작 명령어에 상응하는 동작을 실행할 기기에 대한 우선 순위를 설정할 수 있다.
또 다른 실시 예에서 기 설정된 우선 순위는 자동 또는 임의로 설정될 수 있다.
제1 인공 지능 장치(100-1)의 프로세서(180)는 제3 기기 그룹에 포함된 기기가 복수 개인 경우, 기 설정된 우선 순위에 따라 동작 명령어에 상응하는 동작을 수행할 기기를 결정할 수 있다.
제1 인공 지능 장치(100-1)의 프로세서(180)는 선정된 기기에 동작 명령어에 상응하는 동작의 제어 명령을 전송한다(S323).
제1 인공 지능 장치(100-1)의 프로세서(180)는 선정된 기기에 동작의 수행을 위한 제어 명령을 통신부(110)를 통해 전송할 수 있다.
수행 명령은 동작 명령어에 상응하는 동작을 수행하라는 지시를 포함할 수 있다.
선정된 기기는 수신된 수행 명령에 따라 해당 동작을 수행할 수 있다.
본 개시의 또 다른 실시 예에 따르면, 사용자가 발화하는 음성 명령어에 기기의 명칭이 포함된 경우, 단계 S315 내지 S321 과정 없이, 해당 기기의 명칭에 상응하는 기기가 동작의 제어 명령을 전송한 기기로 선정될 수 있다.
예를 들어, 사용자가 <거실 TV에서 동영상 재생해줘> 라는 음성 명령어를 발화한 경우, 거실 TV에 동작 명령의 수행을 위한 제어 명령이 전송될 수 있다. 이는 S301 단계 이후에 실행될 수 있는 동작일 수 있다.
제1 인공 지능 장치(100-1)의 프로세서(180)는 음성 명령어에 기기 명칭이 포함된 경우, 해당 기기를 최적의 기기로 선정하고, 선정된 기기에 동작 명령어의 동작의 수행을 위한 제어 명령을 전송할 수 있다.
이와 같이, 본 개시의 실시 예에 따르면, 동일한 네트워크에 연결되고, 동일한 기동어를 사용하는 기기들이 존재하더라도 어느 하나의 기기만이 반응하여, 여러 개의 기기가 반응하여 발생되는 혼란이 차단될 수 있다.
도 4는 본 개시의 실시 예에 따라 동일한 네트워크에 연결된 복수의 인공 지능 장치들을 설명하는 도면이다.
도 4를 참조하면, 복수의 인공 지능 장치들(100-1 내지 100-6)은 동일한 네트워크를 통해 서로 연결되어 있다.
이하에서, 제1 인공 지능 장치(100-1)는 TV, 제2 인공 지능 장치(100-2)는 에어컨, 제3 인공 지능 장치(100-3)는 로봇 청소기(100-3), 제4 인공 지능 장치(100-4)는 제1 공기 청정기, 제5 인공 지능 장치(100-5)는 제2 공기 청정기, 제6 인공 지능 장치(100-6)는 냉장고임을 가정한다.
또한, 사용자는 <HI GL + 공기 청정 기능 실행해줘> 라는 음성 명령어를 발화함을 가정한다. <HI GL>은 기동어, <공기 청정 기능 실행해줘>는 동작 명령어임을 가정한다.
또한, 제1 인공 지능 장치(100-1)인 TV가 기동어를 가장 먼저 인식한 기기임을 가정한다.
제1 인공 지능 장치(100-1)는 다른 인공 지능 장치들(100-2 내지 100-6) 각각에 기동어 인식 알림을 전송할 수 있다.
다른 인공 지능 장치들(100-2 내지 100-6)은 기동어 인식 알림의 수신에 따라 대기 상태로 전환하고, 기동어 인식 정보 및 동작 정보를 제1 인공 지능 장치(100-1)에 전송할 수 있다.
다음으로, 도 5 내지 도 8을 참조하여, 제1 인공 지능 장치(100-1)가 동작 명령어에 상응하는 동작을 수행할 기기를 선정하는 과정을 설명한다.
도 5 내지 도 8은 본 개시의 일 실시 예에 따라 복수의 인공 지능 장치들 중 사용자의 음성 명령에 대응하는 기능을 실행할 기기를 선정하는 과정을 설명하는 도면들이다.
제1 인공 지능 장치(100-1)는 다른 인공 지능 장치들(100-2 내지 100-6) 각각으로부터 수신된 기동어 인식 정보에 기초하여, 복수의 인공 지능 장치들(100-1 내지 100-6) 중 기동어를 인식한 제1 기기 그룹을 선정할 수 있다.
도 5를 참조하면, 로봇 청소기(100-3)는 기동어를 인식하지 못했으므로, 로봇 청소기(100-3)는 제1 기기 그룹에서 제외될 수 있다.
다음으로, 제1 인공 지능 장치(100-1)는 각 기기로부터 수신된 동작 정보에 기초하여, 제1 기기 그룹에서, 동작 명령어에 상응하는 동작을 수행 가능한 기기를 제2 기기 그룹으로 분류할 수 있다.
도 6을 참조하면, 제1 인공 지능 장치(100-1)는 TV(100-1) 및 냉장고(100-6)는 동작 명령어인 <공기 청정 기능 실행해줘>의 동작인 공기 청정 기능을 실행할 수 없으므로, TV(100-1) 및 냉장고(100-6)를 제외한 나머지 기기들(100-2, 100-4, 1005)를 제2 기기 그룹으로 분류할 수 있다.
다음으로, 제1 인공 지능 장치(100-1)는 제2 기기 그룹에서 다른 동작을 수행하고 있어, 동작 명령어에 상응하는 동작을 수행할 수 없는 기기를 제외한 나머지 기기들을 제3 기기 그룹으로 추출할 수 있다.
도 7을 참조하면, 제1 인공 지능 장치(100-1)는 에어컨(100-2)은 공기 청정 기능을 수행할 수 있으나, 냉방 모드로 동작 중이어서, 공기 청정 기능을 수행할 수 없는 상태에 있어, 에어컨(100-2)을 제외한 나머지 기기들(100-4, 100-5)을 제3 기기 그룹으로 선정할 수 있다.
다음으로, 제1 인공 지능 장치(100-1)는 기 설정된 우선 순위에 따라 제3 기기 그룹에서 어느 하나의 기기를 최종 기기로 선정할 수 있다.
예를 들어, 제1 인공 지능 장치(100-1)는 제1 공기 청정기(100-4)의 우선 순위가 제2 공기 청정기(100-5)보다 높은 경우, 제1 공기 청정기(100-4)를 제어 대상 기기로 선정할 수 있다.
제1 인공 지능 장치(100-1)는 제1 공기 청정기(100-4)에 동작 명령어에 상응하는 공기 청정 기능의 실행을 위한 제어 명령을 전송할 수 있다.
이와 같이, 본 개시의 실시 예에 따르면, 동일한 네트워크에 연결되고, 동일한 기동어를 사용하는 기기들이 존재하더라도 어느 하나의 기기만이 사용자의 발화에 반응하여, 여러 개의 기기가 반응하여 발생되는 혼란이 차단될 수 있다.
이에 따라, 사용자는 기동어 발화에 따른 다른 기기들의 제약을 받지 않고, 원하는 기기의 동작을 제어할 수 있다.
본 발명의 일실시예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있다.
상기와 같이 설명된 디스플레이 장치는 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.

Claims (10)

  1. 장치에 있어서,
    기동어 및 동작 명령어를 포함하는 음성 명령어를 수신하는 마이크로폰;
    복수의 인공 지능 장치들과 무선으로 통신을 수행하는 무선 통신부; 및
    상기 복수의 인공 지능 장치들 각각으로부터 상기 기동어의 인식 여부를 나타내는 기동어 인식 정보 및 인공 지능 장치가 수행 가능한 동작들 및 현재 수행 중인 동작을 포함하는 동작 정보를 수신하고, 상기 기동어 인식 정보 및 상기 동작 정보에 기초하여, 상기 복수의 인공 지능 장치들 중 상기 동작 명령어에 상응하는 동작을 수행할 인공 지능 장치를 선정하고, 선정된 인공 지능 장치에 상기 동작 명령어에 상응하는 동작을 수행하도록 하는 제어 명령을 전송하는 프로세서를 포함하는
    장치.
  2. 제1항에 있어서,
    상기 프로세서는
    상기 기동어 인식 정보에 기초하여, 상기 복수의 인공 지능 장치들 중 상기 기동어를 인식한 인공 지능 장치들을 제1 기기 그룹을 획득하는
    장치.
  3. 제2항에 있어서,
    상기 프로세서는
    상기 제1 기기 그룹으로부터 상기 동작 명령어에 상응하는 동작을 수행 가능한 인공 지능 장치들을 포함하는 제2 기기 그룹을 획득하는
    장치.
  4. 제3항에 있어서,
    상기 프로세서는
    상기 제2 기기 그룹으로부터 상기 동작 명령어에 상응하는 동작과 다른 동작을 수행 중인 인공 지능 장치를 제외한 나머지 인공 지능 장치들을 제3 기기 그룹으로 획득하는
    장치.
  5. 제4항에 있어서,
    상기 프로세서는
    상기 제3 기기 그룹으로부터 기 설정된 우선 순위에 따라 상기 동작 명령어에 상응하는 동작을 수행할 인공 지능 장치를 선정하는
    장치.
  6. 제5항에 있어서,
    상기 우선 순위는
    사용자의 수동 설정 또는 임의로 자동 설정된 순위인
    장치.
  7. 제1항에 있어서,
    상기 프로세서는
    상기 음성 명령어에 기기의 명칭이 포함된 경우, 상기 기동어 인식 정보 및 상기 동작 정보에 관계 이, 기기의 명칭에 상응하는 인공 지능 장치를 상기 동작 명령어에 상응하는 동작을 수행할 인공 지능 장치로 선정하는
    장치.
  8. 제1항에 있어서,
    상기 프로세서는
    상기 기동어를 최초로 인식한 경우, 상기 기동어 인식 알림을 상기 복수의 인공 지능 장치들 각각에 전송하는
    장치.
  9. 제3항에 있어서,
    상기 프로세서는
    상기 동작 정보에 포함된 수행 가능한 동작들 및 상기 동작 명령어에 상응하는 동작 간의 비교에 따라 상기 제2 기기 그룹을 획득하는
    장치.
  10. 제9항에 있어서,
    상기 프로세서는
    상기 동작 명령어에 상응하는 동작이 상기 동작 정보에 포함된 수행 가능한 동작들에 포함된 경우, 해당 인공 지능 장치를 상기 제2 기기 그룹으로 분류하는
    장치.
KR1020210175177A 2021-12-08 2021-12-08 인공 지능 장치 KR20230086500A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210175177A KR20230086500A (ko) 2021-12-08 2021-12-08 인공 지능 장치
PCT/KR2022/009538 WO2023106531A1 (ko) 2021-12-08 2022-07-01 인공 지능 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210175177A KR20230086500A (ko) 2021-12-08 2021-12-08 인공 지능 장치

Publications (1)

Publication Number Publication Date
KR20230086500A true KR20230086500A (ko) 2023-06-15

Family

ID=86730580

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210175177A KR20230086500A (ko) 2021-12-08 2021-12-08 인공 지능 장치

Country Status (2)

Country Link
KR (1) KR20230086500A (ko)
WO (1) WO2023106531A1 (ko)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6767206B2 (ja) * 2016-08-30 2020-10-14 シャープ株式会社 応答システム
KR20180085931A (ko) * 2017-01-20 2018-07-30 삼성전자주식회사 음성 입력 처리 방법 및 이를 지원하는 전자 장치
KR102471493B1 (ko) * 2017-10-17 2022-11-29 삼성전자주식회사 전자 장치 및 음성 인식 방법
KR102455199B1 (ko) * 2017-10-27 2022-10-18 엘지전자 주식회사 인공지능 디바이스
JP7077375B2 (ja) * 2020-09-17 2022-05-30 シャープ株式会社 応答システム

Also Published As

Publication number Publication date
WO2023106531A1 (ko) 2023-06-15

Similar Documents

Publication Publication Date Title
US11308955B2 (en) Method and apparatus for recognizing a voice
US11577379B2 (en) Robot and method for recognizing wake-up word thereof
KR20210142783A (ko) 전자장치, 그 동작방법, 및 복수의 인공지능장치를 포함한 시스템
KR20190094307A (ko) 다른 기기의 동작을 제어할 수 있는 인공 지능 기기 및 그의 동작 방법
US11393465B2 (en) Artificial intelligence apparatus for speech interaction and method for the same
CN112051743A (zh) 设备控制方法、冲突处理方法、相应的装置及电子设备
KR102490916B1 (ko) 전자 장치, 이의 제어 방법 및 비일시적인 컴퓨터 판독가능 기록매체
US11143156B2 (en) Artificial intelligence apparatus for controlling auto stop system based on traffic information and method for the same
KR20190019401A (ko) 전자 장치 및 그 제어 방법
US11605379B2 (en) Artificial intelligence server
KR20210039049A (ko) 음성 인식을 수행하는 인공 지능 장치 및 그 방법
US11030991B2 (en) Method and device for speech processing
KR20210062428A (ko) 영상 촬영 장치의 원격 제어 방법 및 장치
US11328718B2 (en) Speech processing method and apparatus therefor
US11450326B2 (en) Device for recognizing voice content, server connected thereto, and method for recognizing voice content
KR20190094316A (ko) 사용자의 음성을 인식하는 인공 지능 장치 및 그 방법
KR20190096308A (ko) 전자기기
US11682388B2 (en) Artificial intelligence apparatus for recognizing speech including multiple languages, and method for the same
US20200020339A1 (en) Artificial intelligence electronic device
KR20200074690A (ko) 전자 장치 및 이의 제어 방법
KR20210020656A (ko) 인공 지능을 이용한 음성 인식 방법 및 그 장치
KR20210055347A (ko) 인공 지능 장치
KR102658691B1 (ko) 정보 제공 방법 및 정보 제공 장치
US20200202738A1 (en) Robot and method of controlling the same
US20200012273A1 (en) Communication robot and method for operating the same

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application