KR102389602B1 - 음성인식 기반의 ai 에이전트 프로그램을 실행하는 단말장치 및 이의 동작방법 - Google Patents

음성인식 기반의 ai 에이전트 프로그램을 실행하는 단말장치 및 이의 동작방법 Download PDF

Info

Publication number
KR102389602B1
KR102389602B1 KR1020200104797A KR20200104797A KR102389602B1 KR 102389602 B1 KR102389602 B1 KR 102389602B1 KR 1020200104797 A KR1020200104797 A KR 1020200104797A KR 20200104797 A KR20200104797 A KR 20200104797A KR 102389602 B1 KR102389602 B1 KR 102389602B1
Authority
KR
South Korea
Prior art keywords
command
voice
unit
search
execution
Prior art date
Application number
KR1020200104797A
Other languages
English (en)
Other versions
KR20220023208A (ko
Inventor
장금숙
Original Assignee
장금숙
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 장금숙 filed Critical 장금숙
Priority to KR1020200104797A priority Critical patent/KR102389602B1/ko
Publication of KR20220023208A publication Critical patent/KR20220023208A/ko
Application granted granted Critical
Publication of KR102389602B1 publication Critical patent/KR102389602B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • G10L17/24Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/955Retrieval from the web using information identifiers, e.g. uniform resource locators [URL]
    • G06F16/9566URL specific, e.g. using aliases, detecting broken or misspelled links
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/12Hotels or restaurants
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/081Search algorithms, e.g. Baum-Welch or Viterbi
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 일 실시예에 따른 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치는 주파수 밴드필터를 이용하여 입력된 음성정보의 음성주파수를 필터링한 후, 기 설정된 음성주파수와의 동일성을 판단하는 음성 매칭부; 상기 음성정보를 문자열로 변환하는 음성-문자 변환부; 온라인 상품주문, 긴급구조요청, 웹 검색 중 적어도 하나 이상과 관련된 명령어를 설정하는 명령어 설정부; 상기 음성-문자변환부에서 변환된 문자열 내에서 상기 명령어 설정부에 설정된 명령어와 동일한 명령어를 추출하는 명령어 추출부; 및 상기 명령어 추출부에서 추출된 명령어를 검색명령어 및 실행명령어로 분리한 후, 상기 실행명령어와 연관된 URL에 접속한 후, 상기 검색명령어에 상응하는 정보를 검색 및 실행하는 AI 에이전트부를 포함한다.

Description

음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치 및 이의 동작방법{Terminal devices running voice recognition-based AI agent programs and how they work}
본 발명은 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치에 관한 것이다.
최근, 정보통신 기술의 비약적인 발전에 따라 IoT(Internet of Things) 기술에 대한 관심 및 수요가 급격히 증가하고 있다. 이러한 IoT는, 이를 바라보는 관점에 따라 다양한 방식으로 정의될 수 있다. 그러나, 본질적으로 IoT는 인터넷을 기반으로 다양한 사물들을 통신 네트워크로 연결함으로써 사람과 사물, 사물과 사물 간의 통신을 가능하게 하는 지능형 정보통신 기술 내지 서비스이다.
이러한 IoT 기술은 스마트 홈(smart home), 스마트 헬스(smart health), 스마트 카(smart car) 등과 같은 다양한 기술 분야에서 응용되고 있다. 특히, IoT 기술을 홈 네트워크 시스템에 접목한 스마트 홈 서비스에 관한 연구가 활발히 진행되고 있다.
스마트 홈 서비스는 통신 네트워크가 구축된 주거 환경에서 사물인터넷 기능이 포함된 IoT 기기를 통해 생활 수준 향상을 추구하는 시스템 전반을 의미한다. TV/냉장고/에어컨 등의 가전제품, 전기/수도 등의 에너지 소비장치, 보안 서비스 등을 통신 네트워크로 연결하여 사용자로 하여금 스마트 폰 또는 음성 제어기(또는 AI 스피커)등을 통해 댁 내의 상황 정보를 원격으로 실시간 확인 및 제어가 가능하도록 할 수 있다. 특히, 최근에는 AI 스피커를 통해 댁 내에 존재하는 IoT 기기들을 원격으로 제어할 수 있는 스마트 홈 서비스가 점점 증가하는 추세이다.
AI 스피커는 음성인식(Voice Recognition) 기술 및 인공지능(Artificial Intelligence) 기술 등을 이용하여 대화형 AI 비서 서비스를 제공할 수 있다. 여기서, 대화형 AI 비서 서비스란 단어 그대로 인공지능이 화자의 비서역할을 수행해주는 서비스를 의미한다. 이러한 AI 스피커는 개인 일정 관리 서비스, SNS 관리 서비스, 앱 실행서비스, 인터넷 쇼핑 서비스, 이메일 관리 서비스, 메신저 관리 서비스, 멀티미디어 재생 서비스, 날씨/교통/여행 정보 제공 서비스, IoT 기기 제어 서비스 등과 같은 다양한 서비스를 제공할 수 있다.
한편, 기존 출시된 음성인식 AI프로그램 및 AI스피커의 경우, 사람마다 가지는 고유한 신체적 문화적 특징으로부터 나오는 다양한 목소리 및 음성의 특징과 지역별 방언까지 포함되어 표현되는 다양한 패턴의 대화내용을 원활하게 인식하여 명령을 수용하기까지에는 아직 일정한 한계를 보이고 있어, 대화형 인공지능 제품 소비자들이 처음에는 호기심으로 구매 또는 사용을 하지만 점차 잦은 오류로 인한 실망감과 스트레스로 인해 더 이상의 지속적인 사용을 하고 있지 못하는 실정에 있다.
사람의 음성과 다양한 기타의 소리패턴(음악소리, 소음, 물체소리, 동물소리등 목소리외 일체)과는 그 소리의 파장 형태에 있어 뚜렷한 차이가 있어, 이러한 사람음성과 기타소리간의 분별은 현재까지 출시된 AI음성인식 프로그램이 비교적 쉽게 분리해 내고 있으며, 또한 2초 내외의 짧은 단어에 대한 인식률은 상당한 수준에 있음이 확인되어 인식율이 떨어지는 긴 문장보다는 짧은 단어의 음성명령어 만으로만 AI음성인식 프로그램을 활용하는 추세로서, 스마트폰의 경우 크게는 구글의 안드로이드와 애플의 IOS가 기본OS로 셋팅되어 판매되고 있으나, 시중에 판매되고 있는 음성인식 스피커 제품들도 마찬가지지만 광고효과를 위해 개발사가 지정하는 특정단어로 먼저 호출한 후 사용하도록 강제하고 있고, 개발회사의 브랜드명을 지속적으로 언급해야 하는 것 또한 상당히 부자연스러운 것으로, 즉, 구글의 안드로이드 음성인식AI의 경우에는 “Hi, 구글” 또는 “Hello, 구글” 애플사의 경우는 “Hi, 쉬리, 또는 Hello 쉬리”로 먼저 말해야 음성인식AI가 호출되도록 강제하고 있고, 또한, 출고 시 기본OS로 설정되어 사용자가 임의로 삭제 또는 교체할 수 없도록 규제화되고 있는 실정이다.
이에 본 발명은 이용자가 사전 호출 행위 및 대화형 명령이 아닌 짧은 단어뿐만 아니라, 단어들 간이 연계된 장문으로도 완벽하게 명령어를 수집하여 명령어를 실행시키는 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치를 제공하고자 한다.
공개특허공보 제10-2020-0060331호
본 발명이 해결하고자 하는 과제는 종래의 문제점을 해결할 수 있는 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치를 제공하는 데 그 목적이 있다.
상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치는 주파수 밴드필터를 이용하여 입력된 음성정보의 음성주파수를 필터링한 후, 기 설정된 음성주파수와의 동일성을 판단하는 음성 매칭부; 상기 음성정보를 문자열로 변환하는 음성-문자 변환부; 온라인 상품주문, 긴급구조요청, 웹 검색 중 적어도 하나 이상과 관련된 명령어를 설정하는 명령어 설정부; 상기 음성-문자변환부에서 변환된 문자열 내에서 상기 명령어 설정부에 설정된 명령어와 동일한 명령어를 추출하는 명령어 추출부; 및 상기 명령어 추출부에서 추출된 명령어를 검색명령어 및 실행명령어로 분리한 후, 상기 실행명령어와 연관된 URL에 접속한 후, 상기 검색명령어에 상응하는 정보를 검색 및 실행하는 AI 에이전트부를 포함하고, 상기 명령어 설정부는 복수 개의 명령어들이 조합된 단문 및 복문으로 구성된 문장 템플릿을 설정하고, 상기 문장 템플릿은 일련번호 또는 상황별 키워드가 기록되고, 상기 명령어 추출부는 상기 명령어 설정부에 설정된 매크로 기능에 따라 기설정된 전사 데이터의 문장 템플릿을 호출하는 것을 특징으로 한다.
상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치의 동작방법은 음성 매칭부에서 주파수 밴드필터를 이용하여 입력된 음성정보의 음성주파수를 필터링한 후, 기 설정된 음성주파수와의 동일성을 판단하는 단계; 음성-문자 변환부에서 상기 음성정보를 문자열로 변환하는 단계; 명령어 설정부에서 온라인 상품주문, 긴급구조요청, 웹 검색 중 적어도 하나 이상과 관련된 명령어를 설정하는 단계; 명령어 추출부에서 변환된 문자열 내에서 상기 명령어 설정부에 설정된 명령어와 동일한 명령어를 추출하는 단계; 및 AI 에이전트부에서 상기 명령어 추출부에서 추출된 명령어를 검색명령어 및 실행명령어로 분리한 후, 상기 실행명령어와 연관된 URL에 접속한 후, 상기 검색명령어에 상응하는 정보를 검색 및 실행하는 단계를 포함하고, 상기 명령어 설정부는 복수 개의 명령어들이 조합된 단문 및 복문으로 구성된 문장 템플릿을 설정하고, 상기 문장 템플릿은 일련번호 또는 상황별 키워드가 기록되고, 상기 명령어 추출부는 상기 명령어 설정부에 설정된 매크로 기능에 따라 기설정된 전사 데이터의 문장 템플릿을 호출하는 것을 특징으로 한다.
본 발명의 일 실시예에 따른 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치를 이용하면, 사용자는 자신만의 명령어를 설정한 후, 웹 서치, 긴급구조, 쇼핑/구매주문/결제를 손쉽게 처리할 수 있다는 이점이 있다.
도 1 및 도 2는 본 발명의 일 실시예에 따른 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치의 실행화면을 나타낸 도이다.
도 3은 본 발명의 일 실시예에 따른 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치의 세부구성을 나타낸 블록도이다.
도 4는 본 발명의 일 실시예에 따른 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치의 동작방법을 설명한 흐름도이다.
본 발명에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.
또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서 "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.
또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.
이하, 첨부된 도면을 참조하여 본 발명의 일 실시예에 따른 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치를 보다 상세하게 설명하도록 한다.
도 1 및 도 2는 본 발명의 일 실시예에 따른 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치의 실행화면을 나타낸 도이고, 도 3은 본 발명의 일 실시예에 따른 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치의 세부구성을 나타낸 블록도이다.
도 1 내지 도 3에 도시한 바와 같이, 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치(100)는 입력부(101), 통신부(110), 저장부(120), 표시부(130), 음성 출력부(140) 및 제어부(150)로 구성된다.
도 1에 도시된 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치(100)의 구성 요소 모두가 필수 구성 요소인 것은 아니며, 도 1에 도시된 구성 요소보다 많은 구성 요소에 의해 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치(100)가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치(100)가 구현될 수도 있다.
상기 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치(100)는 스마트폰(Smart Phone), 휴대 단말기(Portable Terminal), 이동 단말기(Mobile Terminal), 폴더블 단말기(Foldable Terminal), 개인 정보 단말기(Personal Digital Assistant: PDA), PMP(Portable Multimedia Player) 단말기, 텔레매틱스(Telematics) 단말기, 내비게이션(Navigation) 단말기, 개인용 컴퓨터(Personal Computer), 노트북 컴퓨터, 슬레이트 PC(Slate PC), 태블릿 PC(Tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(Wearable Device, 예를 들어, 워치형 단말기(Smartwatch), 글래스형 단말기(Smart Glass), HMD(Head Mounted Display) 등 포함), 와이브로(Wibro) 단말기, IPTV(Internet Protocol Television) 단말기, 스마트 TV, 디지털방송용 단말기, AVN(Audio Video Navigation) 단말기, A/V(Audio/Video) 시스템, 플렉시블 단말기(Flexible Terminal), 디지털 사이니지 장치 등과 같은 다양한 단말기에 적용될 수 있다.
상기 입력부(101)는 오디오 신호 입력을 위한 마이크로폰(microphone)을 포함할 수 있다. 마이크로폰은 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 제어부에서 처리수행 중인 기능(또는 실행중인 응용 프로그램)에 따라 다양하게 활용될 수 있다. 한편, 마이크로폰에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
상기 통신부(110)는 유/무선 통신망을 통해 내부의 임의의 구성 요소 또는 외부의 임의의 적어도 하나의 단말기와 통신 연결한다. 이때, 상기 외부의 임의의 단말기는 서버(미도시), 다른 단말(미도시) 등을 포함할 수 있다. 여기서, 무선 인터넷 기술로는 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 등이 있으며, 상기 통신부(110)는 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다. 또한, 근거리 통신 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct) 등이 포함될 수 있다. 또한, 유선 통신 기술로는 전력선 통신(Power Line Communication: PLC), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등이 포함될 수 있다.
또한, 상기 통신부(110)는 유니버설 시리얼 버스(Universal Serial Bus: USB)를 통해 임의의 단말과 정보를 상호 전송할 수 있다.
또한, 상기 통신부(110)는 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 상기 서버, 상기 다른 단말 등과 무선 신호를 송수신한다.
또한, 상기 통신부(110)는 상기 제어부(150)의 제어에 의해 유/무선 통신 연결되는 서버로부터 제공되는 인공지능 기반의 음성검색 및 음성주문 프로그램 앱, 해당 앱과 관련한 데이터 등을 수신한다.
상기 저장부(120)는 다양한 사용자 인터페이스(User Interface: UI), 그래픽 사용자 인터페이스(Graphic User Interface: GUI) 등을 저장한다.
또한, 상기 저장부(120)는 상기 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치(100)가 동작하는데 필요한 데이터와 프로그램 등을 저장한다.
즉, 상기 저장부(120)는 상기 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한, 이러한 응용 프로그램 중 적어도 일부는 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치(100)의 기본적인 기능을 위하여 출고 당시부터 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치(100)상에 존재할 수 있다. 한편, 응용 프로그램은 상기 저장부(120)에 저장되고, 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치(100)에 설치되어, 제어부(150)에 의하여 상기 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치(100)의 동작(또는 기능)을 수행하도록 구동될 수 있다.
또한, 상기 저장부(120)는 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다. 또한, 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치(100)는 인터넷(internet)상에서 저장부(120)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영하거나, 또는 상기 웹 스토리지와 관련되어 동작할 수도 있다.
또한, 상기 저장부(120)는 상기 제어부(150)의 제어에 의해 상기 수신된 단어 학습 앱(프로그램), 해당 앱(프로그램)과 관련한 데이터 등을 저장한다.
상기 표시부(또는 디스플레이부)(130)는 상기 제어부(150)의 제어에 의해 상기 저장부(120) 및 제어부(150)에 저장된 사용자 인터페이스 및/또는 그래픽 사용자 인터페이스를 이용하여 다양한 메뉴 화면 등과 같은 다양한 콘텐츠를 표시할 수 있다.
여기서, 상기 표시부(130)에 표시되는 콘텐츠는 다양한 텍스트 또는 이미지 데이터(각종 정보 데이터 포함)와 아이콘, 리스트 메뉴, 콤보 박스 등의 데이터를 포함하는 메뉴 화면 등을 포함한다. 또한, 상기 표시부(130)는 터치 스크린 일 수 있다.
또한, 상기 표시부(130)는 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode: OLED), 플렉시블 디스플레이(Flexible Display), 3차원 디스플레이(3D Display), 전자잉크 디스플레이(e-ink display), LED(Light Emitting Diode) 중에서 적어도 하나를 포함할 수 있다.
또한, 상기 표시부(130)는 상기 제어부(150)의 제어에 의해 영어 단어 암기 앱 실행 결과 화면 등을 표시한다.
상기 음성 출력부(140)는 상기 제어부(150)에 의해 소정 신호 처리된 신호에 포함된 음성 정보를 출력한다. 여기서, 상기 음성 출력부(140)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.
또한, 상기 음성 출력부(140)는 상기 제어부(150)에 의해 생성된 안내 음성을 출력한다.
또한, 상기 음성 출력부(140)는 상기 제어부(150)에 의해 상기 단어학습 앱 실행 결과 화면에 대응하는 음성 정보(또는 음향 효과)를 출력한다.
상기 제어부(controller, 또는 MCU(microcontroller unit)(150)는 상기 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치(100)의 전반적인 제어 기능을 실행한다.
또한, 상기 제어부(150)는 상기 저장부(120)에 저장된 프로그램 및 데이터를 이용하여 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치(100)의 전반적인 제어 기능을 실행한다. 상기 제어부(150)는 RAM, ROM, CPU, GPU, 버스를 포함할 수 있으며, RAM, ROM, CPU, GPU 등은 버스를 통해 서로 연결될 수 있다. CPU는 상기 저장부(120)에 액세스하여, 상기 저장부(120)에 저장된 O/S를 이용하여 부팅을 수행할 수 있으며, 상기 저장부(120)에 저장된 각종 프로그램, 콘텐츠, 데이터 등을 이용하여 다양한 동작을 수행할 수 있다.
또한, 상기 제어부(150)는 상기 서버로부터 제공되는 인공지능 기반의 음성검색 및 음성주문 프로그램(앱)을 실행하는 단말장치(100)에 설치한다. 이때, 상기 전용 앱은 인공지능 기반의 음성검색 및 음성주문 프로그램일 수 있다.
또한, 상기 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치(100)에 설치된 전용 앱(또는 애플리케이션)이 사용자의 (음성 또는 사용자 터치/입력)에 따라 선택(또는 터치/실행)되는 경우, 상기 제어부(150)는 해당 전용 앱을 실행하여, 앱 실행 결과 화면을 상기 표시부(130)에 표시한다.
상기 제어부(150)는 음성 매칭부(151), 음성-문자 변환부(152), 명령어 설정부(153), 명령어 추출부(154) 및 AI 에이전트부(155)를 포함한다.
상기 음성 매칭부(151)는 주파수 밴드필터를 이용하여 입력된 음성주파수를 필터링한 후, 기 설정된 음성주파수와의 동일성을 통해 사용자를 인식한 음성인식신호를 출력한다.
상기 음성-문자 변환부(152)는 음성 매칭부(151)로부터 음성인식신호를 수신하면, 입력된 음성을 숫자 및 문자열로 변환하는 구성일 수 있다.
상기 명령어 설정부(153)는 주문, 웹 서치, 연락처 등과 같은 카테고리 내에 사용자가 이용하고자 하는 명령어를 매크로 형식으로 설정하는 기능을 한다.
한편, 상기 명령어 설정부(153)에서 설정된 매크로 형식의 명령어는 검색 매크로 및 실행 매크로로 분류될 수 있고, 실행 매크로의 경우, URL 주소가 동반설정될 수 있다.
상기 명령어 설정부(153)는 실행 매크로로 인지된 명령어가 설정될 경우, 자동으로 해당 명령어와 연관된 URL 주소가 자동으로 표기되어 설정될 수 있다. 또한, 상기 명령어 설정부(153)는 명령어들이 조합된 단문 및 복문으로 구성된 탬플릿으로 저장할 수도 있다.
다음으로, 상기 명령어 추출부(154)는 음성-문자 변환부(152)에서 변환된 숫자 및 문자열 내에서 상기 명령어 설정부에 설정된 명령어와 동일한 명령어를 추출하는 기능을 한다.
상기 명령어 추출부(154)는 명령어 설정부(153)에 설정된 매크로 기능에 따라 기설정된 전사 데이터의 문장 템플릿을 호출할 수 있다. 이때, 문장 템플릿 형식은 어느 하나로 한정되지 않는다. 문장 템플릿 형식은 단문장 형식뿐 아니라 복수의 문장을 포함하는 형식으로 구현되는 것도 가능하다.
예를 들어 "1번 템플릿 호출", "1번 템플릿 불러와"와 같은 음성 데이터가 입력되면 저장된 템플릿 리스트에서 1번 템플릿으로 지정된 템플릿 문장을 불러올 수 있다.
따라서, 명령어 설정부(153)에 기록된 내용을 불러들이는 방법으로 템플릿을 호출할 수도 있다. 즉 다양하고, 업데이트 가능한 템플릿 형태를 이용할 수 있다.
이때 템플릿의 구분은 일련 번호로 구분하거나, 상황별 키워드로 구분하도록 구현될 수도 있다. 템플릿 구분을 위한 식별 정보 즉, 일련번호나 상황별 키워드는 사용자에 의해 미리 설정된 것일 수 있다.
가령, 명령어 설정부(153)의 주문 카테고리 내에 '요기요', '앱', '맛집', '짜장면', '검색'이라는 용어가 설정된 상태에서, 사용자가 “요기요에서 짜장면 맛집 검색해” 라고 음성을 입력될 경우, 명령어 추출부(154)는 '요기요', '앱', '맛집', '짜장면', '검색'이라는 용어를 추출한다.
다음으로, AI 에이전트부(155)는 명령어 추출부(153)에서 추출된 명령어 중 검색명령어 및 실행명령어를 분리한 후, 실행명령어와 연관된 URL에 접속한 후, 검색명령어에 상응하는 정보를 검색하는 기능을 한다.
상기 AI 에이전트부(155)는 챗봇 기능을 구비할 수 있고, 명령어에 따른 실행 및 검색 결과 후, 사용자에게 결과정보를 음성 서비스를 지원할 수 있다.
또한, 상기 AI 에이전트부(155)는 사용자의 음성정보가 명령어 설정부(153) 내에 설정된 정보와 매칭되지 않을 경우, 가장 유사한 명령어를 사용자에게 제시할 수 있다.
또한, 상기 AI 에이전트부(155)는 외부서버로부터 대중들이 자주사용하는 명령어(검색 및 실행)를 제공받아 명령어 설정부(153)에서 자동설정되도록 지원하는 기능을 포함할 수 있다.
또한, AI 에이전트부(155)는 양방향 대화가 가능한 챗봇 서비스를 지원할 수 있다.
챗봇에 대해서는 다양한 유사 용어가 존재하므로, 본 발명의 일 실시예에 따른 챗봇은, 지능형 가상비서, 가상 개인비서(Virtual Personal Assistant), 지능형 개인비서(Intelligent Personal Assistant), 대화형 에이전트(conversational agent), 가상 동반자(virtual companion), 가상도우미(virtual assistant) 등과 같은 용어로 이용되더라도 본 발명의 챗봇의 범위에 포함될 수 있다.
그리고, 챗봇은 채팅을 나누는 챗앱, 채팅 내용에 따라 정보를 검색하고 서비스를 제공하는 서버, 챗앱과 서버를 중계하는 봇API로 구성될 수 있고, 인공지능 분야의 강화학습 알고리즘을 통한 자연어 처리(NLP)와 자연어 생성(NLG)의 기능을 수행할 수 있다. 챗봇은, 인간이 하는 말과 글을 이해하고 자기가 갖고 있거나 학습한 데이터를 분석해서 인간이 이해할 수 있는 말과 글로 대답할 수 있는데, 이를 위해서는 도형, 문자, 음성 등의 패턴을 인식하여 인간이 쓰는 언어를 처리할 수 있으며, 논리적 추론까지 가능할 수 있다. 또한, 챗봇은, 사용자가 요구하는 정보를 비정형 데이터에서 찾아낼 수도 있고, 현실의 상황을 정보화하고 활용하는 지능화된 서비스를 제공할 수도 있다.
이를 위해, 본 발명의 일 실시예에 따른 챗봇은, 기계가 도형, 문자, 음성 등을 식별하는 패턴 인식(Pattern Recognition), 인간이 보통 쓰는 언어를 기계가 인식하도록, 정보검색, 질의응답, 시스템 자동번역, 통역의 기능을 포함하는 자연어처리(Natural Language Processing), 정보 데이터의 뜻을 이해하고, 논리적 추론까지 할 수 있는 시멘틱 웹(Semantic Web), 비정형 텍스트 데이터에서 새롭고 유용한 정보를 찾아내는 텍스트 마이닝(Text Mining), 가상공간에서 현실의 상황을 정보화하고, 이를 활용하여 사용자 중심의 지능화된 서비스를 제공하는 상황인식컴퓨팅(Text Aware Computing)의 기능을 수행할 수 있다.
이때, 본 발명의 일 실시예는, 챗봇에 캐릭터를 부여, 즉 정체성을 심어주어 다양한 성격을 가지도록 학습시킬 수도 있다. 챗봇에 정체성을 심어주었을 경우 사람으로 인식하는 확률이 높아진다는 것은 다양한 연구들을 통해 밝혀져 있다. 사람이 로봇에게 성격을 부여하는 것은 로봇 사용자들이 로봇의 행동을 더욱 쉽게 이해할 수 있게 하고, 더욱 친근한 상호작용을 가능하게 해주기 때문에 도움이 되고 선호도가 더 높아질 수 있다.
성격 유형 분석 도구로 다양한 방법들이 존재하지만 본 발명의 일 실시예에서는 관찰이 어려운 개인의 기질과 같은 내면적 요소보다는 쉽게 드러나는 행동을 통해 유형을 구분할 수 있는 DISC모델을 사용할 수 있다. 왜냐하면, DISC모델은 구분이 단순해서 사용자들의 전체적인 선호도를 파악하기 쉬우므로 인공지능에 적합한 성격을 파악하는데 적절하기 때문이다. DISC 분석의 기준이 되는 두 가지 차원은 대상(일/사람)과 속도(느림/빠름)이다. 성격유형은 4가지로 주도형(D: Dominance), 사교형(I: Influences), 신중형(C: Conscientiousness), 안정형(S: Steadiness)으로 구분될 수 있다. 예를 들어, 주도형인 D형은 일 중심적 성향으로 빠른 결단과 추진력을 중요시한다. 사교형인 I형은 상대방에게 감화를 잘하고 적극적이며 재미있는 성격이다. C형은 신중형으로 말수가 적고 분석적이고 정확하다. S형은 안정형으로 여유 있으며 합리적인 성격이다. 이러한 성격 유형을 챗봇의 역할에 맞춰 가정해볼 수 있을 것이다. D형의 챗봇은 빠르고 정확한 일처리가 중요한 테스크 중심 챗봇에 적합할 수 있고 사교적인 I형은 심심할 때 말동무로 적절할 수 있을 것이고 신중한 C형 또는 안정적인 S형은 상담을 위한 챗봇으로 적절할 수 있다고 가정해볼 수 있다. 또한, 상술한 성격으로 정의가 되었다고 할지라도, 사용자의 취향 및 유형에 따른 선호도가 반영되어 변경적용될 수도 있다.
또한, 본 발명의 일 실시예는, 대화형 에이전트를 사람처럼 느끼게 하는 인터랙션 설계인 의인화(anthropomorphism)를 더 포함할 수 있다. 이때, Computers Are Social Actors(CASA) 관련 연구들을 이용하여 긍정적인 사회적 반응을 끌어내 사람과 에이전트 간 상호작용의 질을 증진시킬 수도 있다.
한편, 상기 AI 에이전트부(155)는 검색명령어 및 실행명령어를 기초로 웹 및 앱에 접속한 후, 주문 및 결제를 처리하는 기능을 지원할 수 있다.
상기 AI 에이전트부(155)는 검색명령어를 통해 접속한 웹 서버로부터 검색명령어에 해당하는 웹 페이지(검색 및 결제 페이지) 정보를 요청하여 제공받을 수 있고, 이를 명령어 설정부에 설정등록할 수 있다.
또한, AI 에이전트부(155)는 실행명령어(주문/결제)를 기초로 검색 결제 페이지에 접속하여 자동으로 실행명령어를 입력하여 상품 주문 및 결제를 처리할 수 있다.
도 4는 본 발명의 일 실시예에 따른 음성검색 및 음성주문 프로그램을 실행하는 단말장치의 동작방법을 설명한 흐름도이다.
도 4를 참조하면, 본 발명의 일 실시예에 따른 음성검색 및 음성주문 프로그램을 실행하는 단말장치의 동작방법(S700)은 먼저, 음성 매칭부에서 주파수 밴드필터를 이용하여 입력된 음성정보의 음성주파수를 필터링한 후, 기 설정된 음성주파수와의 동일성을 판단(S710)하면, 음성-문자 변환부에서 상기 음성정보를 문자열로 변환(S720)한다.
이후, 명령어 설정부에서 온라인 상품주문, 긴급구조요청, 웹 검색 중 적어도 하나 이상과 관련된 명령어를 설정(S730)하고, 명령어 추출부에서 변환된 문자열 내에서 상기 명령어 설정부에 설정된 명령어와 동일한 명령어를 추출(S740)하면, AI 에이전트부에서 상기 명령어 추출부에서 추출된 명령어를 검색명령어 및 실행명령어로 분리한 후, 상기 실행명령어와 연관된 URL에 접속한 후, 상기 검색명령어에 상응하는 정보를 검색 및 실행(S750)한다.
여기서, S730 과정은 명령어 설정부(153)가 주문, 웹 서치, 연락처 등과 같은 카테고리 내에 사용자가 이용하고자 하는 명령어를 매크로 형식으로 설정하는 과정을 포함할 수 있고, 상기 명령어 설정부(153)에서 설정된 매크로 형식의 명령어는 검색 매크로 및 실행 매크로로 분류될 수 있고, 실행 매크로의 경우, URL 주소가 동반설정될 수 있다.
또한, 상기 S730 과정은 상기 명령어 설정부(153)에서 실행 매크로로 인지된 명령어가 설정될 경우, 자동으로 해당 명령어와 연관된 URL 주소가 자동으로 표기되어 설정되는 과정을 포함할 수 있고, 또한, 명령어들이 조합된 단문 및 복문으로 구성된 탬플릿으로 저장하는 과정을 더 포함할 수 있다.
상기 S740 과정은 명령어 추출부(154)가 명령어 설정부(153)에 설정된 매크로 기능에 따라 기설정된 전사 데이터의 문장 템플릿을 호출하는 과정을 포함할 수 있고, 이때, 문장 템플릿 형식은 어느 하나로 한정되지 않는다. 문장 템플릿 형식은 단문장 형식뿐 아니라 복수의 문장을 포함하는 형식으로 구현되는 것도 가능하다.
예를 들어 "1번 템플릿 호출", "1번 템플릿 불러와"와 같은 음성 데이터가 입력되면 저장된 템플릿 리스트에서 1번 템플릿으로 지정된 템플릿 문장을 불러올 수 있다.
따라서, 명령어 설정부(153)에 기록된 내용을 불러들이는 방법으로 템플릿을 호출할 수도 있다. 즉 다양하고, 업데이트 가능한 템플릿 형태를 이용할 수 있다.
이때 템플릿의 구분은 일련 번호로 구분하거나, 상황별 키워드로 구분하도록 구현될 수도 있다. 템플릿 구분을 위한 식별 정보 즉, 일련번호나 상황별 키워드는 사용자에 의해 미리 설정된 것일 수 있다.
가령, 명령어 설정부(153)의 주문 카테고리 내에 '요기요', '앱', '맛집', '짜장면', '검색'이라는 용어가 설정된 상태에서, 사용자가 “요기요에서 짜장면 맛집 검색해” 라고 음성을 입력될 경우, 명령어 추출부(154)는 '요기요', '앱', '맛집', '짜장면', '검색'이라는 용어를 추출한다.
다음으로, 상기 S750 과정은 AI 에이전트부(155)가 명령어에 따른 실행 및 검색 결과 후, 사용자에게 결과정보를 음성 서비스를 지원하는 과정을 포함할 수 있다.
또한, 사용자의 음성정보가 명령어 설정부(153) 내에 설정된 정보와 매칭되지 않을 경우, 가장 유사한 명령어를 사용자에게 제시하는 과정을 더 포함할 수 있다.
또한, 외부서버로부터 대중들이 자주사용하는 명령어(검색 및 실행)를 제공받아 명령어 설정부(153)에서 자동설정되도록 지원하는 과정을 더 포함할 수 있다.
따라서, 본 발명의 일 실시예에 따른 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치를 이용하면, 사용자는 자신만의 명령어를 설정한 후, 웹 서치, 긴급구조, 쇼핑/구매주문/결제를 손쉽게 처리할 수 있다는 이점이 있다.
본 발명의 일 실시예에서 사용된 “~부”는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상
의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다
본 발명의 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100: 음성인식 프로그램을 실행하는 단말장치
100: 통신부
120: 저장부
130: 표시부
140: 음성 출력부
150: 제어부
151: 음성 매칭부
152: 음성-문자 변환부
153: 명령어 설정부
154: 명령어 추출부
155: AI 에이전트부

Claims (7)

  1. 주파수 밴드필터를 이용하여 입력된 음성정보의 음성주파수를 필터링한 후, 기 설정된 음성주파수와의 동일성을 판단하는 음성 매칭부;
    상기 음성정보를 문자열로 변환하는 음성-문자 변환부;
    온라인 상품주문, 긴급구조요청, 웹 검색 중 적어도 하나 이상과 관련된 명령어를 설정하는 명령어 설정부;
    상기 음성-문자변환부에서 변환된 문자열 내에서 상기 명령어 설정부에 설정된 명령어와 동일한 명령어를 추출하는 명령어 추출부; 및
    상기 명령어 추출부에서 추출된 명령어를 검색명령어 및 실행명령어로 분리한 후, 상기 실행명령어와 연관된 URL에 접속한 후, 상기 검색명령어에 상응하는 정보를 검색 및 실행하는 AI 에이전트부를 포함하고,
    상기 명령어 설정부는
    복수 개의 명령어들이 조합된 단문 및 복문으로 구성된 문장 템플릿을 설정하고,
    상기 문장 템플릿은 일련번호 또는 상황별 키워드가 기록되고,
    상기 명령어 추출부는
    상기 명령어 설정부에 설정된 매크로 기능에 따라 기설정된 전사 데이터의 문장 템플릿을 호출하는 것을 특징으로 하는 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치.
  2. 제1항에 있어서,
    상기 명령어 설정부는 상기 검색명령어 및 실행명령어를 매크로 형식으로 기록 설정하고,
    상기 실행명령어의 매크로의 경우, URL 주소가 동반설정되는 것을 특징으로 하는 음성인식 기반의 AI 에이전트 프로그램을 실행하는 단말장치
  3. 삭제
  4. 삭제
  5. 제2항에 있어서,
    상기 AI 에이전트부는
    상기 명령어 추출부에서 추출된 명령어 중 검색명령어 및 실행명령어를 분리한 후, 실행명령어와 연관된 URL에 접속한 후, 검색명령어 및 실행명령어에 상응하는 정보를 검색 및 실행하는 음성검색 및 음성주문 프로그램을 실행하는 단말장치.
  6. 제5항에 있어서,
    상기 AI 에이전트부는
    상기 명령어에 따른 실행 및 검색 결과 후, 사용자에게 결과정보를 음성 서비스를 지원하고, 사용자의 음성정보가 상기 명령어 설정부 내에 설정된 정보와 매칭되지 않을 경우, 가장 유사한 명령어를 사용자에게 제시하고, 외부서버로부터 대중들이 자주사용하는 명령어(검색 및 실행)를 제공받아 명령어 설정부에서 자동설정되도록 지원하는 음성검색 및 음성주문 프로그램을 실행하는 단말장치.
  7. 음성 매칭부에서 주파수 밴드필터를 이용하여 입력된 음성정보의 음성주파수를 필터링한 후, 기 설정된 음성주파수와의 동일성을 판단하는 단계;
    음성-문자 변환부에서 상기 음성정보를 문자열로 변환하는 단계;
    명령어 설정부에서 온라인 상품주문, 긴급구조요청, 웹 검색 중 적어도 하나 이상과 관련된 명령어를 설정하는 단계;
    명령어 추출부에서 변환된 문자열 내에서 상기 명령어 설정부에 설정된 명령어와 동일한 명령어를 추출하는 단계; 및
    AI 에이전트부에서 상기 명령어 추출부에서 추출된 명령어를 검색명령어 및 실행명령어로 분리한 후, 상기 실행명령어와 연관된 URL에 접속한 후, 상기 검색명령어에 상응하는 정보를 검색 및 실행하는 단계를 포함하고,
    상기 명령어 설정부는
    복수 개의 명령어들이 조합된 단문 및 복문으로 구성된 문장 템플릿을 설정하고, 상기 문장 템플릿은 일련번호 또는 상황별 키워드가 기록되고,
    상기 명령어 추출부는
    상기 명령어 설정부에 설정된 매크로 기능에 따라 기설정된 전사 데이터의 문장 템플릿을 호출하는 음성검색 및 음성주문 프로그램을 실행하는 단말장치의 동작방법.
KR1020200104797A 2020-08-20 2020-08-20 음성인식 기반의 ai 에이전트 프로그램을 실행하는 단말장치 및 이의 동작방법 KR102389602B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200104797A KR102389602B1 (ko) 2020-08-20 2020-08-20 음성인식 기반의 ai 에이전트 프로그램을 실행하는 단말장치 및 이의 동작방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200104797A KR102389602B1 (ko) 2020-08-20 2020-08-20 음성인식 기반의 ai 에이전트 프로그램을 실행하는 단말장치 및 이의 동작방법

Publications (2)

Publication Number Publication Date
KR20220023208A KR20220023208A (ko) 2022-03-02
KR102389602B1 true KR102389602B1 (ko) 2022-04-22

Family

ID=80815392

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200104797A KR102389602B1 (ko) 2020-08-20 2020-08-20 음성인식 기반의 ai 에이전트 프로그램을 실행하는 단말장치 및 이의 동작방법

Country Status (1)

Country Link
KR (1) KR102389602B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024075944A1 (ko) * 2022-10-05 2024-04-11 주식회사 닥터송 인공지능 기반의 인버티드 큐 방식을 통한 고객 의도 처리 방법, 장치 및 컴퓨터-판독 가능 기록 매체

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024106768A1 (ko) * 2022-11-15 2024-05-23 삼성전자주식회사 복수의 qr 코드를 이용하여 복수의 보이스 어시스턴트를 온보딩하는 디스플레이 장치, 전자 장치 및 그들의 제어 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008281778A (ja) 2007-05-10 2008-11-20 Yaskawa Electric Corp ロボット

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3526063B2 (ja) * 1992-12-15 2004-05-10 株式会社リコー 音声認識装置
KR102409303B1 (ko) * 2016-12-15 2022-06-15 삼성전자주식회사 음성 인식 방법 및 장치
KR102490916B1 (ko) * 2017-02-21 2023-01-20 삼성전자주식회사 전자 장치, 이의 제어 방법 및 비일시적인 컴퓨터 판독가능 기록매체
KR20190107351A (ko) * 2018-03-12 2019-09-20 순천향대학교 산학협력단 사용자 음성에 대한 서비스 지연을 최소화하는 단말기 중심의 음성대화 시스템 및 방법
KR20200060331A (ko) 2020-05-25 2020-05-29 주식회사 오리지널메이커스 음성 인식을 이용한 주문 처리 시스템 및 그 주문 처리 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008281778A (ja) 2007-05-10 2008-11-20 Yaskawa Electric Corp ロボット

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024075944A1 (ko) * 2022-10-05 2024-04-11 주식회사 닥터송 인공지능 기반의 인버티드 큐 방식을 통한 고객 의도 처리 방법, 장치 및 컴퓨터-판독 가능 기록 매체

Also Published As

Publication number Publication date
KR20220023208A (ko) 2022-03-02

Similar Documents

Publication Publication Date Title
US11435980B2 (en) System for processing user utterance and controlling method thereof
US11670302B2 (en) Voice processing method and electronic device supporting the same
KR102298947B1 (ko) 음성 데이터 처리 방법 및 이를 지원하는 전자 장치
EP3392877B1 (en) Device for performing task corresponding to user utterance
KR102339819B1 (ko) 프레임워크를 이용한 자연어 표현 생성 방법 및 장치
US11393465B2 (en) Artificial intelligence apparatus for speech interaction and method for the same
KR102369083B1 (ko) 음성 데이터 처리 방법 및 이를 지원하는 전자 장치
US20190019509A1 (en) Voice data processing method and electronic device for supporting the same
KR102508863B1 (ko) 전자 장치 및 상기 전자 장치로부터 수신된 데이터를 처리하는 서버
CN109102802A (zh) 用于处理用户话语的系统
KR102389602B1 (ko) 음성인식 기반의 ai 에이전트 프로그램을 실행하는 단말장치 및 이의 동작방법
US20180272240A1 (en) Modular interaction device for toys and other devices
US11657800B2 (en) Electronic device with wakeup word determined multi-mode operation
US20200043476A1 (en) Electronic device, control method therefor, and non-transitory computer readable recording medium
KR102391298B1 (ko) 음성 인식 서비스를 제공하는 전자 장치 및 그 방법
KR20180109465A (ko) 전자 장치 및 이를 이용한 사용자 입력을 처리하기 위한 화면 제어 방법
US20200193994A1 (en) Electronic device and method for controlling electronic device
KR102464120B1 (ko) 사용자 발화를 처리하는 전자 장치
CN112735418A (zh) 一种语音交互的处理方法、装置、终端及存储介质
KR102419374B1 (ko) 사용자 발화를 처리하는 전자 장치 및 그 전자 장치의 제어 방법
KR102380717B1 (ko) 사용자 발화를 처리하는 전자 장치 및 이 전자 장치의 제어 방법
CN112889023A (zh) 电子装置及其控制方法
KR102426411B1 (ko) 사용자 발화을 처리하는 전자 장치 및 시스템
KR101694011B1 (ko) 복수 응용 소프트웨어에 대한 음성 대화 방법 및 장치
CN109887490A (zh) 用于识别语音的方法和装置

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant