KR102594310B1 - 대화 처리 장치, 이를 포함하는 차량 및 대화 처리 방법 - Google Patents

대화 처리 장치, 이를 포함하는 차량 및 대화 처리 방법 Download PDF

Info

Publication number
KR102594310B1
KR102594310B1 KR1020160178907A KR20160178907A KR102594310B1 KR 102594310 B1 KR102594310 B1 KR 102594310B1 KR 1020160178907 A KR1020160178907 A KR 1020160178907A KR 20160178907 A KR20160178907 A KR 20160178907A KR 102594310 B1 KR102594310 B1 KR 102594310B1
Authority
KR
South Korea
Prior art keywords
user
destination
actual
conversation
vehicle
Prior art date
Application number
KR1020160178907A
Other languages
English (en)
Other versions
KR20180075031A (ko
Inventor
박성수
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020160178907A priority Critical patent/KR102594310B1/ko
Publication of KR20180075031A publication Critical patent/KR20180075031A/ko
Application granted granted Critical
Publication of KR102594310B1 publication Critical patent/KR102594310B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • B60R16/0373Voice control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/30Driving style

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)

Abstract

사용자가 목적지를 입력한 경우, 사용자의 행동 패턴을 분석하여 사용자의 실제 의도를 파악하고 이를 데이터베이스화하여 이후에 사용자가 동일한 목적지를 입력하면 입력된 목적지와 관련된 사용자의 실제 의도에 맞는 정보를 제공할 수 있는 대화 처리 장치, 이를 포함하는 차량 및 대화 처리 방법을 제공한다.
일 실시예에 따른 대화 처리 장치는, 입력된 목적지의 이용에 장애가 되는 특이 상황의 발생 여부를 판단하고, 상기 특이 상황이 발생한 경우, 사용자가 목적지 안내를 유지하는 비 예상 행동이 발생하면 상기 입력된 목적지와 관련된 사용자의 실제 의도를 판단하는 대화 관리기; 및 상기 입력된 목적지와 관련된 사용자의 실제 의도를 저장하는 저장부;를 포함한다.

Description

대화 처리 장치, 이를 포함하는 차량 및 대화 처리 방법{DIALOGUE PROCESSING APPARATUS, VEHICLE HAVING THE SAME AND DIALOGUE PROCESSING METHOD}
개시된 발명은 사용자와의 대화를 통해 사용자의 의도를 파악하고 사용자에게 필요한 정보를 제공하는 대화 처리 장치, 이를 포함하는 차량 및 대화 처리 방법에 관한 것이다.
차량에 대한 기술이 발전함에 따라, 차량이 수행하는 기본적인 기능인 주행 이외에도 사용자의 편의를 위한 다양한 기능이 제공되고 있다.
이처럼 차량이 수행할 수 있는 기능이 다양해지면서 사용자의 조작 부하가 증가되고, 조작 부하의 증가는 운전에 대한 집중도를 저하시켜 안전 운전을 방해하는 요인이 된다. 또한, 기기의 조작이 미숙한 사용자는 차량이 수행할 수 있는 기능을 제대로 활용하지 못하게 된다.
따라서, 최근에는 차량에 음성 인식 기술을 적용하여, 사용자와의 대화를 통해 필요한 서비스를 제공하기 위한 연구가 이루어지고 있다.
사용자가 목적지를 입력한 경우, 사용자의 행동 패턴을 분석하여 사용자의 실제 의도를 파악하고 이를 데이터베이스화하여 이후에 사용자가 동일한 목적지를 입력하면 입력된 목적지와 관련된 사용자의 실제 의도에 맞는 정보를 제공할 수 있는 대화 처리 장치, 이를 포함하는 차량 및 대화 처리 방법을 제공한다.
일 실시예에 따른 대화 처리 장치는, 입력된 목적지의 이용에 장애가 되는 특이 상황의 발생 여부를 판단하고, 상기 특이 상황이 발생한 경우, 사용자가 목적지 안내를 유지하는 비 예상 행동이 발생하면 상기 입력된 목적지와 관련된 사용자의 실제 의도를 판단하는 대화 관리기; 및 상기 입력된 목적지와 관련된 사용자의 실제 의도를 저장하는 저장부;를 포함한다.
상기 대화 관리기는, 상기 사용자의 실제 의도가 저장된 목적지가 다시 입력되면, 상기 저장부에서 상기 재입력된 목적지와 관련된 사용자의 실제 의도를 검색하고, 상기 검색된 사용자의 실제 의도에 대응되는 서비스를 제공할 수 있다.
상기 대화 관리기는, 상기 입력된 목적지에 관한 부가 정보에 기초하여, 상기 특이 상황의 발생 여부를 판단하고, 상기 부가 정보는, 영업 시간, 휴무일, 휴식 시간 및 주차 가능 여부 중 적어도 하나를 포함할 수 있다.
상기 대화 관리기는, 상기 입력된 목적지에 도착 시 상기 입력된 목적지의 영업 시간이 아니거나, 휴무일이거나, 휴식 시간이거나, 또는 주차가 불가능한 경우에 상기 특이 상황이 발생한 것으로 판단할 수 있다.
상기 대화 관리기는, 상기 사용자의 모바일 기기로부터 카드 사용 내역 및 GPS 정보 중 적어도 하나의 정보를 수신하고, 상기 수신한 정보에 기초하여 상기 사용자의 실제 의도를 판단할 수 있다.
상기 대화 관리기는, 상기 사용자의 모바일 기기로부터 수신한 카드 사용 내역에 기초하여 상기 사용자의 실제 의도가 상기 입력된 목적지 주변의 실제 목적지의 이용인 것으로 판단할 수 있다.
상기 대화 관리기는, 상기 사용자의 모바일 기기로부터 수신한 GPS 정보에 기초하여 상기 사용자의 실제 의도가 상기 입력된 목적지 주변의 실제 목적지의 방문인 것으로 판단할 수 있다.
상기 대화 관리기는, 상기 사용자의 차량이 상기 입력된 목적지에 정차했는지 여부 또는 상기 입력된 목적지 이외의 위치에 주차했는지 여부에 기초하여 상기 사용자의 실제 의도를 판단할 수 있다.
상기 대화 관리기는, 상기 사용자의 실제 의도가 저장된 목적지가 다시 입력되면, 상기 실제 목적지에 관한 정보를 사용자에게 제공할 수 있다.
일 실시예에 따른 차량은, 사용자로부터 목적지를 음성으로 입력 받는 음성 입력부; 상기 입력된 목적지의 이용에 장애가 되는 특이 상황의 발생 여부를 판단하고, 상기 특이 상황이 발생한 경우, 사용자가 목적지 안내를 유지하는 비 예상 행동이 발생하면 상기 입력된 목적지와 관련된 사용자의 실제 의도를 판단하는 대화 관리기; 및 상기 입력된 목적지와 관련된 사용자의 실제 의도를 저장하는 저장부;를 포함한다.
상기 대화 관리기는, 상기 사용자의 실제 의도가 저장된 목적지가 다시 입력되면, 상기 저장부에서 상기 재입력된 목적지와 관련된 사용자의 실제 의도를 검색하고, 상기 검색된 사용자의 실제 의도에 대응되는 서비스를 제공할 수 있다.
상기 사용자의 실제 의도에 대응되는 서비스를 제공하기 위한 음성을 출력하는 스피커;를 더 포함할 수 있다.
상기 대화 관리기는, 상기 입력된 목적지에 관한 부가 정보에 기초하여, 상기 특이 상황의 발생 여부를 판단하고, 상기 부가 정보는, 영업 시간, 휴무일, 휴식 시간 및 주차 가능 여부 중 적어도 하나를 포함할 수 있다
상기 대화 관리기는, 상기 입력된 목적지에 도착 시 상기 입력된 목적지의 영업 시간이 아니거나, 휴무일이거나, 휴식 시간이거나, 또는 주차가 불가능한 경우에 상기 특이 상황이 발생한 것으로 판단할 수 있다.
상기 사용자의 모바일 기기로부터 카드 사용 내역 및 GPS 정보 중 적어도 하나의 정보를 수신하는 통신부;를 더 포함하고, 상기 대화 관리기는, 상기 수신한 정보에 기초하여 상기 사용자의 실제 의도를 판단할 수 있다.
상기 대화 관리기는, 상기 사용자의 모바일 기기로부터 수신한 카드 사용 내역에 기초하여 상기 사용자의 실제 의도가 상기 입력된 목적지 주변의 실제 목적지의 이용인 것으로 판단할 수 있다.
상기 대화 관리기는, 상기 사용자의 모바일 기기로부터 수신한 GPS 정보에 기초하여 상기 사용자의 실제 의도가 상기 입력된 목적지 주변의 실제 목적지의 방문인 것으로 판단할 수 있다.
상기 대화 관리기는, 상기 사용자의 차량이 상기 입력된 목적지에 정차했는지 여부 또는 상기 입력된 목적지 이외의 위치에 주차했는지 여부에 기초하여 상기 사용자의 실제 의도를 판단할 수 있다.
상기 대화 관리기는, 상기 사용자의 실제 의도가 저장된 목적지가 다시 입력되면, 상기 실제 목적지에 관한 정보를 검색하고, 상기 스피커는, 상기 실제 목적지에 관한 정보를 음성으로 출력할 수 있다.
일 실시예에 따른 대화 처리 방법은, 입력된 목적지의 이용에 장애가 되는 특이 상황의 발생 여부를 판단하고; 상기 특이 상황이 발생한 경우, 사용자가 목적지 안내를 유지하는 비 예상 행동이 발생하면 상기 입력된 목적지와 관련된 사용자의 실제 의도를 판단하고; 상기 입력된 목적지와 관련된 사용자의 실제 의도를 저장하고; 상기 사용자의 실제 의도가 저장된 목적지가 다시 입력되면, 상기 저장부에서 상기 재입력된 목적지와 관련된 사용자의 실제 의도를 검색하고; 상기 검색된 사용자의 실제 의도에 대응되는 서비스를 제공하는 것;을 포함한다.
상기 특이 상황의 발생 여부를 판단하는 것은, 상기 입력된 목적지에 도착 시 상기 입력된 목적지의 영업 시간이 아니거나, 휴무일이거나, 휴식 시간이거나, 또는 주차가 불가능한 경우에 상기 특이 상황이 발생한 것으로 판단하는 것을 포함할 수 있다.
상기 사용자의 실제 의도를 판단하는 것은, 상기 사용자의 모바일 기기로부터 카드 사용 내역 및 GPS 정보 중 적어도 하나의 정보를 수신하고, 상기 수신한 정보에 기초하여 상기 사용자의 실제 의도를 판단하는 것을 포함할 수 있다.
상기 사용자의 실제 의도를 판단하는 것은, 상기 사용자의 모바일 기기로부터 수신한 카드 사용 내역에 기초하여 상기 사용자의 실제 의도가 상기 입력된 목적지 주변의 실제 목적지의 이용인 것으로 판단하는 것을 포함할 수 있다.
상기 사용자의 실제 의도를 판단하는 것은, 상기 사용자의 모바일 기기로부터 수신한 GPS 정보에 기초하여 상기 사용자의 실제 의도가 상기 입력된 목적지 주변의 실제 목적지의 방문인 것으로 판단하는 것을 포함할 수 있다.
상기 사용자의 실제 의도를 판단하는 것은, 상기 사용자의 차량이 상기 입력된 목적지에 정차했는지 여부 또는 상기 입력된 목적지 이외의 위치에 주차했는지 여부에 기초하여 상기 사용자의 실제 의도를 판단하는 것을 포함할 수 있다.
상기 검색된 사용자의 실제 의도에 대응되는 서비스를 제공하는 것은, 상기 실제 목적지에 관한 정보를 사용자에게 제공하는 것을 포함할 수 있다.
일 측면에 따른 대화 처리 장치, 이를 포함하는 차량 및 대화 처리 방법에 의하면, 사용자가 목적지를 입력한 경우, 사용자의 행동 패턴을 분석하여 사용자의 실제 의도를 파악하고 이를 데이터베이스화하여 이후에 사용자가 동일한 목적지를 입력하면 사용자의 실제 의도에 맞는 정보를 제공할 수 있다.
도 1은 일 실시예에 따른 대화 처리 장치와 차량의 구성요소들 사이의 관계를 나타낸 제어 블록도이다.
도 2는 일 실시예에 따른 차량의 외관도이다.
도 3은 차량 내부의 구성을 나타낸 도면이다.
도 4는 일 실시예에 따른 대화 처리 장치의 제어 블록도이다.
도 5는 일 실시예에 따른 대화 처리 장치가 차량 외부의 서버에 마련되는 경우에 관한 제어 블록도이다.
도 6은 대화 관리기가 판단하고 처리하는 정보들의 예시를 나타낸 도면이다.
도 7은 사용자 의도 데이터베이스에 저장되는 정보들의 예시를 나타낸 도면이다.
도 8 및 도 9는 대화 처리 장치가 사용자의 실제 의도를 파악하고 이에 대응되는 서비스를 제공하는 구체적인 예시를 나타낸 도면이다.
도 10은 일 실시예에 따른 대화 처리 방법의 순서도이다.
도 11은 일 실시예에 따른 대화 처리 방법에 관한 구체적인 예시를 나타낸 순서도이다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.
또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.
각 단계들에 붙여지는 부호는 각 단계들을 식별하기 위해 사용되는 것으로 이들 부호는 각 단계들 상호 간의 순서를 나타내는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.
이하 첨부된 도면들을 참고하여 대화 처리 장치, 이를 포함하는 차량 및 대화 처리 방법의 실시예를 상세하게 설명한다.
일 실시예에 따른 대화 처리 장치는 사용자의 음성을 인식하여 사용자의 의도를 파악하고, 사용자의 의도에 적합한 서비스를 제공하는 장치로서, 서비스 제공의 일 수단 또는 사용자의 의도를 명확히 파악하기 위한 일 수단으로 음성을 출력할 수 있다. 이러한 대화 처리 장치(100)와 사용자를 연결하는 게이트웨이는 차량이 될 수 있는바, 대화 처리 장치(100)는 차량에 마련될 수도 있고, 차량 외부의 서버에 마련되어 차량과 통신을 통해 데이터를 주고 받을 수도 있다.
도 1은 일 실시예에 따른 대화 처리 장치와 차량의 구성요소들 사이의 관계를 나타낸 제어 블록도이다.
도 1을 참조하면, 사용자가 음성을 발화하여 음성 입력부(210)를 통해 입력하면, 음성 입력부(210)는 입력된 음성을 전기적 신호로 변환하여 대화 처리 장치(100)로 전달한다.
대화 처리 장치(100)는 사용자의 음성을 인식하고, 인식된 음성을 분석하여 사용자의 의도를 파악한다. 예를 들어, 사용자의 의도는 특정 목적지 검색 및 경로 안내, 정보 검색, 전화 걸기, 문자 보내기, 오디오 또는 비디오 제어, 기타 차량과 관련된 제어를 포함할 수 있다.
대화 처리 장치(100)는 사용자의 의도에 대응되는 서비스를 제공하기 위한 일 수단으로서, 음성을 출력할 수 있다. 예를 들어, 사용자의 의도가 특정 목적지로의 경로 안내인 경우에는, 목적지를 확인하기 위한 음성을 출력하거나, 해당 목적지와 관련된 부가 정보를 제공하기 위한 음성을 출력할 수 있다.
대화 처리 장치(100)가 음성을 출력하기 위한 제어신호 또는 명령어를 제어부(220)로 전달하면, 제어부(220)는 스피커(231)를 통해 해당 음성을 출력할 수 있다.
또한, 대화 처리 장치(100)는 사용자의 의도에 대응되는 서비스를 제공하기 위한 다른 수단으로서, 시각적인 정보를 화면을 통해 출력할 수도 있다. 대화 처리 장치(100)가 시각적인 정보를 출력하기 위한 제어 신호 또는 명령어를 제어부(220)로 전달하면, 제어부(220)는 디스플레이(232)를 통해 해당 정보를 시각적으로 출력할 수 있다. 예를 들어, 스피커(231)를 통해 출력되는 음성의 스크립트(script)가 디스플레이(232)에 표시될 수 있다.
또한, 제어부(220)는 사용자의 의도가 특정 목적지로의 경로 안내인 경우, 내비게이션 모듈(240)에 제어 신호를 전달하여 사용자의 의도에 따라 경로 안내를 수행하도록 한다.
도 1의 제어 블록도에서 음성 입력부(210), 제어부(220), 스피커(231), 디스플레이(232) 및 내비게이션 모듈(240)은 차량(1, 도 2 참조)에 마련되는 구성요소일 수 있고, 대화 처리 장치(100)는 전술한 바와 같이 차량(1)에 마련될 수도, 차량(1)의 외부에 마련될 수도 있다.
도 2는 일 실시예에 따른 차량의 외관도이고, 도 3은 차량 내부의 구성을 나타낸 도면이다.
도 2 및 도 3을 함께 참조하면, 차량(1)은 차량(1)을 이동시키는 차륜(51, 52), 차량(1) 내부를 외부로부터 차폐시키는 도어(71L, 71R, 72L, 72R), 차량(1) 내부의 운전자에게 차량(1) 전방의 시야를 제공하는 전면 유리(63), 운전자에게 차량(1) 후방의 시야를 제공하는 사이드 미러(81L, 81R)를 포함한다.
전면 유리(30)는 차량(1)의 전방 상측에 마련되어 차량(1) 내부의 운전자가 차량(1) 전방의 시각 정보를 획득할 수 있도록 하는 것으로서, 윈드쉴드 글래스(windshield glass)라고도 한다.
또한, 사이드 미러(81L, 81R)는 차량(1)의 좌측에 마련되는 좌측 사이드 미러(81L) 및 우측에 마련되는 우측 사이드 미러(81R)를 포함하며, 차량(1) 내부의 운전자가 차량(1)의 측면 및 후방에 대한 시각 정보를 획득할 수 있도록 한다.
차륜(51, 52)은 차량의 전방에 마련되는 전륜(51), 차량의 후방에 마련되는 후륜(52)을 포함하며, 차량(1) 내부에 마련되는 구동 장치(60)는 차량(1)이 이동하도록 전륜(51) 또는 후륜(52)에 회전력을 제공한다.
차량(1)이 전륜 구동 방식인 경우에는 전륜(51)에 회전력을 제공하고, 후륜 구동 방식인 경우에는 후륜(52)에 회전력을 제공한다. 또한, 차량(1)이 사륜 구동 방식인 경우에는 전륜(51)과 후륜(52)에 모두 회전력을 제공할 수 있다.
이와 같은 구동 장치(60)는 화석 연료를 연소시켜 회전력을 생성하는 엔진 또는 축전기로부터 전원을 공급받아 회전력을 생성하는 모터를 채용할 수 있고, 엔진과 모터를 모두 구비하여 선택적으로 사용하는 하이브리드 방식을 채용하는 것도 가능하다.
도어(71L, 71R, 72L)는 차량(1)의 좌측 및 우측에 회동 가능하게 마련되어 개방 시에 운전자 또는 동승자가 차량(1)의 내부에 탑승할 수 있도록 하며, 폐쇄 시에 차량(1)의 내부를 외부로부터 차폐시킨다.
이외에도 차량(1)은 후면 또는 측면의 장애물 내지 다른 차량을 감지하는 근접 센서, 강수 여부 및 강수량을 감지하는 레인 센서 등의 감지 장치를 포함할 수 있다.
차량(1) 내부의 대시보드(10)의 중앙 영역인 센터페시아(62)에는 오디오 기능, 비디오 기능, 내비게이션 기능, 전화 걸기 기능을 포함하는 차량의 제어를 수행하기 위해 필요한 화면을 표시하는 디스플레이(232)와 사용자의 제어 명령을 입력 받기 위한 입력부(233)가 마련될 수 있다.
디스플레이(232)는 LCD(Liquid Crystal Display), LED(Light Emitting Diode), PDP(Plasma Display Panel), OLED(Organic Light Emitting Diode), CRT(Cathode Ray Tube) 등의 다양한 디스플레이 장치 중 하나로 구현될 수 있다.
사용자는 입력부(233)를 조작하여 차량(1)을 제어하기 위한 명령을 입력할 수 있다. 입력부(233)는 도 3에 도시된 바와 같이 디스플레이(232)와 인접한 영역에 하드 키 타입으로 마련될 수도 있고, 디스플레이(232)가 터치 스크린 타입으로 구현되는 경우에는 디스플레이(232)가 입력부(233)의 기능도 함께 수행할 수 있다.
차량(1)은 사용자의 제어 명령을 음성 입력부(210)를 통해 음성으로 입력 받을 수도 있다. 음성 입력부(210)는 음향을 입력 받아 전기적인 신호로 변환하여 출력하는 마이크로폰으로 구현될 수 있다.
효과적인 음성의 입력을 위하여 음성 입력부(210)는 도 3에 도시된 바와 같이 헤드라이닝(64)에 장착될 수 있으나, 차량(1)의 실시예가 이에 한정되는 것은 아니며, 대시보드(61) 위에 장착되거나 스티어링 휠(65)에 장착되는 것도 가능하다. 이 외에도 사용자의 음성을 입력 받기에 적합한 위치이면 어디든 제한이 없다.
또한, 차량(1) 내부에는 차량의 제어를 수행하기 위해 필요한 음향을 출력하는 스피커(231)가 마련될 수 있다. 일 예로, 스피커(231)는 운전석 도어(71L) 및 조수석 도어(71R) 내측에 마련될 수 있다.
한편, 차량(1)은 사용자의 모바일 기기(2)와 연결되어 모바일 기기(2)에 저장된 데이터를 다운로드 받을 수도 있고, 차량(1)을 통해 모바일 기기(2)를 제어할 수도 있다.
예를 들어, 모바일 기기(2)는 PDA(Personal Digital Assistant), 랩톱(laptop), 태블릿 PC, 스마트폰 및 스마트 글래스나 스마트 워치와 같은 웨어러블 디바이스 등의 전자 기기를 포함할 수 있다. 다만, 모바일 기기(2)의 예시가 이에 한정되는 것은 아니며, 이동성이 보장되면서 데이터를 저장할 수 있고, 차량(1)과 무선 또는 유선으로 연결되어 데이터를 전달할 수 있는 전자 기기이면 모바일 기기(2)가 될 수 있다. 후술하는 실시예에서는 구체적인 설명을 위해, 모바일 기기(2)가 스마트폰인 경우를 예로 들어 설명한다.
도 4는 일 실시예에 따른 대화 처리 장치의 제어 블록도이다.
도 4를 참조하면, 대화 처리 장치(100)는 음성 입력부(210)를 통해 입력된 사용자의 음성을 인식하는 음성 인식부(110), 인식된 음성에 기초하여 사용자의 의도를 파악하고, 사용자의 의도에 대응되는 서비스의 제공이나 더 정확한 의도 파악을 위해 필요한 응답을 생성하는 대화 관리기(120) 및 사용자에게 서비스를 제공하거나 사용자의 의도를 파악하기 위해 필요한 정보가 저장된 저장부(130)를 포함한다.
음성 인식부(110)는 입력된 사용자의 음성을 인식하고, 그 인식 결과를 출력한다. 인식 결과는 사용자가 발화한 언어를 포함할 수 있고 후술하는 실시예에서는 사용자가 발화한 언어를 발화 언어라 하기로 한다. 발화 언어는 미리 정해진 명령어일 수도 있고, 사용자가 평소에 사용하는 언어인 자연어일 수도 있다.
음성 인식부(110)는 음성 인식 엔진(speech recognition engine)을 포함하고, 음성 인식 엔진은 입력된 음성에 음성 인식 알고리즘을 적용하여 사용자가 발화한 음성을 인식하고, 인식 결과를 생성할 수 있다.
이 때, 입력된 음성은 음성 인식을 위한 더 유용한 형태로 변환될 수 있는바, 음성 신호로부터 시작 지점과 끝 지점을 검출하여 입력된 음성에 포함된 실제 음성 구간을 검출한다. 이를 EPD(End Point Detection)이라 한다.
그리고, 검출된 구간 내에서 켑스트럼(Cepstrum), 선형 예측 코딩(Linear Predictive Coefficient: LPC), 멜프리퀀시켑스트럼(Mel Frequency Cepstral Coefficient: MFCC) 또는 필터 뱅크 에너지(Filter Bank Energy) 등의 특징 벡터 추출 기술을 적용하여 입력된 음성의 특징 벡터를 추출할 수 있다.
그리고, 추출된 특징 벡터와 훈련된 기준 패턴과의 비교를 통하여 인식 결과를 얻을 수 있다. 이를 위해, 음성의 신호적인 특성을 모델링하여 비교하는 음향 모델(Acoustic Model) 과 인식 어휘에 해당하는 단어나 음절 등의 언어적인 순서 관계를 모델링하는 언어 모델(Language Model)이 사용될 수 있다.
음향 모델은 다시 인식 대상을 특징 벡터 모델로 설정하고 이를 음성 데이터의 특징 벡터와 비교하는 직접 비교 방법과 인식 대상의 특징 벡터를 통계적으로 처리하여 이용하는 통계 방법을 나뉠 수 있다.
직접 비교 방법은 인식 대상이 되는 단어, 음소 등의 단위를 특징 벡터 모델로 설정하고 입력 음성이 이와 얼마나 유사한지를 비교하는 방법으로서, 대표적으로 벡터 양자화(Vector Quantization) 방법이 있다. 벡터 양자화 방법에 의하면 입력된 음성 데이터의 특징 벡터를 기준 모델인 코드북(codebook)과 매핑시켜 대표 값으로 부호화함으로써 이 부호 값들을 서로 비교하는 방법이다.
통계적 모델 방법은 인식 대상에 대한 단위를 상태 열(State Sequence)로 구성하고 상태 열 간의 관계를 이용하는 방법이다. 상태 열은 복수의 노드(node)로 구성될 수 있다. 상태 열 간의 관계를 이용하는 방법은 다시 동적 시간 와핑(Dynamic Time Warping: DTW), 히든 마르코프 모델(Hidden Markov Model: HMM), 신경 회로망을 이용한 방식 등이 있다.
동적 시간 와핑은 같은 사람이 같은 발음을 해도 신호의 길이가 시간에 따라 달라지는 음성의 동적 특성을 고려하여 기준 모델과 비교할 때 시간 축에서의 차이를 보상하는 방법이고, 히든 마르코프 모델은 음성을 상태 천이 확률 및 각 상태에서의 노드(출력 심볼)의 관찰 확률을 갖는 마르코프 프로세스로 가정한 후에 학습 데이터를 통해 상태 천이 확률 및 노드의 관찰 확률을 추정하고, 추정된 모델에서 입력된 음성이 발생할 확률을 계산하는 인식 기술이다.
한편, 단어나 음절 등의 언어적인 순서 관계를 모델링하는 언어 모델은 언어를 구성하는 단위들 간의 순서 관계를 음성 인식에서 얻어진 단위들에 적용함으로써 음향적인 모호성을 줄이고 인식의 오류를 줄일 수 있다. 언어 모델에는 통계적 언어 모델과 유한 상태 네트워크(Finite State Automata: FSA)에 기반한 모델이 있고, 통계적 언어 모델에는 Unigram, Bigram, Trigram 등 단어의 연쇄 확률이 이용된다.
음성 인식부(110)는 음성을 인식함에 있어 상술한 방식 중 어느 방식을 사용해도 무방하다. 예를 들어, 히든 마르코프 모델이 적용된 음향 모델을 사용할 수도 있고, 음향 모델과 음성 모델을 통합한 N-best 탐색법을 사용할 수 있다. N-best 탐색법은 음향 모델과 언어 모델을 이용하여 N개까지의 인식 결과 후보를 선택한 후, 이들 후보의 순위를 재평가함으로써 인식 성능을 향상시킬 수 있다.
음성 인식부(110)는 인식 결과의 신뢰성을 확보하기 위해 신뢰값(confidence value)을 계산할 수 있다. 신뢰값은 음성 인식 결과에 대해서 그 결과를 얼마나 믿을 만한 것인가를 나타내는 척도이다. 일 예로, 인식된 결과인 음소나 단어에 대해서, 그 외의 다른 음소나 단어로부터 그 말이 발화되었을 확률에 대한 상대값으로 정의할 수 있다. 따라서, 신뢰값은 0 에서 1 사이의 값으로 표현할 수도 있고, 0 에서 100 사이의 값으로 표현할 수도 있다.
신뢰값이 미리 설정된 임계값(threshold)을 초과하는 경우에는 인식 결과를 출력하여 인식 결과에 대응되는 동작이 수행되도록 할 수 있고, 신뢰값이 임계값 이하인 경우에는 인식 결과를 거절(rejection)할 수 있다.
음성 인식부(110)는 소프트웨어, 하드웨어 또는 이들의 조합을 이용하여 컴퓨터로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 하드웨어적인 구현에 의하면, ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서(processor), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(micro-processor) 등의 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
소프트웨어적인 구현에 의하면, 적어도 하나의 기능 또는 동작을 수행하는 별개의 소프트웨어 모듈과 함께 구현될 수 있고, 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다.
음성 인식부(110)의 인식 결과인 사용자 발화 언어는 대화 관리기(120)로 입력된다.
사용자 발화 언어가 자연어인 경우에는 대화 관리기(120)는 자연어 처리(Natural Language Processing) 기술을 적용하여 발화 언어에 포함된 사용자의 발화 의도를 파악할 수 있다. 따라서, 사용자는 자연스러운 대화(Dialogue)를 통해 제어 명령을 입력할 수 있고, 차량(1) 역시 대화를 통해 제어 명령의 입력을 유도하거나 사용자가 필요로 하는 서비스를 제공하기 위해, 스피커(42)를 통해 대화를 출력할 수 있다.
대화 관리기(120)는 판단된 사용자의 의도에 대응되는 서비스를 제공하기 위한 응답 신호를 생성한다. 예를 들어, 사용자의 의도가 특정 목적지로의 경로 안내인 경우에는 저장부(130)에 저장된 정보를 이용하여 사용자에게 해당 목적지에 관한 부가 정보를 제공할 수 있다. 이를 위해, 저장부(130)에는 목적지 부가 정보 데이터베이스(DB)가 저장될 수 있다. 또는, 목적지 부가 정보를 대화 처리 장치(100) 외부의 다른 서버에서 가져오는 것도 가능하다.
예를 들어, 대화 관리기(120)는 사용자가 입력한 목적지에 관한 부가 정보에 기초하여, 목적지 상황 정보를 판단할 수 있고, 목적지 상황 정보가 특이 상황을 포함하는지 여부를 판단할 수 있다. 여기서, 특이 상황은 사용자가 해당 목적지를 이용할 수 없거나, 이용에 장애가 있는 상황을 의미할 수 있다.
대화 관리기(120)가 특이 상황에 관한 정보를 사용자에게 제공하기 위한 응답 신호를 생성하여 제어부(220)로 전달하면, 제어부(220)가 스피커(231)를 통해 해당 응답 신호를 음성으로 출력할 수 있다. 또한, 해당 응답 신호의 스크립트가 디스플레이(232)를 통해 출력되는 것도 가능하다.
여기서, 예상되는 사용자의 행동은 목적지를 변경하는 것이다. 그러나, 사용자가 해당 목적지로의 경로 안내를 유지하는 경우에는 비 예상 행동이 발생한 것으로 판단하고, 대화 관리기(120)가 해당 목적지와 관련된 사용자의 실제 의도를 파악하기 위한 데이터 수집을 시작한다.
사용자의 실제 의도가 파악되면, 파악된 실제 의도를 데이터베이스화하여 저장부(130)에 저장한다.
이후에, 사용자가 동일한 목적지를 다시 입력하면, 대화 관리기(120)는 저장부(130)에 저장된 사용자 의도 데이터베이스에 기초하여 사용자의 실제 의도를 파악하고, 사용자의 실제 의도와 관련된 정보를 제공할 수 있다.
대화 관리기(120)는 전술한 동작 및 후술하는 동작을 수행하는 프로그램이 저장된 적어도 하나의 메모리 및 저장된 프로그램을 실행시키는 적어도 하나의 프로세서를 포함할 수 있다.
대화 관리기(120)는 음성 인식부(110)와 메모리 및 프로세서를 공유할 수도 있고, 저장부(130)와 메모리를 공유할 수도 있다. 즉, 대화 관리기(120)와 음성 인식부(110)는 당해 실시예에서 설명하는 동작을 수행할 수만 있으면 되고, 이를 구현하기 위한 물리적인 구성에 대해서는 제한을 두지 않는다.
도 5는 일 실시예에 따른 대화 처리 장치가 차량 외부의 서버에 마련되는 경우에 관한 제어 블록도이다.
도 5를 참조하면, 차량(1)은 대화 처리 장치(100) 또는 대화 처리 장치(100)를 포함하는 외부의 서버와 통신하기 위한 통신부(260)를 포함할 수 있다.
통신부(260)는 외부 장치와 통신을 가능하게 하는 하나 이상의 통신 모듈을 포함할 수 있으며, 예를 들어 근거리 통신 모듈, 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다.
근거리 통신 모듈은 블루투스 모듈, 적외선 통신 모듈, RFID(Radio Frequency Identification) 통신 모듈, WLAN(Wireless Local Access Network) 통신 모듈, NFC 통신 모듈, 직비(Zigbee) 통신 모듈 등 근거리에서 무선 통신망을 이용하여 신호를 송수신하는 다양한 근거리 통신 모듈을 포함할 수 있다.
유선 통신 모듈은 지역 통신(Local Area Network; LAN) 모듈, 광역 통신(Wide Area Network; WAN) 모듈 또는 부가가치 통신(Value Added Network; VAN) 모듈 등 다양한 유선 통신 모듈뿐만 아니라, USB(Universal Serial Bus), HDMI(High Definition Multimedia Interface), DVI(Digital Visual Interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 다양한 케이블 통신 모듈을 포함할 수 있다.
무선 통신 모듈은 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에도, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution) 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈을 포함할 수 있다.
또한, 무선 통신 모듈은 신호를 송수신하는 안테나, 송신기(Transmitter) 및 수신기(Receiver)를 포함할 수 있다.
또한, 무선 통신 모듈은 디지털 제어 신호를 아날로그 형태의 무선 신호로 변조하고, 수신한 아날로그 형태의 무선 신호를 디지털 제어 신호로 복조하기 위한 신호 변환 모듈을 더 포함할 수 있다.
또한, 통신부(260)는 차량(1) 내부의 전자 장치들 사이의 통신을 위한 내부 통신 모듈을 더 포함할 수도 있다. 차량(1)의 내부 통신 프로토콜로는 CAN(Controller Area Network), LIN(Local Interconnection Network), 플렉스레이(FlexRay), 이더넷(Ethernet) 등을 사용할 수 있다.
통신부(260)는 무선 통신 모듈을 이용하여 대화 처리 장치(100)와 데이터를 주고 받을 수 있고, 근거리 통신 모듈 또는 유선 통신 모듈을 이용하여 모바일 기기(2)와 데이터를 주고 받을 수 있다.
예를 들어, 차량(1)에 탑승한 사용자가 블루투스 통신 방식을 이용하여 모바일 기기(2)를 차량(1)과 연결시킬 수 있고, 모바일 기기(2)에 저장된 데이터가 차량(1)에 전달될 수 있다. 일 예로, 모바일 기기(2)에 저장된 사용자의 카드 사용 내역 또는 GPS 정보가 차량(1)에 전달될 수 있다.
한편, 대화 처리 장치(100)의 일부 구성 요소는 차량(1)에 포함되고 다른 일부 구성 요소는 외부의 서버에 포함되는 것도 가능하다.
예를 들어, 음성 처리 장치(100)의 음성 인식부(110)는 서버에 포함되고, 대화 관리기(120)와 저장부(130)는 차량(1)에 포함될 수 있다. 또는, 대화 관리기(120)는 차량(1)에 포함되고 음성 인식부(110)와 저장부(130)는 서버에 포함되는 것도 가능하다.
도 6은 대화 관리기가 판단하고 처리하는 정보들의 예시를 나타낸 도면이고, 도 7은 사용자 의도 데이터베이스에 저장되는 정보들의 예시를 나타낸 도면이다.
사용자가 목적지를 입력하면, 대화 관리기(120)는 목적지 부가정보 데이터베이스로부터 목적지에 관한 부가 정보를 가져온다. 목적지에 관한 부가 정보는 해당 목적지의 휴무일, 영업 시간 및 주차 가능 여부에 대한 정보를 포함할 수 있다.
대화 관리기(120)는 목적지에 관한 부가 정보에 기초하여 현재 목적지의 상황 정보를 판단한다. 예를 들어, 현재 날짜와 목적지의 휴무일을 비교하여 휴무 여부를 판단할 수 있고, 현재 시각과 영업 시간을 비교하여 목적지에 도착 시 영업을 하는지 여부를 판단할 수 있다. 또한, 목적지가 브레이크 타임을 갖는 경우, 도착 시 브레이크 타임인지 여부도 함께 판단할 수 있다. 또한, 주차 가능 여부도 판단할 수 있다.
대화 관리기(120)는 현재 목적지의 상황 정보에 기초하여 특이 상황 발생 여부를 판단할 수 있다. 여기서, 특이 상황은 사용자가 목적지를 이용할 수 없거나, 이용에 장애가 있는 상황을 의미할 수 있다. 따라서, 목적지에 도착 시 영업 시작 전이거나, 영업 종료 후이거나, 휴무일이거나, 도착 시 브레이크 타임이거나, 주차장이 없는 경우, 특이 상황이 발생한 것으로 판단할 수 있다.
대화 관리기(120)는 스피커(231)를 통해 특이 상황이 발생했음을 사용자에게 알려줄 수 있다.
특이 상황이 발생했음에도 사용자가 목적지 안내를 유지하는 비 예상 행동이 발생한 경우에는 사용자의 실제 의도를 파악하기 위한 데이터를 수집할 수 있다.
예를 들어, 사용자의 비 예상 행동은 목적지 안내를 유지한 이후에 목적지에 도착하여 주차까지 한 경우, 목적지 안내를 유지한 이후에 목적지에 정차한 후 새로운 목적지로 변경한 경우 및 목적지 안내를 유지한 이후에 목적지를 경유하지 않고 계속 주행한 경우를 포함할 수 있다.
비 예상 행동의 종류에 따라 사용자의 실제 의도를 파악하기 위한 데이터 수집 방법이 달라질 수 있다. 데이터의 수집은 추가 정보를 획득함으로써 이루어질 수 있는바, 사용자가 목적지에 도착하여 주차까지 한 경우에는 사용자의 카드 사용 내역 또는 차량 하차 이후의 이동 거리를 판단하기 위한 GPS 정보를 획득할 수 있다. 카드 사용 내역 및 GPS 정보를 모두 모바일 기기(2)로부터 획득할 수 있다.
또는, 사용자가 목적지를 경유하지 않고 계속 주행한 경우에는 차량의 최종 주차 위치 정보를 획득할 수 있다.
사용자의 실제 의도를 파악하기 위해 획득된 추가 정보는 사용자 의도 데이터베이스에 저장될 수 있다.
도 7의 예시를 참조하면, 사용자가 입력한 목적지는 H마트이고, 휴무일 등 해당 목적지에 특이 상황이 발생했음에도 사용자가 H마트로의 경로 안내를 유지한 경우를 가정한다. 차량(1)이 H마트에 도착하여 주차한 경우, 사용자가 다시 차량(1)에 탑승하면, 차량(1)은 사용자의 모바일 기기(2)로부터 카드 사용 내역을 가져올 수 있다. 카드 사용 내역에 H마트 근처의 A 쇼핑몰에서의 결제 내역이 포함된 경우, 대화 관리기(120)는 사용자의 실제 목적지가 A 쇼핑몰이고, 사용자의 실제 의도가 검색한 목적지 주변의 영업점(A 쇼핑몰) 이용인 것으로 판단할 수 있다. 이러한 정보는 사용자 의도 데이터베이스에 저장되고, 사용자가 H마트를 목적지로 입력하고, 실제로는 A 쇼핑몰을 방문한 횟수도 함께 저장된다.
또는, 사용자가 입력한 목적지는 B 쇼핑몰이고, 휴무일 등 해당 목적지에 특이 상황이 발생했음에도 사용자가 B 쇼핑몰로의 경로 안내를 유지한 경우를 가정한다. 차량(1)이 B 쇼핑몰에 도착하여 주차한 경우, 사용자가 다시 차량(1)에 탑승하면, 차량(1)은 사용자의 모바일 기기(2)로부터 카드 사용 내역을 가져올 수 있다. 카드 사용 내역에 B 쇼핑몰 근처의 G 극장에서의 결제 내역이 포함된 경우, 대화 관리기(120)는 사용자의 실제 목적지가 G 극장이고, 사용자의 실제 의도가 검색한 목적지 주변의 영업점(G 극장) 이용인 것으로 판단할 수 있다. 이러한 정보는 사용자 의도 데이터베이스에 저장되고, 사용자가 B 쇼핑몰을 목적지로 입력하고, 실제로는 G 극장을 방문한 횟수도 함께 저장된다.
또는, 사용자가 입력한 목적지는 C 음식점이고, 휴무일 등 해당 목적지에 특이 상황이 발생했음에도 사용자가 C 음식점으로의 경로 안내를 유지한 경우를 가정한다. 차량(1)이 C음식점에 도착하여 주차한 경우, 사용자가 다시 차량(1)에 탑승하면, 차량(1)은 사용자의 모바일 기기(2)로부터 카드 사용 내역을 가져올 수 있다. 카드 사용 내역에 유효한 정보가 없으면, 모바일 기기(2)로부터 GPS 정보를 가져와 사용자가 차량(1) 하차 이후에 이동한 거리를 판단할 수 있다. 일 예로, 사용자가 미리 설정된 기준 거리(ex. 2km) 이하로 이동한 경우에는 사용자의 실제 의도가 목적지 주변 방문인 것으로 판단할 수 있다. 예를 들어, C 음식점이 F 빌딩에 위치하고, 사용자가 F 빌딩 주차장에 주차하고, 그 이동 거리가 2km 이하인 경우, 사용자의 실제 의도가 C 음식점이 아닌 F 빌딩의 방문인 것으로 판단할 수 있다. 이러한 정보는 사용자 의도 데이터베이스에 저장되고, 사용자가 C 음식점을 목적지로 입력하고, 실제로는 F 빌딩을 방문한 횟수도 함께 저장된다.
또는, 사용자가 입력한 목적지는 D 지하철역이고, 주차 불가 등 해당 목적지에 특이 상황이 발생했음에도 사용자가 D 지하철역으로의 경로 안내를 유지한 경우를 가정한다. 차량(1)이 D 지하철역을 경유하지 않고 계속 주행하거나, D 지하철역을 지나쳐 계속 주행한 경우, 데이터 관리기(120)는 차량(1)의 최종 주차 위치에 관한 정보를 획득한다. 예를 들어, 차량(1)이 최종적으로 주차한 위치가 D 지하철역 주변의 주차장인 경우, 데이터 관리기(120)는 사용자의 실제 목적지가 D 지하철 역 주변의 주차장이고, 사용자의 실제 의도가 검색한 목적지 주변의 주차장 이용인 것으로 판단할 수 있다. 이러한 정보는 사용자 의도 데이터베이스에 저장되고, 사용자가 D 지하철역을 목적지로 입력하고, 실제로는 주변의 주차장에 주차한 횟수도 함께 저장된다.
또는, 사용자가 입력한 목적지는 E 빌딩이고, 주차 불가 등 해당 목적지에 특이 상황이 발생했음에도 사용자가 E 빌딩으로의 경로 안내를 유지한 경우를 가정한다. 차량(1)이 E 빌딩에 미리 설정된 기준 시간 동안 정차하고 새로운 목적지로 변경한 경우, 데이터 관리기(120)는 실제 목적지는 E 빌딩이 맞으나, 사용자의 실제 의도는 E 빌딩의 방문이 아니라 E 빌딩 근처에서의 픽업인 것으로 판단할 수 있다. 이러한 정보는 사용자 의도 데이터베이스에 저장되고, 사용자가 E 빌딩을 목적지로 입력하고, 잠시 정차만 한 횟수도 함께 저장된다.
사용자 의도 데이터베이스는 지속적으로 업데이트되어 정보의 신뢰성이 향상될 수 있다.
이후에 사용자가 동일한 목적지를 입력하는 경우, 대화 관리기(120)는 사용자의 실제 의도를 판단하고, 사용자의 실제 의도에 대응되는 서비스를 제공할 수 있다. 예를 들어, 각각의 케이스에 대한 횟수가 일정 기준치 이상인 경우에 해당 케이스가 사용자의 실제 의도를 반영한 것으로 보고 이를 이용할 수 있다.
일 예로, 사용자가 다시 H마트를 목적지로 입력한 경우, 대화 관리기(120)는 사용자에게 A 쇼핑몰에 관한 정보를 제공할 수 있다.
또는, 사용자가 다시 B 쇼핑몰을 목적지로 입력한 경우, 대화 관리기(120)는 G 극장에 관한 정보를 제공할 수 있다.
또는, 사용자가 다시 C 음식점을 목적지로 입력한 경우, 대화 관리기(120)는 F 빌딩에 관한 정보를 제공할 수 있다.
또는, 사용자가 다시 D 지하철역을 목적지로 입력한 경우, 대화 관리기(120)는 D 지하철역 주변의 주차장에 관한 정보를 제공할 수 있다. 예를 들어, D 지하철역 주변 주차장의 위치, 영업 시간, 가격 등에 관한 정보를 제공할 수 있다.
또는, 사용자가 다시 E 빌딩을 목적지로 입력한 경우, 대화 관리기(120)는 E 빌딩 주변의 주/정차 단속에 관한 정보를 제공할 수 있다.
도 8 및 도 9는 대화 처리 장치가 사용자의 실제 의도를 파악하고 이에 대응되는 서비스를 제공하는 구체적인 예시를 나타낸 도면이다.
도 8을 참조하면, 사용자가 양재동 H마트를 목적지로 입력하기 위한 음성(U1: 양재동 H마트 찾아줘)을 발화하여 음성 입력부(210)를 통해 입력하면, 음성 입력부(210)가 이를 대화 처리 장치(100)로 전달하고, 음성 인식부(110)가 사용자의 음성을 인식하여 사용자가 발화한 언어를 출력한다.
대화 관리기(120)는 목적지 부가정보 데이터베이스로부터 현재 H마트의 상황 정보를 판단하고, 상황 정보에 기초하여 특이 상황의 발생 여부를 판단한다. 일 예로, H마트의 영업이 종료되어 특이 상황이 발생한 경우, 대화 관리기(120)는 스피커(231)를 통해 특이 상황을 안내하기 위한 음성(C1: 해당 H마트는 영업이 종료되었습니다. 그래도 안내할까요)을 출력한다.
사용자가 H마트로의 경로 안내를 유지하기 위한 음성(U2: 그래)을 발화하여 음성 입력부(210)를 통해 입력하면, 대화 관리기(120)는 이에 대한 응답(C2: 목적지로 안내하겠습니다)을 출력하고, 내비게이션 모듈(240)은 H마트로 경로 안내를 시작한다.
이와 함께, 대화 관리기(120)는 비 예상 행동이 발생한 것으로 판단하고 사용자의 실제 의도 파악을 위한 데이터 수집을 시작한다.
차량(1)이 목적지에 도착하여 주차된 이후에, 사용자가 다시 차량(1)에 탑승하면, 집으로 안내하기 위한 음성(C3: 업무가 끝나셨나요? 집으로 안내해드릴까요?)을 스피커(231)를 통해 출력하고, 사용자가 이에 대한 긍정의 응답(U3: 그래)을 발화하면, 내비게이션 모듈(240)은 집으로 경로 안내를 시작한다.
대화 관리기(120)는 차량(1)에 연결된 모바일 기기(2)로부터 추가 정보를 획득한다. 예를 들어, 모바일 기기(2)가 차량(1)을 통해 대화 관리기(120)에 사용자의 카드 사용 내역을 전달하고, 카드 사용 내역에 H마트 근처의 A 쇼핑몰 내의 B 매장에서의 결제 내역이 포함된 경우를 가정한다.
이 경우, 대화 관리기(120)는 사용자의 실제 의도가 A 쇼핑몰 이용인 것으로 판단할 수 있고, 더 구체적으로 A 쇼핑몰 내의 B 매장 이용이라는 점도 함께 판단할 수 있다. 이러한 정보는 사용자 의도 데이터베이스에 저장된다.
사용자 의도 데이터베이스가 생성된 이후에, 도 9에 도시된 바와 같이 사용자가 다시 양재동 H마트를 목적지로 입력하기 위한 음성(U4: 양재동 H마트 찾아줘)을 발화하여 음성 입력부(210)를 통해 입력하면, 대화 관리기(120)는 사용자 의도 데이터베이스에 저장된 정보에 기초하여 사용자의 실제 의도가 A 쇼핑몰의 방문이라는 것을 판단할 수 있다.
대화 관리기(120)는 A 쇼핑몰에 관한 정보를 제공하기 위해 목적지 부가정보 데이터베이스로부터 현재 A 쇼핑몰의 상황 정보를 판단할 수 있다. A 쇼핑몰이 휴무일인 경우에는 이를 공지함과 동시에 다른 곳의 추천 여부를 확인하기 위한 음성(C4: H마트 근처 A 쇼핑몰이 금일 휴무입니다. 다른 곳으로 추천해드릴까요?)을 스피커(231)를 통해 출력할 수 있다.
사용자가 긍정의 응답(U5: 그래)을 발화하면, 대화 관리기(120)는 사용자의 더 구체적인 실제 의도를 반영하여 B 매장이 있는 다른 쇼핑몰에 관한 정보를 제공하기 위한 음성(C5: B 매장이 있는 주변 쇼핑몰 중 가장 가까운 곳은 L 백화점입니다. L 백화점으로 안내해드릴까요?)을 스피커(231)를 통해 출력한다.
사용자가 긍정의 응답(U6: 그래)을 발화하면, 스피커(231)를 통해 이에 대한 응답(C6: 목적지로 안내하겠습니다)이 출력되고 내비게이션 모듈(240)은 L 백화점으로의 경로 안내를 시작한다.
전술한 예시에 따르면, 사용자가 자신의 의도를 설명하기 위해 추가적인 발화를 하거나, 추가적인 조작을 수행하지 않더라도 대화 처리 장치(100)가 지능적으로 사용자의 실제 의도를 판단하고, 이에 대응되는 서비스를 능동적으로 제공할 수 있다.
이하, 일 실시예에 따른 대화 처리 방법을 설명한다. 대화 처리 방법의 실시예에는 전술한 대화 처리 장치(100) 또는 차량(1)이 적용될 수 있는바, 앞서 도 1 내지 도 9를 참조한 대화 처리 장치(100) 또는 차량(1)에 관한 설명은 대화 처리 방법의 실시예에도 동일하게 적용될 수 있다.
도 10은 일 실시예에 따른 대화 처리 방법의 순서도이다. 다만, 순서도에 도시된 모든 단계가 반드시 대화 처리 방법에 포함되어야 하는 것은 아닌바, 도시된 단계들 중 일부는 대화 처리 방법을 설명하기 위해 필요한 것일 뿐, 대화 처리 방법을 구성하는 단계에서는 제외될 수 있다.
도 10을 참조하면, 사용자로부터 목적지를 입력받는다(410). 목적지의 입력은 음성 입력부(210)를 통해 음성으로 입력될 수 있으나, 반드시 이에 한정되는 것은 아니고, 차량(1)에 마련된 입력부(233)를 통해 입력되는 것도 가능하다.
목적지 상황 정보를 판단한다(411). 구체적으로, 대화 관리기(120)는 목적지에 관한 부가 정보에 기초하여 현재 목적지의 상황 정보를 판단한다. 예를 들어, 현재 날짜와 목적지의 휴무일을 비교하여 휴무 여부를 판단할 수 있고, 현재 시각과 영업 시간을 비교하여 목적지에 도착 시 영업을 하는지 여부를 판단할 수 있다. 또한, 목적지가 브레이크 타임을 갖는 경우, 도착 시 브레이크 타임인지 여부도 함께 판단할 수 있다. 또한, 주차 가능 여부도 판단할 수 있다.
현재 목적지의 상황 정보에 기초하여 특이 상황 발생 여부를 판단한다(412). 특이 상황은 사용자가 목적지를 이용할 수 없거나, 이용에 장애가 있는 상황을 의미할 수 있다. 따라서, 목적지에 도착 시 영업 시작 전이거나, 영업 종료 후이거나, 휴무일이거나, 도착 시 브레이크 타임이거나, 주차장이 없는 경우, 특이 상황이 발생한 것으로 판단할 수 있다.
특이 상황이 발생한 경우(412의 예), 스피커(231)를 통해 특이 상황이 발생했음을 사용자에게 안내할 수 있다(413).
특이 상황이 발생했음에도 사용자가 목적지 안내를 유지하는 비 예상 행동이 발생한 경우에는(414의 예), 사용자의 실제 의도를 파악하기 위한 데이터를 수집할 수 있다(415). 예를 들어, 사용자의 비 예상 행동은 목적지 안내를 유지한 이후에 목적지에 도착하여 주차까지 한 경우, 목적지 안내를 유지한 이후에 목적지에 정차한 후 새로운 목적지로 변경한 경우 및 목적지 안내를 유지한 이후에 목적지를 경유하지 않고 계속 주행한 경우를 포함할 수 있다.
비 예상 행동의 종류에 따라 사용자의 실제 의도를 파악하기 위한 데이터 수집 방법이 달라질 수 있다. 데이터의 수집은 추가 정보를 획득함으로써 이루어질 수 있는바, 사용자가 목적지에 도착하여 주차까지 한 경우에는 사용자의 카드 사용 내역 또는 차량 하차 이후의 이동 거리를 판단하기 위한 GPS 정보를 획득할 수 있다. 카드 사용 내역 및 GPS 정보를 모두 모바일 기기(2)로부터 획득할 수 있다.
또는, 사용자가 목적지를 경유하지 않고 계속 주행한 경우에는 차량의 최종 주차 위치 정보를 획득할 수 있다.
사용자의 실제 의도가 파악되면, 이를 사용자 의도 데이터베이스에 저장한다(416). 사용자 의도 데이터베이스의 일 예시는 전술한 도 7에 도시된 바와 같다.
사용자 의도 데이터베이스가 생성된 이후에 다시 동일한 목적지가 입력되면(420), 사용자 의도 데이터베이스에 기초하여 사용자의 실제 의도를 판단하고(421), 사용자의 실제 의도에 대응되는 서비스를 제공한다(422). 예를 들어, 실제 목적지의 위치에 관한 정보를 제공하거나, 실제 목적지의 부가 정보에 기초한 상황 정보를 제공할 수 있다.
도 11은 일 실시예에 따른 대화 처리 방법에 관한 구체적인 예시를 나타낸 순서도이다. 당해 예시에서는 앞서 설명한 도 7의 예시를 참조하도록 한다.
사용자가 D 지하철역을 목적지로 입력하면(430), 대화 관리기는(120)는 목적지 부가정보 데이터베이스에 기초하여 D 지하철역의 상황 정보를 판단한다(431).
D 지하철역에 주차장이 없는 경우 특이 상황이 발생한 것으로 판단하고(432의 예), 주차장이 없다는 정보를 사용자에게 안내한다(433).
주차장이 없음에도 불구하고 사용자가 목적지 안내를 유지하면(434의 예), 사용자의 실제 의도를 파악하기 위한 데이터를 수집한다(435). 예를 들어, 차량(1)이 최종적으로 주차된 위치가 J주차장인 경우, 최종 주차 위치가 J 주차장이라는 데이터가 수집된다.
이 경우, 사용자의 실제 의도는 D 지하철 역 주변의 주차장 이용이라는 것을 파악할 수 있고, 파악된 실제 의도를 사용자 의도 데이터베이스에 저장한다(436).
이후에, 사용자가 다시 D 지하철역을 목적지로 입력하면(440), 대화 관리기(120)는 사용자 의도 데이터베이스에 기초하여 사용자의 실제 의도를 판단한다(441). 여기서, 사용자의 실제 의도는 D 지하철역 주변의 주차장을 이용하는 것일 수 있다.
사용자의 실제 의도에 대응되는 부가 정보를 제공할 수 있다(442). 예를 들어, D 지하철역 주변에 주차장이 복수 개 위치하는 경우, 각 주차장의 위치, 가격, 영업 시간 등에 관한 정보를 제공할 수 있다.
지금까지 설명한 대화 처리 장치, 이를 포함하는 차량 및 대화 처리 방법의 실시예에 의하면, 사용자가 목적지를 입력한 경우, 사용자의 행동 패턴을 분석하여 사용자의 실제 의도를 파악하고 이를 데이터베이스화하여 이후에 사용자가 동일한 목적지를 입력하면 사용자의 실제 의도에 맞는 정보를 제공할 수 있다.
상기의 설명은 기술적 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명의 기술 분야에서 통상의 지식을 가진 자라면 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 상기에 개시된 실시예 및 첨부된 도면들은 기술적 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 기술적 사상의 범위가 한정되는 것은 아니다. 그 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술적 사상은 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100: 대화 처리 장치
110: 음성 인식부
120: 대화 관리기
130: 저장부
1: 차량
2: 모바일 기기

Claims (26)

  1. 입력된 목적지의 이용에 장애가 되는 특이 상황의 발생 여부를 판단하고, 상기 특이 상황이 발생한 경우, 사용자가 목적지 안내를 유지하는 비 예상 행동이 발생하면 상기 입력된 목적지와 관련된 사용자의 실제 의도를 판단하는 대화 관리기; 및
    상기 입력된 목적지와 관련된 사용자의 실제 의도를 저장하는 저장부;를 포함하는 대화 처리 장치.
  2. 제 1 항에 있어서
    상기 대화 관리기는,
    상기 사용자의 실제 의도가 저장된 목적지가 다시 입력되면, 상기 저장부에서 상기 재입력된 목적지와 관련된 사용자의 실제 의도를 검색하고, 상기 검색된 사용자의 실제 의도에 대응되는 서비스를 제공하는 대화 처리 장치.
  3. 제 1 항에 있어서,
    상기 대화 관리기는,
    상기 입력된 목적지에 관한 부가 정보에 기초하여, 상기 특이 상황의 발생 여부를 판단하고,
    상기 부가 정보는,
    영업 시간, 휴무일, 휴식 시간 및 주차 가능 여부 중 적어도 하나를 포함하는 대화 처리 장치.
  4. 제 3 항에 있어서,
    상기 대화 관리기는,
    상기 입력된 목적지에 도착 시 상기 입력된 목적지의 영업 시간이 아니거나, 휴무일이거나, 휴식 시간이거나, 또는 주차가 불가능한 경우에 상기 특이 상황이 발생한 것으로 판단하는 대화 처리 장치.
  5. 제 1 항에 있어서,
    상기 대화 관리기는,
    상기 사용자의 모바일 기기로부터 카드 사용 내역 및 GPS 정보 중 적어도 하나의 정보를 수신하고, 상기 수신한 정보에 기초하여 상기 사용자의 실제 의도를 판단하는 대화 처리 장치.
  6. 제 5 항에 있어서,
    상기 대화 관리기는,
    상기 사용자의 모바일 기기로부터 수신한 카드 사용 내역에 기초하여 상기 사용자의 실제 의도가 상기 입력된 목적지 주변의 실제 목적지의 이용인 것으로 판단하는 대화 처리 장치.
  7. 제 5 항에 있어서,
    상기 대화 관리기는,
    상기 사용자의 모바일 기기로부터 수신한 GPS 정보에 기초하여 상기 사용자의 실제 의도가 상기 입력된 목적지 주변의 실제 목적지의 방문인 것으로 판단하는 대화 처리 장치.
  8. 제 1 항에 있어서,
    상기 대화 관리기는,
    상기 사용자의 차량이 상기 입력된 목적지에 정차했는지 여부 또는 상기 입력된 목적지 이외의 위치에 주차했는지 여부에 기초하여 상기 사용자의 실제 의도를 판단하는 대화 처리 장치.
  9. 제 6 항 또는 제 7 항에 있어서,
    상기 대화 관리기는,
    상기 사용자의 실제 의도가 저장된 목적지가 다시 입력되면, 상기 실제 목적지에 관한 정보를 사용자에게 제공하는 대화 처리 장치.
  10. 사용자로부터 목적지를 음성으로 입력 받는 음성 입력부;
    상기 입력된 목적지의 이용에 장애가 되는 특이 상황의 발생 여부를 판단하고, 상기 특이 상황이 발생한 경우, 사용자가 목적지 안내를 유지하는 비 예상 행동이 발생하면 상기 입력된 목적지와 관련된 사용자의 실제 의도를 판단하는 대화 관리기; 및
    상기 입력된 목적지와 관련된 사용자의 실제 의도를 저장하는 저장부;를 포함하는 차량.
  11. 제 10 항에 있어서,
    상기 대화 관리기는,
    상기 사용자의 실제 의도가 저장된 목적지가 다시 입력되면, 상기 저장부에서 상기 재입력된 목적지와 관련된 사용자의 실제 의도를 검색하고, 상기 검색된 사용자의 실제 의도에 대응되는 서비스를 제공하는 차량.
  12. 제 11 항에 있어서,
    상기 사용자의 실제 의도에 대응되는 서비스를 제공하기 위한 음성을 출력하는 스피커;를 더 포함하는 차량.
  13. 제 11 항에 있어서,
    상기 대화 관리기는,
    상기 입력된 목적지에 관한 부가 정보에 기초하여, 상기 특이 상황의 발생 여부를 판단하고,
    상기 부가 정보는,
    영업 시간, 휴무일, 휴식 시간 및 주차 가능 여부 중 적어도 하나를 포함하는 차량.
  14. 제 13 항에 있어서,
    상기 대화 관리기는,
    상기 입력된 목적지에 도착 시 상기 입력된 목적지의 영업 시간이 아니거나, 휴무일이거나, 휴식 시간이거나, 또는 주차가 불가능한 경우에 상기 특이 상황이 발생한 것으로 판단하는 차량.
  15. 제 12 항에 있어서,
    상기 사용자의 모바일 기기로부터 카드 사용 내역 및 GPS 정보 중 적어도 하나의 정보를 수신하는 통신부;를 더 포함하고,
    상기 대화 관리기는,
    상기 수신한 정보에 기초하여 상기 사용자의 실제 의도를 판단하는 차량.
  16. 제 15 항에 있어서,
    상기 대화 관리기는,
    상기 사용자의 모바일 기기로부터 수신한 카드 사용 내역에 기초하여 상기 사용자의 실제 의도가 상기 입력된 목적지 주변의 실제 목적지의 이용인 것으로 판단하는 차량.
  17. 제 15 항에 있어서,
    상기 대화 관리기는,
    상기 사용자의 모바일 기기로부터 수신한 GPS 정보에 기초하여 상기 사용자의 실제 의도가 상기 입력된 목적지 주변의 실제 목적지의 방문인 것으로 판단하는 차량.
  18. 제 10 항에 있어서,
    상기 대화 관리기는,
    상기 사용자의 차량이 상기 입력된 목적지에 정차했는지 여부 또는 상기 입력된 목적지 이외의 위치에 주차했는지 여부에 기초하여 상기 사용자의 실제 의도를 판단하는 차량.
  19. 제 16 항 또는 제 17 항에 있어서
    상기 대화 관리기는,
    상기 사용자의 실제 의도가 저장된 목적지가 다시 입력되면, 상기 실제 목적지에 관한 정보를 검색하고,
    상기 스피커는,
    상기 실제 목적지에 관한 정보를 음성으로 출력하는 차량.
  20. 입력된 목적지의 이용에 장애가 되는 특이 상황의 발생 여부를 판단하고;
    상기 특이 상황이 발생한 경우, 사용자가 목적지 안내를 유지하는 비 예상 행동이 발생하면 상기 입력된 목적지와 관련된 사용자의 실제 의도를 판단하고;
    상기 입력된 목적지와 관련된 사용자의 실제 의도를 저장부에 저장하고;
    상기 사용자의 실제 의도가 저장된 목적지가 다시 입력되면, 상기 저장부에서 상기 재입력된 목적지와 관련된 사용자의 실제 의도를 검색하고;
    상기 검색된 사용자의 실제 의도에 대응되는 서비스를 제공하는 것;을 포함하는 대화 처리 장치.
  21. 제 20 항에 있어서,
    상기 특이 상황의 발생 여부를 판단하는 것은,
    상기 입력된 목적지에 도착 시 상기 입력된 목적지의 영업 시간이 아니거나, 휴무일이거나, 휴식 시간이거나, 또는 주차가 불가능한 경우에 상기 특이 상황이 발생한 것으로 판단하는 것을 포함하는 대화 처리 장치.
  22. 제 20 항에 있어서,
    상기 사용자의 실제 의도를 판단하는 것은,
    상기 사용자의 모바일 기기로부터 카드 사용 내역 및 GPS 정보 중 적어도 하나의 정보를 수신하고, 상기 수신한 정보에 기초하여 상기 사용자의 실제 의도를 판단하는 것을 포함하는 대화 처리 장치.
  23. 제 22 항에 있어서,
    상기 사용자의 실제 의도를 판단하는 것은,
    상기 사용자의 모바일 기기로부터 수신한 카드 사용 내역에 기초하여 상기 사용자의 실제 의도가 상기 입력된 목적지 주변의 실제 목적지의 이용인 것으로 판단하는 것을 포함하는 대화 처리 장치.
  24. 제 22 항에 있어서,
    상기 사용자의 실제 의도를 판단하는 것은,
    상기 사용자의 모바일 기기로부터 수신한 GPS 정보에 기초하여 상기 사용자의 실제 의도가 상기 입력된 목적지 주변의 실제 목적지의 방문인 것으로 판단하는 것을 포함하는 대화 처리 장치.
  25. 제 20 항에 있어서,
    상기 사용자의 실제 의도를 판단하는 것은,
    상기 사용자의 차량이 상기 입력된 목적지에 정차했는지 여부 또는 상기 입력된 목적지 이외의 위치에 주차했는지 여부에 기초하여 상기 사용자의 실제 의도를 판단하는 것을 포함하는 대화 처리 장치.
  26. 제 23 항 또는 제 24 항에 있어서,
    상기 검색된 사용자의 실제 의도에 대응되는 서비스를 제공하는 것은,
    상기 실제 목적지에 관한 정보를 사용자에게 제공하는 것을 포함하는 대화 처리 장치.
KR1020160178907A 2016-12-26 2016-12-26 대화 처리 장치, 이를 포함하는 차량 및 대화 처리 방법 KR102594310B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160178907A KR102594310B1 (ko) 2016-12-26 2016-12-26 대화 처리 장치, 이를 포함하는 차량 및 대화 처리 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160178907A KR102594310B1 (ko) 2016-12-26 2016-12-26 대화 처리 장치, 이를 포함하는 차량 및 대화 처리 방법

Publications (2)

Publication Number Publication Date
KR20180075031A KR20180075031A (ko) 2018-07-04
KR102594310B1 true KR102594310B1 (ko) 2023-10-26

Family

ID=62913275

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160178907A KR102594310B1 (ko) 2016-12-26 2016-12-26 대화 처리 장치, 이를 포함하는 차량 및 대화 처리 방법

Country Status (1)

Country Link
KR (1) KR102594310B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004177199A (ja) 2002-11-26 2004-06-24 Matsushita Electric Ind Co Ltd カーナビゲーション装置、カーナビゲーション方法、プログラムおよび記録媒体
JP2012202892A (ja) 2011-03-28 2012-10-22 Panasonic Corp ナビゲーション装置
KR101488677B1 (ko) 2013-08-01 2015-02-04 현대엠엔소프트 주식회사 네비게이션 시스템의 경로 안내 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9318108B2 (en) * 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
KR101770187B1 (ko) * 2014-03-27 2017-09-06 한국전자통신연구원 음성 대화를 통한 네비게이션 제어 장치 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004177199A (ja) 2002-11-26 2004-06-24 Matsushita Electric Ind Co Ltd カーナビゲーション装置、カーナビゲーション方法、プログラムおよび記録媒体
JP2012202892A (ja) 2011-03-28 2012-10-22 Panasonic Corp ナビゲーション装置
KR101488677B1 (ko) 2013-08-01 2015-02-04 현대엠엔소프트 주식회사 네비게이션 시스템의 경로 안내 방법

Also Published As

Publication number Publication date
KR20180075031A (ko) 2018-07-04

Similar Documents

Publication Publication Date Title
KR102643501B1 (ko) 대화 처리 장치, 이를 포함하는 차량 및 대화 처리 방법
KR102426171B1 (ko) 대화 시스템, 이를 포함하는 차량 및 대화 서비스 처리 방법
US20180350366A1 (en) Situation-based conversation initiating apparatus, system, vehicle and method
EP2586026B1 (en) Communication system and method between an on-vehicle voice recognition system and an off-vehicle voice recognition system
KR102414456B1 (ko) 대화 시스템, 이를 포함하는 차량 및 유고 정보 처리 방법
US20190122661A1 (en) System and method to detect cues in conversational speech
KR20180086718A (ko) 대화 시스템, 이를 포함하는 차량 및 대화 처리 방법
US11004447B2 (en) Speech processing apparatus, vehicle having the speech processing apparatus, and speech processing method
US10950233B2 (en) Dialogue system, vehicle having the same and dialogue processing method
KR20200000155A (ko) 대화 시스템 및 이를 이용한 차량
KR20190131741A (ko) 대화 시스템 및 대화 처리 방법
KR20200098079A (ko) 대화 시스템 및 대화 처리 방법
US10573308B2 (en) Apparatus and method for determining operation based on context, vehicle for determining operation based on context, and method of controlling the vehicle
CN111681651A (zh) 智能体装置、智能体系统、服务器装置、智能体装置的控制方法及存储介质
KR102487669B1 (ko) 대화 시스템, 이를 포함하는 차량 및 대화 처리 방법
US20200320998A1 (en) Agent device, method of controlling agent device, and storage medium
CN111717142A (zh) 智能体装置、智能体装置的控制方法及存储介质
CN111739525A (zh) 智能体装置、智能体装置的控制方法及存储介质
KR102594310B1 (ko) 대화 처리 장치, 이를 포함하는 차량 및 대화 처리 방법
US11542744B2 (en) Agent device, agent device control method, and storage medium
US20200320997A1 (en) Agent apparatus, agent apparatus control method, and storage medium
KR102668438B1 (ko) 음성 처리 장치, 이를 포함하는 차량 및 음성 처리 방법
JP2020142721A (ja) エージェントシステム、車載機器の制御方法、及びプログラム
KR20200000621A (ko) 대화 시스템, 이를 포함하는 차량 및 대화 처리 방법
JP7297483B2 (ja) エージェントシステム、サーバ装置、エージェントシステムの制御方法、およびプログラム

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant