KR102393296B1 - 응답을 디스플레이 하는 디바이스 및 방법 - Google Patents

응답을 디스플레이 하는 디바이스 및 방법 Download PDF

Info

Publication number
KR102393296B1
KR102393296B1 KR1020150007448A KR20150007448A KR102393296B1 KR 102393296 B1 KR102393296 B1 KR 102393296B1 KR 1020150007448 A KR1020150007448 A KR 1020150007448A KR 20150007448 A KR20150007448 A KR 20150007448A KR 102393296 B1 KR102393296 B1 KR 102393296B1
Authority
KR
South Korea
Prior art keywords
response
information
user
image
input
Prior art date
Application number
KR1020150007448A
Other languages
English (en)
Other versions
KR20160088128A (ko
Inventor
신승영
김정욱
박미정
안형주
이경은
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020150007448A priority Critical patent/KR102393296B1/ko
Priority to US14/995,602 priority patent/US10936140B2/en
Publication of KR20160088128A publication Critical patent/KR20160088128A/ko
Application granted granted Critical
Publication of KR102393296B1 publication Critical patent/KR102393296B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/435Filtering based on additional data, e.g. user or group profiles
    • G06F16/437Administration of user profiles, e.g. generation, initialisation, adaptation, distribution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/338Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/453Help systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Computational Linguistics (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

질의에 대한 응답을 디스플레이 하는 디바이스 및 방법이 제공된다. 응답을 디스플레이 하는 방법은, 수신한 사용자 입력이 나타내는 질의를 획득하는 단계; 상기 질의에 대응하는 복수개의 응답 중 하나의 응답을 사용자의 상황을 나타내는 상황 정보를 이용하여 결정하는 단계; 및 상기 결정된 응답을 나타내는 텍스트 및 상기 응답을 제공하는 주체의 이미지를 디스플레이 하는 단계;를 포함한다.

Description

응답을 디스플레이 하는 디바이스 및 방법 {Device and method for displaying response}
본 개시는 응답을 디스플레이 하는 디바이스 및 방법에 관한 것으로서, 보다 상세하게는, 상황 정보를 이용하여 질의에 대응하는 응답을 디스플레이 하는 디바이스 및 방법에 관한 것이다.
멀티미디어 기술 및 데이터 프로세싱 기술이 발전함에 따라, 디바이스는 다양한 정보를 처리할 수 있게 되었다. 특히 사용자 입력에 대응하는 응답을 디스플레이 하는 디바이스가 이용되고 있다. 그러나 동일한 사용자 입력에 대해서는 동일한 응답이 디스플레이 된다는 문제점이 있었다.
따라서 사용자의 상황을 나타내는 상황 정보를 이용하여, 질의에 대응하는 적응적인 응답을 디스플레이 하는 방법이 요구되고 있다.
본 발명에서 일부 실시 예는 상황 적응적인 응답을 출력하는 디바이스 및 방법을 제공한다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 제 1 측면은 디바이스가 응답을 디스플레이 하는 방법에 있어서, 수신한 사용자 입력이 나타내는 질의를 획득하는 단계; 상기 질의에 대응하는 복수개의 응답 중 하나의 응답을 사용자의 상황을 나타내는 상황 정보를 이용하여 결정하는 단계; 및 상기 결정된 응답을 나타내는 텍스트 및 상기 응답을 제공하는 주체의 이미지를 디스플레이 하는 단계를 포함할 수 있다.
또한, 상기 디스플레이 된 텍스트 및 이미지의 평가를 위한 사용자 입력을 수신하는 단계를 더 포함할 수 있다.
또한, 상기 수신한 평가를 위한 사용자 입력 및 상기 상황 정보를 이용하여 상기 복수개의 응답 중 다른 응답을 결정하는 단계를 더 포함할 수 있다.
또한, 상기 수신한 평가를 위한 사용자 입력에 대한 히스토리에 기초하여 상기 디스플레이 되는 주체의 이미지를 변경하는 단계를 더 포함할 수 있다.
또한, 복수개의 아바타 이미지 중 하나를 상기 상황 정보에 기초하여 선택하는 단계를 더 포함할 수 있고, 상기 디스플레이 되는 주체의 이미지는 상기 선택된 아바타 이미지일 수 있다.
또한, 복수개의 응답 카테고리 중 상기 결정된 응답에 대응되는 응답 카테고리를 식별하는 단계; 및 상기 식별된 응답 카테고리에 따라 복수개의 아바타 이미지 중 하나를 선택하는 단계를 더 포함하고, 상기 디스플레이 되는 주체의 이미지는 상기 선택된 아바타 이미지일 수 있다.
또한, 상기 사용자의 사용자 정보를 획득하는 단계; 및 복수개의 아바타 이미지 중 하나를 상기 사용자 정보에 기초하여 선택하는 단계를 더 포함하고, 상기 디스플레이 되는 주체의 이미지는 상기 선택된 아바타 이미지일 수 있다.
또한, 상기 결정하는 단계는 상기 질의에 대응하는 상기 복수개의 응답을 획득하는 단계; 상기 상황 정보를 상기 디바이스에 포함된 하나 이상의 센서를 이용하여 획득하는 단계; 및 상기 복수개의 응답 중 하나의 응답을 상기 상황 정보를 이용하여 결정하는 단계를 포함할 수 있다.
또한, 상기 결정하는 단계는 상기 사용자의 일정 정보를 획득하는 단계; 상기 일정 정보에 포함된 복수개의 일정 중 하나를 상기 상황 정보를 이용하여 결정하는 단계; 및 상기 결정된 일정에 기초하여 상기 응답을 나타내는 텍스트를 생성하는 단계를 포함할 수 있다.
또한, 본 개시의 제 2 측면은 응답을 디스플레이 하는 디바이스에 있어서, 사용자 입력을 수신하는 입력 수신부; 상기 수신한 사용자 입력이 나타내는 질의를 획득하고, 상기 질의에 대응하는 복수개의 응답 중 하나의 응답을 사용자의 상황을 나타내는 상황 정보를 이용하여 결정하는 제어부; 및 상기 결정된 응답을 나타내는 텍스트 및 상기 응답을 제공하는 주체의 이미지를 디스플레이 하는 디스플레이부를 포함할 수 있다.
또한, 상기 입력 수신부는 상기 디스플레이 된 텍스트 및 이미지의 평가를 위한 사용자 입력을 수신할 수 있다.
또한, 상기 제어부는 상기 수신한 평가를 위한 사용자 입력 및 상기 상황 정보를 이용하여 상기 복수개의 응답 중 다른 응답을 결정할 수 있다.
또한, 상기 제어부는 상기 수신한 평가를 위한 사용자 입력에 대한 히스토리에 기초하여 상기 디스플레이 되는 주체의 이미지를 변경할 수 있다.
또한, 상기 제어부는 복수개의 아바타 이미지 중 하나를 상기 상황 정보에 기초하여 선택하고, 상기 디스플레이 되는 주체의 이미지는 상기 선택된 아바타 이미지일 수 있다.
또한, 상기 제어부는 복수개의 응답 카테고리 중 상기 결정된 응답에 대응되는 응답 카테고리를 식별하고, 상기 식별된 응답 카테고리에 따라 복수개의 아바타 이미지 중 하나를 선택하고, 상기 디스플레이 되는 주체의 이미지는 상기 선택된 아바타 이미지일 수 있다.
또한, 상기 제어부는 상기 사용자의 사용자 정보를 획득하고, 복수개의 아바타 이미지 중 하나를 상기 사용자 정보에 기초하여 선택하고, 상기 디스플레이 되는 주체의 이미지는 상기 선택된 아바타 이미지일 수 있다.
또한, 상기 제어부는 상기 질의에 대응하는 상기 복수개의 응답을 획득하고, 상기 상황 정보를 상기 디바이스에 포함된 하나 이상의 센서를 이용하여 획득하고, 상기 복수개의 응답 중 하나의 응답을 상기 상황 정보를 이용하여 결정할 수 있다.
또한, 상기 제어부는 상기 사용자의 일정 정보를 획득하고, 상기 일정 정보에 포함된 복수개의 일정 중 하나를 상기 상황 정보를 이용하여 결정하고, 상기 결정된 일정에 기초하여 상기 응답을 나타내는 텍스트를 생성할 수 있다.
또한, 본 개시의 제 3 측면은 제 1 측면의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다.
또한, 본 개시의 제 4 측면은 제 1 측면의 방법을 구현하기 위하여 기록매체에 저장된 컴퓨터 프로그램을 제공할 수 있다.
도 1은 일부 실시 예에 따른 디바이스가 응답을 디스플레이 하는 일례를 도시한 도면이다.
도 2는 일부 실시 예에 따른 디바이스가 응답을 나타내는 텍스트 및 응답을 제공하는 주체의 이미지를 디스플레이 하는 방법의 흐름도이다.
도 3은 일부 다른 실시 예에 따른 디바이스가 응답을 나타내는 텍스트 및 응답을 제공하는 주체의 이미지를 디스플레이 하는 방법의 흐름도이다.
도 4a는 일부 실시 예에 따른 디바이스가 디스플레이 된 텍스트에 대한 평가를 위한 사용자 입력을 수신하는 일례를 도시한 도면이다.
도 4b는 일부 실시 예에 따른 디바이스가 디스플레이 된 주체의 이미지에 대한 평가를 위한 사용자 입력을 수신하는 일례를 도시한 도면이다.
도 5는 일부 실시 예에 따른 디바이스가 상황 정보에 기초하여 아바타가 응답을 제공하는 화면을 디스플레이 하는 방법의 흐름도이다.
도 6은 일부 실시 예에 따른 디바이스가 결정된 응답에 대응하는 응답 카테고리에 따라 응답을 제공하는 화면을 디스플레이 하는 방법의 흐름도이다.
도 7은 일부 실시 예에 따른 디바이스가 사용자 정보에 따라 응답을 제공하는 화면을 디스플레이 하는 방법의 흐름도이다.
도 8은 일부 실시 예에 따른 디바이스가 복수개의 응답 중 하나의 응답을 상황 정보를 이용하여 결정하는 방법의 흐름도이다.
도 9는 일부 실시 예에 따른 디바이스가 일정에 기초하여 응답을 나타내는 텍스트를 생성하는 일례를 도시한 도면이다.
도 10은 일부 실시 예에 따른 디바이스가 서버와 연동하여 동작하는 일례를 도시한 도면이다.
도 11은 일부 실시 예에 따른 디바이스가 상황 정보에 기초하여 응답을 디스플레이 하는 일례를 도시한 도면이다.
도 12a는 일부 다른 실시 예에 따른 디바이스가 상황 정보에 기초하여 응답을 디스플레이 하는 일례를 도시한 도면이다.
도 12b는 일부 다른 실시 예에 따른 디바이스가 상황 정보에 기초하여 응답을 디스플레이 하는 일례를 도시한 도면이다.
도 13은 일부 실시 예에 따른 디바이스의 구성을 나타내는 블록도이다.
도 14은 일부 다른 실시 예에 따른 디바이스의 구성을 나타내는 블록도이다.
도 15는 일부 다른 실시 예에 따른 디바이스의 구성을 나타내는 블록도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
또한, 본 명세서에서, “사용자 입력”은, 터치 입력, 키보드 입력, 음성 입력, 소리 입력, 버튼 입력, 제스쳐 입력 및 다중(multimodal) 입력 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다.
또한, 본 명세서에서 “터치 입력”이란 사용자가 디바이스(100)를 제어하기 위해 터치 스크린 및 커버에 행하는 터치 제스처 등을 의미한다. 예를 들어, 본 명세서에서 기술되는 터치 입력에는 탭, 터치&홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭 등이 있을 수 있으나, 이에 제한되지 않는다.
또한, 본 명세서에서 “버튼 입력”은 사용자가 디바이스(100)에 부착된 물리적인 버튼을 이용하여, 디바이스(100)를 제어하는 입력을 의미한다.
또한, 본 명세서에서 "제스쳐 입력"은, 사용자가 디바이스(100)에 입력을 인가하기 위해 디바이스(100)를 움직이는 입력을 의미할 수 있다. 예를 들어, 제스쳐 입력은, 사용자가 디바이스(100)를 회전시키거나, 디바이스(100)를 기울이거나, 디바이스(100)를 상하좌우로 이동시키는 입력을 포함할 수 있다. 디바이스(100)는, 가속도 센서(Acceleration sensor), 기울기 센서(tilt sensor), 자이로 센서(Gyro sensor), 자기장 센서(3-axis Magnetic sensor) 등을 이용하여, 사용자에 의해 기 설정된 제스쳐 입력을 감지할 수 있다.
또는 본 명세서에서 "제스쳐 입력"은 사용자가 디바이스에 입력하기 위한 사용자의 움직임에 대한 입력을 의미할 수 있다. 일 실시 예에 따른 제스쳐 입력은 디바이스(100)가 디바이스 외부로부터 획득한 움직임 정보를 포함할 수 있다. 예를 들면, 제스쳐 입력은, 디바이스가 획득한 사용자의 움직임에 대한 입력을 포함할 수 있다. 일 실시 예에 따른 디바이스(100)는 카메라, 적외선 센서 등을 이용하여 사용자의 움직임을 감지하여 제스쳐 입력을 수신할 수 있다.
또한, 본 명세서에서 “다중 입력”은, 적어도 둘 이상의 입력 방식이 결합된 것을 의미한다. 예를 들어, 디바이스(100)는, 사용자의 터치 입력 및 제스쳐 입력을 수신할 수도 있고, 사용자의 터치 입력 및 음성 입력을 수신할 수도 있다.
또한, 상황 정보(Context Information)는, 디바이스에 관련된 상황 정보를 의미할 수 있다. 예를 들면, 상황 정보는 디바이스의 위치, 시각, 날씨, 상태, 동작, 디바이스에서 실행된 애플리케이션의 실행 이력에 관한 정보를 포함할 수 있다
또한, 사용자 정보는, 사용자에 관련된 정보를 의미할 수 있다. 예를 들면, 사용자 정보는 사용자의 성별, 나이, 직업, 이름, 관계, 국가, 장애 여부, 체질, 건강 및 사용자의 선호 중 적어도 하나에 관한 정보를 포함할 수 있다.
또한, 본 명세서에서 “질의”는 사용자가 디바이스에 특정 정보를 요청하는 것을 의미할 수 있다. 예를 들면, 질의는 사용자의 입력으로부터 획득되는 요청을 포함할 수 있다. 다른 예로, 질의는 의문문 형태의 문장으로 표현될 수 있다. 다른 예로, 질의는 평서문 형태의 문장 또는 하나의 단어로 표현될 수 있다. 다른 예로, 질의는 사용자의 음성입력으로부터 획득될 수 있다. 다른 예로, 질의는 소정의 정보를 디바이스(100)의 화면에 디스플레이 할 것을 나타내는 요청을 포함할 수 있다.
또한, 본 명세서에서 “응답”은 질의에 대응되는 답변을 제공하는 것을 의미할 수 있다. 예를 들면, 응답은 질의에 대응되는 정보를 포함할 수 있다. 일 실시 예에 따른 응답은 질의에 의해 요청되는 정보일 수 있다. 예를 들면, “오늘의 날씨는?” 이라는 질의에 대응한 응답은 오늘의 날씨에 대한 정보일 수 있다. 다른 예로, “남대문 모습은?”이라는 질의에 대응한 응답은 남대문 이미지일 수 있다. 다른 예로, “내 홈페이지”라는 질의에 대응한 응답은 사용자의 홈페이지에 접속할 때 이용되는 웹 주소일 수 있다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.
도 1은 일부 실시 예에 따른 디바이스(100)가 응답을 디스플레이 하는 일례를 도시한 도면이다.
도 1을 참조하면, 디바이스(100)는 수신한 사용자 입력에 대응하는 응답 획득하고, 획득한 응답을 나타내는 텍스트(120) 및 획득한 응답을 제공하는 주체의 이미지(110)를 디스플레이 할 수 있다. 예를 들면, 사용자로부터 “오늘 일정은?” 이라는 음성 입력을 수신한 경우, 디바이스(100)는 오늘 일정에 대한 정보를 나타내는 텍스트(120)를 디스플레이 할 수 있다. 또한, 디바이스(100)는 오늘 일정에 대한 정보를 나타내는 텍스트(120)를 제공하는 주체의 이미지(110)를 텍스트(120)와 함께 디스플레이 할 수 있다.
응답을 나타내는 텍스트(110) 및 응답 제공 주체의 이미지(110)은 질의에 대응하여 결정될 수 있다.
디바이스(1000)는, 스마트폰, 태블릿 PC, PC, 스마트 TV, 휴대폰, PDA(personal digital assistant), 랩톱, 미디어 플레이어, 마이크로 서버, GPS(global positioning system) 장치, 전자책 단말기, 디지털방송용 단말기, 네비게이션, 키오스크, MP3 플레이어, 디지털 카메라 및 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으나, 이에 제한되지 않는다. 또한, 디바이스(1000)는 통신 기능 및 데이터 프로세싱 기능을 구비한 시계, 안경, 헤어 밴드 및 반지 등의 웨어러블 디바이스일 수 있다.
도 2는 일부 실시 예에 따른 디바이스(100)가 응답을 나타내는 텍스트 및 응답을 제공하는 주체의 이미지를 디스플레이 하는 방법의 흐름도이다.
단계 S210에서 디바이스(100)는 사용자 입력을 수신할 수 있다. 사용자 입력은 사용자로부터 수신되는 입력을 의미할 수 있다. 예를 들면, 사용자 입력은 터치 입력, 키보드 입력, 소리 입력, 버튼 입력 및 제스쳐 입력 중 적어도 하나를 포함할 수 있다.
일 실시 예에 따른 디바이스(100)는 디바이스(100) 내에 포함된 센서를 이용하여 사용자 입력을 수신할 수 있다. 예를 들면, 디바이스(100) 내에 포함된 마이크를 이용하여 디바이스(100)는 사용자로부터 음성 입력을 수신할 수 있다. 다른 예로, 디바이스(100) 내에 포함된 가속도 센서를 이용하여 디바이스(100)는 사용자로부터 제스쳐 입력을 수신할 수 있다. 예를 들면, 사용자가 디바이스(100)를 소정의 횟수만큼 위아래로 흔들 경우, 디바이스(100)는 소정의 횟수만큼 위아래로 흔들리는 제스쳐 입력을 수신할 수 있다.
단계 S220에서 디바이스(100)는 수신한 사용자 입력이 나타내는 질의를 획득할 수 있다. 예를 들면, 디바이스(100)는 수신한 사용자의 음성 입력으로부터 소정의 정보에 대한 요청을 획득할 수 있다. 일 실시 예에 따른 질의는 의문문 형태의 문장으로 표현될 수 있다.
일 실시 예에 따른 디바이스(100)는 사용자로부터 “오늘 일정은?” 이라는 음성 입력을 수신한 경우, 사용자의 오늘 일정에 대한 정보를 요청하는 질의를 획득하고, 획득된 질의에 대응하여 오늘 일정에 대한 정보를 획득할 수 있다.
다른 실시 예에 따른 디바이스(100)는 사용자로부터 제 1 버튼의 입력을 수신한 경우, 제 1 버튼의 입력에 대응되는 질의를 획득할 수 있다.
다른 실시 예에 따른 디바이스(100)는 사용자로부터 제 1 버튼과 제 2 버튼의 입력을 연속적으로 수신한 경우, 제 1 버튼과 제 2 버튼의 연속 입력에 대응되는 질의를 획득할 수 있다.
다른 실시 예에 따른 디바이스(100)는 사용자로부터 제 1 터치 입력을 수신한 경우, 제 1 터치 입력에 대응되는 질의를 획득할 수 있다.
다른 실시 예에 따른 디바이스(100)는 사용자로부터 제 1 터치 입력과 제 2 터치 입력을 소정의 시간 간격 내에 수신한 경우, 제 1 터치 입력과 제 2 터치 입력의 연속 입력에 대응되는 질의를 획득할 수 있다.
다른 실시 예에 따른 디바이스(100)는 사용자로부터 제 1 제스쳐 입력을 수신한 경우 제 1 제스쳐 입력에 대응되는 질의를 획득할 수 있다. 예를 들면, 디바이스(100)가 위 아래로 3회 흔들리는 제스쳐 입력을 수신한 경우, “오늘 일정은?” 이라는 질의를 획득할 수 있다.
단계 S230에서 디바이스(100)는 사용자의 상황을 나타내는 상황 정보를 획득할 수 있다.
일 실시 예에 따른 디바이스(100)는 디바이스(100) 내에 포함된 센서를 이용하여 상황 정보를 획득할 수 있다. 예를 들면, 디바이스(100)는 디바이스(100) 내에 포함된 위치 감지 센서를 이용하여 디바이스(100)의 위치 정보를 획득할 수 있다. 다른 예로, 디바이스(100)는 디바이스(100) 내에 포함된 센서를 이용하여 온도 정보, 시간 정보, 소음 정보 등을 획득할 수 있다.
다른 실시 예에 따른 디바이스(100)는 디바이스(100) 외부로부터 상황 정보를 획득할 수 있다. 일 실시 예에 따른 디바이스(100)는 디바이스(100)의 외부로부터 상황 정보를 획득할 수 있다. 예를 들면, 디바이스(100)는 서버로부터 시간 정보, 지도 정보, 날씨 정보, 뉴스 정보 등을 획득할 수 있다.
단계 S240에서 디바이스(100)는 질의에 대응하는 응답을 상황 정보를 이용하여 획득할 수 있다.
일 실시 예에 따른 디바이스(100)는 단계 S220에서 획득한 질의 및 상황 정보에 기초하여 응답을 획득할 수 있다.
예를 들면, 디바이스(100)가 획득한 질의가 “오늘 날씨는?” 인 경우, 디바이스(100)는 현재 디바이스(100)의 위치에 대응되는 지역의 날씨 정보를 획득할 수 있다. 다른 예로, 디바이스(100)가 획득한 질의가 “일정은?” 인 경우, 디바이스(100)는 현재 시간으로부터 1시간 내에 계획된 일정에 대한 정보를 획득할 수 있다. 다른 예로, 디바이스(100)가 획득한 질의가 “실시간 검색어”인 경우, 디바이스(100)는 현재 시간에 소정의 검색 사이트에서 1위부터 10위까지의 실시간 검색어에 대한 정보를 획득할 수 있다. 다른 예로, 디바이스(100)가 획득한 질의가 “동대문 가는 길”인 경우 디바이스(100)는 현재 교통량을 고려하여 디바이스(100)의 현재 위치로부터 동대문까지 가는 길에 대한 정보를 획득할 수 있다. 다른 예로, 디바이스(100)가 획득한 질의가 “오늘 추천 의상은?”인 경우, 디바이스(100)는 오늘의 날씨 예보에 기초하여 사용자에게 추천할 의상에 대한 정보를 획득할 수 있다.
다른 실시 예에 따른 디바이스(100)는 단계 S220에서 획득한 질의에 대응하는 복수개의 응답 중 상황 정보에 대응되는 응답을 선택할 수 있다.
예를 들면, 디바이스(100)가 획득한 질의가 “오늘 날씨는?” 인 경우, 디바이스(100)는 복수의 지역에 대한 날씨 정보 중에서 현재 디바이스(100)의 위치에 대응되는 지역의 날씨 정보를 획득할 수 있다. 다른 예로, 디바이스(100)가 획득한 질의가 “일정은?” 인 경우, 디바이스(100)는 사용자의 오늘 일정들 중 지금 시간으로부터 가장 가까운 미래에 계획된 일정에 대한 정보를 획득할 수 있다. 다른 예로, 디바이스(100)가 획득한 질의가 “실시간 검색어”인 경우, 디바이스(100)는 복수개의 검색 사이트 중 디바이스(100)에서 접속 횟수가 가장 많은 검색 사이트에서 1위부터 10위까지의 실시간 검색어에 대한 정보를 획득할 수 있다. 다른 예로, 디바이스(100)가 획득한 질의가 “동대문 가는 길”인 경우 디바이스(100)는 현재 디바이스(100)의 위치로부터 동대문까지 가는 복수개의 경로 중에서 현재 교통량을 고려하여 하나의 경로에 대한 정보를 획득할 수 있다. 다른 예로, 디바이스(100)가 획득한 질의가 “오늘 추천 의상은?”인 경우, 디바이스(100)는 디바이스(100) 내에 저장된 복수개의 의상 정보 중에서 오늘의 날씨 예보에 기초하여 사용자에게 추천할 의상에 대한 정보를 획득할 수 있다.
단계 S250에서 디바이스(100)는 획득된 응답을 나타내는 텍스트 및 응답을 제공하는 주체의 이미지를 디스플레이 할 수 있다.
일 실시 예에 따른 디바이스(100)는 단계 S240에서 획득한 응답을 나타내는 텍스트를 획득하고 디스플레이 할 수 있다. 예를 들면, 디바이스(100)는 획득한 응답을 나타내는 문장을 획득하고 디스플레이 할 수 있다.
예를 들면, 획득한 응답이 1시간 후에 계획된 일정에 대한 정보인 경우, 디바이스(100)는 1시간 후에 계획된 일정에 대한 정보를 나타내는 텍스트(120)를 생성할 수 있다. 다른 예로, 획득한 응답이 오늘의 날씨에 대한 정보인 경우, 디바이스(100)는 “오늘은 최고 기온은 7도 최저 기온은 2도인 맑은 날씨가 예상됩니다.”라는 텍스트를 생성할 수 있다.
일 실시 예에 따른 응답을 나타내는 텍스트는 하나 이상의 단어로 표시될 수 있다. 예를 들면, 응답을 나타내는 텍스트는 문장의 형태로 표시될 수 있다. 다른 예로, 응답을 나타내는 텍스트는 복수개의 명사로 표시될 수 있다.
예를 들면, 획득한 응답이 1위부터 10위까지의 실시간 검색어인 경우, 디바이스(100)는 1위부터 10위까지의 실시간 검색어를 텍스트형태로 디스플레이 할 수 있다.
일 실시 예에 따른 응답을 나타내는 텍스트는 말풍선 형태로 디스플레이 될 수 있다.
일 실시 예에 따른 디바이스(100)는 응답을 제공하는 주체의 이미지를 디스플레이 할 수 있다.
예를 들면, 디바이스(100)는 응답을 나타내는 텍스트를 제공하는 주체의 이미지(110)를 디스플레이 할 수 있다. 일 실시 예에 따른 텍스트는 말풍선 형태로 표시될 수 있다. 또한, 일 실시 예에 따른 디바이스(100)는 말풍선 형태의 텍스트를 제공하는 주체의 이미지를 디스플레이 할 수 있다.
일 실시 예에 따른 디바이스(100)는 복수개의 이미지들 중 응답을 제공하는 주체의 이미지를 결정할 수 있다. 예를 들면, 디바이스(100)는 상황 정보를 이용하여 복수개의 이미지들 중 응답을 제공하는 주체의 이미지를 결정할 수 있다.
일 실시 예에 따른 응답을 제공하는 주체의 이미지는 소정의 캐릭터 이미지일 수 있다. 다른 실시 예에 따른, 응답을 제공하는 주체의 이미지는 의인화된 대상의 이미지일 수 있다.
도 3은 일부 다른 실시 예에 따른 디바이스(100)가 응답을 나타내는 텍스트 및 응답을 제공하는 주체의 이미지를 디스플레이 하는 방법의 흐름도이다.
단계 S310 내지 단계 S350은 각각 단계 S210 내지 단계 S250에 대응되므로 전체적인 설명을 간단히 하기 위해 상세한 설명을 생략한다.
단계 S360에서 디바이스(100)는 단계 S350에서 디스플레이 된 텍스트 및 이미지의 평가를 위한 사용자 입력을 수신한다.
일 실시 예에 따른 디바이스(100)는 평가를 위한 사용자 입력을 입력 받기 위한 화면을 디스플레이 할 수 있다. 예를 들면, 디바이스(100)는 단계 S350에서 텍스트 및 이미지를 디스플레이 한 후, 디스플레이 된 텍스트 및 이미지에 대한 만족도를 입력하는 화면을 디스플레이 할 수 있다.
예를 들면, 디바이스(100)는 단계 S350에서 디스플레이 된 텍스트 및 이미지에 대한 평가를 0점부터 100점 사이의 점수로 입력 받는 화면을 디스플레이 할 수 있다.
다른 예로, 디바이스(100)는 단계 S350에서 디스플레이 된 텍스트에 대한 평가 입력을 입력 받는 제 1 화면과 단계 S350에서 디스플레이 된 이미지에 대한 평가 입력을 입력 받는 제 2 화면을 각각 디스플레이 할 수 있다. 일 실시 예에 따른 디바이스(100)는 제 1 화면과 제 2 화면을 동시에 디스플레이 할 수 있다. 다른 실시 예에 따른 디바이스(100)는 제 1 화면을 제 2 화면보다 먼저 디스플레이하고, 단계 S350에서 디스플레이 된 텍스트에 대한 평가 입력의 수신이 종료된 후 제 2 화면을 디스플레이 할 수 있다.
일 실시 예에 따른 제 1 화면과 제 2 화면은 하나 이상의 항목을 디스플레이 할 수 있다. 예를 들면, 제 1 화면은 단계 S350에서 디스플레이 된 텍스트의 내용이 절절한지 여부에 대한 평가를 입력하는 항목, 단계 S350에서 디스플레이 된 텍스트가 사용자가 의도한 바를 나타내지 못하는 경우에 사용자가 의도한 응답을 입력하는 항목, 단계 S350에서 디스플레이 된 텍스트의 형식(예를 들면 글씨체)에 대한 변경을 요청하는 항목 중 적어도 하나를 디스플레이 할 수 있다. 다른 예로, 제 2 화면은 단계 S350에서 디스플레이 된 이미지가 절절한지 여부에 대한 평가를 입력하는 항목, 사용자가 단계 S350에서 디스플레이 된 이미지의 변경을 원하는 경우, 사용자가가 원하는 이미지를 선택하는 항목, 단계 S350에서 디스플레이 된 이미지의 형식(예를 들면 이미지의 크기 또는 색상)에 대한 변경을 요청하는 항목 중 적어도 하나를 디스플레이 할 수 있다.
단계 S370에서 디바이스(100)는 단계 S360에서 수신한 사용자 입력 및 상황 정보를 이용하여 단계 S340에서 획득된 응답과 다른 응답을 획득한다. 일 실시 예에 따른 디바이스(100)는 질의에 대응하는 응답을 획득할 때 단계 S360에서 수신한 사용자 입력을 이용할 수 있다. 여기서 단계 S360에서 수신한 사용자 입력은 평가를 위한 사용자 입력을 의미할 수 있다.
예를 들면, 단계 S340에서 제 1 응답을 획득한 디바이스(100)는 단계 S360에서 수신한 사용자 입력을 이용하여 단계 S370에서 제 2 응답을 획득할 수 있다. 예를 들면, “날씨는?”이라는 질의에 대해서 단계 S340에서 오늘의 날씨에 대한 정보를 획득한 디바이스(100)는 단계 S360에서 수신한 내일의 날씨를 요청하는 사용자의 평가 입력에 따라 단계 S370에서 내일의 날씨에 대한 정보를 획득할 수 있다. 다른 예로, “일정은?” 이라는 질의에 대해서 단계 S340에서 현재 시간으로부터 2시간 이내에 계획된 일정에 대한 정보를 획득한 디바이스(100)는 단계 S360에서 수신한 현재 시간으로부터 1시간 이내에 계획된 일정을 요청하는 사용자의 평가 입력에 따라 단계 S370에서 현재 시간으로부터 1시간 이내에 계획된 일정에 대한 정보를 획득할 수 있다.
단계 S380에서 디바이스(100)는 단계 S360에서 수신한 사용자 입력에 기초하여 디스플레이 되는 주체의 이미지를 변경한다. 예를 들면, 디바이스(100)는 단계 S360에서 수신한 사용자 입력에 대한 히스토리에 기초하여 디스플레이 되는 주체의 이미지를 변경할 수 있다.
일 실시 예에 따른 디바이스(100)는 단계 S360에서 수신한 사용자 입력에 따라 디스플레이 되는 주체의 이미지를 변경할 수 있다. 예를 들면, 디바이스(100)가 단계 S350에서 제 1 캐릭터 이미지를 주체의 이미지로 디스플레이 한 경우, 제 2 캐릭터 이미지를 주체의 이미지로 디스플레이 할 것을 요청하는 단계 S360에서 수신된 사용자 입력에 따라 디바이스(100)는 디스플레이 되는 주체의 이미지를 제 2 캐릭터 이미지로 변경할 수 있다.
다른 실시 예에 따른 디바이스(100)는 단계 S360에서 수신한 사용자 입력에 대한 히스토리에 기초하여 디스플레이 되는 주체의 이미지를 변경할 수 있다.
일 실시 예에 따른, 디바이스(100)가 디스플레이 된 텍스트 및 이미지의 평가를 위한 사용자 입력을 수신한 횟수가 소정 횟수 이상인 경우, 디바이스(100)는 단계 S380에서 디스플레이 되는 주체의 이미지를 제 1 캐릭터 이미지에서 제 2 캐릭터 이미지로 변경할 수 있다. 예를 들면, 평가를 위한 사용자 입력을 수신한 횟수에 기초하여 단계 S380에서 디스플레이 되는 주체의 이미지의 모습을 소정의 기준에 따라 변경할 수 있다.
예를 들면, 평가를 위한 사용자 입력을 수신한 횟수가 0회 내지 10회인 경우, 디바이스(100)는 단계 S380에서 디스플레이 되는 주체의 이미지를 어린이 모습의 캐릭터 이미지로 선택할 수 있다. 다른 예로, 평가를 위한 사용자 입력을 수신한 횟수가 11회 내지 20회인 경우, 디바이스(100)는 단계 S380에서 디스플레이 되는 주체의 이미지를 청소년 모습의 캐릭터 이미지로 선택할 수 있다. 다른 예로, 평가를 위한 사용자 입력을 수신한 횟수가 21회 내지 30회인 경우, 디바이스(100)는 단계 S380에서 디스플레이 되는 주체의 이미지를 30대 모습의 캐릭터 이미지로 선택할 수 있다. 다른 예로, 평가를 위한 사용자 입력을 수신한 횟수가 31회 이상인 경우, 디바이스(100)는 단계 S380에서 디스플레이 되는 주체의 이미지를 노인 모습의 캐릭터 이미지로 선택할 수 있다.
다른 예를 들면, 평가를 위한 사용자 입력을 수신한 횟수가 0회 내지 10회인 경우, 디바이스(100)는 단계 S380에서 디스플레이 되는 주체의 이미지를 원숭이 모습의 캐릭터 이미지로 선택할 수 있다. 다른 예로, 평가를 위한 사용자 입력을 수신한 횟수가 11회 내지 20회인 경우, 디바이스(100)는 단계 S380에서 디스플레이 되는 주체의 이미지를 오스트랄로피테쿠스 모습의 캐릭터 이미지로 선택할 수 있다. 다른 예로, 평가를 위한 사용자 입력을 수신한 횟수가 21회 내지 30회인 경우, 디바이스(100)는 단계 S380에서 디스플레이 되는 주체의 이미지를 호모 사피엔스 모습의 캐릭터 이미지로 선택할 수 있다. 다른 예로, 평가를 위한 사용자 입력을 수신한 횟수가 31회 이상인 경우, 디바이스(100)는 단계 S380에서 디스플레이 되는 주체의 이미지를 현재 인류 모습의 캐릭터 이미지로 선택할 수 있다.
다른 실시 예에 따른 디바이스(100)가 디스플레이 된 텍스트 및 이미지의 평가를 위한 사용자 입력에 따라 획득한 평균 평가 수치가 소정 기준 이상인 경우, 디바이스(100)는 단계 S380에서 디스플레이 되는 주체의 이미지를 제 1 캐릭터 이미지에서 제 2 캐릭터 이미지로 변경할 수 있다.
예를 들면, 평가를 위한 사용자 입력에 따라 획득한 평균 평가 수치가 0점 내지 25점인 경우, 디바이스(100)는 단계 S380에서 디스플레이 되는 주체의 이미지를 어린이 모습의 캐릭터 이미지로 선택할 수 있다. 다른 예로, 평가를 위한 사용자 입력에 따라 획득한 평균 평가 수치가 26점 내지 50점인 경우, 디바이스(100)는 단계 S380에서 디스플레이 되는 주체의 이미지를 청소년 모습의 캐릭터 이미지로 선택할 수 있다. 다른 예로, 평가를 위한 사용자 입력에 따라 획득한 평균 평가 수치가 51점 내지 75점인 경우, 디바이스(100)는 단계 S380에서 디스플레이 되는 주체의 이미지를 30대 모습의 캐릭터 이미지로 선택할 수 있다. 다른 예로, 평가를 위한 사용자 입력에 따라 획득한 평균 평가 수치가 76점 내지 100점인 경우, 디바이스(100)는 단계 S380에서 디스플레이 되는 주체의 이미지를 노인 모습의 캐릭터 이미지로 선택할 수 있다.
도 4a는 일부 실시 예에 따른 디바이스(100)가 디스플레이 된 텍스트에 대한 평가를 위한 사용자 입력을 수신하는 일례를 도시한 도면이다.
도 4a의 설명과 관련하여 도 3의 단계 S360에서 설명된 내용을 참조할 수 있다.
일 실시 예에 따른 디바이스(100)는 질의에 대응하는 응답을 상황 정보를 이용하여 획득할 수 있다. 또한, 일 실시 예에 따른 디바이스(100)는 획득한 응답을 나타내는 텍스트를 디스플레이 할 수 있다. 또한, 일 실시 예에 따른 디바이스(100)는 디스플레이 된 텍스트에 대한 평가를 입력 받기 위해 이용되는 제 1 화면(400)을 디스플레이 할 수 있다.
예를 들면, 제 1 화면(400)은 디스플레이 된 텍스트에 만족하는지 여부를 평가하는 항목(410)을 디스플레이 할 수 있다.
다른 예로, 제 1 화면(400)은 디스플레이 된 텍스트에 만족하지 못할 경우, 원하는 응답을 입력하는 항목(420)을 디스플레이 할 수 있다. 구체적으로 디바이스(100)는 원하는 응답을 텍스트 형식으로 입력하는 항목(425)을 디스플레이 할 수도 있고 원하는 응답에 대한 선택 입력을 입력하는 항목(미도시)을 디스플레이 할 수도 있다.
다른 예로, 제 1 화면(400)은 디스플레이 된 텍스트의 글자체의 변경에 대한 입력을 입력하는 항목(430)을 디스플레이 할 수 있다.
다른 예로, 제 1 화면(400)은 디스플레이 된 텍스트의 문체의 변경에 대한 입력을 입력하는 항목(440)을 디스플레이 할 수 있다.
다른 예로, 제 1 화면(400)은 디스플레이 된 텍스트의 전반적인 평가에 대한 입력을 입력하는 항목(450)을 디스플레이 할 수 있다.
도 4b는 일부 실시 예에 따른 디바이스(100)가 디스플레이 된 주체의 이미지에 대한 평가를 위한 사용자 입력을 수신하는 일례를 도시한 도면이다.
도 4b의 설명과 관련하여 도 3의 단계 S360에서 설명된 내용을 참조할 수 있다.
일 실시 예에 따른 디바이스(100)는 질의에 대응하는 응답을 상황 정보를 이용하여 획득할 수 있다. 또한, 일 실시 예에 따른 디바이스(100)는 획득한 응답을 제공하는 주체의 이미지를 디스플레이 할 수 있다. 예를 들면, 디바이스(100)는 획득한 응답을 나타내는 텍스트를 말풍선 형태로 제공하는 캐릭터의 이미지를 디스플레이 할 수 있다. 또한, 일 실시 예에 따른 디바이스(100)는 디스플레이 된 주체의 이미지에 대한 평가를 입력 받기 위해 이용되는 제 2 화면(401)을 디스플레이 할 수 있다.
예를 들면, 제 2 화면(401)은 디스플레이 된 주체의 이미지에 만족하는지 여부를 평가하는 항목(460)을 디스플레이 할 수 있다.
다른 예로, 제 2 화면(401)은 디스플레이 된 주체의 이미지에 만족하지 못할 경우, 원하는 주체의 이미지에 대한 정보를 입력하는 항목(470)을 디스플레이 할 수 있다. 구체적으로 디바이스(100)는 원하는 주체의 이미지에 대한 정보를 텍스트 형식으로 입력하는 항목(475)을 디스플레이 할 수도 있고 원하는 주체의 이미지에 대한 선택 입력을 입력하는 항목(미도시)을 디스플레이 할 수도 있다.
다른 예로, 제 2 화면(401)은 디스플레이 된 주체의 이미지의 크기의 변경에 대한 입력을 입력하는 항목(480)을 디스플레이 할 수 있다.
다른 예로, 제 2 화면(401)은 디스플레이 된 캐릭터에 대한 선택 입력을 입력하는 항목(490)을 디스플레이 할 수 있다.
다른 예로, 제 1 화면(401)은 디스플레이 된 주체의 이미지의 전반적인 평가에 대한 입력을 입력하는 항목(495)을 디스플레이 할 수 있다.
도 5는 일부 실시 예에 따른 디바이스(100)가 상황 정보에 기초하여 아바타가 응답을 제공하는 화면을 디스플레이 하는 방법의 흐름도이다.
단계 S510은 단계 S230에 대응되므로 전체적인 설명을 간단히 하기 위해 상세한 설명을 생략한다.
단계 S520에서 일 실시 예에 따른 디바이스(100)는 복수의 아바타 이미지 중 하나를 상황 정보에 기초하여 선택한다.
예를 들면, 현재 비가 오는 중인 경우, 디바이스(100)는 복수의 아바타 이미지 중 우산을 쓰고 있는 아바타의 이미지를 응답을 제공하기 위한 이미지로 선택할 수 있다.
다른 예로, 현재 디바이스(100)의 위치가 미국인 경우, 디바이스(100)는 복수의 아바타 이미지 중 미국인 모습의 아바타 이미지를 응답을 제공하기 위한 이미지로 선택할 수 있다.
다른 예로, 현지 시간이 새벽인 경우, 디바이스(100)는 복수의 아바타 이미지 중 잠옷을 입고 있는 아바타 이미지를 응답을 제공하기 위한 이미지로 선택할 수 있다.
다른 예로, 현재 디바이스(100)의 위치가 회사인 경우 복수의 아바타 이미지 중 회사원 복장의 아바타 이미지를 응답을 제공하기 위한 이미지로 선택할 수 있다.
단계 S530에서 일 실시 예에 따른 디바이스(100)는 단계 S520에서 선택된 아바타 이미지가 응답을 제공하는 화면을 디스플레이 한다.
본 단계는 상술한 단계 S250의 내용을 참조할 수 있다.
예를 들면, 일 실시 예에 따른 디바이스(100)는 질의 및 상황 정보에 기초하여 결정된 응답을 나타내는 텍스트를 말풍선 형식으로 디스플레이하고, 디스플레이 된 텍스트가 단계 S520에서 선택된 아바타 이미지에 의해 제공되는 장면을 디스플레이 할 수 있다.
도 6은 일부 실시 예에 따른 디바이스(100)가 결정된 응답에 대응하는 응답 카테고리에 따라 응답을 제공하는 화면을 디스플레이 하는 방법의 흐름도이다.
단계 S610은 단계 S240에 대응되므로 전체적인 설명을 간단히 하기 위해 상세한 설명을 생략한다.
단계 S620에서 일 실시 예에 따른 디바이스(100)는 복수개의 응답 카테고리 중 단계 S610에서 결정된 응답에 대응되는 응답 카테고리를 식별한다.
예를 들면, 질의가 “된장찌개 하는 방법은?”인 경우, 디바이스(100)는 된장찌개의 레시피에 대한 정보를 응답으로 결정할 수 있다. 이 경우, 디바이스(100)는 3개의 응답 카테고리인 기계 카테고리, 요리 카테고리, 비즈니스 카테고리 중 요리 카테고리를 결정된 응답에 대응되는 카테고리로 식별할 수 있다.
다른 예로, 단계 S610에서 결정된 응답이 오늘의 사업 일정에 대한 정보인 경우 디바이스(100)는 3개의 응답 카테고리인 기계 카테고리, 요리 카테고리, 비즈니스 카테고리 중 비즈니스 카테고리를 결정된 응답에 대응되는 카테고리로 식별할 수 있다.
다른 예로, 단계 S610에서 결정된 응답이 자동차 정비 방법에 대한 정보인 경우 디바이스(100)는 3개의 응답 카테고리인 기계 카테고리, 요리 카테고리, 비즈니스 카테고리 중 기계 카테고리를 결정된 응답에 대응되는 카테고리로 식별할 수 있다.
단계 S630에서 일 실시 예에 따른 디바이스(100)는 단계 S620에서 식별된 응답 카테고리에 따라 복수개의 아바타 이미지 중 하나를 선택한다.
예를 들면, 단계 S610에서 결정된 응답이 된장찌개 레시피 대한 정보이고, 단계 S620에서 식별된 응답 카테고리가 요리 카테고리인 경우, 디바이스(100)는 복수개의 아바타 이미지 중 요리사 복장의 아바타 이미지를 선택할 수 있다.
다른 예로, 단계 S610에서 결정된 응답이 오늘의 사업 일정 대한 정보이고, 단계 S620에서 식별된 응답 카테고리가 비즈니스 카테고리인 경우, 디바이스(100)는 복수개의 아바타 이미지 중 비즈니스 복장의 아바타 이미지를 선택할 수 있다.
다른 예로, 단계 S610에서 결정된 응답이 자동차 정비 방법에 대한 정보이고, 단계 S620에서 식별된 응답 카테고리가 기계 카테고리인 경우, 디바이스(100)는 복수개의 아바타 이미지 중 정비공 복장의 아바타 이미지를 선택할 수 있다.
단계 S640은 단계 S530에 대응되므로 전체적인 설명을 간단히 하기 위해 상세한 설명을 생략한다.
도 7은 일부 실시 예에 따른 디바이스(100)가 사용자 정보에 따라 응답을 제공하는 화면을 디스플레이 하는 방법의 흐름도이다.
단계 S710에서 일 실시 예에 따른 디바이스(100)는 사용자 정보를 획득할 수 있다.
일 실시 예에 따른 사용자 정보는 사용자에 관련된 정보를 의미할 수 있다. 예를 들면, 사용자 정보는 사용자의 성별, 나이, 직업, 이름, 관계, 국가, 장애 여부, 체질, 건강 및 사용자의 선호 중 적어도 하나에 관한 정보를 포함할 수 있다.
일 실시 예에 따른 디바이스(100)는 사용자로 입력을 수신하여 사용자 정보를 획득할 수 있다. 다른 실시 예에 따른 디바이스(100)는 서버로부터 사용자 정보를 수신하여 사용자 정보를 획득할 수 있다.
단계 S720에서 일 실시 예에 따른 디바이스(100)는 복수의 아바타 이미지 중 하나를 사용자 정보에 기초하여 선택할 수 있다.
예를 들면, 사용자의 국적이 한국인인 경우, 디바이스(100)는 복수개의 아바타 이미지 중 한국인 모습의 아바타 이미지를 응답을 제공하기 위한 이미지로 선택할 수 있다.
다른 예로, 사용자의 직업이 사업가인 경우, 디바이스(100)는 복수개의 아바타 이미지 중 사업가 모습의 아바타 이미지를 응답을 제공하기 위한 이미지로 선택할 수 있다.
다른 예로, 사용의 취미가 배드민턴인 경우, 디바이스(100)는 복수개의 아바타 이미지 중 배드민턴 선수 모습의 아바타 이미지를 응답을 제공하기 위한 이미지로 선택할 수 있다.
다른 예로, 사용자가 과체중인 경우, 디바이스(100)는 복수개의 아바타 이미지 중 헬스 트레이너 모습의 아바타 이미지를 응답을 제공하기 위한 이미지로 선택할 수 있다.
다른 예로, 사용자가 소정 연예인을 좋아할 경우, 디바이스(100)는 복수개의 아바타 이미지 중 소정 연예인 모습의 아바타 이미지를 응답을 제공하기 위한 이미지로 선택할 수 있다.
다른 예로, 사용자가 최근에 탁구 라켓을 구입한 경우, 디바이스(100)는 복수개의 아바타 이미지 중 탁구 선수의 아바타 이미지를 응답을 제공하기 위한 이미지로 선택할 수 있다.
단계 S730은 단계 S530에 대응되므로 전체적인 설명을 간단히 하기 위해 상세한 설명을 생략한다.
도 8은 일부 실시 예에 따른 디바이스(100)가 복수개의 응답 중 하나의 응답을 상황 정보를 이용하여 결정하는 방법의 흐름도이다.
단계 S810에서 디바이스(100)는 질의에 대응하는 복수개의 응답을 획득한다.
예를 들면, 디바이스(100)가 획득한 질의가 “오늘 날씨는?” 인 경우, 디바이스(100)는 제 1 지역에 대한 날씨 정보 내지 제 10 지역에 대한 날씨 정보를 획득할 수 있다. 다른 예로, 디바이스(100)가 획득한 질의가 “일정은?” 인 경우, 디바이스(100)는 사용자의 오늘 계획된 일정인 제 1 일정 내지 제 3 일정에 대한 정보를 획득할 수 있다. 다른 예로, 디바이스(100)가 획득한 질의가 “동대문 가는 길”인 경우 디바이스(100)는 현재 디바이스(100)의 위치로부터 동대문까지 가는 복수개의 경로에 대한 정보를 획득할 수 있다. 다른 예로, 디바이스(100)가 획득한 질의가 “오늘 추천 의상은?”인 경우, 디바이스(100)는 디바이스(100) 내에 저장된 복수개의 의상 정보를 획득할 수 있다.
단계 S820에서 디바이스(100)는 상황 정보를 디바이스(100)에 포함된 하나 이상의 센서를 이용하여 획득한다.
예를 들면, 디바이스(100)는 디바이스(100) 내에 포함된 위치 감지 센서를 이용하여 디바이스(100)의 위치 정보를 획득할 수 있다. 다른 예로, 디바이스(100)는 디바이스(100) 내에 포함된 센서를 이용하여 온도 정보, 시간 정보, 소음 정보 등을 획득할 수 있다.
다른 실시 예에 따른 디바이스(100)는 디바이스(100) 외부로부터 상황 정보를 획득할 수 있다. 일 실시 예에 따른 디바이스(100)는 디바이스(100)의 외부로부터 상황 정보를 획득할 수 있다. 예를 들면, 디바이스(100)는 서버로부터 시간 정보, 지도 정보, 날씨 정보, 뉴스 정보 등을 획득할 수 있다.
단계 S830에서 디바이스(100)는 단계 S810에서 획득한 복수개의 응답 중 하나의 응답을 단계 S820에서 획득한 상황 정보를 이용하여 결정할 수 있다.
예를 들면, 디바이스(100)가 획득한 질의가 “오늘 날씨는?” 인 경우, 디바이스(100)는 복수의 지역에 대한 날씨 정보 중에서 현재 디바이스(100)의 위치에 대응되는 지역의 날씨 정보를 획득할 수 있다. 다른 예로, 디바이스(100)가 획득한 질의가 “일정은?” 인 경우, 디바이스(100)는 사용자의 오늘 일정들 중 지금 시간으로부터 가장 가까운 미래에 계획된 일정에 대한 정보를 획득할 수 있다. 다른 예로, 디바이스(100)가 획득한 질의가 “실시간 검색어”인 경우, 디바이스(100)는 복수개의 검색 사이트 중 디바이스(100)에서 접속 횟수가 가장 많은 검색 사이트에서 1위부터 10위까지의 실시간 검색어에 대한 정보를 획득할 수 있다. 다른 예로, 디바이스(100)가 획득한 질의가 “동대문 가는 길”인 경우 디바이스(100)는 현재 디바이스(100)의 위치로부터 동대문까지 가는 복수개의 경로 중에서 현재 교통량을 고려하여 하나의 경로에 대한 정보를 획득할 수 있다. 다른 예로, 디바이스(100)가 획득한 질의가 “오늘 추천 의상은?”인 경우, 디바이스(100)는 디바이스(100) 내에 저장된 복수개의 의상 정보 중에서 오늘의 날씨 예보에 기초하여 사용자에게 추천할 의상에 대한 정보를 획득할 수 있다.
도 9는 일부 실시 예에 따른 디바이스(100)가 일정에 기초하여 응답을 나타내는 텍스트를 생성하는 일례를 도시한 도면이다.
단계 S910에서 디바이스(100)는 사용자의 일정 정보를 획득할 수 있다.
예를 들면, 디바이스(100)는 사용자 입력을 통해 사용자의 일정 정보를 획득할 수 있다.
다른 예로, 디바이스(100)는 디바이스(100) 외부로부터 사용자의 일정 정보를 획득할 수 있다. 예를 들면, 디바이스(100)는 서버로부터 사용자의 일정 정보를 수신할 수 있다.
단계 S920에서 디바이스(100)는 일정 정보에 포함된 복수개의 일정 중 하나를 상황 정보를 이용하여 결정할 수 있다.
예를 들면, 디바이스(100)는 일정 정보에 포함된 제 1 일정 내지 제 3 일정 중 현재 시간으로부터 가장 가까운 미래에 계획된 일정인 제 2 일정을 현재 시간 정보를 이용하여 결정할 수 있다.
다른 예로, 디바이스(100)는 일정 정보에 포함된 제 1 일정 내지 제 3 일정 중 현재 위치로부터 가장 가까운 위치에서 진행될 일정인 제 3 일정을 현재 위치 정보를 이용하여 결정할 수 있다.
단계 S930에서 디바이스(100)는 단계 S920에서 결정된 일정에 기초하여 응답을 나타내는 텍스트를 생성할 수 있다.
일 실시 예에 따른 디바이스(100)는 단계 S920에서 결정된 일정을 알리는 텍스트를 생성할 수 있다. 예를 들면, 3시간 후에 계획된 일정이 있는 경우, 디바이스(100)는 “3시간 후 B 타워에서 상반기 매출관련 회의가 있습니다.”라는 텍스트를 생성할 수 있다.
도 10은 일부 실시 예에 따른 디바이스(100)가 서버와 연동하여 동작하는 일례를 도시한 도면이다.
단계 S1010에서 일 실시 예에 따른 디바이스(100)는 사용자 입력을 수신한다. 본 단계는 상술한 단계 S210에 대응되므로 전체적인 설명을 간단히 하기 위해 상세한 설명을 생략한다.
단계 S1020에서 일 실시 예에 따른 디바이스(100)는 사용자 입력이 나타내는 질의를 획득한다. 본 단계는 상술한 단계 S220에 대응되므로 전체적인 설명을 간단히 하기 위해 상세한 설명을 생략한다.
단계 S1030에서 일 실시 예에 따른 디바이스(100)는 제 1 상황 정보를 획득한다.
일 실시 예에 따른 제 1 상황 정보는 디바이스(100)가 획득하는 상황 정보를 의미할 수 있다. 일 실시 예에 따른 디바이스(100)는 디바이스(100) 내에 포함된 센서를 이용하여 제 1 상황 정보를 획득할 수 있다. 예를 들면, 디바이스(100)는 디바이스(100) 내에 포함된 위치 감지 센서를 이용하여 디바이스(100)의 위치 정보를 획득할 수 있다. 다른 예로, 디바이스(100)는 디바이스(100) 내에 포함된 센서를 이용하여 온도 정보, 시간 정보, 소음 정보 등을 획득할 수 있다.
단계 S1040에서 일 실시 예에 따른 디바이스(100)는 서버(1000)에 응답을 요청한다.
일 실시 예에 따른 디바이스(100)는 질의 및 제 1 상황 정보에 기초하여 서버(1000)에 응답을 요청할 수 있다.
예를 들면, 디바이스(100)가 획득한 질의가 “오늘 날씨는?” 인 경우, 디바이스(100)는 현재 디바이스(100)의 위치에 대응되는 지역의 날씨 정보를 요청할 수 있다. 다른 예로, 디바이스(100)가 획득한 질의가 “일정은?” 인 경우, 디바이스(100)는 현재 시간으로부터 1시간 내에 계획된 일정에 대한 정보를 요청할 수 있다. 다른 예로, 디바이스(100)가 획득한 질의가 “실시간 검색어”인 경우, 디바이스(100)는 현재 시간에 소정의 검색 사이트에서 1위부터 10위까지의 실시간 검색어에 대한 정보를 요청할 수 있다. 다른 예로, 디바이스(100)가 획득한 질의가 “동대문 가는 길”인 경우 디바이스(100)는 현재 교통량을 고려하여 디바이스(100)의 현재 위치로부터 동대문까지 가는 길에 대한 정보를 요청할 수 있다. 다른 예로, 디바이스(100)가 획득한 질의가 “오늘 추천 의상은?”인 경우, 디바이스(100)는 오늘의 날씨 예보에 기초하여 사용자에게 추천할 의상에 대한 정보를 요청할 수 있다.
단계 S1050에서 일 실시 예에 따른 디바이스(100)는 제 2 상황 정보를 획득한다.
일 실시 예에 따른 제 2 상황 정보는 서버(1000)가 획득하는 상황 정보를 의미할 수 있다.
일 실시 예에 따른 서버(1000)는 제 2 상황 정보를 획득할 수 있다. 예를 들면, 서버(1000)는 시간 정보, 지도 정보, 날씨 정보, 뉴스 정보 등을 획득할 수 있다.
단계 S1060에서 일 실시 예에 따른 서버(1000)는 디바이스(100)로 응답을 전송한다.
일 실시 예에 따른 서버(1000)는 단계 S1040에서 수신한 요청에 대응하여 제 2 상황 정보를 이용하여 응답을 획득하고 획득된 응답을 디바이스(100)로 전송할 수 있다.
예를 들면, 디바이스(100)로부터 요청된 정보가 현재 디바이스(100)의 위치에 대응되는 지역의 날씨 정보인 경우, 서버(1000)는 현재 디바이스(100) 위치의 날씨 정보를 획득하여 디바이스(100)로 전송할 수 있다. 다른 예로, 디바이스(100)로부터 요청된 정보가 현재 시간으로부터 1시간 내에 계획된 일정에 대한 정보이고, 현재 시간으로부터 1시간 내에 계획된 일정이 제 1 일정 및 제 2 일정인 경우, 서버는 제 1 일정이 계획된 장소와, 제 2 일정이 계획된 장소에 대한 정보를 획득하고, 제 1 일정 및 제 2 일정에 대한 정보를 장소 정보와 함께 디바이스(100)로 전송할 수 있다.
단계 S1070에서 일 실시 예에 따른 디바이스(100)는 서버로부터 수신한 응답을 나타내는 텍스트를 디스플레이 한다. 본 단계는 상술한 단계 S250의 내용을 참조할 수 있다.
도 11은 일부 실시 예에 따른 디바이스(100)가 상황 정보에 기초하여 응답을 디스플레이 하는 일례를 도시한 도면이다.
일 실시 예에 따른 디바이스(100)는 사용자(1100)로부터 “오늘 맥은?”이라는 음성 입력을 수신할 수 있다. 일 실시 예에 따른 디바이스(100)는 수신한 음성 입력에 따라 “오늘 맥은?”이라는 질의를 획득할 수 있다. 그리고 일 실시 예에 따른 디바이스(100)는 상황 정보를 이용하여 질의에 대응한 응답을 획득할 수 있다.
일 실시 예에 따른 디바이스(100)는 디바이스(100) 주변의 기기의 종류에 대한 정보를 획득하고, 획득한 주변 기기의 종류에 대한 정보를 이용하여 질의에 대응하는 응답을 획득할 수 있다.
예를 들면, 디바이스(100)로부터 소정 거리 내에 화장대(1110)가 있고, 디바이스(100)가 사용자의 입술 상태가 건조하다는 상황 정보를 획득한 경우, 디바이스(100)는 “오늘 맥은?”이라는 질의에 대응한 응답으로 맥이라는 브랜드의 립스틱에 대한 정보를 응답으로 결정할 수 있다. 이 경우 디바이스(100)는 “오늘 입술이 건조하네요. 맥에서 나온 립스틱을 사용하세요”라는 텍스트를 디스플레이 할 수 있다.
다른 예로, 디바이스(100)로부터 소정 거리 내에 냉장고(1120)가 있고, 디바이스(100)가 냉장고(1120) 내에 유통기한이 내일까지인 맥도널드 햄버거가 있다는 상황 정보를 획득한 경우, 디바이스(100)는 “오늘 맥은?”이라는 질의에 대응한 응답으로 맥도널드라는 브랜드의 햄버거에 대한 정보를 응답으로 결정할 수 있다. 이 경우 디바이스(100)는 “유통기한이 내일까지인 맥도널드 햄버거가 있네요.”라는 텍스트를 디스플레이 할 수 있다.
디바이스(100)로부터 소정 거리 내에 컴퓨터(1130)가 있고, 디바이스(100)가 새로운 매킨토시 컴퓨터가 출시되었다는 상황 정보를 획득한 경우, 디바이스(100)는 “오늘 맥은?”이라는 질의에 대응한 응답으로 새로 출시된 매킨토시 컴퓨터에 대한 정보를 응답으로 결정할 수 있다. 이 경우 디바이스(100)는 “새로운 매킨토시 컴퓨터가 출시되었어요.”라는 텍스트를 디스플레이 할 수 있다.
도 12a는 일부 다른 실시 예에 따른 디바이스가 상황 정보에 기초하여 응답을 디스플레이 하는 일례를 도시한 도면이다.
일 실시 예에 따른 디바이스(100)는 디바이스(100)로부터 소정 거리 내에 화장대(1210)가 있는지 여부에 대한 정보를 획득할 수 있다. 예를 들면, 디바이스(100)는 디바이스(100) 내에 포함된 위치 센서를 이용하여 디바이스(100)가 화장대(1210)로부터 소정 거리 내에 위치했는지 여부를 결정할 수 있다.
일 실시 예에 따른 화장대(1210)는 하나 이상의 센서를 포함하고 있을 수 있다. 이 경우 화장대(1210)는 화장대(1210) 내에 포함된 센서를 이용하여 상황 정보를 획득할 수 있다. 상황 정보는 사용자에 대한 상태 정보를 포함할 수 있다. 예를 들면, 화장대(1210)는 사용자의 피부 상태, 입술 상태, 표정 등에 대한 정보를 획득할 수 있다.
디바이스(100)로부터 소정 거리 내에 화장대(1210)가 있는 경우, 디바이스(100)는 화장대(1210)로부터 상황 정보를 획득할 수 있다. 일 실시 예에 따른 디바이스(100)는 디바이스(100) 내에 포함된 센서로부터 획득한 상황 정보 및 화장대(1210)로부터 획득한 상황 정보를 이용하여 질의에 대응한 응답을 획득할 수 있다. 이 경우 획득한 응답을 텍스트로 디스플레이 할 수 있다. 또한, 응답을 제공하는 주체의 이미지도 텍스트와 함께 디스플레이 할 수 있다.
예를 들면, 화장대(1210)가 사용자의 입술이 건조한 상태라는 상황 정보를 획득한 경우, 디바이스(100)는 “오늘 어때?”라는 질의에 대응하여 “오늘 입술이 건조하니 립밤을 사용하세요.”라는 텍스트를 디스플레이 할 수 있다.
도 12b는 일부 다른 실시 예에 따른 디바이스(100)가 상황 정보에 기초하여 응답을 디스플레이 하는 일례를 도시한 도면이다.
일 실시 예에 따른 디바이스(100)는 디바이스(100)로부터 소정 거리 내에 냉장고(1240)가 있는지 여부에 대한 정보를 획득할 수 있다. 예를 들면, 디바이스(100)는 디바이스(100) 내에 포함된 전자파 수신 센서(1230)와 냉장고(1240)에 포함된 전자파 발신기(1220)를 이용하여 디바이스(100)가 냉장고(1240)로부터 소정 거리 내에 위치했는지 여부를 결정할 수 있다.
일 실시 예에 따른 냉장고(1240)는 하나 이상의 센서를 포함하고 있을 수 있다. 이 경우 냉장고(1240)는 냉장고(1240) 내에 포함된 센서를 이용하여 상황 정보를 획득할 수 있다. 상황 정보는 냉장고(1240)에 보관된 음식들에 대한 상태 정보를 포함할 수 있다. 예를 들면, 냉장고(1240)는 냉장고(1240) 내에 포함된 음식의 유통 기한, 보관 기간, 상했는지 여부, 음식의 종류, 사용자가 선호하는 음식이 보관 중인지 여부 등에 대한 정보를 획득할 수 있다.
디바이스(100)로부터 소정 거리 내에 냉장고(1240)가 있는 경우, 디바이스(100)는 냉장고(1240)로부터 상황 정보를 획득할 수 있다. 일 실시 예에 따른 디바이스(100)는 디바이스(100) 내에 포함된 센서로부터 획득한 상황 정보 및 냉장고(1240)로부터 획득한 상황 정보를 이용하여 질의에 대응한 응답을 획득할 수 있다. 이 경우 획득한 응답을 텍스트로 디스플레이 할 수 있다. 또한, 응답을 제공하는 주체의 이미지도 텍스트와 함께 디스플레이 할 수 있다.
예를 들면, 냉장고(1240)에 유통기한이 하루 남은 음식이 보관중인 경우, 디바이스(100)는 “오늘 어때?”라는 질의에 대응하여 “유통 기한이 하루 남은 햄버거가 보관 중입니다.”라는 텍스트를 디스플레이 할 수 있다.
도 13은 일부 실시 예에 따른 디바이스(100)의 구성을 나타내는 블록도이다.
도 13에 따르면, 디바이스(100)는 디스플레이부(1350), 제어부(1300), 메모리(1310), GPS 칩(1320), 통신부(1330), 비디오 프로세서(1340), 오디오 프로세서(1370), 사용자 입력부(1360), 마이크부(1380), 촬상부(1385), 스피커부(1390), 움직임 감지부(1395) 중 적어도 하나를 포함 할 수 있다.
디스플레이부(1350)는 표시패널(1351) 및 표시 패널(1351)을 제어하는 컨트롤러(미도시)를 포함할 수 있다. 표시패널(1351)은 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, AM-OLED(Active-Matrix Organic Light-Emitting Diode), PDP(Plasma Display Panel) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 표시패널(1351)은 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 디스플레이부(1350)는 사용자 입력부(1360)의 터치 패널(1362)과 결합되어 터치 스크린(미도시)으로 제공될 수 있다. 예를 들어, 터치 스크린(미도시)은 표시 패널(1351)과 터치 패널(1362)이 적층 구조로 결합된 일체형의 모듈을 포함할 수 있다.
메모리(1310)는 내장 메모리(Internal Memory)(미도시) 및 외장 메모리(External Memory)(미도시) 중 적어도 하나를 포함할 수 있다.
내장 메모리는, 예를 들어, 휘발성 메모리(예를 들면, DRAM(Dynamic RAM), SRAM(Static RAM), SDRAM(Synchronous Dynamic RAM) 등), 비휘발성 메모리(예를 들면, OTPROM(One Time Programmable ROM), PROM(Programmable ROM), EPROM(Erasable and Programmable ROM), EEPROM(Electrically Erasable and Programmable ROM), Mask ROM, Flash ROM 등), 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 중 적어도 하나를 포함할 수 있다. 일 실시 예에 따르면, 제어부(1300)는 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, 제어부(1300)는 다른 구성요소로부터 수신하거나 생성된 데이터를 비휘발성 메모리에 보존할 수 있다.
외장 메모리는, 예를 들면, CF(Compact Flash), SD(Secure Digital), Micro-SD(Micro Secure Digital), Mini-SD(Mini Secure Digital), xD(extreme Digital) 및 Memory Stick 중 적어도 하나를 포함할 수 있다.
메모리(1310)는 디바이스(100)의 동작에 사용되는 각종 프로그램 및 데이터를 저장할 수 있다. 예를 들어, 메모리(1310)에는 잠금 화면에 표시될 컨텐츠의 적어도 일부를 임시 또는 반영구적으로 저장할 수 있다.
제어부(1300)는 메모리(1310)에 저장된 컨텐츠의 일부가 디스플레이부(1350)에 표시되도록 디스플레이부(1350)를 제어할 수 있다. 다시 말하자면, 제어부(1300)는 메모리(1310)에 저장된 컨텐츠의 일부를 디스플레이부(1350)에 표시할 수 있다. 또는, 제어부(1300)는 디스플레이부(1350)의 일 영역에서 사용자 제스처가 이루어지면, 사용자의 제스처에 대응되는 제어 동작을 수행할 수 있다.
제어부(1300)는 RAM(1301), ROM(1302), CPU(1303), GPU(Graphic Processing Unit)(1304) 및 버스(1305) 중 적어도 하나를 포함 할 수 있다. RAM(1301), ROM(1302), CPU(1303) 및 GPU(1304) 등은 버스(1305)를 통해 서로 연결될 수 있다.
CPU(1303)는 메모리(1310)에 액세스하여, 메모리(1310)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 메모리(1310)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.
ROM(1302)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 예로, 디바이스(100)는 턴 온 명령이 입력되어 전원이 공급되면, CPU(1303)가 ROM(1302)에 저장된 명령어에 따라 메모리(1310)에 저장된 OS를 RAM(1301)에 복사하고, OS를 실행시켜 시스템을 부팅시킬 수 있다. 부팅이 완료되면, CPU(1303)는 메모리(1310)에 저장된 각종 프로그램을 RAM(1301)에 복사하고, RAM(1301)에 복사된 프로그램을 실행시켜 각종 동작을 수행한다. GPU(1304)는 디바이스(100)의 부팅이 완료되면, 디스플레이부(1350)의 영역에 UI 화면을 디스플레이 한다. 구체적으로는, GPU(1304)는 컨텐츠, 아이콘, 메뉴 등과 같은 다양한 객체를 포함하는 전자문서가 표시된 화면을 생성할 수 있다. GPU(1304)는 화면의 레이아웃에 따라 각 객체들이 표시될 좌표 값, 형태, 크기, 컬러 등과 같은 속성 값을 연산한다. 그리고, GPU(1304)는 연산된 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성할 수 있다. GPU(1304)에서 생성된 화면은 디스플레이부(1350)로 제공되어, 디스플레이부(1350)의 각 영역에 각각 표시될 수 있다.
GPS 칩(1320)은 GPS(Global Positioning System) 위성으로부터 GPS 신호를 수신하여, 디바이스(100)의 현재 위치를 산출할 수 있다. 제어부(1300)는 네비게이션 프로그램을 이용할 때나 그 밖에 사용자의 현재 위치가 필요할 경우에, GPS 칩(1320)을 이용하여 사용자 위치를 산출할 수 있다.
통신부(1330)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부 기기와 통신을 수행할 수 있다. 통신부(1330)는 와이파이칩(1331), 블루투스 칩(1332), 무선 통신 칩(1333), NFC 칩(1334) 중 적어도 하나를 포함할 수 있다. 제어부(1300)는 통신부(1330)를 이용하여 각종 외부 기기와 통신을 수행할 수 있다.
와이파이 칩(1331), 블루투스 칩(1332)은 각각 Wi-Fi 방식, 블루투스 방식으로 통신을 수행할 수 있다. 와이파이 칩(1331)이나 블루투스 칩(1332)을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신 칩(1333)은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다. NFC 칩(1334)은 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz 등과 같은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC(Near Field Communication) 방식으로 동작하는 칩을 의미한다.
비디오 프로세서(1340)는 통신부(1330)를 통해 수신된 컨텐츠 또는, 메모리(1310)에 저장된 컨텐츠에 포함된 비디오 데이터를 처리할 수 있다. 비디오 프로세서(1340)에서는 비디오 데이터에 대한 디코딩, 스케일링, 노이즈 필터링, 프레임 레이트 변환, 해상도 변환 등과 같은 다양한 이미지 처리를 수행할 수 있다.
오디오 프로세서(1370)는 통신부(1330)를 통해 수신된 컨텐츠 또는, 메모리(1310)에 저장된 컨텐츠에 포함된 오디오 데이터를 처리할 수 있다. 오디오 프로세서(1370)에서는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다.
제어부(1300)는 멀티미디어 컨텐츠에 대한 재생 프로그램이 실행되면 비디오 프로세서(1340) 및 오디오 프로세서(1370)를 구동시켜, 해당 컨텐츠를 재생할 수 있다. 스피커부(1390)는 오디오 프로세서(1370)에서 생성한 오디오 데이터를 출력할 수 있다.
사용자 입력부(1360)는 사용자로부터 다양한 명령어를 입력 받을 수 있다. 사용자 입력부(1360)는 키(1361), 터치 패널(1362) 및 펜 인식 패널(1363) 중 적어도 하나를 포함할 수 있다.
키(1361)는 디바이스(100)의 본체 외관의 전면부나 측면부, 배면부 등의 다양한 영역에 형성된 기계적 버튼, 휠 등과 같은 다양한 유형의 키를 포함할 수 있다.
터치 패널(1362)은 사용자의 터치 입력을 감지하고, 감지된 터치 신호에 해당하는 터치 이벤트 값을 출력할 수 있다. 터치 패널(1362)이 표시 패널(1351)과 결합하여 터치 스크린(미도시)을 구성한 경우, 터치 스크린은 정전식이나, 감압식, 압전식 등과 같은 다양한 유형의 터치 센서로 구현될 수 있다. 정전식은 터치 스크린 표면에 코팅된 유전체를 이용하여, 사용자의 신체 일부가 터치 스크린 표면에 터치되었을 때 사용자의 인체로 야기되는 미세 전기를 감지하여 터치 좌표를 산출하는 방식이다. 감압식은 터치 스크린에 내장된 두 개의 전극 판을 포함하여, 사용자가 화면을 터치하였을 경우, 터치된 지점의 상하 판이 접촉되어 전류가 흐르게 되는 것을 감지하여 터치 좌표를 산출하는 방식이다. 터치 스크린에서 발생하는 터치 이벤트는 주로 사람의 손가락에 의하여 생성될 수 있으나, 정전 용량 변화를 가할 수 있는 전도성 재질의 물체에 의해서도 생성될 수 있다.
펜 인식 패널(1363)은 사용자의 터치용 펜(예컨대, 스타일러스 펜(stylus pen), 디지타이저 펜(digitizer pen))의 운용에 따른 펜의 근접 입력 또는 터치 입력을 감지하고 감지된 펜 근접 이벤트 또는 펜 터치 이벤트를 출력할 수 있다. 펜 인식 패널(1363)은, 예로, EMR 방식으로 구현될 수 있으며, 펜의 근접 또는 터치에 의한 전자기장의 세기 변화에 따라 터치 또는 근접 입력을 감지할 수 있다. 상세하게는 펜 인식 패널(1363)은 그리드 구조를 가지는 전자 유도 코일 센서(미도시)와 전자 유도 코일 센서의 각 루프 코일에 순차적으로 소정의 주파수를 가지는 교류 신호를 제공하는 전자 신호 처리부(미도시)를 포함하여 구성될 수 있다. 이러한 펜 인식 패널(1363)의 루프 코일 근방에 공진회로를 내장하는 펜이 존재하면, 해당 루프 코일로부터 송신되는 자계가 펜 내의 공진회로에 상호 전자 유도에 기초한 전류를 발생시킨다. 이 전류를 기초로 하여, 펜 내의 공진 회로를 구성하는 코일로부터 유도 자계가 발생하게 되고, 펜 인식 패널(1363)은 이 유도 자계를 신호 수신 상태에 있는 루프 코일에서 검출하게 되어 펜의 접근 위치 또는 터치 위치가 감지될 수 있다. 펜 인식 패널(1363)은 표시 패널(1351)의 하부에 일정 면적, 예를 들어, 표시 패널(1351)의 표시 영역을 커버할 수 있는 면적을 가지고 마련될 수 있다.
마이크부(1380)는 사용자 음성이나 기타 소리를 입력 받아 오디오 데이터로 변환할 수 있다. 제어부(1300)는 마이크 부(1380)를 통해 입력되는 사용자 음성을 통화 동작에서 이용하거나, 오디오 데이터로 변환하여 메모리(1310)에 저장할 수 있다.
촬상부(1385)는 사용자의 제어에 따라 정지 영상 또는 동영상을 촬상할 수 있다. 촬상부(1385)는 전면 카메라, 후면 카메라와 같이 복수 개로 구현될 수도 있다.
촬상부(1385) 및 마이크부(1380)가 마련된 경우, 제어부(1300)는 마이크부(1380)를 통해 입력되는 사용자 음성이나 촬상부(1385)에 의해 인식되는 사용자 제스쳐에 따라 제어 동작을 수행할 수도 있다. 예컨대, 디바이스(100)는 모션 제어 모드나 음성 제어 모드로 동작할 수 있다. 모션 제어 모드로 동작하는 경우, 제어부(1300)는 촬상부(1385)를 활성화시켜 사용자를 촬상하고, 사용자의 모션 변화를 추적하여 그에 대응되는 제어 동작을 수행할 수 있다. 음성 제어 모드로 동작하는 경우 제어부(1300)는 마이크부(1380)를 통해 입력된 사용자 음성을 분석하고, 분석된 사용자 음성에 따라 제어 동작을 수행하는 음성 인식 모드로 동작할 수 있다.
움직임 감지부(1395)는 디바이스(100)의 본체 움직임을 감지할 수 있다. 디바이스(100)는 다양한 방향으로 회전되거나 기울어질 수 있다. 이 때, 움직임 감지부(1395)는 지자기 센서, 자이로 센서, 가속도 센서 등과 같은 다양한 센서들 중 적어도 하나를 이용하여 회전 방향 및 각도, 기울기 등과 같은 움직임 특성을 감지할 수 있다.
그 밖에, 도 20에 도시하지는 않았으나, 실시 예에는, 디바이스(100) 내에 USB 커넥터가 연결될 수 있는 USB 포트나, 헤드셋, 마우스, LAN 등과 같은 다양한 외부 단자와 연결하기 위한 다양한 외부 입력 포트, DMB(Digital Multimedia Broadcasting) 신호를 수신하여 처리하는 DMB 칩, 다양한 센서 등을 더 포함할 수 있다.
전술한 디바이스(100)의 구성 요소들의 명칭은 달라질 수 있다. 또한, 본 개시에 따른 디바이스(100)는 전술한 구성요소들 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다.
도 14은 일부 다른 실시 예에 따른 디바이스(100)의 구성을 나타내는 블록도이다.
도 14를 참조하면, 일부 실시 예에 따른 디바이스(100)는 입력 수신부(1410), 제어부(1420), 디스플레이부(1430) 및 통신부(1440)를 포함할 수 있다.
그러나 도시된 구성요소보다 많은 구성요소에 의해 디바이스(100)가 구현될 수도 있고, 도시된 구성요소보다 적은 구성요소에 의해 디바이스(100) 가 구현될 수도 있다.
또한, 일 실시 예에 따른 디바이스(100)는 서버(1000)와 연동하여 동작할 수 있다.
이하 상기 구성요소들에 대해 차례로 살펴본다.
도 13의 터치 패널(1362), 마이크부(1380), 촬상부(1385), 움직임 감지부(1395)는 디바이스(100)의 입력 수신부(1410)에 포함될 수 있다. 도 13의 제어부(1300)는 디바이스(100)의 제어부(1420)에 포함될 수 있다. 도 13의 디스플레이부(1350)는 디바이스(100)의 디스플레이부(1430)에 포함될 수 있다. 도 13의 통신부(1330)는 디바이스(100)의 통신부(1440)에 포함될 수 있다.
입력 수신부(1410)는 사용자 입력을 수신할 수 있다. 사용자 입력은 사용자로부터 수신되는 입력을 의미할 수 있다. 예를 들면, 사용자 입력은 터치 입력, 키보드 입력, 소리 입력, 버튼 입력 및 제스쳐 입력 중 적어도 하나를 포함할 수 있다.
일 실시 예에 따른 입력 수신부(1410)는 디바이스(100) 내에 포함된 센서를 이용하여 사용자 입력을 수신할 수 있다. 예를 들면, 입력 수신부(1410) 내에 포함된 마이크를 이용하여 디바이스(100)는 사용자로부터 음성 입력을 수신할 수 있다. 다른 예로, 입력 수신부(1410) 내에 포함된 가속도 센서를 이용하여 디바이스(100)는 사용자로부터 제스쳐 입력을 수신할 수 있다. 예를 들면, 사용자가 디바이스(100)를 소정의 횟수만큼 위아래로 흔들 경우, 입력 수신부(1410)는 소정의 횟수만큼 위아래로 흔들리는 제스쳐 입력을 수신할 수 있다.
일 실시 예에 따른 입력 수신부(1410)는 디스플레이 된 텍스트 및 이미지의 평가를 위한 사용자 입력을 수신할 수 있다.
일 실시 예에 따른 디스플레이부(1430)는 평가를 위한 사용자 입력을 입력 받기 위한 화면을 디스플레이 할 수 있다. 예를 들면, 디스플레이부(1430)는 텍스트 및 이미지를 디스플레이 한 후, 디스플레이 된 텍스트 및 이미지에 대한 만족도를 입력하는 화면을 디스플레이 할 수 있다.
예를 들면, 디스플레이부(1430)는 디스플레이 된 텍스트 및 이미지에 대한 평가를 0점부터 100점 사이의 점수로 입력 받는 화면을 디스플레이 할 수 있다.
다른 예로, 디스플레이부(1430)는 디스플레이 된 텍스트에 대한 평가 입력을 입력 받는 제 1 화면과 디스플레이 된 이미지에 대한 평가 입력을 입력 받는 제 2 화면을 각각 디스플레이 할 수 있다. 일 실시 예에 따른 디스플레이부(1430)는 제 1 화면과 제 2 화면을 동시에 디스플레이 할 수 있다. 다른 실시 예에 따른 디스플레이부(1430)는 제 1 화면을 제 2 화면보다 먼저 디스플레이하고, 디스플레이 된 텍스트에 대한 평가 입력의 수신이 종료된 후 제 2 화면을 디스플레이 할 수 있다.
일 실시 예에 따른 제 1 화면과 제 2 화면은 하나 이상의 항목을 디스플레이 할 수 있다. 예를 들면, 제 1 화면은 디스플레이 된 텍스트의 내용이 절절한지 여부에 대한 평가를 입력하는 항목, 디스플레이 된 텍스트가 사용자가 의도한 바를 나타내지 못하는 경우에 사용자가 의도한 응답을 입력하는 항목, 디스플레이 된 텍스트의 형식(예를 들면 글씨체)에 대한 변경을 요청하는 항목 중 적어도 하나를 디스플레이 할 수 있다. 다른 예로, 제 2 화면은 디스플레이 된 이미지가 절절한지 여부에 대한 평가를 입력하는 항목, 사용자가 디스플레이 된 이미지의 변경을 원하는 경우, 사용자가가 원하는 이미지를 선택하는 항목, 디스플레이 된 이미지의 형식(예를 들면 이미지의 크기 또는 색상)에 대한 변경을 요청하는 항목 중 적어도 하나를 디스플레이 할 수 있다.
제어부(1420)는 수신한 사용자 입력이 나타내는 질의를 획득할 수 있다. 예를 들면, 제어부(1420)는 수신한 사용자의 음성 입력으로부터 소정의 정보에 대한 요청을 획득할 수 있다. 일 실시 예에 따른 질의는 의문문 형태의 문장으로 표현될 수 있다.
일 실시 예에 따른 입력 수신부(1410)가 사용자로부터 “오늘 일정은?” 이라는 음성 입력을 수신한 경우, 제어부(1420)는 사용자의 오늘 일정에 대한 정보를 요청하는 질의를 획득하고, 획득된 질의에 대응하여 오늘 일정에 대한 정보를 획득할 수 있다.
다른 실시 예에 따른 입력 수신부(1410)가 사용자로부터 제 1 버튼의 입력을 수신한 경우, 제어부(1420)는 제 1 버튼의 입력에 대응되는 질의를 획득할 수 있다.
다른 실시 예에 따른 입력 수신부(1410)가 사용자로부터 제 1 버튼과 제 2 버튼의 입력을 연속적으로 수신한 경우, 제어부(1420)는 제 1 버튼과 제 2 버튼의 연속 입력에 대응되는 질의를 획득할 수 있다.
다른 실시 예에 따른 입력 수신부(1410)가 사용자로부터 제 1 터치 입력을 수신한 경우, 제어부(1420)는 제 1 터치 입력에 대응되는 질의를 획득할 수 있다.
다른 실시 예에 따른 입력 수신부(1410)가 사용자로부터 제 1 터치 입력과 제 2 터치 입력을 소정의 시간 간격 내에 수신한 경우, 제어부(1420)는 제 1 터치 입력과 제 2 터치 입력의 연속 입력에 대응되는 질의를 획득할 수 있다.
다른 실시 예에 따른 입력 수신부(1410)가 사용자로부터 제 1 제스쳐 입력을 수신한 경우, 제어부(1420)는 제 1 제스쳐 입력에 대응되는 질의를 획득할 수 있다. 예를 들면, 입력 수신부(1410)가 위 아래로 3회 흔들리는 제스쳐 입력을 수신한 경우, 제어부(1420)는 “오늘 일정은?” 이라는 질의를 획득할 수 있다.
일 실시 예에 따른 입력 수신부(1410)는 사용자의 상황을 나타내는 상황 정보를 획득할 수 있다.
일 실시 예에 따른 입력 수신부(1410)는 입력 수신부(1410) 내에 포함된 센서를 이용하여 상황 정보를 획득할 수 있다. 예를 들면, 입력 수신부(1410)는 입력 수신부(1410) 내에 포함된 위치 감지 센서를 이용하여 디바이스(100)의 위치 정보를 획득할 수 있다. 다른 예로, 입력 수신부(1410)는 입력 수신부(1410) 내에 포함된 센서를 이용하여 온도 정보, 시간 정보, 소음 정보 등을 획득할 수 있다.
다른 실시 예에 따른 디바이스(100)는 서버(1000)로부터 상황 정보를 획득할 수 있다. 예를 들면, 디바이스(100)는 서버로부터 시간 정보, 지도 정보, 날씨 정보, 뉴스 정보 등을 획득할 수 있다.
제어부(1420)는 질의에 대응하는 응답을 상황 정보를 이용하여 획득할 수 있다.
일 실시 예에 따른 제어부(1420)는 질의 및 상황 정보에 기초하여 응답을 획득할 수 있다.
예를 들면, 제어부(1420)가 획득한 질의가 “오늘 날씨는?” 인 경우, 제어부(1420)는 현재 디바이스(100)의 위치에 대응되는 지역의 날씨 정보를 획득할 수 있다. 다른 예로, 제어부(1420)가 획득한 질의가 “일정은?” 인 경우, 제어부(1420)는 현재 시간으로부터 1시간 내에 계획된 일정에 대한 정보를 획득할 수 있다. 다른 예로, 제어부(1420)가 획득한 질의가 “실시간 검색어”인 경우, 제어부(1420)는 현재 시간에 소정의 검색 사이트에서 1위부터 10위까지의 실시간 검색어에 대한 정보를 획득할 수 있다. 다른 예로, 제어부(1420)가 획득한 질의가 “동대문 가는 길”인 경우 제어부(1420)는 현재 교통량을 고려하여 디바이스(100)의 현재 위치로부터 동대문까지 가는 길에 대한 정보를 획득할 수 있다. 다른 예로, 제어부(1420)가 획득한 질의가 “오늘 추천 의상은?”인 경우, 제어부(1420)는 오늘의 날씨 예보에 기초하여 사용자에게 추천할 의상에 대한 정보를 획득할 수 있다.
다른 실시 예에 따른 제어부(1420)는 질의에 대응하는 복수개의 응답 중 상황 정보에 대응되는 응답을 선택할 수 있다.
예를 들면, 제어부(1420)가 획득한 질의가 “오늘 날씨는?” 인 경우, 제어부(1420)는 복수의 지역에 대한 날씨 정보 중에서 현재 디바이스(100)의 위치에 대응되는 지역의 날씨 정보를 획득할 수 있다. 다른 예로, 제어부(1420)가 획득한 질의가 “일정은?” 인 경우, 제어부(1420)는 사용자의 오늘 일정들 중 지금 시간으로부터 가장 가까운 미래에 계획된 일정에 대한 정보를 획득할 수 있다. 다른 예로, 제어부(1420)가 획득한 질의가 “실시간 검색어”인 경우, 제어부(1420)는 복수개의 검색 사이트 중 디바이스(100)에서 접속 횟수가 가장 많은 검색 사이트에서 1위부터 10위까지의 실시간 검색어에 대한 정보를 획득할 수 있다. 다른 예로, 제어부(1420)가 획득한 질의가 “동대문 가는 길”인 경우 제어부(1420)는 현재 디바이스(100)의 위치로부터 동대문까지 가는 복수개의 경로 중에서 현재 교통량을 고려하여 하나의 경로에 대한 정보를 획득할 수 있다. 다른 예로, 제어부(1420)가 획득한 질의가 “오늘 추천 의상은?”인 경우, 제어부(1420)는 제어부(1420) 내에 저장된 복수개의 의상 정보 중에서 오늘의 날씨 예보에 기초하여 사용자에게 추천할 의상에 대한 정보를 획득할 수 있다.
일 실시 예에 따른 제어부(1420)는 수신한 사용자 입력 및 상황 정보를 이용하여 획득된 응답과 다른 응답을 획득할 수 있다. 일 실시 예에 따른 제어부(1420)는 질의에 대응하는 응답을 획득할 때 입력 수신부(1410)에서 수신한 사용자 입력을 이용할 수 있다. 여기서 입력 수신부(1410)에서 수신한 사용자 입력은 평가를 위한 사용자 입력을 의미할 수 있다.
예를 들면, 제 1 응답을 획득한 제어부(1420)는 입력 수신부(1410)에서 수신한 사용자 입력을 이용하여 제 2 응답을 획득할 수 있다. 예를 들면, “날씨는?”이라는 질의에 대해서 제어부(1420)는 오늘의 날씨에 대한 정보를 획득하고, 수신한 내일의 날씨를 요청하는 사용자의 평가 입력에 따라 내일의 날씨에 대한 정보를 획득할 수 있다. 다른 예로, “일정은?” 이라는 질의에 대해서 제어부(1420)는 현재 시간으로부터 2시간 이내에 계획된 일정에 대한 정보를 획득하고, 수신한 현재 시간으로부터 1시간 이내에 계획된 일정을 요청하는 사용자의 평가 입력에 따라 현재 시간으로부터 1시간 이내에 계획된 일정에 대한 정보를 획득할 수 있다.
일 실시 예에 따른 제어부(1420)는 수신한 사용자 입력에 기초하여 디스플레이 되는 주체의 이미지를 변경할 수 있다. 예를 들면, 제어부(1420)는 수신한 사용자 입력에 대한 히스토리에 기초하여 디스플레이 되는 주체의 이미지를 변경할 수 있다.
일 실시 예에 따른 제어부(1420)는 수신한 사용자 입력에 따라 디스플레이 되는 주체의 이미지를 변경할 수 있다. 예를 들면, 제어부(1420)가 제 1 캐릭터 이미지를 주체의 이미지로 디스플레이 한 경우, 제 2 캐릭터 이미지를 주체의 이미지로 디스플레이 할 것을 요청하는 사용자 입력에 따라 제어부(1420)는 디스플레이 되는 주체의 이미지를 제 2 캐릭터 이미지로 변경할 수 있다.
다른 실시 예에 따른 제어부(1420)는 수신한 사용자 입력에 대한 히스토리에 기초하여 디스플레이 되는 주체의 이미지를 변경할 수 있다.
일 실시 예에 따른, 제어부(1420)가 디스플레이 된 텍스트 및 이미지의 평가를 위한 사용자 입력을 수신한 횟수가 소정 횟수 이상인 경우, 디바이스(100)는 디스플레이 되는 주체의 이미지를 제 1 캐릭터 이미지에서 제 2 캐릭터 이미지로 변경할 수 있다. 예를 들면, 평가를 위한 사용자 입력을 수신한 횟수에 기초하여 디스플레이 되는 주체의 이미지의 모습을 소정의 기준에 따라 변경할 수 있다.
예를 들면, 평가를 위한 사용자 입력을 수신한 횟수가 0회 내지 10회인 경우, 제어부(1420)는 디스플레이 되는 주체의 이미지를 어린이 모습의 캐릭터 이미지로 선택할 수 있다. 다른 예로, 평가를 위한 사용자 입력을 수신한 횟수가 11회 내지 20회인 경우, 제어부(1420)는 단계 S380에서 디스플레이 되는 주체의 이미지를 청소년 모습의 캐릭터 이미지로 선택할 수 있다. 다른 예로, 평가를 위한 사용자 입력을 수신한 횟수가 21회 내지 30회인 경우, 제어부(1420)는 디스플레이 되는 주체의 이미지를 30대 모습의 캐릭터 이미지로 선택할 수 있다. 다른 예로, 평가를 위한 사용자 입력을 수신한 횟수가 31회 이상인 경우, 제어부(1420)는 디스플레이 되는 주체의 이미지를 노인 모습의 캐릭터 이미지로 선택할 수 있다.
다른 예를 들면, 평가를 위한 사용자 입력을 수신한 횟수가 0회 내지 10회인 경우, 제어부(1420)는 디스플레이 되는 주체의 이미지를 원숭이 모습의 캐릭터 이미지로 선택할 수 있다. 다른 예로, 평가를 위한 사용자 입력을 수신한 횟수가 11회 내지 20회인 경우, 제어부(1420)는 디스플레이 되는 주체의 이미지를 오스트랄로피테쿠스 모습의 캐릭터 이미지로 선택할 수 있다. 다른 예로, 평가를 위한 사용자 입력을 수신한 횟수가 21회 내지 30회인 경우, 제어부(1420)는 디스플레이 되는 주체의 이미지를 호모 사피엔스 모습의 캐릭터 이미지로 선택할 수 있다. 다른 예로, 평가를 위한 사용자 입력을 수신한 횟수가 31회 이상인 경우, 제어부(1420)는 디스플레이 되는 주체의 이미지를 현재 인류 모습의 캐릭터 이미지로 선택할 수 있다.
다른 실시 예에 따른 디바이스(100)가 디스플레이 된 텍스트 및 이미지의 평가를 위한 사용자 입력에 따라 획득한 평균 평가 수치가 소정 기준 이상인 경우, 제어부(1420)는 디스플레이 되는 주체의 이미지를 제 1 캐릭터 이미지에서 제 2 캐릭터 이미지로 변경할 수 있다.
예를 들면, 평가를 위한 사용자 입력에 따라 획득한 평균 평가 수치가 0점 내지 25점인 경우, 제어부(1420)는 디스플레이 되는 주체의 이미지를 어린이 모습의 캐릭터 이미지로 선택할 수 있다. 다른 예로, 평가를 위한 사용자 입력에 따라 획득한 평균 평가 수치가 26점 내지 50점인 경우, 제어부(1420)는 디스플레이 되는 주체의 이미지를 청소년 모습의 캐릭터 이미지로 선택할 수 있다. 다른 예로, 평가를 위한 사용자 입력에 따라 획득한 평균 평가 수치가 51점 내지 75점인 경우, 제어부(1420)는 디스플레이 되는 주체의 이미지를 30대 모습의 캐릭터 이미지로 선택할 수 있다. 다른 예로, 평가를 위한 사용자 입력에 따라 획득한 평균 평가 수치가 76점 내지 100점인 경우, 제어부(1420)는 디스플레이 되는 주체의 이미지를 노인 모습의 캐릭터 이미지로 선택할 수 있다.
디스플레이부(1430)는 획득된 응답을 나타내는 텍스트 및 응답을 제공하는 주체의 이미지를 디스플레이 할 수 있다.
일 실시 예에 따른 제어부(1420)는 단계 S240에서 획득한 응답을 나타내는 텍스트를 획득하고 디스플레이부(1430)는 획득한 텍스트를 디스플레이 할 수 있다. 예를 들면, 디스플레이부(1430)는 획득한 응답을 나타내는 문장을 디스플레이 할 수 있다.
예를 들면, 획득한 응답이 1시간 후에 계획된 일정에 대한 정보인 경우, 제어부(1420)는 1시간 후에 계획된 일정에 대한 정보를 나타내는 텍스트(120)를 생성할 수 있다. 다른 예로, 획득한 응답이 오늘의 날씨에 대한 정보인 경우, 제어부(1420)는 “오늘은 최고 기온은 7도 최저 기온은 2도인 맑은 날씨가 예상됩니다.”라는 텍스트를 생성할 수 있다.
일 실시 예에 따른 응답을 나타내는 텍스트는 하나 이상의 단어로 표시될 수 있다. 예를 들면, 응답을 나타내는 텍스트는 문장의 형태로 표시될 수 있다. 다른 예로, 응답을 나타내는 텍스트는 복수개의 명사로 표시될 수 있다.
예를 들면, 획득한 응답이 1위부터 10위까지의 실시간 검색어인 경우, 디스플레이부(1430)는 1위부터 10위까지의 실시간 검색어를 텍스트형태로 디스플레이 할 수 있다.
일 실시 예에 따른 응답을 나타내는 텍스트는 말풍선 형태로 디스플레이 될 수 있다.
일 실시 예에 따른 디스플레이부(1430)는 응답을 제공하는 주체의 이미지를 디스플레이 할 수 있다.
예를 들면, 디스플레이부(1430)는 응답을 나타내는 텍스트를 제공하는 주체의 이미지(110)를 디스플레이 할 수 있다. 일 실시 예에 따른 텍스트는 말풍선 형태로 표시될 수 있다. 또한, 일 실시 예에 따른 디스플레이부(1430)는 말풍선 형태의 텍스트를 제공하는 주체의 이미지를 디스플레이 할 수 있다.
일 실시 예에 따른 제어부(1420)는 복수개의 이미지들 중 응답을 제공하는 주체의 이미지를 결정할 수 있다. 예를 들면, 제어부(1420)는 상황 정보를 이용하여 복수개의 이미지들 중 응답을 제공하는 주체의 이미지를 결정할 수 있다.
일 실시 예에 따른 응답을 제공하는 주체의 이미지는 소정의 캐릭터 이미지일 수 있다. 다른 실시 예에 따른, 응답을 제공하는 주체의 이미지는 의인화된 대상의 이미지일 수 있다.
일 실시 예에 따른 통신부(1440)는 디바이스(100)의 외부와 데이터를 송 수신할 때 이용될 수 있다. 예를 들면 디바이스(100)가 서버(1000)와 연동하여 동작할 때, 통신부(1440)는 디바이스(100)와 서버(1000)간의 데이터를 송수신할 수 있다.
도 15는 일부 다른 실시 예에 따른 디바이스(100)의 구성을 나타내는 블록도이다.
도 15를 참조하면, 일부 실시 예에 따른 디바이스(100)는 아바타 생성부(1510), 상황 정보 수집부(1520), 카테고리 결정부(1530), 음성 의도 분석부(1540) 및 사용자 모델링부(1550)를 포함할 수 있다.
그러나 도시된 구성요소보다 많은 구성요소에 의해 디바이스(100)가 구현될 수도 있고, 도시된 구성요소보다 적은 구성요소에 의해 디바이스(100) 가 구현될 수도 있다.
이하 상기 구성요소들에 대해 차례로 살펴본다.
일 실시 예에 따른 아바타 생성부(1510)는 응답을 디스플레이 할 때 이용되는 아바타를 생성할 수 있다. 예를 들면, 아바타 생성부(1510)는 응답을 나타내는 텍스트의 주체의 이미지를 생성할 수 있다.
일 실시 예에 따른 아바타 생성부(1510)는 아바타 DB(1511) 및 시각화부(1512)를 포함할 수 있다. 아바타 DB(1511)는 복수개의 아바타에 대한 정보를 포함할 수 있다. 시각화부(1512)는 아바타 DB(1511)에 저장된 복수개의 아바타 중 하나를 디바이스(100)의 화면에 디스플레이 할 때 필요한 정보를 생성할 수 있다.
일 실시 예에 따른 아바타 생성부(1510)는 카테고리 결정부(1530)로부터 결정된 카테고리에 대한 정보를 획득할 수 있다. 예를 들면, 카테고리 결정부(1530)는 복수개의 응답 카테고리 중 결정된 응답에 대응되는 응답 카테고리를 식별하고, 식별된 응답 카테고리에 대한 정보를 아바타 생성부(1510)로 전송할 수 있다. 또한, 아바타 생성부(1510)는 식별된 응답 카테고리에 대응하는 아바타를 생성할 수 있다.
일 실시 예에 따른 아바타 생성부(1510)는 사용자 모델링부(1550)로부터 사용자 모델링 정보를 획득할 수 있다. 예를 들면, 사용자 모델링부(1550)는 복수개의 사용자 모델 중 결정된 응답에 대응되는 사용자 모델을 결정하고, 결정된 사용자 모델에 대한 정보를 아바타 생성부(1510)로 전송할 수 있다. 또한, 아바타 생성부(1510)는 결정된 응답 카테고리에 대응하는 아바타를 생성할 수 있다.
응답을 제공하는 주체의 이미지를 디스플레이 하는 방법에 대해서는 상술한 단계 S250을 참조할 수 있다.
일 실시 예에 따른 상황 정보 수집부(1520)는 상황 정보를 획득할 수 있다. 일 실시 예에 따른 상황 정보 수집부(1520)는 사물 정보 수집부(1521) 및 이벤트 정보 수집부(1522)를 포함할 수 있다.
일 실시 예에 따른 사물 정보 수집부(1521)는 디바이스(100) 주변의 사물에 대한 정보를 획득할 수 있다. 예를 들면, 사물 정보 수집부(1521)는 디바이스(100) 주변에 있는 사물이 화장대라는 정보를 획득할 수 있다.
일 실시 예에 따른 이벤트 정보 수집부(1521)는 사용자의 상황에 대한 정보를 획득할 수 있다. 예를 들면 이벤트 정보 수집부(1521)는 디바이스(100) 주변에 있는 사물인 화장대로부터 사용자의 피부 상태에 대한 정보를 획득할 수 있다.
상황 정보 수집부(1520)는 획득한 상황 정보를 카테고리 결정부(1530)로 전송할 수 있다.
구체적인 상황 정보 획득 방법은 단계 S230에서 상술하였다.
일 실시 예에 따른 카테고리 결정부(1530)는 복수개의 응답 카테고리 중 결정된 응답에 대응되는 응답 카테고리를 식별하고, 식별된 응답 카테고리에 대한 정보를 아바타 생성부(1510)로 전송할 수 있다.
예를 들면, 카테고리 결정부(1530)는 음성 의도 분석부(1540) 및 상황 정보 수집부(1520)로부터 수신한 정보를 이용하여 복수개의 응답 카테고리 중 하나의 응답 카테고리를 결정할 수 있다. 응답 카테고리는 결정된 응답이 속하는 카테고리를 의미할 수 있다.
예를 들면, 현재 상황이 비가 오는 상황이고, 음성 의도 분석부(1540)에서 획득한 질의가 “오늘 식단은?”인 경우, 응답 카테고리는 “비 오는 날”과 “요리사”의 카테고리에 대한 정보를 아바타 생성부(1510)로 전송할 수 있다. 이 경우 일 실시 예에 따른 아바타 생성부(1510)는 우산을 쓴 요리사의 아바타를 생성할 수 있다.
카테고리의 식별 및 아바타의 선택에 대해서는 상술한 도 6의 내용을 참조할 수 있다.
일 실시 예에 따른 음성 의도 분석부(1540)는 수신한 음성 입력이 나타내는 질의를 획득할 수 있다. 음성 입력이 나타내는 질의를 획득하는 구체적인 방법은 상술한 단계 S220을 참조할 수 있다.
일 실시 예에 따른 사용자 모델링부(1550)는 복수개의 사용자 모델 중 하나의 사용자 모델을 결정할 수 있다.
일 실시 예에 따른 사용자 모델링부(1550)는 히스토리 분석부(1551) 및 히스토리 수집부(1552)를 포함할 수 있다.
일 실시 예에 따른 히스토리 수집부(1551)는 음성 의도 분석부(1540)로부터 수신한 정보로부터 사용자의 질의에 대한 히스토리를 획득할 수 있다. 또한, 히스토리 수집부(15510)는 평가를 위한 사용자 입력에 대한 히스토리를 획득할 수 있다.
일 실시 예에 따른 히스토리 분석부(1551)는 히스토리 수집부(1552)에서 획득한 히스토리를 분석할 수 있다. 히스토리 분석부(1551)는 히스토리 수집부(1552)에서 획득한 히스토리에 기초하여 복수개의 사용자 모델 중 하나의 사용자 모델을 결정할 수 있다.
사용자 모델은 사용자를 나타내는 모델을 의미할 수 있다. 예를 들면, 사용자 모델은 12세 남자, 30대 직장인, 50대 교수 등일 수 있다.
사용자 모델링부는 결정된 사용자 모델에 대한 정보를 아바타 생성부(1510)에 전송할 수 있다.
일부 실시 예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (19)

  1. 디바이스가 응답을 디스플레이 하는 방법에 있어서,
    수신한 사용자 입력이 나타내는 질의를 획득하는 단계;
    상기 디바이스로부터 소정 거리 내에 위치한 주변 기기의 종류를 나타내는 정보를 획득하는 단계;
    사용자의 상황을 나타내는 상황 정보를 획득하는 단계;
    상기 획득한 주변 기기의 종류를 나타내는 정보와 상기 획득한 상황 정보에 기초하여, 상기 질의에 대응하는 복수개의 응답 중에서 제1 응답을 결정하는 단계;
    복수개의 아바타 이미지 중에서, 상기 결정된 제1 응답에 기초하여 제1 아바타 이미지를 결정하는 단계; 및
    상기 결정된 제1 응답을 나타내는 텍스트 및 상기 결정된 제1 아바타 이미지를 디스플레이 하는 단계를 포함하는, 방법.
  2. 제 1 항에 있어서,
    상기 디스플레이 된 텍스트 및 제1 아바타 이미지의 평가를 위한 사용자 입력을 수신하는 단계를 더 포함하는, 방법.
  3. 제 2 항에 있어서,
    상기 수신한 평가를 위한 사용자 입력 및 상기 상황 정보를 이용하여 상기 복수개의 응답 중 상기 제1 응답과 다른 제2 응답을 결정하는 단계를 더 포함하는, 방법.
  4. 제 2 항에 있어서,
    상기 수신한 평가를 위한 사용자 입력에 대한 히스토리에 기초하여 상기 디스플레이 되는 제1 아바타 이미지를 제2 아바타 이미지로 변경하는 단계를 더 포함하는, 방법.
  5. 제 1 항에 있어서,
    상기 복수개의 아바타 이미지 중에서, 상기 상황 정보에 기초하여 상기 제1 아바타 이미지를 결정하는 단계를 더 포함하는, 방법.
  6. 제 1 항에 있어서,
    복수개의 응답 카테고리 중 상기 결정된 제1 응답에 대응되는 응답 카테고리를 식별하는 단계; 및
    상기 식별된 응답 카테고리에 따라 상기 복수개의 아바타 이미지 중 상기 제1 아바타 이미지를 결정하는 단계를 더 포함하는, 방법.
  7. 제 1 항에 있어서,
    상기 사용자의 사용자 정보를 획득하는 단계; 및
    상기 복수개의 아바타 이미지 중에서, 상기 사용자 정보에 기초하여 상기 제1 아바타 이미지를 결정하는 단계를 더 포함하는, 방법.
  8. 제 1 항에 있어서,
    상기 제1 응답을 결정하는 단계는,
    상기 질의에 대응하는 상기 복수개의 응답을 획득하는 단계;
    상기 상황 정보를 상기 디바이스에 포함된 하나 이상의 센서를 이용하여 획득하는 단계; 및
    상기 복수개의 응답 중 하나의 응답을 상기 상황 정보를 이용하여 결정하는 단계를 포함하는, 방법.
  9. 제 1 항에 있어서,
    상기 제1 응답을 결정하는 단계는,
    상기 사용자의 일정 정보를 획득하는 단계;
    상기 일정 정보에 포함된 복수개의 일정 중 하나를 상기 상황 정보를 이용하여 결정하는 단계; 및
    상기 결정된 일정에 기초하여 상기 제1 응답을 나타내는 텍스트를 생성하는 단계를 포함하는, 방법.
  10. 응답을 디스플레이 하는 디바이스에 있어서,
    사용자 입력을 수신하는 입력 수신부;
    디스플레이부; 및
    상기 수신한 사용자 입력이 나타내는 질의를 획득하고,
    상기 디바이스로부터 소정 거리 내에 위치한 주변 기기의 종류를 나타내는 정보를 획득하고,
    사용자의 상황을 나타내는 상황 정보를 획득하고,
    상기 획득한 주변 기기의 종류를 나타내는 정보와 상기 획득한 상황 정보에 기초하여, 상기 질의에 대응하는 복수개의 응답 중에서 제1 응답을 결정하고,
    복수개의 아바타 이미지 중에서, 상기 결정된 제1 응답에 기초하여 제1 아바타 이미지를 결정하고,
    상기 결정된 제1 응답을 나타내는 텍스트 및 상기 결정된 제1 아바타 이미지를 디스플레이 하도록 상기 디스플레이부를 제어하는 제어부를 포함하는, 디바이스.
  11. 제 10 항에 있어서,
    상기 입력 수신부는,
    상기 디스플레이 된 텍스트 및 제1 아바타 이미지의 평가를 위한 사용자 입력을 수신하는, 디바이스.
  12. 제 11 항에 있어서,
    상기 제어부는,
    상기 수신한 평가를 위한 사용자 입력 및 상기 상황 정보를 이용하여 상기 복수개의 응답 중 상기 제1 응답과 다른 제2 응답을 결정하는, 디바이스.
  13. 제 10 항에 있어서,
    상기 제어부는,
    상기 수신한 평가를 위한 사용자 입력에 대한 히스토리에 기초하여 상기 디스플레이 되는 제1 아바타 이미지를 제2 아바타 이미지로 변경하는, 디바이스.
  14. 제 10 항에 있어서,
    상기 제어부는,
    상기 복수개의 아바타 이미지 중에서, 상기 상황 정보에 기초하여 상기 제1 아바타 이미지를 결정하는, 디바이스.
  15. 제 10 항에 있어서,
    상기 제어부는,
    복수개의 응답 카테고리 중 상기 결정된 제1 응답에 대응되는 응답 카테고리를 식별하고,
    상기 식별된 응답 카테고리에 따라 상기 복수개의 아바타 이미지 중 상기 제1 아바타 이미지를 결정하는, 디바이스.
  16. 제 10 항에 있어서,
    상기 제어부는,
    상기 사용자의 사용자 정보를 획득하고,
    상기 복수개의 아바타 이미지 중에서, 상기 사용자 정보에 기초하여 상기 제1 아바타 이미지를 결정하는, 디바이스.
  17. 제 10 항에 있어서,
    상기 제어부는,
    상기 질의에 대응하는 상기 복수개의 응답을 획득하고,
    상기 상황 정보를 상기 디바이스에 포함된 하나 이상의 센서를 이용하여 획득하고,
    상기 복수개의 응답 중 하나의 응답을 상기 상황 정보를 이용하여 결정하는, 디바이스.
  18. 제 10 항에 있어서,
    상기 제어부는,
    상기 사용자의 일정 정보를 획득하고,
    상기 일정 정보에 포함된 복수개의 일정 중 하나를 상기 상황 정보를 이용하여 결정하고,
    상기 결정된 일정에 기초하여 상기 제1 응답을 나타내는 텍스트를 생성하는, 디바이스.
  19. 제 1 항 내지 제 9 항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020150007448A 2015-01-15 2015-01-15 응답을 디스플레이 하는 디바이스 및 방법 KR102393296B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020150007448A KR102393296B1 (ko) 2015-01-15 2015-01-15 응답을 디스플레이 하는 디바이스 및 방법
US14/995,602 US10936140B2 (en) 2015-01-15 2016-01-14 Method and device for displaying response

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150007448A KR102393296B1 (ko) 2015-01-15 2015-01-15 응답을 디스플레이 하는 디바이스 및 방법

Publications (2)

Publication Number Publication Date
KR20160088128A KR20160088128A (ko) 2016-07-25
KR102393296B1 true KR102393296B1 (ko) 2022-05-02

Family

ID=56407915

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150007448A KR102393296B1 (ko) 2015-01-15 2015-01-15 응답을 디스플레이 하는 디바이스 및 방법

Country Status (2)

Country Link
US (1) US10936140B2 (ko)
KR (1) KR102393296B1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106843884B (zh) * 2017-01-24 2020-05-19 宇龙计算机通信科技(深圳)有限公司 一种查询数据处理方法及其设备
KR102423754B1 (ko) * 2017-09-19 2022-07-21 삼성전자주식회사 디바이스 사용 문의에 대한 응답을 제공하는 디바이스 및 방법
DE102018201999A1 (de) * 2018-02-08 2019-08-08 BSH Hausgeräte GmbH Haushaltskältegerätevorrichtung
KR20190142219A (ko) * 2018-06-15 2019-12-26 삼성전자주식회사 사용자의 입력에 대한 응답을 출력하는 전자 장치 및 그 동작 방법
US20200005784A1 (en) 2018-06-15 2020-01-02 Samsung Electronics Co., Ltd. Electronic device and operating method thereof for outputting response to user input, by using application
KR102682293B1 (ko) * 2018-12-31 2024-07-04 효성티앤에스 주식회사 증강현실 이모티콘 제공 셀프 뱅킹 키오스크
KR20210109202A (ko) * 2020-02-27 2021-09-06 삼성전자주식회사 제스쳐 입력에 대응하는 시각적 효과를 제공하기 위한 전자 장치 및 그의 동작 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140074454A1 (en) * 2012-09-07 2014-03-13 Next It Corporation Conversational Virtual Healthcare Assistant

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5682469A (en) * 1994-07-08 1997-10-28 Microsoft Corporation Software platform having a real world interface with animated characters
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US20090107398A1 (en) 2007-10-31 2009-04-30 Nordson Corporation Fluid dispensers and methods for dispensing viscous fluids with improved edge definition
KR20090115828A (ko) 2008-05-04 2009-11-09 (주)플랜쿼터스 카메라를 이용한 골프공의 궤적 측정 시스템
KR101577607B1 (ko) 2009-05-22 2015-12-15 삼성전자주식회사 상황 및 의도인지 기반의 언어 표현 장치 및 그 방법
KR20110059178A (ko) 2009-11-27 2011-06-02 주식회사 인스프리트 아바타 개인비서 서비스 제공 방법 및 그 시스템
US8996530B2 (en) * 2012-04-27 2015-03-31 Yahoo! Inc. User modeling for personalized generalized content recommendations
KR20130124799A (ko) 2012-05-07 2013-11-15 고일권 스마트 단말에서의 진화형 가상 비서 서비스 시스템
US9830044B2 (en) * 2013-12-31 2017-11-28 Next It Corporation Virtual assistant team customization
US9286910B1 (en) * 2014-03-13 2016-03-15 Amazon Technologies, Inc. System for resolving ambiguous queries based on user context

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140074454A1 (en) * 2012-09-07 2014-03-13 Next It Corporation Conversational Virtual Healthcare Assistant

Also Published As

Publication number Publication date
US10936140B2 (en) 2021-03-02
KR20160088128A (ko) 2016-07-25
US20160210023A1 (en) 2016-07-21

Similar Documents

Publication Publication Date Title
KR102393296B1 (ko) 응답을 디스플레이 하는 디바이스 및 방법
US11816101B2 (en) Radar recognition-aided search
US20160093081A1 (en) Image display method performed by device including switchable mirror and the device
KR102322034B1 (ko) 전환 거울을 구비한 장치의 이미지 디스플레이 방법 및 그 장치
US10289376B2 (en) Method for displaying virtual object in plural electronic devices and electronic device supporting the method
US10097494B2 (en) Apparatus and method for providing information
US10552004B2 (en) Method for providing application, and electronic device therefor
KR20150118813A (ko) 햅틱 정보 운용 방법 및 이를 지원하는 전자 장치
US10579248B2 (en) Method and device for displaying image by using scroll bar
US20160203194A1 (en) User terminal for displaying image and image display method thereof
US20160154777A1 (en) Device and method for outputting response
US20180341400A1 (en) Electronic device for selecting external device and controlling the same and operating method thereof
CN105191330A (zh) 显示装置及其图形用户界面屏幕提供方法
US10636417B2 (en) Method and apparatus for performing voice recognition on basis of device information
US20150347461A1 (en) Display apparatus and method of providing information thereof
KR102367184B1 (ko) 스크린 키보드를 이용한 정보 입력 방법 및 이를 위한 장치
US20170046123A1 (en) Device for providing sound user interface and method thereof
US10949654B2 (en) Terminal and server for providing video call service
KR20150131872A (ko) 전자 장치 및 전자 장치에서의 음악 연주 방법
US20190294652A1 (en) Electronic device and operation method thereof
EP3469787B1 (en) Electronic device and computer-readable recording medium for displaying images
US10095384B2 (en) Method of receiving user input by detecting movement of user and apparatus therefor
KR20220127568A (ko) 홈 트레이닝 서비스 제공 방법 및 그를 수행하는 디스플레이 장치
US20160202885A1 (en) Display apparatus and operation method of the same
US20130244730A1 (en) User terminal capable of sharing image and method for controlling the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant