KR20160051536A - Device for managing user information based on image and method thereof - Google Patents

Device for managing user information based on image and method thereof Download PDF

Info

Publication number
KR20160051536A
KR20160051536A KR1020150070566A KR20150070566A KR20160051536A KR 20160051536 A KR20160051536 A KR 20160051536A KR 1020150070566 A KR1020150070566 A KR 1020150070566A KR 20150070566 A KR20150070566 A KR 20150070566A KR 20160051536 A KR20160051536 A KR 20160051536A
Authority
KR
South Korea
Prior art keywords
information
user
avatar
image
based image
Prior art date
Application number
KR1020150070566A
Other languages
Korean (ko)
Other versions
KR102384311B1 (en
Inventor
남지인
강민정
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to TW104134458A priority Critical patent/TWI680400B/en
Priority to PCT/KR2015/011388 priority patent/WO2016068581A1/en
Priority to EP15191948.7A priority patent/EP3015145A1/en
Priority to CN201510726716.4A priority patent/CN105573573B/en
Priority to US14/929,841 priority patent/US10096143B2/en
Publication of KR20160051536A publication Critical patent/KR20160051536A/en
Priority to US16/139,552 priority patent/US11024070B2/en
Application granted granted Critical
Publication of KR102384311B1 publication Critical patent/KR102384311B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work

Abstract

The present invention provides a device for managing user information based on an image and a method thereof, effectively managing user information by easily revising, adding, or/and checking the user information based on an image representing the user information. According to one embodiment of the present invention, the device includes: a display which displays an avatar-based image; and a control unit which revises the avatar-based image being displayed on the display in accordance with a user input, and updating the user information based on the revised avatar-based image.

Description

이미지 기반으로 사용자 정보를 관리하는 디바이스 및 그 방법{DEVICE FOR MANAGING USER INFORMATION BASED ON IMAGE AND METHOD THEREOF} [0001] DEVICE FOR MANAGING USER INFORMATION BASED ON IMAGE AND METHOD THEREOF [0002]

본 개시는 사용자 정보를 관리하는 디바이스 및 방법에 관한 것으로, 보다 상세하게는, 사용자 정보를 나타내는 이미지를 기반으로 사용자 정보를 관리하는 디바이스 및 방법에 관한 것이다. The present disclosure relates to a device and method for managing user information, and more particularly, to a device and method for managing user information based on an image representing user information.

통신 기술의 발달 및 디바이스의 스마트 화에 따라 다양한 사용자 정보 수집이 가능해지고 있다. 사용자 정보는 사용자 프로파일 정보 또는/및 사용자의 라이프 로그 정보 등과 같이 사용자에 관련된 정보를 말한다. 사용자의 라이프 로그 정보는 사용자 스케줄 정보, 또는 사용자 헬스 정보를 포함할 수 있으나 이로 제한되지 않는다. With the development of communication technology and the smartization of devices, it is becoming possible to collect various user information. The user information refers to user-related information such as user profile information and / or user's life log information. The user's life log information may include, but is not limited to, user schedule information, or user health information.

사용자 정보는 사용자 입력 또는/및 디바이스의 센싱 기능, 디바이스의 검출 기능, 또는/및 디바이스의 데이터 분석 기능 등을 이용하여 수집될 수 있으나 사용자 정보를 수집하는 방법은 이로 제한되지 않는다. User information may be collected using a user input or / and a sensing function of the device, a detection function of the device, or / and a data analysis function of the device, but the method of collecting the user information is not limited thereto.

이와 같이 다양한 방법으로 수집되는 사용자 정보를 효과적으로 관리할 수 있는 기술이 요구되고 있다. There is a need for a technique for effectively managing user information collected in various ways.

전술한 배경기술은 발명자가 본 개시의 도출을 위해 보유하고 있었거나, 본 개시의 도출 과정에서 습득한 정보로서, 반드시 본 개시의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.The above-described background information is information that the inventor holds for the purpose of deriving the present disclosure or obtained in the process of deriving the present disclosure and is not necessarily a known technology disclosed to the general public prior to the filing of the present disclosure.

본 개시의 실시 예들은, 사용자 정보를 나타내는 이미지 기반으로 사용자 정보를 쉽게 수정, 추가, 또는/및 확인함으로써, 사용자 정보를 효과적으로 관리하기 위한 것이다. Embodiments of the present disclosure are for effectively managing user information by easily modifying, adding, and / or verifying user information on an image basis that represents user information.

또한, 본 개시의 실시 예들은 사용자 정보를 나타내는 이미지 기반으로 제공 가능한 서비스를 쉽게 확인하고, 이용함으로써, 사용자 정보를 효과적으로 관리하기 위한 것이다. In addition, embodiments of the present disclosure are for effectively managing user information by easily identifying and using services that can be provided on an image basis representing user information.

상술한 기술적 과제들을 달성하기 위한 기술적 수단으로서, 본 개시의 제 1 측면은, 사용자 정보를 관리하는 디바이스에 있어서, 아바타 기반 이미지를 디스플레이 하는 디스플레이; 사용자 스케줄 정보에 따른 상기 아바타 기반 이미지가 상기 디스플레이에 디스플레이 되도록 상기 디스플레이를 제어하고, 상기 아바타 기반 이미지에 대한 수정 요청을 나타내는 사용자 입력에 따라 상기 아바타 기반 이미지를 수정하고, 상기 수정된 아바타 기반 이미지에 따라 상기 사용자 스케줄 정보를 업데이트 하는 제어부를 포함하는 디바이스를 제공할 수 있다. As a technical means to accomplish the above-mentioned technical objects, a first aspect of the present disclosure provides a device for managing user information, comprising: a display for displaying an avatar-based image; Based image in accordance with a user input indicating a modification request for the avatar-based image, and for modifying the avatar-based image according to a user input indicating a modification request for the avatar-based image, And a controller for updating the user schedule information according to the user schedule information.

또한, 상기 디스플레이는, 상기 제어부에 의해 제어됨으로써, 복수의 아바타 기반 이미지를 디스플레이 하고, 특정 기간의 사용자 정보를 요청하는 사용자 입력을 수신하는 사용자 입력부를 더 포함하며, 상기 제어부는, 상기 사용자 입력에 응답하여, 상기 특정 기간의 사용자 정보에 따라 복수의 아바타 기반 이미지가 디스플레이 되도록 상기 디바이스를 제어하고, 상기 복수의 아바타 기반 이미지는 상기 특정 기간을 나누는 기준에 따라 결정될 수 있다. The display may further include a user input unit for displaying a plurality of avatar-based images and receiving a user input for requesting user information of a specific period by being controlled by the control unit, In response, the device is controlled to display a plurality of avatar-based images according to the user information of the specific period, and the plurality of avatar-based images can be determined according to a criterion dividing the specific period.

또한, 상기 디스플레이는, 상기 제어부에 의해 제어됨으로써, 복수의 아바타 기반 이미지를 디스플레이 하고, 특정 기간의 사용자 정보를 요청하는 사용자 입력을 수신하는 사용자 입력부를 더 포함하며, 상기 제어부는, 상기 사용자 입력에 응답하여 상기 특정 기간의 사용자 정보에 따라 복수의 아바타 기반 이미지가 디스플레이 되도록 상기 디바이스를 제어하고, 상기 복수의 아바타 기반 이미지는 상기 특정 기간의 사용자 정보에 포함되는 테마 아이템에 따라 결정될 수 있다. The display may further include a user input unit for displaying a plurality of avatar-based images and receiving a user input for requesting user information of a specific period by being controlled by the control unit, Based image in response to the user information of the specific period, and the plurality of avatar-based images may be determined according to a theme item included in the user information of the specific period.

또한, 상기 디바이스는, 수정 가능한 정보 표시를 요청하는 사용자 입력을 수신하는 사용자 입력부를 더 포함하며, 상기 디스플레이는, 상기 제어부에 의해 제어됨으로써, 상기 사용자 입력에 응답하여, 상기 아바타 기반 이미지중에서 수정 가능한 부분을 수정 가능하지 않은 부분과 구별되게 표시할 수 있다. The device may further include a user input for receiving a user input requesting a modifiable information display, wherein the display, by being controlled by the control unit, is operable, in response to the user input, The part can be marked differently from the non-modifiable part.

또한, 상기 제어부는, 상기 아바타 기반 이미지에 대한 제공 기간이 설정되어 있으면, 상기 제공 기간을 체크하고, 상기 제공 기간이 만료되면, 상기 아바타 기반 이미지를 소멸시킬 수 있다. Also, the control unit may check the provision period if the provision period for the avatar-based image is set, and may extinguish the avatar-based image when the provision period expires.

또한, 상기 디스플레이는, 사용자의 헬스 정보에 따른 아바타 기반 이미지를 디스플레이 하며, 상기 디바이스는 의료 정보 요청을 나타내는 사용자 입력을 수신하는 사용자 입력부를 더 포함하고, 상기 제어부는, 상기 사용자 입력에 응답하여 상기 사용자의 헬스 정보에 관련된 의료 정보를 상기 디스플레이를 통해 제공하고, 상기 제공되는 의료 정보에 기초하여 선택된 의료 정보에 관한 사용자 입력이 상기 사용자 입력부를 통해 수신되면, 상기 선택된 의료 정보에 따라 상기 사용자의 스케줄 정보를 업데이트 할 수 있다. The display may further include a user input unit for displaying an avatar-based image according to health information of a user, the device receiving a user input indicating a request for medical information, The method according to claim 1, further comprising: providing health information related to health information of a user through the display; and receiving, when the user input relating to the selected medical information is received through the user input unit based on the provided medical information, Information can be updated.

또한, 상기 디바이스는, 상기 아바타 기반 이미지에 대한 정보 추가를 나타내는 사용자 입력을 수신하는 사용자 입력부를 더 포함하고, 상기 디스플레이는, 상기 제어부에 제어됨으로써, 상기 정보 추가를 위한 입력 창을 디스플레이 하며, 상기 제어부는, 상기 입력 창을 통해 수신된 정보에 대응되는 이미지를 상기 아바타 기반 이미지에 추가하고, 상기 추가된 이미지를 포함하는 아바타 기반 이미지에 따라 상기 사용자의 스케줄 정보를 업데이트 할 수 있다. The device may further include a user input unit for receiving a user input indicating addition of information on the avatar-based image, wherein the display controls an input window for adding the information by being controlled by the control unit, The control unit may add an image corresponding to the information received through the input window to the avatar-based image, and update the user's schedule information according to the avatar-based image including the added image.

또한, 상기 디스플레이는, 상기 제어부에 의해 제어됨으로써, 사용자의 장래 희망 정보에 따른 아바타 기반 이미지를 디스플레이 하고, 상기 디바이스는, 상기 장래 희망 정보에 관련된 정보를 요청하는 사용자 입력을 수신하는 사용자 입력부를 더 포함하고, 상기 제어부는, 상기 사용자 입력에 따라 장래 희망 정보에 관련된 정보를 상기 디스플레이를 통해 제공하고, 상기 장래 희망 정보에 관련된 정보 중 선택된 정보에 따라 상기 사용자의 스케줄 정보를 업데이트 할 수 있다. The display may further include a user input unit for receiving a user input for requesting information related to the future desired information by controlling the display unit to display an avatar based image according to user's future desired information by controlling the control unit The control unit may provide information relating to future desired information according to the user input through the display and update the schedule information of the user according to information selected from information related to the future desired information.

또한, 상기 디스플레이는, 상기 제어부에 의해 제어됨으로써, 상기 디바이스의 사용 히스토리 정보에 따른 복수의 아바타 기반 이미지를 디스플레이 하고, 상기 디바이스는, 상기 디바이스에 대한 사용 기간별 사용 히스토리 정보를 요청하는 사용자 입력을 수신하는 사용자 입력부를 더 포함하고, 상기 제어부는, 상기 사용자 입력에 응답하여, 상기 복수의 아바타 기반의 이미지가 상기 디스플레이에 디스플레이 되도록 상기 디스플레이를 제어할 수 있다. In addition, the display may display a plurality of avatar-based images according to usage history information of the device by being controlled by the control unit, and the device may receive user input for requesting usage history information for each device for the usage period And the control unit may control the display such that the plurality of avatar-based images are displayed on the display in response to the user input.

상기 디스플레이는, 상기 제어부에 의해 제어됨으로서, 소셜 미디어에 등록된 사용자 정보에 따른 아바타 기반의 이미지를 디스플레이 하고, 상기 디바이스는, 수정을 요청하는 사용자 입력을 수신하는 사용자 입력부를 더 포함하고, 상기 제어부는, 상기 사용자 입력에 응답하여, 상기 아바타 기반의 이미지를 수정하고, 상기 수정된 아바타 기반의 이미지에 따라 상기 소셜 미디어에 등록된 사용자 정보를 업데이트 할 수 있다. The display may further include a user input unit for displaying an avatar-based image according to user information registered in the social media by being controlled by the control unit, the device including a user input for requesting modification, Based image in response to the user input and update the user information registered in the social media according to the modified avatar based image.

상술한 기술적 과제들을 달성하기 위한 기술적 수단으로서, 본 개시의 제 2 측면은, 컴퓨팅 디바이스에 의해 실행되는 사용자 정보 관리 방법에 있어서, 사용자 스케줄 정보에 따른 아바타 기반 이미지를 상기 컴퓨팅 디바이스의 디스플레이에 디스플레이 하는 단계; 상기 아바타 기반 이미지에 대한 수정 요청을 나타내는 사용자 입력에 따라 상기 아바타 기반 이미지를 수정하는 단계; 및 상기 수정된 아바타 기반 이미지에 따라 상기 사용자 스케줄 정보를 업데이트 하는 단계를 포함하는 사용자 정보 관리 방법을 제공할 수 있다.According to a second aspect of the present disclosure, there is provided a method of managing user information executed by a computing device, the method comprising: displaying an avatar-based image according to user schedule information on a display of the computing device step; Modifying the avatar-based image according to user input indicating a modification request for the avatar-based image; And updating the user schedule information according to the modified avatar-based image.

또한, 상기 아바타 기반 이미지를 디스플레이 하는 단계는, 특정 기간의 사용자 정보에 따라 복수의 아바타 기반 이미지를 디스플레이 하는 단계를 포함하고, 상기 복수의 아바타 기반 이미지는 상기 특정 기간을 나누는 기준에 따라 결정될 수 있다. In addition, the step of displaying the avatar-based image may include displaying a plurality of avatar-based images according to user information of a specific period of time, and the plurality of avatar-based images may be determined according to a criterion for dividing the specific period of time .

또한, 상기 아바타 기반 이미지를 디스플레이 하는 단계는, 특정 기간의 사용자 정보에 따라 복수의 아바타 기반 이미지를 디스플레이 하는 단계를 포함하고, 상기 복수의 아바타 기반 이미지는 상기 특정 기간의 사용자 정보에 포함되어 있는 테마 아이템에 따라 결정될 수 있다. The displaying of the avatar-based image may include displaying a plurality of avatar-based images according to user information of a specific period, and the plurality of avatar-based images may include a theme Can be determined according to the item.

또한, 상기 방법은, 수정 가능한 정보 표시를 요청하는 사용자 입력에 응답하여 상기 아바타 기반 이미지중에서 수정 가능한 부분을 수정 가능하지 않은 부분과 구별되게 표시하는 단계를 더 포함할 수 있다. The method may further include displaying the modifiable portion of the avatar-based image distinct from the non-modifiable portion in response to a user input requesting a modifiable information display.

또한, 상기 방법은, 상기 아바타 기반 이미지에 대한 제공 기간이 설정되어 있으면, 상기 제공 기간을 체크하는 단계; 상기 제공 기간이 만료되면, 상기 아바타 기반 이미지를 소멸시키는 단계를 더 포함할 수 있다. The method may further include: checking the providing period if the providing period for the avatar-based image is set; And exposing the avatar-based image when the providing period expires.

또한, 상기 방법은, 사용자의 헬스 정보에 따른 아바타 기반 이미지를 상기 디스플레이에 디스플레이 하는 단계; 의료 정보 요청을 나타내는 사용자 입력에 따라 상기 사용자의 헬스 정보에 관련된 의료 정보를 제공하는 단계; 및 상기 제공되는 의료 정보에 기초하여 선택된 의료 정보에 따라 상기 사용자의 스케줄 정보를 업데이트 하는 단계를 더 포함할 수 있다. The method may further include displaying an avatar-based image according to the user's health information on the display; Providing health information related to the health information of the user according to a user input indicating a medical information request; And updating the schedule information of the user according to the medical information selected based on the provided medical information.

또한, 상기 방법은, 상기 아바타 기반 이미지에 대한 정보 추가를 나타내는 사용자 입력이 수신됨에 따라 상기 정보 추가를 위한 입력 창을 상기 디스플레이에 디스플레이 하는 단계; 상기 입력 창을 통해 수신된 정보에 대응되는 이미지를 상기 아바타 기반 이미지에 추가하는 단계; 및 상기 추가된 이미지를 포함하는 아바타 기반 이미지에 따라 상기 사용자의 스케줄 정보를 업데이트 하는 단계를 더 포함할 수 있다. The method may further include displaying an input window for adding the information on the display as a user input indicating the addition of information about the avatar-based image is received; Adding an image corresponding to information received through the input window to the avatar-based image; And updating the schedule information of the user according to the avatar-based image including the added image.

또한, 상기 방법은, 사용자의 장래 희망 정보에 따른 아바타 기반 이미지를 디스플레이 하는 단계; 및 상기 장래 희망 정보에 관련된 정보를 요청하는 사용자 입력에 따라 장래 희망 정보에 관련된 정보를 제공하는 단계; 및 상기 장래 희망 정보에 관련된 정보 중 선택된 정보에 따라 상기 사용자의 스케줄 정보를 업데이트 하는 단계를 더 포함할 수 있다. The method may further include displaying an avatar-based image according to future user's desired information; And providing information related to future desired information according to a user input requesting information related to the future desired information; And updating the schedule information of the user according to information selected from the information related to the future desired information.

또한, 상기 방법은, 상기 컴퓨팅 디바이스에 대한 사용 기간별 사용 히스토리 정보를 요청하는 사용자 입력에 따라 상기 사용 히스토리 정보에 따른 복수의 아바타 기반의 이미지를 디스플레이 하는 단계를 더 포함할 수 있다. The method may further include displaying a plurality of avatar-based images corresponding to the usage history information according to a user input requesting usage history information for each usage period of the computing device.

또한, 상기 방법은, 소셜 미디어에 등록된 사용자 정보에 따른 아바타 기반의 이미지를 디스플레이 하는 단계; 수정을 요청하는 사용자 입력에 따라 상기 아바타 기반의 이미지를 수정하는 단계; 및 상기 수정된 아바타 기반의 이미지에 따라 상기 소셜 미디어에 등록된 사용자 정보를 업데이트 하는 단계를 더 포함할 수 있다. The method may further include displaying an avatar-based image according to user information registered in a social media; Modifying the avatar-based image according to a user input requesting modification; And updating the user information registered in the social media according to the modified avatar-based image.

본 개시의 제 3 측면은, 제 2 측면의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공할 수 있다. The third aspect of the present disclosure can provide a computer-readable recording medium on which a program for causing a computer to execute the method of the second aspect is recorded.

도 1은 일부 실시 예에 따른 디바이스가 사용자의 여행 스케줄 정보에 따른 아바타 기반 이미지를 디스플레이 하는 예이다.
도 2는 일부 실시 예에 따른 디바이스가 사용자 스케줄 정보에 따른 아바타 기반 이미지를 이용하여 사용자 정보를 수정하는 사용자 정보 관리 방법의 흐름도이다.
도 3은 일부 실시 예에 따른 디바이스가 생성한 사용자 스케줄 정보에 대한 사용자 모델링 정보의 예이다.
도 4는 일부 실시 예에 따른 디바이스에 저장되어 있는 복수의 오브젝트 정보와 복수의 오브젝트 이미지간의 관계를 설명하기 위한 도면이다.
도 5a 내지 도 5e는 일부 실시 예에 따른 디바이스가 아바타 기반 이미지를 수정하는 일 예를 도시한다.
도 6a 내지 도 6e는 일부 실시 예에 따른 디바이스가 아바타 기반 이미지를 수정하는 다른 예이다.
도 7은 일부 실시 예에 따른 디바이스가 사용자 스케줄 정보에 따른 아바타 기반 이미지를 이용하여 사용자 정보를 추가하는 사용자 정보 관리 방법의 흐름도이다.
도 8a 내지 도 8c는 일부 실시 예에 따른 디바이스가 아바타 기반 이미지를 수정하는 다른 예이다.
도 9는 일부 실시예에 따른 디바이스가 특정 기간의 사용자 스케줄 정보에 따른 복수의 아바타 기반 이미지에 기초한 사용자 정보 관리 방법의 흐름도이다.
도 10은 일부 실시 예에 따른 디바이스에 의해 평일 사용자 스케줄 정보와 주말 사용자 스케줄 정보에 기초한 복수의 아바타 기반 이미지를 디스플레이 하는 예이다.
도 11은 일부 실시 예에 따른 디바이스가 테마 아이템별 사용자 스케줄 정보에 기초한 복수의 아바타 기반 이미지를 이용하는 사용자 정보 관리 방법의 흐름도이다.
도 12a 내지 도 12c는 테마 아이템별 복수의 아바타 기반 이미지를 수정하는 예이다.
도 13은 일부 실시 예에 따른 디바이스가 아바타 기반 이미지에 대한 수명을 관리하는 사용자 정보 관리 방법의 흐름도이다.
도 14는 일부 실시 예에 따른 디바이스가 사용자의 헬스 정보에 따른 아바타 기반 이미지를 이용하는 사용자 정보 관리 방법의 흐름도이다.
도 15a 내지 도 15e는 일부 실시 예에 따른 디바이스가 사용자의 헬스 정보에 따른 아바타 기반 이미지를 이용하여 사용자 정보를 업데이트 하는 예를 도시한 도면이다.
도 16은 일부 실시 예에 따른 디바이스가 사용자의 장래 희망 정보에 따른 아바타 기반 이미지에 기초한 사용자 정보 관리 방법의 흐름도이다.
도 17a 내지 도 17d는 일부 실시 예에 따른 디바이스가 사용자의 장래 희망 정보에 따른 아바타 기반 이미지에 기초하여 사용자 스케줄 정보를 업데이트 하는 과정을 설명하는 도면이다.
도 18은 일부 실시 예에 따른 디바이스의 사용 히스토리 정보에 따른 복수의 아바타 기반 이미지에 기초한 사용자 정보 관리 방법의 흐름도이다.
도 19a 및 도 19b는 일부 실시 예에 따른 디바이스가 디바이스의 사용 히스토리 정보 요청에 따른 복수의 아바타 기반 이미지로 제공하는 예이다.
도 20은 일부 실시 예에 따른 디바이스가 소셜 미디어에 등록된 사용자 정보에 따른 아바타 기반의 이미지를 이용하는 사용자 정보 관리 방법의 흐름도이다.
도 21은 일부 실시 예들에 따른 디바이스를 포함하는 사용자 정보 관리 시스템의 블록도이다.
도 22는 일부 실시 예에 따른 디바이스에 의해 수행되는 사용자 정보 관리 방법을 설명하기 위한 흐름도이다.
도 23a 내지 도 23f는 일부 실시 예에 따른 디바이스가 사용자 정보에 기초하여 디스플레이 하는 아바타 기반 이미지들을 설명하기 위한 도면이다.
도 24a는 일부 실시 예에 따른, 사용자 정보에 대한 사용자 모델링 정보의 예이다.
도 24b는 일부 실시 예에 따른 디바이스에 디스플레이 될 수 있는 아바타 기반 이미지에 포함되는 오브젝트의 디스플레이 사이즈에 관한 예이다.
도 24c는 일부 실시 예에 따른 아바타 기반 이미지에 포함되는 오브젝트의 디스플레이 사이즈를 설명하는 도면이다.
도 25는 일부 실시 예에 따른 오브젝트 이미지와 오브젝트 식별 정보간의 매핑 정보의 예를 도시한다.
도 26은 일부 실시 예에 따른 사용자 모델링 정보와 매핑 정보를 이용하여 아바타 기반 이미지를 생성하는 과정을 설명하는 도면이다.
도 27a 내지 도 27f는 일부 실시 예에 따른 디바이스가 수정 가능한 오브젝트를 표시하는 예들이다.
도 28은 일부 실시 예에 따른 디바이스가 사용자 입력에 따라 아바타 기반 이미지를 수정하는 과정에 대한 흐름도이다.
도 29a 내지 도 29e는 일부 실시 예에 따른 디바이스에 의해 제공되는 후보 오브젝트에 기초하여 오브젝트가 수정되는 예를 도시한다.
도 30은 일부 실시 예에 따른 디바이스가 아바타 기반 이미지에 포함된 오브젝트별로 제공 가능한 서비스 정보를 제공하는 과정에 대한 흐름도이다.
도 31a 내지 도 31d는 도 30에 도시된 사용자 정보 관리 방법에 설명하기 위한 화면의 예이다.
도 32는 일부 실시 예에 따른 디바이스에 의해 업데이트된 사용자 모델링 정보의 예이다.
도 33은 일부 실시 예에 따른 디바이스가 아바타 기반 이미지를 수정하여 사용자 정보를 관리하는 방법의 흐름도이다.
도 34는 일부 실시 예에 따른 디바이스가 아바타 기반 이미지를 수정하여 사용자 정보를 관리하는 방법의 흐름도이다.
도 35는 일부 실시 예에 따른 디바이스가 아바타 기반 이미지를 이용하여 정보를 수정 및/또는 추가하는 사용자 정보 관리 방법의 동작 흐름도이다.
도 36은 일부 실시 예에 따른 디바이스가 아바타 기반 이미지에서 선택된 오브젝트에 기초한 서비스를 제공할 수 있도록 사용자 정보를 관리하는 방법의 흐름도이다.
도 37은 일부 실시 예에 따른 디바이스가 디스플레이 되고 있는 아바타 기반의 이미지에 기초한 QA(Question & Answer) 서비스를 제공하는 사용자 정보 관리 방법의 흐름도이다.
도 38은 일부 실시 예에 따른 디바이스가 수신되는 질문 정보에 따른 답 정보를 제공하는 예이다.
도 39는 일부 실시 예에 따른 디바이스와 외부 디바이스에 기초한 사용자 정보 관리 방법의 흐름도이다.
도 40은 일부 실시 예에 따른 디바이스와 외부 디바이스에 기초한 사용자 정보 관리 방법의 흐름도이다.
도 41은 일부 실시 예에 따른 디바이스와 웨어러블 디바이스에 기초한 사용자 정보 관리 방법의 흐름도이다.
도 42는 일부 실시 예에 따른 디바이스와 웨어러블 디바이스에 기초한 사용자 정보 관리 방법의 흐름도이다.
도 43 및 도 44는 일부 실시 예에 따른 디바이스의 기능 블록도들이다.
도 45는 일부 실시 예들에 따른 제어부의 상세한 기능 블록도이다.
1 is an example in which a device according to some embodiments displays an avatar-based image according to the travel schedule information of a user.
2 is a flowchart of a method of managing user information in which a device according to some embodiments modifies user information using an avatar-based image according to user schedule information.
3 is an example of user modeling information for user schedule information generated by a device according to some embodiments.
4 is a diagram for explaining a relationship between a plurality of object information and a plurality of object images stored in a device according to some embodiments.
5A-5E illustrate an example in which a device according to some embodiments modifies an avatar-based image.
6A-6E are another example of a device according to some embodiments modifying an avatar-based image.
7 is a flowchart of a method of managing user information in which a device according to some embodiments adds user information using an avatar-based image according to user schedule information.
8A-8C are another example of a device according to some embodiments modifying an avatar-based image.
9 is a flowchart of a method for managing user information based on a plurality of avatar-based images according to user schedule information of a specific period according to some embodiments.
10 is an example of displaying a plurality of avatar-based images based on weekday user schedule information and weekend user schedule information by a device according to some embodiments.
11 is a flowchart of a method of managing user information in which a device according to some embodiments uses a plurality of avatar-based images based on theme item-based user schedule information.
12A to 12C are examples of modifying a plurality of avatar-based images for each theme item.
13 is a flowchart of a method of managing user information in which a device according to some embodiments manages the lifetime of an avatar-based image.
14 is a flowchart of a method of managing user information in which a device according to some embodiments uses an avatar-based image according to health information of a user.
15A to 15E are views illustrating an example in which a device according to some embodiments updates user information using an avatar-based image according to a user's health information.
16 is a flowchart of a method of managing user information based on an avatar-based image according to a user's future desired information according to some embodiments.
17A to 17D are diagrams for explaining a process in which a device according to some embodiments updates user schedule information based on an avatar-based image according to a user's future desired information.
18 is a flowchart of a method for managing user information based on a plurality of avatar-based images according to usage history information of a device according to some embodiments.
Figs. 19A and 19B are an example in which a device according to some embodiments provides a plurality of avatar-based images according to usage history information request of the device.
20 is a flowchart of a user information management method in which a device according to some embodiments uses an avatar-based image according to user information registered in social media.
21 is a block diagram of a user information management system including a device according to some embodiments.
22 is a flowchart illustrating a method for managing user information performed by a device according to some embodiments.
23A-23F are diagrams illustrating avatar-based images that a device according to some embodiments displays based on user information.
24A is an example of user modeling information for user information, in accordance with some embodiments.
24B is an example of a display size of an object included in an avatar-based image that can be displayed on a device according to some embodiments.
24C is a view for explaining a display size of an object included in an avatar-based image according to some embodiments.
25 shows an example of mapping information between an object image and object identification information according to some embodiments.
26 is a view for explaining a process of generating an avatar-based image using user modeling information and mapping information according to some embodiments.
Figures 27A-27F are examples of devices in accordance with some embodiments displaying modifiable objects.
Figure 28 is a flow diagram of a process in which a device according to some embodiments modifies an avatar-based image in accordance with user input.
29A-29E illustrate an example in which an object is modified based on a candidate object provided by a device according to some embodiments.
FIG. 30 is a flowchart illustrating a process in which a device according to some embodiments provides service information that can be provided for each object included in an avatar-based image.
Figs. 31A to 31D are examples of screens for explaining the user information management method shown in Fig. 30. Fig.
32 is an example of user modeling information updated by a device according to some embodiments.
33 is a flow diagram of a method in which a device according to some embodiments modifies an avatar-based image to manage user information.
34 is a flow diagram of a method in which a device according to some embodiments modifies an avatar-based image to manage user information.
35 is an operational flowchart of a method for managing user information in which a device according to some embodiments modifies and / or adds information using an avatar-based image.
36 is a flowchart of a method for managing user information so that a device according to some embodiments may provide a service based on an object selected in an avatar-based image.
37 is a flowchart of a user information management method for providing a QA (Question & Answer) service based on an avatar-based image on which a device according to some embodiments is being displayed.
FIG. 38 is an example in which a device according to some embodiments provides answer information according to question information to be received.
39 is a flowchart of a method of managing user information based on a device and an external device according to some embodiments.
40 is a flowchart of a method of managing user information based on a device and an external device according to some embodiments.
41 is a flowchart of a method of managing user information based on a device and a wearable device according to some embodiments.
42 is a flowchart of a method of managing user information based on a device and a wearable device according to some embodiments.
Figures 43 and 44 are functional block diagrams of a device according to some embodiments.
45 is a detailed functional block diagram of a control unit according to some embodiments.

이하, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나 본 발명은 이하 특정한 실시 예들로 한정되지 않으며, 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 이하 특정 실시 예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. BRIEF DESCRIPTION OF THE DRAWINGS The specific embodiments are illustrated and described in detail in the drawings below. It should be understood, however, that the invention is not limited to the specific embodiments described below, but includes all changes, equivalents, and alternatives falling within the spirit and scope of the invention. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the embodiments of the present general inventive concept, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout.

제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. The terms first, second, etc. may be used to describe various elements, but the elements should not be limited by terms. Terms are used only for the purpose of distinguishing one component from another.

명세서 전반에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 명세서 전반에서 사용한 용어는 그 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나 이는 당 분야에 종사하는 기술자의 의도, 판례, 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 선정한 용어에 대해 상세히 그 의미를 기재할 것이다. 따라서 명세서 전반에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 명세서 전반에 걸친 내용을 토대로 정의되어야 한다. The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. While the terms used throughout the specification have taken into account their function, they have chosen the general terms which are currently widely used, but may vary depending on the intentions, precedents, or emergence of new techniques employed by those skilled in the art. In addition, in certain cases, there may be a term arbitrarily selected by the applicant, in which case the meaning of the selected term will be described in detail. Therefore, terms used throughout the specification should be defined not based on the name of a simple term but on the meaning and meaning of the term throughout the specification.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expressions include plural expressions unless the context clearly dictates otherwise. It is to be understood that the terms "comprises", "having", and the like in the specification are intended to specify the presence of stated features, integers, steps, operations, elements, parts or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, parts, or combinations thereof.

본 개시에서 사용자 정보는 사용자 프로파일 정보를 포함할 수 있다. In the present disclosure, user information may include user profile information.

사용자 프로파일 정보는 사용자의 성별에 관한 정보를 포함할 수 있다. 사용자 프로파일 정보는 사용자의 이름에 관한 정보를 포함할 수 있다. 사용자 프로파일 정보는 사용자의 나이에 관한 정보 포함할 수 있다. 사용자 프로파일 정보는 사용자의 국적에 관한 정보를 포함할 수 있다. The user profile information may include information about the sex of the user. The user profile information may include information about the user's name. The user profile information may include information about the age of the user. The user profile information may include information about the nationality of the user.

또한, 사용자 프로파일 정보는 사용자가 현재 거주하는 지역에 관한 정보를 포함할 수 있다. 사용자 프로파일 정보는 사용자가 근무하는 회사명에 관한 정보를 포함할 수 있다. 사용자 프로파일 정보는, 사용자가 근무하는 회사의 위치에 관한 정보를 포함할 수 있다. 사용자 프로파일 정보는 사용자의 취미에 관한 정보를 포함할 수 있다. In addition, the user profile information may include information about the area in which the user currently resides. The user profile information may include information about the company name in which the user is working. The user profile information may include information about the location of the company where the user is working. The user profile information may include information about a user's hobby.

또한, 사용자 프로파일 정보는 사용자가 태어난 곳에 관한 정보를 포함할 수 있다. 사용자 프로파일 정보는 사용자의 직업에 관한 정보를 포함할 수 있다. 사용자 프로파일 정보는 사용자의 가족(예를 들어, 부모유무, 자녀유무 등에 관한 정보)에 관한 정보를 포함할 수 있다. 사용자 프로파일 정보는 사용자의 애완 동물(예를 들어, 애완동물 유무, 및 애완동물 종류 등)에 관한 정보를 포함할 수 있다. 사용자 프로파일 정보는 사용자의 관심사(예를 들어, 클래식 기타, 축구, 경제, 여행, 게임, 도서 등)에 관한 정보를 포함할 수 있다. 본 개시에서 사용자 프로파일 정보는 상술한 바로 제한되지 않는다. In addition, the user profile information may include information about where the user was born. The user profile information may include information about the user's job. The user profile information may include information about the user's family (e.g., information about the presence or absence of a parent, presence of a parent, etc.). The user profile information may include information about the user's pet (e.g., presence of pets, pet type, etc.). The user profile information may include information about the user's interests (e.g., classical guitar, soccer, economy, travel, games, books, etc.). The user profile information in the present disclosure is not limited to the above-mentioned ones.

또한, 사용자 프로파일 정보는 소셜 미디어(예를 들어, 페이스북, 트위터, 블로그, 유투브, 링크드 인 등)에 등록된 사용자 프로파일 정보(이하 소셜 미디어 프로파일 정보라고 약함)로 언급될 수 있다. In addition, the user profile information may be referred to as user profile information (hereinafter, abbreviated as social media profile information) registered in social media (e.g., Facebook, Twitter, blog, YouTube, LinkedIn, etc.).

소셜 미디어 프로파일 정보는 사용자가 포스팅한 문맥, 어휘, 이미지, 또는/및 태그를 분석하여 검출된 키워드, 사진, 장소, 시간 또는/및 이벤트(예를 들어, 사진 전시회, 미술 전시회, 야구 경기, 축구 경기, 콘서트, 또는 연극, 등)를 포함할 수 있으나 이로 제한되지 않는다. The social media profile information may be generated by analyzing the context, vocabulary, images, and / or tags posted by the user and storing the detected keywords, photos, places, time and / or events (e.g., photo exhibits, art exhibitions, A play, a concert, or a play, etc.).

본 개시에서 사용자 정보는 웹 사이트(예를 들어, 네이버, 다음, 네이트 등)에 등록된 사용자 정보(예를 들어, 회원 정보, 게임 레벨 정보, 물품 정보, 사용 내역 정보, 또는/및 게임에서 퀘스트(quest) 정보 등)를 포함할 수 있다. In the present disclosure, user information may include user information (e.g., membership information, game level information, article information, usage history information, and / or game information) registered in a web site (e.g., Naver, (quest information), and the like.

본 개시에서 사용자 정보는 디바이스에 설치된 애플리케이션에 각각 등록된 사용자 정보를 포함할 수 있다. 디바이스에 설치된 애플리케이션은, 예를 들어, 스케줄 관리 애플리케이션, 게임 애플리케이션, 서비스 센터 애플리케이션, 멤버쉽 애플리케이션, 고객 센터 애플리케이션, 마켓 애플리케이션, 라이프 로그 관리 애플리케이션, 지도 애플리케이션, 또는 장래 희망 정보 관리 애플리케이션(예를 들어, 버켓 리스트(bucket list) 관리 애플리케이션 또는 희망 사항 리스트(wish list) 관리 애플리케이션)을 포함할 수 있으나 본 개시에서 디바이스에 설치된 애플리케이션은 이로 제한되지 않는다. In the present disclosure, the user information may include user information registered respectively with an application installed in the device. An application installed in a device may be, for example, a schedule management application, a game application, a service center application, a membership application, a customer center application, a market application, a life log management application, a map application, A bucket list management application or a wish list management application), but the application installed in the device in this disclosure is not limited thereto.

본 개시에서 사용자 정보는 디바이스와 사용자간의 상호 작용에 의해 발생되거나 입출력되는 데이터에 기초하여 디바이스에 의해 획득되는 정보를 포함할 수 있다. In the present disclosure, the user information may include information obtained by the device based on data generated or input / output by the interaction between the device and the user.

디바이스에 의해 획득되는 정보는 검색 히스토리 정보를 포함할 수 있다. 디바이스에 의해 획득되는 정보는 메일 히스토리 정보를 포함할 수 있다. 디바이스에 의해 획득되는 정보는 메시지 히스토리(예를 들어, 단문 메시지, 멀티 메시지, 또는 음성 메시지 등) 정보를 포함할 수 있다. 디바이스에 의해 획득되는 정보는 브라우징 히스토리 정보를 포함할 수 있다. The information obtained by the device may include search history information. The information obtained by the device may include mail history information. The information obtained by the device may include information about the message history (e.g., short message, multi-message, or voice message). The information obtained by the device may include browsing history information.

또한, 디바이스에 의해 획득되는 정보는 소셜 미디어 사용 히스토리 정보(또는 소셜 네트워크 서비스 히스토리 정보)를 포함할 수 있다. 디바이스에 의해 획득되는 정보는 통화 히스토리 정보를 포함할 수 있다. 디바이스에 의해 획득되는 정보는 앨범 히스토리 정보를 포함할 수 있다. 디바이스에 의해 획득되는 정보는 네트워크 히스토리 정보를 포함할 수 있다. 디바이스에 의해 획득되는 정보는 컨텐츠 히스토리 정보를 포함할 수 있다. 디바이스에 의해 획득되는 정보는 상술한 바로 제한되지 않는다. In addition, the information obtained by the device may include social media usage history information (or social network service history information). The information obtained by the device may include call history information. The information obtained by the device may include album history information. The information obtained by the device may include network history information. The information obtained by the device may include content history information. The information obtained by the device is not limited to the above-mentioned ones.

검색 히스토리 정보는 디바이스에 설치된 검색 애플리케이션을 실행하면서 획득된 적어도 하나의 정보(예를 들어, 검색어(또는 질의어) 목록, 각 검색어별 검색 횟수, 검색 날짜, 또는 검색 결과의 갯수 등)를 포함할 수 있다. The search history information may include at least one piece of information (e.g., a list of search terms (or query terms), the number of searches per search term, the date of search, or the number of search results) have.

메일 히스토리 정보는 디바이스에 설치된 메일 애플리케이션을 실행하면서 획득된 적어도 하나의 정보(예를 들어, 송수신 메일 목록, 송수신 메일의 갯수, 지운 메일의 갯수, 송신자 목록, 송신자별 메일 송신 갯수, 수신자 목록, 수신자별 메일 수신 갯수, 또는 메일 송수신 날짜 등)을 포함할 수 있다. The mail history information includes at least one piece of information acquired while executing the mail application installed in the device (for example, transmission / reception mail list, number of transmission / reception mails, number of erased mails, sender list, Number of received emails, date of sending / receiving mail, etc.).

메시지 히스토리 정보는 디바이스에 설치된 메시지 애플리케이션을 실행하면서 획득된 적어도 하나의 정보(예를 들어, 송수신 메시지 목록, 송수신 메시지의 갯수, 삭제한 메시지의 갯수, 송신자 목록, 송신자별 메시지 송신의 갯수, 수신자 목록, 수신자별 메시지 수신의 갯수, 또는 메시지 송수신 날짜 등)를 포함할 수 있다. The message history information includes at least one piece of information acquired while executing a message application installed in the device (e.g., a list of transmission / reception messages, a number of transmission / reception messages, a number of deleted messages, a list of senders, Number of message recipients per recipient, date of sending and receiving messages, etc.).

브라우징 히스토리 정보는 디바이스에 설치된 브라우징 애플리케이션을 실행하면서 획득된 적어도 하나의 정보(예를 들어, URL(Uniform Resource Locator) 목록, URL별 접속 횟수, 또는 URL 링크 정보 등)를 포함할 수 있다. The browsing history information may include at least one piece of information (e.g., a URL (Uniform Resource Locator) list, a number of accesses per URL, URL link information, etc.) obtained while executing a browsing application installed in the device.

소셜 미디어 사용 히스토리 정보는 디바이스에 설치된 소셜 미디어 서비스 애플리케이션을 실행하면서 획득된 적어도 하나의 정보(예를 들어, 포스팅 횟수, 또는 댓글 횟수 등)를 포함할 수 있다. 예를 들어 소셜 미디어 사용 히스토리 정보는 사용자가 포스팅한 문맥, 어휘, 이미지, 또는/및 태그 중 적어도 하나의 분석에 의해 검출된 키워드, 사진, 장소, 시간 또는/및 이벤트(예를 들어, 사진 전시회, 미술 전시회, 야구 경기, 축구 경기, 콘서트, 또는 연극, 등) 중 적어도 하나에 기초한 히스토리 정보(예를 들어, 키워드 목록, 키워드별 발생 횟수, 장소 목록, 장소별 방문 횟수, 시간별 소셜 네트워크 서비스 기반 사용자의 활동 내용, 또는 이벤트별 관람 횟수 등)를 포함할 수 있다. The social media usage history information may include at least one piece of information (e.g., number of postings, number of comments, etc.) obtained while running the social media service application installed on the device. For example, the social media usage history information may include a keyword, a photo, a location, a time and / or an event (e.g., a photo exhibition) detected by analysis of at least one of the context, vocabulary, image, and / (E.g., a keyword list, a number of occurrences per keyword, a list of places, a number of visits per place, a time-based social network service based on at least one of a time, a baseball game, an art exhibition, a baseball game, a soccer game, a concert, The activity contents of the user, or the number of visits per event, etc.).

통화 히스토리 정보는 디바이스에 설치된 통화 애플리케이션을 실행하면서 획득된 적어도 하나의 정보(예를 들어, 영상 통화 횟수, 영상 통화 시간, 영상 통화 대상, 영상 통화 대상별 통화 횟수, 영상 통화 대상별 통화 시간, 음성 통화 횟수, 음성 통화 시간, 음성 통화 대상, 음성 통화 대상별 통화 횟수, 또는 음성 통화 대상별 통화 시간 등)를 포함할 수 있다. The call history information includes at least one piece of information acquired while executing the call application installed in the device (for example, the number of video calls, the video call time, the video call destination, the number of calls per video call destination, A voice call time, a voice call destination, a number of calls per voice call destination, or a call time per voice call destination, and the like).

앨범 히스토리 정보는 디바이스에 설치된 카메라 애플리케이션을 실행하면서 획득된 정지 영상 및/또는 동영상에 관한 정보(예를 들어, 촬영 장소, 촬영 대상 정보(예를 들어, 사람, 사물, 또는 동물 등), 또는 촬영 날짜 등)중 적어도 하나를 포함할 수 있다. The album history information includes information about a still image and / or a moving image obtained while executing a camera application installed in the device (for example, a photographing place, photographing object information (e.g., a person, an object, Date, etc.).

네트워크 히스토리 정보는 디바이스의 적어도 하나의 네트워크 연결 정보를 포함할 수 있다. 네트워크 연결 정보는, 예를 들어, 와이파이 사용 설정 여부, 와이파이 접속 횟수, 연결된 와이파이 기기의 이름, 와이파이 네트워크에 관한 정보, 블루투스 사용 설정 여부, 블루투스 접속 횟수, 연결된 블루투스 기기의 이름, 데이터 사용량, NFC 사용 설정 여부, NFC 사용 횟수, NFC 사용 내역, 비콘 접속 내역, 또는 지그비 접속 내역을 포함할 수 있으나 본 개시에서 네트워크 연결 정보는 이로 제한되지 않는다. The network history information may include at least one network connection information of the device. The network connection information includes, for example, whether Wi-Fi is enabled, the number of Wi-Fi connections, the name of a connected Wi-Fi device, information about the Wi-Fi network, whether or not Bluetooth is enabled, the number of Bluetooth connections, the name of the connected Bluetooth device, The NFC usage count, the NFC usage history, the beacon connection history, or the ZigBee connection history, but the network connection information in the present disclosure is not limited thereto.

컨텐츠 히스토리 정보는 디바이스를 이용하여 생성된 컨텐츠와 그에 관한 정보를 포함할 수 있다. 컨텐츠 히스토리 정보는 다른 디바이스와 공유되고 있는 컨텐츠와 그에 관한 정보를 포함할 수 있다. 컨텐츠 히스토리 정보는 다른 디바이스로 전송된 컨텐츠와 그에 관한 정보를 포함할 수 있다. The content history information may include content generated using the device and information about the content. The content history information may include content that is shared with other devices and information about the content. The content history information may include content transmitted to another device and information about the content.

또한, 컨텐츠 히스토리 정보는 다른 디바이스로부터 수신된 컨텐츠와 그에 관한 정보를 포함할 수 있다. 본 개시에서 컨텐츠 히스토리 정보는 상술한 바로 제한되지 않는다. 컨텐츠 히스토리 정보에 포함되는 컨텐츠에 관한 정보는, 예를 들어, 컨텐츠 생성 날짜, 컨텐츠의 데이터 량, 컨텐츠에 대한 검색 키워드, 컨텐츠를 생성한 디바이스의 이름, 컨텐츠를 송신한 디바이스의 이름, 또는 컨텐츠를 수신한 디바이스의 이름를 포함할 수 있다. In addition, the content history information may include content received from another device and information related thereto. The content history information in the present disclosure is not limited to the above-described ones. The information on the content included in the content history information includes, for example, a content creation date, a data amount of the content, a search keyword for the content, a name of the device that generated the content, a name of the device that transmitted the content, And may include the name of the received device.

본 개시에서 사용자 정보는 디바이스에 설정된 디바이스의 환경 정보를 포함할 수 있다. 디바이스의 환경 정보는, 예를 들어, 디바이스의 이름, 계정 정보, 백업 계정, 또는 외부 디바이스(또는 주변 기기)의 이름을 포함할 수 있으나 본 개시에서 디바이스의 환경 정보는 이로 제한되지 않는다. In the present disclosure, the user information may include environmental information of the device set in the device. The environmental information of the device may include, for example, the name of the device, the account information, the backup account, or the name of the external device (or peripheral), but the environmental information of the device is not limited in this disclosure.

본 개시에서 사용자 정보는 디바이스에 저장될 수 있다. 본 개시에서 사용자 정보는 디바이스에 연결된 적어도 하나의 외부 디바이스로부터 수신될 수 있다. 외부 디바이스는 웨어러블 디바이스(예를 들어, 스마트 워치, 스마트 글래스 등)를 포함할 수 있다. 외부 디바이스는 앱세서리(Appcessory)를 포함할 수 있다. 외부 디바이스는 의료기기를 포함할 수 있다. 외부 디바이스는 차량을 포함할 수 있다. 외부 디바이스는 서버(예를 들어, QA(Question & Answer) 서버, 또는 게임 서버)를 포함할 수 있다. 외부 디바이스는 IoT(Internet of Thing) 네트워크 기반 디바이스(이하, IoT 디바이스라고 약함)를 포함할 수 있다. 외부 디바이스는 IoT 네트워크 기반 센서(이하, IoT 센서라고 약함)를 포함할 수 있다. 외부 디바이스는 디바이스(예를 들어, 게임 콘솔 등)를 포함할 수 있다. In the present disclosure, user information may be stored in a device. In the present disclosure, user information may be received from at least one external device connected to the device. The external device may include a wearable device (e.g., smart watch, smart glass, etc.). The external device may include an appscessory. The external device may comprise a medical device. The external device may include a vehicle. The external device may include a server (e.g., a Question & Answer server, or a game server). The external device may include an Internet-of-Thing (IoT) network-based device (hereinafter referred to as IoT device). The external device may include an IoT network-based sensor (hereinafter, referred to as IoT sensor). The external device may include a device (e.g., a game console, etc.).

외부 디바이스로부터 제공되는 사용자 정보는 외부 디바이스에 의해 센싱된 값(또는 측정된 값)을 포함할 수 있다. 외부 디바이스로부터 제공되는 사용자 정보는 외부 디바이스에 의해 수집된 정보를 포함할 수 있다. 외부 디바이스에 의해 수집된 정보는 외부 디바이스에 의해 검출되거나 분석된 정보를 포함할 수 있다. 외부 디바이스로부터 제공되는 사용자 정보는 상술한 바로 제한되지 않는다. User information provided from an external device may include a value (or a measured value) sensed by an external device. The user information provided from the external device may include information collected by the external device. The information collected by the external device may include information detected or analyzed by the external device. The user information provided from the external device is not limited to the above-mentioned ones.

외부 디바이스에 의해 센싱된 값은 사용자의 헬스 정보를 포함할 수 있다. 외부 디바이스에 의해 센싱된 값은 사용자의 활동 정보를 포함할 수 있다. 외부 디바이스에 의해 센싱된 값은 상술한 바로 제한되지 않는다. The value sensed by the external device may include the health information of the user. The value sensed by the external device may include the activity information of the user. The values sensed by the external device are not limited to those described above.

사용자의 헬스 정보는 운동 시간에 관한 정보를 포함할 수 있다. 사용자의 헬스 정보는 운동기간동안 심박수에 관한 정보를 포함할 수 있다. 사용자의 헬스 정보는 운동기간동안 펄스 옥시미터(pulse oximetry)에 관한 정보를 포함할 수 있다. 사용자의 헬스 정보는 운동기간동안 칼로리 소모량에 관한 정보를 포함할 수 있다. 사용자의 헬스 정보는 운동기간동안 사용자의 이동 거리에 관한 정보를 포함할 수 있다. The user's health information may include information about exercise time. The user's health information may include information about the heart rate during the exercise period. The user's health information may include information about pulse oximetry during the exercise period. The user's health information may include information about calorie consumption during the exercise period. The health information of the user may include information on the movement distance of the user during the exercise period.

또한, 사용자의 헬스 정보는 운동기간동안 사용자의 피부의 온도에 관한 정보를 포함할 수 있다. 사용자의 헬스 정보는 하루의 사용자의 걸음 수에 관한 정보를 포함할 수 있다. 사용자의 헬스 정보는 운동기간동안 사용자의 전기 피부 반응(galvanic skin response)에 관한 정보를 포함할 수 있다. 사용자의 헬스 정보는 사용자의 수면 기간(duration of sleep)에 관한 정보를 포함할 수 있다. 사용자의 헬스 정보는 사용자의 수면 패턴(sleep patterns)에 관한 정보를 포함할 수 있다. 사용자의 헬스 정보는 사용자의 혈당량에 관한 정보를 포함할 수 있다. In addition, the user's health information may include information about the temperature of the user's skin during the exercise period. The health information of the user may include information on the number of steps of the user of the day. The user's health information may include information about the user's galvanic skin response during the exercise period. The user's health information may include information about a duration of sleep of the user. The user's health information may include information about sleep patterns of the user. The user's health information may include information on the blood sugar level of the user.

또한, 사용자의 헬스 정보는 의료 기기에 의해 센싱된 정보 또는 측정된 정보(예를 들어 체성분, 혈관나이, 혈압, 또는 경락 맥에 관한 정보 등)를 포함할 수 있다. The user's health information may also include information sensed by the medical device or measured information (e.g., body composition, blood vessel age, blood pressure, or information about the meridian vein, etc.).

사용자의 활동 정보는 걷기를 나타내는 정보를 포함할 수 있다. 사용자의 활동 정보는 달리기를 나타내는 정보를 포함할 수 있다. 사용자의 활동 정보는 머물기를 나타내는 정보를 포함할 수 있다. 사용자의 활동 정보는 잠자기를 나타내는 정보를 포함할 수 있다. The user's activity information may include information indicating walking. The user's activity information may include information indicating running. The activity information of the user may include information indicating stay. The activity information of the user may include information indicating sleep.

또한, 사용자의 활동 정보는 이동 수단(예를 들어, 승용차, 버스, 기차, 비행기, 또는 배 등)을 나타내는 정보를 포함할 수 있다. 사용자의 활동 정보는 한 장소에 사용자의 머문 시간을 나타내는 정보를 포함할 수 있다. 사용자의 활동 정보는 사용자가 자주 방문하는 장소에 관한 정보를 포함할 수 있다. In addition, the activity information of the user may include information indicating a moving means (for example, a passenger car, a bus, a train, an airplane, or a ship). The activity information of the user may include information indicating the user's staying time in one place. The user's activity information may include information about a place that the user frequently visits.

또한, 사용자의 활동 정보는 사용자가 자주 만나는 사람에 관한 정보를 포함할 수 있다. 사용자의 활동 정보는 사용자가 참여한 미팅에 관한 정보를 포함할 수 있다. 사용자의 활동 정보는 사용자가 참여한 모임에 관한 정보를 포함할 수 있다. 본 개시에서 사용자의 활동 정보는 상술한 바로 제한되지 않는다. 사용자의 활동 정보는 상술한 사용자의 헬스 정보의 일부(예를 들어, 운동 시간)를 포함할 수 있다. In addition, the activity information of the user may include information about the person that the user frequently meets. The user's activity information may include information about the meeting in which the user participates. The activity information of the user may include information about the meeting in which the user participates. In the present disclosure, the activity information of the user is not limited to the above-mentioned ones. The activity information of the user may include a part of the above-described user's health information (for example, exercise time).

외부 디바이스에 의해 수집되는 정보는 서버에 의해 수집되는 정보를 포함할 수 있으나 이로 제한되지 않는다. 서버에 의해 수집되는 정보는 사용자의 질문(Question)과 서치 결과를 매핑한 정보를 포함할 수 있다. 서버에 의해 수집되는 정보는 상술한 디바이스에 의해 획득되는 정보(예를 들어, 게임 레벨, 또는 운동 레벨 등)를 포함할 수 있다. 서버에 의해 수집되는 정보는 상술한 바로 제한되지 않는다. The information collected by the external device may include, but is not limited to, information collected by the server. The information collected by the server may include information that maps the user's Question and search results. The information collected by the server may include information (e.g., game level, motion level, etc.) obtained by the device described above. The information collected by the server is not limited to the one just described.

본 개시에서 사용자 정보는 사용자의 신체적인 정보를 포함할 수 있다. 또한, 사용자 정보는 사용자의 정신적인 정보를 포함할 수 있다. 사용자 정보는 사용자의 사회적 정보를 포함할 수 있다. 사용자 정보는 사용자의 스케줄 정보를 포함할 수 있다. 사용자 정보는 사용자의 장래 희망 정보(버켓 리스트, 또는 희망 사항 정보)를 포함할 수 있다. 사용자 정보는 디바이스에 대한 사용 기간별 사용 히스토리 정보를 포함할 수 있다. In the present disclosure, user information may include the user's physical information. In addition, the user information may include the mental information of the user. The user information may include the user's social information. The user information may include schedule information of the user. The user information may include the user's future desired information (bucket list, or desired information). The user information may include usage history information for the device for the usage period.

사용자의 신체적인 정보는 얼굴에 관한 정보(예를 들어, 얼굴 형, 눈동자 색깔, 코의 형태, 입의 형태, 눈의 형태, 또는/및 눈썹의 형태 등)를 포함할 수 있다. 사용자의 신체적인 정보는 사용자의 키에 관한 정보를 포함할 수 있다. 사용자의 신체적인 정보는 사용자의 머리 스타일(예를 들어, 짧은 머리, 긴 머리, 곱슬머리, 생머리, 또는 웨이브 등)에 관한 정보를 포함할 수 있다. 사용자의 신체적인 정보는 사용자의 인종 정보를 포함할 수 있다. 사용자의 신체적인 정보는 사용자의 몸무게 정보를 포함할 수 있다. 본 개시에서 사용자의 신체적인 정보는 상술한 바로 제한되지 않는다. 사용자의 신체적인 정보는, 예를 들어, 사용자의 성별에 관한 정보, 또는/및 사용자의 나이에 관한 정보를 포함할 수 있다. The user's physical information may include information about the face (e.g., face type, pupil color, nose shape, mouth shape, eye shape, and / or eyebrow shape, etc.). The user's physical information may include information about the user's key. The user's physical information may include information about the user's hair style (e.g., short hair, long hair, curly hair, straight hair, or wave, etc.). The user's physical information may include the user's race information. The user's physical information may include the user's weight information. In the present disclosure, the user's physical information is not limited to the above-mentioned ones. The user's physical information may include, for example, information about the user's gender, and / or information about the age of the user.

사용자의 정신적인 정보는 사용자의 기호에 관한 정보(예를 들어, 음식 기호 정보)를 포함할 수 있다. 사용자의 정신적인 정보는 사용자의 성향에 관한 정보(예를 들어, 북마크 정보, 자주 실행하는 애플리케이션 정보, 애플리케이션 실행 시간 정보, 도서 구매 기록 정보, 비디오 대여 기록 정보, 잡지 구독 정보, 음악 다운로드 정보, 또는/및 물품 구매 내역 정보 등과 같은 정보에 기초한 사용자의 성향 정보)를 포함할 수 있다. The mental information of the user may include information on the taste of the user (for example, food symbol information). The user's mental information may include information about the user's propensity (e.g., bookmark information, frequently running application information, application run time information, book purchase history information, video rental history information, magazine subscription information, And / or item purchase history information) based on the user's preference information.

또한, 사용자의 정신적인 정보는 사용자의 선호도에 관한 정보(예를 들어, 웹 사이트 검색 내역 정보, 또는/및 취미 정보 등과 같은 정보에 기초한 선호도 정보)를 포함할 수 있다. 사용자의 정신적인 정보는 사용자의 감정에 관한 정보(예를 들어, 기쁨, 슬픔, 공포, 분노, 놀람, 인사, 또는 혐오를 나타내는 정보)를 포함할 수 있다. 사용자의 정식적인 정보는 상술한 바로 제한되지 않는다. 예를 들어, 사용자의 정식적인 정보는 상술한 관심사에 관한 정보를 포함할 수 있다. In addition, the mental information of the user may include information on the user's preference (for example, preference information based on information such as website search history information and / or hobby information). The user's mental information may include information about the user's feelings (e.g., information indicating joy, sadness, fear, anger, surprise, greeting, or aversion). The formal information of the user is not limited to the above. For example, the user ' s formal information may include information regarding the above - mentioned concerns.

사용자의 사회적 정보는 사용자의 학력에 관한 정보를 포함할 수 있다. 사용자의 사회적 정보는 사용자의 직장에 관한 정보를 포함할 수 있다. 사용자의 사회적 정보는 사용자의 업무 내용에 관한 정보를 포함할 수 있다. 사용자의 사회적 정보는 사용자의 모임에 관한 정보를 포함할 수 있다. 본 개시에서 사용자의 사회적 정보는 상술한 바로 제한되지 않는다. The user's social information may include information about the education of the user. The user's social information may include information about the user's workplace. The user's social information may include information about the business contents of the user. The user's social information may include information about the user's meeting. In the present disclosure, the user's social information is not limited to the above-mentioned one.

사용자의 스케줄 정보는 스케줄 관리 애플리케이션을 이용하여 사용자에 의해 입력된 정보를 포함할 수 있으나 이로 제한되지 않는다. 사용자의 스케줄 정보는 사용자의 과거, 현재, 및 미래에 관한 정보를 포함할 수 있다. 사용자의 스케줄 정보는 시간, 요일, 월, 년, 및 계절중 적어도 하나에 기초한 사용자 정보를 포함할 수 있다. The user's schedule information may include, but is not limited to, information entered by a user using a schedule management application. The user's schedule information may include information about the user's past, present, and future. The user's schedule information may include user information based on at least one of time, day of week, month, year, and season.

사용자의 스케줄 정보는 테마 아이템에 기초하여 분류될 수 있다. 테마 아이템은, 예를 들어, 여행, 회사, 공부, 자전거, 회의, 데이트, 영화 관람, 운동, 쇼핑, 병원, 뷰티케어, 식사, 게임, 모임, 등산, 밤활동, 생일, 공연, 또는 출장 중에서 적어도 하나를 포함할 수 있다. 본 개시에서 테마 아이템은 이로 제한되지 않는다. The schedule information of the user can be classified based on the theme item. Theme items can be, for example, travel, company, study, bike, meeting, dating, movie viewing, athletics, shopping, hospital, beauty care, meals, games, meetings, climbing, night activities, birthdays, performances, And may include at least one. Theme items in the present disclosure are not limited thereto.

사용자 정보는 사용자의 PIMS(Personal Information Management Software)에 의해 관리되고 있는 사용자 정보의 전부 또는 일부를 포함할 수 있다. 사용자 정보는 사용자의 라이프 로그 정보에 포함된 정보의 전부 또는 일부중 적어도 하나를 포함할 수 있다. The user information may include all or some of the user information managed by the user's Personal Information Management Software (PIMS). The user information may include at least one or all of the information included in the user's life log information.

사용자 정보는 디바이스, 디바이스의 외부 디바이스, 또는 서비스 제공자의 목적(예를 들어, 사용자 맞춤형 서비스 제공)을 좀더 효과적으로 수행하기 위해 사용자 모델링 정보(User Modeling information) 또는 사용자 개인화 정보(User Personal Information) 형태로 표현될 수 있다. The user information may be provided in the form of user modeling information or user personal information to more effectively perform a purpose of the device, the device of the device, or the service provider (for example, providing a customized service) Can be expressed.

사용자 정보는 2차원 모델 또는 3차원 모델로 표현된 아바타 기반 이미지로 표현될 수 있다. 사용자 정보는 가상의 이미지, 가상 자아 그래픽 아이콘 등으로 표현될 수 있다. The user information can be represented as an avatar-based image expressed as a two-dimensional model or a three-dimensional model. The user information may be represented by a virtual image, a virtual self-graphic icon, or the like.

이하 첨부된 도면을 참고하여 본 개시를 상세하게 설명하기로 한다. The present disclosure will be described in detail below with reference to the accompanying drawings.

도 1은 일부 실시 예에 따른 디바이스(100)가 사용자의 여행 스케줄 정보에 따른 아바타 기반 이미지를 디스플레이 하고, 아바타 기반 이미지에서 수정 가능한 이미지를 나타내는 정보를 표시하는 일 례를 도시한 도면이다. 1 illustrates an example in which a device 100 according to some embodiments displays an avatar-based image according to a user's travel schedule information, and displays information indicating an adjustable image in an avatar-based image.

도 1을 참조하면, 디바이스(100)는 사용자의 여행 스케줄 정보에 따른 아바타 기반 이미지를 디스플레이 할 수 있다. 도 1에 도시된 아바타 기반 이미지는 여행 기간 정보(101), 사용자를 나타내는 아바타(102), 여행 장소에 대한 사진(103), 가방에 대한 그림(104), 여행 장소에 대한 사진(103)이 수정 가능한 이미지라는 것을 나타내는 정보(105), 가방에 대한 그림(104)이 수정 가능한 이미지라는 것을 나타내는 정보(106), 및 여행 기간 정보(101)가 수정 가능한 이미지라는 것을 나타내는 정보(107)를 포함한다. Referring to FIG. 1, the device 100 may display an avatar-based image according to travel schedule information of a user. The avatar-based image shown in Fig. 1 includes travel period information 101, an avatar 102 representing a user, a photograph 103 for a travel destination, a picture 104 for a bag, and a picture 103 for a travel destination Information 106 indicating that the picture 104 for the bag is a modifiable image and information 107 indicating that the travel period information 101 is a modifiable image do.

사용자의 여행 스케줄 정보에 따른 아바타 기반 이미지는 도 1에 도시된 바로 제한되지 않는다. 예를 들어, 사용자의 여행 스케줄 정보에 따른 아바타 기반 이미지는 복수의 여행 준비물에 관한 그림, 사진, 또는 텍스트를 포함할 수 있다. 사용자의 여행 스케줄 정보에 따른 아바타 기반 이미지는 여행 기간 정보(101)를 포함하지 않을 수 있다. 사용자의 여행 스케줄 정보에 따른 아바타 기반 이미지는 아바타(102)가 수정 가능한 이미지라는 것을 나타내는 정보를 더 포함할 수 있다. The avatar-based image according to the travel schedule information of the user is not limited to the one shown in Fig. For example, the avatar-based image according to the user's travel schedule information may include pictures, photographs, or text regarding a plurality of travel arrangements. The avatar-based image according to the travel schedule information of the user may not include the travel period information 101. [ The avatar-based image according to the travel schedule information of the user may further include information indicating that the avatar 102 is an editable image.

디바이스(100)는 도 1에 도시된 수정 가능한 이미지를 나타내는 정보들(105, 106, 107)을 다른 형태로 표시할 수 있다. 예를 들어, 디바이스(100)는 수정 가능한 이미지의 밝기를 일정한 주기 또는 가변 주기로 변경할 수 있다. 또한, 디바이스(100)는 수정 가능한 이미지를 하이라이트로 표시할 수 있다. The device 100 may display the information 105, 106, 107 representing the modifiable image shown in Fig. 1 in different forms. For example, the device 100 may change the brightness of the modifiable image to a constant or variable period. In addition, the device 100 may highlight the modifiable image.

디바이스(100)는 수정 가능한 이미지를 나타내기 위한 정보를 이미지에 따라 다르게 표시할 수 있다. 예를 들어, 디바이스(100)는 여행 장소에 대한 사진(103)을 일정 주기 또는 가변 주기로 밝기를 변경하고, 가방에 대한 그림(104)을 하이라이트 표시하고, 여행 기간 정보(101)를 주기적으로 깜빡일 수 있다. The device 100 may display information for indicating a correctable image differently depending on the image. For example, the device 100 may change the brightness of the picture 103 for the travel location at a fixed or variable period, highlight the picture 104 for the bag, periodically flicker the travel period information 101, Lt; / RTI >

도 2는 일부 실시 예에 따른 디바이스(100)가 사용자 스케줄 정보에 따른 아바타 기반 이미지를 디스플레이 하고, 디스플레이 되고 있는 아바타 기반 이미지를 수정하여 사용자 스케줄 정보를 업데이트 하는 사용자 정보 관리 방법의 흐름도이다. 2 is a flow diagram of a user information management method in which a device 100 according to some embodiments displays an avatar-based image in accordance with user schedule information and updates the user-schedule information by modifying the displayed avatar-based image.

단계 S201에서, 디바이스(100)는 사용자 스케줄 정보에 따라 아바타 기반 이미지를 디스플레이 한다. 사용자 스케줄 정보는 디바이스(100)에 설치된 스케줄 관리 애플리케이션에 저장된 정보일 수 있으나 이로 제한되지 않는다. 예를 들어, 사용자 스케줄 정보는 디바이스(100)에 연결된 외부 디바이스로부터 수신될 수 있다. In step S201, the device 100 displays the avatar-based image according to the user schedule information. The user schedule information may be information stored in the schedule management application installed in the device 100, but is not limited thereto. For example, the user schedule information may be received from an external device connected to the device 100.

디바이스(100)는 온톨리지(Ontology) 기반 사용자 모델링 정보에 따라 아바타 기반 이미지를 생성할 수 있다. 온톨리지는 단어(word)(또는 개념)와 단어간의 관계(또는 개념간의 관계)를 정형 어휘(formal language)로 서술할 수 있다. The device 100 may generate an avatar-based image according to ontology-based user modeling information. Ontologies can describe a word (or concept) and a relationship (or a relationship between concepts) to a word in a formal language.

정형 어휘는, 예를 들어, hasHobby, hasSize, isA, cause 등과 같은 어휘를 포함할 수 있으나 본 개시에서 정형 어휘는 이로 제한되지 않는다. hasHobby는 단어간의 관계가 취미라는 것을 나타내는 정형 어휘이다. hasSize는 단어간의 관계가 크기라는 것을 나타내는 정형 어휘이다. isA는 단어간의 포함관계를 나타내는 정형 어휘이다. Cause는 단어간의 인과 관계를 나타내는 정형 어휘이다. 예를 들어, “과로로 인해 휴식이 필요하다”는 것은 Cause를 이용하여 (과로, 휴식)으로 표현될 수 있다. Ordinary vocabularies may include vocabularies such as, for example, hasHobby, hasSize, isA, cause, etc., but the formal vocabulary is not limited in this disclosure. hasHobby is a formal vocabulary that indicates that the relationship between words is a hobby. hasSize is a formal vocabulary that indicates the relationship between words is a size. isA is a formal vocabulary that indicates the inclusion relation between words. Cause is a formal vocabulary that shows the causal relationship between words. For example, "breaks due to overwork" can be expressed using Cause (overwork, rest).

상술한 사용자 모델링 정보는 디바이스(100)에 연결될 수 있는 외부 디바이스에 의해 생성될 수 있다. The user modeling information described above may be generated by an external device that may be coupled to the device 100. [

도 3은 일부 실시 예에 따른 디바이스(100)가 생성한 사용자 스케줄 정보에 대한 사용자 모델링 정보의 예이다. FIG. 3 is an example of user modeling information for user schedule information generated by the device 100 according to some embodiments.

도 3을 참조하면, 사용자 모델링 정보는 RDF(Resource Description Framework) 언어로 생성된 예이다. 디바이스(100)는 OWL(Ontogogy Web Language), 또는 SWRL(Semantic Web Rule Language)에 의해 사용자 모델링 정보를 생성할 수 있다. Referring to FIG. 3, the user modeling information is generated in a Resource Description Framework (RDF) language. The device 100 may generate user modeling information by OWL (Ontology Web Language) or SWRL (Semantic Web Rule Language).

도 3을 참조하면, 사용자 모델링 정보는 서브젝트(subject) 필드, 프레디킷(predicate) 필드, 및 오브젝트 필드를 포함한다. 서브젝트 필드는 사용자 정보의 대상에 관한 필드이다. 도 3을 참조하면, 사용자 정보의 대상은 사용자 1(user_1)이다. 클래스(class)와 리소스(resource)를 이용하여 사용자 1(user_1)이 사람(person)임을 나타내고 있다. 리소스는 클래스를 인스턴스(instance)화 한 것이다. Referring to FIG. 3, the user modeling information includes a subject field, a predicate field, and an object field. The subject field is a field related to the subject of user information. Referring to FIG. 3, the object of user information is user 1 (user_1). Using the class and resource, user 1 is a person. A resource is an instance of a class.

도 3에 도시된 플레디킷 필드는 서브젝트 필드와 오브젝트 필드에 포함된 단어간의 관계를 나타내는 정형 어휘 필드이다. 도 3을 참조하면, 플레디킷 필드에 포함되는 정형 어휘는 성별에 관한 정형 어휘(성별), 스케줄에 관한 정형 어휘(여행), 준비에 관한 정형 어휘(준비)를 포함한다. 본 개시에서 플레디킷 필드에 포함되는 정형 어휘는 상술한 바로 제한되지 않는다. The field card field shown in FIG. 3 is a formal lexical field indicating the relationship between the words included in the subject field and the object field. Referring to FIG. 3, the formal vocabulary included in the field includes a formal vocabulary (sex) about a sex, a formal vocabulary (travel) about a schedule, and a formal vocabulary (preparation) about a preparation. The orthopedic vocabulary included in the field in the present disclosure is not limited to the above-described one.

디바이스(100)는 성별에 관한 정형 어휘에 의해 오브젝트 필드에 있는 여성을 사용자 1의 성별로 표현할 수 있다. 디바이스(100)는 스케줄에 관한 정형 어휘에 의해 오브젝트 필드에 있는 여행 장소 1 내지 여행 장소 5를 사용자 1의 여행 장소로 표현할 수 있다. 디바이스(100)는 여행 가방에 관한 정형 어휘에 의해 오브젝트 필드에 있는 준비물 1 내지 준비물 4를 사용자 1의 여행 준비물로 표현할 수 있다. The device 100 can express the woman in the object field by the sex of the user 1 by the formal vocabulary concerning the sex. The device 100 can express the travel location 1 to the travel location 5 in the object field as the travel location of the user 1 by the fixed vocabulary relating to the schedule. The device 100 can express the preparations 1 to 4 in the object field as the travel preparations of the user 1 by the fixed vocabulary relating to the suitcase.

디바이스(100)는 사용자 모델링 정보에 포함된 오브젝트 필드의 오브젝트 정보(도 2에 도시된 여자, 여행 장소 1 ~ 여행 장소 5, 준비물 1 ~ 4)를 이용하여 아바타 기반 이미지를 생성할 수 있다. 오브젝트 필드의 정보는 아바타 기반 이미지를 생성하기 위한 식별 정보로 이용될 수 있다. The device 100 may generate an avatar-based image using the object information of the object field included in the user modeling information (female, travel location 1 to travel location 5, and preparations 1 to 4 shown in FIG. 2). The information of the object field may be used as identification information for generating an avatar-based image.

아바타 기반 이미지를 생성하기 위하여, 디바이스(100)는 복수의 오브젝트 이미지를 저장할 수 있다. 복수의 오브젝트 이미지는 디바이스(100)와 연결 가능한 외부 디바이스에 저장될 수 있다. In order to create an avatar based image, the device 100 may store a plurality of object images. A plurality of object images may be stored in an external device connectable with the device 100.

복수의 오브젝트 이미지는 도 3에 도시된 오브젝트 필드에 포함되는 오브젝트 정보의 수에 대응되는 이미지를 포함할 수 있다. 복수의 오브젝트 이미지는 아바타, 사진, 동영상, 그림, 또는/및 캐릭터를 포함할 수 있으나 본 개시에서 복수의 오브젝트 이미지는 이로 제한되지 않는다. The plurality of object images may include an image corresponding to the number of object information included in the object field shown in FIG. The plurality of object images may include avatars, pictures, movies, pictures, and / or characters, but the plurality of object images in the present disclosure are not limited thereto.

도 4는 일부 실시 예에 따른 디바이스(100)에 저장되어 있는 복수의 오브젝트 정보와 복수의 오브젝트 이미지간의 관계를 설명하기 위한 도면이다. 4 is a diagram for explaining a relationship between a plurality of object information and a plurality of object images stored in the device 100 according to some embodiments.

도 4를 참조하면, 오브젝트 필드에 포함된 각 오브젝트 정보는 대응되는 오브젝트 이미지를 갖는다. 디바이스(100)는 오브젝트 정보를 식별 정보로 하여 오브젝트 이미지를 디바이스(100)의 메모리로부터 읽을 수 있다. 도 4에 도시된 복수의 오브젝트 정보와 그에 대응되는 오브젝트 이미지가 디바이스(100)에 연결된 외부 디바이스에 저장된 경우에, 디바이스(100)는 오브젝트 정보를 이용하여 외부 디바이스로부터 오브젝트 이미지를 수신할 수 있다. Referring to FIG. 4, each object information included in the object field has a corresponding object image. The device 100 can read the object image from the memory of the device 100 using the object information as identification information. When a plurality of pieces of object information shown in FIG. 4 and an object image corresponding thereto are stored in an external device connected to the device 100, the device 100 can receive the object image from the external device using the object information.

디바이스(100)는 생성된 오브젝트 이미지를 결합하여 도 1에 도시된 바와 같은 하나의 아바타 기반 이미지를 생성하여 디스플레이 할 수 있다. The device 100 may combine the generated object images to create and display one avatar-based image as shown in FIG.

한편, 단계 S202에서, 디바이스(100)는 도 1에 도시된 바와 같이 디스플레이되고 있는 아바타 기반 이미지에 대한 수정 요청을 나타내는 사용자 입력을 수신할 수 있다. 사용자 입력은 터치 기반 사용자 입력, 사용자의 음성 기반 사용자 입력, 또는 사용자의 제스처 기반 사용자 입력을 포함할 수 있으나, 본 개시에서 사용자 입력은 이로 제한되지 않는다. Meanwhile, in step S202, the device 100 may receive a user input indicating a modification request for the avatar-based image being displayed as shown in Fig. The user input may include a touch-based user input, a user's voice-based user input, or a user's gesture-based user input, but the user input is not limited in this disclosure.

도 5a 내지 도 5e는 일부 실시 예에 따른 디바이스(100)가 아바타 기반 이미지를 수정하는 일 예를 도시한다. 도 5a 내지 도 5e는 여행 준비물을 수정하는 예이다. 5A-5E illustrate an example in which a device 100 according to some embodiments modifies an avatar-based image. Figures 5A-5E are examples of modifications to travel arrangements.

도 5a를 참조하면, 가방에 대한 그림(104)이 수정 가능한 이미지라는 것을 나타내는 정보(106)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 도 5b에 도시된 바와 같이 가방에 넣을 준비물 1 내지 준비물 4(501 ~ 504)에 대한 이미지를 아바타 기반 이미지와 함께 디스플레이 한다. 또한, 디바이스(100)는 수정 버튼(505), 추가 버튼(506), 또는/및 완료 버튼(507)을 디스플레이 할 수 있다. 5A, when a user input is received indicating a selection for the information 106 indicating that the picture 104 for the bag is a modifiable image, the device 100 may be placed in a bag as shown in FIG. The images of the preparations 1 to 4 (501 to 504) are displayed together with the avatar-based image. In addition, the device 100 may display a modify button 505, an add button 506, and / or a done button 507.

도 5b에서 수정 버튼(505)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 도 5c에 도시된 바와 같이 준비물 1 내지 준비물 4(501 ~ 504)의 표시 상태를 변경한다. 이에 따라 사용자는 준비물 1 내지 준비물 4(501 ~ 504)가 수정 가능한 상태임을 알 수 있다. 5B, when the user input indicating the selection of the modification button 505 is received, the device 100 changes the display states of the preparations 1 to 4 (501 to 504) as shown in FIG. 5C. Accordingly, the user can know that preparations 1 to 4 (501 to 504) are in an editable state.

도 5c에서 준비물 1(501)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 도 5d에 도시된 바와 같이 준비물 1(501)에 대한 상세 정보를 디스플레이 한다. 5C, when the user input indicating the selection of the first item 501 is received, the device 100 displays detailed information about the first item 501 as shown in FIG. 5D.

도 5d를 참조하면, 준비물 1(501)에 대한 상세 정보는 준비물 1(501)에 인접한 위치에 팝업 창(508)을 디스플레이 하여 제공할 수 있으나 본 개시는 이로 제한되지 않는다. 팝업 창(508)을 통해 제공되는 상세 정보는 준비물 1(501)에 대한 상세한 정보이므로, 사용자는 팝업 창(508)을 통해 제공되는 상세 정보를 보면서, 준비물 1(501)을 삭제하거나 수정할 수 있다. 디바이스(100)는 상세 정보를 팝업 창(508)의 형태가 아니 다른 디스플레이 영역에 디스플레이 할 수 있다. 예를 들어, 여행 기간 정보(101)가 디스플레이 되고 있는 영역을 이용하여 상세 정보를 디스플레이 할 수 있다. Referring to FIG. 5D, detailed information on the provision item 1 501 may be displayed by providing a pop-up window 508 at a position adjacent to the provision item 1 501, but the present disclosure is not limited thereto. Since the detailed information provided through the pop-up window 508 is detailed information on the first item 501, the user can delete or modify the first item 501 while watching the detailed information provided through the pop-up window 508 . The device 100 may display the detailed information in a display area other than the form of the pop-up window 508. [ For example, detailed information can be displayed using the area in which the travel period information 101 is displayed.

상세 정보를 디스플레이 하고 있는 팝업 창(508)을 클릭하면, 디바이스는 보다 상세한 정보를 디스플레이 할 수 있다. 디바이스(100)는 다른 페이지를 이용하여 보다 상세한 정보 제공할 수 있다. 다른 페이지를 이용하여 보다 상세한 정보를 제공할 경우에, 디바이스(100)는 도 5e에 도시된 화면을 보다 상세한 정보를 제공하는 페이지로 전환할 수 있다. By clicking on the pop-up window 508 displaying the detailed information, the device can display more detailed information. The device 100 can provide more detailed information using another page. In the case of providing more detailed information using another page, the device 100 can switch the screen shown in FIG. 5E to a page providing more detailed information.

도 6a 내지 도 6e는 일부 실시 예에 따른 디바이스(100)가 아바타 기반 이미지를 수정하는 다른 예이다. 도 6a 내지 도 6e는 여행 경로를 수정하는 예이다. 6A-6E are further examples of device 100 according to some embodiments modifying an avatar-based image. Figs. 6A to 6E show an example of correcting the travel route.

도 6a를 참조하면, 상술한 정보(105)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 도 6b에 도시된 바와 같이 여행 장소 1 내지 5를 나타내는 이미지(601 ~ 605)와 여행 순서를 나타내는 정보(화살표)를 아바타 기반 이미지와 함께 디스플레이 한다. 이미지(601~ 605)는 텍스트 정보를 포함할 수 있다. 텍스트 정보는 여행지 명을 포함할 수 있다. 이미지(601 ~ 605)는 여행지 심볼, 마크, 아이콘, 또는 대표 이미지에 관한 썸네일을 포함할 수 있다. 6A, when a user input indicating a selection for the above-described information 105 is received, the device 100 displays images 601 through 605 representing travel locations 1 through 5, as shown in FIG. 6B, (Arrow) indicating the order is displayed together with the avatar-based image. Images 601 through 605 may include textual information. The text information may include the name of the travel destination. Images 601-605 may include thumbnails of travel symbols, marks, icons, or representative images.

도 6b를 참조하면, 디바이스(100)는 아바타 기반 이미지에 포함되어 있는 여행 장소에 관한 사진(103)이 여행 장소 1에 대응되는 것이라는 것을 사용자가 쉽게 알 수 있도록, 여행 장소 1을 나타내는 이미지(601)를 여행 장소 2 내지 5를 나타내는 이미지(602 ~ 605)와 구별되게 표시한다. 예를 들어, 도 6b에서, 디바이스(100)는 여행 장소 1을 나타내는 이미지(601)를 하이라이트로 표시할 수 있다. Referring to FIG. 6B, the device 100 displays an image 601 representing travel location 1 so that the user can easily recognize that the photo 103 related to the travel location included in the avatar- ) From the images 602 to 605 indicating the travel locations 2 to 5, respectively. For example, in FIG. 6B, the device 100 may highlight the image 601 representing the travel location 1.

디바이스(100)는 수정 버튼(606), 추가 버튼(607), 또는/및 완료 버튼(608)을 아바타 기반 이미지와 함께 디스플레이 할 수 있다. 완료 버튼(608)은 디바이스(100)에 디스플레이 되고 있는 아바타 기반 이미지에 대한 수정 또는/및 추가 동작 완료를 나타내는 사용자 입력을 수신할 수 있는 버튼이다. The device 100 may display the modify button 606, the add button 607, and / or the done button 608 along with the avatar based image. The completion button 608 is a button that can receive user input indicating completion of the modification and / or additional operation for the avatar-based image being displayed on the device 100. [

도 6b에서 수정 버튼(606)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 도 6c에 도시된 바와 같이 여행 장소 1 내지 여행 장소 5를 나타내는 이미지(601 ~ 605)의 표시 상태를 변경한다. 이에 따라 사용자는 여행 장소 1 내지 여행 장소 5를 나타내는 이미지(601 ~ 605)가 수정 가능한 상태임을 쉽게 알 수 있다. 6B, when the user input indicating the selection of the modification button 606 is received, the device 100 displays the display states of the images 601 to 605 indicating the travel location 1 to the travel location 5 as shown in FIG. 6C Change it. Accordingly, the user can easily recognize that the images 601 to 605 indicating the travel locations 1 to 5 can be modified.

도 6d에서 여행 장소 1을 나타내는 이미지(601)를 여행 장소 2를 나타내는 이미지(602)로의 이동을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 도 6d에 도시된 바와 같이 여행 장소 1에 기초한 여행 장소에 대한 사진(103)을 여행 장소 2에 대응되는 여행 장소에 대한 사진(609)으로 변경하면서, 여행 장소 1 내지 5를 나타내는 이미지(601 ~ 605)의 배열을 도 6e에 도시된 바와 같이 변경한다. 이에 따라, 사용자는 여행 장소 2를 가장 먼저 방문하는 것으로, 여행 경로가 변경된 것을 확인할 수 있다. 6D, when the user input indicating the movement of the image 601 representing the travel location 1 to the image 602 representing the travel location 2 is received, the device 100 displays the travel based on the travel location 1 The arrangement of the images 601 to 605 indicating the travel destinations 1 to 5 is changed as shown in Fig. 6E while the photograph 103 about the place is changed to the photograph 609 for the travel place corresponding to the travel place 2. [ do. Accordingly, the user first visits the travel location 2 and can confirm that the travel route has been changed.

도 6e에 도시된 변경된 여행 경로를 확인 한 후, 완료 버튼(608)을 선택함에 따라, 단계 S203에서, 디바이스(100)는 도 6e에 도시된 바와 같이 여행 장소 2 -> 여행 장소 1 -> 여행 장소 3 -> 여행 장소 4 -> 여행 장소 5 순으로 여행 스케줄 정보가 변경되도록, 아바타 기반 이미지에 따라 여행 스케줄 정보를 업데이트 한다. After confirming the changed travel route shown in FIG. 6E, the user selects the completion button 608, and at step S203, the device 100 transmits the travel location 2 -> travel location 1 -> travel The travel schedule information is updated according to the avatar-based image so that the travel schedule information is changed in the order of location 3 -> travel place 4 -> travel place 5.

도 7은 일부 실시 예에 따른 디바이스(100)가 사용자 스케줄 정보에 따른 아바타 기반 이미지를 디스플레이 하고, 디스플레이 되고 있는 아바타 기반 이미지에 기초하여 정보를 추가함에 따라 사용자 스케줄 정보를 업데이트 하는 사용자 정보 관리 방법의 흐름도이다. 7 illustrates an example of a user information management method for updating the user schedule information as the device 100 according to some embodiments displays an avatar based image according to user schedule information and adds information based on the displayed avatar based image FIG.

도 7를 참조하면, 단계 S701에서, 디바이스(100)는 사용자 스케줄 정보에 따른 아바타 기반 이미지를 디스플레이 한다. 디바이스(100)는 상술한 단계 S201에서와 같이 사용자 스케줄 정보에 따른 아비타 기반 이미지를 디스플레이 할 수 있다. Referring to FIG. 7, in step S701, the device 100 displays an avatar-based image according to user schedule information. The device 100 can display the avatar-based image according to the user schedule information as in the above-described step S201.

단계 S702에서, 추가를 나타내는 사용자 입력이 수신되면, 디바이스(100)는 입력 창을 디스플레이 한다. 디바이스(100)는 입력 창을 독립된 창으로 디스플레이 할 수 있다. In step S702, when a user input indicating addition is received, the device 100 displays an input window. The device 100 may display the input window as an independent window.

단계 S703에서, 입력 창을 통해 정보가 수신되면, 디바이스(100)는 수신되는 정보에 대응되는 이미지를 아바타 기반 이미지에 추가한다. 예를 들어 수신되는 정보가 여권이면, 디바이스(100)는 여권에 대응되는 이미지를 아바타 기반 이미지에 추가할 수 있다. 이를 위하여, 디바이스(100)는 수신되는 정보에 대응될 수 있는 이미지를 사전에 저장할 수 있다. 수신되는 정보에 대응될 수 있는 이미지는 디바이스(100)에 연결 가능한 외부 디바이스에 저장될 수 있다. 수신되는 정보에 대응되는 이미지는 각각 검색 키워드 또는 검색 식별 정보가 할당될 수 있다. 디바이스(100)는 상술한 검색 키워드 또는 검색 식별 정보를 이용하여 수신되는 정보에 대응되는 이미지를 검색할 수 있다.In step S703, when the information is received through the input window, the device 100 adds the image corresponding to the received information to the avatar-based image. For example, if the received information is a passport, the device 100 may add an image corresponding to the passport to the avatar based image. To this end, the device 100 may pre-store an image that may correspond to the received information. An image, which may correspond to the information received, may be stored in an external device connectable to the device 100. Images corresponding to the received information may be assigned search keywords or search identification information, respectively. The device 100 can search for an image corresponding to the received information using the search keyword or the search identification information described above.

디바이스(100)는 수신되는 정보에 대해 한 글자(또는 하나의 알파벳)단위로 대응될 수 있는 적어도 하나의 후보 이미지(또는 복수 후보 이미지)를 검색하여 제공할 수 있다. 후보 이미지에 대한 선택 신호가 수신되면, 디바이스(100)는 선택된 후보 이미지를 아바타 기반 이미지에 추가할 수 있다. The device 100 may search for and provide at least one candidate image (or a plurality of candidate images) that can be corresponded to a single character (or one alphabet) unit with respect to the received information. When a selection signal for the candidate image is received, the device 100 may add the selected candidate image to the avatar-based image.

단계 S704에서, 추가된 이미지를 포함하는 아바타 기반 이미지에 따라 디바이스(100)는 사용자 스케줄 정보를 업데이트 한다. In step S704, the device 100 updates the user schedule information according to the avatar-based image including the added image.

도 8a 내지 도 8c는 일부 실시 예에 따른 디바이스(100)가 아바타 기반 이미지를 수정하는 다른 예이다. 도 8a 내지 도 8c는 준비물을 추가하는 예이다. 8A-8C are further examples of device 100 according to some embodiments modifying an avatar-based image. 8A to 8C show an example of adding a preparation.

도 8a에서 추가 버튼(506)에 기초한 정보 추가를 나타내는 사용자 입력이 수신되면, 디바이스(100)는 도 8b에 도시된 바와 같이 입력 창(801)을 디스플레이 한다. 입력 창(801)을 통해 준비물 5에 대한 정보를 입력하고, 입력을 나타내는 버튼(802)을 선택하는 사용자 입력이 수신되면, 디바이스(100)는 도 8c에 도시된 바와 같이 준비물 5에 대응되는 이미지(803)를 아바타 기반 이미지에 추가한다. When a user input indicating addition of information based on the add button 506 is received in Fig. 8A, the device 100 displays the input window 801 as shown in Fig. 8B. When the user inputs information on the preparation item 5 through the input window 801 and selects a button 802 indicating the input, the device 100 displays the image corresponding to the preparation item 5 as shown in FIG. 8C, (803) to the avatar-based image.

디바이스(100)는 추가된 이미지(803)가 다른 이미지들(501 ~ 504)과 구별될 수 있도록 표시할 수 있다. 이에 따라 사용자는 준비물 5에 대응되는 이미지(803)가 추가된 것을 쉽게 알 수 있다. The device 100 may display the added image 803 so that it can be distinguished from other images 501 to 504. [ Accordingly, the user can easily recognize that the image 803 corresponding to the preparation item 5 is added.

도 8c에서 완료 버튼(507)을 선택하는 사용자 입력이 수신되면, 디바이스(100)는 준비물 5에 대응되는 이미지(803)가 추가된 아바타 기반 이미지에 따라 사용자 스케줄 정보를 업데이트 한다. 이에 따라 사용자 스케줄 정보에 포함된 A 여행에 준비물 1 ~ 4 (501 ~ 504)는 준비물 1 ~ 5(501 ~ 504, 803)로 변경된다. 8C, the device 100 updates the user schedule information according to the avatar-based image to which the image 803 corresponding to the provision item 5 is added. Accordingly, preparations 1 to 4 (501 to 504) included in the user schedule information are changed to preparations 1 to 5 (501 to 504 and 803).

도 9는 일부 실시예에 따른 디바이스(100)가 특정 기간의 사용자 스케줄 정보에 따른 복수의 아바타 기반 이미지를 디스플레이 하고, 아바타 기반 이미지 수정에 따라 사용자 스케줄 정보를 업데이트 하는 사용자 정보 관리 방법의 흐름도이다. 9 is a flowchart of a method of managing user information in which a device 100 according to some embodiments displays a plurality of avatar-based images according to user schedule information for a specific period of time and updates user schedule information according to the avatar-based image modification.

단계 S901에서, 디바이스(100)는 특정 기간의 사용자 스케줄 정보 요청을 나타내는 사용자 입력을 수신한다. 특정 기간은 날짜 정보에 기초하여 설정될 수 있다. 특정 기간은 요일 기반으로 설정될 수 있다. 특정 기간은 주단위로 설정될 수 있다. 특정 기간은 시간을 기잔으로 설정될 수 있다. 본 개시에서 특정 기간은 상술한 바로 제한되지 않는다. In step S901, the device 100 receives a user input indicating a user schedule information request for a specific period. The specific period may be set based on the date information. The specific period may be set on a day-of-week basis. The specific period can be set on a weekly basis. A specific period can be set to be a time period. The specific period in this disclosure is not limited to the above-mentioned one.

단계 S902에서, 평일 및 주말 사용자 스케줄 정보에 따른 복수의 아바타 기반 이미지를 디스플레이 한다. 평일 및 주말은 상술한 특정 기간에 포함된 평일 및 주말이 된다. 예를 들어, 특정 기간이 2015년 2월 2일부터 2월 15일까지 인 경우에, 디바이스(100)는 2월 2일부터 2월 6일까지 평일 사용자 스케줄 정보에 따른 아바타 기반 이미지, 2월 7일부터 2월 8일까지 주말 사용자 스케줄 정보에 따른 아바타 기반 이미지, 2월 9일부터 2월 13일까지 평일 사용자 스케줄 정보에 따른 아바타 기반 이미지, 2월 14일부터 2월 15일까지 주말 사용자 스케줄 정보에 따른 아바타 기반 이미지를 각각 디스플레이 할 수 있다. In step S902, a plurality of avatar-based images corresponding to the weekday and weekend user schedule information are displayed. Weekdays and weekends are weekdays and weekends included in the above-mentioned specific period. For example, if the specific period is from Feb. 2, 2015 to Feb. 15, 2015, the device 100 will display an avatar-based image according to weekday user schedule information from February 2 to February 6, Avatar based image according to weekday user schedule information from 7th to 8th of February, avatar based image according to weekday user schedule information from Feb. 9 to Feb. 13, weekend user from Feb. 14 to Feb. 15 Based images according to the schedule information.

복수의 아바타 기반 이미지가 디스플레이 되고 있을 때, 단계 S903에서 수정을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 아바타 기반 이미지를 수정한다. When a plurality of avatar-based images are being displayed, the device 100 modifies the avatar-based image when a user input indicating modification is received in step S903.

단계 S904에서, 수정된 이미지를 포함하는 아바타 기반 이미지에 따라 디바이스(100)는 사용자 스케줄 정보를 업데이트 할 수 있다. In step S904, the device 100 may update the user schedule information according to the avatar-based image including the modified image.

도 10은 일부 실시 예에 따른 디바이스(100)에 의해 평일 사용자 스케줄 정보에 기초한 아바타 기반 이미지(1001)와 주말 사용자 스케줄 정보에 기초한 아바타 기반 이미지(1002)를 함께 디스플레이 하는 예이다. Figure 10 is an example of displaying an avatar based image 1001 based on weekday user schedule information and an avatar based image 1002 based on weekend user schedule information together by the device 100 according to some embodiments.

도 11은 일부 실시 예에 따른 디바이스(100)가 특정 기간의 사용자 스케줄 정보 요청에 따라 테마 아이템별 사용자 스케줄 정보에 따라 복수의 아바타 기반 이미지를 디스플레이 하고, 디스플레이 되고 있는 아바타 기반 이미지를 수정하여 사용자 스케줄 정보를 업데이트 하는 사용자 정보 관리 방법의 흐름도이다. FIG. 11 is a flowchart illustrating a method of displaying a plurality of avatar-based images according to theme item-based user schedule information according to a user schedule information request of a specific period, And a user information management method for updating information.

도 11을 참조하면, 단계 S1101에서 특정 기간의 사용자 스케줄 정보 요청을 나타내는 사용자 입력을 수신하면, 디바이스(100)는 단계 S1102에서 테마 아이템별 사용자 스케줄 정보에 따른 복수의 아바타 기반 이미지를 디스플레이 한다. 테마 아이템은 특정 기간의 사용자 스케줄 정보에 포함되는 테마 아이템을 말한다. Referring to FIG. 11, in step S1101, the device 100 displays a plurality of avatar-based images corresponding to the theme schedule-specific user schedule information in step S1102 upon receiving a user input indicating a user schedule information request for a specific period. The theme item refers to a theme item included in the user schedule information of a specific period.

단계 S1103에서, 디바이스(100)는 수정을 나타내는 사용자 입력에 따라 아바타 기반 이미지를 수정한다. 단계 S1104에서, 디바이스(100)는 수정된 이미지를 포함하는 아바타 기반 이미지에 따라 사용자 스케줄 정보를 업데이트 한다. In step S1103, the device 100 modifies the avatar-based image according to the user input indicating the modification. In step S1104, the device 100 updates the user schedule information according to the avatar-based image including the modified image.

도 12a 내지 도 12c는 도 11에서 언급된 특정 기간의 사용자 스케줄 정보에 포함된 테마 아이템별 복수의 아바타 기반 이미지를 디스플레이하고, 디스플레이 되고 있는 아바타 기반 이미지를 수정하는 예이다. FIGS. 12A to 12C show an example of displaying a plurality of avatar-based images for each theme item included in the user schedule information for the specific period mentioned in FIG. 11 and modifying the avatar-based image being displayed.

도 12a를 참조하면, 디바이스(100)는 2015년 2월 1일부터 2015년 2월 8일까지 테마 아이템별 복수의 아바타 기반 이미지들(1201, 1202, 1203, 1204)을 함께 디스플레이 한다. Referring to FIG. 12A, the device 100 displays a plurality of avatar-based images 1201, 1202, 1203, and 1204 for each theme item from February 1, 2015 to February 8, 2015.

도 12a를 참조하여, 복수의 아바타 기반 이미지들(1201, 1202, 1203, 1204)중에서 도 12b에 도시된 바와 같이 하나의 아바타 기반 이미지(1201)를 선택하는 사용자 입력이 수신되면, 디바이스(100)는 도 12c에 도시된 바와 같이 선택된 아바타 기반 이미지(1201)를 전 화면으로 확대하여 디스플레이 할 수 있다. 12A, when a user input for selecting one avatar-based image 1201 is received from among a plurality of avatar-based images 1201, 1202, 1203, and 1204 as shown in FIG. 12B, The avatar-based image 1201 may be enlarged and displayed on the entire screen as shown in FIG. 12C.

도 12c를 참조하면, 아바타 기반 이미지(1201)에 수정 버튼(1202), 추가 버튼(1203), 및/또는 완료 버튼(1204)을 포함할 수 있다. 도 12c에서 수정의 범위는 자전거 타기를 다른 테마 아이템(또는 다른 사용자 액티비티)로 변경하거나 자전거 타기를 취소하는 것을 포함할 수 있으나 본 개시에서 수정의 범위는 상술한 바로 제한되지 않는다. 자전거 타기를 잠자기로 변경할 경우에, 디바이스(100)는 아바타 기반 이미지(1201)를 도 12a에 도시된 아바타 기반 이미지(1204)로 변경할 수 있다. Referring to FIG. 12C, the avatar-based image 1201 may include an edit button 1202, an add button 1203, and / or a finish button 1204. The scope of modification in Figure 12c may include changing the bike ride to another theme item (or other user activity) or canceling the bike ride, but the scope of the modifications in this disclosure is not limited to the one just described. When changing the bike ride to sleep, the device 100 may change the avatar-based image 1201 to the avatar-based image 1204 shown in Fig. 12A.

도 12c에서 추가의 범위는 자전거 타기에 B와의 테이트 테마 아이템을 추가하는 것을 포함할 수 있다. 이와 같이 추가하는 경우에, 디바이스(100)는 B에 관련된 이미지를 아바타 기반 이미지(1201)에 추가할 수 있다. 본 개시에서 추가의 범위는 상술한 바로 제한되지 않는다. The additional range in FIG. 12C may include adding a theme theme item with B to the bike ride. In such a case, the device 100 may add an image related to B to the avatar-based image 1201. [ The scope of the present disclosure is not limited to the above-described ones.

도 13은 일부 실시 예에 따른 디바이스(100)가 아바타 기반 이미지에 대한 수명을 관리하는 사용자 정보 관리 방법의 흐름도이다. 13 is a flowchart of a method for managing user information in which device 100 according to some embodiments manages the lifetime of an avatar-based image.

단계 S1301에서, 디바이스(100)는 아바타 기반 이미지에 대한 제공 기간이 설정되어 있으면, 아바타 기반 이미지에 대한 제공 기간을 체크한다. 제공 기간은 날짜 기준으로 카운트될 수 있다. 제공 기간은 시간 기준으로 카운트될 수 있다. 제공 기간은 제공 횟수 기간으로 카운트될 수 있다. 본 개시에서 제공 기간에 대한 카운트 기준은 상술한 바로 제한되지 않는다. In step S1301, if the provision period for the avatar-based image is set, the device 100 checks the provision period for the avatar-based image. The offer period can be counted on a date basis. The offering period can be counted on a time basis. The providing period may be counted as the providing period. The counting criterion for the provision period in this disclosure is not limited to the one just described.

단계 S1302에서, 디바이스(100)는 제공 기간이 만료된 것으로 판단되면, 해당되는 아바타 기반 이미지를 소멸시킨다. 아바타 기반 이미지를 소멸하는 것은 디바이스(100)에 저장된 아바타 기반 이미지를 삭제하는 것을 말한다. 아바타 기반 이미지는 디바이스(100)에 연결된 외부 디바이스에 저장될 수 있다. 외부 디바이스에 아바타 기반 이미지가 저장된 경우에, 디바이스(100)는 외부 디바이스로 아바타 기반 이미지에 대한 삭제 명령을 전송할 수 있다. In step S1302, if the device 100 determines that the providing period has expired, the device 100 cancels the corresponding avatar-based image. Destroying the avatar based image refers to deleting the avatar based image stored in the device 100. The avatar-based image may be stored in an external device connected to the device 100. When the avatar-based image is stored in the external device, the device 100 can transmit the delete command for the avatar-based image to the external device.

도 14는 일부 실시 예에 따른 디바이스(100)가 사용자의 헬스 정보에 따른 아바타 기반 이미지를 디스플레이 하고, 선택된 의료 정보에 따라 사용자 스케줄 정보를 업데이트 하는 사용자 정보 관리 방법의 흐름도이다. FIG. 14 is a flowchart of a user information management method in which a device 100 according to some embodiments displays an avatar-based image according to user's health information and updates user schedule information according to the selected medical information.

단계 S1401에서. 디바이스(100)는 사용자 헬스 정보에 따른 아바타 기반 이미지를 디스플레이 한다. 사용자의 헬스 정보는 외부 디바이스로부터 수신될 수 있으나 본 개시는 이로 제한되지 않는다. 사용자의 헬스 정보는 디바이스(100)에 설정된 헬스 애플리케이션을 실행하여 얻을 수 있다. In step S1401. The device 100 displays an avatar-based image according to user health information. The user's health information may be received from an external device, but the present disclosure is not limited thereto. The user's health information can be obtained by executing the health application set in the device 100. [

단계 S1402에서, 디바이스(100)는 의료 정보 요청을 나타내는 사용자 입력에 따라 사용자의 헬스 정보에 관련된 의료 정보를 제공한다. 예를 들어, 사용자의 헬스 정보가 사용자가 감기에 걸린 것을 나타낼 경우에, 디바이스(100)는 감기에 관련된 의료 정보를 제공할 수 있다. In step S1402, the device 100 provides medical information related to the user's health information according to a user input indicating a medical information request. For example, when the user's health information indicates that the user has a cold, the device 100 may provide medical information related to the cold.

단계 S1403에서, 디바이스(100)는 제공되는 의료 정보에 기초하여 선택된 의료 정보에 따라 사용자의 스케줄 정보를 업데이트 한다. In step S1403, the device 100 updates the schedule information of the user according to the selected medical information based on the provided medical information.

도 15a 내지 도 15e는 일부 실시 예에 따른 디바이스(100)가 사용자의 헬스 정보에 따른 아바타 기반 이미지를 디스플레이 하고, 사용자의 헬스 정보에 따른 의료 정보를 제공하고, 선택된 의료 정보에 따라 사용자의 스케줄 정보를 업데이트 하는 예를 도시한 도면이다. 15A to 15E illustrate an example in which the device 100 according to some embodiments displays an avatar-based image according to the user's health information, provides medical information according to the user's health information, As shown in Fig.

도 15a에서, 디바이스(100)는 스마트 팔지(1500)로부터 수신되는 사용자의 헬스 정보에 따라 열과 콧물이 나는 아바타 기반 이미지를 디스플레이 한다. In FIG. 15A, the device 100 displays a row and a snarling avatar-based image according to the user's health information received from the smart merchandise 1500.

의료 정보 요청을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 도 15b에 도시된 바와 같이 병원 아이템(1511), 약국 아이템(1512), 의약품 아이템(1513), 및 자가 치료 아이템(1514)을 포함하는 메뉴 아이템들을 제공한다. 예를 들어, 도 15a에 도시된 바와 같이 디스플레이 되고 있는 사용자의 헬스 정보에 따른 아비타 기반 이미지를 일정 시간 터치하는 사용자 입력이 수신되면, 디바이스(100)는 도 15b에 도시된 바와 같은 메뉴 아이템들을 제공할 수 있다. 본 개시에서 제공되는 메뉴 아이템들은 상술한 바로 제한되지 않는다. The device 100 includes a hospital item 1511, a pharmacy item 1512, a medicinal item 1513, and a self-treatment item 1514, as shown in Figure 15B. Menu items. For example, as shown in FIG. 15A, when a user input for touching an avatar-based image according to health information of a user being displayed for a predetermined time is received, the device 100 provides menu items as shown in FIG. 15B can do. The menu items provided in the present disclosure are not limited to those described above.

도 15b에서 병원 아이템(1511)을 선택하는 사용자 입력이 수신되면, 디바이스(100)는 도 15c에 도시된 바와 같이 병원 아이템(1511)의 서브 아이템들(B 병원(1521), C 병원(1522), D병원(1523))을 제공한다. 예를 들어, 도 15b에서, 병원 아이템(1511)을 일정 시간 터치하는 사용자 입력이 수신되면, 디바이스(100)는 도 15c에 도시된 바와 같이 병원 아이템(1511)의 서브 아이템들(B 병원(1521), C 병원(1522), D병원(1523))을 제공할 수 있다. 15B, when the user input to select the hospital item 1511 is received, the device 100 receives the sub-items (hospital B 1521, hospital C 1522) of the hospital item 1511 as shown in Fig. , D hospital 1523). For example, in FIG. 15B, when a user input for touching the hospital item 1511 for a certain time is received, the device 100 displays the sub items of the hospital item 1511 (B hospital 1521 ), C hospital 1522, D hospital 1523).

도 15d에서 C 병원(1522)을 선택하는 사용자 입력이 수신되면, 디바이스(100)는 도 15e에서 C병원(1522)에 대한 예약 정보를 제공한다. 예를 들어, 도 15d에서 C 병원(1522)을 일정 시간 터치하는 사용자 입력이 수신되면, 디바이스(100)는 도 15e에서 C병원(1522)에 대한 예약 정보를 제공할 수 있다. 15D, when the user input for selecting the C hospital 1522 is received, the device 100 provides the reservation information for the C hospital 1522 in FIG. 15E. For example, if a user input touching the C hospital 1522 for a certain time is received in FIG. 15D, the device 100 may provide the reservation information for the C hospital 1522 in FIG. 15E.

도 15e에서 제공된 예약 정보를 확인한 후, 예약을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 C병원(1522)에 대한 예약 절차를 수행한다. 예를 들어, 도 15e에서 제공된 예약 정보를 확인한 후, 예약 버튼(1532)을 일정 시간 터치하는 사용자 입력이 수신되면, 디바이스(100)는 예약 절차를 수행할 수 있다. 예약 절차는 제공된 예약 정보와 사용자 정보에 기초하여 C 병원에 예약 정보를 등록하는 것을 말한다. After confirming the reservation information provided in FIG. 15E, when the user input indicating the reservation is received, the device 100 performs a reservation procedure for the C hospital 1522. FIG. For example, after confirming the reservation information provided in FIG. 15E, when a user input for touching the reservation button 1532 for a predetermined time is received, the device 100 can perform the reservation procedure. The reservation procedure is to register the reservation information in the C hospital based on the provided reservation information and the user information.

예약이 절차가 완료되면, 디바이스(100)는 예약된 정보에 기초하여 사용자 스케줄 정보를 업데이트 한다. 이에 따라 디바이스(100)에 저장된 사용자 스케줄 정보에 C 병원에 대한 예약 정보가 등록될 수 있다. When this procedure is completed, the device 100 updates the user schedule information based on the reserved information. Accordingly, the reservation information for the C hospital can be registered in the user schedule information stored in the device 100. [

도 16은 일부 실시 예에 따른 디바이스(100)가 사용자의 장래 희망 정보에 따른 아바타 기반 이미지를 디스플레이 하고, 장래 희망에 관련된 정보중 선택된 정보에 따라 사용자 스케줄 정보를 업데이트 하는 사용자 정보 관리 방법의 흐름도이다. 16 is a flowchart of a user information management method in which a device 100 according to some embodiments displays an avatar-based image according to a user's future desired information and updates user schedule information according to information selected from among information related to a desired future .

단계 S1601에서, 디바이스(100)는 사용자의 장래 희망 정보에 따른 아바타 기반 이미지를 디스플레이 한다. 장래 희망 정보는 사용자의 미래의 직업 정보를 나타낼 수 있으나 본 개시에서 장래 희망 정보는 이로 제한되지 않는다. 예를 들어, 장래 희망 정보는 사용자의 버켓 리스트 또는 사용자의 위시 리스트를 포함할 수 있다. In step S1601, the device 100 displays the avatar-based image according to the user's future desired information. The future desired information may represent the future job information of the user, but the desired information in the present disclosure is not limited to this. For example, the future desired information may include a bucket list of the user or a wish list of the user.

단계 S1602에서, 디바이스(100)는 사용자의 장래 희망 정보에 관련된 정보를 요청하는 사용자 입력에 따라 장래 희망 정보에 관련된 정보를 제공한다. 예를 들어, 디스플레이 되고 있는 사용자의 장래 희망 정보에 따른 아비타 기반 이미지를 일정 시간 터치하고, 일 방향으로 드래그하는 사용자 입력이 수신되면, 디바이스(100)는 장래 희망 정보에 관련된 정보를 제공할 수 있다. In step S1602, the device 100 provides information related to future desired information according to a user input for requesting information related to the user's future desired information. For example, when an avita-based image corresponding to future desired information of a user being displayed is touched for a predetermined time and a user input for dragging in one direction is received, the device 100 can provide information related to future desired information .

단계 S1603에서, 디바이스(100)는 장래 희망 정보에 관련된 정보중 선택된 정보에 따라 사용자의 스케줄 정보를 업데이트 한다. 예를 들어, 제공된 장래 희망 정보에 관련된 정보중 하나를 일정 시간 터치하고 일 방향으로 드래그하는 사용자 입력이 수신되면, 디바이스(100)는 사용자 입력이 수신된 정보에 따라 사용자의 스케줄 정보를 업데이트 할 수 있다.In step S1603, the device 100 updates the schedule information of the user according to the information selected from the information related to the future desired information. For example, when one of the information related to the provided future desired information is touched for a predetermined time and a user input for dragging in one direction is received, the device 100 can update the user's schedule information according to the received information have.

도 17a 내지 도 17d는 일부 실시 예에 따른 디바이스(100)가 사용자의 장래 희망 정보에 따른 아바타 기반 이미지를 디스플레이 하고, 장래 희망 정보에 관련된 정보 제공을 요청함에 따라 관련된 정보를 제공하고, 사용자에 의해 선택된 정보에 따라 사용자 스케줄 정보를 업데이트 하는 과정을 설명하는 도면이다.17A to 17D are diagrams for explaining an example in which the device 100 according to some embodiments displays related information in accordance with the user's future desired information and requests information related to the future desired information, And updating the user schedule information according to the selected information.

도 17a를 참조하면, 디바이스(100)는 사용자의 장래 희망 정보에 따라 예술 치료사를 나타내는 아바타 기반 이미지를 디스플레이 한다. Referring to FIG. 17A, the device 100 displays an avatar-based image representing an art therapist according to the user's future desired information.

도 17a에서, 장래 희망 정보에 관련된 정보 제공을 요청하는 사용자 입력(1701)이 수신되면, 디바이스(100)는 도 17b에 도시된 바와 같이 자격 시험 일정 아이템(1711), 인증 센터 아이템(1712), 또는/및 관련 이벤트 아이템(1713)을 장래 희망 정보에 관련된 정보로서 제공한다. 예를 들어, 도 17a에서 디스플레이 되고 있는 이미지에 대해 일정 시간동안 터치하고, 일 방향으로 드래그하는 사용자 입력(1701)이 수신되면, 디바이스(100)는 도 17b에 도시된 바와 같이 장래 희망 정보에 관련된 정보들(자격 시험 일정 아이템(1711), 인증 센터 아이템(1712), 또는/및 관련 이벤트 아이템(1713))을 제공한다. 17A, when the user input 1701 requesting the provision of information related to the future desired information is received, the device 100 transmits the qualification test schedule item 1711, the authentication center item 1712, And / or related event items 1713 as information related to the future desired information. For example, when a user touches the image being displayed in FIG. 17A for a predetermined time and receives a user input 1701 to drag in one direction, the device 100 displays a message related to future desired information Information (qualification test schedule item 1711, certification center item 1712, and / or related event item 1713).

도 17b에서 관련 이벤트 아이템(1713)을 선택하는 사용자 입력이 수신되면, 디바이스(100)는 이벤트 1 아이템(1721), 이벤트 2 아이템(1722), 및 이벤트 3 아이템(1723)을 제공한다. 예를 들어, 도 17b에서 관련 이벤트 아이템(1713)에 대해 일정 시간동안 터치하는 사용자 입력이 수신되면, 디바이스(100)는 관련 이벤트 아이템(1713)의 서브 계층에 등록된 이벤트 1 아이템(1721), 이벤트 2 아이템(1722), 및 이벤트 3 아이템(1723)을 제공할 수 있다. 17B, the device 100 provides an Event 1 item 1721, an Event 2 item 1722, and an Event 3 item 1723. Upon receiving a user input that selects a related event item 1713 in FIG. For example, when a user input touching the related event item 1713 for a certain time is received in FIG. 17B, the device 100 displays the event 1 item 1721 registered in the sub-layer of the related event item 1713, An event 2 item 1722, and an event 3 item 1723. [

도 17c에서, 이벤트 2 아이템(1722)을 선택하는 사용자 입력이 수신되면, 디바이스(100)는 이벤트 2 아이템(1722)에 대한 상세한 정보를 제공한다. 예를 들어, 도 17c에서 이벤트 2 아이템(1722)을 일정 시간동안 터치하는 사용자 입력이 수신되면, 디바이스(100)는 이벤트 2 아이템(1722)에 대한 상세한 정보를 제공할 수 있다. In FIG. 17C, when a user input for selecting an event 2 item 1722 is received, the device 100 provides detailed information about the event 2 item 1722. For example, if a user input that touches the Event 2 item 1722 for a certain amount of time is received in FIG. 17C, the device 100 may provide detailed information about the Event 2 item 1722.

디바이스(100)는 이벤트 2 아이템(1722)에 대한 상세한 정보를 이벤트 2 아이템(1722)에 인접한 위치에 별도의 창(1724)을 오픈하여 제공할 수 있다. 별도의 창(1724)은 말 주머니 형태를 갖는 팝업 창으로 디스플레이 될 수 있으나 본 개시는 이로 제한되지 않는다. The device 100 may provide detailed information about the event 2 item 1722 by opening a separate window 1724 at a location adjacent to the event 2 item 1722. [ A separate window 1724 may be displayed as a pop-up window with a horsepair shape, but the disclosure is not limited thereto.

도 17d에서, 별도의 창(1723)에 포함되어 있는 참여 OK 버튼(1725)을 선택하는 사용자 입력이 수신되면, 디바이스(100)는 이벤트 2 아이템(1722)에 관련된 정보를 이용하여 사용자의 스케줄 정보를 업데이트한다. 예를 들어, 도 17d에서 별도의 창(1723)에 포함되어 있는 참여 OK 버튼(1725)을 일정 시간동안 터치하는 사용자 입력이 수신되면, 디바이스(100)는 이벤트 2 아이템(1722)에 관련된 정보를 이용하여 사용자의 스케줄 정보를 업데이트 할 수 있다. 이에 따라 사용자의 스케줄 정보에 이벤트 2 아이템(1722)에 관련된 정보가 등록된다. 17D, when a user input for selecting the participation OK button 1725 included in the separate window 1723 is received, the device 100 uses the information related to the event 2 item 1722 to display the schedule information of the user Lt; / RTI > For example, when a user input for touching the participation OK button 1725 included in the separate window 1723 for a predetermined time is received in FIG. 17D, the device 100 transmits information related to the event 2 item 1722 The schedule information of the user can be updated. Accordingly, information related to the event 2 item 1722 is registered in the schedule information of the user.

도 18은 일부 실시 예에 따른 디바이스(100)의 사용 히스토리 정보에 따라 복수의 아바타 기반 이미지를 디스플레이 하여 사용자 정보를 관리하는 방법의 흐름도이다. 18 is a flowchart of a method of displaying user avatar information by displaying a plurality of avatar based images according to usage history information of the device 100 according to some embodiments.

도 18의 단계 S1801에서, 디바이스(100)는 디바이스(100)에 대한 사용 히스토리 정보를 요청하는 사용자 입력을 수신하면, 단계 S1802에서 디바이스(100)에 대한 사용 기간별 사용 히스토리 정보에 따른 복수의 아바타 기반 이미지를 디스플레이 한다. 예를 들어, 단계 S1801에서, 디바이스(100)가 제공하는 메뉴 항목에 포함되어 있는 디바이스(100)의 사용 히스토리 정보 요청 아이템에 대한 선택을 나타내는 사용자 입력이 수신되면, 단계 S1802에서 디바이스(100)는 사용 기간별 사용 히스토리 정보에 따른 복수의 아바타 기반 이미지를 디스플레이 할 수 있다. 단계 S1801에서 디바이스(100)의 사용 기간을 특정하는 정보가 수신될 수 있다. 사용 기간을 특정하는 정보는 날짜, 시간, 또는 요일에 기초하여 입력될 수 있다. 18, when the device 100 receives the user input requesting the usage history information for the device 100, the device 100 searches for a plurality of avatar based on the usage history information for the usage period for the device 100 in step S1802 Display the image. For example, in step S1801, when a user input indicating selection of a usage history information request item of the device 100 included in the menu item provided by the device 100 is received, in step S1802, the device 100 A plurality of avatar-based images corresponding to usage history information can be displayed. Information specifying the use period of the device 100 may be received in step S1801. Information specifying the period of use may be entered based on date, time, or day of the week.

도 19a 및 도 19b는 일부 실시 예에 따른 디바이스(100)가 디바이스(100)의 사용 히스토리 정보 요청에 따른 사용자 입력이 수신되면, 사용 기간별 사용 히스토리 정보를 복수의 아바타 기반 이미지로 제공하는 예이다. FIGS. 19A and 19B are examples in which the device 100 according to some embodiments provides usage history information per use period as a plurality of avatar-based images when a user input is received in response to a usage history information request of the device 100. FIG.

도 19a를 참조하면, 디바이스(100)는 평일(1910)과 주말(1920)에 관한 디바이스(100)의 사용 히스토리 정보에 따른 복수의 아바타 기반의 이미지를 디스플레이 한다. Referring to FIG. 19A, the device 100 displays a plurality of avatar-based images according to usage history information of the device 100 regarding the weekday 1910 and the weekend 1920. FIG.

도 19a의 평일(1910)을 참조하면, 평일(1910)에 디바이스(100)는 1순위로 사용한 앱이 전화 앱이고, 2순위로 사용한 앱이 인터넷 앱임을 알 수 있다. 도 19a의 주말(1920)을 참조하면, 주말(1920)에 디바이스(100)는 1순위로 DTV앱을 사용하고, 2순위로 밴드를 사용하는 것을 알 수 있다. Referring to the weekday 1910 in FIG. 19A, it can be seen that the device 100 is used as the first application on the weekday 1910, and the second application is the Internet application. Referring to the weekend 1920 of FIG. 19A, it can be seen that on the weekend 1920, the device 100 uses the DTV app in the first place and uses the band in the second place.

도 19a에서 평일(1910)에 디바이스(100)에 대한 다음 사용 히스토리 정보를 요청하는 사용자 입력(1911)이 수신되면, 디바이스(100)는 평일(1910)에 디바이스(100)에 대한 사용 히스토리 정보에 기초하여 도 19b에 도시된 바와 같이 평일(1910)에 대한 아바타 기반 이미지를 변경할 수 있다. 도 19b의 평일(1910)을 참조하면, 평일(1910)에 디바이스(100)는 3순위로 카카오톡 앱을 사용하고, 4순위로 카메라 앱을 사용하는 것을 쉽게 알 수 있다. 19A, when the user input 1911 requesting the next usage history information for the device 100 is received on the weekday 1910, the device 100 stores the usage history information for the device 100 on the weekday 1910 Based image for the weekday 1910 as shown in Figure 19B. Referring to the weekday 1910 of FIG. 19B, it is easy to know that the device 100 uses the KakaoTalk app in the third rank on the weekday 1910 and uses the camera app in the fourth rank.

도 19a 및 도 19b는 디바이스(100)의 사용 히스토리 정보를 디바이스(100)에 설정된 애플리케이션에 기초한 정보를 제공하고 있으나, 본 개시에서 디바이스(100)의 사용 히스토리 정보는 상술한 바로 제한되지 않는다. 19A and 19B provide usage history information of the device 100 based on the application set in the device 100, but the usage history information of the device 100 in the present disclosure is not limited to the above-described one.

도 20은 일부 실시 예에 따른 디바이스(100)가 소셜 미디어에 등록된 사용자 정보에 따른 아바타 기반의 이미지를 디스플레이 하고, 사용자 입력에 따라 디스플레이 되고 있는 아바타 기반 이미지가 수정되면, 수정된 아바타 기반 이미지에 따라 소셜 미디어에 등록된 사용자 정보를 업데이트 하는 사용자 정보 관리 방법의 흐름도이다. FIG. 20 illustrates an example in which a device 100 according to some embodiments displays an avatar-based image according to user information registered in a social media, and when an avatar-based image being displayed according to user input is modified, FIG. 2 is a flowchart of a user information management method for updating user information registered in a social media. FIG.

단계 S2001에서, 디바이스(100)는 소셜 미디어에 등록된 사용자 정보에 따른 아바타 기반의 이미지를 디스플레이한다. 소셜 미디어에 등록된 사용자 정보는 디바이스(100)에 연결된 소셜 미디어 서버로부터 수신될 수 있다. 예를 들어, 페이스북에 등록된 사용자 정보는 디바이스(100)에 연결된 페이스북 서버로부터 수신될 수 있다. In step S2001, the device 100 displays an avatar-based image according to the user information registered in the social media. User information registered with the social media may be received from the social media server connected to the device 100. [ For example, user information registered on Facebook may be received from a Facebook server connected to device 100.

소셜 미디어에 등록된 사용자 정보는 디바이스(100)의 요청에 의해 소셜 미디어 서버로부터 제공될 수 있으나, 디바이스(100)가 소셜 미디어 서버에 연결되면, 소셜 미디어 서버로부터 자동적으로 제공될 수 있다. 본 개시에서 디바이스(100)가 소셜 미디어에 등록된 사용자 정보를 수신하는 방법은 상술한 바로 제한되지 않는다. The user information registered in the social media may be provided from the social media server at the request of the device 100, but may be automatically provided from the social media server when the device 100 is connected to the social media server. The method by which the device 100 receives user information registered in the social media in the present disclosure is not limited to the above-described one.

단계 S2002에서, 디바이스(100)는 이미지 수정을 요청하는 사용자 입력에 따라 아바타 기반 이미지를 수정한다. 단계 S2002에서 아바타 기반 이미지를 수정하는 방법은 상술한 도 2의 단계 S202에서 설명한 바와 같은 방식으로 수행될 수 있다. In step S2002, the device 100 modifies the avatar-based image according to a user input requesting an image modification. The method of modifying the avatar-based image in step S2002 may be performed in the manner described above in step S202 of FIG.

단계 S2003에서, 디바이스(100)는 수정된 아바타 기반 이미지에 따라 소셜 미디어에 등록된 사용자 정보를 업데이트 할 수 있다. 디바이스(100)는 수정된 아바타 기반 이미지를 텍스트 정보로 변환하고, 텍스트 정보를 소셜 미디어 서버로 전송하면서, 소셜 미디어에 등록된 사용자 정보에 대한 업데이트를 요청할 수 있다. 이에 따라 소셜 미디어 서버는 등록된 사용자 정보를 업데이트 할 수 있다. 사용자 정보에 대한 업데이트가 완료되면, 소셜 미디어 서버는 디바이스(100)로 업데이트 완료 메시지를 전송할 수 있다. 본 개시에서 소셜 미디어에 등록된 사용자 정보를 업데이트 하는 방식은 상술한 바로 제한되지 않는다. In step S2003, the device 100 can update the user information registered in the social media according to the modified avatar-based image. The device 100 may convert the modified avatar-based image into textual information and send the textual information to the social media server, requesting an update to the user information registered in the social media. Accordingly, the social media server can update the registered user information. Once the update to the user information is complete, the social media server may send an update complete message to the device 100. [ The manner of updating the user information registered in the social media in the present disclosure is not limited to the above-described one.

도 21은 일부 실시 예들에 따른 디바이스(100)를 포함하는 사용자 정보 관리 시스템(2100)의 블록도이다. 21 is a block diagram of a user information management system 2100 that includes a device 100 in accordance with some embodiments.

도 21를 참조하면, 시스템(2100)은 디바이스(100), 네트워크(2110), 및 외부 디바이스(2120)를 포함한다. 21, a system 2100 includes a device 100, a network 2110, and an external device 2120.

디바이스(100)는, 예를 들어, 휴대 가능한 디바이스(Portable Device), 웨어러블 디바이스(Wearable Device), 홈 인터넷 어플라이언스(Home Internet Appliance), 또는 모바일 디바이스(Mobile Device)를 포함할 수 있으나 본 개시에서 디바이스(100)는 상술한 바로 제한되지 않는다. The device 100 may include, for example, a Portable Device, a Wearable Device, a Home Internet Appliance, or a Mobile Device, (100) is not limited to the above-mentioned ones.

휴대 가능한 디바이스는 스마트 폰(Smart Phone), 노트북(Notebook), 스마트 보드(Smart Board), 태블릿(Tablet) PC(Personal Computer), 핸드헬드(handheld) 디바이스, 핸드헬드 컴퓨터, 미디어 플레이어, 전자북 디바이스, 또는 PDA(Personal Digital Assistant) 등과 같은 디바이스를 포함할 수 있으나 본 개시에서 휴대 가능한 디바이스는 상술한 바로 제한되지 않는다. The portable device may be a smart phone, a notebook, a smart board, a tablet PC, a handheld device, a handheld computer, a media player, an electronic book device , Or a PDA (Personal Digital Assistant), but the portable device in this disclosure is not limited to the above-mentioned ones.

웨어러블 디바이스는 스마트 안경, 스마트 시계, 스마트 밴드(예를 들어, 스마트 허리 밴드 및 스마트 헤어 밴드 등), 스마트 클립, 각종 스마트 장신구(예를 들어, 스마트 반지, 스마트 팔지, 스마트 발지. 스마트 헤어 핀, 및 스마트 목거리 등), 각종 스마트 신체 보호대(예를 들어, 스마트 무릎 보호대, 및 스마트 팔꿈치 보호대). 스마트 신발, 스마트 장갑, 스마트 의류, 스마트 모자, 장애인용 스마트 의족, 또는 장애인용 스마트 의수 등과 같은 디바이스를 포함할 수 있으나 이로 제한되지 않는다. Wearable devices include smart glasses, smart watches, smart bands (e.g., smart waistbands and smart hair bands), smart clips, various smart ornaments (e.g., smart rings, smart wristbands, And smart necklaces, etc.), various smart body protectors (e.g., smart knee protectors, and smart elbow protectors). But are not limited to, devices such as smart shoes, smart gloves, smart clothing, smart hats, smart for the disabled, smart for the disabled, and the like.

홈 인터넷 어플라이언스는 스마트 TV, PC(Personal Computer), 데스크탑(Desktop) PC(Personal Computer), 스마트 냉장고, 스마트 세탁기, 스마트 조명, 스마트 청소기, 스마트 헬스 기기, 스마트 오븐, 스마트 식기 세척기, 멀티미디어 콘솔(consol), 게임 콘솔, 또는 스마트 정수기 등과 같이 M2M(Machine to Machine) 또는 IoT(Internet of Things)를 이루는 홈 디바이스를 포함할 수 있으나 본 개시에서 홈 인터넷 어플라이언스는 상술한 바로 제한되지 않는다. Home Internet Appliance is a smart home appliance that can be used in various applications such as smart TV, personal computer, desktop personal computer, smart refrigerator, smart washing machine, smart lighting, smart cleaner, smart health appliance, smart oven, smart dishwasher, ), A game console, or a smart water purifier. However, the home Internet appliance in the present disclosure is not limited to the above-described one.

모바일 디바이스는 M2M(achine to Machine) 또는 IoT(Internet of Things)를 이루는 자동차와 같은 디바이스를 포함할 수 있으나 본 개시에서 모바일 디바이스는 상술한 바로 제한되지 않는다. A mobile device may include a device such as an automobile that forms an M2M (achine to machine) or an Internet of Things (IoT), but the mobile device in this disclosure is not limited to the one just described.

네트워크(2110)는, 예를 들어, 인트라넷, 인터네트워크, 인터넷, PAN(Personal Area Network)(예를 들어, 블루투스, 홈RF(HomeRF) 등 근거리 무선 통신), CAN(Campus Area Network), LAN(Local Area Network), WAN(Wide Area Network), 또는 게임 네트워크 등과 같은 네트워크를 포함할 수 있으나 본 개시에서 네트워크(2110)는 상술한 바로 제한되지 않는다. The network 2110 may be, for example, an intranet, an internetwork, an Internet, a Personal Area Network (PAN) (e.g., short range wireless communication such as Bluetooth, HomeRF), a CAN (Campus Area Network) Local Area Network (WAN), Wide Area Network (WAN), or gaming network, but the network 2110 in this disclosure is not limited to the one just described.

네트워크(2110)는 유선 전송 매체와 무선 전송 매체중 적어도 하나의 전송 매체를 이용할 수 있다. 유선 전송 매체는, 예를 들어, 동축 케이블(Coaxial), 연선(twisted pair) 케이블, 또는/및 광섬유(Fiber-optic) 등중 적어도 하나를 포함할 수 있으나 본 개시에서 유선 전송 매체는 상술한 바로 제한되지 않는다. 무선 전송 매체는, 예를 들어, 라디오파(Radio Frequency Wave), 지상 마이크로파(Terrestrial Microwave), 위성 마이크로파(Satellite Microwave), 또는/및 적외선(Infrared) 등중 적어도 하나를 포함할 수 있으나 본 개시에서 무선 전송 매체는 상술한 바로 제한되지 않는다. The network 2110 may use at least one of a wired transmission medium and a wireless transmission medium. The wired transmission medium may include at least one of, for example, coaxial, twisted pair cable, and / or fiber-optic, but in the present disclosure, It is not limited. The wireless transmission medium may include, for example, at least one of a Radio Frequency Wave, a Terrestrial Microwave, a Satellite Microwave, and / or Infrared, The wireless transmission medium is not limited to the above-mentioned ones.

네트워크(2110)의 접속 형태는 성형, 그물형, 트리형, 버스형, 또는 링형중 어느 하나의 형태로 구성될 수 있으나 네트워크(2110)의 접속 형태는 상술한 바로 제한되지 않는다. The connection form of the network 2110 may be in the form of a molding, a net, a tree, a bus, or a ring, but the connection form of the network 2110 is not limited to the above.

네트워크(2110)는 LAN(Local Area Network) 카드, 허브(Hub), 스위치(Switch), 브리지(Bridge), 게이트웨이(Gateway), 중계기(Repeater), 또는 라우터(Rounter) 등과 같은 네트워크 접속 장치중 적어도 하나를 이용할 수 있으나 본 개시에서 네트워크 접속 장치는 상술한 바로 제한되지 않는다. The network 2110 includes at least one of network connection devices such as a LAN (Local Area Network) card, a hub, a switch, a bridge, a gateway, a repeater, One can be used, but in this disclosure the network connection device is not limited to the one just described.

외부 디바이스(2120)는 디바이스(100)의 외부에서 디바이스(100)와 연결 가능한 디바이스를 말한다. 외부 디바이스(2120)는 사용자의 클라우드 서버, 사용자의 정보 관리 서버, QA(Question and Answer) 서버, 서비스 제공 서버(예를 들어, 게임 서버, 또는 애플리케이션 서버 등), 또는 소셜 미디어 서버를 포함할 수 있으나 본 개시에서 외부 디바이스(2120)는 상술한 바로 제한되지 않는다. The external device 2120 refers to a device that can be connected to the device 100 from the outside of the device 100. The external device 2120 may include a user's cloud server, a user's information management server, a QA (question and answer) server, a service providing server (e.g., a game server or an application server) However, in this disclosure, the external device 2120 is not limited to the above-described ones.

외부 디바이스(2120)는 서버, 의료기기, 컴퓨팅 디바이스, 앱세서리, 웨어러블 디바이스, IoT 센서, 또는 IoT 디바이스를 포함할 수 있다. 외부 디바이스(2110)는 디바이스(100)와 동일한 디바이스일 수 있다. 외부 디바이스(2110)의 사용자는 디바이스(100)의 사용자와 동일할 수 있다. 외부 디바이스(2110)의 사용자는 디바이스(100)의 사용자와 다를 수 있다. The external device 2120 may include a server, a medical device, a computing device, an app store, a wearable device, an IoT sensor, or an IoT device. The external device 2110 may be the same device as the device 100. [ The user of the external device 2110 may be the same as the user of the device 100. The user of the external device 2110 may be different from the user of the device 100.

의료기기는 사용자의 건강 정보를 센싱(또는 측정)하는 기능과 통신 기능을 포함할 수 있다. 의료기기는 가정용 의료기기(예를 들어, 체온 측정기, 혈압 측정기, 콜레스테롤 측정기, 혈당 측정기, 요산 측정기, 및 안마기 등과 같은 적어도 하나의 기기), 병원용 의료기기(예를 들어, 초음파 기기, 체지방 측정기, 청진기, 및 심전도 측정기 등과 같은 적어도 하나의 기기), 또는 재활용 의료기기(예를 들어, 보행 밸트, 이동 밸트, 무릅 보호대, 파라핀 욕조 등과 같은 적어도 하나의 기기) 등과 같은 의료 기기를 포함할 수 있으나 의료기기는 상술한 바로 제한되지 않는다. The medical device may include a function of sensing (or measuring) the health information of the user and a communication function. The medical device may be a home medical device (e.g., at least one device such as a body temperature meter, a blood pressure meter, a cholesterol meter, a blood glucose meter, a uric acid meter, and a massager), a hospital medical device (e.g., (E.g., at least one device such as a stethoscope, an electrocardiograph, etc.), or a medical device such as a recycled medical device (e.g., at least one device such as a walking belt, a moving belt, a knee guard, a paraffin bath, etc.) The apparatus is not limited to the above-mentioned ones.

앱세서리는 디바이스(100)에 설치된 애플리케이션을 이용하여 제어되는 디바이스이다. 앱세서리는, 예를 들어, 스마트 전구, 스마트 프린터, 스마트 무선 혈압 측정기, 스마트 녹음기, 스마트 위치 추적기, 스마트 마이크, 스마트 온도 조절 장치, 스마트 알람 기기, 또는 스마트 장난감 등과 같은 적어도 하나의 디바이스를 포함한다. The appset is a device controlled using an application installed in the device 100. [ The appset includes at least one device such as, for example, a smart light bulb, a smart printer, a smart wireless blood pressure monitor, a smart tape recorder, a smart location tracker, a smart microphone, a smart thermostat, a smart alarm device, .

디바이스(100)는 일부 실시예에 따른 사용자 정보 관리 방법을 수행할 수 있다. 디바이스(100)는 디바이스(100)에 저장된 사용자 정보 또는/및 네트워크(2110)를 통해 연결된 외부 디바이스(2120)에 저장된 사용자 정보를 관리할 수 있다. 디바이스(100)에 저장된 사용자 정보는 외부 디바이스(2120)로부터 수신되어 저장될 수 있다. 외부 디바이스(2120)에 저장된 사용자 정보는 디바이스(100)로부터 수신되어 저장될 수 있다. 디바이스(100)에 저장된 사용자 정보는 외부 디바이스(2120)에 저장된 사용자 정보와 동일할 수 있다. 디바이스(100)에 저장된 사용자 정보는 외부 디바이스(2120)에 저장된 사용자 정보와 다를 수 있다. 디바이스(100)에 저장된 사용자 정보의 일부는 외부 디바이스(2120)에 저장된 사용자 정보와 동일할 수 있다. The device 100 may perform a method of managing user information according to some embodiments. The device 100 may manage user information stored in the device 100 and / or user information stored in the external device 2120 connected via the network 2110. [ User information stored in the device 100 may be received from the external device 2120 and stored. User information stored in the external device 2120 may be received from the device 100 and stored. The user information stored in the device 100 may be the same as the user information stored in the external device 2120. The user information stored in the device 100 may be different from the user information stored in the external device 2120. Some of the user information stored in the device 100 may be the same as the user information stored in the external device 2120.

디바이스(100)는 일부 실시 예에 따른 사용자 정보 관리 방법을 이용하여 수정한 사용자 정보를 이용하여 디바이스(100) 또는 외부 디바이스(2120)에 저장된 사용자 정보를 업데이트 할 수 있다. 디바이스(100)는 저장된 사용자 정보를 외부 디바이스(2120)로 전송하고, 외부 디바이스(2120)에서 사용자 정보를 관리하도록 요청할 수 있다. The device 100 may update the user information stored in the device 100 or the external device 2120 using the modified user information using the user information management method according to some embodiments. The device 100 may transmit the stored user information to the external device 2120 and request the external device 2120 to manage the user information.

도 22는 일부 실시 예에 따른 디바이스(100)에 의해 수행되는 사용자 정보 관리 방법을 설명하기 위한 흐름도이다. 도 23a 내지 도 23f는 일부 실시 예에 따른 디바이스(100)가 사용자 정보에 기초하여 디스플레이 하는 아바타 기반 이미지들을 설명하기 위한 도면이다. 22 is a flowchart illustrating a method for managing user information performed by the device 100 according to some embodiments. 23A-23F illustrate avatar-based images displayed by the device 100 according to some embodiments on the basis of user information.

도 22를 참조하면, 단계 S2201에서, 디바이스(100)는 사용자 정보에 기초한 아바타 기반 이미지를 디스플레이 한다. 예를 들어, 디바이스(100)는 도 23a의 사용자 정보(2300)에 기초하여 아바타 기반 이미지(2310)를 생성하여 디스플레이 할 수 있다. 아바타 기반 이미지(2310)는 디바이스(100)의 사용자를 상징하는 이미지라고 말할 수 있다. 아바타 기반 이미지(2310)는 2차원 모델 또는 3차원 모델로 표현된 아바타, 사이버 캐릭터, 사용자의 가상의 이미지, 사용자의 가상 자아 그래픽 아이콘, 또는 사용자의 아이콘 등으로 표현될 수 있다. 본 개시에서 아바타 기반 이미지(2310)를 표현하는 방식은 상술한 바로 제한되지 않는다. Referring to FIG. 22, in step S2201, the device 100 displays an avatar-based image based on user information. For example, the device 100 may generate and display an avatar based image 2310 based on the user information 2300 of FIG. 23A. The avatar-based image 2310 may be referred to as an image that represents the user of the device 100. The avatar-based image 2310 may be represented by an avatar, a cyber character, a virtual image of a user, a virtual self-graphic icon of a user, or a user's icon represented by a two-dimensional model or a three-dimensional model. The manner of expressing the avatar-based image 2310 in this disclosure is not limited to the one just described.

단계 S2201에서, 디바이스(100)는 도 23b 내지 도 23f에 도시된 바와 같이 사용자 정보에 기초한 복수의 아바타를 디스플레이 할 수 있다. In step S2201, the device 100 can display a plurality of avatars based on the user information as shown in Figs. 23B to 23F.

도 23b를 참조하면, 디바이스(100)는 현재의 사용자 정보에 기초한 아바타 기반 이미지(2340, 이하 현재 이미지라고 약함)와 미래의 사용자 정보에 기초한 아바타 기반 이미지(2341, 이하 미래 이미지라고 약함)를 함께 디스플레이한다. Referring to Figure 23B, the device 100 combines an avatar-based image 2340 (hereinafter referred to as the current image) and an avatar-based image 2341 (hereinafter referred to as a future image) based on the current user information Display.

현재 이미지(2340)는 미래 이미지(2341)와 헤어 스타일이 다르다. 이는 현재의 사용자 정보에 포함된 헤어 스타일 정보(예를 들어, 사용자의 헤어스타일은 컷트이다)와 미래의 사용자 정보에 포함된 헤어 스타일 정보(예를 들어, 사용자의 헤어스타일은 웨이브이다)가 다르다는 것을 나타낸다. The current image 2340 has a different hairstyle from the future image 2341. This means that the hair style information included in the current user information (e.g., the user's hair style is cut) and the hair style information included in future user information (e.g., the user's hair style is wave) .

현재의 사용자 정보에 포함된 헤어 스타일 정보는 사진 정보에 기초할 수 있으나 본 개시는 상술한 바로 제한되지 않는다. 예를 들어, 현재의 사용자 정보에 포함된 헤어 스타일 정보는 사용자에 의해 입력될 수 있다. 미래의 사용자 정보에 포함된 헤어 스타일 정보는 사용자의 헤어샵 예약 정보에 기초할 수 있으나 본 개시는 상술한 바로 제한되지 않는다. 예를 들어, 미래의 사용자 정보에 포함된 헤어 스타일 정보는 사용자에 의해 입력될 수 있다. The hair style information included in the current user information may be based on the photograph information, but the present disclosure is not limited to the above-described one. For example, the hair style information contained in the current user information can be input by the user. The hair style information included in the future user information may be based on the user's hair shop reservation information, but the present disclosure is not limited to the above-described one. For example, hair style information included in future user information can be input by the user.

디바이스(100)는 사용자 정보를 일단위, 몇일 단위, 주단위, 월단위, 또는 연 단위로 나누어 현재 이미지(2340)와 미래 이미지(2341)를 디스플레이 할 수 있다. The device 100 may display the current image 2340 and the future image 2341 by dividing the user information by day, day, week, month, or year.

예를 들어, 일 단위인 경우에, 디바이스(100)는 오늘 사용자 정보(예를 들어, 사용자의 오늘 스케줄 정보)에 기초하여 현재 이미지(2340)를 생성하여 디스플레이 하고, 내일 사용자 정보(예를 들어, 사용자의 내일 스케줄 정보)에 기초하여 미래 이미지(2341)를 생성하여 디스플레이 할 수 있다. For example, in the case of a day, the device 100 may generate and display the current image 2340 based on today's user information (e.g., the user's current schedule information) , Schedule information of the user tomorrow), and display the future image 2341. [

예를 들어, 주 단위인 경우에, 디바이스(100)는 현재 시점을 기준으로 과거 일주일 동안의 사용자 정보에 기초하여 현재 이미지(2340)를 생성하여 디스플레이 하고, 내일 시점을 기준으로 미래 일주일 동안의 사용자 정보에 기초하여 미래 이미지(2341)를 생성하여 디스플레이 할 수 있다. For example, in the case of a weekly unit, the device 100 generates and displays the current image 2340 based on the user information for the past week based on the current time point, A future image 2341 can be generated and displayed based on the information.

디바이스(100)에 디스플레이 되는 현재 이미지(2340)와 미래 이미지(2341)는 동일할 수 있다. 이는 현재의 사용자 정보와 미래의 사용자 정보가 동일한 것을 나타낸다. The current image 2340 and the future image 2341 displayed on the device 100 may be the same. This indicates that the current user information and the future user information are the same.

디바이스(100)는 현재 이미지(2340)와 미래 이미지(2341)를 상술한 단위로 생성하지 않을 수 있다. 예를 들어, 디바이스(100)는 사용자 정보에 포함되어 있는 현재 직업에 관한 정보(예를 들어, 학생)와 장래 희망에 관한 정보(예를 들어, 경찰관)에 기초하여 현재 이미지(2340, 예를 들어 학생복을 입은 아바타 기반 이미지)와 미래 이미지(2341, 예를 들어 경찰복을 입을 아바타 기반 이미지)를 생성할 수 있다. The device 100 may not generate the current image 2340 and the future image 2341 in the units described above. For example, the device 100 may determine the current image 2340 (e.g., a student) based on information about the current job (e.g., a student) included in the user information and information about the future wishes An avatar-based image of a student uniform) and a future image (e.g., an avatar-based image of a police uniform 2341).

또한, 디바이스(100)는 사용자 정보에 포함된 사용자의 버킷 리스트 또는 위시 리스트에 기초하여 미래 이미지(2341)를 생성하고, 디스플레이 할 수 있다. 예를 들어, 버킷 리스트에 10개의 항목이 포함되는 경우에, 미래 이미지(2341)는 서로 다른 10개의 항목에 따른 아바타 기반의 이미지를 생성하고, 디스플레이 할 수 있다. 예를 들어, 상술한 서로 다른 10개의 항목에 따른 아바타 기반의 이미지를 생성하여 디스플레이 할 경우에, 디바이스(2341)는 미래 이미지(2341)가 디스플레이 되고 있는 영역을 분할하여 동시에 디스플레이 하거나 10 페이지로 나누어 디스플레이 할 수 있으나 본 개시는 이로 제한되지 않는다. In addition, the device 100 may generate and display a future image 2341 based on the bucket list or wish list of the user included in the user information. For example, if the bucket list includes 10 items, the future image 2341 may generate and display an avatar-based image according to 10 different items. For example, in the case of generating and displaying an avatar-based image according to the above-mentioned 10 different items, the device 2341 divides the area in which the future image 2341 is displayed and displays it at the same time, But the present disclosure is not limited thereto.

도 23c는 일부 실시 예에 따른 디바이스(100)가 과거의 사용자 정보에 따른 아바타 기반 이미지(2342, 이하 과거 이미지라고 약함), 현재 이미지(2340), 및 미래 이미지(2341)를 동시에 디스플레이 하는 예이다. 23C is an example of a device 100 according to some embodiments simultaneously displaying an avatar based image 2342 (hereinafter referred to as a past image), a current image 2340, and a future image 2341 according to past user information .

도 23c를 참조하면, 디바이스(100)는 서로 다른 헤어 스타일을 갖는 과거 이미지(2342), 현재 이미지(2340), 및 미래 이미지(2341)를 동시에 디스플레이 한다. 이는 과거의 사용자 정보, 현재의 사용자 정보, 및 미래의 사용자 정보에 각각 포함되어 있는 사용자의 헤어 스타일 정보가 다른 것을 의미한다. Referring to FIG. 23C, device 100 simultaneously displays past image 2342, current image 2340, and future image 2341 with different hair styles. This means that the user's hair style information included in past user information, current user information, and future user information are different.

디바이스(100)는 도 23b에서와 같이 일단위, 몇 일단위, 주 단위, 월 단위, 또는 년 단위 사용자 정보에 기초하여 과거 이미지(2341), 현재 이미지(2340), 및 미래 이미지(2341)를 동시에 생성하고, 디스플레이 할 수 있다. 예를 들어, 디바이스(100)는 현재 시점과 현재 시점 이전의 일주일 동안의 사용자 정보에 기초하여 현재 이미지(2340)를 생성하고, 현재 시점 이후의 일주일 동안의 사용자 정보에 기초하여 미래 이미지(2341)를 생성하고, 현재 이미지(2340)를 제공하기 위해 사용된 사용자 정보를 기준으로 이전 일주일 동안의 사용자 정보에 기초하여 과거 이미지(2342)를 생성할 수 있다. The device 100 can display the past image 2341, the current image 2340, and the future image 2341 based on user information in units of days, days, weeks, months, or years as shown in FIG. 23B Can be generated and displayed at the same time. For example, the device 100 may generate a current image 2340 based on user information for the current time and a week prior to the current time, and generate a future image 2341 based on user information for a week after the current time, And generate a past image 2342 based on the user information for the previous week based on the user information used to provide the current image 2340. [

도 23d는 일부 실시 예에 따른 디바이스(100)가 오전의 사용자 정보에 기초한 아바타 기반 이미지(2343, 이하 오전 이미지라고 약함)와 오후의 사용자 정보에 기초한 아바타 기반 이미지(2344, 이하 오후 이미지라고 약함)를 동시에 디스플레이 하는 예이다. 디바이스(100)는 오전 이미지(2343)와 오후 이미지(2344)를 일단위, 몇 일단위, 주단위, 월 단위, 또는 년 단위중 하나에 기초하여 생성할 수 있으나 본 개시에서 오전 이미지(2343)와 오후 이미지(2344)의 생성 단위는 이로 제한되지 않는다. Figure 23d illustrates a device 100 according to some embodiments having an avatar based image 2343 based on morning user information and an avatar based image 2344 based on afternoon user information, Are simultaneously displayed. The device 100 may generate the morning image 2343 and the afternoon image 2344 based on one of daily, day, week, month, or year units, And the generation unit of the afternoon image 2344 are not limited thereto.

도 23d를 참조하면, 오전 이미지(2343)는 사용자 정보에 “오전에 출근한다”는 정보가 포함되어 있는 것을 나타낸다. 오후 이미지(2344)는 사용자 정보에 “퇴근 후에 바이올린 레슨을 받는다”는 정보가 포함되어 있는 것을 나타낸다. Referring to FIG. 23D, the morning image 2343 indicates that the user information includes information indicating " morning to work. &Quot; The afternoon image 2344 indicates that the user information includes information that " receives a violin lesson after work. &Quot;

도 23e는 일부 실시 예에 따른 디바이스(100)가 평일에 사용자 정보에 기초한 아바타 기반 이미지(2345, 이하 평일 이미지라고 약함)와 주말에 사용자 정보에 기초한 아바타 기반 이미지(2346, 이하 주말 이미지라고 약함)를 동시에 디스플레이 하는 예이다. Figure 23E illustrates a device 100 according to some embodiments that includes an avatar-based image 2345 based on user information on weekdays and an avatar-based image 2346 based on user information on weekends, Are simultaneously displayed.

도 23e를 참조하면, 디바이스(100)는 월요일부터 금요일까지 사용자 정보에 기초하여 평일 이미지(2345)를 생성한다. 또한, 디바이스(100)는 토요일 및 일요일에 사용자 정보에 기초하여 주말 이미지(2346)를 생성할 수 있다. 디바이스(100)는 1주 단위, 몇 주단위, 월단위, 1년 단위, 또는 몇 년 단위중 하나에 기초하여 평일 이미지(2345)와 주말 이미지(2346)를 생성할 수 있으나 본 개시에서 평일 이미지(2345)와 주말 이미지(2346)의 제공 단위는 상술한 바로 제한되지 않는다. Referring to Figure 23E, the device 100 creates a weekday image 2345 based on user information from Monday through Friday. In addition, the device 100 may generate a weekend image 2346 based on user information on Saturday and Sunday. The device 100 may generate a weekday image 2345 and a weekend image 2346 based on one of weekly, weekly, monthly, yearly, or even yearly units, (2345) and the weekend image (2346) are not limited to the above-mentioned ones.

평일 이미지(2345)는 사용자 정보에 ”월요일부터 금요일까지 출근한다”는 정보가 포함되어 있는 것을 나타낸다. 주말 이미지(2346)는 사용자 정보에 “주말에는 조깅한다”는 정보가 포함되어 있는 것을 나타낸다. 본 개시에서 디바이스(100)에 디스플레이 되는 평일 이미지(2345)와 주말 이미지(2346)는 도 23d에 도시된 바로 제한되지 않는다. The weekday image 2345 indicates that the user information includes information " to go to work from Monday to Friday ". The weekend image 2346 indicates that the user information includes " jogging on weekends ". The weekday image 2345 and the weekend image 2346 displayed in the device 100 in this disclosure are not limited to those shown in Fig. 23D.

도 23f는 일부 실시 예에 따른 디바이스(100)가 봄에 사용자 정보에 기초한 아바타 기반 이미지(2347, 이하 봄 이미지라고 약함), 여름에 사용자 정보에 기초한 아바타 기반 이미지(2348, 이하 여름 이미지라고 약함), 가을에 사용자 정보에 기초한 아바타 기반 이미지(2349, 이하 가을 이미지라고 약함), 및 겨울에 사용자 정보에 기초한 아바타 기반 이미지(2350)를 동시에 디스플레이 하는 예이다. Figure 23f illustrates an embodiment in which the device 100 according to some embodiments includes an avatar based image 2347 (hereinafter abbreviated as spring image) based on user information, an avatar based image 2348 (hereinafter abbreviated as summer image based on user information) Based image 2349 (hereinafter referred to as fall image) based on user information in autumn, and an avatar-based image 2350 based on user information in winter.

디바이스(100)는, 예를 들어, 3월부터 5월까지 사용자 정보에 기초하여 봄 이미지(2347)를 생성할 수 있다. 디바이스(100)는, 예를 들어, 6월부터 8월까지 사용자 정보에 기초하여 여름 이미지(2348)를 생성할 수 있다. 디바이스(100)는, 예를 들어, 9월부터 11월까지 사용자 정보에 기초하여 가을 이미지(2349)를 생성할 수 있다. 디바이스(100)는 12월부터 2월까지 사용자 정보에 기초하여 겨울 이미지(2350)를 생성할 수 있다. The device 100 may generate a spring image 2347 based on user information, for example, from March to May. The device 100 may generate a summer image 2348 based on the user information, for example, from June to August. Device 100 may generate a fall image 2349 based on user information, for example, from September to November. Device 100 may generate a winter image 2350 based on user information from December through February.

봄 이미지(2347)와 가을 이미지(2349)는 사용자 정보에 “자전거로 출근한다”는 정보가 포함되어 있는 것을 나타낸다. 여름 이미지(2348)와 겨울 이미지(2350)는 사용자 정보에 “자동자로 출근한다”는 정보가 포함되어 있는 것을 나타낸다. 디바이스(100)는 사용자 정보에 따라 서로 다른 봄 이미지(2347), 여름 이미지(2348), 가을 이미지(2349), 및 겨울 이미지(2350)를 생성하고, 디스플레이 할 수 있다. The spring image 2347 and the autumn image 2349 indicate that the user information includes information of " coming to work by bicycle ". The summer image 2348 and the winter image 2350 indicate that the user information includes information indicating " automatically go to work ". Device 100 may generate and display different spring images 2347, summer images 2348, autumn images 2349, and winter images 2350 according to user information.

디바이스(100)는 봄 이미지(2347), 여름 이미지(2348), 가을 이미지(2349), 및 겨울 이미지(2350)를 월별 이미지 또는 몇 개월 단위 이미지로 생성하고, 디스플레이 할 수 있다. The device 100 may generate and display a spring image 2347, a summer image 2348, an autumn image 2349, and a winter image 2350 as a monthly image or a month-by-month image.

디바이스(100)는 사용자 정보에 따라 도 23a 내지 도 23f에 도시된 이미지들(2310, 2340, 2341, 2342, 2343, 2344, 2345, 2346)에 더 다양한 오브젝트를 포함시켜 생성하고, 디스플레이 할 수 있다. The device 100 can generate and display more various objects in the images 2310, 2340, 2341, 2342, 2343, 2344, 2345, and 2346 shown in Figs. 23A to 23F according to the user information .

상술한 일부 실시 예들에서 언급되고 있는 디바이스(100)가 아바타 기반 이미지를 생성하고, 디스플레이 하는 것은 디바이스(100)가 아바타 기반 이미지를 제공하는 것을 말한다. The device 100, which is mentioned in some of the embodiments described above, generates and displays an avatar-based image, which means that the device 100 provides an avatar-based image.

이하 설명의 편의를 위해, 디바이스(100)에 디스플레이 되고 있는 아바타 기반 이미지를 도 23a에 도시된 이미지(2310)로 언급한다. 그러나, 본 개시에서 아바타 기반 이미지는 이로 제한되지 않는다. 예를 들어, 디바이스(100)에 디스플레이 되고 있는 아바타 기반 이미지(2310)는 사용자 정보에 따라 도 23b 내지 도 23f에 도시된 아바타 기반 이미지들(2340, 2341, 2342, 2343, 2344, 2345, 2346)중 하나가 될 수 있다. 또한, 디바이스(100)에 디스플레이 되고 있는 아바타 기반 이미지(2310)는 사용자 정보에 따라 도 23a 내지 도 23f에 도시된 아바타 기반 이미지들(2340, 2341, 2342, 2343, 2344, 2345, 2346)중 하나에 적어도 하나의 오브젝트가 추가된 이미지가 될 수 있다. For convenience of the following description, the avatar-based image displayed on the device 100 is referred to as the image 2310 shown in FIG. 23A. However, the avatar-based image in this disclosure is not limited to this. For example, the avatar-based image 2310 being displayed on the device 100 may include the avatar-based images 2340, 2341, 2342, 2343, 2344, 2345, and 2346 shown in Figures 23B- ≪ / RTI > Further, the avatar-based image 2310 displayed on the device 100 may be displayed in accordance with the user information such that one of the avatar-based images 2340, 2341, 2342, 2343, 2344, 2345, 2346 shown in Figs. 23A to 23F The image may be an image in which at least one object is added.

디바이스(100)는 정적인 이미지 및 동적인 이미지중 적어도 하나의 이미지로 아바타 기반 이미지(2310)를 표현할 수 있다. 예를 들어, 디바이스(100)는 동적인 이미지로 아바타 기반 이미지(2310)를 표현한 후, 제 1 시간이 경과하면, 정적인 이미지로 아바타 기반 이미지(2310)를 표현할 수 있다. 디바이스(100)는 정적인 이미지로 아바타 기반 이미지(2310)를 표현한 후, 제 2 시간이 경과하면, 동적인 이미지로 아바타 기반 이미지(2310)를 표현할 수 있다. 제 1 시간과 제 2 시간은 사전에 설정될 수 있다. 제 1 시간과 제 2 시간은 동일한 시간일 수 있으나 서로 다른 시간일 수 있다. The device 100 may represent the avatar-based image 2310 with at least one of a static image and a dynamic image. For example, the device 100 may represent the avatar-based image 2310 as a dynamic image, and then render the avatar-based image 2310 as a static image after a first time period. The device 100 may render the avatar-based image 2310 as a static image, and then render the avatar-based image 2310 as a dynamic image after a second time period. The first time and the second time may be set in advance. The first time and the second time may be the same time, but may be different times.

도 23a를 참조하면, 사용자 정보(2300)는 사용자의 취미에 관한 정보(2301), 사용자의 이름(2302), 및 사용자의 성별에 관한 정보(2303)를 포함한다. 본 개시에서 사용자 정보(2300)는 도 23a에 도시된 바로 제한되지 않는다. Referring to FIG. 23A, the user information 2300 includes information 2301 about a user's hobby, a name 2302 of a user, and information 2303 about a user's sex. The user information 2300 in this disclosure is not limited to the one shown in Fig. 23A.

예를 들어, 사용자 정보(2300)는 명세서 서두에서 언급된 사용자 정보중 적어도 하나를 더 포함할 수 있다. 사용자 정보(2300)는 도 23a에 도시된 것보다 더 적은 정보를 포함할 수 있다. 예를 들어, 사용자 정보(2300)는 사용자의 취미에 관한 정보(2301) 및 사용자의 이름(2302)으로 구성될 수 있다. For example, the user information 2300 may further include at least one of the user information mentioned in the introduction of the specification. User information 2300 may contain less information than that shown in FIG. 23A. For example, the user information 2300 may comprise information 2301 about the user's hobby and a name 2302 of the user.

아바타 기반 이미지(2310)를 생성하기 위하여, 디바이스(100)는 사용자 정보(2300)에 관한 사용자 모델링 정보(2400)를 생성할 수 있다. 사용자 모델링 정보(2400)는 사용자 모델링 정보 테이블이라 말할 수 있다. In order to create an avatar based image 2310, the device 100 may generate user modeling information 2400 on the user information 2300. The user modeling information 2400 can be referred to as a user modeling information table.

디바이스(100)는 온톨로지(ontology) 기반으로 사용자 정보(2300)에 대한 사용자 모델링 정보(2400)를 생성할 수 있다. 사용자 정보(2300)에 대한 사용자 모델링 정보(2400)를 생성하는 방식은 온톨리지 기반으로 제한되지 않는다. The device 100 may generate user modeling information 2400 for the user information 2300 based on an ontology. The manner of generating user modeling information 2400 for user information 2300 is not limited to ontology based.

도 24a는 사용자 정보(2300)에 대한 사용자 모델링 정보(2400)의 예로서 온톨리지 기반이다. 온톨로지는 상술한 도 3에서 설명한 바와 같다. 24A is on-topology-based as an example of user modeling information 2400 for user information 2300. FIG. The ontology is as described in Fig.

도 24a를 참조하면, 사용자 모델링 정보(2400)는 서브젝트(subject) 필드(2401), 프레디킷(predicate) 필드(2402), 및 오브젝트(object) 필드(2403)를 포함한다. Referring to FIG. 24A, user modeling information 2400 includes a subject field 2401, a predicate field 2402, and an object field 2403.

도 24a에 도시된 서브젝트 필드(2401)는 사용자 정보(2300)의 대상에 관한 필드이다. 도 24a를 참조하면, 사용자 정보(2300)의 대상은 사용자 1(user_1)이다. 도 24a는 클래스(class)(2404)와 리소스(resource)(2405)를 이용하여 사용자 1(user_1)이 사람(person)임을 나타내고 있다. 리소스(2405)는 클래스(2404)를 인스턴스(instance)화 한 것이다. The subject field 2401 shown in FIG. 24A is a field related to the target of the user information 2300. Referring to FIG. 24A, the object of the user information 2300 is user 1 (user_1). 24A shows that the user 1 (user_1) is a person by using a class 2404 and a resource 2405. FIG. Resource 2405 is an instance of class 2404.

도 24a에 도시된 프레디킷 필드(2402)는 서브젝트 필드(2401)와 오브젝트 필드(2403)에 포함된 단어간의 관계를 나타내는 정형 어휘를 나타내는 필드이다. 따라서 도 24a에 도시된 프레디킷 필드(2402)는 이름에 관한 정형 어휘(Name), 성별에 관한 정형 어휘(Gender), 및 취미에 관한 정형 어휘(hasHobby)를 포함한다. 24A is a field showing a formal vocabulary indicating the relationship between words included in the subject field 2401 and the object field 2403. [ 24A includes a fixed vocabulary (Name) about a name, a fixed vocabulary (Gender) about sex, and a fixed vocabulary (hasHobby) about hobbies.

이름에 관한 정형 어휘(Name)에 의해 오브젝트 필드(2403)에 포함되어 있는 “A”를 “사용자 1”의 이름으로 표현할 수 있다. 성별에 관한 정형 어휘(Gender)에 의해 오브젝트 필드(2403)에 있는 “여성”을 “사용자 1”의 성별로 표현할 수 있다. 취미에 관한 정형 어휘(hasHobby)에 의해 오브젝트 필드(2403)에 있는 “바이롤린”을 “사용자 1”의 취미로 표현할 수 있다. 도 24a에 도시된 오브젝트 필드(2403)에 포함된 정보는 프레디킷 필드(2402)에 포함된 정형 어휘에 대응되는 사용자 1의 사용자 정보이다. Quot; A " included in the object field 2403 can be expressed by the name of " user 1 " The "woman" in the object field 2403 can be expressed by the sex of "user 1" by the fixed form vocabulary (Gender) regarding the sex. The "bilingual" in the object field 2403 can be represented by the habit of "user 1" by the fixed habit of hashobby (hasHobby). The information included in the object field 2403 shown in FIG. 24A is the user information of the user 1 corresponding to the fixed vocabulary included in the predicate field 2402.

도 24a의 사용자 모델링 정보(2400)는 RDF(Resource Description Framework) 언어로 생성한 예이다. 그러나 디바이스(100)는 OWL(Ontogogy Web Language), 및 SWRL(Semantic Web Rule Language) 등과 같은 언어로 사용자 정보(2300)에 대한 온톨리지 기반의 사용자 모델링 정보를 생성할 수 있다. The user modeling information 2400 shown in FIG. 24A is an example generated in the RDF (Resource Description Framework) language. However, device 100 may generate ontology-based user modeling information for user information 2300 in languages such as OWL (Ontogy Web Language) and SWRL (Semantic Web Rule Language).

도 24b는 일부 실시 예에 따른 디바이스(100)에 디스플레이 될 수 있는 아바타 기반 이미지(2310)에 포함되는 오브젝트의 디스플레이 사이즈에 관한 예이다. 도 24b는 도 24a에 도시된 사용자 모델링 정보(2400)에 포함된 바이올린에 대한 예이다. 24B is an example of a display size of an object included in an avatar-based image 2310 that can be displayed on the device 100 according to some embodiments. FIG. 24B is an example of a violin included in the user modeling information 2400 shown in FIG. 24A.

도 24b를 참조하면, 디바이스(100)는 오브젝트에 부여된 가중치(possible weight value)에 따라 오브젝트의 디스플레이 사이즈를 결정할 수 있다. 도 24b에 도시된 바와 같이, 디바이스(100)는 오브젝트 필드(2403)에 포함된 바이올린에 부여된 가중치에 따라 아바타 기반 이미지(2310)에 포함될 바이올린의 디스플레이 사이즈를 결정할 수 있다. 가중치는 사용자 정보에 따라 결정될 수 있다. 가중치에 따른 디스플레이 사이즈는 사전에 설정될 수 있다. Referring to FIG. 24B, the device 100 may determine a display size of an object according to a possible weight value of the object. As shown in FIG. 24B, the device 100 may determine the display size of the violin to be included in the avatar-based image 2310 according to the weight given to the violin included in the object field 2403. FIG. The weights may be determined according to the user information. The display size according to the weight can be set in advance.

도 24b를 참조하면, 가중치 범위는 0 ~ 1이다. 가중치가 0.3인 경우는 가중치가 1인 경우보다 바이올린에 대한 사용자의 관심도가 떨어지는 것을 나타낸다. 예를 들어, 디바이스(100)의 사용자 정보에 기초하여 사용자의 취미는 바이올린이고, 격일로 바이올린을 1시간씩 연주하는 것으로 판단되면, 디바이스(100)는 바이올린에 대한 가중치를 0.5로 할당할 수 있다. 또한, 디바이스(100)의 사용자 정보에 기초하여 사용자의 취미는 바이올린이고, 매일 1시간씩 연주하는 것으로 판단되면, 디바이스(100)는 바이올린에 대한 가중치를 1로 할당할 수 있다. Referring to FIG. 24B, the weight range is 0 to 1. A weight of 0.3 indicates that the user's interest in the violin is lower than in the case of a weight of 1. For example, if the user's hobby based on the user information of the device 100 is a violin and it is determined that the violin is played every hour for one hour, the device 100 may assign a weight for the violin to 0.5 . In addition, if the user's hobby based on the user information of the device 100 is a violin and it is determined that the user plays one hour each day, the device 100 can assign a weight for the violin to one.

바이올린에 대한 가중치가 0.5인 경우에, 디바이스(100)는 바이올린의 디스플레이 사이즈를 (50×50) 픽셀로 결정한다. 이에 따라 디바이스(100)는 (50×50) 픽셀의 바이올린 이미지를 포함하는 아바타 기반 이미지(2310)를 생성할 수 있다. If the weight for the violin is 0.5, the device 100 determines the display size of the violin to be (50 x 50) pixels. Accordingly, the device 100 may generate an avatar-based image 2310 that includes a violin image of (50 x 50) pixels.

또한, 바이올린에 대한 가중치가 1인 경우에, 디바이스(100)는 바이올린의 디스플레이 사이즈를 (100×100) 픽셀로 결정한다. 이에 따라 디바이스(100)는 (100×100) 픽셀의 바이올린 이미지를 포함하는 아바타 기반 이미지(2310)를 생성할 수 있다. Further, when the weight for the violin is 1, the device 100 determines the display size of the violin to be (100 x 100) pixels. Accordingly, the device 100 may generate an avatar based image 2310 that includes a violin image of (100 x 100) pixels.

도 24c는 일부 실시 예에 따른 아바타 기반 이미지(2310)에 포함되는 오브젝트의 디스플레이 사이즈를 설명하는 도면이다. 도 24c는 도 24a에 도시된 사용자 모델링 정보(2400)에 포함된 여자에 대한 예이다. 24C is a view for explaining a display size of an object included in the avatar-based image 2310 according to some embodiments. FIG. 24C is an example of the excitation included in the user modeling information 2400 shown in FIG. 24A.

도 24c를 참조하면, 디바이스(100)는 체중(weight)과 키(height)에 따라 아바타 기반 이미지(2310)에 포함될 아바타(2311)의 디스플레이 사이즈를 결정할 수 있다. 체중과 키는 사용자 모델링 정보(2400)의 오브젝트 필드(2403)에 포함된 여자의 체중과 키이다. 여자의 체중 및 키는 사용자 정보에 포함된 정보이다. 디바이스(100)는 사전에 설정된 복수의 디스플레이 사이즈중 하나를 선택할 수 있다. Referring to FIG. 24C, the device 100 may determine the display size of the avatar 2311 to be included in the avatar-based image 2310 according to the weight and the height. The weight and the key are the weight and the height of the woman included in the object field 2403 of the user modeling information 2400. The weight and key of the woman are the information included in the user information. The device 100 may select one of a plurality of preset display sizes.

도 24c를 참조하면, 디바이스(100)는 체중에 대한 기준치를 50kg으로 하고, 키에 대한 기준치를 170cm로 하고 있다. 그러나, 본 개시에서 기준치들은 상술한 바로 제한되지 않는다. 사용자 정보에 포함되는 사용자의 체중이 “(키-100)×0.9+5 > 체중”조건을 만족하면, 디바이스(100)는 아바타 기반 이미지(2310)에 포함되는 여자 아바타(2311)를 비만 이미지로 디스플레이 할 수 있다. Referring to FIG. 24C, the device 100 has a reference value for body weight of 50 kg and a reference value for a key of 170 cm. However, the reference values in the present disclosure are not limited to those just described. If the user's weight included in the user information satisfies the condition "(key -100) × 0.9 + 5> weight", the device 100 sets the female avatar 2311 included in the avatar-based image 2310 as an obese image Can be displayed.

또한, 사용자의 체중이 “(키-100)×0.9 < 체중”조건을 만족하면, 디바이스(100)는 아바타 기반 이미지(2310)에 포함된 여자 아바타(2311)를 마른 이미지로 디스플레이 할 수 있다. 사용자의 체중이 “기타” 조건을 만족하면, 디바이스(100)는 아바타 기반 이미지(2310)에 포함되는 여자 아바타(2311)를 보통 이미지로 디스플레이 할 수 있다. In addition, if the user's weight satisfies the condition "(key-100) x 0.9 <weight", the device 100 can display the woman avatar 2311 included in the avatar-based image 2310 as a skinny image. If the user's weight satisfies the &quot; other &quot; condition, the device 100 may display the female avatar 2311 included in the avatar-based image 2310 as a normal image.

도 25는 일부 실시 예에 따른 오브젝트 이미지와 오브젝트 식별 정보간 매핑 정보(2500)의 예를 도시한다. 도 25를 참조하면, 디바이스(100)는 매핑 정보(2500)와 도 24에 도시된 사용자 모델링 정보(2400)를 이용하여 아바타 기반 이미지(2310)를 생성할 수 있다. 도 25에 도시된 오브젝트 이미지는 도 24b 및 도 24c에서 언급된 바와 같이 사용자 정보에 포함되는 정보에 기초하여 디스플레이 사이즈가 조정되거나 변경될 수 있다. 25 shows an example of mapping information 2500 between an object image and object identification information according to some embodiments. Referring to FIG. 25, the device 100 may generate the avatar-based image 2310 using the mapping information 2500 and the user modeling information 2400 shown in FIG. The object image shown in Fig. 25 can be adjusted or changed in display size based on the information included in the user information, as mentioned in Figs. 24B and 24C.

매핑 정보(2500)는 본 개시의 서두에서 언급된 사용자 정보들 모두 또는 일부를 고려하여 구성될 수 있다. 매핑 정보(2500)는 매핑 정보 테이블이라고 말할 수 있다. The mapping information 2500 may be configured in view of all or some of the user information referred to at the beginning of this disclosure. The mapping information 2500 may be referred to as a mapping information table.

본 개시에서 매핑 정보(2500)는 도 25에 도시된 바와 다르게 설정될 수 있다. 예를 들어, 매핑 정보(2500)는 도 25에 도시된 바와 같이 정지영상의 오브젝트 이미지를 제공하도록 구성될 수 있으나 동영상의 오브젝트 이미지를 제공하도록 구성될 수 있다. 매핑 정보는 디바이스(100)에 저장될 수 있으나 외부 디바이스(2120)에 저장될 수 있다. In this disclosure, the mapping information 2500 may be set differently from that shown in Fig. For example, the mapping information 2500 may be configured to provide an object image of a still image as shown in FIG. 25, but may be configured to provide an object image of the moving image. The mapping information may be stored in the device 100 but may be stored in the external device 2120.

바이올린이나 기타에 대응되는 이미지는 바이올린을 연주하는 표준 이미지나 기타를 연주하는 표준 이미지를 포함할 수 있다. 표준 이미지 역시 정지 영상 형태 또는 동영상 형태로 제공될 수 있다. 표준 이미지는 악기와 악기를 연주하는 아바타 이미지를 포함할 수 있다. An image corresponding to a violin or guitar may include a standard image playing the violin or a standard image playing the guitar. Standard images may also be provided in still image format or video format. The standard image may include a musical instrument and an avatar image that plays the musical instrument.

매핑 정보(2500)에 표준 이미지가 저장된 경우에, 디바이스(100)는 악기를 연주하는 아바타를 사용자의 아바타로 변경할 수 있다. 디바이스(100)는 악기를 연주하는 아바타를 디스플레이 하는데 필요한 특징점에 관한 위치 정보와 사용자의 아바타를 디스플레이 하는데 필요한 특징점에 관한 위치 정보를 매핑시켜 악기를 연주하는 아바타를 사용자의 아바타로 변경할 수 있다. 특징점에 관한 위치 정보는 아바타가 2차원 이미지인 경우에, (x,y) 좌표 값으로 표현될 수 있다. 특징점에 관한 위치 정보는 아바타가 3차원 이미지인 경우에, (x, y, z) 좌표 값으로 표현될 수 있다. When the standard image is stored in the mapping information 2500, the device 100 can change the avatar playing the musical instrument to the user's avatar. The device 100 may change the avatar playing the musical instrument to the avatar of the user by mapping the positional information about the minutiae necessary for displaying the avatar playing the musical instrument and the positional information about the minutiae necessary for displaying the avatar of the user. The positional information about the minutiae can be expressed by the (x, y) coordinate value when the avatar is a two-dimensional image. The positional information on the minutiae can be expressed by (x, y, z) coordinate values when the avatar is a three-dimensional image.

도 26은 일부 실시 예에 따른 사용자 모델링 정보(2400)와 매핑 정보(2500)를 이용하여 아바타 기반 이미지(2310)를 생성하는 과정을 설명하는 도면이다. 26 is a view for explaining a process of generating an avatar-based image 2310 using user modeling information 2400 and mapping information 2500 according to some embodiments.

도 26을 참조하면, 디바이스(100)는 사용자 정보(2300)의 오브젝트 필드(2303)에 포함된 정보(A, 여자(Woman), 바이올린(Violin)을 검출한다. 디바이스(100)는 검출된 정보에 할당된 오브젝트 식별 정보(예를 들어, 여자의 경우에 “0000 0010”, 바이올린의 경우에 “0000 0011”)를 이용하여 매핑 정보(2500)로부터 대응되는 오브젝트 이미지들(2610, 2620)을 각각 검출한다. 디바이스(100)는 검출된 오브젝트 이미지들(2610, 2620)을 결합한다. 26, the device 100 detects information (A, Woman, Violin) included in the object field 2303 of the user information 2300. The device 100 detects the information 2620 from the mapping information 2500 using the object identification information (e.g., &quot; 0000 0010 &quot; in the case of the violin and 0000 0011 in the case of the violin) Device 100. The device 100 combines the detected object images 2610 and 2620.

오브젝트 이미지들(2610, 2620)을 결합할 때, 디바이스(100)는 각 오브젝트 이미지들(2610, 2620)을 렌더링하기 위해 사용되는 좌표 값(2차원 좌표 값 또는 3차원 좌표 값)과 사전에 설정된 결합 조건 정보를 이용할 수 있다. When combining the object images 2610 and 2620, the device 100 sets the coordinate values (two-dimensional coordinate values or three-dimensional coordinate values) used to render the respective object images 2610 and 2620, Binding condition information can be used.

각 오브젝트 이미지별 좌표 값은 매핑 정보(2500)에 포함된 오브젝트 식별 정보를 이용하여 검출될 수 있는 테이블로 구성될 수 있다. 예를 들어, 디바이스(100)는 “0000 0010”를 이용하여 좌표 값 테이블로부터 오브젝트 이미지(2610)를 렌더링할 때 사용되는 좌표 값을 검출할 수 있다. 좌표 값 테이블은 각 오브젝트 이미지를 디스플레이 하기 위해 필요한 특징점의 위치 정보를 포함할 수 있다. 좌표 값 테이블은 디바이스(100) 또는/및 외부 디바이스(2120)에 저장될 수 있다. The coordinate value of each object image may be configured as a table that can be detected using the object identification information included in the mapping information 2500. [ For example, the device 100 may detect the coordinate value used when rendering the object image 2610 from the coordinate value table using &quot; 0000 0010 &quot;. The coordinate value table may include position information of feature points required to display each object image. The coordinate value table may be stored in the device 100 and / or the external device 2120.

좌표 값 테이블은 오브젝트 이미지의 골격 데이터 테이블일 수 있다. 예를 들어, 오브젝트 이미지가 이미지(2610)와 같이 아바타인 경우에, 골격 데이터 테이블은 아바타의 윤곽을 나타낸다. 예를 들어, 아바타의 골격 데이터는 얼굴, 머리, 목, 어깨, 가슴, 허리, 엉덩이, 팔의 길이, 팔의 두께, 다리의 길이, 다리의 두께, 오른손, 및/또는 왼손 등에 관한 정보를 포함할 수 있으나 본 개시는 이로 제한되지 않는다. The coordinate value table may be a skeleton data table of the object image. For example, if the object image is an avatar such as image 2610, the skeleton data table represents the outline of the avatar. For example, the skeleton data of the avatar includes information on the face, head, neck, shoulder, chest, waist, hip, arm length, arm thickness, leg length, leg thickness, right hand, and / But this disclosure is not limited thereto.

예를 들어, 오브젝트 이미지가 이미지(2620)와 같이 바이올린인 경우에, 골격 데이터 테이블은 바이올린의 윤곽을 나타낸다. 예를 들어, 바이롤린의 골격 데이터는 스크롤(Scroll), 줄감개, 줄감개집, 너트, 넥(neck), 지판, 현, 울림판, 퍼플링, 옆판, 허리, 브지지, 1자 구멍, 줄걸이판, 턱받침, 및/또는 버튼 등에 관한 정보를 포함할 수 있으나 이로 제한되지 않는다. For example, if the object image is a violin, such as image 2620, the skeleton data table represents the outline of the violin. For example, the skeleton data of a biorolin may include a scroll, a lanyard, a lanyard, a nut, a neck, a fingerboard, a string, a loudspeaker, a purple ring, a side plate, a waist, But is not limited to, information about a hanger plate, a chin rest, and / or buttons, and the like.

결합 조건 정보는 오브젝트 이미지간에 결합될 위치 정보를 포함할 수 있다. 결합 조건 정보는 결합될 오브젝트 이미지들의 식별 정보를 이용하여 검출될 수 있는 테이블로 구성될 수 있다. 예를 들어, 도 26과 같이 오브젝트 이미지들(2610, 2620)을 결합할 경우에, 디바이스(100)는 오브젝트 이미지들(2610, 2620)의 식별 정보인 “0000 0010”, “0000, 0011”를 이용하여 결합 조건 정보 테이블로부터 이미지들(2610, 2620)간의 결합 조건 정보를 검출할 수 있다. The combining condition information may include position information to be combined between the object images. The combining condition information may be composed of a table that can be detected using the identification information of object images to be combined. For example, when the object images 2610 and 2620 are combined as shown in FIG. 26, the device 100 acquires the identification information of the object images 2610 and 2620 as &quot; 0000 0010 &quot;, &quot; 0000, 0011 &quot; The combining condition information between the images 2610 and 2620 can be detected from the combining condition information table.

결합 조건 정보가, 예를 들어, 오브젝트 이미지(2610)의 오른손에 바이올린 활을 들고, 왼 손에 바이올린의 넥을 든다”를 나타내는 위치 정보를 포함할 경우에, 디바이스(100)는 오브젝트 이미지(2610)와 오브젝트 이미지(2620)를 이미지(2630)와 같이 결합하여 제공할 수 있다. 위치 정보는 각 오브젝트를 디스플레이 하기 위해 필요한 특징점의 위치 정보를 나타낸다. 결합 조건 정보 테이블은 디바이스(100) 및/또는 외부 디바이스(2120)에 사전에 저장될 수 있다. The device 100 includes an object image 2610 (for example, if the binding condition information includes position information indicating, for example, a violin bow in the right hand of the object image 2610 and a neck of the violin in the left hand) And an object image 2620 in combination with an image 2630 as shown in FIG. The position information indicates position information of the feature points necessary to display each object. The binding condition information table may be previously stored in the device 100 and / or the external device 2120.

아바타 기반 이미지(2310)를 생성하기 위하여, 결합 조건 정보는 “오른손에 바이올린 활을 들고, 턱에 바이올린의 턱받침을 대고, 왼손은 바이올린의 넥을 쥔다”를 나타내는 위치 정보를 포함할 수 있다. 바이올린 이미지(2620)가 바이올린을 연주하는 표준 이미지인 경우에, 디바이스(100)는 바이올린을 연주하는 연주자를 렌더링하는데 이용되는 좌표 값(또는 특징점의 위치 정보)을 오브젝트 이미지(2610)의 좌표 값으로 변경할 수 있다. To create the avatar-based image 2310, the combining condition information may include positional information indicating &quot; holding the violin bow in the right hand, putting the jaw of the violin in the jaw, and holding the neck of the violin in the left hand &quot;. In the case where the violin image 2620 is a standard image for playing the violin, the device 100 stores the coordinate value (or position information of the minutiae point) used to render the player who plays the violin as the coordinate value of the object image 2610 Can be changed.

단계 S2202에서, 디바이스(100)는 사용자 입력에 따라 아바타 기반 이미지(2310)를 수정한다. 사용자 입력은 아바타 기반 이미지(2310)에 대한 수정 요청을 나타내는 사용자 입력, 오브젝트 선택을 나타내는 사용자 입력, 또는 수정 완료를 나타내는 사용자 입력을 포함할 수 있으나 본 개시에서 사용자 입력은 이로 제한되지 않는다. 수정 요청을 나타내는 사용자 입력은 편집 요청을 나타내는 사용자 입력을 나타낼 수 있다. 수정 완료를 나타내는 사용자 입력은 편집 완료를 나타내는 사용자 입력을 나타낼 수 있다. In step S2202, the device 100 modifies the avatar-based image 2310 according to user input. The user input may include a user input indicating a modification request for the avatar based image 2310, a user input indicating an object selection, or a user input indicating completion of modification, but the user input is not limited to this in this disclosure. The user input representing the modification request may represent a user input representing an editing request. A user input indicating completion of modification may indicate a user input indicating completion of editing.

사용자 입력은 터치, 터치 & 드래그, 제스처, 멀티 모달, 및 음성 중 적어도 하나에 기초할 수 있다. 사용자 입력은 외부 디바이스(2120)로부터 수신될 수 있다. The user input may be based on at least one of a touch, a touch & drag, a gesture, a multimodal, and a voice. The user input may be received from the external device 2120.

디바이스(100)는 아바타 기반 이미지(2310)가 디스플레이 되고 있을 때, 수정 요청을 나타내는 사용자 입력이 수신되면, 수정 가능한 오브젝트를 표시할 수 있다. The device 100 may display the modifiable object when the user input indicating the modification request is received when the avatar based image 2310 is being displayed.

도 27a 내지 도 27f는 일부 실시 예에 따른 디바이스(100)가 수정 가능한 오브젝트를 표시하는 예들이다. Figures 27A-27F are examples of devices 100 according to some embodiments displaying modifiable objects.

도 27a를 참조하면, 수정 요청 버튼(2701)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 사용자의 이름(2702)과 바이올린(2703)을 하이라이트 표시한다. 이에 따라 사용자는 사용자의 이름(2702)과 바이올린(2703)이 수정 가능한 오브젝트임을 알 수 있다. Referring to FIG. 27A, when a user input indicating a selection for the modification request button 2701 is received, the device 100 highlights the name 2702 of the user and the violin 2703. [ Accordingly, the user can know that the name 2702 of the user and the violin 2703 are modifiable objects.

도 27b에서, 수정 요청 버튼(2705)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 사용자의 이름(2702)의 일부 영역에 이름을 나타내는 메시지(2706)를 오버랩하여 디스플레이한다. 또한, 디바이스(100)는 바이올린(2703)상의 일부 영역에 취미를 나타내는 메시지(2707)를 오버랩하여 디스플레이 한다. 취미를 나타내는 메시지(2707)는 바이올린(2703)과 관련된 정보(예를 들어, 바이올린 연주)를 포함할 수 있다. 이에 따라 사용자는 사용자의 이름(2702)과 바이올린(2703)이 수정 가능한 오브젝트 또는 사용자의 이름(2702)과 사용자의 취미(2707)가 수정 가능한 오브젝트임을 알 수 있다. 27B, when a user input indicating a selection for the modification request button 2705 is received, the device 100 overlaps and displays a message 2706 indicating a name in a partial area of the user's name 2702. [ In addition, the device 100 overlays and displays a message 2707 indicating a hobby in a part of the area on the violin 2703. The message 2707 indicating the hobby may include information (e.g., playing a violin) related to the violin 2703. [ Accordingly, the user can know that the user's name 2702 and the violin 2703 are objects that can be modified, such as the object 2702 or the user's hobby 2707.

도 27c를 참조하면, 디바이스(100)는 수정 가능한 오브젝트에 대한 아이콘들(2710, 2711)을 포함하는 트레이(2712)를 아바타 기반 이미지(2310)와 함께 디스플레이 할 수 있다. Referring to Figure 27C, the device 100 may display a tray 2712 with icons 2710,2711 for the modifiable object along with the avatar based image 2310. [

도 27c에서, 수정 요청 버튼(2709)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 취미에 관한 아이콘(2710)과 이름에 관한 아이콘(2711)이 포함된 트레이(2712)를 제공한다. 취미에 관한 아이콘(2710)은 바이올린(2703)에 관련된 정보를 포함할 수 있다. 이에 따라 사용자는 사용자의 이름(2702)과 바이올린(2703) 또는 사용자의 이름(2702)과 취미 아이템이 수정 가능한 오브젝트임을 알 수 있다. 트레이(2712)는 아이콘들(2710, 2711)에 관한 식별 정보(취미, 이름)를 더 포함할 수 있다. 27C, when a user input representing a selection for the modification request button 2709 is received, the device 100 provides a tray 2712 containing an icon 2710 about the hobby and an icon 2711 about the name do. The hobby icon 2710 may include information related to the violin 2703. Accordingly, the user can know that the user's name 2702, the violin 2703, the user's name 2702, and the hobby item are editable objects. The tray 2712 may further include identification information (hobby, name) relating to the icons 2710 and 2711.

도 27c를 참조하면, 디바이스(100)는 화면 하단에 트레이(2712)를 디스플레이 한다. 그러나 트레이(2712)는 화면 좌측, 우측, 상측, 또는 하측중 적어도 하나에 표시될 수 있다. 수정 가능한 오브젝트의 아이콘의 수가 트레이(2712)에 동시에 디스플레이 될 수 있는 오브젝트의 아이콘의 수보다 많으면, 디바이스(100)는 트레이(2712)에 기초한 스크롤 입력에 따라 트레이(2712)를 통해 디스플레이 되고 있는 오브젝트의 아이콘을 이동시키면서 선택 가능한 오브젝트의 아이콘들을 디스플레이 할 수 있다. 트레이(2712)에 기초한 스크롤 입력은 트레이(2712) 영역에 기초한 스크롤 입력을 포함할 수 있다. Referring to FIG. 27C, the device 100 displays a tray 2712 at the bottom of the screen. However, the tray 2712 may be displayed on at least one of the left side, the right side, the upper side, or the lower side of the screen. If the number of icons of the modifiable object is greater than the number of icons of the object that can be simultaneously displayed in the tray 2712, the device 100 displays the object being displayed through the tray 2712 in accordance with the scroll input based on the tray 2712 The icon of the selectable object can be displayed while moving the icon of the object. The scroll input based on the tray 2712 may include a scroll input based on the tray 2712 area.

수정 가능한 오브젝트의 아이콘의 수가 트레이(2712)에 동시에 디스플레이 될 수 있는 오브젝트의 아이콘의 수보다 많으면, 디바이스(100)는 사전에 설정된 카테고리별로 나눈 복수의 트레이를 제공할 수 있다. If the number of editable object icons is greater than the number of icons of objects that can be simultaneously displayed in the tray 2712, the device 100 may provide a plurality of trays divided into predetermined categories.

디바이스(100)가 복수의 트레이를 제공할 경우에, 디바이스(100)는 복수의 트레이를 화면의 좌측, 우측, 상측 또는 하측중 적어도 하나의 위치에 하나의 트레이를 배치하거나 복수의 트레이를 계층적인 구조로 배치할 수 있다. 카테고리는 수정 가능한 오브젝트의 종류에 따라 설정될 수 있으나 이로 제한되지 않는다. In the case where the device 100 provides a plurality of trays, the device 100 may arrange a plurality of trays on at least one of the left, right, upper, or lower sides of the screen, Structure. The category may be set according to the type of object that can be modified, but is not limited thereto.

도 27c에서 트레이(2712)에 포함된 하나의 오브젝트의 아이콘이 선택되면, 디바이스(100)는 선택된 오브젝트의 아이콘에 대응되는 오브젝트를 하이라이트 표시할 수 있다. 27C, when the icon of one object included in the tray 2712 is selected, the device 100 can highlight the object corresponding to the icon of the selected object.

도 27d는 일부 실시 예에 따른 디바이스(100)가 오브젝트에 대한 터치 기반 입력에 따라 수정 가능한 오브젝트에 관한 정보를 말주머니를 통해 제공하는 예이다. Figure 27D is an example in which device 100 according to some embodiments provides information about a modifiable object through a mouthpocket in accordance with a touch-based input to an object.

도 27d에서, 수정 요청 버튼(2714)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 디스플레이 되고 있는 이미지중 수정 가능한 이미지를 활성화 시킬 수 있다. 27D, when a user input indicating a selection for the modify request button 2714 is received, the device 100 may activate a modifiable one of the images being displayed.

디스플레이 되고 있는 이미지중에서 수정 가능한 오브젝트(예를 들어 바이올린(2703))에 대한 선택을 나타내는 터치 기반 입력(2715)이 수신되면, 디바이스(100)는 오브젝트(바이올린(2703))에 대한 수정한 가능한 정보(예를 들어, 취미)를 포함하는 말주머니(2716)를 디스플레이 한다. 디바이스(100)는 말주머니(2716)가 오브젝트(2703)에 관련된 것을 나타낼 수 있도록 오브젝트(2703)에 인접한 위치에 말주머니(2716)를 디스플레이 할 수 있다. 이에 따라 사용자는 바이올린(2703)이 수정 가능한 오브젝트이고, 취미에 관한 사용자 정보를 수정할 수 있는 것을 알 수 있다. Based input 2715 indicating a selection of an editable object (e.g., a violin 2703) from among the images being displayed is received, the device 100 determines that the edited possible information for the object (violin 2703) (E. G., Hobby). &Lt; / RTI &gt; The device 100 may display the horse pocket 2716 at a position adjacent to the object 2703 so that the horse pocket 2716 may indicate that it is related to the object 2703. [ Thus, the user can know that the violin 2703 is a modifiable object and can modify the user information about the hobby.

도 27e를 참조하면, 디바이스(100)는 수정 가능한 오브젝트를 팝업 창(2721)으로 제공한다. 도 27e에서, 수정 요청 버튼(2718)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 수정 가능한 오브젝트에 관한 정보들(2719, 2720)을 포함하는 팝업 창(2721)을 디스플레이 한다. 팝업 창(2721)은 하나의 오브젝트에 관한 정보를 포함할 수 있다. 27E, the device 100 provides a modifiable object to the pop-up window 2721. [ 27E, when a user input indicating a selection for the modify request button 2718 is received, the device 100 displays a popup window 2721 containing information 2719,2720 on the modifiable object. The pop-up window 2721 may contain information about one object.

이에 따라 사용자는 수정 가능한 오브젝트에 관한 정보들(2719, 2720)을 알 수 있다. 팝업 창(2721)에 포함된 하나의 오브젝트에 관한 정보가 선택되면, 디바이스(100)는 선택된 오브젝트에 관한 정보에 대응되는 오브젝트를 하이라이트 표시할 수 있다. Accordingly, the user can know information 2719 and 2720 regarding the object that can be modified. When the information on one object included in the pop-up window 2721 is selected, the device 100 can highlight the object corresponding to the information on the selected object.

도 27f를 참조하면, 디바이스(100)는 독립된 페이지를 이용하여 수정 가능한 오브젝트를 표시할 수 있다. 도 27f에서, 수정 요청 버튼(2723)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 수정 가능한 오브젝트에 관한 정보들(2724, 2725)을 포함하는 페이지(2726)를 오픈한다. 이에 따라 사용자는 수정 가능한 오브젝트를 알 수 있다. 디바이스(100)는 페이지(2726)를 통해 적어도 하나의 수정 가능한 오브젝트에 관한 정보를 디스플레이 할 수 있다. Referring to FIG. 27F, the device 100 may display an object that can be modified using an independent page. In Figure 27f, when a user input indicating a selection for the modify request button 2723 is received, the device 100 opens a page 2726 containing information 2724, 2725 on the modifiable object. As a result, the user can know the object that can be modified. Device 100 may display information about at least one modifiable object through page 2726. [

도 27e 또는 도 27f에서 수정 가능한 오브젝트가 선택되면, 디바이스(100)는 선택된 수정 가능한 오브젝트에 대응되는 오브젝트를 하이라이트 표시할 수 있다. 27E or 27F, the device 100 can highlight the object corresponding to the selected modifiable object.

도 27a 내지 도 27f는 수정 요청 버튼(2701, 2705, 2709, 2714, 2718, 2723)에 대한 선택을 나타내는 사용자 입력을 수신하나 본 개시에서 수정 요청을 나타내는 사용자 입력은 상술한 바로 제한되지 않는다. 예를 들어, 디바이스(100)의 다른 버튼을 이용하거나 사용자의 제스처에 기초하여 수정 요청 입력을 나타내는 사용자 입력을 수신할 수 있다.27A-27F receive user input indicating a selection for the Modify Request buttons 2701, 2705, 2709, 2714, 2718, and 2723, but the user input representing the Modify request in this disclosure is not limited to the one just described. For example, another button on the device 100 may be used or a user input indicating a modification request input may be received based on the user's gesture.

도 28은 일부 실시 예에 따른 디바이스(100)가 사용자 입력에 따라 아바타 기반 이미지(2310)를 수정하는 과정에 대한 흐름도이다. 28 is a flow diagram of a process in which a device 100 according to some embodiments modifies an avatar-based image 2310 according to user input.

도 28을 참조하면, 단계 S2801에서, 디바이스(100)는 수정 가능한 오브젝트중 하나의 오브젝트에 대한 제 1 선택신호를 수신한다. 단계 S2802에서, 디바이스(100)는 선택된 오브젝트에 대한 후보 오브젝트를 디스플레이 한다. Referring to Fig. 28, in step S2801, the device 100 receives a first selection signal for one object of the modifiable objects. In step S2802, the device 100 displays a candidate object for the selected object.

도 29a 내지 도 29e는 일부 실시 예에 따른 디바이스(100)에 의해 제공되는 후보 오브젝트에 기초하여 오브젝트가 수정되는 예를 도시한다. 29A-29E illustrate an example in which an object is modified based on a candidate object provided by the device 100 according to some embodiments.

도 29a의 화면(2910)에 도시된 바와 같이 디바이스(100)가 수정 가능한 오브젝트를 하이라이트 표시할 때, 화면(2920)과 같이 바이올린(2703)에 대한 선택을 나타내는 제 1 선택 신호(2715)가 수신되면, 디바이스(100)는 선택된 바이올린(2703)에 관련된 후보 오브젝트를 디스플레이 한다. When the device 100 highlights a modifiable object as shown in the screen 2910 of FIG. 29A, a first selection signal 2715 indicating selection for the violin 2703, such as the screen 2920, The device 100 displays the candidate object associated with the selected violin 2703. [

도 29a의 화면(2920)을 참조하면, 디바이스(100)는 기타 아이템(2912), 야구 아이템(2913), 및 배드민턴 아이템(2914)을 바이올린(2703)에 관련된 후보 오브젝트로서 제공하나 본 개시에서 후보 오브젝트는 이로 제한되지 않는다. 29A, the device 100 provides other items 2912, baseball items 2913, and badminton items 2914 as candidate objects related to the violin 2703, but in this disclosure, The object is not limited to this.

도 29a의 화면(2920)을 참조하면, 디바이스(100)는 팝업 창(2921) 형태로 후보 오브젝트에 관한 정보를 디스플레이 한다. 도 29a의 화면(2920)을 참조하면, 디바이스(100)는 텍스트 형태로 후보 오브젝트에 관한 정보를 제공한다. Referring to the screen 2920 of FIG. 29A, the device 100 displays information about the candidate object in the form of a pop-up window 2921. Referring to the screen 2920 of FIG. 29A, the device 100 provides information about candidate objects in text form.

그러나, 본 개시에서 후보 오브젝트에 관한 정보를 제공하는 방법은 상술한 바로 제한되지 않는다. 예를 들어, 도 29b에 도시된 화면(2930)에 도시된 바와 같이 디바이스(100)는 사각형 팝업 창(2931) 형태로 후보 오브젝트에 관한 정보를 제공할 수 있다. 사각형 팝업 창(2931)은 각 후보 오브젝트에 대응되는 이미지를 가로로 배열한다. 사각형 팝업 창(2931)에 포함되는 후보 오브젝트에 관한 정보는 심볼, 아이콘, 대표 이미지 등으로 제공될 수 있으나 본 개시에서 후보 오브젝트에 관한 정보는 상술한 바로 제한되지 않는다. However, the method of providing information regarding candidate objects in the present disclosure is not limited to the above-mentioned ones. For example, the device 100 may provide information about the candidate object in the form of a square pop-up window 2931, as shown in the screen 2930 shown in FIG. 29B. A rectangular pop-up window 2931 arranges images horizontally corresponding to each candidate object. The information on the candidate objects included in the square pop-up window 2931 may be provided as symbols, icons, representative images, etc., but the information on the candidate objects in the present disclosure is not limited to the above.

디바이스(100)는 도 29b의 화면(2940)에 도시된 바와 같이 링형 팝업 창(2941) 형태로 후보 오브젝트에 관한 정보를 제공할 수 있다. 링형 팝업 창(2941)은 심볼 형태 또는 텍스트 형태의 후보 오브젝트에 관한 정보를 포함할 수 있다. The device 100 may provide information about the candidate object in the form of a ring-shaped pop-up window 2941, as shown in screen 2940 of FIG. 29B. The ring-shaped pop-up window 2941 may include information about a candidate object in symbol form or text form.

후보 오브젝트의 개수가 팝업 창(2921, 2931, 2941)에 동시에 디스플레이될 수 있는 개수보다 많은 경우에, 디바이스(100)는 팝업 창(2921, 2931, 2941)에 기초한 스크롤 입력에 따라 팝업 창(2921, 2931, 2941)에 디스플레이 되고 있는 후보 오브젝트에 관한 정보를 이동시키면서 후보 오브젝트에 관한 정보를 제공할 수 있다. 디바이스(100)는 사전에 설정된 배열 순서에 따라 후보 오브젝트에 관한 정보를 이동시킬 수 있다. If the number of candidate objects is greater than the number that can be simultaneously displayed in the pop-up windows 2921, 2931 and 2941, the device 100 displays pop-up windows 2921, 2931 and 2941 in accordance with the scroll input based on the pop- , 2931, and 2941 while providing information about the candidate object. The device 100 can move the information on the candidate object according to a predetermined arrangement order.

후보 오브젝트의 개수가 팝업 창(2921, 2931, 2941)에 동시에 디스플레이될 수 있는 개수보다 많은 경우에, 디바이스(100)는 팝업 창(2921, 2931, 2941)에 기초한 입력(예를 들어, 터치 & 드래그)에 따라 팝업 창(2921, 2931, 2941)의 디스플레이 영역을 확장하여 후보 오브젝트에 관한 정보를 제공할 수 있다. If the number of candidate objects is greater than the number that can be simultaneously displayed in the pop-up windows 2921, 2931, and 2941, the device 100 can display the input based on the pop-up windows 2921, 2931, 2941 The display area of the pop-up windows 2921, 2931, and 2941 may be expanded to provide information about the candidate object.

예를 들어, 도 29c에 도시된 화면(2950)에 도시된 바와 같이, 디바이스(100)는 터치 & 드래그 입력(2951)에 따라 팝업 창(2931)을 확장하여 후보 오브젝트에 관한 정보를 제공할 수 있다. 디바이스(100)는 도 29d에 도시된 화면(2960)과 같이 터치 & 드래그 입력(2951)에 따라 팝업 창(2931)과 독립된 팝업 창(2961)을 더 제공할 수 있다. For example, the device 100 may expand the pop-up window 2931 according to the touch & drag input 2951 to provide information about the candidate object, as shown in the screen 2950 shown in FIG. 29C have. The device 100 may further provide a popup window 2961 independent of the popup window 2931 in accordance with the touch and drag input 2951 as shown in the screen 2960 shown in FIG.

도 28의 단계 S2803에서, 디바이스(100)는 디스플레이 되고 있는 후보 오브젝트에 관한 정보에 기초하여 제 2 선택 신호를 수신한다. 단계 S2804에서, 디바이스(100)는 제 2 선택 신호에 따라 선택된 후보 오브젝트로 선택된 오브젝트를 수정한다. In step S2803 of Fig. 28, the device 100 receives the second selection signal based on the information about the candidate object being displayed. In step S2804, the device 100 modifies the object selected as the selected candidate object according to the second selection signal.

도 29e의 화면(2970)에서, 야구 아이템(2913)을 선택하는 제 2 선택 신호가 수신되면, 화면(2980)에 도시된 바와 같이, 디바이스(100)는 바이올린을 연주하던 아바타 기반 이미지를 왼손에 야구 글러브을 끼고 오른손으로 야구 공을 갖고 있는 아바타 기반 이미지로 변경한다. 29E, when the second selection signal for selecting the baseball item 2913 is received, the device 100 displays the avatar-based image that played the violin on the left hand The baseball glove is replaced with an avatar-based image with a baseball ball in the right hand.

본 개시에서 야구를 하는 아바타 기반 이미지는 화면(2980)에 도시된 바로 제한되지 않는다. 예를 들어, 도 29f의 화면(2990)에 도시된 바와 같이, 디바이스(100)가 왼 손에 바이올린(2703)을 들고 있는 아바타 기반 이미지를 디스플레이 할 때, 야구 아이템(2913)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 왼 손에 야구 배트(2996)를 들고 있는 아바타 기반 이미지를 디스플레이 할 수 있다. 또한, 팝업 창(2911)을 통해 영화 아이템에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 왼손에 영화 CD 또는 영화 테이프를 들고 있는 아바타 기반 이비지를 디스플레이 할 수 있다. The baseball-based avatar-based image in this disclosure is not limited to the one shown in the screen 2980. [ For example, when the device 100 displays an avatar-based image holding a violin 2703 in the left hand, as shown in screen 2990 of FIG. 29F, the selection of the baseball item 2913 When a user input is received, the device 100 may display an avatar based image holding a baseball bat 2996 in the left hand. In addition, when a user input indicating a selection of a movie item is received through the pop-up window 2911, the device 100 may display an avatar-based e-book having a movie CD or movie tape in the left hand.

도 29e의 화면(2980) 또는 도 29f의 화면(2995)에서 수정 완료 버튼(2704)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 도 23a에 도시된 수정된 이미지(2320)를 생성하고 디스플레이 할 수 있다. 도 23a에 도시된 수정된 이미지(2320)는 기타를 연주하는 아바타 기반 이미지이다. When the user input indicating the selection of the modification completed button 2704 is received in the screen 2980 of FIG. 29E or the screen 2995 of FIG. 29F, the device 100 displays the modified image 2320 shown in FIG. And display it. The modified image 2320 shown in FIG. 23A is an avatar-based image for playing a guitar.

도 30은 일부 실시 예에 따른 디바이스(100)가 아바타 기반 이미지(2310)에 포함된 오브젝트별로 제공 가능한 서비스 정보를 제공하는 과정에 대한 흐름도이다. FIG. 30 is a flowchart of a process in which the device 100 according to some embodiments provides service information that can be provided for each object included in the avatar-based image 2310. FIG.

도 30을 참조하면, 단계 S3001에서 디바이스(100)는 오브젝트에 대한 선택을 나타내는 제 1 선택신호를 수신한다. 단계 S3002에서, 디바이스(100)는 선택된 오브젝트에 기초한 적어도 하나의 서비스 정보를 제공한다. Referring to FIG. 30, in step S3001, the device 100 receives a first selection signal indicating selection for an object. In step S3002, the device 100 provides at least one service information based on the selected object.

도 31a 내지 도 31d는 도 30에 도시된 사용자 정보 관리 방법에 설명하기 위한 화면의 예이다. 도 31a의 화면(3110)과 같이 아바타 기반 이미지가 디스플레이 되고 있을 때, 수정 요청 버튼(2701)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 도 31a의 화면(3120)과 같이 수정 가능한 오브젝트를 하이라이트 표시한다. Figs. 31A to 31D are examples of screens for explaining the user information management method shown in Fig. 30. Fig. 31A, when the avatar-based image is being displayed, when the user input indicating the selection of the modification request button 2701 is received, the device 100 displays the modified image 3120 shown in FIG. Highlight the possible objects.

도 31a의 화면(3120)에서 바이올린(2703)에 대한 제 1 선택 신호가 수신되면, 디바이스(100)는 도 31b의 화면(3130)에 도시된 바와 같이 바이올린(2703)에 기초하여 제공 가능한 서비스 정보를 팝업 창(3131)을 통해 제공한다. 팝업 창(3131)을 참조하면, 제공 가능한 서비스 정보는 연주회 예약 아이템, 커뮤니티 접속 아이템, 및/또는 전문 쇼핑몰 아이템을 포함할 수 있으나 본 개시에서 제공 가능한 서비스 정보를 상술한 바로 제한되지 않는다. When the first selection signal for the violin 2703 is received on the screen 3120 of FIG. 31A, the device 100 receives the service information Through a pop-up window 3131. [ Referring to the popup window 3131, the service information that can be provided may include a concert reservation item, a community access item, and / or a specialty shopping mall item, but is not limited to the above-described service information that can be provided in this disclosure.

단계 S3003에서, 선택된 오브젝트(도 31b의 바이올린(2703))에 대한 선택을 나타내는 제 2 선택 신호(3132)를 수신하면, 단계 S3004에서, 디바이스(100)는 선택된 오브젝트(바이올린(2703))에 대한 적어도 하나의 후보 오브젝트에 관한 정보를 제공한다. 후보 오브젝트에 관한 정보는 도 31b의 화면(3140)에 도시된 바와 같이 팝업 창(3141)의 형태로 제공될 수 있다. When the second selection signal 3132 indicating selection for the selected object (the violin 2703 in Fig. 31B) is received in step S3003, the device 100 in step S3004 determines whether the selected object (violin 2703) And provides information about at least one candidate object. Information about the candidate object may be provided in the form of a pop-up window 3141 as shown in screen 3140 of FIG. 31B.

이에 따라 디바이스(100)는 단계 S3001에서의 제 1 선택 신호를 수정하기 원하는 오브젝트에 대한 예비 선택으로 인식하고, 단계 S3003에서의 제 2 선택 신호를 수정하기 원하는 오브젝트에 대한 완결 선택으로 인식할 수 있다. 예비 선택은 오브젝트에 대한 선택 대기 상태를 나타낸다. 완결 선택은 오브젝트에 대한 선택 완료 상태를 나타낸다. Accordingly, the device 100 recognizes the first selection signal in step S3001 as a preliminary selection for the object to be modified, and recognizes the second selection signal in step S3003 as a completion selection for the object to be modified . A preliminary selection indicates a selection waiting state for an object. The completion selection indicates the selection completion status for the object.

단계 S3005에서, 디바이스(100)는 후보 오브젝트에 관한 정보에 기초한 제 3 선택 신호를 수신한다. 이에 따라 단계 S3006에서, 디바이스(100)는 선택된 후보 오브젝트에 대한 적어도 하나의 서비스 정보를 제공한다. In step S3005, the device 100 receives the third selection signal based on the information on the candidate object. Thus, in step S3006, the device 100 provides at least one service information for the selected candidate object.

도 31c를 참조하면, 화면(3150)을 통해 제공되고 있는 팝업 창(3141)에 포함된 후보 오브젝트에 관한 정보중 야구 아이템이 선택되면, 디바이스(100)는 화면(3160)에 도시된 바와 같이 야구 아이템에 기초하여 제공 가능한 서비스 정보를 말주머니(3151)를 통해 제공한다. Referring to FIG. 31C, when a baseball item is selected from among information on a candidate object included in the pop-up window 3141 provided on the screen 3150, the device 100 displays the baseball 3160, And provides service information that can be provided on the basis of the item through the end bag 3151. [

단계 S3007에서, 디바이스(100)는 선택된 후보(야구)에 대한 제 4 선택 신호를 수신한다. 예를 들어, 도 31c의 화면(3160)에 도시된 바와 같은 더블 터치(3152)를 제 4 선택 신호로 수신할 수 있다. In step S3007, the device 100 receives a fourth selection signal for the selected candidate (baseball). For example, the double touch 3152 shown in the screen 3160 of FIG. 31C can be received as the fourth selection signal.

디바이스(100)는 단계 S3005에서의 후보 오브젝트에 대한 제 3 선택 신호를 후보 오브젝트에 대한 예비 선택으로 인식하고, 단계 S3007에서의 선택된 후보 오브젝트에 대한 제 4 선택 신호를 선택된 후보 오브젝트에 대한 완결 선택으로 인식할 수 있다. 예비 선택은 선택 대기 상태를 나타내고, 완결 선택은 선택 완료 상태를 나타낸다. The device 100 recognizes the third selection signal for the candidate object in step S3005 as a preliminary selection for the candidate object and selects the fourth selection signal for the selected candidate object in step S3007 as a completion selection for the selected candidate object Can be recognized. The preliminary selection indicates the selection waiting state, and the completion selection indicates the selection completion state.

단계 3008에서, 디바이스(100)는 선택된 후보 오브젝트로 선택된 오브젝트를 수정한다. 이에 따라 디바이스(100)는 도 31d의 화면(3170)에 도시된 바와 같이 야구 아이템에 기초한 아바타 기반 이미지를 디스플레이 할 수 있다. 도 31d의 화면(3170)에서 수정 완료 버튼(2704)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 이미지 수정을 완료한다. In step 3008, the device 100 modifies the selected object with the selected candidate object. Accordingly, the device 100 may display an avatar-based image based on the baseball item as shown on screen 3170 of FIG. 31D. When the user input indicating the selection of the modification completed button 2704 is received on the screen 3170 of FIG. 31D, the device 100 completes the image modification.

도 30에 도시된 흐름도에 따라 디바이스(100)의 사용자는 아바타 기반 이미지를 수정하기 전에 후보 오브젝트에 기초하여 제공 가능한 서비스 정보를 확인할 수 있다. 30, the user of the device 100 can confirm the available service information based on the candidate object before modifying the avatar-based image.

한편, 도 22의 단계 S2202에서 사용자 입력에 따라 아바타 기반 이미지(2310)가 수정되면, 단계 S2203에서 디바이스(100)는 수정된 아바타 기반 이미지(2320)에 기초하여 사용자 정보(2300)를 사용자 정보(2330)에 도시된 바와 같이 업데이트 한다. 사용자 정보(2330)는 사용자 취미에 관한 정보(기타 연주)(2331), 사용자 이름(2332), 및 사용자 성별에 관한 정보(여자)(2333)를 포함한다. If the avatar-based image 2310 is modified in accordance with the user's input in step S2202 of FIG. 22, the device 100 in step S2203 updates the user information 2300 based on the modified avatar- 2330). The user information 2330 includes information (guitar performance) 2331 about a user's hobby, a user name 2332, and information (female) 2333 about user gender.

사용자 정보(2300)를 사용자 정보(2330)로 업데이트함에 따라 도 24a에 도시된 사용자 모델링 정보(2400)는 도 32에 도시된 사용자 모델링 정보(3200)로 업데이트 될 수 있다. 도 32는 일부 실시 예에 따른 디바이스(100)에 의해 업데이트된 사용자 모델링 정보(3200)의 예이다. As the user information 2300 is updated to the user information 2330, the user modeling information 2400 shown in FIG. 24A may be updated to the user modeling information 3200 shown in FIG. 32 is an example of user modeling information 3200 updated by device 100 according to some embodiments.

아바타 기반 이미지(2310)에 포함된 아바타(2311)의 디스플레이 사이즈가 변경될 경우에, 디바이스(100)는 변경된 디스플레이 사이즈에 따라 사용자 정보를 변경할 수 있다. 예를 들어, 아바타 기반 이미지(2310)에 포함된 아바타(2311)의 디스플레이 사이즈가 보통일 때, 사용자 입력에 따라 아바타(2311)의 디스플레이 사이즈가 마름으로 변경되면, 디바이스(100)는 사용자 정보에 포함된 사용자의 체중 및 키를 마름 상태로 표현할 수 있는 값으로 업데이트 할 수 있다. When the display size of the avatar 2311 included in the avatar-based image 2310 is changed, the device 100 can change the user information according to the changed display size. For example, when the display size of the avatar 2311 included in the avatar-based image 2310 is normal and the display size of the avatar 2311 is changed to be black according to user input, The weight and the key of the included user can be updated to a value that can be expressed in a state of being dried.

도 22의 단계 S2201에서, 디바이스(100)에 의해 아바타 기반 이미지(2210)가 디스플레이 되고 있을 때, 디바이스(100)는 사용자 정보(2300)에 기초한 사운드를 함께 제공할 수 있다. 사운드는 아바타 기반 이미지(2310)의 배경 음악으로 제공되거나 아바타(2311)의 음성으로 제공될 수 있다. 아바타(2311)의 음성은 예를 들어, 사용자 정보(2300)에 관련된 안내 정보(예를 들어 “나의 이름은 A이고, 여자이며, 나의 취미는 바이올린 연주입니다.”)를 제공할 수 있다. In step S2201 of FIG. 22, when the avatar-based image 2210 is being displayed by the device 100, the device 100 may provide a sound based on the user information 2300. FIG. The sound may be provided as background music of the avatar-based image 2310 or may be provided as the voice of the avatar 2311. [ The voice of the avatar 2311 may provide guidance information (e.g., "My name is A, female, my hobby is a violin performance") related to the user information 2300, for example.

디바이스(100)는 아바타(2311)의 음성을 여성 음성을 기반으로 다양한 모드로 제공할 수 있다. 다양한 모드는 예를 들어, 스피치 모드, 뮤지컬 모드, 또는 연극 모드 등과 같은 모드를 포함할 수 있으나 본 개시에서 음성을 기반으로 하는 다양한 모드를 상술한 바로 제한되지 않는다. 음성 모드는 디바이스(100)에 디폴트로 설정될 수 있으나 사용자에 의해 설정되거나 변경될 수 있다. The device 100 may provide the voice of the avatar 2311 in various modes based on female voice. The various modes may include modes such as, for example, a speech mode, a musical mode, or a play mode, but are not limited to the above described various modes based on speech in the present disclosure. The voice mode may be set to the default on the device 100, but may be set or changed by the user.

사운드가 배경 음악으로 제공되는 경우에, 디바이스(100)는 사용자 정보(2300)에 포함된 사용자의 취미에 관한 정보(2301, 바이올린 연주)에 기초하여 바이올린 연주곡을 제공할 수 있다. 바이올린 연주곡은 도 23a에 도시된 사용자 정보(2300) 이외의 사용자 정보에 기초하여 디바이스(100) 또는 서버(2120)에 의해 결정될 수 있다. In the case where the sound is provided as background music, the device 100 can provide the violin playing music based on the information (2301, a violin performance) about the hobby of the user included in the user information 2300. [ The violin music piece can be determined by the device 100 or the server 2120 based on user information other than the user information 2300 shown in Fig. 23A.

디바이스(100)는 사용자 정보(2300)에 기초하여 아바타(2311)의 배경 이미지를 아바타 기반 이미지(2310)에 더 포함시켜 제공할 수 있다. 배경 이미지는 사용자의 취미에 관한 정보(2301, 바이올린 연주)에 기초하여 바이올린 연주 무대 이미지 또는 사용자의 성별에 관한 정보(2303, 여자)에 기초한 단색 이미지(예를 들어, 분홍색)로 표현될 수 있으나 본 개시에서 배경 이미지는 상술한 바로 제한되지 않는다. 예를 들어, 디바이스(100)는 사용자 정보에 기초하여 사용자가 주로 저녁에 바이올린(2312)을 연주하는 것으로 인식되면, 밤 이미지를 배경 이미지로 디스플레이 할 수 있다. 디바이스(100)는, 예를 들어, 사용자 정보에 포함되어 있는 바이올린 연주 시간대에 기초하여 사용자가 주로 저녁에 바이올린(2312)을 연주하는 것으로 판단할 수 있다. The device 100 may further provide a background image of the avatar 2311 in the avatar based image 2310 based on the user information 2300. [ The background image may be represented by a monochromatic image (e.g., pink) based on the violin playing stage image or information on the sex of the user 2303 (female) based on information (2301, a violin performance) about the user's hobby The background image in the present disclosure is not limited to the above-described one. For example, the device 100 may display a night image as a background image if the user is perceived as playing a violin 2312 in the evening, mainly on the basis of user information. The device 100 may determine that the user is playing the violin 2312 mainly in the evening based on, for example, the violin performance time zone included in the user information.

상술한 바와 같이 아바타 기반 이미지(2310)에 배경 이미지 및 사운드중 적어도 하나가 더 포함되어 제공되는 경우에, 디바이스(100)는 배경 이미지 및 사운드를 수정 가능한 오브젝트로 제공할 수 있다. In the case where at least one of the background image and the sound is provided in the avatar-based image 2310 as described above, the device 100 may provide the background image and sound as a modifiable object.

배경 이미지 및 사운드가 사용자 정보(2300)에 포함된 정보 이외의 다른 사용자 정보에 의해 제공되고, 배경 이미지 및/또는 사운드가 수정되면, 디바이스(100)는 수정된 배경 이미지 및/또는 수정된 사운드에 기초하여 사용자 정보를 업데이트 할 수 있다. If the background image and the sound are provided by other user information than the information contained in the user information 2300 and the background image and / or sound are modified, the device 100 may modify the modified background image and / The user information can be updated based on the user information.

도 33은 일부 실시 예에 따른 디바이스(100)가 아바타 기반 이미지를 수정하여 사용자 정보를 관리하는 방법의 흐름도이다. 도 33은 수정된 아바타 기반 이미지를 수락하는 사용자 입력에 따라 사용자 정보를 업데이트 하는 예이다. 33 is a flowchart of a method in which a device 100 according to some embodiments modifies an avatar-based image to manage user information. Figure 33 is an example of updating user information according to user input accepting a modified avatar based image.

도 33의 단계 S3301에서, 디바이스(100)는, 상술한 단계 S2201에서와 같이 사용자 정보에 기초하여 아바타 기반 이미지(2310)를 디스플레이 한다. 단계 S3302에서, 디바이스(100)는 상술한 단계 S2202에서와 같이 사용자 입력에 따라 아바타 기반 이미지를 수정한다. In step S3301 of Fig. 33, the device 100 displays the avatar-based image 2310 based on the user information as in the above-described step S2201. In step S3302, the device 100 modifies the avatar-based image according to the user input as in step S2202 described above.

단계 S3303에서, 디바이스(100)는 수정된 아바타 기반 이미지(2320)를 디스플레이 한다. 단계 S3304에서, 디바이스(100)는 수정된 아바타 기반 이미지(2320)에 대해 수용을 나타내는 사용자 입력이 수신되면, 단계 S3305로 진행된다. 수정된 아바타 기반 이미지(2320)에 대해 수용을 나타내는 사용자 입력은 디바이스(100)를 통해 입력될 수 있으나, 외부 디바이스(2120)를 이용하여 입력될 수 있다. 수정된 아바타 기반 이미지(2320)에 대해 수용을 나타내는 사용자 입력을 수신하기 위하여, 디바이스(100)는 수정된 아바타 기반 이미지(2320)에 대한 수용 여부를 질의하는 메시지를 디스플레이 할 수 있다. In step S3303, the device 100 displays the modified avatar-based image 2320. [ In step S3304, when the device 100 receives a user input indicating acceptance for the modified avatar-based image 2320, the process proceeds to step S3305. The user input indicating acceptance for the modified avatar based image 2320 may be input via the device 100 but may be input using the external device 2120. [ Based on the modified avatar-based image 2320, the device 100 may display a message inquiring acceptance of the modified avatar-based image 2320 to receive user input indicating acceptance.

단계 S3304에서, 수정된 아바타 기반 이미지(2320)를 수용할 것을 나타내는 사용자 입력이 수신되지 않으면, 디바이스(100)는 단계 S3301로 진행되어 수정되기 이전의 아바타 기반 이미지(2310)를 디스플레이 한다. If in step S3304 no user input is received indicating to accept the modified avatar based image 2320, then the device 100 proceeds to step S3301 to display the avatar based image 2310 prior to being modified.

단계 S3304에서, 수정된 아바타 기반 이미지(2320)를 수용할 것을 나타내는 사용자 입력이 수신되지 않으면, 디바이스(100)는 단계 S3303으로 진행되어 수정된 아바타 기반 이미지(2320)를 디스플레이 하면서, 추가 수정 요청을 나타내는 사용자 입력에 대해 대기 상태를 유지할 수 있다. If the user input indicating that the modified avatar based image 2320 is to be received is not received in step S3304, the device 100 proceeds to step S3303 to display the modified avatar based image 2320, It is possible to maintain the standby state with respect to the user input.

단계 S3304에서, 사전에 설정된 시간동안 사용자 입력이 수신되지 않으면, 디바이스(100)는 수정된 아바타 기반 이미지(2320)를 수용할 것을 나타내는 사용자 입력이 수신되지 않은 것으로 판단할 수 있다. In step S3304, if no user input is received for a predetermined time, the device 100 may determine that no user input has been received indicating that the modified avatar-based image 2320 is to be received.

단계 S3304에서, 수정된 아바타 기반 이미지(2320)를 수용할 것을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 단계 S3305에서, 수정된 아바타 기반 이미지(2320)에 기초하여 사용자 정보를 업데이트 한다. Based on the modified avatar-based image 2320, the device 100 updates the user information in step S3305 when the user input is received, in step S3304, indicating that the modified avatar-based image 2320 is to be received.

도 34는 일부 실시 예에 따른 디바이스(100)가 아바타 기반 이미지를 수정하여 사용자 정보를 관리하는 방법의 흐름도이다. 34 is a flowchart of a method in which a device 100 according to some embodiments modifies an avatar-based image to manage user information.

도 34를 참조하면, 단계 S3401에서, 디바이스(100)는 외부 디바이스(2120)로부터 사용자 정보를 수신한다. 디바이스(100)는 사용자 정보를 요청하는 사용자 입력에 따라 외부 디바이스(2120)로부터 사용자 정보를 수신할 수 있다. 예를 들어, 소셜 미디어 서버에 등록된 사용자 정보를 요청하는 사용자 입력에 따라 디바이스(100)는 외부 디바이스(2120)로 사용자 정보를 요청하고, 이에 따라 외부 디바이스(2120)로부터 사용자 정보를 수신할 수 있다. Referring to FIG. 34, in step S3401, the device 100 receives user information from the external device 2120. FIG. The device 100 may receive user information from the external device 2120 according to a user input requesting the user information. For example, the device 100 may request user information from the external device 2120 in response to a user input requesting user information registered in the social media server, and may thereby receive user information from the external device 2120 have.

또한, 디바이스(100)의 요청없이 외부 디바이스(2120)로부터 사용자 정보를 수신할 수 있다. 예를 들어, 디바이스(100)가 슬립 모드이거나 A 애플리케이션을 실행하고 있을 때, 외부 디바이스(2120)으로부터 사용자의 헬스 정보가 수신될 수 있다. 단계 S3401에서 수신되는 사용자 정보는 본 개시의 서두에서 언급된 사용자 정보중 적어도 하나를 포함할 수 있다. 수신되는 사용자 정보는 디바이스(100)에 저장될 수 있다. Also, the user information can be received from the external device 2120 without request of the device 100. [ For example, the user's health information may be received from the external device 2120 when the device 100 is in the sleep mode or running the A application. The user information received in step S3401 may include at least one of the user information mentioned at the beginning of this disclosure. The received user information may be stored in the device 100.

단계S3402에서, 디바이스(100)는 수신된 사용자 정보에 기초하여 아바타 기반 이미지를 생성하고, 디스플레이 한다. 수신된 사용자 정보에 기초하여 아바타 기반 이미지를 생성하는 것은 상술한 도 22의 단계 S2201에서와 같이 수행될 수 있다. In step S3402, the device 100 generates and displays an avatar-based image based on the received user information. The generation of the avatar-based image based on the received user information may be performed as in step S2201 of Fig. 22 described above.

단계 S3403에서, 디바이스(100)는 수정 요청을 나타내는 사용자 입력에 따라 디스플레이 되고 있는 아바타 기반 이미지를 수정한다. 사용자 입력에 따라 아바타 기반 이미지를 수정하는 것은 상술한 도 22의 단계 S2202에서와 같이 수행될 수 있다. In step S3403, the device 100 modifies the avatar-based image being displayed in response to a user input indicating a modification request. Modification of the avatar-based image according to user input may be performed as in step S2202 of FIG. 22 described above.

단계 S3404에서, 디바이스(100)는 수정된 아바타 기반 이미지에 따라 사용자 정보를 업데이트한다. 디바이스(100)는 수정된 아바타 기반 이미지에 따라 단계 S3401에서 수신된 사용자 정보를 변경하고, 변경된 사용자 정보를 외부 디바이스(2120)로 전송하면서, 사용자 정보에 대한 업데이트를 요청할 수 있다. 이에 따라 외부 디바이스(2120)는 사용자 정보를 업데이트할 수 있다. 사용자 정보에 대한 업데이트를 요청한 뒤, 디바이스(100)는 단계 S3401에서 사용자 정보를 수신함에 따라 디바이스(100)에 저장된 정보를 자동적으로 삭제할 수 있다. In step S3404, the device 100 updates the user information according to the modified avatar-based image. The device 100 may request the update of the user information while changing the user information received in step S3401 according to the modified avatar based image and transmitting the changed user information to the external device 2120. [ Accordingly, the external device 2120 can update the user information. After requesting the update of the user information, the device 100 may automatically delete the information stored in the device 100 upon receiving the user information in step S3401.

도 35는 일부 실시 예에 따른 디바이스(100)가 아바타 기반 이미지를 이용하여 정보를 수정 및/또는 추가하는 사용자 정보 관리 방법의 동작 흐름도이다. 35 is an operational flow diagram of a user information management method in which a device 100 according to some embodiments modifies and / or adds information using an avatar-based image.

단계 S3501에서, 디바이스(100)는 사용자 정보에 따라 아바타 기반 이미지(2310)를 디스플레이 한다. 단계 S3501은 상술한 도 22의 단계 S2201과 유사하게 수행될 수 있다. In step S3501, the device 100 displays the avatar-based image 2310 according to the user information. Step S3501 may be performed similarly to step S2201 of Fig. 22 described above.

단계 S3502에서, 디바이스(100)는 사용자 입력에 따라 디스플레이 되고 있는 아바타 기반 이미지(2310)를 수정할 수 있다. 단계 S3502에서 수행되는 아바타 기반 이미지(2310)에 대한 수정은 상술한 도 22의 단계 S2202와 유사하게 수행될 수 있다. In step S3502, the device 100 may modify the avatar-based image 2310 being displayed in accordance with the user input. The modification to the avatar-based image 2310 performed in step S3502 may be performed similarly to step S2202 of Fig. 22 described above.

또한, 단계 S3502에서, 디바이스(100)는 사용자 입력에 따라 디스플레이 되고 있는 아바타 기반 이미지(2310)에 새로운 정보(또는 새로운 오브젝트)를 추가할 수 있다. 새로운 정보를 추가하는 것은 디바이스(100)에 의해 제공되는 추가 가능한 정보에 대응되는 이미지 정보에 기초하여 수행될 수 있다. 이미지 정보는 추가 가능한 정보를 상징하는 이미지, 심볼, 또는 아이콘 중 적어도 하나를 포함할 수 있다. Also, in step S3502, the device 100 may add new information (or new objects) to the avatar-based image 2310 being displayed according to user input. Adding new information may be performed based on the image information corresponding to the additional information provided by the device 100. [ The image information may include at least one of an image, a symbol, or an icon symbolizing additional information.

디바이스(100)는 추가 가능한 정보에 대응되는 이미지가 선택되면, 선택된 이미지를 추가한 수정된 이미지(2320)를 제공할 수 있다. 본 개시에서 새로운 정보를 추가 과정은 상술한 바로 제한되지 않는다. The device 100 may provide the modified image 2320 with the selected image added, if the image corresponding to the addable information is selected. The process of adding new information in this disclosure is not limited to the one just described.

예를 들어, 디바이스(100)는 추가 가능한 정보(예를 들어 액세서리)에 대한 이미지가 선택되면, 선택된 이미지에 관련된 정보(예를 들어, 귀걸이)를 입력할 수 있는 입력 창을 제공할 수 있다. 제공된 입력 창을 통해 선택된 이미지에 관련된 정보가 수신되면, 디바이스(100)는 수신된 정보에 기초하여 선택된 정보의 이미지(예를 들어, 귀걸이)를 생성하고, 생성된 이미지를 포함한 수정된 이미지(2320)를 제공할 수 있다. For example, the device 100 may provide an input window in which, when an image for addable information (e.g., an accessory) is selected, information related to the selected image (e.g., an earring) may be entered. When information related to the selected image is received through the provided input window, the device 100 generates an image (e. G., An earring) of the selected information based on the received information and transmits the modified image 2320 ). &Lt; / RTI &gt;

단계 S3503에서, 디바이스(100)는 수정 및/또는 이미지가 추가된 아바타 기반 이미지에 따라 사용자 정보를 업데이트 한다. 예를 들어, 상술한 도 8a 내지 도 8c에 도시된 바와 같이 여행 준비물이 추가되면, 디바이스(100)는 추가된 준비물에 관한 정보가 사용자 정보에 포함되도록 사용자 정보를 업데이트 한다. In step S3503, the device 100 updates the user information according to the avatar-based image to which the correction and / or the image has been added. For example, when a travel provision is added as shown in Figs. 8A to 8C, the device 100 updates the user information so that information about the added provision is included in the user information.

도 36은 일부 실시 예에 따른 디바이스(100)가 아바타 기반 이미지에서 선택된 오브젝트에 기초한 서비스를 제공할 수 있도록 사용자 정보를 관리하는 방법의 흐름도이다. 도 36에서 오브젝트는 아바타 기반 이미지에 포함된 수정 가능한 사용자 정보에 대응되는 이미지, 또는/및 텍스트를 말한다. 36 is a flowchart of a method of managing user information so that the device 100 according to some embodiments may provide a service based on an object selected in an avatar-based image. In Fig. 36, an object refers to an image corresponding to the modifiable user information included in the avatar-based image, and / or text.

단계 S3601에서, 디바이스(100)는 사용자 정보에 따라 아바타 기반 이미지를 디스플레이 한다. 디바이스(100)는 상술한 도 22의 단계 S2201에서와 같이 아바타 기반 이미지를 디스플레이 할 수 있다. 예를 들어, 디바이스(100)는 도 31a에 도시된 아바타 기반 이미지를 디스플레이 할 수 있다. 이 때, 디바이스(100)는 도 31a에 도시된 수정 요청 버튼(2701) 및 수정 완료 버튼(2704)을 포함하지 않은 아바타 기반 이미지를 디스플레이 할 수 있다. In step S3601, the device 100 displays the avatar-based image according to the user information. The device 100 may display the avatar-based image as in step S2201 of Fig. 22 described above. For example, the device 100 may display the avatar-based image shown in FIG. 31A. At this time, the device 100 can display an avatar-based image that does not include the modification request button 2701 and the modification completion button 2704 shown in FIG. 31A.

단계 S3602에서, 디바이스(100)에 디스플레이 되고 있는 아바타 기반 이미지(3110)에서 하나의 오브젝트(2703)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 선택된 오브젝트(2703)에 기초한 서비스 정보를 제공한다. 예를 들어, 상술한 도 31a의 화면(3120)과 같이 오브젝트(2703)에 대한 선택을 나타내는 사용자 입력이 수신되면, 도 31b의 화면(3130)에 도시된 바와 같이, 디바이스(100)는 선택된 오브젝트(2703)에 기초한 적어도 하나의 서비스 정보를 포함하는 팝업 창(3131)을 오픈한다. In step S3602, when a user input indicating selection for one object 2703 in the avatar-based image 3110 being displayed on the device 100 is received, the device 100 displays service information based on the selected object 2703 Lt; / RTI &gt; For example, when a user input indicating selection for an object 2703 is received, such as the screen 3120 of FIG. 31A described above, the device 100 displays the selected object And opens a pop-up window 3131 containing at least one service information based on the service information.

도 31b를 참조하면, 팝업 창(3131)에 포함되는 서비스 정보는 연주회 예약 아이템, 커뮤니티 접속 아이템, 및 전문 쇼핑몰 아이템을 포함한다. 본 개시에서 팝업 창(3131)에 포함되는 서비스 정보는 상술한 바로 제한되지 않는다. 또한, 본 개시에서 선택된 오브젝트(2703)에 기초한 서비스 정보는 도 27c의 트레이(2712)에 포함된 형태로 제공될 수 있다. Referring to FIG. 31B, the service information included in the pop-up window 3131 includes a recurring reservation item, a community access item, and a specialty shopping mall item. The service information included in the pop-up window 3131 in the present disclosure is not limited to the above-described one. In addition, service information based on the object 2703 selected in the present disclosure may be provided in the form included in the tray 2712 in Fig. 27C.

단계 S3603에서, 하나의 서비스 정보에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 선택된 서비스를 제공한다. 예를 들어, 팝업 창(3131)에 포함된 연주회 예약 항목에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 바이올린 연주회 예약 서비스를 제공하는 애플리케이션을 실행할 수 있다. In step S3603, when a user input indicating selection of one service information is received, the device 100 provides the selected service. For example, when a user input indicating a selection for a concert reservation item included in the pop-up window 3131 is received, the device 100 may execute an application that provides a violin concert reservation service.

도 37은 일부 실시 예에 따른 디바이스(100)가 디스플레이 되고 있는 아바타 기반의 이미지에 기초한 QA(Question & Answer) 서비스를 제공하는 사용자 정보 관리 방법의 흐름도이다. 37 is a flowchart of a user information management method for providing a QA (Question & Answer) service based on an avatar-based image on which the device 100 according to some embodiments is displayed.

도 37의 단계 S3701에서, 디바이스(100)는 사용자 정보에 따른 아바타 기반 이미지를 디스플레이 한다. 예를 들어, 디바이스(100)는 사용자 정보에 따라 도 23a에 도시된 아바타 기반 이미지(2310)를 디스플레이 할 수 있다. In step S3701 of FIG. 37, the device 100 displays an avatar-based image according to the user information. For example, the device 100 may display the avatar-based image 2310 shown in FIG. 23A according to user information.

단계 S3702에서, 질문(Question) 정보가 수신되면, 단계 S3703에서, 디바이스(100)는 수신된 질문 정보에 대한 답(Answer) 정보를 제공한다. In step S3702, when the question information is received, in step S3703, the device 100 provides answer information on the received question information.

단계 S3702에서의 질문 정보는 디스플레이 되고 있는 아바타 기반 이미지에 관련된 질문 정보를 말한다. 예를 들어, 질문 정보는 “내가 예약한 바이올린 연주회 정보를 알려 줘.”, “내일 바이올린 레슨이 있는지 알려 줘,”, “어제 바이올린 레슨이 몇시에 있었지?”, 또는 “내일 바아올린 레슨 바로 이전에 어떤 스케줄이 있지?” 등과 같을 수 있다. The question information in step S3702 refers to question information related to the avatar-based image being displayed. For example, the question information could be "Tell me about the violin concert I booked", "Let me know if there is a violin lesson tomorrow", "What time was the violin lesson yesterday?", Or " What schedule is there for? "

단계 S3702에서 수신되는 질문 정보는 사용자의 음성 신호를 이용할 수 있다. 단계 S3702에서 수신되는 질문 정보에 대해 디바이스(100)가 처리(또는 인식)할 수 없는 경우에, 디바이스(100)는 에러 메시지를 디스플레이 하거나 에러 메시지를 나타내는 음성 신호로 출력할 수 있다. The question information received in step S3702 may utilize the user's voice signal. If the device 100 can not process (or recognize) the question information received in step S3702, the device 100 may display an error message or output a voice signal indicating an error message.

또한, 디바이스(100)는 수신되는 질문 정보를 인식하는데 실패한 경우에, 입력 가능한 질문 정보에 대한 안내 정보를 제공할 수 있다. 질문 정보에 대한 안내 정보는 입력 가능한 질문 정보를 리스트 형태로 제공할 수 있다. 질문 정보에 대한 안내 정보는 입력 가능한 질문 형태에 관한 정보를 제공할 수 있다. In addition, when the device 100 fails to recognize the received question information, the device 100 may provide guidance information on the possible question information. The guide information on the question information can provide inputable question information in the form of a list. The guidance information on the question information can provide information on the types of questions that can be input.

디바이스(100)는 수신되는 질문 정보를 인식할 때, 사용자 정보를 고려할 수 있다. 예를 들어, 수신된 질문이 “링컨에 대한 정보를 줘”이면, 디바이스(100)는 사용자 정보에 기초하여 “링컨”이 사람 “링컨”인지, 자동차 “링컨”인지를 판단할 수 있다. 사용자 정보에 기초하여 디바이스(100)의 사용자가 자동차에 관심이 많은 사람으로 판단되는 경우에, 디바이스(100)는 질문 정보에 포함되어 있는 “링컨”을 자동차 “링컨”으로 인식할 수 있다. When the device 100 recognizes the received question information, it may consider the user information. For example, if the received question is "Give information about Lincoln," device 100 may determine whether "Lincoln" is a person "Lincoln" or a car "Lincoln" based on the user information. In the case where the user of the device 100 is determined to be a person who is interested in the automobile based on the user information, the device 100 can recognize "Lincoln" included in the question information as a car "Lincoln".

한편, 단계 S3702에서 수신된 질문 정보가 “내가 예약한 바이올린 연주회 정보를 알려 줘”인 경우에, 단계 S3703에서 디바이스(100)는 도 38에 도시된 화면(3810) 또는 화면(3820)을 답 정보로 제공할 수 있다. 예를 들어, 단계 S3702에서 수신된 질문 정보가 “내가 최근에 업데이트한 연주회 정보를 알려 줘”인 경우에, 단계 S3703에서, 디바이스(100)는 도 38에 도시된 업데이트 전 연주회 정보(3810)와 업데이트 후 연주회 정보(3820)를 함께 제공할 수 있다. 이에 따라 사용자는 업데이트전 연주회 정보와 업데이트 후의 연주회 정보를 쉽게 확인할 수 있다. On the other hand, if the question information received in step S3702 is &quot; Tell me the violin concert information I reserved &quot;, the device 100 in step S3703 sets the screen 3810 or the screen 3820 shown in FIG. . For example, if the question information received in step S3702 is &quot; Tell me about the recently updated concert information &quot;, then in step S3703, the device 100 receives the pre-update concert information 3810 shown in FIG. After the update, the concert information 3820 can be provided together. Accordingly, the user can easily confirm the pre-update concert information and the updated concert information.

도 38은 일부 실시 예에 따른 디바이스(100)가 수신되는 질문 정보에 따른 답 정보를 제공하는 예이다. 도 38를 참조하면, 업데이트 되기 전의 사용자 정보에 기초한 답 정보와 업데이트 된 후 사용자 정보에 기초한 답 정보를 동시에 제공하는 예이다. FIG. 38 is an example in which the device 100 according to some embodiments provides answer information according to question information received. Referring to FIG. 38, answer information based on user information before being updated and response information based on user information after updated are simultaneously provided.

디바이스(100)는 화면(3810)과 화면(3820)을 일부 오버랩하여 제공할 수 있다. 디바이스(100)는 화면(3810)과 화면(3820)을 전자북을 펼친 형태로 제공할 수 있다. 화면들(3810, 3820)이 전자북을 펼친 형태로 제공될 경우에, 화면(3810) 또는 화면(3820)의 모서리 부분 또는 측면에 기초하여 터치 & 드래그하는 사용자 입력이 수신되면, 디바이스(100)는 드래그 되는 방향으로 화면들(3810, 3820)을 닫을 수 있다. 예를 들어, 화면(3820)의 최우측면을 터치하고 좌측면 방향으로 드래그하는 사용자 입력이 수신되면, 디바이스(100)는 화면(3820)이 화면(3810)을 덮는 형태로 화면을 닫을 수 있다. The device 100 may provide the screen 3810 and the screen 3820 partially overlapping. The device 100 may provide the screen 3810 and the screen 3820 in an expanded form of the electronic book. When the user inputs touching and dragging based on the edge or side of the screen 3810 or the screen 3820 when the screens 3810 and 3820 are provided in an expanded form of the electronic book, May close screens 3810 and 3820 in the direction in which they are dragged. For example, when a user input that touches the uppermost side of the screen 3820 and drags in the left side direction is received, the device 100 may close the screen such that the screen 3820 covers the screen 3810.

도 39는 일부 실시 예에 따른 디바이스(100)와 외부 디바이스(2120)에 기초한 사용자 정보 관리 방법의 흐름도이다. 도 39는 외부 디바이스(2120)에서 아바타 기반 이미지를 생성하는 경우이다. 39 is a flow diagram of a method for managing user information based on device 100 and external device 2120 in accordance with some embodiments. FIG. 39 shows a case where an avatar-based image is generated in the external device 2120. FIG.

단계 S3901에서, 외부 디바이스(2120)는 사용자 정보에 기초한 아바타 기반 이미지를 생성한다. 외부 디바이스(2120)는 상술한 도 22의 단계 S2201에서와 같이 사용자 정보에 기초한 아바타 기반 이미지를 생성할 수 있다. 예를 들어, 외부 디바이스(2120)가 소셜 미디어 서버이면, 외부 디바이스(2120)는 소셜 미디어 서버에 등록된 사용자 프로파일 정보에 기초하여 아바타 기반 이미지를 생성할 수 있다. In step S3901, the external device 2120 generates an avatar-based image based on the user information. The external device 2120 may generate an avatar-based image based on the user information as in step S2201 of FIG. 22 described above. For example, if the external device 2120 is a social media server, the external device 2120 may generate an avatar-based image based on the user profile information registered in the social media server.

단계 S3902에서, 외부 디바이스(2120)는 생성된 아바타 기반 이미지를 디바이스(100)로 전송한다. 단계 S3902는 디바이스(100)의 사용자 정보 요청에 따라 수행될 수 있다. In step S3902, the external device 2120 transmits the generated avatar-based image to the device 100. [ Step S3902 may be performed in accordance with the user information request of the device 100. [

단계 S3903에서, 디바이스(100)는 아바타 기반 이미지를 디스플레이 한다. 단계 S3904에서, 디바이스(100)는 디스플레이 되고 있는 아바타 기반 이미지를 수정한다. 단계 S3904는 디스플레이 되고 있는 아바타 기반 이미지에 기초하여 수정 요청을 나타내는 사용자 입력이 수신되면 수행될 수 있다. 아바타 기반 이미지를 수정하는 방법은 상술한 도 22의 단계 S2202에서와 같이 수행될 수 있다. In step S3903, the device 100 displays the avatar-based image. In step S3904, the device 100 modifies the avatar-based image being displayed. Step S3904 may be performed upon receipt of a user input indicating a modification request based on the avatar-based image being displayed. The method of modifying the avatar-based image may be performed as in step S2202 of FIG. 22 described above.

아바타 기반 이미지가 수정되면, 단계 S3905에서, 디바이스(100)는 수정된 아바타 기반 이미지를 외부 디바이스(2120)로 전송한다. 단계 S3906에서, 외부 디바이스(2120)는 수신된 수정된 아바타 기반 이미지에 기초하여 사용자 정보를 업데이트 한다. 단계 S3906은 도 22의 단계 S2203과 같이 수행될 수 있다. When the avatar-based image is modified, the device 100 transmits the modified avatar-based image to the external device 2120 in step S3905. In step S3906, the external device 2120 updates the user information based on the received modified avatar-based image. Step S3906 may be performed as in step S2203 of Fig.

도 40은 일부 실시 예에 따른 디바이스(100)와 외부 디바이스(2120)에 기초한 사용자 정보 관리 방법의 흐름도이다. 도 40은 디바이스(100)에서 아바타 기반 이미지를 생성하는 경우이다. 40 is a flow diagram of a method for managing user information based on device 100 and external device 2120 in accordance with some embodiments. FIG. 40 shows a case where an avatar-based image is generated in the device 100. FIG.

단계 S4001에서, 외부 디바이스(2120)로부터 디바이스(100)로 사용자 정보가 전송되면, 단계 S4002에서, 디바이스(100)는 수신된 사용자 정보에 기초한 아바타 기반 이미지를 생성한다. In step S4001, when the user information is transmitted from the external device 2120 to the device 100, the device 100 generates an avatar-based image based on the received user information in step S4002.

단계 S4003에서, 디바이스(100)는 생성된 아바타 기반 이미지를 디스플레이 한다. 단계 S4004에서, 디바이스(100)는 수신된 사용자 입력에 따라 디스플레이 되고 있는 아바타 기반 이미지를 수정한다. In step S4003, the device 100 displays the generated avatar-based image. In step S4004, the device 100 modifies the avatar-based image being displayed according to the received user input.

단계 S4005에서, 디바이스(100)는 수정된 아바타 기반 이미지에 기초하여 사용자 정보를 업데이트 한다. 단계 S4006에서, 디바이스(100)는 업데이트된 사용자 정보를 외부 디바이스(2120)로 전송한다. 외부 디바이스(2120)는 수신된 업데이트된 사용자 정보에 기초하여 외부 디바이스(2120)에 저장되어 있는 사용자 정보를 업데이트 한다. In step S4005, the device 100 updates the user information based on the modified avatar-based image. In step S4006, the device 100 transmits the updated user information to the external device 2120. [ The external device 2120 updates the user information stored in the external device 2120 based on the received updated user information.

도 41은 일부 실시 예에 따른 디바이스(100)와 웨어러블 디바이스(4110)에 기초한 사용자 정보 관리 방법의 흐름도이다. 도 41은 아바타 기반 이미지에 포함되어 있는 오브젝트에 관한 정보를 웨어러블 디바이스(4110)를 통해 디스플레이 하는 예이다. 41 is a flow diagram of a method of managing user information based on device 100 and wearable device 4110 in accordance with some embodiments. 41 is an example of displaying information about an object included in the avatar-based image through the wearable device 4110. [

단계 S4101에서, 디바이스(100)는 사용자 정보에 따른 아바타 기반 이미지를 디스플레이 하면서, 단계 S4102에서, 디바이스(100)는 아바타 기반 이미지에 포함되어 있는 수정 가능한 오브젝트에 관한 정보를 웨어러블 디바이스(4110)로 전송한다. In step S4101, the device 100 displays the avatar-based image in accordance with the user information, and in step S4102, the device 100 transmits information on the modifiable object included in the avatar-based image to the wearable device 4110 do.

단계 S4103에서, 웨어러블 디바이스(4110)는 수신된 오브젝트에 관한 정보를 디스플레이 한다. 본 개시에서 오브젝트에 관한 정보는 이미지 형태로 디스플레이 될 수 있으나 이로 제한되지 않는다. 예를 들어, 웨어러블 디바이스(4110)는 오브젝트에 관한 정보를 텍스트 형태로 디스플레이 할 수 있다. 단계 S4104에서, 디스플레이 되고 있는 오브젝트에 관한 정보에 기초한 선택 신호가 수신되면, 단계 S4105에서 웨어러블 디바이스(4110)는 선택된 오브젝트에 관한 정보를 디바이스(100)로 전송한다. In step S4103, the wearable device 4110 displays information about the received object. In this disclosure, information about an object can be displayed in an image form, but is not limited thereto. For example, the wearable device 4110 may display information about objects in text form. When a selection signal based on the information about the object being displayed is received in step S4104, the wearable device 4110 transmits information about the selected object to the device 100 in step S4105.

단계 S4106에서, 디바이스(100)는 저장된 정보로부터 선택된 오브젝트에 관한 후보 오브젝트에 관한 정보를 검색한다. 후보 오브젝트에 관한 정보는 디바이스(100)의 외부 저장 장치로부터 검색될 수 있다. 후보 오브젝트에 관한 정보는 디바이스(100)에 연결된 외부 디바이스(2120)로부터 검색될 수 있다. 디바이스(100)는 선택된 오브젝트의 식별 정보를 키워드로 하여 후보 오브젝트에 관한 정보를 검색할 수 있다. In step S4106, the device 100 retrieves information about the candidate object related to the selected object from the stored information. Information about the candidate object may be retrieved from an external storage device of the device 100. Information about the candidate object may be retrieved from the external device 2120 connected to the device 100. The device 100 can retrieve information about the candidate object using the identification information of the selected object as a keyword.

단계 S4107에서, 디바이스(100)는 검색된 후보 오브젝트에 관한 정보를 웨어러블 디바이스(4110)로 전송한다. 단계 S4108에서, 웨어러블 디바이스(4110)는 수신된 후보 오브젝트에 관한 정보를 디스플레이 한다. In step S4107, the device 100 transmits information about the searched candidate object to the wearable device 4110. [ In step S4108, the wearable device 4110 displays information about the received candidate object.

예를 들어, 단계 S4104에서 선택된 오브젝트가 상술한 도 29a의 바이올린(2703)이면, 단계 S4108에서 디스플레이 될 수 있는 후보 오브젝트는 도 29a의 화면(2920)에 도시된 팝업 창(2921)에 포함된 아이템들일 수 있다. For example, if the object selected in step S4104 is the violin 2703 shown in FIG. 29A, the candidate object that can be displayed in step S4108 is the item included in the pop-up window 2921 shown in the screen 2920 of FIG. 29A .

예를 들어, 단계 S4104에서 선택된 오브젝트가 도 27c의 취미에 관한 아이콘(2710, 또는 취미 아이템)이면, 단계 S4108에서 디스플레이 될 수 있는 후보 오브젝트는 취미에 관련된 아이템(예를 들어, 수영, 자전거, 또는 사진 등)을 포함할 수 있다. For example, if the selected object in step S4104 is an icon (2710, or a hobby item) of the hobby in Figure 27c, then the candidate object that may be displayed in step S4108 is an item related to the hobby Photographs, etc.).

후보 오브젝트에 관한 정보는 이미지, 또는/및 텍스트 형태로 디스플레이 될 수 있으나 본 개시에서 후보 오브젝트에 관한 정보의 디스플레이 형태는 상술한 바로 제한되지 않는다. The information about the candidate object may be displayed in the form of an image or / and text, but the display form of the information about the candidate object in this disclosure is not limited to the one just described.

단계 S4109에서, 후보 오브젝트에 대한 선택 신호가 수신되면, 단계 S4110에서 웨어러블 디바이스(4110)는 선택된 후보 오브젝트에 관한 정보를 디바이스(100)로 전송한다.When the selection signal for the candidate object is received in step S4109, the wearable device 4110 transmits information about the selected candidate object to the device 100 in step S4110.

단계 S4111에서, 디바이스(100)는 선택된 후보 오브젝트를 이용하여 아바타 기반 이미지를 수정한다. 단계 S4112에서, 디바이스(100)는 수정된 아바타 기반 이미지에 기초하여 사용자 정보를 업데이트 한다. 단계 S4112에서의 사용자 정보를 업데이트 하는 것은 상술한 도 22의 단계 S2203에서와 같이 수행될 수 있다. In step S4111, the device 100 modifies the avatar-based image using the selected candidate object. In step S4112, the device 100 updates the user information based on the modified avatar-based image. Updating the user information in step S4112 may be performed as in step S2203 of Fig. 22 described above.

도 42는 일부 실시 예에 따른 디바이스(100)와 웨어러블 디바이스(4210)에 기초한 사용자 정보 관리 방법의 흐름도이다. 도 42는 웨어러블 디바이스(4210)에 의해 획득된 사용자 정보에 기초하여 아바타 기반 이미지를 수정하는 예이다. 42 is a flow diagram of a method of managing user information based on device 100 and wearable device 4210 in accordance with some embodiments. 42 is an example of modifying the avatar-based image based on the user information acquired by the wearable device 4210. FIG.

단계 S4201에서, 디바이스(100)는 사용자 정보에 따른 아바타 기반 이미지를 디스플레이 한다. 단계 S4201에서, 디바이스(100)는 상술한 도 22의 단계 S2201에서와 같이 아바타 기반 이미지를 디스플레이 할 수 있다. In step S4201, the device 100 displays the avatar-based image according to the user information. In step S4201, the device 100 may display the avatar-based image as in step S2201 of Fig. 22 described above.

단계 S4202에서, 웨어러블 디바이스(4210)는 사용자 정보를 획득한다. 웨어러블 디바이스(4210)에 의해 획득되는 사용자 정보는, 예를 들어, 사용자 헬스 정보, 또는 웨어러블 디바이스(4210)의 위치 정보를 포함할 수 있으나 본 개시에서 웨어러블 디바이스(4210)에 의해 획득될 수 있는 정보는 이로 제한되지 않는다. In step S4202, the wearable device 4210 acquires user information. User information obtained by the wearable device 4210 may include, for example, user health information, or location information of the wearable device 4210, but in this disclosure information obtainable by the wearable device 4210 Is not limited to this.

상술한 단계 S4201과 단계 S4202는 동시에 수행될 수 있다. 단계 S4202는 단계 S4201보다 먼저 수행될 수 있다. The above-described steps S4201 and S4202 may be performed simultaneously. Step S4202 may be performed before step S4201.

단계 S4203에서, 웨어러블 디바이스(4210)는 획득된 사용자 정보를 디바이스(100)로 전송한다. 디바이스(100)는 수신된 사용자 정보에 기초하여 단계 S4201에서 디스플레이 되고 있는 아바타 기반 이미지를 수정한다. In step S4203, the wearable device 4210 transmits the obtained user information to the device 100. [ The device 100 modifies the avatar-based image being displayed in step S4201 based on the received user information.

예를 들어, 수신된 사용자 정보가 사용자의 체온을 측정한 정보이고, 측정된 체온이 기준보다 높은 것으로 판단되면, 디바이스(100)는 단계 S4201에서 디스플레이 되고 있는 아바타 기반 이미지의 얼굴의 칼라를 부분적으로 붉게 수정할 수 있다. 이에 따라 사용자는 디바이스(100)를 통해 디스플레이 되고 있는 아바타 기반 아미지를 통해 사용자가 열이 나고 있음을 확인할 수 있다. For example, if the received user information is information indicating the user's body temperature and the measured body temperature is determined to be higher than the reference, the device 100 may partially color the face of the avatar-based image being displayed in step S4201 It can be reddish. Accordingly, the user can confirm that the user is heating up through the avatar-based image being displayed through the device 100. [

예를 들어, 수신된 사용자 정보가 사용자의 기쁜 감정을 나타내는 정보이면, 디바이스(100)는 단계 S4201에서 디스플레이 되고 있는 아바타 기반 이미지의 얼굴을 웃는 얼굴로 수정할 수 있다. 이에 따라 사용자는 디바이스(100)를 통해 디스플레이 되고 있는 아바타 기반 이미지를 통해 사용자의 기분이 좋은 상태임을 확인할 수 있다. For example, if the received user information is information indicating the user's pleasant feeling, the device 100 may modify the face of the avatar-based image being displayed in step S4201 to a smiling face. Accordingly, the user can confirm that the user is in a comfortable mood through the avatar-based image displayed through the device 100. [

상술한 바와 같이 디바이스(100)는 웨어러블 디바이스(4210)에서 측정되어 전송되는 정보에 따라 단계 S4201에서 디스플레이 되고 있는 아바타 기반 이미지를 다양하게 수정할 수 있다. 이미지 수정은 이미지의 얼굴뿐 아니라 이미지에 포함된 오브젝트중에서 수정 가능한 적어도 하나의 오브젝트를 수정할 수 있다. 수정 가능한 오브젝트는 배경 이미지와 사운드중 적어도 하나를 포함할 수 있으나 본 개시에서 수정 가능한 오브젝트는 상술한 바로 제한되지 않는다. As described above, the device 100 can variously modify the avatar-based image being displayed in step S4201 according to information measured and transmitted in the wearable device 4210. [ Image modification can modify at least one object that is modifiable among the objects included in the image as well as the face of the image. Modifiable objects may include at least one of a background image and a sound, but objects that can be modified in this disclosure are not limited to the above-described ones.

도 43은 일부 실시 예에 따른 디바이스(100)의 기능 블록도이다. 도 43을 참조하면, 디바이스(100)는 사용자 입력부(4310), 제어부(4320), 디스플레이(4330), 및 메모리(4340)를 포함할 수 있다. Figure 43 is a functional block diagram of a device 100 in accordance with some embodiments. 43, the device 100 may include a user input portion 4310, a control portion 4320, a display 4330, and a memory 4340.

사용자 입력부(4310)는 사용자 정보 요청을 나타내는 사용자 입력, 사용자 정보에 대한 수정 요청을 나타내는 사용자 입력, 사용자 정보 추가 요청을 나타내는 사용자 입력, 사용자 정보에 대한 수정 완료를 나타내는 사용자 입력, 오브젝트 선택을 나타내는 사용자 입력, 서비스 정보 요청을 나타내는 사용자 입력, 서비스 정보 선택을 나타내는 사용자 입력, 수정된 아바타 기반 이미지에 대한 수용을 나타내는 사용자 입력, 또는 디바이스(100)를 제어할 수 있는 사용자 입력을 포함할 수 있으나 본 개시에서 사용자 입력은 상술한 바로 제한되지 않는다. The user input unit 4310 includes a user input indicating a user information request, a user input indicating a modification request for user information, a user input indicating a user information addition request, a user input indicating completion of modification of user information, Based input, a user input indicating a request for service information, a user input indicating selection of service information, a user input indicating acceptance for a modified avatar-based image, or a user input for controlling the device 100, The user input is not limited to the above-mentioned one.

사용자 입력부(4310)는 디바이스(100)에 장착될 수 있다. 디바이스(100)에 장착될 수 있는 사용자 입력부(4310)는, 예를 들어, 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 또는/및 조그 스위치 중 적어도 하나를 포함할 수 있으나 본 개시에서 사용자 입력부(4310)는 상술한 바로 제한되지 않는다. The user input unit 4310 may be mounted in the device 100. [ A user input 4310 that may be mounted to the device 100 may include a keypad, a dome switch, a touchpad (contact capacitive, pressure resistive, infrared A jog wheel, and / or a jog switch, but the user input 4310 in this disclosure is not limited to the one described above, Do not.

사용자 입력부(4310)를 통해 수신될 수 있는 사용자 입력은 터치 기반의 사용자 입력, 움직임 기반(movement-based)의 사용자 입력, 비전 기반(vision-based)의 사용자 입력, 또는/및 사용자 음성 기반의 사용자 입력중 적어도 하나를 포함할 수 있으나 본 개시에서 사용자 입력은 상술한 바로 제한되지 않는다. User inputs that may be received via user input 4310 may include touch-based user input, movement-based user input, vision-based user input, and / Input, but the user input in this disclosure is not limited to the one just described.

터치 기반의 사용자 입력은, 예를 들어, 탭(tap 또는 터치), 롱 탭(long tap 또는 롱 터치), 터치 앤 홀드(touch and hold), 터치 앤 드래그(touch and drag), 더블 탭(double tap), 드래그(drag), 패닝(panning), 플릭(flick), 드래그 앤 드롭(drag and drop), 또는 스윕(sweep)을 포함할 수 있으나 본 개시에서 터치 기반의 사용자 입력은 상술한 바로 제한되지 않는다. The touch-based user input may be, for example, a tap or touch, a long tap or touch, a touch and hold, a touch and drag, a double tap-based user input in this disclosure may include one or more of the following limitations, such as, but not limited to, tapping, dragging, panning, flicking, dragging and dropping, It does not.

움직임 기반(movement-based)의 사용자 입력은, 예를 들어, 디바이스(100)의 움직임 기반의 사용자 제스처(예를 들어, 디바이스 흔들기, 디바이스 회전, 또는 디바이스 들어 올리기 등)에 기초한 사용자 입력을 포함할 수 있으나 본 개시에서 움직임 기반의 사용자 입력은 상술한 바로 제한되지 않는다. The movement-based user input may include user input based on, for example, a motion-based user gesture of the device 100 (e.g., device waving, device rotation, or device lifting, etc.) But the motion-based user input in this disclosure is not limited to the one just described.

비전 기반의 사용자 입력은, 디바이스(100)와 사용자간의 접촉 없이 디바이스(100)에 포함된 카메라(미 도시됨)에 의해 획득된 입력 이미지를 분석하여 인식된 사용자 입력을 포함할 수 있으나 본 개시에서 비전 기반의 사용자 입력은 상술한 바로 제한되지 않는다. Vision-based user input may include recognized user input by analyzing an input image obtained by a camera (not shown) included in device 100 without contact between device 100 and a user, Vision-based user input is not limited to the one just described.

제어부(4320)는 디바이스(100)의 동작을 제어하는 프로세서를 말한다. 제어부(4320)는 메모리(4340)에 저장된 일부 실시 예들에 따른 사용자 정보 관리 방법을 실행할 수 있는 프로그램을 로딩하여 동작할 수 있다. 제어부(4320)는 메모리(4340)에 일부 실시 예들에 따른 사용자 정보 관리 방법을 실행할 수 있는 프로그램을 저장할 수 있다. 제어부(4320)는 메모리(4340)에 저장된 일부 실시 예들에 따른 사용자 정보 관리 방법을 실행할 수 있는 프로그램을 업데이트 할 수 있다. The control unit 4320 refers to a processor that controls the operation of the device 100. [ The control unit 4320 can operate by loading a program that can execute the user information management method according to some embodiments stored in the memory 4340. [ The control unit 4320 may store in the memory 4340 a program capable of executing the user information management method according to some embodiments. The control unit 4320 can update the program that can execute the user information management method according to some embodiments stored in the memory 4340. [

제어부(4320)는 일부 실시 예들에 따른 사용자 정보 관리 방법에 따라 사용자 정보에 기초한 아바타 기반 이미지를 생성하고, 디스플레이(4330)에 디스플레이 할 수 있다. 사용자 입력부(4310)로부터 아바타 기반 이미지에 대한 수정을 요청하는 사용자 입력이 수신되면, 제어부(4320)는 수신된 사용자 입력에 따라 아바타 기반 이미지를 수정한다. 제어부(4320)는 수정된 아바타 기반 이미지에 기초하여 사용자 정보를 업데이트 할 수 있다. The control unit 4320 may generate an avatar based image based on the user information and display it on the display 4330 according to the user information management method according to some embodiments. When a user input requesting modification of the avatar-based image is received from the user input unit 4310, the controller 4320 modifies the avatar-based image according to the received user input. The control unit 4320 can update the user information based on the modified avatar-based image.

제어부(4320)는 상술한 도 2, 도 7, 도 9, 도 11, 도 13, 도 14, 도 16, 도 18, 도 20, 도 22, 도 28, 도30, 도 33, 도 34, 도 35, 도 36, 도 37, 도 39, 도 40, 도 41, 또는 도 42에 도시된 흐름도에 기초한 디바이스(100)의 동작을 수행할 수 있다. The control unit 4320 controls the operation of the control unit 4320 in accordance with the above-described Figures 2, 7, 9, 11, 13, 14, 16, 18, 20, 22, 28, 30, 33, 35, Fig. 36, Fig. 37, Fig. 39, Fig. 40, Fig. 41 or Fig.

또한, 사용자 입력부(4310)를 통해 특정 기간의 사용자 정보를 요청하는 사용자 입력이 수신되면, 제어부(4320)는, 사용자 입력에 응답하여, 특정 기간의 사용자 정보에 따라 복수의 아바타 기반 이미지가 디스플레이(4330)에 디스플레이 되도록 디스플레이(4330)를 제어한다. 디스플레이(4330)에 디스플레이 되는 복수의 아바타 기반 이미지는 특정 기간을 나누는 기준에 따라 결정될 수 있다. In addition, when a user input for requesting user information of a specific period is received through the user input unit 4310, the controller 4320 displays a plurality of avatar-based images in response to the user input, 4330 so that the display 4330 is displayed. The plurality of avatar-based images displayed on the display 4330 may be determined according to a criterion that divides a specific period of time.

또한, 사용자 입력부(4310)를 통해 특정 기간의 사용자 정보를 요청하는 사용자 입력이 수신되면, 제어부(4320)는, 사용자 입력에 응답하여 특정 기간의 사용자 정보에 따라 복수의 아바타 기반 이미지가 디스플레이(4330)에 디스플레이 되도록 디스플레이(4330)를 제어한다. 디스플레이(4330)에 디스플레이 되는 복수의 아바타 기반 이미지는 특정 기간의 사용자 정보에 포함되는 테마 아이템에 따라 결정될 수 있다. In addition, when a user input for requesting user information of a specific period is received through the user input unit 4310, the controller 4320 displays a plurality of avatar-based images on the display 4330 The display 4330 is displayed. The plurality of avatar-based images displayed on the display 4330 may be determined according to the theme items included in the user information of the specific period.

또한, 사용자 입력부(4310)를 통해 수정 가능한 정보 표시를 요청하는 사용자 입력이 수신되면, 제어부(4320)는 사용자 입력에 응답하여, 디스플레이(4330)에 디스플레이 되고 있는 아바타 기반 이미지중에서 수정 가능한 부분을 수정 가능하지 않은 부분과 구별되게 표시할 수 있다. In addition, when a user input requesting the display of the modifiable information is received through the user input unit 4310, the control unit 4320 modifies the modifiable portion of the avatar-based image displayed on the display 4330 in response to the user input It can be distinguished from the unlikely part.

또한, 제어부(4320)는 아바타 기반 이미지에 대한 제공 기간이 설정되어 있으면, 제공 기간을 체크한다. 제공 기간이 만료되면, 제어부(4320)는 아바타 기반 이미지를 소멸시킬 수 있다. 상술한 제공 기간에 관한 정보 및 아바타 기반 이미지는 메모리(4340)에 저장될 수 있으나 본 개시는 이로 제한되지 않는다. 예를 들어, 상술한 제공 기간에 관한 정보 및 아바타 기반 이미지는 외부 디바이스(2120)에 저장될 수 있다. If the providing period for the avatar-based image is set, the control unit 4320 checks the providing period. When the providing period expires, the control unit 4320 may extinguish the avatar-based image. The information regarding the providing period and the avatar-based image described above may be stored in the memory 4340, but the present disclosure is not limited thereto. For example, the information on the providing period and the avatar-based image described above may be stored in the external device 2120. [

또한, 디스플레이(4330)에 사용자의 헬스 정보에 기초한 아바타 기반 이미지가 디스플레이 되고 있을 때, 사용자 입력부(4310)를 통해 의료 정보 요청을 나타내는 사용자 입력이 수신되면, 제어부(4320)는 사용자 입력에 응답하여 사용자의 헬스 정보에 관련된 의료 정보를 디스플레이(4330)에 디스플레이 한다. Further, when a user input indicating a medical information request is received via the user input unit 4310 when the avatar-based image based on the user's health information is displayed on the display 4330, the control unit 4320 responds to the user input On the display 4330, medical information related to the health information of the user.

디스플레이(4330)를 통해 제공되는 의료 정보에 기초하여 선택된 의료 정보에 관한 사용자 입력이 사용자 입력부(4310)를 통해 수신되면, 제어부(4320)는 선택된 의료 정보에 따라 사용자의 스케줄 정보를 업데이트 할 수 있다. If a user input relating to the selected medical information is received via the user input unit 4310 based on the medical information provided through the display 4330, the control unit 4320 may update the user's schedule information according to the selected medical information .

또한, 사용자 입력부(4310)를 통해 아바타 기반 이미지에 대한 정보 추가를 나타내는 사용자 입력이 수신되면, 제어부(4320)는 정보 추가를 위한 입력 창을 디스플레이(4330)에 디스플레이 한다. 입력 창을 통해 정보가 수신되면, 제어부(4320)는 수신된 정보에 대응되는 이미지를 디스플레이(4330)에 디스플레이 되고 있는 아바타 기반 이미지에 추가한다. 제어부(4320)는 디스플레이(4330)에 디스플레이 되고 있는 추가된 이미지를 포함하는 아바타 기반 이미지에 따라 사용자의 스케줄 정보를 업데이트 할 수 있다. 사용자의 스케줄 정보는 메모리(4340) 또는/및 외부 디바이스(2120)에 저장될 수 있다. Also, when a user input indicating the addition of information on the avatar-based image is received through the user input unit 4310, the control unit 4320 displays an input window for adding information on the display 4330. When information is received through the input window, the controller 4320 adds the image corresponding to the received information to the avatar-based image being displayed on the display 4330. The control unit 4320 may update the user's schedule information according to the avatar-based image including the added image being displayed on the display 4330. [ The schedule information of the user may be stored in the memory 4340 and / or the external device 2120.

또한, 제어부(4320)에 의해 제어되어 디스플레이(4330)에 사용자의 장래 희망 정보에 따른 아바타 기반 이미지가 디스플레이 될 수 있다. 디스플레이(4330)에 사용자의 장래 희망 정보에 따른 아바타 기반 이미지가 디스플레이 되고 있을 때, 사용자 입력부(4310)를 통해 장래 희망 정보에 관련된 정보를 요청하는 사용자 입력이 수신되면, 제어부(4320)는 사용자 입력에 따라 응답하여 장래 희망 정보에 관련된 정보를 디스플레이(4330)를 통해 제공한다. 사용자 입력부(4310)를 통해 디스플레이(4330)를 통해 제공되고 있는 장래 희망 정보에 관련된 정보 중 적어도 하나를 선택하는 사용자 입력이 수신되면, 제어부(4320)는 선택된 정보에 따라 사용자의 스케줄 정보를 업데이트 할 수 있다. Also, the avatar-based image according to the user's future desired information can be displayed on the display 4330 under the control of the controller 4320. [ When a user input for requesting information related to future desired information is received via the user input unit 4310 while the avatar based image according to the user's future desired information is displayed on the display 4330, And provides information related to the future desired information through the display 4330. [ When a user input for selecting at least one of the information related to the future desired information provided through the display 4330 through the user input unit 4310 is received, the controller 4320 updates the user's schedule information according to the selected information .

또한, 사용자 입력부(4310)를 통해 디바이스(100)에 대한 사용 기간별 사용 히스토리 정보를 요청하는 사용자 입력이 수신되면, 제어부(4320)는 수신된 사용자 입력에 응답하여, 디바이스(100)의 사용 히스토리 정보에 따른 복수의 아바타 기반 이미지를 디스플레이(4330)에 디스플레이 할 수 있다. In response to the user input for requesting usage history information for the use period of the device 100 through the user input unit 4310, the control unit 4320 receives the user history information of the device 100, Based images on the display 4330. The avatar-

또한, 제어부(4320)에 의해 제어되어 디스플레이(4330)에 소셜 미디어에 등록된 사용자 정보에 따른 아바타 기반의 이미지가 디스플레이될 수 있다. 이 때, 사용자 입력부(4310)를 통해 수정을 요청하는 사용자 입력이 수신되면, 제어부(4320)는 수신된 사용자 입력에 응답하여, 디스플레이(4330)에 디스플레이 되고 있는 아바타 기반의 이미지를 수정하고, 수정된 아바타 기반의 이미지에 따라 소셜 미디어에 등록된 사용자 정보를 업데이트 할 수 있다. 소셜 미디어에 등록된 사용자 정보는 상술한 소셜 미디어 서버에 등록된 사용자 프로파일 정보를 포함할 수 있다. 본 개시에서 소셜 미디어에 등록된 사용자 정보는 상술한 바로 제한되지 않는다. Further, the avatar-based image according to the user information registered in the social media on the display 4330 can be displayed under the control of the controller 4320. [ In this case, when a user input requesting modification is received through the user input unit 4310, the controller 4320 modifies the avatar-based image displayed on the display 4330 in response to the received user input, The user information registered in the social media can be updated according to the avatar-based image. The user information registered in the social media may include user profile information registered in the above-mentioned social media server. The user information registered in the social media in the present disclosure is not limited to the above-described ones.

디스플레이(4330)는 디바이스(100)에 의해 처리되는 정보를 디스플레이 할 수 있다. 디스플레이(4330)는 상술한 도 1, 도 5a 내지 도 5e, 도 6a 내지 도 6e, 도 8a 내지 도 8c, 도 10, 도 12a 내지 도 12c, 도 15a 내지 도 15e, 도 17a 내지 도 17d, 도 19a, 도 19b, 도 23a 내지 도 23f, 도 27a 내지 도 27f, 도 29a 내지 도 29f, 도 31a 내지 도 31d, 또는 도 38에 도시된 GUI(Graphic User Interface) 화면을 디스플레이 할 수 있다. Display 4330 may display information processed by device 100. [ The display 4330 may include any of the above-described Figures 1, 5A to 5E, 6A to 6E, 8A to 8C, 10, 12A to 12C, 15A to 15E, 17A to 17D, (Graphic User Interface) screen shown in Figs. 19a, 19b, 23a to 23f, 27a to 27f, 29a to 29f, 31a to 31d, or 38 can be displayed.

디스플레이(4330)는 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 출력 장치와 입력 장치로 사용될 수 있다. 디스플레이(4330)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 또는/및 전기영동 디스플레이(electrophoretic display, EPD) 중에서 적어도 하나를 포함할 수 있다. The display 4330 can be used as an output device and an input device when the touch pad has a layer structure and is configured as a touch screen. The display 4330 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a three-dimensional display display, and / or an electrophoretic display (EPD).

디바이스(100)의 구현 형태에 따라 디바이스(100)는 디스플레이(4330)를 2개 이상 포함할 수 있다. 이때, 2개 이상의 디스플레이(4330)는 힌지(hinge)를 이용하여 마주보게 배치될 수 있다. 디스플레이(4330)는 투명 디스플레이로 구성될 수 있다. Depending on the implementation of the device 100, the device 100 may include two or more displays 4330. At this time, the two or more displays 4330 may be arranged to face each other using a hinge. Display 4330 may be comprised of a transparent display.

메모리(4340)는 제어부(4320)의 처리 및 제어를 위한 프로그램을 저장할 수 있다. 메모리(4340)에 저장되는 프로그램은 OS(Operating System) 프로그램 및 각종 애플리케이션 프로그램을 포함할 수 있다. 각종 애플리케이션 프로그램은 일부 실시 예들에 따른 사용자 정보 관리 방법 또는 아바타 기반 이미지에 따른 서비스 제공 방법중 적어도 하나를 실행할 수 있는 애플리케이션을 포함할 수 있으나 애플리케이션은 이로 제한되지 않는다. The memory 4340 may store a program for processing and controlling the control unit 4320. The program stored in the memory 4340 may include an OS (Operating System) program and various application programs. The various application programs may include an application capable of executing at least one of a user information management method according to some embodiments or a service providing method according to an avatar based image, but the application is not limited thereto.

메모리(4340)는 애플리케이션 프로그램에 의해 관리되는 정보를 저장한다. 예를 들어, 일부 실시 예에 따른 사용자 정보, 사용자 정보에 기초하는 사용자 모델링 정보, 각 오브젝트별 좌표 값, 또는/및 각 오브젝트별 결합 조건 정보를 저장할 수 있으나 본 개시에서 메모리(4340)에 저장되는 정보는 상술한 바로 제한되지 않는다. The memory 4340 stores information managed by the application program. For example, user information according to some embodiments, user modeling information based on user information, coordinate values for each object, and / or coupling condition information for each object may be stored, but may be stored in memory 4340 The information is not limited to those described above.

메모리(4340)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 또는 광디스크중 적어도 하나의 타입의 저장매체를 포함할 수 있다. The memory 4340 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), a RAM (Random Access Memory) SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory) , Or an optical disc.

디바이스(100)는 인터넷(internet)상에서 메모리(4340)의 저장 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버(미 도시됨)를 이용하도록 구성될 수 있다. 이러한 경우에, 디스플레이(4330)에 표시되는 GUI에 관한 정보는 상술한 웹 스토리지 또는 클라우드 서버로부터 제공될 수 있다.The device 100 may be configured to use a web storage or a cloud server (not shown) that performs the storage function of the memory 4340 on the Internet. In this case, the information about the GUI displayed on the display 4330 may be provided from the web storage or cloud server described above.

디바이스(100)는 도 43에 도시된 구성요소 모두가 필수 구성요소인 것은 아니다. 디바이스(100)는 도 43 도시된 구성요소보다 많은 구성요소를 포함하거나 도 43에 도시된 구성요소보다 적은 구성요소를 포함할 수 있다. 예를 들어, 디바이스(100)는 도 44에 도시된 바와 같이 구성될 수 있다. The device 100 is not necessarily all of the components shown in Fig. The device 100 may include more components than the components shown in FIG. 43 or may include fewer components than those shown in FIG. For example, the device 100 may be configured as shown in FIG.

도 44를 참조하면, 디바이스(100)는 사용자 인터페이스부(4410), 제어부(4420), 센서부(4430), 메모리(4440), 영상 처리부(4450), 오디오 출력부(4460), 오디오 입력부(4470), 카메라(4480), 및 통신부(4490)를 포함할 수 있다. 44, the device 100 includes a user interface unit 4410, a control unit 4420, a sensor unit 4430, a memory 4440, an image processing unit 4450, an audio output unit 4460, an audio input unit 4470, a camera 4480, and a communication unit 4490.

디바이스(100)는 배터리(미 도시됨)를 더 포함할 수 있다. 배터리는 내장형으로 디바이스(100)에 포함되거나 착탈이 가능한 형태로 디바이스(100)에 포함될 수 있다. 배터리는 디바이스(100)에 포함된 모든 구성 요소로 전원을 공급할 수 있다. 디바이스(100)는 외부 전원 공급 장치로부터 전원을 공급 받을 수 있다. 외부 전원 공급 장치는 외부 디바이스(2120)에 내장된 배터리일 수 있다. The device 100 may further include a battery (not shown). The battery may be embedded in the device 100 in a form that is embedded in the device 100 or removable. The battery can supply power to all components contained in the device 100. The device 100 may be powered from an external power supply. The external power supply may be a battery built in the external device 2120.

도 44에 도시된 사용자 인터페이스부(4410)에 포함된 사용자 입력부(4411), 디스플레이(4412), 제어부(4420), 및 메모리(4440)는 도 43에 도시된 사용자 입력부(4310), 제어부(4320), 디스플레이(4330), 및 메모리(4340)와 유사하거나 동일한 구성요소로 언급될 수 있다. The user input unit 4411, the display 4412, the control unit 4420 and the memory 4440 included in the user interface unit 4410 shown in FIG. 44 correspond to the user input unit 4310, the control unit 4320 ), Display 4330, and memory 4340 may be referred to as similar or identical components.

센서부(4430)는 디바이스(100)에 사용자의 접근 여부를 감지하는 근접 센서(4431), 디바이스(100) 주변의 조명을 감지하는 조도 센서(4432)(또는 광 센서), 디바이스(100)의 사용자의 무드(mood)를 감지하는 무드스코프 센서(4433), 디바이스(100)의 위치를 검출하기 위한 위치 센서(Position Sensor, 예를 들어, GPS(Global Positioning System) 수신기)(4434), 디바이스(100)의 방위각을 측정하는 자이로스코프 센서(4435), 지표면을 중심으로 디바이스(100)의 기울기 및 가속도 등을 측정하는 가속도(Accelerometer) 센서(4436), 디바이스(100)를 기준으로 동서남북 방위를 감지하는 지자기 센서(4437), 손바닥에 반사되는 적외선을 감지하여 손동작을 인식하는 제스처 센서(4438), 및/또는 주변 온도와 습도를 인식하는 온도/습도 센서(4439) 등을 포함할 수 있다. 위치 센서(4434)가 GPS 수신기로 구성되는 경우에, 위치 센서(4434)는 통신부(4490)에 포함되는 것으로 언급될 수 있다. 제스처 센서(4438)는 활동성(activity)을 감지하는 동작 감지 센서로 언급될 수 있다. The sensor unit 4430 includes a proximity sensor 4431 for sensing whether the user is approaching the device 100, an illuminance sensor 4432 (or optical sensor) for sensing the illumination around the device 100, A mood sensor 4433 for sensing the mood of the user, a position sensor (e.g., GPS (Global Positioning System) receiver 4434) for detecting the position of the device 100, a device An accelerometer sensor 4436 for measuring the tilt and acceleration of the device 100 about the ground surface, a gyroscope sensor 4435 for measuring the azimuth angle of the device 100, A gesture sensor 4438 that senses infrared rays reflected on the palm of the hand and recognizes a hand gesture, and / or a temperature / humidity sensor 4439 that recognizes ambient temperature and humidity, and the like. In the case where the position sensor 4434 is configured as a GPS receiver, the position sensor 4434 may be referred to as being included in the communication unit 4490. [ The gesture sensor 4438 may be referred to as a motion detection sensor for sensing activity.

센서부(4430)는 도 44에 도시된 바로 제한되지 않는다. 예를 들어, 센서부(4430)는 중력 센서, 고도(Altitude) 센서, 화학적 센서(예를 들어, 냄새 센서(Odorant sensor)), 기압 센서, 미세 먼지 측정 센서, 자외선 센서, 오존도 센서, 이산화 탄소(CO2) 센서, 또는/및 네트워크 센서(예를 들어 WiFi, Bluetooth, 3G, LTE(Long Term Evolution), 또는 NFC(Near Field Communication) 등에 기초한 네트워크 센서)를 포함할 수 있다. The sensor portion 4430 is not limited to the one shown in Fig. For example, the sensor unit 4430 may be a sensor such as a gravity sensor, an altitude sensor, a chemical sensor (e.g., Odorant sensor), an air pressure sensor, a fine dust measuring sensor, an ultraviolet sensor, (CO 2) sensors, and / or network sensors (e.g., network sensors based on WiFi, Bluetooth, 3G, Long Term Evolution (LTE), or Near Field Communication).

센서부(4430)는 압력 센서(예를 들어, 터치 센서, 압전 센서, 물리적인 버튼 등), 상태 센서(예를 들어, 이어폰 단자, DMB(Digital Multimedia Broadcasting) 안테나, 표준 단자(예를 들어, 충전 진행 여부를 인식할 수 있는 단자, PC(Personal Computer) 연결 여부를 인식할 수 있는 단자, 독(dock) 연결 여부를 인식할 수 있는 단자), 타임 센서, 또는/및 헬스 센서(예를 들어 바이오 센서, 심박동 센서, 혈류량 센서, 당뇨 센서, 혈압 센서, 스트레스 센서 등)를 포함할 수 있으나 본 개시에서 센서부(4430)에 포함될 수 있는 센서는 상술한 바로 제한되지 않는다. The sensor unit 4430 may include a pressure sensor (e.g., a touch sensor, a piezoelectric sensor, a physical button, etc.), a status sensor (e.g., an earphone terminal, a Digital Multimedia Broadcasting (DMB) A terminal for recognizing whether or not the charging progress is recognized, a terminal for recognizing whether or not a PC (Personal Computer) is connected, a terminal for recognizing whether a dock is connected), a time sensor, and / A blood pressure sensor, a blood pressure sensor, a stress sensor, etc.), but the sensors that may be included in the sensor portion 4430 in the present disclosure are not limited to those described above.

센서부(4430)에 의해 감지된 결과(또는 센싱 값, 또는 센싱 신호)는 제어부(4420)로 전송된다. The result (or sensing value or sensing signal) sensed by the sensor unit 4430 is transmitted to the controller 4420.

제어부(4420)는 센서부(4430)로부터 수신되는 센싱 값에 기초하여 아바타기반 이미지를 생성하여 디스플레이(4412)에 디스플레이 할 수 있다. 제어부(4420)는 사용자 입력부(4411)를 통해 수신되는 수정 요청을 나타내는 사용자 입력에 따라 디스플레이(4412)에 디스플레이 되고 있는 아바타 기반 이미지를 수정할 수 있다. 제어부(4420)는 수정된 아바타 기반 이미지에 기초하여 메모리(4440)에 저장된 사용자 정보를 업데이트 할 수 있다. 제어부(4410)는 수정된 아바타 기반 이미지에 기초하여 통신부(4490)를 통해 연결된 외부 디바이스(2120)에 저장된 사용자 정보를 업데이트 할 수 있다. 이와 같이 제어부(4420)는 도 43의 제어부(4320)와 같이 일부 실시 예에 따라 동작할 수 있다. The control unit 4420 may generate an avatar-based image based on the sensing value received from the sensor unit 4430 and display the avatar-based image on the display 4412. The control unit 4420 may modify the avatar-based image being displayed on the display 4412 according to a user input indicating a modification request received via the user input unit 4411. The control unit 4420 can update the user information stored in the memory 4440 based on the modified avatar based image. The control unit 4410 can update the user information stored in the external device 2120 connected through the communication unit 4490 based on the modified avatar-based image. As such, the controller 4420 may operate according to some embodiments, such as the controller 4320 of FIG.

제어부(4420)는 디바이스(100)의 전반적인 동작을 제어한다. 예를 들어, 제어부(4420)는 메모리(4440)에 저장된 프로그램들을 실행함으로써, 사용자 인터페이스부(4410), 센서부(4430), 메모리(4440), 영상 처리부(4450), 오디오 출력부(4460), 오디오 입력부(4470), 카메라(4480) 또는/및 통신부(4490)를 전반적으로 제어할 수 있다. The control unit 4420 controls the overall operation of the device 100. [ For example, the control unit 4420 includes a user interface unit 4410, a sensor unit 4430, a memory 4440, an image processing unit 4450, an audio output unit 4460, The audio input unit 4470, the camera 4480, and / or the communication unit 4490. [

제어부(4420)는 도 43의 제어부(4320)와 같이 상술한 도 2, 도 7, 도 9, 도 11, 도 13, 도 14, 도 16, 도 18, 도 20, 도 22, 도 28, 도30, 도 33, 도 34, 도 35, 도 36, 도 37, 도 39, 도 40, 도 41, 또는 도 42에 도시된 흐름도에 기초한 디바이스(100)의 동작을 수행할 수 있다. The control unit 4420 may control the operation of the control unit 4320 in the same manner as the control unit 4320 of FIG. 30, 33, 34, 35, 36, 37, 39, 40, 41, or 42. FIG.

제어부(4420)는 디바이스(100)의 동작 환경에 따라 복수 개로 구성될 수 있다. 예를 들어, 제어부(4420)는 디바이스(100)의 저전력 모드 시 동작되는 프로세서와 정상 모드 시 동작되는 프로세서를 포함할 수 있다. 제어부(4420)는 디바이스(100)에 포함된 구성 요소에 따라 구분된 복수의 프로세서를 포함할 수 있다. The control unit 4420 may include a plurality of devices according to the operating environment of the device 100. [ For example, the controller 4420 may include a processor operating in the low power mode of the device 100 and a processor operating in the normal mode. The controller 4420 may include a plurality of processors separated according to the components included in the device 100. [

메모리(4440)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류될 수 있다. 예를 들어, 메모리(4440)에 저장되는 프로그램들은 UI 모듈(4441), 알림 모듈(4442), 또는/및 애플리케이션 모듈(4443) 등으로 분류될 수 있으나 본 개시에서 메모리(4440)에 저장되는 프로그램들은 상술한 바로 한정되는 것은 아니다. 예를 들어, 디스플레이(4412)가 터치 패널 레이어와 결합된 경우에, 상기 복수 개의 모듈은 터치 스크린 모듈을 포함할 수 있다. Programs stored in the memory 4440 can be classified into a plurality of modules according to their functions. For example, programs stored in memory 4440 may be classified as UI module 4441, notification module 4442, and / or application module 4443, Are not limited to those described above. For example, where the display 4412 is associated with a touch panel layer, the plurality of modules may include a touch screen module.

UI 모듈(4441)은 바람직한 실시 예에서 언급되는 사용자 정보를 수정하기 위한 GUI 정보를 제어부(4420)로 제공할 수 있다. UI 모듈(4441)은, 디바이스(100)에 설치된 각 애플리케이션에 대해 특화된 UI, GUI 등을 제어부(4420)로 제공할 수 있다. The UI module 4441 may provide GUI information to the control unit 4420 for modifying the user information referred to in the preferred embodiment. The UI module 4441 can provide a UI, a GUI, and the like, which are specialized for each application installed in the device 100, to the control unit 4420.

알림 모듈(4442)은 디바이스(100)의 수정 요청, 추가 요청, 수정 완료, 오브젝트 선택, 서비스 정보 요청, 또는 서비스 선택 등을 알리는 신호를 발생할 수 있으나 알림 모듈(4442)에 의해 발생되는 알림은 상술한 바로 제한되지 않는다. The notification module 4442 may generate a signal informing the device 100 of a modification request, an addition request, a modification completion, an object selection, a service information request, or a service selection. However, the notification generated by the notification module 4442 may be, One is not immediately limited.

알림 모듈(4442)은 디스플레이(4412)를 통해 비디오 신호 형태로 알림 신호를 출력할 수 있고, 오디오 출력부(4460)를 통해 오디오 신호 형태로 알림 신호를 출력할 수 있으나 이로 한정되지 않는다. The notification module 4442 can output the notification signal in the form of a video signal through the display 4412 and output the notification signal in the form of an audio signal through the audio output portion 4460. However,

애플리케이션 모듈(4443)은 디바이스(100)에 설정된 사용자 정보 관리 애플리케이션, 또는/및 아바타 기반 이미지에 기초한 서비스 제공 애플리케이션중 적어도 하나를 포함할 수 있다. The application module 4443 may include at least one of a user information management application set on the device 100, and / or a service providing application based on an avatar based image.

일부 실시 예들에 따른 사용자 정보 관리 애플리케이션은 디바이스(100)에 설정된 다른 애플리케이션과 연결되어 동작될 수 있다. 예를 들어, 도 37의 단계 S3702에서 질문 정보가 수신되면, 단계 S3703에서 수신된 질문 정보에 기초한 대답 정보(예를 들어, 서치 결과)를 제공하기 위하여 사용자 정보 관리 애플리케이션은 디바이스(100)에 설정된 QA(Question & Answer) 애플리케이션과 연결되어 동작될 수 있다. The user information management application according to some embodiments may be operated in connection with other applications set in the device 100. [ For example, if the question information is received in step S3702 of FIG. 37, the user information management application may be set to the device 100 to provide answer information (e.g., search result) based on the question information received in step S3703 QA (Question & Answer) application.

영상 처리부(4450)는 통신부(4490)로부터 수신되거나 메모리(4440)에 저장된 영상 데이터를 디스플레이(4412)에 디스플레이 할 수 있도록 처리한다. 예를 들어, 상술한 도 1, 도 5a 내지 도 5e, 도 6a 내지 도 6e, 도 8a 내지 도 8c, 도 10, 도 12a 내지 도 12c, 도 15a 내지 도 15e, 도 17a 내지 도 17d, 도 19a, 도 19b, 도 23a 내지 도 23f, 도 27a 내지 도 27f, 도 29a 내지 도 29f, 도 31a 내지 도 31d, 또는 도 38에 도시된 GUI(Graphic User Interface) 화면이 디스플레이(4412)에 디스플레이 될 수 있도록, 영상 처리부(4450)는 영상 데이터에 대한 신호 처리를 수행할 수 있다. The image processing unit 4450 processes the image data received from the communication unit 4490 or stored in the memory 4440 so as to be displayed on the display 4412. For example, the above-described Figures 1, 5A to 5E, 6A to 6E, 8A to 8C, 10, 12A to 12C, 15A to 15E, 17A to 17D, (Graphic User Interface) screen shown in Fig. 19B, Figs. 23A to 23F, Figs. 27A to 27F, Figs. 29A to 29F, Figs. 31A to 31D or Fig. 38 can be displayed on the display 4412 The image processing unit 4450 can perform signal processing on the image data.

오디오 출력부(4460)는 일부 실시 예들에 따라 사용자 정보에 따른 사운드를 출력할 수 있다. 오디오 출력부(4460)는 통신부(4490)로부터 수신되거나 메모리(4440)에 저장된 오디오 데이터를 출력할 수 있다. 오디오 출력부(4460)는 디바이스(100)에 의해 수행되는 기능과 관련된 음향 신호(예를 들어, 알림 음)를 출력할 수 있다. 오디오 출력부(4460)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있으나 이로 제한되지 않는다.The audio output unit 4460 may output sound according to user information according to some embodiments. The audio output unit 4460 can output audio data received from the communication unit 4490 or stored in the memory 4440. The audio output unit 4460 may output a sound signal (e.g., a notification sound) related to the function performed by the device 100. [ The audio output unit 4460 may include, but is not limited to, a speaker, a buzzer, and the like.

오디오 입력부(4470)는 마이크로 폰으로 구성될 수 있다. 오디오 입력부(4470)는 디바이스(100)의 외부로부터 입력되는 오디오 신호를 수신하고, 수신된 오디오 신호를 전기적인 오디오 신호로 변환하여 제어부(4420)로 전송할 수 있다. 오디오 입력부(4470)는 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘에 기초한 동작을 수행하도록 구성될 수 있다. 오디오 입력부(4470)는 사용자의 음성을 인식할 수 있다. The audio input unit 4470 may be constituted by a microphone. The audio input unit 4470 receives an audio signal input from the outside of the device 100, converts the received audio signal into an electrical audio signal, and transmits the electrical audio signal to the controller 4420. The audio input unit 4470 may be configured to perform operations based on various noise reduction algorithms for eliminating noise generated in receiving an external sound signal. The audio input unit 4470 can recognize the user's voice.

카메라(4480)는 화상 통화 모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 카메라(4480)는 디바이스(100)의 사용자의 손가락 제스처 이미지를 얻어 제어부(4480)로 전송할 수 있다. 제어부(4420)는 사용자의 손가락 제스처 이미지에 기초하여 아바타 기반 이미지에 대한 수정 요청를 나타내는 사용자 입력, 아바타 기반 이미지에 대한 추가 요청을 나타내는 사용자 입력, 아바타 기반 이미지에 대한 수정 완료를 나타내는 사용자 입력, 아바타 기반 이미지에서 오브젝트 선택을 나타내는 사용자 입력, 아바타 기반 이미지에 기초한 서비스 정보 제공 요청을 나타내는 사용자 입력, 아바타 기반 이미지에 기초한 서비스 실행 요청을 나타내는 사용자 입력의 수신 여부를 판단할 수 있다. 본 개시에서 사용자의 손가락 제스처 이미지는 상술한 사용자 입력의 수신 여부를 판단하기 위해 이용되는 것으로 제한되지 않는다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(4420) 또는 별도의 이미지 처리부(미 도시됨)를 통해 처리될 수 있다. The camera 4480 can obtain an image frame such as a still image or a moving image through the image sensor in a video communication mode or a photographing mode. The camera 4480 may obtain and transmit a finger gesture image of the user of the device 100 to the control unit 4480. Based on the user's finger gesture image, the control unit 4420 displays a user input indicating a modification request for the avatar-based image, a user input indicating an addition request for the avatar-based image, a user input indicating completion of modification to the avatar- Based on the avatar-based image, a user input indicating a service information providing request based on the avatar-based image, and a user input indicating a service execution request based on the avatar-based image. In this disclosure, the user's finger gesture image is not limited to being used to determine whether or not to receive the above-described user input. The image captured through the image sensor can be processed through the control unit 4420 or a separate image processing unit (not shown).

카메라(4480)에 의해 처리된 화상 프레임은 메모리(4440)에 저장되거나 통신부(4490)를 통하여 외부로 전송될 수 있다. 카메라(4480)는 디바이스(100)의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 4480 may be stored in the memory 4440 or may be transmitted to the outside via the communication unit 4490. [ The camera 4480 may be provided in two or more according to the configuration of the device 100.

통신부(4490)는 디바이스(100)와 적어도 하나의 외부 디바이스(2120)간의 통신을 위한 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(4490)는, 근거리 통신기(4491), 이동 통신기(4492), 또는/및 방송 수신기(4493)중 적어도 하나를 포함할 수 있다. 본 개시에서 통신부(4490)에 포함되는 구성 요소는 상술한 바로 제한되지 않는다. 예를 들어, 통신부(4490)는 도 21의 네트워크(2110)에서 설명된 적어도 하나의 통신을 수행할 수 있는 구성 요소를 포함할 수 있다. The communication unit 4490 may include one or more components for communicating between the device 100 and the at least one external device 2120. For example, the communication unit 4490 may include at least one of a local communicator 4491, a mobile communication device 4492, and / or a broadcast receiver 4493. The components included in the communication unit 4490 in the present disclosure are not limited to those described above. For example, the communication unit 4490 may include components capable of performing at least one of the communications described in the network 2110 of Fig.

근거리 통신기(short-range wireless communicator)(4491)는, 블루투스 통신, BLE(Bluetooth Low Energy) 통신, 근거리 무선 통신(Near Field Communication unit, RFID), WLAN(와이파이) 통신, 지그비(Zigbee) 통신, Ant+ 통신, WFD(Wi-Fi Direct) 통신, 또는 UWB(ultra wideband) 통신중에서 적어도 하나의 통신이 가능한 모듈을 포함하도록 구성될 수 있다. 본 개시에서 근거리 통신기(4491)에 포함되는 통신 모듈은 상술한 바로 제한되지 않는다. 예를 들어, 근거리 통신기(4491)는 적외선(IrDA, infrared Data Association) 통신 모듈을 포함할 수 있다. 근거리 통신기(4491)는 비콘 신호를 수신할 때, 저전력 블루투스 통신을 사용할 수 있다. The short-range wireless communicator 4491 may be a Bluetooth communication device, a Bluetooth low energy (BLE) communication device, a near field communication unit (RFID) device, a WLAN communication device, a Zigbee communication device, Communication, WFD (Wi-Fi Direct) communication, or UWB (ultra wideband) communication. The communication modules included in the local communicator 4491 in the present disclosure are not limited to the above-described ones. For example, the local communicator 4491 may include an infrared (IRDA) communication module. When the local communicator 4491 receives the beacon signal, it can use low power Bluetooth communication.

이동 통신기(4492)는 이동 통신망 상에서 기지국, 외부 디바이스, 또는/및 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication device 4492 transmits and receives radio signals with at least one of a base station, an external device, and / or a server on a mobile communication network. Here, the wireless signal may include various types of data depending on a voice call signal, a video call signal, or a text / multimedia message transmission / reception.

방송 수신기(4493)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널, 및 라디오 채널중 적어도 하나를 포함할 수 있으나 이로 제한되지 않는다. The broadcast receiver 4493 receives broadcast signals and / or broadcast-related information from outside via a broadcast channel. The broadcast channel may include, but is not limited to, at least one of a satellite channel, a terrestrial channel, and a radio channel.

통신부(4490)는 일부 실시 예들에 따라 디바이스(100)에서 생성된 아바타기반 이미지 또는/및 수정된 아바타 기반 이미지를 외부 디바이스(2120)로 전송할 수 있다. 통신부(4490)는 일부 실시 예들에 따라 외부 디바이스(2120)로부터 사용자 정보, 사용자 모델링 정보, 아바타 기반 이미지, 서비스 정보, 각 오브젝트별 좌표 정보, 또는/및 오브젝트간 결합 조건 정보중 적어도 하나를 수신할 수 있다. 통신부(4490)를 통해 송수신되는 정보, 데이터, 및 신호는 상술한 바로 제한되지 않는다. The communication unit 4490 may transmit the avatar-based image and / or the modified avatar-based image generated in the device 100 to the external device 2120 according to some embodiments. The communication unit 4490 receives at least one of user information, user modeling information, avatar-based image, service information, coordinate information of each object, and / or coupling condition information between objects from the external device 2120 according to some embodiments . The information, data, and signals transmitted and received via the communication unit 4490 are not limited to those described above.

도 45는 일부 실시 예들에 따른 제어부(4320, 4420)의 상세한 기능 블록도이다. 이하 설명을 편의를 위하여 도 44의 제어부(4420)에 기초하여 설명하나 이하 설명은 도 43의 제어부(4320)에 적용될 수 있다. 45 is a detailed functional block diagram of the control units 4320 and 4420 according to some embodiments. The following description will be made on the basis of the control unit 4420 of Fig. 44 for the sake of convenience, but the following description can be applied to the control unit 4320 of Fig.

도 45를 참조하면, 제어부(4420)는 정보 수집 프로세서(4501), 사용자 모델링 정보 생성 프로세서(4502), 이미지 생성 프로세서(4503), 이미지 디스플레이 프로세서(4504), 이미지 수정 프로세서(4505), 및 사용자 모델링 정보 수정 프로세서(4506)를 포함한다. 45, the control unit 4420 includes an information collection processor 4501, a user modeling information generation processor 4502, an image generation processor 4503, an image display processor 4504, an image modification processor 4505, And a modeling information modification processor 4506.

정보 수집 프로세서(4501)는 사용자 정보를 수집할 수 있다. 정보 수집 프로세서(4501)는 사용자 입력부(4411), 센서부(4430), 또는 통신부(4490)를 통해 수신되는 정보에 기초하여 사용자 정보를 수집할 수 있다. 사용자 정보는 본 개시의 서두에서 언급한 바와 같다. 사용자 입력부(4411)를 통해 수신되는 사용자 입력은 정보 수집 프로세서(4501)에 의해 제공되는 이미지 형태의 오브젝트에 대한 선택에 기초할 수 있으나 본 개시에서 사용자 입력은 상술한 바로 제한되지 않는다. 정보 수집 프로세서(4501)는 수집된 사용자 정보를 메모리(4440)에 저장하거나 통신부(4490)를 통해 외부 디바이스(2120)로 전송할 수 있다. The information collection processor 4501 may collect user information. The information collection processor 4501 may collect user information based on information received through the user input unit 4411, the sensor unit 4430, or the communication unit 4490. [ The user information is as mentioned at the beginning of this disclosure. The user input received via the user input 4411 may be based on selection for an image type object provided by the information collection processor 4501, but the user input in this disclosure is not limited to the one just described. The information collection processor 4501 may store the collected user information in the memory 4440 or transmit it to the external device 2120 through the communication unit 4490. [

사용자 모델링 정보 생성 프로세서(4502)는 정보 수집 프로세서(4501)에 의해 수집된 사용자 정보를 이용하여 사용자 모델링 정보를 생성한다. 사용자 모델링 정보는 도 3 또는 도 24a에 도시된 바와 같이 구성될 수 있다. 본 개시에서 사용자 모델링 정보는 상술한 바로 제한되지 않는다. 사용자 모델링 정보 생성 프로세서(4502)는 생성된 사용자 모델링 정보를 메모리(4440)에 저장하거나 통신부(4490)를 통해 외부 디바이스(2120)로 전송할 수 있다. The user modeling information generation processor 4502 generates user modeling information using the user information collected by the information collection processor 4501. The user modeling information may be configured as shown in FIG. 3 or FIG. 24A. User modeling information in this disclosure is not limited to the one just described. The user modeling information generation processor 4502 may store the generated user modeling information in the memory 4440 or may transmit the generated user modeling information to the external device 2120 through the communication unit 4490. [

이미지 생성 프로세서(4503)는 사용자 모델링 정보 생성 프로세서(4502)에 의해 생성된 사용자 모델링 정보에 기초하여 본 개시에서 언급되는 아바타 기반 이미지를 생성한다. 아바타 기반 이미지는 사용자를 상징하는 이미지라고 말할 수 있다. 이미지 생성 프로세서(4503)는 생성된 아바타 기반 이미지를 메모리(4440)에 저장하거나 통신부(4490)를 통해 외부 디바이스(2120)로 전송할 수 있다. 메모리(4440) 또는 외부 디바이스(2120)에 저장되는 이미지는 일시적으로 저장될 수 있다. The image generation processor 4503 generates an avatar based image referred to in this disclosure based on the user modeling information generated by the user modeling information generation processor 4502. [ An avatar-based image can be said to be an image symbolizing a user. The image generation processor 4503 may store the generated avatar-based image in the memory 4440 or transmit it to the external device 2120 through the communication unit 4490. [ The image stored in the memory 4440 or the external device 2120 can be temporarily stored.

이미지 디스플레이 프로세서(4504)는 이미지 생성 프로세서(4503)에 의해생성된 아바타 기반 이미지를 디스플레이(4412)를 통해 디스플레이 한다. The image display processor 4504 displays the avatar based image generated by the image generating processor 4503 through the display 4412. [

이미지 수정 프로세서(4505)는 상술한 일부 실시 예들에 따라 디스플레이(4412)를 통해 디스플레이 되고 있는 아바타 기반 이미지에 기초하여 아바타 기반 이미지를 수정한다. 아바타 기반 이미지에 대한 수정이 완료되면, 이미지 수정 프로세서(4505)는 메모리(4440)에 저장된 이미지 또는 외부 디바이스(2120)에 저장된 이미지를 업데이트 할 수 있다. The image modification processor 4505 modifies the avatar-based image based on the avatar-based image being displayed through the display 4412 in accordance with some embodiments described above. When the modification to the avatar-based image is completed, the image modification processor 4505 can update the image stored in the memory 4440 or the image stored in the external device 2120.

사용자 모델링 정보 수정 프로세서(4506)는 이미지 수정 프로세서(4505)에 의해 수정된 이미지에 기초하여 메모리(4440) 또는 외부 디바이스(2120)에 저장된 사용자 정보를 업데이트한다. The user modeling information modification processor 4506 updates the user information stored in the memory 4440 or the external device 2120 based on the image modified by the image modification processor 4505. [

도 43 및 도 44에 도시된 제어부(4320, 4420)는 도 45에 도시된 구성 요소보다 적은 구성요소를 포함하거나 더 많은 구성 요소를 포함할 수 있다. 예를 들어, 외부 디바이스(2120)로부터 사용자 정보를 수신할 경우에 제어부(4320, 4420)는 정보 수집 프로세서(4501)를 포함하지 않을 수 있다. The control units 4320 and 4420 shown in Figs. 43 and 44 may include fewer or more components than those shown in Fig. For example, when the user information is received from the external device 2120, the control units 4320 and 4420 may not include the information collection processor 4501.

외부 디바이스(2120)로부터 사용자 모델링 정보를 수신할 경우에, 제어부(4320, 4420)는 정보 수집 프로세서(4501) 및 사용자 모델링 정보 생성 프로세서(4502) 대신에 사용자 모델링 정보 수신 프로세서를 포함하고, 사용자 모델링 정보 수정 프로세서(4506) 대신에 사용자 모델링 정보 전송 프로세서를 포함할 수 있다. 예를 들어, 외부 디바이스(2120)로부터 사용자 정보에 기초한 아바타 기잔 이미지를 수신할 경우에, 제어부(4320, 4420)는 정보 수집 프로세서(4501), 사용자 모델링 정보 생성 프로세서(4502), 및 이미지 생성 프로세서(4503) 대신에 이미지 수신 프로세서를 포함할 수 있다. The control units 4320 and 4420 include a user modeling information receiving processor in place of the information collecting processor 4501 and the user modeling information generating processor 4502, And may include a user modeling information transmission processor instead of the information modification processor 4506. For example, when receiving an avatar update image based on the user information from the external device 2120, the control units 4320 and 4420 include an information collection processor 4501, a user modeling information generation processor 4502, An image receiving processor may be included instead of the image receiving processor 4503.

상술한 바와 같이 도 43 및 도 44에 도시된 제어부(4320, 4420)의 상세한 기능 블록도는 도 45에 도시된 바로 제한되지 않는다. 또한, 제어부(4320, 4420)의 기능 블록도에 기초하여 외부 디바이스(2120)의 기능이 결정될 수 있다. As described above, detailed functional block diagrams of the control units 4320 and 4420 shown in Figs. 43 and 44 are not limited to those shown in Fig. 45. In addition, the functions of the external device 2120 can be determined based on the functional block diagrams of the control units 4320 and 4420.

본 개시의 실시 예들에 따른 방법을 컴퓨터로 구현하는 방법을 수행하도록 하는 명령어들을 포함하는 하나 이상의 프로그램은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로써 기록되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드로써 저장되고 실행될 수 있다. One or more programs, including instructions for causing a computer-implemented method of implementing the method according to the embodiments of the present disclosure, to be recorded on a computer readable recording medium with computer readable code. A computer-readable recording medium includes all kinds of storage devices in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like. The computer readable recording medium may also be distributed over a networked computer system and stored and executed as computer readable code in a distributed manner.

이제까지 본 개시에 대하여 그 바람직한 실시 예들을 중심으로 살펴보았다. 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자는 본 개시가 본 개시의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 개시의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 개시에 포함된 것으로 해석되어야 할 것이다. The present disclosure has been described with reference to preferred embodiments thereof. It will be understood by those skilled in the art that the present disclosure may be embodied in various forms without departing from the essential characteristics of the present disclosure. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present disclosure is set forth in the appended claims rather than the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present disclosure.

Claims (20)

사용자 정보를 관리하는 디바이스에 있어서,
아바타 기반 이미지를 디스플레이 하는 디스플레이;
사용자 스케줄 정보에 따른 상기 아바타 기반 이미지가 상기 디스플레이에 디스플레이 되도록 상기 디스플레이를 제어하고,
상기 아바타 기반 이미지에 대한 수정 요청을 나타내는 사용자 입력에 따라 상기 아바타 기반 이미지를 수정하고,
상기 수정된 아바타 기반 이미지에 따라 상기 사용자 스케줄 정보를 업데이트 하는 제어부를 포함하는 디바이스.
A device for managing user information,
A display for displaying an avatar-based image;
Controlling the display such that the avatar-based image according to user schedule information is displayed on the display,
Based image in accordance with a user input indicating a modification request for the avatar-based image,
And a controller for updating the user schedule information according to the modified avatar-based image.
제 1 항에 있어서, 상기 디스플레이는, 상기 제어부에 의해 제어됨으로써, 복수의 아바타 기반 이미지를 디스플레이 하고,
특정 기간의 사용자 정보를 요청하는 사용자 입력을 수신하는 사용자 입력부를 더 포함하며,
상기 제어부는, 상기 사용자 입력에 응답하여, 상기 특정 기간의 사용자 정보에 따라 복수의 아바타 기반 이미지가 디스플레이 되도록 상기 디바이스를 제어하고,
상기 복수의 아바타 기반 이미지는 상기 특정 기간을 나누는 기준에 따라 결정되는 것인 디바이스.
The apparatus of claim 1, wherein the display is controlled by the control unit to display a plurality of avatar-based images,
Further comprising a user input for receiving user input requesting user information of a specific period,
Wherein the control unit controls the device in response to the user input so that a plurality of avatar-based images are displayed according to the user information of the specific period,
Wherein the plurality of avatar based images are determined according to a criterion that divides the specific time period.
제 1 항에 있어서, 상기 디스플레이는, 상기 제어부에 의해 제어됨으로써, 복수의 아바타 기반 이미지를 디스플레이 하고,
특정 기간의 사용자 정보를 요청하는 사용자 입력을 수신하는 사용자 입력부를 더 포함하며,
상기 제어부는, 상기 사용자 입력에 응답하여 상기 특정 기간의 사용자 정보에 따라 복수의 아바타 기반 이미지가 디스플레이 되도록 상기 디바이스를 제어하고,
상기 복수의 아바타 기반 이미지는 상기 특정 기간의 사용자 정보에 포함되는 테마 아이템에 따라 결정되는 것인 디바이스.
The apparatus of claim 1, wherein the display is controlled by the control unit to display a plurality of avatar-based images,
Further comprising a user input for receiving user input requesting user information of a specific period,
Wherein the controller controls the device to display a plurality of avatar-based images according to the user information of the specific period in response to the user input,
Wherein the plurality of avatar-based images are determined according to a theme item included in the user information of the specific period.
제 1 항에 있어서, 상기 디바이스는,
수정 가능한 정보 표시를 요청하는 사용자 입력을 수신하는 사용자 입력부를 더 포함하며,
상기 디스플레이는, 상기 제어부에 의해 제어됨으로써, 상기 사용자 입력에 응답하여, 상기 아바타 기반 이미지중에서 수정 가능한 부분을 수정 가능하지 않은 부분과 구별되게 표시하는 것인 디바이스.
2. The apparatus of claim 1,
Further comprising a user input for receiving a user input requesting a modifiable information display,
Wherein the display is controlled by the controller to display the modifiable portion of the avatar-based image distinct from the non-modifiable portion in response to the user input.
제 1 항에 있어서, 상기 제어부는,
상기 아바타 기반 이미지에 대한 제공 기간이 설정되어 있으면, 상기 제공 기간을 체크하고,
상기 제공 기간이 만료되면, 상기 아바타 기반 이미지를 소멸시키는 것인 디바이스.
The apparatus of claim 1,
If the providing period for the avatar-based image is set, checking the providing period,
And expires the avatar-based image when the providing period expires.
제 1 항에 있어서, 상기 디스플레이는,
사용자의 헬스 정보에 따른 아바타 기반 이미지를 디스플레이 하며,
상기 디바이스는 의료 정보 요청을 나타내는 사용자 입력을 수신하는 사용자 입력부를 더 포함하고,
상기 제어부는,
상기 사용자 입력에 응답하여 상기 사용자의 헬스 정보에 관련된 의료 정보를 상기 디스플레이를 통해 제공하고,
상기 제공되는 의료 정보에 기초하여 선택된 의료 정보에 관한 사용자 입력이 상기 사용자 입력부를 통해 수신되면,
상기 선택된 의료 정보에 따라 상기 사용자의 스케줄 정보를 업데이트 하는 것인 디바이스.
The display according to claim 1,
An avatar-based image according to the health information of the user is displayed,
Wherein the device further comprises a user input for receiving a user input indicative of a medical information request,
Wherein,
Providing health information related to the health information of the user through the display in response to the user input,
When the user input relating to the selected medical information based on the provided medical information is received through the user input unit,
And updates the schedule information of the user according to the selected medical information.
제 1 항에 있어서, 상기 디바이스는,
상기 아바타 기반 이미지에 대한 정보 추가를 나타내는 사용자 입력을 수신하는 사용자 입력부를 더 포함하고,
상기 디스플레이는, 상기 제어부에 제어됨으로써, 상기 정보 추가를 위한 입력 창을 디스플레이 하며,
상기 제어부는,
상기 입력 창을 통해 수신된 정보에 대응되는 이미지를 상기 아바타 기반 이미지에 추가하고,
상기 추가된 이미지를 포함하는 아바타 기반 이미지에 따라 상기 사용자의 스케줄 정보를 업데이트 하는 것인 디바이스.
2. The apparatus of claim 1,
Further comprising a user input for receiving a user input indicating the addition of information to the avatar-based image,
Wherein the display is controlled by the control unit to display an input window for adding the information,
Wherein,
Based image, adding an image corresponding to the information received through the input window to the avatar-
And updates the schedule information of the user according to the avatar-based image including the added image.
제 1 항에 있어서, 상기 디스플레이는, 상기 제어부에 의해 제어됨으로써, 사용자의 장래 희망 정보에 따른 아바타 기반 이미지를 디스플레이 하고,
상기 디바이스는,
상기 장래 희망 정보에 관련된 정보를 요청하는 사용자 입력을 수신하는 사용자 입력부를 더 포함하고,
상기 제어부는,
상기 사용자 입력에 따라 장래 희망 정보에 관련된 정보를 상기 디스플레이를 통해 제공하고,
상기 장래 희망 정보에 관련된 정보 중 선택된 정보에 따라 상기 사용자의 스케줄 정보를 업데이트 하는 것인 디바이스.
The apparatus of claim 1, wherein the display is configured to display an avatar-based image according to a user's future desired information by being controlled by the controller,
The device comprising:
Further comprising a user input section for receiving a user input requesting information related to the future desired information,
Wherein,
Providing information related to future desired information through the display according to the user input,
And updates the schedule information of the user according to the selected information among the information related to the future desired information.
제 1 항에 있어서, 상기 디스플레이는, 상기 제어부에 의해 제어됨으로써, 상기 디바이스의 사용 히스토리 정보에 따른 복수의 아바타 기반 이미지를 디스플레이 하고,
상기 디바이스는,
상기 디바이스에 대한 사용 기간별 사용 히스토리 정보를 요청하는 사용자 입력을 수신하는 사용자 입력부를 더 포함하고,
상기 제어부는, 상기 사용자 입력에 응답하여, 상기 복수의 아바타 기반의 이미지가 상기 디스플레이에 디스플레이 되도록 상기 디스플레이를 제어하는 것인 디바이스.
The display device according to claim 1, wherein the display controls a plurality of avatar-based images according to usage history information of the device,
The device comprising:
Further comprising a user input unit for receiving a user input for requesting usage history information for the device for each use period,
Wherein the control unit is responsive to the user input to control the display such that the plurality of avatar based images are displayed on the display.
제 1 항에 있어서, 상기 디스플레이는, 상기 제어부에 의해 제어됨으로서, 소셜 미디어에 등록된 사용자 정보에 따른 아바타 기반의 이미지를 디스플레이 하고,
상기 디바이스는, 수정을 요청하는 사용자 입력을 수신하는 사용자 입력부를 더 포함하고,
상기 제어부는, 상기 사용자 입력에 응답하여, 상기 아바타 기반의 이미지를 수정하고,
상기 수정된 아바타 기반의 이미지에 따라 상기 소셜 미디어에 등록된 사용자 정보를 업데이트 하는 것인 디바이스.
The display device according to claim 1, wherein the display is controlled by the control unit to display an avatar-based image according to user information registered in a social media,
The device further comprising a user input for receiving a user input requesting modification,
Wherein the controller modifies the avatar-based image in response to the user input,
And updates the user information registered in the social media according to the modified avatar-based image.
컴퓨팅 디바이스에 의해 실행되는 사용자 정보 관리 방법에 있어서,
사용자 스케줄 정보에 따른 아바타 기반 이미지를 상기 컴퓨팅 디바이스의 디스플레이에 디스플레이 하는 단계;
상기 아바타 기반 이미지에 대한 수정 요청을 나타내는 사용자 입력에 따라 상기 아바타 기반 이미지를 수정하는 단계; 및
상기 수정된 아바타 기반 이미지에 따라 상기 사용자 스케줄 정보를 업데이트 하는 단계를 포함하는 사용자 정보 관리 방법.
A method for managing user information executed by a computing device,
Displaying an avatar-based image according to user schedule information on a display of the computing device;
Modifying the avatar-based image according to user input indicating a modification request for the avatar-based image; And
And updating the user schedule information according to the modified avatar-based image.
제 11 항에 있어서, 상기 아바타 기반 이미지를 디스플레이 하는 단계는,
특정 기간의 사용자 정보에 따라 복수의 아바타 기반 이미지를 디스플레이 하는 단계를 포함하고,
상기 복수의 아바타 기반 이미지는 상기 특정 기간을 나누는 기준에 따라 결정되는 것인 사용자 정보 관리 방법.
12. The method of claim 11, wherein displaying the avatar-
Displaying a plurality of avatar-based images according to user information of a specific period,
Wherein the plurality of avatar-based images are determined according to a criterion dividing the specific period.
제 11 항에 있어서, 상기 아바타 기반 이미지를 디스플레이 하는 단계는,
특정 기간의 사용자 정보에 따라 복수의 아바타 기반 이미지를 디스플레이 하는 단계를 포함하고,
상기 복수의 아바타 기반 이미지는 상기 특정 기간의 사용자 정보에 포함되어 있는 테마 아이템에 따라 결정되는 것인 사용자 정보 관리 방법.
12. The method of claim 11, wherein displaying the avatar-
Displaying a plurality of avatar-based images according to user information of a specific period,
Wherein the plurality of avatar-based images are determined according to a theme item included in the user information of the specific period.
제 11 항에 있어서, 상기 방법은,
수정 가능한 정보 표시를 요청하는 사용자 입력에 응답하여 상기 아바타 기반 이미지중에서 수정 가능한 부분을 수정 가능하지 않은 부분과 구별되게 표시하는 단계를 더 포함하는 사용자 정보 관리 방법.
12. The method of claim 11,
And displaying the modifiable portion of the avatar-based image in a manner distinct from the non-modifiable portion in response to a user input requesting an editable information display.
제 11 항에 있어서, 상기 방법은,
상기 아바타 기반 이미지에 대한 제공 기간이 설정되어 있으면, 상기 제공 기간을 체크하는 단계;
상기 제공 기간이 만료되면, 상기 아바타 기반 이미지를 소멸시키는 단계를
더 포함하는 사용자 정보 관리 방법.
12. The method of claim 11,
If the providing period for the avatar-based image is set, checking the providing period;
Expiration of the avatar-based image when the providing period expires,
Further comprising:
제 11 항에 있어서, 상기 방법은,
사용자의 헬스 정보에 따른 아바타 기반 이미지를 상기 디스플레이에 디스플레이 하는 단계;
의료 정보 요청을 나타내는 사용자 입력에 따라 상기 사용자의 헬스 정보에 관련된 의료 정보를 제공하는 단계; 및
상기 제공되는 의료 정보에 기초하여 선택된 의료 정보에 따라 상기 사용자의 스케줄 정보를 업데이트 하는 단계를 더 포함하는 사용자 정보 관리 방법.
12. The method of claim 11,
Displaying an avatar-based image according to the user's health information on the display;
Providing health information related to the health information of the user according to a user input indicating a medical information request; And
And updating the user's schedule information according to the medical information selected based on the provided medical information.
제 11 항에 있어서, 상기 방법은,
상기 아바타 기반 이미지에 대한 정보 추가를 나타내는 사용자 입력이 수신됨에 따라 상기 정보 추가를 위한 입력 창을 상기 디스플레이에 디스플레이 하는 단계;
상기 입력 창을 통해 수신된 정보에 대응되는 이미지를 상기 아바타 기반 이미지에 추가하는 단계; 및
상기 추가된 이미지를 포함하는 아바타 기반 이미지에 따라 상기 사용자의 스케줄 정보를 업데이트 하는 단계를 더 포함하는 사용자 정보 관리 방법.
12. The method of claim 11,
Displaying an input window for adding the information on the display as a user input indicating the addition of information about the avatar-based image is received;
Adding an image corresponding to information received through the input window to the avatar-based image; And
And updating the user's schedule information according to an avatar-based image including the added image.
제 11 항에 있어서, 상기 방법은,
사용자의 장래 희망 정보에 따른 아바타 기반 이미지를 디스플레이 하는 단계; 및
상기 장래 희망 정보에 관련된 정보를 요청하는 사용자 입력에 따라 장래 희망 정보에 관련된 정보를 제공하는 단계; 및
상기 장래 희망 정보에 관련된 정보 중 선택된 정보에 따라 상기 사용자의 스케줄 정보를 업데이트 하는 단계를 더 포함하는 사용자 정보 관리 방법.
12. The method of claim 11,
Displaying an avatar-based image according to user's future desired information; And
Providing information related to future desired information according to a user input requesting information related to the future desired information; And
And updating the schedule information of the user according to information selected from information related to the future desired information.
제 11 항에 있어서, 상기 방법은,
상기 컴퓨팅 디바이스에 대한 사용 기간별 사용 히스토리 정보를 요청하는 사용자 입력에 따라
상기 사용 히스토리 정보에 따른 복수의 아바타 기반의 이미지를 디스플레이 하는 단계를 더 포함하는 사용자 정보 관리 방법.
12. The method of claim 11,
Depending on the user input requesting usage history information for the usage period for the computing device
And displaying the plurality of avatar-based images according to the usage history information.
제 11 항에 있어서, 상기 방법은,
소셜 미디어에 등록된 사용자 정보에 따른 아바타 기반의 이미지를 디스플레이 하는 단계;
수정을 요청하는 사용자 입력에 따라 상기 아바타 기반의 이미지를 수정하는 단계; 및
상기 수정된 아바타 기반의 이미지에 따라 상기 소셜 미디어에 등록된 사용자 정보를 업데이트 하는 단계를 더 포함하는 사용자 정보 관리정보 방법.
12. The method of claim 11,
Displaying an avatar-based image according to user information registered in the social media;
Modifying the avatar-based image according to a user input requesting modification; And
And updating the user information registered in the social media according to the modified avatar-based image.
KR1020150070566A 2014-10-31 2015-05-20 Device for managing user information based on image and method thereof KR102384311B1 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
TW104134458A TWI680400B (en) 2014-10-31 2015-10-21 Device and method of managing user information based on image
PCT/KR2015/011388 WO2016068581A1 (en) 2014-10-31 2015-10-27 Device and method of managing user information based on image
EP15191948.7A EP3015145A1 (en) 2014-10-31 2015-10-28 Device and method of managing user information based on image
CN201510726716.4A CN105573573B (en) 2014-10-31 2015-10-30 Apparatus and method for managing user information based on image
US14/929,841 US10096143B2 (en) 2014-10-31 2015-11-02 Device and method of managing user information based on image
US16/139,552 US11024070B2 (en) 2014-10-31 2018-09-24 Device and method of managing user information based on image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20140150635 2014-10-31
KR1020140150635 2014-10-31

Publications (2)

Publication Number Publication Date
KR20160051536A true KR20160051536A (en) 2016-05-11
KR102384311B1 KR102384311B1 (en) 2022-04-08

Family

ID=56026248

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150070566A KR102384311B1 (en) 2014-10-31 2015-05-20 Device for managing user information based on image and method thereof

Country Status (2)

Country Link
KR (1) KR102384311B1 (en)
TW (1) TWI680400B (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190077623A (en) * 2016-10-24 2019-07-03 스냅 인코포레이티드 Creating and displaying customized avatars in electronic messages
KR20200100395A (en) * 2019-02-18 2020-08-26 삼성전자주식회사 Electronic device for providing animated image and method thereof
CN112675535A (en) * 2020-12-24 2021-04-20 咪咕互动娱乐有限公司 Display interface adjusting method and device, network equipment and storage medium
US11229849B2 (en) 2012-05-08 2022-01-25 Snap Inc. System and method for generating and displaying avatars
US11385763B2 (en) 2017-04-27 2022-07-12 Snap Inc. Map-based graphical user interface indicating geospatial activity metrics
US11418906B2 (en) 2017-04-27 2022-08-16 Snap Inc. Selective location-based identity communication
US11631276B2 (en) 2016-03-31 2023-04-18 Snap Inc. Automated avatar generation
US11842411B2 (en) 2017-04-27 2023-12-12 Snap Inc. Location-based virtual avatars

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI705397B (en) * 2018-05-21 2020-09-21 財團法人工業技術研究院 Method of managing inventory, method of searching inventory, server for managing inventory and server for searching inventory

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0739645A (en) * 1993-07-27 1995-02-10 Sega Enterp Ltd Game device
JPH08305872A (en) * 1995-05-09 1996-11-22 Casio Comput Co Ltd Character image device
JP2002109306A (en) * 2000-09-28 2002-04-12 Citizen Watch Co Ltd System for preparing merchandise design
KR20100086052A (en) * 2007-11-30 2010-07-29 나이키 인코포레이티드 Interactive avatar for social network services
US20110004835A1 (en) * 2009-05-29 2011-01-06 Jake Yanchar Graphical planner
KR20110014224A (en) * 2008-05-27 2011-02-10 퀄컴 인코포레이티드 Method and system for automatically updating avatar status to indicate user's status
US20110239143A1 (en) * 2010-03-29 2011-09-29 Microsoft Corporation Modifying avatar attributes
JP2013202111A (en) * 2012-03-27 2013-10-07 Konami Digital Entertainment Co Ltd Game management device, game device, game system, game management method, and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0739645A (en) * 1993-07-27 1995-02-10 Sega Enterp Ltd Game device
JPH08305872A (en) * 1995-05-09 1996-11-22 Casio Comput Co Ltd Character image device
JP2002109306A (en) * 2000-09-28 2002-04-12 Citizen Watch Co Ltd System for preparing merchandise design
KR20100086052A (en) * 2007-11-30 2010-07-29 나이키 인코포레이티드 Interactive avatar for social network services
KR20110014224A (en) * 2008-05-27 2011-02-10 퀄컴 인코포레이티드 Method and system for automatically updating avatar status to indicate user's status
US20110004835A1 (en) * 2009-05-29 2011-01-06 Jake Yanchar Graphical planner
US20110239143A1 (en) * 2010-03-29 2011-09-29 Microsoft Corporation Modifying avatar attributes
JP2013202111A (en) * 2012-03-27 2013-10-07 Konami Digital Entertainment Co Ltd Game management device, game device, game system, game management method, and program

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11229849B2 (en) 2012-05-08 2022-01-25 Snap Inc. System and method for generating and displaying avatars
US11925869B2 (en) 2012-05-08 2024-03-12 Snap Inc. System and method for generating and displaying avatars
US11607616B2 (en) 2012-05-08 2023-03-21 Snap Inc. System and method for generating and displaying avatars
US11631276B2 (en) 2016-03-31 2023-04-18 Snap Inc. Automated avatar generation
KR20210035334A (en) * 2016-10-24 2021-03-31 스냅 인코포레이티드 Generating and displaying customized avatars in electronic messages
KR20190077623A (en) * 2016-10-24 2019-07-03 스냅 인코포레이티드 Creating and displaying customized avatars in electronic messages
US11876762B1 (en) 2016-10-24 2024-01-16 Snap Inc. Generating and displaying customized avatars in media overlays
US11218433B2 (en) 2016-10-24 2022-01-04 Snap Inc. Generating and displaying customized avatars in electronic messages
US10938758B2 (en) 2016-10-24 2021-03-02 Snap Inc. Generating and displaying customized avatars in media overlays
US11843456B2 (en) 2016-10-24 2023-12-12 Snap Inc. Generating and displaying customized avatars in media overlays
KR20200140405A (en) * 2016-10-24 2020-12-15 스냅 인코포레이티드 Generating and displaying customized avatars in electronic messages
US10880246B2 (en) 2016-10-24 2020-12-29 Snap Inc. Generating and displaying customized avatars in electronic messages
US11474663B2 (en) 2017-04-27 2022-10-18 Snap Inc. Location-based search mechanism in a graphical user interface
US11451956B1 (en) 2017-04-27 2022-09-20 Snap Inc. Location privacy management on map-based social media platforms
US11418906B2 (en) 2017-04-27 2022-08-16 Snap Inc. Selective location-based identity communication
US11392264B1 (en) 2017-04-27 2022-07-19 Snap Inc. Map-based graphical user interface for multi-type social media galleries
US11782574B2 (en) 2017-04-27 2023-10-10 Snap Inc. Map-based graphical user interface indicating geospatial activity metrics
US11842411B2 (en) 2017-04-27 2023-12-12 Snap Inc. Location-based virtual avatars
US11385763B2 (en) 2017-04-27 2022-07-12 Snap Inc. Map-based graphical user interface indicating geospatial activity metrics
US11893647B2 (en) 2017-04-27 2024-02-06 Snap Inc. Location-based virtual avatars
KR20200100395A (en) * 2019-02-18 2020-08-26 삼성전자주식회사 Electronic device for providing animated image and method thereof
CN112675535A (en) * 2020-12-24 2021-04-20 咪咕互动娱乐有限公司 Display interface adjusting method and device, network equipment and storage medium

Also Published As

Publication number Publication date
TWI680400B (en) 2019-12-21
TW201617947A (en) 2016-05-16
KR102384311B1 (en) 2022-04-08

Similar Documents

Publication Publication Date Title
US11024070B2 (en) Device and method of managing user information based on image
KR102384311B1 (en) Device for managing user information based on image and method thereof
JP6777201B2 (en) Information processing equipment, information processing methods and programs
US10939028B2 (en) Wearable apparatus for name tagging
US10415990B2 (en) System for providing personalized information and method of providing the personalized information
US20210097100A1 (en) System for providing life log service and method of providing the service
EP3143782B1 (en) System for providing personalized information and method of providing the personalized information
US10552004B2 (en) Method for providing application, and electronic device therefor
KR102139664B1 (en) System and method for sharing profile image card
KR102531656B1 (en) System for providing life log service and service method thereof
CN110268437A (en) The context media content item of customization generates
US11022459B2 (en) System for providing personalized information and method of providing the personalized information
US20230336694A1 (en) Tagging Characteristics of an Interpersonal Encounter Based on Vocal Features
Barile et al. ICT solutions for the OR. C. HE. STRA project: From personalized selection to enhanced fruition of cultural heritage data
CN112041787A (en) Electronic device for outputting response to user input using application and method of operating the same

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant