KR102384311B1 - Device for managing user information based on image and method thereof - Google Patents

Device for managing user information based on image and method thereof Download PDF

Info

Publication number
KR102384311B1
KR102384311B1 KR1020150070566A KR20150070566A KR102384311B1 KR 102384311 B1 KR102384311 B1 KR 102384311B1 KR 1020150070566 A KR1020150070566 A KR 1020150070566A KR 20150070566 A KR20150070566 A KR 20150070566A KR 102384311 B1 KR102384311 B1 KR 102384311B1
Authority
KR
South Korea
Prior art keywords
information
user
avatar
image
based image
Prior art date
Application number
KR1020150070566A
Other languages
Korean (ko)
Other versions
KR20160051536A (en
Inventor
남지인
강민정
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to TW104134458A priority Critical patent/TWI680400B/en
Priority to PCT/KR2015/011388 priority patent/WO2016068581A1/en
Priority to EP15191948.7A priority patent/EP3015145A1/en
Priority to CN201510726716.4A priority patent/CN105573573B/en
Priority to US14/929,841 priority patent/US10096143B2/en
Publication of KR20160051536A publication Critical patent/KR20160051536A/en
Priority to US16/139,552 priority patent/US11024070B2/en
Application granted granted Critical
Publication of KR102384311B1 publication Critical patent/KR102384311B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work

Abstract

본 개시는 사용자 정보를 나타내는 이미지 기반으로 사용자 정보를 쉽게 수정, 추가, 또는/및 확인함으로써, 사용자 정보를 효과적으로 관리하기 위한 것이다. 일 실시 예에 따른 디바이스는 아바타 기반 이미지를 디스플레이 하는 디스플레이, 사용자 입력에 따라 디스플레이에 디스플레이 되고 있는 아바타 기반 이미지를 수정하고, 수정된 아바타 기반 이미지에 기초하여 사용자 정보를 업데이트 하는 제어부를 포함한다. An object of the present disclosure is to effectively manage user information by easily modifying, adding, and/or checking user information based on an image representing the user information. A device according to an embodiment includes a display for displaying an avatar-based image, a controller for correcting the avatar-based image displayed on the display according to a user input, and updating user information based on the modified avatar-based image.

Description

이미지 기반으로 사용자 정보를 관리하는 디바이스 및 그 방법{DEVICE FOR MANAGING USER INFORMATION BASED ON IMAGE AND METHOD THEREOF} DEVICE FOR MANAGING USER INFORMATION BASED ON IMAGE AND METHOD THEREOF

본 개시는 사용자 정보를 관리하는 디바이스 및 방법에 관한 것으로, 보다 상세하게는, 사용자 정보를 나타내는 이미지를 기반으로 사용자 정보를 관리하는 디바이스 및 방법에 관한 것이다. The present disclosure relates to a device and method for managing user information, and more particularly, to a device and method for managing user information based on an image representing the user information.

통신 기술의 발달 및 디바이스의 스마트 화에 따라 다양한 사용자 정보 수집이 가능해지고 있다. 사용자 정보는 사용자 프로파일 정보 또는/및 사용자의 라이프 로그 정보 등과 같이 사용자에 관련된 정보를 말한다. 사용자의 라이프 로그 정보는 사용자 스케줄 정보, 또는 사용자 헬스 정보를 포함할 수 있으나 이로 제한되지 않는다. With the development of communication technology and smart devices, it is becoming possible to collect various user information. The user information refers to information related to a user, such as user profile information and/or user life log information. The user's life log information may include, but is not limited to, user schedule information or user health information.

사용자 정보는 사용자 입력 또는/및 디바이스의 센싱 기능, 디바이스의 검출 기능, 또는/및 디바이스의 데이터 분석 기능 등을 이용하여 수집될 수 있으나 사용자 정보를 수집하는 방법은 이로 제한되지 않는다. The user information may be collected using a user input and/or a sensing function of the device, a detection function of the device, or/and a data analysis function of the device, but the method of collecting user information is not limited thereto.

이와 같이 다양한 방법으로 수집되는 사용자 정보를 효과적으로 관리할 수 있는 기술이 요구되고 있다. There is a need for a technology capable of effectively managing user information collected in such a variety of ways.

전술한 배경기술은 발명자가 본 개시의 도출을 위해 보유하고 있었거나, 본 개시의 도출 과정에서 습득한 정보로서, 반드시 본 개시의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.The above-mentioned background art is information possessed by the inventor for the derivation of the present disclosure or acquired during the derivation of the present disclosure, and cannot necessarily be said to be a known technique disclosed to the general public prior to the filing of the present disclosure.

본 개시의 실시 예들은, 사용자 정보를 나타내는 이미지 기반으로 사용자 정보를 쉽게 수정, 추가, 또는/및 확인함으로써, 사용자 정보를 효과적으로 관리하기 위한 것이다. Embodiments of the present disclosure are for effectively managing user information by easily modifying, adding, and/or checking user information based on an image representing user information.

또한, 본 개시의 실시 예들은 사용자 정보를 나타내는 이미지 기반으로 제공 가능한 서비스를 쉽게 확인하고, 이용함으로써, 사용자 정보를 효과적으로 관리하기 위한 것이다. In addition, embodiments of the present disclosure are for effectively managing user information by easily checking and using a service that can be provided based on an image representing user information.

상술한 기술적 과제들을 달성하기 위한 기술적 수단으로서, 본 개시의 제 1 측면은, 사용자 정보를 관리하는 디바이스에 있어서, 아바타 기반 이미지를 디스플레이 하는 디스플레이; 사용자 스케줄 정보에 따른 상기 아바타 기반 이미지가 상기 디스플레이에 디스플레이 되도록 상기 디스플레이를 제어하고, 상기 아바타 기반 이미지에 대한 수정 요청을 나타내는 사용자 입력에 따라 상기 아바타 기반 이미지를 수정하고, 상기 수정된 아바타 기반 이미지에 따라 상기 사용자 스케줄 정보를 업데이트 하는 제어부를 포함하는 디바이스를 제공할 수 있다. As a technical means for achieving the above technical problems, a first aspect of the present disclosure is a device for managing user information, comprising: a display for displaying an avatar-based image; controlling the display so that the avatar-based image according to user schedule information is displayed on the display, modifying the avatar-based image according to a user input indicating a request for modification of the avatar-based image, and adding the modified avatar-based image Accordingly, it is possible to provide a device including a control unit for updating the user schedule information.

또한, 상기 디스플레이는, 상기 제어부에 의해 제어됨으로써, 복수의 아바타 기반 이미지를 디스플레이 하고, 특정 기간의 사용자 정보를 요청하는 사용자 입력을 수신하는 사용자 입력부를 더 포함하며, 상기 제어부는, 상기 사용자 입력에 응답하여, 상기 특정 기간의 사용자 정보에 따라 복수의 아바타 기반 이미지가 디스플레이 되도록 상기 디바이스를 제어하고, 상기 복수의 아바타 기반 이미지는 상기 특정 기간을 나누는 기준에 따라 결정될 수 있다. In addition, the display further includes a user input unit that displays a plurality of avatar-based images by being controlled by the control unit and receives a user input requesting user information for a specific period, wherein the control unit responds to the user input. In response, the device may be controlled to display a plurality of avatar-based images according to user information of the specific period, and the plurality of avatar-based images may be determined according to a criterion for dividing the specific period.

또한, 상기 디스플레이는, 상기 제어부에 의해 제어됨으로써, 복수의 아바타 기반 이미지를 디스플레이 하고, 특정 기간의 사용자 정보를 요청하는 사용자 입력을 수신하는 사용자 입력부를 더 포함하며, 상기 제어부는, 상기 사용자 입력에 응답하여 상기 특정 기간의 사용자 정보에 따라 복수의 아바타 기반 이미지가 디스플레이 되도록 상기 디바이스를 제어하고, 상기 복수의 아바타 기반 이미지는 상기 특정 기간의 사용자 정보에 포함되는 테마 아이템에 따라 결정될 수 있다. In addition, the display further includes a user input unit that displays a plurality of avatar-based images by being controlled by the control unit and receives a user input requesting user information for a specific period, wherein the control unit responds to the user input. In response, the device may be controlled to display a plurality of avatar-based images according to the user information of the specific period, and the plurality of avatar-based images may be determined according to a theme item included in the user information of the specific period.

또한, 상기 디바이스는, 수정 가능한 정보 표시를 요청하는 사용자 입력을 수신하는 사용자 입력부를 더 포함하며, 상기 디스플레이는, 상기 제어부에 의해 제어됨으로써, 상기 사용자 입력에 응답하여, 상기 아바타 기반 이미지중에서 수정 가능한 부분을 수정 가능하지 않은 부분과 구별되게 표시할 수 있다. In addition, the device further includes a user input unit for receiving a user input for requesting display of editable information, and the display is controlled by the controller to respond to the user input, and is modifiable from among the avatar-based images. You can mark parts as distinct from non-modifiable parts.

또한, 상기 제어부는, 상기 아바타 기반 이미지에 대한 제공 기간이 설정되어 있으면, 상기 제공 기간을 체크하고, 상기 제공 기간이 만료되면, 상기 아바타 기반 이미지를 소멸시킬 수 있다. Also, the controller may check the provision period when the provision period for the avatar-based image is set, and destroy the avatar-based image when the provision period expires.

또한, 상기 디스플레이는, 사용자의 헬스 정보에 따른 아바타 기반 이미지를 디스플레이 하며, 상기 디바이스는 의료 정보 요청을 나타내는 사용자 입력을 수신하는 사용자 입력부를 더 포함하고, 상기 제어부는, 상기 사용자 입력에 응답하여 상기 사용자의 헬스 정보에 관련된 의료 정보를 상기 디스플레이를 통해 제공하고, 상기 제공되는 의료 정보에 기초하여 선택된 의료 정보에 관한 사용자 입력이 상기 사용자 입력부를 통해 수신되면, 상기 선택된 의료 정보에 따라 상기 사용자의 스케줄 정보를 업데이트 할 수 있다. In addition, the display displays an avatar-based image according to the user's health information, and the device further includes a user input unit for receiving a user input indicating a medical information request, and the control unit, in response to the user input Medical information related to the user's health information is provided through the display, and when a user input regarding medical information selected based on the provided medical information is received through the user input unit, the user's schedule according to the selected medical information Information can be updated.

또한, 상기 디바이스는, 상기 아바타 기반 이미지에 대한 정보 추가를 나타내는 사용자 입력을 수신하는 사용자 입력부를 더 포함하고, 상기 디스플레이는, 상기 제어부에 제어됨으로써, 상기 정보 추가를 위한 입력 창을 디스플레이 하며, 상기 제어부는, 상기 입력 창을 통해 수신된 정보에 대응되는 이미지를 상기 아바타 기반 이미지에 추가하고, 상기 추가된 이미지를 포함하는 아바타 기반 이미지에 따라 상기 사용자의 스케줄 정보를 업데이트 할 수 있다. In addition, the device further includes a user input unit for receiving a user input indicating addition of information on the avatar-based image, wherein the display is controlled by the controller to display an input window for adding the information, The controller may add an image corresponding to the information received through the input window to the avatar-based image, and update the user's schedule information according to the avatar-based image including the added image.

또한, 상기 디스플레이는, 상기 제어부에 의해 제어됨으로써, 사용자의 장래 희망 정보에 따른 아바타 기반 이미지를 디스플레이 하고, 상기 디바이스는, 상기 장래 희망 정보에 관련된 정보를 요청하는 사용자 입력을 수신하는 사용자 입력부를 더 포함하고, 상기 제어부는, 상기 사용자 입력에 따라 장래 희망 정보에 관련된 정보를 상기 디스플레이를 통해 제공하고, 상기 장래 희망 정보에 관련된 정보 중 선택된 정보에 따라 상기 사용자의 스케줄 정보를 업데이트 할 수 있다. In addition, the display is controlled by the controller to display an avatar-based image according to the user's future hope information, and the device further includes a user input unit for receiving a user input requesting information related to the future hope information The control unit may provide information related to future hope information through the display according to the user input, and update the schedule information of the user according to information selected from information related to the future hope information.

또한, 상기 디스플레이는, 상기 제어부에 의해 제어됨으로써, 상기 디바이스의 사용 히스토리 정보에 따른 복수의 아바타 기반 이미지를 디스플레이 하고, 상기 디바이스는, 상기 디바이스에 대한 사용 기간별 사용 히스토리 정보를 요청하는 사용자 입력을 수신하는 사용자 입력부를 더 포함하고, 상기 제어부는, 상기 사용자 입력에 응답하여, 상기 복수의 아바타 기반의 이미지가 상기 디스플레이에 디스플레이 되도록 상기 디스플레이를 제어할 수 있다. In addition, the display is controlled by the controller to display a plurality of avatar-based images according to usage history information of the device, and the device receives a user input requesting usage history information for each usage period of the device and a user input unit, wherein in response to the user input, the control unit may control the display to display the plurality of avatar-based images on the display.

상기 디스플레이는, 상기 제어부에 의해 제어됨으로서, 소셜 미디어에 등록된 사용자 정보에 따른 아바타 기반의 이미지를 디스플레이 하고, 상기 디바이스는, 수정을 요청하는 사용자 입력을 수신하는 사용자 입력부를 더 포함하고, 상기 제어부는, 상기 사용자 입력에 응답하여, 상기 아바타 기반의 이미지를 수정하고, 상기 수정된 아바타 기반의 이미지에 따라 상기 소셜 미디어에 등록된 사용자 정보를 업데이트 할 수 있다. The display is controlled by the controller to display an avatar-based image according to user information registered in social media, and the device further includes a user input unit for receiving a user input requesting correction, the controller may modify the avatar-based image in response to the user input, and update user information registered in the social media according to the modified avatar-based image.

상술한 기술적 과제들을 달성하기 위한 기술적 수단으로서, 본 개시의 제 2 측면은, 컴퓨팅 디바이스에 의해 실행되는 사용자 정보 관리 방법에 있어서, 사용자 스케줄 정보에 따른 아바타 기반 이미지를 상기 컴퓨팅 디바이스의 디스플레이에 디스플레이 하는 단계; 상기 아바타 기반 이미지에 대한 수정 요청을 나타내는 사용자 입력에 따라 상기 아바타 기반 이미지를 수정하는 단계; 및 상기 수정된 아바타 기반 이미지에 따라 상기 사용자 스케줄 정보를 업데이트 하는 단계를 포함하는 사용자 정보 관리 방법을 제공할 수 있다.As a technical means for achieving the above-described technical problems, a second aspect of the present disclosure is a user information management method executed by a computing device, wherein an avatar-based image according to user schedule information is displayed on the display of the computing device. step; modifying the avatar-based image according to a user input indicating a modification request for the avatar-based image; and updating the user schedule information according to the modified avatar-based image.

또한, 상기 아바타 기반 이미지를 디스플레이 하는 단계는, 특정 기간의 사용자 정보에 따라 복수의 아바타 기반 이미지를 디스플레이 하는 단계를 포함하고, 상기 복수의 아바타 기반 이미지는 상기 특정 기간을 나누는 기준에 따라 결정될 수 있다. In addition, the displaying of the avatar-based image may include displaying a plurality of avatar-based images according to user information of a specific period, and the plurality of avatar-based images may be determined according to a criterion for dividing the specific period. .

또한, 상기 아바타 기반 이미지를 디스플레이 하는 단계는, 특정 기간의 사용자 정보에 따라 복수의 아바타 기반 이미지를 디스플레이 하는 단계를 포함하고, 상기 복수의 아바타 기반 이미지는 상기 특정 기간의 사용자 정보에 포함되어 있는 테마 아이템에 따라 결정될 수 있다. In addition, the displaying of the avatar-based image includes displaying a plurality of avatar-based images according to user information of a specific period, wherein the plurality of avatar-based images are themes included in the user information of the specific period. It may be determined depending on the item.

또한, 상기 방법은, 수정 가능한 정보 표시를 요청하는 사용자 입력에 응답하여 상기 아바타 기반 이미지중에서 수정 가능한 부분을 수정 가능하지 않은 부분과 구별되게 표시하는 단계를 더 포함할 수 있다. In addition, the method may further include displaying a modifiable part of the avatar-based image in response to a user input requesting display of modifiable information to be distinguished from a non-modifiable part.

또한, 상기 방법은, 상기 아바타 기반 이미지에 대한 제공 기간이 설정되어 있으면, 상기 제공 기간을 체크하는 단계; 상기 제공 기간이 만료되면, 상기 아바타 기반 이미지를 소멸시키는 단계를 더 포함할 수 있다. The method may further include: if a provision period for the avatar-based image is set, checking the provision period; When the provision period expires, the method may further include destroying the avatar-based image.

또한, 상기 방법은, 사용자의 헬스 정보에 따른 아바타 기반 이미지를 상기 디스플레이에 디스플레이 하는 단계; 의료 정보 요청을 나타내는 사용자 입력에 따라 상기 사용자의 헬스 정보에 관련된 의료 정보를 제공하는 단계; 및 상기 제공되는 의료 정보에 기초하여 선택된 의료 정보에 따라 상기 사용자의 스케줄 정보를 업데이트 하는 단계를 더 포함할 수 있다. In addition, the method includes: displaying an avatar-based image according to the user's health information on the display; providing medical information related to the user's health information according to a user input indicating a medical information request; and updating the user's schedule information according to medical information selected based on the provided medical information.

또한, 상기 방법은, 상기 아바타 기반 이미지에 대한 정보 추가를 나타내는 사용자 입력이 수신됨에 따라 상기 정보 추가를 위한 입력 창을 상기 디스플레이에 디스플레이 하는 단계; 상기 입력 창을 통해 수신된 정보에 대응되는 이미지를 상기 아바타 기반 이미지에 추가하는 단계; 및 상기 추가된 이미지를 포함하는 아바타 기반 이미지에 따라 상기 사용자의 스케줄 정보를 업데이트 하는 단계를 더 포함할 수 있다. The method may further include: displaying an input window for adding information on the display when a user input indicating addition of information on the avatar-based image is received; adding an image corresponding to the information received through the input window to the avatar-based image; and updating the user's schedule information according to the avatar-based image including the added image.

또한, 상기 방법은, 사용자의 장래 희망 정보에 따른 아바타 기반 이미지를 디스플레이 하는 단계; 및 상기 장래 희망 정보에 관련된 정보를 요청하는 사용자 입력에 따라 장래 희망 정보에 관련된 정보를 제공하는 단계; 및 상기 장래 희망 정보에 관련된 정보 중 선택된 정보에 따라 상기 사용자의 스케줄 정보를 업데이트 하는 단계를 더 포함할 수 있다. In addition, the method includes: displaying an avatar-based image according to the user's future hope information; and providing information related to future hope information according to a user input requesting information related to the future hope information. and updating the user's schedule information according to information selected from among the information related to the future hope information.

또한, 상기 방법은, 상기 컴퓨팅 디바이스에 대한 사용 기간별 사용 히스토리 정보를 요청하는 사용자 입력에 따라 상기 사용 히스토리 정보에 따른 복수의 아바타 기반의 이미지를 디스플레이 하는 단계를 더 포함할 수 있다. The method may further include displaying a plurality of avatar-based images according to the usage history information in response to a user input requesting usage history information for each usage period of the computing device.

또한, 상기 방법은, 소셜 미디어에 등록된 사용자 정보에 따른 아바타 기반의 이미지를 디스플레이 하는 단계; 수정을 요청하는 사용자 입력에 따라 상기 아바타 기반의 이미지를 수정하는 단계; 및 상기 수정된 아바타 기반의 이미지에 따라 상기 소셜 미디어에 등록된 사용자 정보를 업데이트 하는 단계를 더 포함할 수 있다. In addition, the method may include: displaying an avatar-based image according to user information registered in social media; modifying the avatar-based image according to a user input requesting modification; and updating user information registered in the social media according to the modified avatar-based image.

본 개시의 제 3 측면은, 제 2 측면의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공할 수 있다. A third aspect of the present disclosure may provide a computer-readable recording medium recording a program for executing the method of the second aspect on a computer.

도 1은 일부 실시 예에 따른 디바이스가 사용자의 여행 스케줄 정보에 따른 아바타 기반 이미지를 디스플레이 하는 예이다.
도 2는 일부 실시 예에 따른 디바이스가 사용자 스케줄 정보에 따른 아바타 기반 이미지를 이용하여 사용자 정보를 수정하는 사용자 정보 관리 방법의 흐름도이다.
도 3은 일부 실시 예에 따른 디바이스가 생성한 사용자 스케줄 정보에 대한 사용자 모델링 정보의 예이다.
도 4는 일부 실시 예에 따른 디바이스에 저장되어 있는 복수의 오브젝트 정보와 복수의 오브젝트 이미지간의 관계를 설명하기 위한 도면이다.
도 5a 내지 도 5e는 일부 실시 예에 따른 디바이스가 아바타 기반 이미지를 수정하는 일 예를 도시한다.
도 6a 내지 도 6e는 일부 실시 예에 따른 디바이스가 아바타 기반 이미지를 수정하는 다른 예이다.
도 7은 일부 실시 예에 따른 디바이스가 사용자 스케줄 정보에 따른 아바타 기반 이미지를 이용하여 사용자 정보를 추가하는 사용자 정보 관리 방법의 흐름도이다.
도 8a 내지 도 8c는 일부 실시 예에 따른 디바이스가 아바타 기반 이미지를 수정하는 다른 예이다.
도 9는 일부 실시예에 따른 디바이스가 특정 기간의 사용자 스케줄 정보에 따른 복수의 아바타 기반 이미지에 기초한 사용자 정보 관리 방법의 흐름도이다.
도 10은 일부 실시 예에 따른 디바이스에 의해 평일 사용자 스케줄 정보와 주말 사용자 스케줄 정보에 기초한 복수의 아바타 기반 이미지를 디스플레이 하는 예이다.
도 11은 일부 실시 예에 따른 디바이스가 테마 아이템별 사용자 스케줄 정보에 기초한 복수의 아바타 기반 이미지를 이용하는 사용자 정보 관리 방법의 흐름도이다.
도 12a 내지 도 12c는 테마 아이템별 복수의 아바타 기반 이미지를 수정하는 예이다.
도 13은 일부 실시 예에 따른 디바이스가 아바타 기반 이미지에 대한 수명을 관리하는 사용자 정보 관리 방법의 흐름도이다.
도 14는 일부 실시 예에 따른 디바이스가 사용자의 헬스 정보에 따른 아바타 기반 이미지를 이용하는 사용자 정보 관리 방법의 흐름도이다.
도 15a 내지 도 15e는 일부 실시 예에 따른 디바이스가 사용자의 헬스 정보에 따른 아바타 기반 이미지를 이용하여 사용자 정보를 업데이트 하는 예를 도시한 도면이다.
도 16은 일부 실시 예에 따른 디바이스가 사용자의 장래 희망 정보에 따른 아바타 기반 이미지에 기초한 사용자 정보 관리 방법의 흐름도이다.
도 17a 내지 도 17d는 일부 실시 예에 따른 디바이스가 사용자의 장래 희망 정보에 따른 아바타 기반 이미지에 기초하여 사용자 스케줄 정보를 업데이트 하는 과정을 설명하는 도면이다.
도 18은 일부 실시 예에 따른 디바이스의 사용 히스토리 정보에 따른 복수의 아바타 기반 이미지에 기초한 사용자 정보 관리 방법의 흐름도이다.
도 19a 및 도 19b는 일부 실시 예에 따른 디바이스가 디바이스의 사용 히스토리 정보 요청에 따른 복수의 아바타 기반 이미지로 제공하는 예이다.
도 20은 일부 실시 예에 따른 디바이스가 소셜 미디어에 등록된 사용자 정보에 따른 아바타 기반의 이미지를 이용하는 사용자 정보 관리 방법의 흐름도이다.
도 21은 일부 실시 예들에 따른 디바이스를 포함하는 사용자 정보 관리 시스템의 블록도이다.
도 22는 일부 실시 예에 따른 디바이스에 의해 수행되는 사용자 정보 관리 방법을 설명하기 위한 흐름도이다.
도 23a 내지 도 23f는 일부 실시 예에 따른 디바이스가 사용자 정보에 기초하여 디스플레이 하는 아바타 기반 이미지들을 설명하기 위한 도면이다.
도 24a는 일부 실시 예에 따른, 사용자 정보에 대한 사용자 모델링 정보의 예이다.
도 24b는 일부 실시 예에 따른 디바이스에 디스플레이 될 수 있는 아바타 기반 이미지에 포함되는 오브젝트의 디스플레이 사이즈에 관한 예이다.
도 24c는 일부 실시 예에 따른 아바타 기반 이미지에 포함되는 오브젝트의 디스플레이 사이즈를 설명하는 도면이다.
도 25는 일부 실시 예에 따른 오브젝트 이미지와 오브젝트 식별 정보간의 매핑 정보의 예를 도시한다.
도 26은 일부 실시 예에 따른 사용자 모델링 정보와 매핑 정보를 이용하여 아바타 기반 이미지를 생성하는 과정을 설명하는 도면이다.
도 27a 내지 도 27f는 일부 실시 예에 따른 디바이스가 수정 가능한 오브젝트를 표시하는 예들이다.
도 28은 일부 실시 예에 따른 디바이스가 사용자 입력에 따라 아바타 기반 이미지를 수정하는 과정에 대한 흐름도이다.
도 29a 내지 도 29e는 일부 실시 예에 따른 디바이스에 의해 제공되는 후보 오브젝트에 기초하여 오브젝트가 수정되는 예를 도시한다.
도 30은 일부 실시 예에 따른 디바이스가 아바타 기반 이미지에 포함된 오브젝트별로 제공 가능한 서비스 정보를 제공하는 과정에 대한 흐름도이다.
도 31a 내지 도 31d는 도 30에 도시된 사용자 정보 관리 방법에 설명하기 위한 화면의 예이다.
도 32는 일부 실시 예에 따른 디바이스에 의해 업데이트된 사용자 모델링 정보의 예이다.
도 33은 일부 실시 예에 따른 디바이스가 아바타 기반 이미지를 수정하여 사용자 정보를 관리하는 방법의 흐름도이다.
도 34는 일부 실시 예에 따른 디바이스가 아바타 기반 이미지를 수정하여 사용자 정보를 관리하는 방법의 흐름도이다.
도 35는 일부 실시 예에 따른 디바이스가 아바타 기반 이미지를 이용하여 정보를 수정 및/또는 추가하는 사용자 정보 관리 방법의 동작 흐름도이다.
도 36은 일부 실시 예에 따른 디바이스가 아바타 기반 이미지에서 선택된 오브젝트에 기초한 서비스를 제공할 수 있도록 사용자 정보를 관리하는 방법의 흐름도이다.
도 37은 일부 실시 예에 따른 디바이스가 디스플레이 되고 있는 아바타 기반의 이미지에 기초한 QA(Question & Answer) 서비스를 제공하는 사용자 정보 관리 방법의 흐름도이다.
도 38은 일부 실시 예에 따른 디바이스가 수신되는 질문 정보에 따른 답 정보를 제공하는 예이다.
도 39는 일부 실시 예에 따른 디바이스와 외부 디바이스에 기초한 사용자 정보 관리 방법의 흐름도이다.
도 40은 일부 실시 예에 따른 디바이스와 외부 디바이스에 기초한 사용자 정보 관리 방법의 흐름도이다.
도 41은 일부 실시 예에 따른 디바이스와 웨어러블 디바이스에 기초한 사용자 정보 관리 방법의 흐름도이다.
도 42는 일부 실시 예에 따른 디바이스와 웨어러블 디바이스에 기초한 사용자 정보 관리 방법의 흐름도이다.
도 43 및 도 44는 일부 실시 예에 따른 디바이스의 기능 블록도들이다.
도 45는 일부 실시 예들에 따른 제어부의 상세한 기능 블록도이다.
1 is an example in which a device displays an avatar-based image according to travel schedule information of a user, according to some embodiments.
2 is a flowchart of a user information management method in which a device uses an avatar-based image according to user schedule information to modify user information, according to an exemplary embodiment.
3 is an example of user modeling information for user schedule information generated by a device according to some embodiments.
4 is a diagram for describing a relationship between a plurality of object information stored in a device and a plurality of object images, according to an exemplary embodiment.
5A to 5E illustrate an example in which a device modifies an avatar-based image, according to some embodiments.
6A to 6E are other examples in which a device modifies an avatar-based image, according to some embodiments.
7 is a flowchart of a user information management method in which a device adds user information by using an avatar-based image according to user schedule information, according to some embodiments.
8A to 8C are other examples in which a device modifies an avatar-based image, according to some embodiments.
9 is a flowchart of a method for managing user information based on a plurality of avatar-based images according to user schedule information for a specific period by a device, according to some embodiments.
10 is an example of displaying a plurality of avatar-based images based on weekday user schedule information and weekend user schedule information by a device according to some embodiments.
11 is a flowchart of a method for managing user information in which a device uses a plurality of avatar-based images based on user schedule information for each theme item, according to some embodiments.
12A to 12C are examples of modifying a plurality of avatar-based images for each theme item.
13 is a flowchart of a user information management method in which a device manages the lifespan of an avatar-based image, according to some embodiments.
14 is a flowchart of a method for managing user information in which a device uses an avatar-based image according to the user's health information, according to some embodiments.
15A to 15E are diagrams illustrating an example in which a device updates user information by using an avatar-based image according to the user's health information, according to some embodiments.
16 is a flowchart of a method for managing, by a device, user information based on an avatar-based image according to a user's future desired information, according to some embodiments.
17A to 17D are diagrams illustrating a process in which a device updates user schedule information based on an avatar-based image according to a user's future desired information, according to some embodiments.
18 is a flowchart of a method for managing user information based on a plurality of avatar-based images according to device usage history information, according to some embodiments.
19A and 19B are examples in which a device provides a plurality of avatar-based images in response to a request for device usage history information, according to some embodiments.
20 is a flowchart of a method for managing user information in which a device uses an avatar-based image according to user information registered in social media, according to some embodiments.
21 is a block diagram of a user information management system including a device according to some embodiments.
22 is a flowchart illustrating a user information management method performed by a device according to some embodiments.
23A to 23F are diagrams for explaining avatar-based images displayed by a device based on user information, according to some embodiments.
24A is an example of user modeling information for user information, according to some embodiments.
24B is an example of a display size of an object included in an avatar-based image that may be displayed on a device according to some embodiments.
24C is a diagram for describing a display size of an object included in an avatar-based image according to some embodiments.
25 illustrates an example of mapping information between an object image and object identification information, according to some embodiments.
26 is a diagram for describing a process of generating an avatar-based image by using user modeling information and mapping information, according to some embodiments.
27A to 27F are examples in which a device displays a modifiable object according to some embodiments.
28 is a flowchart illustrating a process in which a device modifies an avatar-based image according to a user input, according to an exemplary embodiment.
29A to 29E illustrate examples in which an object is modified based on a candidate object provided by a device, according to some embodiments.
30 is a flowchart illustrating a process in which a device provides service information that can be provided for each object included in an avatar-based image, according to some embodiments.
31A to 31D are examples of screens for explaining the user information management method illustrated in FIG. 30 .
32 is an example of user modeling information updated by a device according to some embodiments.
33 is a flowchart of a method in which a device manages user information by modifying an avatar-based image, according to some embodiments.
34 is a flowchart of a method in which a device manages user information by modifying an avatar-based image, according to some embodiments.
35 is an operation flowchart of a method for managing user information in which a device uses an avatar-based image to correct and/or add information, according to some embodiments.
36 is a flowchart of a method of managing user information so that a device can provide a service based on an object selected from an avatar-based image, according to some embodiments.
37 is a flowchart of a method for managing user information in which a device provides a question and answer (QA) service based on an avatar-based image displayed, according to some embodiments.
38 is an example in which a device provides answer information according to received question information, according to some embodiments.
39 is a flowchart of a method for managing user information based on a device and an external device, according to some embodiments.
40 is a flowchart of a user information management method based on a device and an external device, according to some embodiments.
41 is a flowchart of a user information management method based on a device and a wearable device, according to some embodiments.
42 is a flowchart of a user information management method based on a device and a wearable device, according to some embodiments.
43 and 44 are functional block diagrams of a device according to some embodiments.
45 is a detailed functional block diagram of a control unit according to some embodiments.

이하, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나 본 발명은 이하 특정한 실시 예들로 한정되지 않으며, 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 이하 특정 실시 예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. Hereinafter, specific embodiments will be illustrated in the drawings and described in detail. However, the present invention is not limited to the following specific embodiments, and it should be understood to include all transformations, equivalents, and substitutes included in the spirit and scope of the invention. In the following description of specific embodiments, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.

제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

명세서 전반에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 명세서 전반에서 사용한 용어는 그 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나 이는 당 분야에 종사하는 기술자의 의도, 판례, 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 선정한 용어에 대해 상세히 그 의미를 기재할 것이다. 따라서 명세서 전반에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 명세서 전반에 걸친 내용을 토대로 정의되어야 한다. Terms used throughout the specification are only used to describe specific embodiments, and are not intended to limit the present invention. The terms used throughout the specification have selected common terms that are currently widely used as possible while considering their functions, but these may vary depending on the intention, precedent, or emergence of new technology of a person skilled in the art. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning of the selected term will be described in detail. Therefore, the terms used throughout the specification should be defined based on the meaning of the term and the content throughout the specification, rather than the simple name of the term.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present specification, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, and includes one or more other features or It should be understood that the existence or addition of numbers, steps, operations, components, parts, or combinations thereof does not preclude the possibility of addition.

본 개시에서 사용자 정보는 사용자 프로파일 정보를 포함할 수 있다. In the present disclosure, user information may include user profile information.

사용자 프로파일 정보는 사용자의 성별에 관한 정보를 포함할 수 있다. 사용자 프로파일 정보는 사용자의 이름에 관한 정보를 포함할 수 있다. 사용자 프로파일 정보는 사용자의 나이에 관한 정보 포함할 수 있다. 사용자 프로파일 정보는 사용자의 국적에 관한 정보를 포함할 수 있다. The user profile information may include information about the user's gender. The user profile information may include information about the user's name. The user profile information may include information about the user's age. The user profile information may include information about the user's nationality.

또한, 사용자 프로파일 정보는 사용자가 현재 거주하는 지역에 관한 정보를 포함할 수 있다. 사용자 프로파일 정보는 사용자가 근무하는 회사명에 관한 정보를 포함할 수 있다. 사용자 프로파일 정보는, 사용자가 근무하는 회사의 위치에 관한 정보를 포함할 수 있다. 사용자 프로파일 정보는 사용자의 취미에 관한 정보를 포함할 수 있다. Also, the user profile information may include information about a region in which the user currently resides. The user profile information may include information about a company name where the user works. The user profile information may include information about a location of a company where the user works. The user profile information may include information about the user's hobbies.

또한, 사용자 프로파일 정보는 사용자가 태어난 곳에 관한 정보를 포함할 수 있다. 사용자 프로파일 정보는 사용자의 직업에 관한 정보를 포함할 수 있다. 사용자 프로파일 정보는 사용자의 가족(예를 들어, 부모유무, 자녀유무 등에 관한 정보)에 관한 정보를 포함할 수 있다. 사용자 프로파일 정보는 사용자의 애완 동물(예를 들어, 애완동물 유무, 및 애완동물 종류 등)에 관한 정보를 포함할 수 있다. 사용자 프로파일 정보는 사용자의 관심사(예를 들어, 클래식 기타, 축구, 경제, 여행, 게임, 도서 등)에 관한 정보를 포함할 수 있다. 본 개시에서 사용자 프로파일 정보는 상술한 바로 제한되지 않는다. In addition, the user profile information may include information about a place where the user was born. The user profile information may include information about the user's job. The user profile information may include information about the user's family (for example, information about the existence of parents, the existence of children, etc.). The user profile information may include information about the user's pet (eg, having a pet, and the type of pet). The user profile information may include information about the user's interests (eg, classical guitar, soccer, economy, travel, games, books, etc.). In the present disclosure, the user profile information is not limited to the above.

또한, 사용자 프로파일 정보는 소셜 미디어(예를 들어, 페이스북, 트위터, 블로그, 유투브, 링크드 인 등)에 등록된 사용자 프로파일 정보(이하 소셜 미디어 프로파일 정보라고 약함)로 언급될 수 있다. In addition, the user profile information may be referred to as user profile information (hereinafter abbreviated as social media profile information) registered in social media (eg, Facebook, Twitter, blog, YouTube, LinkedIn, etc.).

소셜 미디어 프로파일 정보는 사용자가 포스팅한 문맥, 어휘, 이미지, 또는/및 태그를 분석하여 검출된 키워드, 사진, 장소, 시간 또는/및 이벤트(예를 들어, 사진 전시회, 미술 전시회, 야구 경기, 축구 경기, 콘서트, 또는 연극, 등)를 포함할 수 있으나 이로 제한되지 않는다. Social media profile information may include keywords, photos, places, times, or/and events (eg, photo exhibitions, art exhibitions, baseball games, soccer games) detected by analyzing the context, vocabulary, images, or/and tags posted by the user. games, concerts, or plays, etc.).

본 개시에서 사용자 정보는 웹 사이트(예를 들어, 네이버, 다음, 네이트 등)에 등록된 사용자 정보(예를 들어, 회원 정보, 게임 레벨 정보, 물품 정보, 사용 내역 정보, 또는/및 게임에서 퀘스트(quest) 정보 등)를 포함할 수 있다. In the present disclosure, user information is user information (eg, member information, game level information, item information, usage history information, or / and a quest in a game) registered on a website (eg, Naver, Daum, Nate, etc.) (quest) information, etc.).

본 개시에서 사용자 정보는 디바이스에 설치된 애플리케이션에 각각 등록된 사용자 정보를 포함할 수 있다. 디바이스에 설치된 애플리케이션은, 예를 들어, 스케줄 관리 애플리케이션, 게임 애플리케이션, 서비스 센터 애플리케이션, 멤버쉽 애플리케이션, 고객 센터 애플리케이션, 마켓 애플리케이션, 라이프 로그 관리 애플리케이션, 지도 애플리케이션, 또는 장래 희망 정보 관리 애플리케이션(예를 들어, 버켓 리스트(bucket list) 관리 애플리케이션 또는 희망 사항 리스트(wish list) 관리 애플리케이션)을 포함할 수 있으나 본 개시에서 디바이스에 설치된 애플리케이션은 이로 제한되지 않는다. In the present disclosure, the user information may include user information registered to applications installed in the device, respectively. The application installed on the device may be, for example, a schedule management application, a game application, a service center application, a membership application, a customer center application, a market application, a life log management application, a map application, or a future wish information management application (eg, bucket list (bucket list) management application or wish list (wish list) management application), but the application installed in the device in the present disclosure is not limited thereto.

본 개시에서 사용자 정보는 디바이스와 사용자간의 상호 작용에 의해 발생되거나 입출력되는 데이터에 기초하여 디바이스에 의해 획득되는 정보를 포함할 수 있다. In the present disclosure, user information may include information acquired by a device based on data generated by an interaction between a device and a user or input/output.

디바이스에 의해 획득되는 정보는 검색 히스토리 정보를 포함할 수 있다. 디바이스에 의해 획득되는 정보는 메일 히스토리 정보를 포함할 수 있다. 디바이스에 의해 획득되는 정보는 메시지 히스토리(예를 들어, 단문 메시지, 멀티 메시지, 또는 음성 메시지 등) 정보를 포함할 수 있다. 디바이스에 의해 획득되는 정보는 브라우징 히스토리 정보를 포함할 수 있다. The information obtained by the device may include search history information. The information obtained by the device may include mail history information. The information obtained by the device may include message history (eg, a short message, a multi-message, or a voice message, etc.) information. The information obtained by the device may include browsing history information.

또한, 디바이스에 의해 획득되는 정보는 소셜 미디어 사용 히스토리 정보(또는 소셜 네트워크 서비스 히스토리 정보)를 포함할 수 있다. 디바이스에 의해 획득되는 정보는 통화 히스토리 정보를 포함할 수 있다. 디바이스에 의해 획득되는 정보는 앨범 히스토리 정보를 포함할 수 있다. 디바이스에 의해 획득되는 정보는 네트워크 히스토리 정보를 포함할 수 있다. 디바이스에 의해 획득되는 정보는 컨텐츠 히스토리 정보를 포함할 수 있다. 디바이스에 의해 획득되는 정보는 상술한 바로 제한되지 않는다. Also, the information obtained by the device may include social media usage history information (or social network service history information). The information obtained by the device may include call history information. The information obtained by the device may include album history information. The information obtained by the device may include network history information. The information obtained by the device may include content history information. The information obtained by the device is not limited to the above.

검색 히스토리 정보는 디바이스에 설치된 검색 애플리케이션을 실행하면서 획득된 적어도 하나의 정보(예를 들어, 검색어(또는 질의어) 목록, 각 검색어별 검색 횟수, 검색 날짜, 또는 검색 결과의 갯수 등)를 포함할 수 있다. The search history information may include at least one piece of information acquired while executing a search application installed on the device (eg, a list of search terms (or query words), the number of searches for each search word, search date, or number of search results, etc.) there is.

메일 히스토리 정보는 디바이스에 설치된 메일 애플리케이션을 실행하면서 획득된 적어도 하나의 정보(예를 들어, 송수신 메일 목록, 송수신 메일의 갯수, 지운 메일의 갯수, 송신자 목록, 송신자별 메일 송신 갯수, 수신자 목록, 수신자별 메일 수신 갯수, 또는 메일 송수신 날짜 등)을 포함할 수 있다. The mail history information includes at least one piece of information acquired while executing the mail application installed on the device (eg, the send/receive mail list, the number of sent/received mails, the number of deleted mails, the sender list, the number of mail sent by sender, the recipient list, the recipient The number of emails received by each, or the date of sending and receiving emails, etc.) may be included.

메시지 히스토리 정보는 디바이스에 설치된 메시지 애플리케이션을 실행하면서 획득된 적어도 하나의 정보(예를 들어, 송수신 메시지 목록, 송수신 메시지의 갯수, 삭제한 메시지의 갯수, 송신자 목록, 송신자별 메시지 송신의 갯수, 수신자 목록, 수신자별 메시지 수신의 갯수, 또는 메시지 송수신 날짜 등)를 포함할 수 있다. The message history information includes at least one piece of information acquired while executing a message application installed on the device (eg, a list of transmitted/received messages, the number of transmitted/received messages, the number of deleted messages, a list of senders, the number of messages sent by each sender, a list of recipients) , the number of messages received by each recipient, or a message transmission/reception date, etc.).

브라우징 히스토리 정보는 디바이스에 설치된 브라우징 애플리케이션을 실행하면서 획득된 적어도 하나의 정보(예를 들어, URL(Uniform Resource Locator) 목록, URL별 접속 횟수, 또는 URL 링크 정보 등)를 포함할 수 있다. The browsing history information may include at least one piece of information (eg, a Uniform Resource Locator (URL) list, the number of accesses per URL, or URL link information, etc.) acquired while executing a browsing application installed in the device.

소셜 미디어 사용 히스토리 정보는 디바이스에 설치된 소셜 미디어 서비스 애플리케이션을 실행하면서 획득된 적어도 하나의 정보(예를 들어, 포스팅 횟수, 또는 댓글 횟수 등)를 포함할 수 있다. 예를 들어 소셜 미디어 사용 히스토리 정보는 사용자가 포스팅한 문맥, 어휘, 이미지, 또는/및 태그 중 적어도 하나의 분석에 의해 검출된 키워드, 사진, 장소, 시간 또는/및 이벤트(예를 들어, 사진 전시회, 미술 전시회, 야구 경기, 축구 경기, 콘서트, 또는 연극, 등) 중 적어도 하나에 기초한 히스토리 정보(예를 들어, 키워드 목록, 키워드별 발생 횟수, 장소 목록, 장소별 방문 횟수, 시간별 소셜 네트워크 서비스 기반 사용자의 활동 내용, 또는 이벤트별 관람 횟수 등)를 포함할 수 있다. The social media usage history information may include at least one piece of information (eg, the number of postings or the number of comments) obtained while executing a social media service application installed in the device. For example, social media usage history information may include keywords, photos, places, times or/and events (e.g., photo exhibitions) detected by analysis of at least one of context, vocabulary, images, or/and tags posted by the user. , art exhibition, baseball game, soccer game, concert, or play, etc.) based on historical information (eg, keyword list, number of occurrences by keyword, place list, number of visits by place, hourly social network service basis, etc.) content of the user's activity, or the number of visits per event).

통화 히스토리 정보는 디바이스에 설치된 통화 애플리케이션을 실행하면서 획득된 적어도 하나의 정보(예를 들어, 영상 통화 횟수, 영상 통화 시간, 영상 통화 대상, 영상 통화 대상별 통화 횟수, 영상 통화 대상별 통화 시간, 음성 통화 횟수, 음성 통화 시간, 음성 통화 대상, 음성 통화 대상별 통화 횟수, 또는 음성 통화 대상별 통화 시간 등)를 포함할 수 있다. The call history information includes at least one piece of information (eg, number of video calls, video call time, video call target, number of calls per video call target, call time per video call target, and number of voice calls) acquired while executing a call application installed in the device. , a voice call time, a voice call target, the number of calls for each voice call target, or a call time for each voice call target).

앨범 히스토리 정보는 디바이스에 설치된 카메라 애플리케이션을 실행하면서 획득된 정지 영상 및/또는 동영상에 관한 정보(예를 들어, 촬영 장소, 촬영 대상 정보(예를 들어, 사람, 사물, 또는 동물 등), 또는 촬영 날짜 등)중 적어도 하나를 포함할 수 있다. Album history information includes information about still images and/or videos acquired while executing a camera application installed in the device (eg, a shooting location, shooting target information (eg, people, objects, or animals, etc.), or shooting date, etc.).

네트워크 히스토리 정보는 디바이스의 적어도 하나의 네트워크 연결 정보를 포함할 수 있다. 네트워크 연결 정보는, 예를 들어, 와이파이 사용 설정 여부, 와이파이 접속 횟수, 연결된 와이파이 기기의 이름, 와이파이 네트워크에 관한 정보, 블루투스 사용 설정 여부, 블루투스 접속 횟수, 연결된 블루투스 기기의 이름, 데이터 사용량, NFC 사용 설정 여부, NFC 사용 횟수, NFC 사용 내역, 비콘 접속 내역, 또는 지그비 접속 내역을 포함할 수 있으나 본 개시에서 네트워크 연결 정보는 이로 제한되지 않는다. The network history information may include at least one network connection information of the device. Network connection information may include, for example, whether or not to use Wi-Fi, the number of times of Wi-Fi access, the name of the connected Wi-Fi device, information about the Wi-Fi network, whether to use Bluetooth, the number of times of Bluetooth access, the name of the connected Bluetooth device, data usage, NFC use It may include whether setting, the number of times of NFC use, NFC use history, beacon connection history, or Zigbee connection history, but the network connection information in the present disclosure is not limited thereto.

컨텐츠 히스토리 정보는 디바이스를 이용하여 생성된 컨텐츠와 그에 관한 정보를 포함할 수 있다. 컨텐츠 히스토리 정보는 다른 디바이스와 공유되고 있는 컨텐츠와 그에 관한 정보를 포함할 수 있다. 컨텐츠 히스토리 정보는 다른 디바이스로 전송된 컨텐츠와 그에 관한 정보를 포함할 수 있다. The content history information may include content generated using a device and information about the content. The content history information may include content shared with other devices and information about the content. The content history information may include content transmitted to another device and information about the content.

또한, 컨텐츠 히스토리 정보는 다른 디바이스로부터 수신된 컨텐츠와 그에 관한 정보를 포함할 수 있다. 본 개시에서 컨텐츠 히스토리 정보는 상술한 바로 제한되지 않는다. 컨텐츠 히스토리 정보에 포함되는 컨텐츠에 관한 정보는, 예를 들어, 컨텐츠 생성 날짜, 컨텐츠의 데이터 량, 컨텐츠에 대한 검색 키워드, 컨텐츠를 생성한 디바이스의 이름, 컨텐츠를 송신한 디바이스의 이름, 또는 컨텐츠를 수신한 디바이스의 이름를 포함할 수 있다. In addition, the content history information may include content received from another device and information about the content. In the present disclosure, the content history information is not limited as described above. Information on content included in the content history information may include, for example, content creation date, content data amount, content search keyword, name of a device that generated content, name of a device that transmitted content, or content. It may include the name of the received device.

본 개시에서 사용자 정보는 디바이스에 설정된 디바이스의 환경 정보를 포함할 수 있다. 디바이스의 환경 정보는, 예를 들어, 디바이스의 이름, 계정 정보, 백업 계정, 또는 외부 디바이스(또는 주변 기기)의 이름을 포함할 수 있으나 본 개시에서 디바이스의 환경 정보는 이로 제한되지 않는다. In the present disclosure, user information may include environment information of a device set in the device. The environment information of the device may include, for example, the name of the device, account information, a backup account, or the name of an external device (or peripheral device), but the environment information of the device in the present disclosure is not limited thereto.

본 개시에서 사용자 정보는 디바이스에 저장될 수 있다. 본 개시에서 사용자 정보는 디바이스에 연결된 적어도 하나의 외부 디바이스로부터 수신될 수 있다. 외부 디바이스는 웨어러블 디바이스(예를 들어, 스마트 워치, 스마트 글래스 등)를 포함할 수 있다. 외부 디바이스는 앱세서리(Appcessory)를 포함할 수 있다. 외부 디바이스는 의료기기를 포함할 수 있다. 외부 디바이스는 차량을 포함할 수 있다. 외부 디바이스는 서버(예를 들어, QA(Question & Answer) 서버, 또는 게임 서버)를 포함할 수 있다. 외부 디바이스는 IoT(Internet of Thing) 네트워크 기반 디바이스(이하, IoT 디바이스라고 약함)를 포함할 수 있다. 외부 디바이스는 IoT 네트워크 기반 센서(이하, IoT 센서라고 약함)를 포함할 수 있다. 외부 디바이스는 디바이스(예를 들어, 게임 콘솔 등)를 포함할 수 있다. In the present disclosure, user information may be stored in a device. In the present disclosure, user information may be received from at least one external device connected to the device. The external device may include a wearable device (eg, a smart watch, smart glasses, etc.). The external device may include an appcessory. The external device may include a medical device. The external device may include a vehicle. The external device may include a server (eg, a question and answer (QA) server, or a game server). The external device may include an Internet of Thing (IoT) network-based device (hereinafter abbreviated as IoT device). The external device may include an IoT network-based sensor (hereinafter abbreviated as IoT sensor). The external device may include a device (eg, a game console, etc.).

외부 디바이스로부터 제공되는 사용자 정보는 외부 디바이스에 의해 센싱된 값(또는 측정된 값)을 포함할 수 있다. 외부 디바이스로부터 제공되는 사용자 정보는 외부 디바이스에 의해 수집된 정보를 포함할 수 있다. 외부 디바이스에 의해 수집된 정보는 외부 디바이스에 의해 검출되거나 분석된 정보를 포함할 수 있다. 외부 디바이스로부터 제공되는 사용자 정보는 상술한 바로 제한되지 않는다. The user information provided from the external device may include a value sensed (or measured value) by the external device. The user information provided from the external device may include information collected by the external device. The information collected by the external device may include information detected or analyzed by the external device. The user information provided from the external device is not limited as described above.

외부 디바이스에 의해 센싱된 값은 사용자의 헬스 정보를 포함할 수 있다. 외부 디바이스에 의해 센싱된 값은 사용자의 활동 정보를 포함할 수 있다. 외부 디바이스에 의해 센싱된 값은 상술한 바로 제한되지 않는다. The value sensed by the external device may include the user's health information. The value sensed by the external device may include user activity information. The value sensed by the external device is not limited as described above.

사용자의 헬스 정보는 운동 시간에 관한 정보를 포함할 수 있다. 사용자의 헬스 정보는 운동기간동안 심박수에 관한 정보를 포함할 수 있다. 사용자의 헬스 정보는 운동기간동안 펄스 옥시미터(pulse oximetry)에 관한 정보를 포함할 수 있다. 사용자의 헬스 정보는 운동기간동안 칼로리 소모량에 관한 정보를 포함할 수 있다. 사용자의 헬스 정보는 운동기간동안 사용자의 이동 거리에 관한 정보를 포함할 수 있다. The user's health information may include information about exercise time. The user's health information may include information about a heart rate during an exercise period. The user's health information may include information about pulse oximetry during the exercise period. The user's health information may include information on calorie consumption during an exercise period. The user's health information may include information about the user's moving distance during the exercise period.

또한, 사용자의 헬스 정보는 운동기간동안 사용자의 피부의 온도에 관한 정보를 포함할 수 있다. 사용자의 헬스 정보는 하루의 사용자의 걸음 수에 관한 정보를 포함할 수 있다. 사용자의 헬스 정보는 운동기간동안 사용자의 전기 피부 반응(galvanic skin response)에 관한 정보를 포함할 수 있다. 사용자의 헬스 정보는 사용자의 수면 기간(duration of sleep)에 관한 정보를 포함할 수 있다. 사용자의 헬스 정보는 사용자의 수면 패턴(sleep patterns)에 관한 정보를 포함할 수 있다. 사용자의 헬스 정보는 사용자의 혈당량에 관한 정보를 포함할 수 있다. In addition, the user's health information may include information about the temperature of the user's skin during the exercise period. The user's health information may include information about the number of steps the user takes in a day. The user's health information may include information about the user's galvanic skin response during the exercise period. The user's health information may include information about the user's duration of sleep. The user's health information may include information about the user's sleep patterns. The user's health information may include information about the user's blood sugar level.

또한, 사용자의 헬스 정보는 의료 기기에 의해 센싱된 정보 또는 측정된 정보(예를 들어 체성분, 혈관나이, 혈압, 또는 경락 맥에 관한 정보 등)를 포함할 수 있다. In addition, the user's health information may include information sensed or measured by a medical device (eg, information about body composition, blood vessel age, blood pressure, or meridian pulse, etc.).

사용자의 활동 정보는 걷기를 나타내는 정보를 포함할 수 있다. 사용자의 활동 정보는 달리기를 나타내는 정보를 포함할 수 있다. 사용자의 활동 정보는 머물기를 나타내는 정보를 포함할 수 있다. 사용자의 활동 정보는 잠자기를 나타내는 정보를 포함할 수 있다. The user's activity information may include information indicating walking. The user's activity information may include information indicating running. The user's activity information may include information indicating stay. The user's activity information may include information indicating sleeping.

또한, 사용자의 활동 정보는 이동 수단(예를 들어, 승용차, 버스, 기차, 비행기, 또는 배 등)을 나타내는 정보를 포함할 수 있다. 사용자의 활동 정보는 한 장소에 사용자의 머문 시간을 나타내는 정보를 포함할 수 있다. 사용자의 활동 정보는 사용자가 자주 방문하는 장소에 관한 정보를 포함할 수 있다. In addition, the user's activity information may include information indicating a means of transportation (eg, a car, a bus, a train, an airplane, or a ship). The activity information of the user may include information indicating the time the user stayed in one place. The user's activity information may include information on a place frequently visited by the user.

또한, 사용자의 활동 정보는 사용자가 자주 만나는 사람에 관한 정보를 포함할 수 있다. 사용자의 활동 정보는 사용자가 참여한 미팅에 관한 정보를 포함할 수 있다. 사용자의 활동 정보는 사용자가 참여한 모임에 관한 정보를 포함할 수 있다. 본 개시에서 사용자의 활동 정보는 상술한 바로 제한되지 않는다. 사용자의 활동 정보는 상술한 사용자의 헬스 정보의 일부(예를 들어, 운동 시간)를 포함할 수 있다. In addition, the user's activity information may include information about a person the user frequently meets. The user's activity information may include information about a meeting in which the user participated. The user's activity information may include information about a meeting in which the user participated. In the present disclosure, the user's activity information is not limited to the above. The user's activity information may include a part (eg, exercise time) of the above-described user's health information.

외부 디바이스에 의해 수집되는 정보는 서버에 의해 수집되는 정보를 포함할 수 있으나 이로 제한되지 않는다. 서버에 의해 수집되는 정보는 사용자의 질문(Question)과 서치 결과를 매핑한 정보를 포함할 수 있다. 서버에 의해 수집되는 정보는 상술한 디바이스에 의해 획득되는 정보(예를 들어, 게임 레벨, 또는 운동 레벨 등)를 포함할 수 있다. 서버에 의해 수집되는 정보는 상술한 바로 제한되지 않는다. The information collected by the external device may include information collected by the server, but is not limited thereto. The information collected by the server may include information that maps a user's question and a search result. The information collected by the server may include information (eg, game level, exercise level, etc.) obtained by the above-described device. The information collected by the server is not limited to the above.

본 개시에서 사용자 정보는 사용자의 신체적인 정보를 포함할 수 있다. 또한, 사용자 정보는 사용자의 정신적인 정보를 포함할 수 있다. 사용자 정보는 사용자의 사회적 정보를 포함할 수 있다. 사용자 정보는 사용자의 스케줄 정보를 포함할 수 있다. 사용자 정보는 사용자의 장래 희망 정보(버켓 리스트, 또는 희망 사항 정보)를 포함할 수 있다. 사용자 정보는 디바이스에 대한 사용 기간별 사용 히스토리 정보를 포함할 수 있다. In the present disclosure, user information may include physical information of a user. In addition, the user information may include mental information of the user. The user information may include social information of the user. The user information may include schedule information of the user. The user information may include future wish information (bucket list, or wish list information) of the user. The user information may include usage history information for each usage period of the device.

사용자의 신체적인 정보는 얼굴에 관한 정보(예를 들어, 얼굴 형, 눈동자 색깔, 코의 형태, 입의 형태, 눈의 형태, 또는/및 눈썹의 형태 등)를 포함할 수 있다. 사용자의 신체적인 정보는 사용자의 키에 관한 정보를 포함할 수 있다. 사용자의 신체적인 정보는 사용자의 머리 스타일(예를 들어, 짧은 머리, 긴 머리, 곱슬머리, 생머리, 또는 웨이브 등)에 관한 정보를 포함할 수 있다. 사용자의 신체적인 정보는 사용자의 인종 정보를 포함할 수 있다. 사용자의 신체적인 정보는 사용자의 몸무게 정보를 포함할 수 있다. 본 개시에서 사용자의 신체적인 정보는 상술한 바로 제한되지 않는다. 사용자의 신체적인 정보는, 예를 들어, 사용자의 성별에 관한 정보, 또는/및 사용자의 나이에 관한 정보를 포함할 수 있다. The user's physical information may include face-related information (eg, face shape, eye color, nose shape, mouth shape, eye shape, and/or eyebrow shape, etc.). The user's physical information may include information about the user's height. The user's physical information may include information about the user's hair style (eg, short hair, long hair, curly hair, straight hair, or wavy hair). The user's physical information may include user's race information. The user's physical information may include the user's weight information. In the present disclosure, the user's physical information is not limited as described above. The user's physical information may include, for example, information about the user's gender and/or information about the user's age.

사용자의 정신적인 정보는 사용자의 기호에 관한 정보(예를 들어, 음식 기호 정보)를 포함할 수 있다. 사용자의 정신적인 정보는 사용자의 성향에 관한 정보(예를 들어, 북마크 정보, 자주 실행하는 애플리케이션 정보, 애플리케이션 실행 시간 정보, 도서 구매 기록 정보, 비디오 대여 기록 정보, 잡지 구독 정보, 음악 다운로드 정보, 또는/및 물품 구매 내역 정보 등과 같은 정보에 기초한 사용자의 성향 정보)를 포함할 수 있다. The mental information of the user may include information about the user's preference (eg, food preference information). The user's mental information may include information about the user's disposition (eg, bookmark information, frequently used application information, application execution time information, book purchase history information, video rental history information, magazine subscription information, music download information, or / and user's tendency information based on information such as product purchase history information).

또한, 사용자의 정신적인 정보는 사용자의 선호도에 관한 정보(예를 들어, 웹 사이트 검색 내역 정보, 또는/및 취미 정보 등과 같은 정보에 기초한 선호도 정보)를 포함할 수 있다. 사용자의 정신적인 정보는 사용자의 감정에 관한 정보(예를 들어, 기쁨, 슬픔, 공포, 분노, 놀람, 인사, 또는 혐오를 나타내는 정보)를 포함할 수 있다. 사용자의 정식적인 정보는 상술한 바로 제한되지 않는다. 예를 들어, 사용자의 정식적인 정보는 상술한 관심사에 관한 정보를 포함할 수 있다. In addition, the mental information of the user may include information on the user's preference (eg, preference information based on information such as web site search history information, and/or hobby information). The mental information of the user may include information about the user's emotions (eg, information indicating joy, sadness, fear, anger, surprise, greeting, or disgust). The user's formal information is not limited to the above. For example, the user's formal information may include information on the above-mentioned interests.

사용자의 사회적 정보는 사용자의 학력에 관한 정보를 포함할 수 있다. 사용자의 사회적 정보는 사용자의 직장에 관한 정보를 포함할 수 있다. 사용자의 사회적 정보는 사용자의 업무 내용에 관한 정보를 포함할 수 있다. 사용자의 사회적 정보는 사용자의 모임에 관한 정보를 포함할 수 있다. 본 개시에서 사용자의 사회적 정보는 상술한 바로 제한되지 않는다. The user's social information may include information about the user's educational background. The user's social information may include information about the user's workplace. The user's social information may include information about the user's work content. The user's social information may include information about the user's meeting. In the present disclosure, the user's social information is not limited to the above.

사용자의 스케줄 정보는 스케줄 관리 애플리케이션을 이용하여 사용자에 의해 입력된 정보를 포함할 수 있으나 이로 제한되지 않는다. 사용자의 스케줄 정보는 사용자의 과거, 현재, 및 미래에 관한 정보를 포함할 수 있다. 사용자의 스케줄 정보는 시간, 요일, 월, 년, 및 계절중 적어도 하나에 기초한 사용자 정보를 포함할 수 있다. The user's schedule information may include information input by the user using a schedule management application, but is not limited thereto. The user's schedule information may include information about the user's past, present, and future. The user's schedule information may include user information based on at least one of time, day of the week, month, year, and season.

사용자의 스케줄 정보는 테마 아이템에 기초하여 분류될 수 있다. 테마 아이템은, 예를 들어, 여행, 회사, 공부, 자전거, 회의, 데이트, 영화 관람, 운동, 쇼핑, 병원, 뷰티케어, 식사, 게임, 모임, 등산, 밤활동, 생일, 공연, 또는 출장 중에서 적어도 하나를 포함할 수 있다. 본 개시에서 테마 아이템은 이로 제한되지 않는다. The user's schedule information may be classified based on a theme item. The theme items are, for example, during travel, company, study, bicycle, meeting, date, movie viewing, exercise, shopping, hospital, beauty care, meal, game, meeting, mountaineering, nightlife, birthday, performance, or business trip. It may include at least one. In the present disclosure, the theme item is not limited thereto.

사용자 정보는 사용자의 PIMS(Personal Information Management Software)에 의해 관리되고 있는 사용자 정보의 전부 또는 일부를 포함할 수 있다. 사용자 정보는 사용자의 라이프 로그 정보에 포함된 정보의 전부 또는 일부중 적어도 하나를 포함할 수 있다. The user information may include all or part of the user information managed by the user's PIMS (Personal Information Management Software). The user information may include at least one of all or part of information included in the user's life log information.

사용자 정보는 디바이스, 디바이스의 외부 디바이스, 또는 서비스 제공자의 목적(예를 들어, 사용자 맞춤형 서비스 제공)을 좀더 효과적으로 수행하기 위해 사용자 모델링 정보(User Modeling information) 또는 사용자 개인화 정보(User Personal Information) 형태로 표현될 수 있다. User information is in the form of User Modeling information or User Personal Information in order to more effectively perform the purpose of the device, the external device of the device, or the service provider (eg, to provide a user-customized service). can be expressed

사용자 정보는 2차원 모델 또는 3차원 모델로 표현된 아바타 기반 이미지로 표현될 수 있다. 사용자 정보는 가상의 이미지, 가상 자아 그래픽 아이콘 등으로 표현될 수 있다. User information may be expressed as an avatar-based image expressed as a 2D model or a 3D model. The user information may be expressed as a virtual image, a virtual self graphic icon, or the like.

이하 첨부된 도면을 참고하여 본 개시를 상세하게 설명하기로 한다. Hereinafter, the present disclosure will be described in detail with reference to the accompanying drawings.

도 1은 일부 실시 예에 따른 디바이스(100)가 사용자의 여행 스케줄 정보에 따른 아바타 기반 이미지를 디스플레이 하고, 아바타 기반 이미지에서 수정 가능한 이미지를 나타내는 정보를 표시하는 일 례를 도시한 도면이다. 1 is a diagram illustrating an example in which the device 100 displays an avatar-based image according to travel schedule information of a user and displays information indicating an image that can be modified in the avatar-based image, according to an exemplary embodiment.

도 1을 참조하면, 디바이스(100)는 사용자의 여행 스케줄 정보에 따른 아바타 기반 이미지를 디스플레이 할 수 있다. 도 1에 도시된 아바타 기반 이미지는 여행 기간 정보(101), 사용자를 나타내는 아바타(102), 여행 장소에 대한 사진(103), 가방에 대한 그림(104), 여행 장소에 대한 사진(103)이 수정 가능한 이미지라는 것을 나타내는 정보(105), 가방에 대한 그림(104)이 수정 가능한 이미지라는 것을 나타내는 정보(106), 및 여행 기간 정보(101)가 수정 가능한 이미지라는 것을 나타내는 정보(107)를 포함한다. Referring to FIG. 1 , the device 100 may display an avatar-based image according to the user's travel schedule information. The avatar-based image shown in FIG. 1 includes travel period information 101, an avatar 102 representing a user, a photo 103 of a travel place, a picture 104 of a bag, and a photo 103 of a travel place. contains information 105 indicating that it is a modifiable image, information 106 indicating that the picture 104 of the bag is a modifiable image, and information 107 indicating that the travel duration information 101 is a modifiable image do.

사용자의 여행 스케줄 정보에 따른 아바타 기반 이미지는 도 1에 도시된 바로 제한되지 않는다. 예를 들어, 사용자의 여행 스케줄 정보에 따른 아바타 기반 이미지는 복수의 여행 준비물에 관한 그림, 사진, 또는 텍스트를 포함할 수 있다. 사용자의 여행 스케줄 정보에 따른 아바타 기반 이미지는 여행 기간 정보(101)를 포함하지 않을 수 있다. 사용자의 여행 스케줄 정보에 따른 아바타 기반 이미지는 아바타(102)가 수정 가능한 이미지라는 것을 나타내는 정보를 더 포함할 수 있다. The avatar-based image according to the user's travel schedule information is not limited to the bar shown in FIG. 1 . For example, the avatar-based image according to the user's travel schedule information may include pictures, photos, or texts related to a plurality of travel preparations. The avatar-based image according to the user's travel schedule information may not include the travel period information 101 . The avatar-based image according to the user's travel schedule information may further include information indicating that the avatar 102 is a modifiable image.

디바이스(100)는 도 1에 도시된 수정 가능한 이미지를 나타내는 정보들(105, 106, 107)을 다른 형태로 표시할 수 있다. 예를 들어, 디바이스(100)는 수정 가능한 이미지의 밝기를 일정한 주기 또는 가변 주기로 변경할 수 있다. 또한, 디바이스(100)는 수정 가능한 이미지를 하이라이트로 표시할 수 있다. The device 100 may display the information 105 , 106 , and 107 representing the modifiable image shown in FIG. 1 in a different form. For example, the device 100 may change the brightness of the modifiable image at a constant cycle or a variable cycle. Also, the device 100 may display the editable image as a highlight.

디바이스(100)는 수정 가능한 이미지를 나타내기 위한 정보를 이미지에 따라 다르게 표시할 수 있다. 예를 들어, 디바이스(100)는 여행 장소에 대한 사진(103)을 일정 주기 또는 가변 주기로 밝기를 변경하고, 가방에 대한 그림(104)을 하이라이트 표시하고, 여행 기간 정보(101)를 주기적으로 깜빡일 수 있다. The device 100 may display information for indicating a modifiable image differently depending on the image. For example, the device 100 changes the brightness of the photo 103 of the travel place at a constant or variable cycle, highlights the picture 104 of the bag, and periodically blinks the travel period information 101 . can be

도 2는 일부 실시 예에 따른 디바이스(100)가 사용자 스케줄 정보에 따른 아바타 기반 이미지를 디스플레이 하고, 디스플레이 되고 있는 아바타 기반 이미지를 수정하여 사용자 스케줄 정보를 업데이트 하는 사용자 정보 관리 방법의 흐름도이다. 2 is a flowchart of a user information management method in which the device 100 displays an avatar-based image according to user schedule information and updates the user schedule information by modifying the displayed avatar-based image, according to some embodiments.

단계 S201에서, 디바이스(100)는 사용자 스케줄 정보에 따라 아바타 기반 이미지를 디스플레이 한다. 사용자 스케줄 정보는 디바이스(100)에 설치된 스케줄 관리 애플리케이션에 저장된 정보일 수 있으나 이로 제한되지 않는다. 예를 들어, 사용자 스케줄 정보는 디바이스(100)에 연결된 외부 디바이스로부터 수신될 수 있다. In step S201, the device 100 displays an avatar-based image according to the user schedule information. The user schedule information may be information stored in a schedule management application installed in the device 100 , but is not limited thereto. For example, the user schedule information may be received from an external device connected to the device 100 .

디바이스(100)는 온톨리지(Ontology) 기반 사용자 모델링 정보에 따라 아바타 기반 이미지를 생성할 수 있다. 온톨리지는 단어(word)(또는 개념)와 단어간의 관계(또는 개념간의 관계)를 정형 어휘(formal language)로 서술할 수 있다. The device 100 may generate an avatar-based image according to ontology-based user modeling information. Ontology can describe a word (or concept) and a relationship between words (or a relationship between concepts) in a formal language.

정형 어휘는, 예를 들어, hasHobby, hasSize, isA, cause 등과 같은 어휘를 포함할 수 있으나 본 개시에서 정형 어휘는 이로 제한되지 않는다. hasHobby는 단어간의 관계가 취미라는 것을 나타내는 정형 어휘이다. hasSize는 단어간의 관계가 크기라는 것을 나타내는 정형 어휘이다. isA는 단어간의 포함관계를 나타내는 정형 어휘이다. Cause는 단어간의 인과 관계를 나타내는 정형 어휘이다. 예를 들어, “과로로 인해 휴식이 필요하다”는 것은 Cause를 이용하여 (과로, 휴식)으로 표현될 수 있다. The formal vocabulary may include, for example, hasHobby, hasSize, isA, cause, and the like, but the formal vocabulary in the present disclosure is not limited thereto. hasHobby is a formal vocabulary for indicating that a relationship between words is a hobby. hasSize is a formal vocabulary indicating that the relationship between words is a size. isA is a formal vocabulary that indicates the containment relationship between words. Cause is a formal vocabulary that indicates a causal relationship between words. For example, “I need a break due to overwork” can be expressed as (overwork, rest) using Cause.

상술한 사용자 모델링 정보는 디바이스(100)에 연결될 수 있는 외부 디바이스에 의해 생성될 수 있다. The above-described user modeling information may be generated by an external device that may be connected to the device 100 .

도 3은 일부 실시 예에 따른 디바이스(100)가 생성한 사용자 스케줄 정보에 대한 사용자 모델링 정보의 예이다. 3 is an example of user modeling information for user schedule information generated by the device 100 according to some embodiments.

도 3을 참조하면, 사용자 모델링 정보는 RDF(Resource Description Framework) 언어로 생성된 예이다. 디바이스(100)는 OWL(Ontogogy Web Language), 또는 SWRL(Semantic Web Rule Language)에 의해 사용자 모델링 정보를 생성할 수 있다. Referring to FIG. 3 , user modeling information is an example generated in a resource description framework (RDF) language. The device 100 may generate user modeling information using Ontogogy Web Language (OWL) or Semantic Web Rule Language (SWRL).

도 3을 참조하면, 사용자 모델링 정보는 서브젝트(subject) 필드, 프레디킷(predicate) 필드, 및 오브젝트 필드를 포함한다. 서브젝트 필드는 사용자 정보의 대상에 관한 필드이다. 도 3을 참조하면, 사용자 정보의 대상은 사용자 1(user_1)이다. 클래스(class)와 리소스(resource)를 이용하여 사용자 1(user_1)이 사람(person)임을 나타내고 있다. 리소스는 클래스를 인스턴스(instance)화 한 것이다. Referring to FIG. 3 , user modeling information includes a subject field, a predicate field, and an object field. The subject field is a field related to an object of user information. Referring to FIG. 3 , the target of user information is user 1 (user_1). It indicates that user 1 (user_1) is a person by using a class and a resource. A resource is an instance of a class.

도 3에 도시된 플레디킷 필드는 서브젝트 필드와 오브젝트 필드에 포함된 단어간의 관계를 나타내는 정형 어휘 필드이다. 도 3을 참조하면, 플레디킷 필드에 포함되는 정형 어휘는 성별에 관한 정형 어휘(성별), 스케줄에 관한 정형 어휘(여행), 준비에 관한 정형 어휘(준비)를 포함한다. 본 개시에서 플레디킷 필드에 포함되는 정형 어휘는 상술한 바로 제한되지 않는다. The pledikit field shown in FIG. 3 is a formal vocabulary field indicating a relationship between a subject field and a word included in the object field. Referring to FIG. 3 , the formal vocabulary included in the Pledicit field includes a formal vocabulary about gender (gender), a formal vocabulary about a schedule (travel), and a formal vocabulary about preparation (preparation). In the present disclosure, the formal vocabulary included in the pledikit field is not limited as described above.

디바이스(100)는 성별에 관한 정형 어휘에 의해 오브젝트 필드에 있는 여성을 사용자 1의 성별로 표현할 수 있다. 디바이스(100)는 스케줄에 관한 정형 어휘에 의해 오브젝트 필드에 있는 여행 장소 1 내지 여행 장소 5를 사용자 1의 여행 장소로 표현할 수 있다. 디바이스(100)는 여행 가방에 관한 정형 어휘에 의해 오브젝트 필드에 있는 준비물 1 내지 준비물 4를 사용자 1의 여행 준비물로 표현할 수 있다. The device 100 may express a woman in the object field as the gender of the user 1 according to the gender-related formal vocabulary. The device 100 may represent the travel places 1 to 5 in the object field as the travel places of the user 1 according to the formal vocabulary related to the schedule. The device 100 may express the preparations 1 to 4 in the object field as the travel preparations of the user 1 according to the formal vocabulary about the travel bag.

디바이스(100)는 사용자 모델링 정보에 포함된 오브젝트 필드의 오브젝트 정보(도 2에 도시된 여자, 여행 장소 1 ~ 여행 장소 5, 준비물 1 ~ 4)를 이용하여 아바타 기반 이미지를 생성할 수 있다. 오브젝트 필드의 정보는 아바타 기반 이미지를 생성하기 위한 식별 정보로 이용될 수 있다. The device 100 may generate an avatar-based image by using object information (a woman shown in FIG. 2 , travel places 1 to 5, and preparations 1 to 4) of an object field included in the user modeling information. Information of the object field may be used as identification information for generating an avatar-based image.

아바타 기반 이미지를 생성하기 위하여, 디바이스(100)는 복수의 오브젝트 이미지를 저장할 수 있다. 복수의 오브젝트 이미지는 디바이스(100)와 연결 가능한 외부 디바이스에 저장될 수 있다. In order to generate an avatar-based image, the device 100 may store a plurality of object images. The plurality of object images may be stored in an external device connectable to the device 100 .

복수의 오브젝트 이미지는 도 3에 도시된 오브젝트 필드에 포함되는 오브젝트 정보의 수에 대응되는 이미지를 포함할 수 있다. 복수의 오브젝트 이미지는 아바타, 사진, 동영상, 그림, 또는/및 캐릭터를 포함할 수 있으나 본 개시에서 복수의 오브젝트 이미지는 이로 제한되지 않는다. The plurality of object images may include images corresponding to the number of object information included in the object field shown in FIG. 3 . The plurality of object images may include an avatar, a photo, a moving picture, a picture, and/or a character, but the plurality of object images is not limited thereto in the present disclosure.

도 4는 일부 실시 예에 따른 디바이스(100)에 저장되어 있는 복수의 오브젝트 정보와 복수의 오브젝트 이미지간의 관계를 설명하기 위한 도면이다. 4 is a diagram for describing a relationship between a plurality of object information and a plurality of object images stored in the device 100 according to some exemplary embodiments.

도 4를 참조하면, 오브젝트 필드에 포함된 각 오브젝트 정보는 대응되는 오브젝트 이미지를 갖는다. 디바이스(100)는 오브젝트 정보를 식별 정보로 하여 오브젝트 이미지를 디바이스(100)의 메모리로부터 읽을 수 있다. 도 4에 도시된 복수의 오브젝트 정보와 그에 대응되는 오브젝트 이미지가 디바이스(100)에 연결된 외부 디바이스에 저장된 경우에, 디바이스(100)는 오브젝트 정보를 이용하여 외부 디바이스로부터 오브젝트 이미지를 수신할 수 있다. Referring to FIG. 4 , each object information included in the object field has a corresponding object image. The device 100 may read the object image from the memory of the device 100 using the object information as identification information. When the plurality of object information shown in FIG. 4 and the object image corresponding thereto are stored in an external device connected to the device 100 , the device 100 may receive the object image from the external device using the object information.

디바이스(100)는 생성된 오브젝트 이미지를 결합하여 도 1에 도시된 바와 같은 하나의 아바타 기반 이미지를 생성하여 디스플레이 할 수 있다. The device 100 may combine the generated object images to generate and display one avatar-based image as shown in FIG. 1 .

한편, 단계 S202에서, 디바이스(100)는 도 1에 도시된 바와 같이 디스플레이되고 있는 아바타 기반 이미지에 대한 수정 요청을 나타내는 사용자 입력을 수신할 수 있다. 사용자 입력은 터치 기반 사용자 입력, 사용자의 음성 기반 사용자 입력, 또는 사용자의 제스처 기반 사용자 입력을 포함할 수 있으나, 본 개시에서 사용자 입력은 이로 제한되지 않는다. Meanwhile, in step S202 , the device 100 may receive a user input indicating a request to modify the avatar-based image being displayed as shown in FIG. 1 . The user input may include a touch-based user input, a user's voice-based user input, or a user's gesture-based user input, but the user input is not limited thereto.

도 5a 내지 도 5e는 일부 실시 예에 따른 디바이스(100)가 아바타 기반 이미지를 수정하는 일 예를 도시한다. 도 5a 내지 도 5e는 여행 준비물을 수정하는 예이다. 5A to 5E illustrate an example in which the device 100 modifies an avatar-based image according to some embodiments. 5A to 5E are examples of modifying travel arrangements.

도 5a를 참조하면, 가방에 대한 그림(104)이 수정 가능한 이미지라는 것을 나타내는 정보(106)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 도 5b에 도시된 바와 같이 가방에 넣을 준비물 1 내지 준비물 4(501 ~ 504)에 대한 이미지를 아바타 기반 이미지와 함께 디스플레이 한다. 또한, 디바이스(100)는 수정 버튼(505), 추가 버튼(506), 또는/및 완료 버튼(507)을 디스플레이 할 수 있다. Referring to FIG. 5A , upon receipt of a user input indicating a selection for information 106 indicating that the picture 104 for the bag is a modifiable image, the device 100 may put into the bag as shown in FIG. 5B , as shown in FIG. 5B . Images for preparations 1 to 4 (501 to 504) are displayed together with an avatar-based image. Additionally, device 100 may display an edit button 505 , an add button 506 , or/and a done button 507 .

도 5b에서 수정 버튼(505)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 도 5c에 도시된 바와 같이 준비물 1 내지 준비물 4(501 ~ 504)의 표시 상태를 변경한다. 이에 따라 사용자는 준비물 1 내지 준비물 4(501 ~ 504)가 수정 가능한 상태임을 알 수 있다. When a user input indicating selection of the edit button 505 in FIG. 5B is received, the device 100 changes the display state of the preparations 1 to 4 (501 to 504) as shown in FIG. 5c. Accordingly, the user can know that the preparations 1 to 4 (501 to 504) are in a modifiable state.

도 5c에서 준비물 1(501)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 도 5d에 도시된 바와 같이 준비물 1(501)에 대한 상세 정보를 디스플레이 한다. When a user input indicating selection of the first preparation 501 in FIG. 5C is received, the device 100 displays detailed information on the first preparation 501 as shown in FIG. 5D .

도 5d를 참조하면, 준비물 1(501)에 대한 상세 정보는 준비물 1(501)에 인접한 위치에 팝업 창(508)을 디스플레이 하여 제공할 수 있으나 본 개시는 이로 제한되지 않는다. 팝업 창(508)을 통해 제공되는 상세 정보는 준비물 1(501)에 대한 상세한 정보이므로, 사용자는 팝업 창(508)을 통해 제공되는 상세 정보를 보면서, 준비물 1(501)을 삭제하거나 수정할 수 있다. 디바이스(100)는 상세 정보를 팝업 창(508)의 형태가 아니 다른 디스플레이 영역에 디스플레이 할 수 있다. 예를 들어, 여행 기간 정보(101)가 디스플레이 되고 있는 영역을 이용하여 상세 정보를 디스플레이 할 수 있다. Referring to FIG. 5D , detailed information on the first preparation 501 may be provided by displaying a pop-up window 508 in a position adjacent to the first preparation 501, but the present disclosure is not limited thereto. Since the detailed information provided through the pop-up window 508 is detailed information on the preparation 1 501, the user can delete or modify the preparation 1 501 while viewing the detailed information provided through the pop-up window 508 . The device 100 may display the detailed information in a display area other than the form of the pop-up window 508 . For example, detailed information may be displayed using an area in which the travel period information 101 is displayed.

상세 정보를 디스플레이 하고 있는 팝업 창(508)을 클릭하면, 디바이스는 보다 상세한 정보를 디스플레이 할 수 있다. 디바이스(100)는 다른 페이지를 이용하여 보다 상세한 정보 제공할 수 있다. 다른 페이지를 이용하여 보다 상세한 정보를 제공할 경우에, 디바이스(100)는 도 5e에 도시된 화면을 보다 상세한 정보를 제공하는 페이지로 전환할 수 있다. If the pop-up window 508 displaying detailed information is clicked on, the device may display more detailed information. The device 100 may provide more detailed information using another page. When more detailed information is provided using another page, the device 100 may switch the screen illustrated in FIG. 5E to a page providing more detailed information.

도 6a 내지 도 6e는 일부 실시 예에 따른 디바이스(100)가 아바타 기반 이미지를 수정하는 다른 예이다. 도 6a 내지 도 6e는 여행 경로를 수정하는 예이다. 6A to 6E are other examples in which the device 100 modifies an avatar-based image according to some embodiments. 6A to 6E are examples of modifying a travel route.

도 6a를 참조하면, 상술한 정보(105)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 도 6b에 도시된 바와 같이 여행 장소 1 내지 5를 나타내는 이미지(601 ~ 605)와 여행 순서를 나타내는 정보(화살표)를 아바타 기반 이미지와 함께 디스플레이 한다. 이미지(601~ 605)는 텍스트 정보를 포함할 수 있다. 텍스트 정보는 여행지 명을 포함할 수 있다. 이미지(601 ~ 605)는 여행지 심볼, 마크, 아이콘, 또는 대표 이미지에 관한 썸네일을 포함할 수 있다. Referring to FIG. 6A , when a user input indicating selection of the above-described information 105 is received, the device 100 displays images 601 to 605 representing travel places 1 to 5 and travel as shown in FIG. 6B . Information (arrow) indicating the order is displayed together with the avatar-based image. The images 601 to 605 may include text information. The text information may include a travel destination name. The images 601 to 605 may include thumbnails of travel symbols, marks, icons, or representative images.

도 6b를 참조하면, 디바이스(100)는 아바타 기반 이미지에 포함되어 있는 여행 장소에 관한 사진(103)이 여행 장소 1에 대응되는 것이라는 것을 사용자가 쉽게 알 수 있도록, 여행 장소 1을 나타내는 이미지(601)를 여행 장소 2 내지 5를 나타내는 이미지(602 ~ 605)와 구별되게 표시한다. 예를 들어, 도 6b에서, 디바이스(100)는 여행 장소 1을 나타내는 이미지(601)를 하이라이트로 표시할 수 있다. Referring to FIG. 6B , the device 100 displays an image 601 representing the travel location 1 so that the user can easily recognize that the photo 103 about the travel location included in the avatar-based image corresponds to the travel location 1. ) to be distinguished from the images 602 to 605 representing the travel places 2 to 5. For example, in FIG. 6B , the device 100 may highlight the image 601 representing the travel location 1 .

디바이스(100)는 수정 버튼(606), 추가 버튼(607), 또는/및 완료 버튼(608)을 아바타 기반 이미지와 함께 디스플레이 할 수 있다. 완료 버튼(608)은 디바이스(100)에 디스플레이 되고 있는 아바타 기반 이미지에 대한 수정 또는/및 추가 동작 완료를 나타내는 사용자 입력을 수신할 수 있는 버튼이다. The device 100 may display the edit button 606 , the add button 607 , or/and the done button 608 along with the avatar-based image. The completion button 608 is a button capable of receiving a user input indicating completion of a correction and/or addition operation on the avatar-based image being displayed on the device 100 .

도 6b에서 수정 버튼(606)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 도 6c에 도시된 바와 같이 여행 장소 1 내지 여행 장소 5를 나타내는 이미지(601 ~ 605)의 표시 상태를 변경한다. 이에 따라 사용자는 여행 장소 1 내지 여행 장소 5를 나타내는 이미지(601 ~ 605)가 수정 가능한 상태임을 쉽게 알 수 있다. When a user input indicating selection of the edit button 606 in FIG. 6B is received, the device 100 displays the display state of the images 601 to 605 representing the travel places 1 to 5 as shown in FIG. 6C . change Accordingly, the user can easily recognize that the images 601 to 605 representing the travel places 1 to 5 are in a modifiable state.

도 6d에서 여행 장소 1을 나타내는 이미지(601)를 여행 장소 2를 나타내는 이미지(602)로의 이동을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 도 6d에 도시된 바와 같이 여행 장소 1에 기초한 여행 장소에 대한 사진(103)을 여행 장소 2에 대응되는 여행 장소에 대한 사진(609)으로 변경하면서, 여행 장소 1 내지 5를 나타내는 이미지(601 ~ 605)의 배열을 도 6e에 도시된 바와 같이 변경한다. 이에 따라, 사용자는 여행 장소 2를 가장 먼저 방문하는 것으로, 여행 경로가 변경된 것을 확인할 수 있다. When a user input indicating movement of image 601 representing travel location 1 to image 602 representing travel location 2 in FIG. 6D is received, device 100 performs a travel based on travel location 1 as shown in FIG. 6D . While changing the photo 103 of the place to the photo 609 of the travel place corresponding to the travel place 2, the arrangement of images 601 to 605 representing the travel places 1 to 5 is changed as shown in FIG. 6E do. Accordingly, as the user first visits the travel location 2, it can be confirmed that the travel route has been changed.

도 6e에 도시된 변경된 여행 경로를 확인 한 후, 완료 버튼(608)을 선택함에 따라, 단계 S203에서, 디바이스(100)는 도 6e에 도시된 바와 같이 여행 장소 2 -> 여행 장소 1 -> 여행 장소 3 -> 여행 장소 4 -> 여행 장소 5 순으로 여행 스케줄 정보가 변경되도록, 아바타 기반 이미지에 따라 여행 스케줄 정보를 업데이트 한다. After confirming the changed travel route shown in FIG. 6E , by selecting the Done button 608 , in step S203 , the device 100 displays travel location 2 -> travel location 1 -> travel as shown in FIG. 6e . The travel schedule information is updated according to the avatar-based image so that the travel schedule information is changed in the order of place 3 -> travel place 4 -> travel place 5.

도 7은 일부 실시 예에 따른 디바이스(100)가 사용자 스케줄 정보에 따른 아바타 기반 이미지를 디스플레이 하고, 디스플레이 되고 있는 아바타 기반 이미지에 기초하여 정보를 추가함에 따라 사용자 스케줄 정보를 업데이트 하는 사용자 정보 관리 방법의 흐름도이다. 7 is a user information management method of updating user schedule information as the device 100 displays an avatar-based image according to user schedule information and adds information based on the displayed avatar-based image, according to some embodiments. It is a flow chart.

도 7를 참조하면, 단계 S701에서, 디바이스(100)는 사용자 스케줄 정보에 따른 아바타 기반 이미지를 디스플레이 한다. 디바이스(100)는 상술한 단계 S201에서와 같이 사용자 스케줄 정보에 따른 아비타 기반 이미지를 디스플레이 할 수 있다. Referring to FIG. 7 , in step S701 , the device 100 displays an avatar-based image according to user schedule information. The device 100 may display an avita-based image according to the user schedule information as in step S201 described above.

단계 S702에서, 추가를 나타내는 사용자 입력이 수신되면, 디바이스(100)는 입력 창을 디스플레이 한다. 디바이스(100)는 입력 창을 독립된 창으로 디스플레이 할 수 있다. In step S702, when a user input indicating addition is received, the device 100 displays an input window. The device 100 may display the input window as an independent window.

단계 S703에서, 입력 창을 통해 정보가 수신되면, 디바이스(100)는 수신되는 정보에 대응되는 이미지를 아바타 기반 이미지에 추가한다. 예를 들어 수신되는 정보가 여권이면, 디바이스(100)는 여권에 대응되는 이미지를 아바타 기반 이미지에 추가할 수 있다. 이를 위하여, 디바이스(100)는 수신되는 정보에 대응될 수 있는 이미지를 사전에 저장할 수 있다. 수신되는 정보에 대응될 수 있는 이미지는 디바이스(100)에 연결 가능한 외부 디바이스에 저장될 수 있다. 수신되는 정보에 대응되는 이미지는 각각 검색 키워드 또는 검색 식별 정보가 할당될 수 있다. 디바이스(100)는 상술한 검색 키워드 또는 검색 식별 정보를 이용하여 수신되는 정보에 대응되는 이미지를 검색할 수 있다.In step S703, when information is received through the input window, the device 100 adds an image corresponding to the received information to the avatar-based image. For example, if the received information is a passport, the device 100 may add an image corresponding to the passport to the avatar-based image. To this end, the device 100 may store an image corresponding to the received information in advance. An image corresponding to the received information may be stored in an external device connectable to the device 100 . A search keyword or search identification information may be assigned to each image corresponding to the received information. The device 100 may search for an image corresponding to the received information using the above-described search keyword or search identification information.

디바이스(100)는 수신되는 정보에 대해 한 글자(또는 하나의 알파벳)단위로 대응될 수 있는 적어도 하나의 후보 이미지(또는 복수 후보 이미지)를 검색하여 제공할 수 있다. 후보 이미지에 대한 선택 신호가 수신되면, 디바이스(100)는 선택된 후보 이미지를 아바타 기반 이미지에 추가할 수 있다. The device 100 may search for and provide at least one candidate image (or a plurality of candidate images) that may correspond to the received information in units of one letter (or one alphabet). When the selection signal for the candidate image is received, the device 100 may add the selected candidate image to the avatar-based image.

단계 S704에서, 추가된 이미지를 포함하는 아바타 기반 이미지에 따라 디바이스(100)는 사용자 스케줄 정보를 업데이트 한다. In step S704 , the device 100 updates user schedule information according to the avatar-based image including the added image.

도 8a 내지 도 8c는 일부 실시 예에 따른 디바이스(100)가 아바타 기반 이미지를 수정하는 다른 예이다. 도 8a 내지 도 8c는 준비물을 추가하는 예이다. 8A to 8C are other examples in which the device 100 modifies an avatar-based image according to some embodiments. 8A to 8C are examples of adding preparations.

도 8a에서 추가 버튼(506)에 기초한 정보 추가를 나타내는 사용자 입력이 수신되면, 디바이스(100)는 도 8b에 도시된 바와 같이 입력 창(801)을 디스플레이 한다. 입력 창(801)을 통해 준비물 5에 대한 정보를 입력하고, 입력을 나타내는 버튼(802)을 선택하는 사용자 입력이 수신되면, 디바이스(100)는 도 8c에 도시된 바와 같이 준비물 5에 대응되는 이미지(803)를 아바타 기반 이미지에 추가한다. When a user input indicating addition of information based on the add button 506 in FIG. 8A is received, the device 100 displays an input window 801 as shown in FIG. 8B . When a user input for inputting information on preparation 5 through the input window 801 and selecting a button 802 representing the input is received, the device 100 displays an image corresponding to preparation 5 as shown in FIG. 8c . Add 803 to the avatar-based image.

디바이스(100)는 추가된 이미지(803)가 다른 이미지들(501 ~ 504)과 구별될 수 있도록 표시할 수 있다. 이에 따라 사용자는 준비물 5에 대응되는 이미지(803)가 추가된 것을 쉽게 알 수 있다. The device 100 may display the added image 803 to be distinguished from other images 501 to 504 . Accordingly, the user can easily recognize that the image 803 corresponding to the preparation 5 has been added.

도 8c에서 완료 버튼(507)을 선택하는 사용자 입력이 수신되면, 디바이스(100)는 준비물 5에 대응되는 이미지(803)가 추가된 아바타 기반 이미지에 따라 사용자 스케줄 정보를 업데이트 한다. 이에 따라 사용자 스케줄 정보에 포함된 A 여행에 준비물 1 ~ 4 (501 ~ 504)는 준비물 1 ~ 5(501 ~ 504, 803)로 변경된다. When a user input for selecting the completion button 507 in FIG. 8C is received, the device 100 updates the user schedule information according to the avatar-based image to which the image 803 corresponding to the preparation 5 is added. Accordingly, materials 1 to 4 (501 to 504) for travel A included in the user schedule information are changed to materials 1 to 5 (501 to 504, 803).

도 9는 일부 실시예에 따른 디바이스(100)가 특정 기간의 사용자 스케줄 정보에 따른 복수의 아바타 기반 이미지를 디스플레이 하고, 아바타 기반 이미지 수정에 따라 사용자 스케줄 정보를 업데이트 하는 사용자 정보 관리 방법의 흐름도이다. 9 is a flowchart of a user information management method in which the device 100 displays a plurality of avatar-based images according to user schedule information for a specific period and updates user schedule information according to the modification of the avatar-based image, according to some embodiments.

단계 S901에서, 디바이스(100)는 특정 기간의 사용자 스케줄 정보 요청을 나타내는 사용자 입력을 수신한다. 특정 기간은 날짜 정보에 기초하여 설정될 수 있다. 특정 기간은 요일 기반으로 설정될 수 있다. 특정 기간은 주단위로 설정될 수 있다. 특정 기간은 시간을 기잔으로 설정될 수 있다. 본 개시에서 특정 기간은 상술한 바로 제한되지 않는다. In step S901, the device 100 receives a user input indicating a user schedule information request for a specific period. The specific period may be set based on date information. The specific period may be set based on the day of the week. A specific period can be set on a weekly basis. A specific period can be set as the time period. The specific period in the present disclosure is not limited as described above.

단계 S902에서, 평일 및 주말 사용자 스케줄 정보에 따른 복수의 아바타 기반 이미지를 디스플레이 한다. 평일 및 주말은 상술한 특정 기간에 포함된 평일 및 주말이 된다. 예를 들어, 특정 기간이 2015년 2월 2일부터 2월 15일까지 인 경우에, 디바이스(100)는 2월 2일부터 2월 6일까지 평일 사용자 스케줄 정보에 따른 아바타 기반 이미지, 2월 7일부터 2월 8일까지 주말 사용자 스케줄 정보에 따른 아바타 기반 이미지, 2월 9일부터 2월 13일까지 평일 사용자 스케줄 정보에 따른 아바타 기반 이미지, 2월 14일부터 2월 15일까지 주말 사용자 스케줄 정보에 따른 아바타 기반 이미지를 각각 디스플레이 할 수 있다. In step S902, a plurality of avatar-based images according to weekday and weekend user schedule information is displayed. Weekdays and weekends are weekdays and weekends included in the specified period described above. For example, if the specific period is from February 2 to February 15, 2015, the device 100 may display an avatar-based image according to the weekday user schedule information from February 2 to February 6, February Avatar-based image according to weekend user schedule information from 7th to February 8th, avatar-based image according to weekday user schedule information from February 9th to 13th, weekend users from February 14th to February 15th Each of the avatar-based images according to the schedule information can be displayed.

복수의 아바타 기반 이미지가 디스플레이 되고 있을 때, 단계 S903에서 수정을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 아바타 기반 이미지를 수정한다. When a plurality of avatar-based images are being displayed and a user input indicating a correction is received in step S903 , the device 100 modifies the avatar-based images.

단계 S904에서, 수정된 이미지를 포함하는 아바타 기반 이미지에 따라 디바이스(100)는 사용자 스케줄 정보를 업데이트 할 수 있다. In operation S904 , the device 100 may update user schedule information according to the avatar-based image including the modified image.

도 10은 일부 실시 예에 따른 디바이스(100)에 의해 평일 사용자 스케줄 정보에 기초한 아바타 기반 이미지(1001)와 주말 사용자 스케줄 정보에 기초한 아바타 기반 이미지(1002)를 함께 디스플레이 하는 예이다. 10 is an example in which the avatar-based image 1001 based on weekday user schedule information and the avatar-based image 1002 based on weekend user schedule information are displayed together by the device 100 according to some embodiments.

도 11은 일부 실시 예에 따른 디바이스(100)가 특정 기간의 사용자 스케줄 정보 요청에 따라 테마 아이템별 사용자 스케줄 정보에 따라 복수의 아바타 기반 이미지를 디스플레이 하고, 디스플레이 되고 있는 아바타 기반 이미지를 수정하여 사용자 스케줄 정보를 업데이트 하는 사용자 정보 관리 방법의 흐름도이다. 11 is a diagram in which the device 100 according to some embodiments displays a plurality of avatar-based images according to user schedule information for each theme item in response to a user schedule information request for a specific period, and modifies the displayed avatar-based image to schedule a user schedule. It is a flowchart of a user information management method for updating information.

도 11을 참조하면, 단계 S1101에서 특정 기간의 사용자 스케줄 정보 요청을 나타내는 사용자 입력을 수신하면, 디바이스(100)는 단계 S1102에서 테마 아이템별 사용자 스케줄 정보에 따른 복수의 아바타 기반 이미지를 디스플레이 한다. 테마 아이템은 특정 기간의 사용자 스케줄 정보에 포함되는 테마 아이템을 말한다. Referring to FIG. 11 , upon receiving a user input indicating a user schedule information request for a specific period in step S1101, the device 100 displays a plurality of avatar-based images according to the user schedule information for each theme item in step S1102. The theme item refers to a theme item included in user schedule information for a specific period.

단계 S1103에서, 디바이스(100)는 수정을 나타내는 사용자 입력에 따라 아바타 기반 이미지를 수정한다. 단계 S1104에서, 디바이스(100)는 수정된 이미지를 포함하는 아바타 기반 이미지에 따라 사용자 스케줄 정보를 업데이트 한다. In step S1103, the device 100 modifies the avatar-based image according to the user input indicating the correction. In step S1104, the device 100 updates the user schedule information according to the avatar-based image including the modified image.

도 12a 내지 도 12c는 도 11에서 언급된 특정 기간의 사용자 스케줄 정보에 포함된 테마 아이템별 복수의 아바타 기반 이미지를 디스플레이하고, 디스플레이 되고 있는 아바타 기반 이미지를 수정하는 예이다. 12A to 12C are examples of displaying a plurality of avatar-based images for each theme item included in user schedule information for a specific period mentioned in FIG. 11 and modifying the displayed avatar-based image.

도 12a를 참조하면, 디바이스(100)는 2015년 2월 1일부터 2015년 2월 8일까지 테마 아이템별 복수의 아바타 기반 이미지들(1201, 1202, 1203, 1204)을 함께 디스플레이 한다. Referring to FIG. 12A , the device 100 displays a plurality of avatar-based images 1201 , 1202 , 1203 , and 1204 for each theme item from February 1, 2015 to February 8, 2015 together.

도 12a를 참조하여, 복수의 아바타 기반 이미지들(1201, 1202, 1203, 1204)중에서 도 12b에 도시된 바와 같이 하나의 아바타 기반 이미지(1201)를 선택하는 사용자 입력이 수신되면, 디바이스(100)는 도 12c에 도시된 바와 같이 선택된 아바타 기반 이미지(1201)를 전 화면으로 확대하여 디스플레이 할 수 있다. 12A, when a user input for selecting one avatar-based image 1201 from among a plurality of avatar-based images 1201, 1202, 1203, and 1204 is received as shown in FIG. 12B, the device 100 may enlarge and display the selected avatar-based image 1201 on the entire screen as shown in FIG. 12C .

도 12c를 참조하면, 아바타 기반 이미지(1201)에 수정 버튼(1202), 추가 버튼(1203), 및/또는 완료 버튼(1204)을 포함할 수 있다. 도 12c에서 수정의 범위는 자전거 타기를 다른 테마 아이템(또는 다른 사용자 액티비티)로 변경하거나 자전거 타기를 취소하는 것을 포함할 수 있으나 본 개시에서 수정의 범위는 상술한 바로 제한되지 않는다. 자전거 타기를 잠자기로 변경할 경우에, 디바이스(100)는 아바타 기반 이미지(1201)를 도 12a에 도시된 아바타 기반 이미지(1204)로 변경할 수 있다. Referring to FIG. 12C , the avatar-based image 1201 may include an edit button 1202 , an add button 1203 , and/or a complete button 1204 . The scope of modification in FIG. 12C may include changing biking to another theme item (or other user activity) or canceling biking, but the scope of modification in the present disclosure is not limited as described above. When changing from cycling to sleep, the device 100 may change the avatar-based image 1201 to the avatar-based image 1204 shown in FIG. 12A .

도 12c에서 추가의 범위는 자전거 타기에 B와의 테이트 테마 아이템을 추가하는 것을 포함할 수 있다. 이와 같이 추가하는 경우에, 디바이스(100)는 B에 관련된 이미지를 아바타 기반 이미지(1201)에 추가할 수 있다. 본 개시에서 추가의 범위는 상술한 바로 제한되지 않는다. Additional scope in FIG. 12C may include adding a Tate theme item with B to Riding a Bicycle. In this case of adding, the device 100 may add an image related to B to the avatar-based image 1201 . Further scope in the present disclosure is not limited as described above.

도 13은 일부 실시 예에 따른 디바이스(100)가 아바타 기반 이미지에 대한 수명을 관리하는 사용자 정보 관리 방법의 흐름도이다. 13 is a flowchart of a user information management method in which the device 100 manages the lifespan of an avatar-based image, according to some embodiments.

단계 S1301에서, 디바이스(100)는 아바타 기반 이미지에 대한 제공 기간이 설정되어 있으면, 아바타 기반 이미지에 대한 제공 기간을 체크한다. 제공 기간은 날짜 기준으로 카운트될 수 있다. 제공 기간은 시간 기준으로 카운트될 수 있다. 제공 기간은 제공 횟수 기간으로 카운트될 수 있다. 본 개시에서 제공 기간에 대한 카운트 기준은 상술한 바로 제한되지 않는다. In step S1301, if the provision period for the avatar-based image is set, the device 100 checks the provision period for the avatar-based image. The provision period may be counted based on the date. The provision period may be counted on a time basis. The provision period may be counted as the number of times of provision period. In the present disclosure, the count criterion for the provision period is not limited as described above.

단계 S1302에서, 디바이스(100)는 제공 기간이 만료된 것으로 판단되면, 해당되는 아바타 기반 이미지를 소멸시킨다. 아바타 기반 이미지를 소멸하는 것은 디바이스(100)에 저장된 아바타 기반 이미지를 삭제하는 것을 말한다. 아바타 기반 이미지는 디바이스(100)에 연결된 외부 디바이스에 저장될 수 있다. 외부 디바이스에 아바타 기반 이미지가 저장된 경우에, 디바이스(100)는 외부 디바이스로 아바타 기반 이미지에 대한 삭제 명령을 전송할 수 있다. In step S1302, when it is determined that the provision period has expired, the device 100 destroys the corresponding avatar-based image. Deleting the avatar-based image refers to deleting the avatar-based image stored in the device 100 . The avatar-based image may be stored in an external device connected to the device 100 . When the avatar-based image is stored in the external device, the device 100 may transmit a delete command for the avatar-based image to the external device.

도 14는 일부 실시 예에 따른 디바이스(100)가 사용자의 헬스 정보에 따른 아바타 기반 이미지를 디스플레이 하고, 선택된 의료 정보에 따라 사용자 스케줄 정보를 업데이트 하는 사용자 정보 관리 방법의 흐름도이다. 14 is a flowchart of a user information management method in which the device 100 displays an avatar-based image according to the user's health information and updates user schedule information according to the selected medical information, according to some embodiments.

단계 S1401에서. 디바이스(100)는 사용자 헬스 정보에 따른 아바타 기반 이미지를 디스플레이 한다. 사용자의 헬스 정보는 외부 디바이스로부터 수신될 수 있으나 본 개시는 이로 제한되지 않는다. 사용자의 헬스 정보는 디바이스(100)에 설정된 헬스 애플리케이션을 실행하여 얻을 수 있다. In step S1401. The device 100 displays an avatar-based image according to user health information. The user's health information may be received from an external device, but the present disclosure is not limited thereto. The user's health information may be obtained by executing a health application set in the device 100 .

단계 S1402에서, 디바이스(100)는 의료 정보 요청을 나타내는 사용자 입력에 따라 사용자의 헬스 정보에 관련된 의료 정보를 제공한다. 예를 들어, 사용자의 헬스 정보가 사용자가 감기에 걸린 것을 나타낼 경우에, 디바이스(100)는 감기에 관련된 의료 정보를 제공할 수 있다. In step S1402 , the device 100 provides medical information related to the user's health information according to a user input indicating a medical information request. For example, when the user's health information indicates that the user has a cold, the device 100 may provide cold-related medical information.

단계 S1403에서, 디바이스(100)는 제공되는 의료 정보에 기초하여 선택된 의료 정보에 따라 사용자의 스케줄 정보를 업데이트 한다. In step S1403, the device 100 updates the user's schedule information according to the medical information selected based on the provided medical information.

도 15a 내지 도 15e는 일부 실시 예에 따른 디바이스(100)가 사용자의 헬스 정보에 따른 아바타 기반 이미지를 디스플레이 하고, 사용자의 헬스 정보에 따른 의료 정보를 제공하고, 선택된 의료 정보에 따라 사용자의 스케줄 정보를 업데이트 하는 예를 도시한 도면이다. 15A to 15E show that the device 100 displays an avatar-based image according to the user's health information, provides medical information according to the user's health information, and schedules information of the user according to the selected medical information, according to some embodiments. It is a diagram showing an example of updating .

도 15a에서, 디바이스(100)는 스마트 팔지(1500)로부터 수신되는 사용자의 헬스 정보에 따라 열과 콧물이 나는 아바타 기반 이미지를 디스플레이 한다. In FIG. 15A , the device 100 displays an avatar-based image with fever and runny nose according to the user's health information received from the smart arm 1500 .

의료 정보 요청을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 도 15b에 도시된 바와 같이 병원 아이템(1511), 약국 아이템(1512), 의약품 아이템(1513), 및 자가 치료 아이템(1514)을 포함하는 메뉴 아이템들을 제공한다. 예를 들어, 도 15a에 도시된 바와 같이 디스플레이 되고 있는 사용자의 헬스 정보에 따른 아비타 기반 이미지를 일정 시간 터치하는 사용자 입력이 수신되면, 디바이스(100)는 도 15b에 도시된 바와 같은 메뉴 아이템들을 제공할 수 있다. 본 개시에서 제공되는 메뉴 아이템들은 상술한 바로 제한되지 않는다. When a user input indicating a medical information request is received, the device 100 includes a hospital item 1511 , a pharmacy item 1512 , a medication item 1513 , and a self-treatment item 1514 as shown in FIG. 15B . menu items are provided. For example, as shown in FIG. 15A , when a user input of touching an avita-based image according to the displayed user's health information is received for a predetermined time, the device 100 provides menu items as shown in FIG. 15B . can do. The menu items provided in the present disclosure are not limited as described above.

도 15b에서 병원 아이템(1511)을 선택하는 사용자 입력이 수신되면, 디바이스(100)는 도 15c에 도시된 바와 같이 병원 아이템(1511)의 서브 아이템들(B 병원(1521), C 병원(1522), D병원(1523))을 제공한다. 예를 들어, 도 15b에서, 병원 아이템(1511)을 일정 시간 터치하는 사용자 입력이 수신되면, 디바이스(100)는 도 15c에 도시된 바와 같이 병원 아이템(1511)의 서브 아이템들(B 병원(1521), C 병원(1522), D병원(1523))을 제공할 수 있다. When a user input for selecting the hospital item 1511 in FIG. 15B is received, the device 100 displays sub-items of the hospital item 1511 (Hospital B 1521 and Hospital C 1522 ) as shown in FIG. 15C . , D hospital (1523)) is provided. For example, in FIG. 15B , when a user input of touching the hospital item 1511 for a predetermined time is received, the device 100 displays sub-items of the hospital item 1511 (Hospital B 1521 ) as shown in FIG. 15C . ), C hospital 1522, and D hospital 1523) may be provided.

도 15d에서 C 병원(1522)을 선택하는 사용자 입력이 수신되면, 디바이스(100)는 도 15e에서 C병원(1522)에 대한 예약 정보를 제공한다. 예를 들어, 도 15d에서 C 병원(1522)을 일정 시간 터치하는 사용자 입력이 수신되면, 디바이스(100)는 도 15e에서 C병원(1522)에 대한 예약 정보를 제공할 수 있다. When a user input for selecting hospital C 1522 in FIG. 15D is received, the device 100 provides reservation information for hospital C 1522 in FIG. 15E . For example, when a user input of touching the hospital C 1522 in FIG. 15D is received for a predetermined time, the device 100 may provide reservation information for the hospital C 1522 in FIG. 15E .

도 15e에서 제공된 예약 정보를 확인한 후, 예약을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 C병원(1522)에 대한 예약 절차를 수행한다. 예를 들어, 도 15e에서 제공된 예약 정보를 확인한 후, 예약 버튼(1532)을 일정 시간 터치하는 사용자 입력이 수신되면, 디바이스(100)는 예약 절차를 수행할 수 있다. 예약 절차는 제공된 예약 정보와 사용자 정보에 기초하여 C 병원에 예약 정보를 등록하는 것을 말한다. After checking the reservation information provided in FIG. 15E , when a user input indicating a reservation is received, the device 100 performs a reservation procedure for the hospital C 1522 . For example, after checking the reservation information provided in FIG. 15E , when a user input of touching the reservation button 1532 for a predetermined time is received, the device 100 may perform a reservation procedure. The reservation procedure refers to registering reservation information with hospital C based on the provided reservation information and user information.

예약이 절차가 완료되면, 디바이스(100)는 예약된 정보에 기초하여 사용자 스케줄 정보를 업데이트 한다. 이에 따라 디바이스(100)에 저장된 사용자 스케줄 정보에 C 병원에 대한 예약 정보가 등록될 수 있다. When the reservation procedure is completed, the device 100 updates user schedule information based on the reservation information. Accordingly, reservation information for hospital C may be registered in the user schedule information stored in the device 100 .

도 16은 일부 실시 예에 따른 디바이스(100)가 사용자의 장래 희망 정보에 따른 아바타 기반 이미지를 디스플레이 하고, 장래 희망에 관련된 정보중 선택된 정보에 따라 사용자 스케줄 정보를 업데이트 하는 사용자 정보 관리 방법의 흐름도이다. 16 is a flowchart of a user information management method in which the device 100 displays an avatar-based image according to the user's future hope information and updates user schedule information according to information selected from information related to future hope, according to some embodiments. .

단계 S1601에서, 디바이스(100)는 사용자의 장래 희망 정보에 따른 아바타 기반 이미지를 디스플레이 한다. 장래 희망 정보는 사용자의 미래의 직업 정보를 나타낼 수 있으나 본 개시에서 장래 희망 정보는 이로 제한되지 않는다. 예를 들어, 장래 희망 정보는 사용자의 버켓 리스트 또는 사용자의 위시 리스트를 포함할 수 있다. In step S1601, the device 100 displays an avatar-based image according to the user's future hope information. The future hope information may indicate future job information of the user, but the future hope information is not limited thereto in the present disclosure. For example, the future wish information may include the user's bucket list or the user's wish list.

단계 S1602에서, 디바이스(100)는 사용자의 장래 희망 정보에 관련된 정보를 요청하는 사용자 입력에 따라 장래 희망 정보에 관련된 정보를 제공한다. 예를 들어, 디스플레이 되고 있는 사용자의 장래 희망 정보에 따른 아비타 기반 이미지를 일정 시간 터치하고, 일 방향으로 드래그하는 사용자 입력이 수신되면, 디바이스(100)는 장래 희망 정보에 관련된 정보를 제공할 수 있다. In step S1602 , the device 100 provides information related to future hope information according to a user input requesting information related to the user's future hope information. For example, when a user input of touching and dragging an avita-based image according to the displayed user's future hope information for a predetermined time is received, the device 100 may provide information related to the future hope information. .

단계 S1603에서, 디바이스(100)는 장래 희망 정보에 관련된 정보중 선택된 정보에 따라 사용자의 스케줄 정보를 업데이트 한다. 예를 들어, 제공된 장래 희망 정보에 관련된 정보중 하나를 일정 시간 터치하고 일 방향으로 드래그하는 사용자 입력이 수신되면, 디바이스(100)는 사용자 입력이 수신된 정보에 따라 사용자의 스케줄 정보를 업데이트 할 수 있다.In step S1603, the device 100 updates the user's schedule information according to information selected from information related to future desired information. For example, when a user input of touching one of the information related to the provided future hope information for a predetermined time and dragging it in one direction is received, the device 100 may update the user's schedule information according to the information received by the user input. there is.

도 17a 내지 도 17d는 일부 실시 예에 따른 디바이스(100)가 사용자의 장래 희망 정보에 따른 아바타 기반 이미지를 디스플레이 하고, 장래 희망 정보에 관련된 정보 제공을 요청함에 따라 관련된 정보를 제공하고, 사용자에 의해 선택된 정보에 따라 사용자 스케줄 정보를 업데이트 하는 과정을 설명하는 도면이다.17A to 17D show that the device 100 displays an avatar-based image according to the user's future hope information, and provides related information in response to a request for providing the information related to the future hope information, according to some embodiments, and is provided by the user. It is a diagram explaining a process of updating user schedule information according to selected information.

도 17a를 참조하면, 디바이스(100)는 사용자의 장래 희망 정보에 따라 예술 치료사를 나타내는 아바타 기반 이미지를 디스플레이 한다. Referring to FIG. 17A , the device 100 displays an avatar-based image representing an art therapist according to the user's future wish information.

도 17a에서, 장래 희망 정보에 관련된 정보 제공을 요청하는 사용자 입력(1701)이 수신되면, 디바이스(100)는 도 17b에 도시된 바와 같이 자격 시험 일정 아이템(1711), 인증 센터 아이템(1712), 또는/및 관련 이벤트 아이템(1713)을 장래 희망 정보에 관련된 정보로서 제공한다. 예를 들어, 도 17a에서 디스플레이 되고 있는 이미지에 대해 일정 시간동안 터치하고, 일 방향으로 드래그하는 사용자 입력(1701)이 수신되면, 디바이스(100)는 도 17b에 도시된 바와 같이 장래 희망 정보에 관련된 정보들(자격 시험 일정 아이템(1711), 인증 센터 아이템(1712), 또는/및 관련 이벤트 아이템(1713))을 제공한다. In FIG. 17A , when a user input 1701 requesting information related to future desired information is received, the device 100 displays a qualification test schedule item 1711, an authentication center item 1712, as shown in FIG. 17B , or/and the related event item 1713 is provided as information related to future hope information. For example, when a user input 1701 of touching and dragging an image displayed in FIG. 17A for a certain period of time is received, the device 100 displays information related to future hope information as shown in FIG. 17B . provide information (qualification exam schedule item 1711 , certification center item 1712 , or/and related event item 1713 ).

도 17b에서 관련 이벤트 아이템(1713)을 선택하는 사용자 입력이 수신되면, 디바이스(100)는 이벤트 1 아이템(1721), 이벤트 2 아이템(1722), 및 이벤트 3 아이템(1723)을 제공한다. 예를 들어, 도 17b에서 관련 이벤트 아이템(1713)에 대해 일정 시간동안 터치하는 사용자 입력이 수신되면, 디바이스(100)는 관련 이벤트 아이템(1713)의 서브 계층에 등록된 이벤트 1 아이템(1721), 이벤트 2 아이템(1722), 및 이벤트 3 아이템(1723)을 제공할 수 있다. When a user input for selecting a related event item 1713 in FIG. 17B is received, the device 100 provides an event 1 item 1721 , an event 2 item 1722 , and an event 3 item 1723 . For example, when a user input of touching the related event item 1713 in FIG. 17B is received for a predetermined time, the device 100 displays an event 1 item 1721 registered in a sub-layer of the related event item 1713, An event 2 item 1722 and an event 3 item 1723 may be provided.

도 17c에서, 이벤트 2 아이템(1722)을 선택하는 사용자 입력이 수신되면, 디바이스(100)는 이벤트 2 아이템(1722)에 대한 상세한 정보를 제공한다. 예를 들어, 도 17c에서 이벤트 2 아이템(1722)을 일정 시간동안 터치하는 사용자 입력이 수신되면, 디바이스(100)는 이벤트 2 아이템(1722)에 대한 상세한 정보를 제공할 수 있다. In FIG. 17C , when a user input for selecting the event 2 item 1722 is received, the device 100 provides detailed information on the event 2 item 1722 . For example, when a user input of touching the event 2 item 1722 for a predetermined time is received in FIG. 17C , the device 100 may provide detailed information on the event 2 item 1722 .

디바이스(100)는 이벤트 2 아이템(1722)에 대한 상세한 정보를 이벤트 2 아이템(1722)에 인접한 위치에 별도의 창(1724)을 오픈하여 제공할 수 있다. 별도의 창(1724)은 말 주머니 형태를 갖는 팝업 창으로 디스플레이 될 수 있으나 본 개시는 이로 제한되지 않는다. The device 100 may provide detailed information on the event 2 item 1722 by opening a separate window 1724 adjacent to the event 2 item 1722 . The separate window 1724 may be displayed as a pop-up window having a horse bag shape, but the present disclosure is not limited thereto.

도 17d에서, 별도의 창(1723)에 포함되어 있는 참여 OK 버튼(1725)을 선택하는 사용자 입력이 수신되면, 디바이스(100)는 이벤트 2 아이템(1722)에 관련된 정보를 이용하여 사용자의 스케줄 정보를 업데이트한다. 예를 들어, 도 17d에서 별도의 창(1723)에 포함되어 있는 참여 OK 버튼(1725)을 일정 시간동안 터치하는 사용자 입력이 수신되면, 디바이스(100)는 이벤트 2 아이템(1722)에 관련된 정보를 이용하여 사용자의 스케줄 정보를 업데이트 할 수 있다. 이에 따라 사용자의 스케줄 정보에 이벤트 2 아이템(1722)에 관련된 정보가 등록된다. In FIG. 17D , when a user input for selecting the participation OK button 1725 included in a separate window 1723 is received, the device 100 uses information related to the event 2 item 1722 to provide the user's schedule information update For example, when a user input of touching the participation OK button 1725 included in a separate window 1723 in FIG. 17D is received for a predetermined time, the device 100 transmits information related to the event 2 item 1722 can be used to update the user's schedule information. Accordingly, information related to the event 2 item 1722 is registered in the user's schedule information.

도 18은 일부 실시 예에 따른 디바이스(100)의 사용 히스토리 정보에 따라 복수의 아바타 기반 이미지를 디스플레이 하여 사용자 정보를 관리하는 방법의 흐름도이다. 18 is a flowchart of a method of managing user information by displaying a plurality of avatar-based images according to usage history information of the device 100 according to some embodiments.

도 18의 단계 S1801에서, 디바이스(100)는 디바이스(100)에 대한 사용 히스토리 정보를 요청하는 사용자 입력을 수신하면, 단계 S1802에서 디바이스(100)에 대한 사용 기간별 사용 히스토리 정보에 따른 복수의 아바타 기반 이미지를 디스플레이 한다. 예를 들어, 단계 S1801에서, 디바이스(100)가 제공하는 메뉴 항목에 포함되어 있는 디바이스(100)의 사용 히스토리 정보 요청 아이템에 대한 선택을 나타내는 사용자 입력이 수신되면, 단계 S1802에서 디바이스(100)는 사용 기간별 사용 히스토리 정보에 따른 복수의 아바타 기반 이미지를 디스플레이 할 수 있다. 단계 S1801에서 디바이스(100)의 사용 기간을 특정하는 정보가 수신될 수 있다. 사용 기간을 특정하는 정보는 날짜, 시간, 또는 요일에 기초하여 입력될 수 있다. In step S1801 of FIG. 18 , when the device 100 receives a user input requesting usage history information for the device 100 , in step S1802 , based on a plurality of avatars according to usage history information for each usage period of the device 100 . Display the image. For example, in step S1801, when a user input indicating selection of a request item for use history information of the device 100 included in a menu item provided by the device 100 is received, in step S1802, the device 100 A plurality of avatar-based images according to usage history information for each usage period may be displayed. In operation S1801, information specifying a usage period of the device 100 may be received. Information specifying the period of use may be input based on a date, time, or day of the week.

도 19a 및 도 19b는 일부 실시 예에 따른 디바이스(100)가 디바이스(100)의 사용 히스토리 정보 요청에 따른 사용자 입력이 수신되면, 사용 기간별 사용 히스토리 정보를 복수의 아바타 기반 이미지로 제공하는 예이다. 19A and 19B are examples of providing usage history information for each usage period as a plurality of avatar-based images when a user input according to a request for usage history information of the device 100 is received by the device 100 according to some embodiments.

도 19a를 참조하면, 디바이스(100)는 평일(1910)과 주말(1920)에 관한 디바이스(100)의 사용 히스토리 정보에 따른 복수의 아바타 기반의 이미지를 디스플레이 한다. Referring to FIG. 19A , the device 100 displays a plurality of avatar-based images according to usage history information of the device 100 on weekdays 1910 and weekends 1920 .

도 19a의 평일(1910)을 참조하면, 평일(1910)에 디바이스(100)는 1순위로 사용한 앱이 전화 앱이고, 2순위로 사용한 앱이 인터넷 앱임을 알 수 있다. 도 19a의 주말(1920)을 참조하면, 주말(1920)에 디바이스(100)는 1순위로 DTV앱을 사용하고, 2순위로 밴드를 사용하는 것을 알 수 있다. Referring to the weekday 1910 of FIG. 19A , on the weekday 1910, the device 100 may know that the app used as the first priority is the phone app and the app used as the second priority is the Internet app. Referring to the weekend 1920 of FIG. 19A , it can be seen that the device 100 uses the DTV app as the first priority and the band as the second priority on the weekend 1920 .

도 19a에서 평일(1910)에 디바이스(100)에 대한 다음 사용 히스토리 정보를 요청하는 사용자 입력(1911)이 수신되면, 디바이스(100)는 평일(1910)에 디바이스(100)에 대한 사용 히스토리 정보에 기초하여 도 19b에 도시된 바와 같이 평일(1910)에 대한 아바타 기반 이미지를 변경할 수 있다. 도 19b의 평일(1910)을 참조하면, 평일(1910)에 디바이스(100)는 3순위로 카카오톡 앱을 사용하고, 4순위로 카메라 앱을 사용하는 것을 쉽게 알 수 있다. In FIG. 19A , when a user input 1911 requesting the next usage history information for the device 100 is received on a weekday 1910, the device 100 returns to the usage history information for the device 100 on a weekday 1910. Based on the avatar-based image for the weekday 1910 as shown in FIG. 19B , it is possible to change the avatar-based image. Referring to the weekday 1910 of FIG. 19B , it can be easily seen that the device 100 uses the KakaoTalk app as the 3rd priority and the camera app as the 4th priority on the weekday 1910 .

도 19a 및 도 19b는 디바이스(100)의 사용 히스토리 정보를 디바이스(100)에 설정된 애플리케이션에 기초한 정보를 제공하고 있으나, 본 개시에서 디바이스(100)의 사용 히스토리 정보는 상술한 바로 제한되지 않는다. 19A and 19B provide usage history information of the device 100 based on an application set in the device 100, but in the present disclosure, the usage history information of the device 100 is not limited as described above.

도 20은 일부 실시 예에 따른 디바이스(100)가 소셜 미디어에 등록된 사용자 정보에 따른 아바타 기반의 이미지를 디스플레이 하고, 사용자 입력에 따라 디스플레이 되고 있는 아바타 기반 이미지가 수정되면, 수정된 아바타 기반 이미지에 따라 소셜 미디어에 등록된 사용자 정보를 업데이트 하는 사용자 정보 관리 방법의 흐름도이다. 20 is a diagram showing the device 100 according to some embodiments displays an avatar-based image according to user information registered in social media, and when the displayed avatar-based image is modified according to a user input, the modified avatar-based image is displayed. It is a flowchart of a user information management method for updating user information registered in social media according to the following.

단계 S2001에서, 디바이스(100)는 소셜 미디어에 등록된 사용자 정보에 따른 아바타 기반의 이미지를 디스플레이한다. 소셜 미디어에 등록된 사용자 정보는 디바이스(100)에 연결된 소셜 미디어 서버로부터 수신될 수 있다. 예를 들어, 페이스북에 등록된 사용자 정보는 디바이스(100)에 연결된 페이스북 서버로부터 수신될 수 있다. In step S2001, the device 100 displays an avatar-based image according to user information registered in social media. User information registered in social media may be received from a social media server connected to the device 100 . For example, user information registered in Facebook may be received from a Facebook server connected to the device 100 .

소셜 미디어에 등록된 사용자 정보는 디바이스(100)의 요청에 의해 소셜 미디어 서버로부터 제공될 수 있으나, 디바이스(100)가 소셜 미디어 서버에 연결되면, 소셜 미디어 서버로부터 자동적으로 제공될 수 있다. 본 개시에서 디바이스(100)가 소셜 미디어에 등록된 사용자 정보를 수신하는 방법은 상술한 바로 제한되지 않는다. User information registered in social media may be provided from a social media server by a request of the device 100 , but may be automatically provided from the social media server when the device 100 is connected to the social media server. In the present disclosure, a method for the device 100 to receive user information registered in social media is not limited as described above.

단계 S2002에서, 디바이스(100)는 이미지 수정을 요청하는 사용자 입력에 따라 아바타 기반 이미지를 수정한다. 단계 S2002에서 아바타 기반 이미지를 수정하는 방법은 상술한 도 2의 단계 S202에서 설명한 바와 같은 방식으로 수행될 수 있다. In step S2002 , the device 100 modifies the avatar-based image according to a user input requesting image correction. The method of modifying the avatar-based image in step S2002 may be performed in the same manner as described in step S202 of FIG. 2 described above.

단계 S2003에서, 디바이스(100)는 수정된 아바타 기반 이미지에 따라 소셜 미디어에 등록된 사용자 정보를 업데이트 할 수 있다. 디바이스(100)는 수정된 아바타 기반 이미지를 텍스트 정보로 변환하고, 텍스트 정보를 소셜 미디어 서버로 전송하면서, 소셜 미디어에 등록된 사용자 정보에 대한 업데이트를 요청할 수 있다. 이에 따라 소셜 미디어 서버는 등록된 사용자 정보를 업데이트 할 수 있다. 사용자 정보에 대한 업데이트가 완료되면, 소셜 미디어 서버는 디바이스(100)로 업데이트 완료 메시지를 전송할 수 있다. 본 개시에서 소셜 미디어에 등록된 사용자 정보를 업데이트 하는 방식은 상술한 바로 제한되지 않는다. In step S2003, the device 100 may update user information registered in social media according to the modified avatar-based image. The device 100 may request an update of user information registered in social media while converting the modified avatar-based image into text information and transmitting the text information to the social media server. Accordingly, the social media server may update the registered user information. When the update of the user information is completed, the social media server may transmit an update completion message to the device 100 . In the present disclosure, a method of updating user information registered in social media is not limited as described above.

도 21은 일부 실시 예들에 따른 디바이스(100)를 포함하는 사용자 정보 관리 시스템(2100)의 블록도이다. 21 is a block diagram of a user information management system 2100 including the device 100 according to some embodiments.

도 21를 참조하면, 시스템(2100)은 디바이스(100), 네트워크(2110), 및 외부 디바이스(2120)를 포함한다. Referring to FIG. 21 , a system 2100 includes a device 100 , a network 2110 , and an external device 2120 .

디바이스(100)는, 예를 들어, 휴대 가능한 디바이스(Portable Device), 웨어러블 디바이스(Wearable Device), 홈 인터넷 어플라이언스(Home Internet Appliance), 또는 모바일 디바이스(Mobile Device)를 포함할 수 있으나 본 개시에서 디바이스(100)는 상술한 바로 제한되지 않는다. The device 100 may include, for example, a portable device, a wearable device, a home Internet appliance, or a mobile device, but in the present disclosure, the device (100) is not limited as described above.

휴대 가능한 디바이스는 스마트 폰(Smart Phone), 노트북(Notebook), 스마트 보드(Smart Board), 태블릿(Tablet) PC(Personal Computer), 핸드헬드(handheld) 디바이스, 핸드헬드 컴퓨터, 미디어 플레이어, 전자북 디바이스, 또는 PDA(Personal Digital Assistant) 등과 같은 디바이스를 포함할 수 있으나 본 개시에서 휴대 가능한 디바이스는 상술한 바로 제한되지 않는다. Portable devices include smart phones, notebooks, smart boards, tablets, personal computers (PCs), handheld devices, handheld computers, media players, and e-book devices. , or a device such as a personal digital assistant (PDA), the portable device in the present disclosure is not limited thereto.

웨어러블 디바이스는 스마트 안경, 스마트 시계, 스마트 밴드(예를 들어, 스마트 허리 밴드 및 스마트 헤어 밴드 등), 스마트 클립, 각종 스마트 장신구(예를 들어, 스마트 반지, 스마트 팔지, 스마트 발지. 스마트 헤어 핀, 및 스마트 목거리 등), 각종 스마트 신체 보호대(예를 들어, 스마트 무릎 보호대, 및 스마트 팔꿈치 보호대). 스마트 신발, 스마트 장갑, 스마트 의류, 스마트 모자, 장애인용 스마트 의족, 또는 장애인용 스마트 의수 등과 같은 디바이스를 포함할 수 있으나 이로 제한되지 않는다. Wearable devices include smart glasses, smart watches, smart bands (eg, smart waist bands and smart hair bands, etc.), smart clips, various smart accessories (eg, smart rings, smart bracelets, smart feet, smart hairpins, and smart collars, etc.), various smart body guards (eg, smart knee guards, and smart elbow guards). devices such as, but not limited to, smart shoes, smart gloves, smart clothing, smart hats, smart prostheses for the disabled, or smart prostheses for the disabled.

홈 인터넷 어플라이언스는 스마트 TV, PC(Personal Computer), 데스크탑(Desktop) PC(Personal Computer), 스마트 냉장고, 스마트 세탁기, 스마트 조명, 스마트 청소기, 스마트 헬스 기기, 스마트 오븐, 스마트 식기 세척기, 멀티미디어 콘솔(consol), 게임 콘솔, 또는 스마트 정수기 등과 같이 M2M(Machine to Machine) 또는 IoT(Internet of Things)를 이루는 홈 디바이스를 포함할 수 있으나 본 개시에서 홈 인터넷 어플라이언스는 상술한 바로 제한되지 않는다. Home Internet appliances include smart TVs, personal computers (PCs), desktop personal computers (PCs), smart refrigerators, smart washing machines, smart lighting, smart cleaners, smart health devices, smart ovens, smart dishwashers, and multimedia consoles. ), a game console, or a home device constituting an M2M (Machine to Machine) or IoT (Internet of Things), such as a smart water purifier, but the home Internet appliance in the present disclosure is not limited as described above.

모바일 디바이스는 M2M(achine to Machine) 또는 IoT(Internet of Things)를 이루는 자동차와 같은 디바이스를 포함할 수 있으나 본 개시에서 모바일 디바이스는 상술한 바로 제한되지 않는다. The mobile device may include a device such as a vehicle constituting an machine to machine (M2M) or the Internet of Things (IoT), but the mobile device is not limited thereto in the present disclosure.

네트워크(2110)는, 예를 들어, 인트라넷, 인터네트워크, 인터넷, PAN(Personal Area Network)(예를 들어, 블루투스, 홈RF(HomeRF) 등 근거리 무선 통신), CAN(Campus Area Network), LAN(Local Area Network), WAN(Wide Area Network), 또는 게임 네트워크 등과 같은 네트워크를 포함할 수 있으나 본 개시에서 네트워크(2110)는 상술한 바로 제한되지 않는다. The network 2110 is, for example, an intranet, an internetwork, the Internet, a Personal Area Network (PAN) (eg, Bluetooth, short-range wireless communication such as HomeRF), a Campus Area Network (CAN), a LAN ( It may include a network such as a local area network), a wide area network (WAN), or a game network, but in the present disclosure, the network 2110 is not limited thereto.

네트워크(2110)는 유선 전송 매체와 무선 전송 매체중 적어도 하나의 전송 매체를 이용할 수 있다. 유선 전송 매체는, 예를 들어, 동축 케이블(Coaxial), 연선(twisted pair) 케이블, 또는/및 광섬유(Fiber-optic) 등중 적어도 하나를 포함할 수 있으나 본 개시에서 유선 전송 매체는 상술한 바로 제한되지 않는다. 무선 전송 매체는, 예를 들어, 라디오파(Radio Frequency Wave), 지상 마이크로파(Terrestrial Microwave), 위성 마이크로파(Satellite Microwave), 또는/및 적외선(Infrared) 등중 적어도 하나를 포함할 수 있으나 본 개시에서 무선 전송 매체는 상술한 바로 제한되지 않는다. The network 2110 may use at least one of a wired transmission medium and a wireless transmission medium. The wired transmission medium may include, for example, at least one of a coaxial cable, a twisted pair cable, and/or a fiber-optic, but in the present disclosure, the wired transmission medium is as described above. not limited The wireless transmission medium may include, for example, at least one of a radio wave (Radio Frequency Wave), a terrestrial microwave (Terrestrial Microwave), a satellite microwave, and/or an infrared (Infrared), etc., but in the present disclosure The wireless transmission medium is not limited as described above.

네트워크(2110)의 접속 형태는 성형, 그물형, 트리형, 버스형, 또는 링형중 어느 하나의 형태로 구성될 수 있으나 네트워크(2110)의 접속 형태는 상술한 바로 제한되지 않는다. The connection type of the network 2110 may be any one of a shape, a net type, a tree type, a bus type, and a ring type, but the connection type of the network 2110 is not limited as described above.

네트워크(2110)는 LAN(Local Area Network) 카드, 허브(Hub), 스위치(Switch), 브리지(Bridge), 게이트웨이(Gateway), 중계기(Repeater), 또는 라우터(Rounter) 등과 같은 네트워크 접속 장치중 적어도 하나를 이용할 수 있으나 본 개시에서 네트워크 접속 장치는 상술한 바로 제한되지 않는다. The network 2110 is at least one of a network access device such as a local area network (LAN) card, a hub, a switch, a bridge, a gateway, a repeater, or a router. One may be used, but in the present disclosure, the network access device is not limited as described above.

외부 디바이스(2120)는 디바이스(100)의 외부에서 디바이스(100)와 연결 가능한 디바이스를 말한다. 외부 디바이스(2120)는 사용자의 클라우드 서버, 사용자의 정보 관리 서버, QA(Question and Answer) 서버, 서비스 제공 서버(예를 들어, 게임 서버, 또는 애플리케이션 서버 등), 또는 소셜 미디어 서버를 포함할 수 있으나 본 개시에서 외부 디바이스(2120)는 상술한 바로 제한되지 않는다. The external device 2120 refers to a device connectable to the device 100 from the outside of the device 100 . The external device 2120 may include a user's cloud server, a user's information management server, a question and answer (QA) server, a service providing server (eg, a game server, an application server, etc.), or a social media server. However, in the present disclosure, the external device 2120 is not limited as described above.

외부 디바이스(2120)는 서버, 의료기기, 컴퓨팅 디바이스, 앱세서리, 웨어러블 디바이스, IoT 센서, 또는 IoT 디바이스를 포함할 수 있다. 외부 디바이스(2110)는 디바이스(100)와 동일한 디바이스일 수 있다. 외부 디바이스(2110)의 사용자는 디바이스(100)의 사용자와 동일할 수 있다. 외부 디바이스(2110)의 사용자는 디바이스(100)의 사용자와 다를 수 있다. The external device 2120 may include a server, a medical device, a computing device, an appcessory, a wearable device, an IoT sensor, or an IoT device. The external device 2110 may be the same device as the device 100 . A user of the external device 2110 may be the same as a user of the device 100 . A user of the external device 2110 may be different from a user of the device 100 .

의료기기는 사용자의 건강 정보를 센싱(또는 측정)하는 기능과 통신 기능을 포함할 수 있다. 의료기기는 가정용 의료기기(예를 들어, 체온 측정기, 혈압 측정기, 콜레스테롤 측정기, 혈당 측정기, 요산 측정기, 및 안마기 등과 같은 적어도 하나의 기기), 병원용 의료기기(예를 들어, 초음파 기기, 체지방 측정기, 청진기, 및 심전도 측정기 등과 같은 적어도 하나의 기기), 또는 재활용 의료기기(예를 들어, 보행 밸트, 이동 밸트, 무릅 보호대, 파라핀 욕조 등과 같은 적어도 하나의 기기) 등과 같은 의료 기기를 포함할 수 있으나 의료기기는 상술한 바로 제한되지 않는다. The medical device may include a function of sensing (or measuring) the user's health information and a communication function. Medical devices include household medical devices (eg, at least one device such as a body temperature monitor, a blood pressure monitor, a cholesterol monitor, a blood sugar monitor, a uric acid monitor, and a massager), a medical device for a hospital (eg, an ultrasound device, a body fat monitor, at least one device, such as a stethoscope, and an electrocardiogram), or a medical device such as a recycled medical device (eg, at least one device such as a walking belt, transfer belt, knee guard, paraffin bath, etc.) The device is not limited to the above.

앱세서리는 디바이스(100)에 설치된 애플리케이션을 이용하여 제어되는 디바이스이다. 앱세서리는, 예를 들어, 스마트 전구, 스마트 프린터, 스마트 무선 혈압 측정기, 스마트 녹음기, 스마트 위치 추적기, 스마트 마이크, 스마트 온도 조절 장치, 스마트 알람 기기, 또는 스마트 장난감 등과 같은 적어도 하나의 디바이스를 포함한다. The appcessory is a device that is controlled using an application installed on the device 100 . The appcessory includes, for example, at least one device such as a smart light bulb, a smart printer, a smart wireless blood pressure monitor, a smart recorder, a smart location tracker, a smart microphone, a smart thermostat, a smart alarm device, or a smart toy. .

디바이스(100)는 일부 실시예에 따른 사용자 정보 관리 방법을 수행할 수 있다. 디바이스(100)는 디바이스(100)에 저장된 사용자 정보 또는/및 네트워크(2110)를 통해 연결된 외부 디바이스(2120)에 저장된 사용자 정보를 관리할 수 있다. 디바이스(100)에 저장된 사용자 정보는 외부 디바이스(2120)로부터 수신되어 저장될 수 있다. 외부 디바이스(2120)에 저장된 사용자 정보는 디바이스(100)로부터 수신되어 저장될 수 있다. 디바이스(100)에 저장된 사용자 정보는 외부 디바이스(2120)에 저장된 사용자 정보와 동일할 수 있다. 디바이스(100)에 저장된 사용자 정보는 외부 디바이스(2120)에 저장된 사용자 정보와 다를 수 있다. 디바이스(100)에 저장된 사용자 정보의 일부는 외부 디바이스(2120)에 저장된 사용자 정보와 동일할 수 있다. The device 100 may perform a user information management method according to some embodiments. The device 100 may manage user information stored in the device 100 and/or user information stored in the external device 2120 connected through the network 2110 . User information stored in the device 100 may be received from the external device 2120 and stored. User information stored in the external device 2120 may be received from the device 100 and stored. User information stored in the device 100 may be the same as user information stored in the external device 2120 . User information stored in the device 100 may be different from user information stored in the external device 2120 . Part of the user information stored in the device 100 may be the same as the user information stored in the external device 2120 .

디바이스(100)는 일부 실시 예에 따른 사용자 정보 관리 방법을 이용하여 수정한 사용자 정보를 이용하여 디바이스(100) 또는 외부 디바이스(2120)에 저장된 사용자 정보를 업데이트 할 수 있다. 디바이스(100)는 저장된 사용자 정보를 외부 디바이스(2120)로 전송하고, 외부 디바이스(2120)에서 사용자 정보를 관리하도록 요청할 수 있다. The device 100 may update user information stored in the device 100 or the external device 2120 by using the user information corrected using the user information management method according to some embodiments. The device 100 may transmit the stored user information to the external device 2120 and request that the external device 2120 manage the user information.

도 22는 일부 실시 예에 따른 디바이스(100)에 의해 수행되는 사용자 정보 관리 방법을 설명하기 위한 흐름도이다. 도 23a 내지 도 23f는 일부 실시 예에 따른 디바이스(100)가 사용자 정보에 기초하여 디스플레이 하는 아바타 기반 이미지들을 설명하기 위한 도면이다. 22 is a flowchart illustrating a user information management method performed by the device 100 according to some embodiments. 23A to 23F are diagrams for explaining avatar-based images displayed by the device 100 based on user information according to some embodiments.

도 22를 참조하면, 단계 S2201에서, 디바이스(100)는 사용자 정보에 기초한 아바타 기반 이미지를 디스플레이 한다. 예를 들어, 디바이스(100)는 도 23a의 사용자 정보(2300)에 기초하여 아바타 기반 이미지(2310)를 생성하여 디스플레이 할 수 있다. 아바타 기반 이미지(2310)는 디바이스(100)의 사용자를 상징하는 이미지라고 말할 수 있다. 아바타 기반 이미지(2310)는 2차원 모델 또는 3차원 모델로 표현된 아바타, 사이버 캐릭터, 사용자의 가상의 이미지, 사용자의 가상 자아 그래픽 아이콘, 또는 사용자의 아이콘 등으로 표현될 수 있다. 본 개시에서 아바타 기반 이미지(2310)를 표현하는 방식은 상술한 바로 제한되지 않는다. Referring to FIG. 22 , in step S2201 , the device 100 displays an avatar-based image based on user information. For example, the device 100 may generate and display the avatar-based image 2310 based on the user information 2300 of FIG. 23A . The avatar-based image 2310 may be said to be an image representing the user of the device 100 . The avatar-based image 2310 may be expressed as an avatar expressed as a 2D model or a 3D model, a cyber character, a virtual image of a user, a graphic icon of a user's virtual self, or an icon of the user. A method of expressing the avatar-based image 2310 in the present disclosure is not limited as described above.

단계 S2201에서, 디바이스(100)는 도 23b 내지 도 23f에 도시된 바와 같이 사용자 정보에 기초한 복수의 아바타를 디스플레이 할 수 있다. In step S2201 , the device 100 may display a plurality of avatars based on user information as shown in FIGS. 23B to 23F .

도 23b를 참조하면, 디바이스(100)는 현재의 사용자 정보에 기초한 아바타 기반 이미지(2340, 이하 현재 이미지라고 약함)와 미래의 사용자 정보에 기초한 아바타 기반 이미지(2341, 이하 미래 이미지라고 약함)를 함께 디스플레이한다. Referring to FIG. 23B , the device 100 displays an avatar-based image (2340, hereinafter abbreviated as current image) based on current user information and an avatar-based image (2341, hereinafter abbreviated as future image) based on future user information together. Display.

현재 이미지(2340)는 미래 이미지(2341)와 헤어 스타일이 다르다. 이는 현재의 사용자 정보에 포함된 헤어 스타일 정보(예를 들어, 사용자의 헤어스타일은 컷트이다)와 미래의 사용자 정보에 포함된 헤어 스타일 정보(예를 들어, 사용자의 헤어스타일은 웨이브이다)가 다르다는 것을 나타낸다. The current image 2340 has a different hairstyle from the future image 2341 . This means that the hairstyle information (eg, the user's hairstyle is a cut) included in the current user information is different from the hairstyle information (eg, the user's hairstyle is a wave) included in the future user information. indicates that

현재의 사용자 정보에 포함된 헤어 스타일 정보는 사진 정보에 기초할 수 있으나 본 개시는 상술한 바로 제한되지 않는다. 예를 들어, 현재의 사용자 정보에 포함된 헤어 스타일 정보는 사용자에 의해 입력될 수 있다. 미래의 사용자 정보에 포함된 헤어 스타일 정보는 사용자의 헤어샵 예약 정보에 기초할 수 있으나 본 개시는 상술한 바로 제한되지 않는다. 예를 들어, 미래의 사용자 정보에 포함된 헤어 스타일 정보는 사용자에 의해 입력될 수 있다. Hair style information included in the current user information may be based on photo information, but the present disclosure is not limited thereto. For example, hair style information included in the current user information may be input by the user. Hair style information included in future user information may be based on the user's hair salon reservation information, but the present disclosure is not limited thereto. For example, hair style information included in future user information may be input by the user.

디바이스(100)는 사용자 정보를 일단위, 몇일 단위, 주단위, 월단위, 또는 연 단위로 나누어 현재 이미지(2340)와 미래 이미지(2341)를 디스플레이 할 수 있다. The device 100 may display the current image 2340 and the future image 2341 by dividing the user information into units of units, days, weeks, months, or years.

예를 들어, 일 단위인 경우에, 디바이스(100)는 오늘 사용자 정보(예를 들어, 사용자의 오늘 스케줄 정보)에 기초하여 현재 이미지(2340)를 생성하여 디스플레이 하고, 내일 사용자 정보(예를 들어, 사용자의 내일 스케줄 정보)에 기초하여 미래 이미지(2341)를 생성하여 디스플레이 할 수 있다. For example, in the case of a unit of one day, the device 100 generates and displays a current image 2340 based on today's user information (eg, user's today's schedule information), and tomorrow's user information (eg, , a future image 2341 may be generated and displayed based on the user's tomorrow schedule information).

예를 들어, 주 단위인 경우에, 디바이스(100)는 현재 시점을 기준으로 과거 일주일 동안의 사용자 정보에 기초하여 현재 이미지(2340)를 생성하여 디스플레이 하고, 내일 시점을 기준으로 미래 일주일 동안의 사용자 정보에 기초하여 미래 이미지(2341)를 생성하여 디스플레이 할 수 있다. For example, in the case of a week, the device 100 generates and displays the current image 2340 based on user information for the past week based on the current time point, and displays the current image 2340 based on the current time point for the future week. A future image 2341 may be generated and displayed based on the information.

디바이스(100)에 디스플레이 되는 현재 이미지(2340)와 미래 이미지(2341)는 동일할 수 있다. 이는 현재의 사용자 정보와 미래의 사용자 정보가 동일한 것을 나타낸다. The current image 2340 and the future image 2341 displayed on the device 100 may be the same. This indicates that current user information and future user information are the same.

디바이스(100)는 현재 이미지(2340)와 미래 이미지(2341)를 상술한 단위로 생성하지 않을 수 있다. 예를 들어, 디바이스(100)는 사용자 정보에 포함되어 있는 현재 직업에 관한 정보(예를 들어, 학생)와 장래 희망에 관한 정보(예를 들어, 경찰관)에 기초하여 현재 이미지(2340, 예를 들어 학생복을 입은 아바타 기반 이미지)와 미래 이미지(2341, 예를 들어 경찰복을 입을 아바타 기반 이미지)를 생성할 수 있다. The device 100 may not generate the current image 2340 and the future image 2341 in the above-described units. For example, the device 100 may display a current image 2340, for example, based on information about a current job (eg, a student) and information about a future hope (eg, a police officer) included in the user information. For example, an avatar-based image wearing a school uniform) and a future image 2341 (eg, an avatar-based image wearing a police uniform) may be generated.

또한, 디바이스(100)는 사용자 정보에 포함된 사용자의 버킷 리스트 또는 위시 리스트에 기초하여 미래 이미지(2341)를 생성하고, 디스플레이 할 수 있다. 예를 들어, 버킷 리스트에 10개의 항목이 포함되는 경우에, 미래 이미지(2341)는 서로 다른 10개의 항목에 따른 아바타 기반의 이미지를 생성하고, 디스플레이 할 수 있다. 예를 들어, 상술한 서로 다른 10개의 항목에 따른 아바타 기반의 이미지를 생성하여 디스플레이 할 경우에, 디바이스(2341)는 미래 이미지(2341)가 디스플레이 되고 있는 영역을 분할하여 동시에 디스플레이 하거나 10 페이지로 나누어 디스플레이 할 수 있으나 본 개시는 이로 제한되지 않는다. Also, the device 100 may generate and display the future image 2341 based on the user's bucket list or wish list included in the user information. For example, when 10 items are included in the bucket list, the future image 2341 may generate and display an avatar-based image according to 10 different items. For example, when generating and displaying an avatar-based image according to the above-described 10 different items, the device 2341 divides the area in which the future image 2341 is displayed and displays it simultaneously or divides it into 10 pages. display, but the present disclosure is not limited thereto.

도 23c는 일부 실시 예에 따른 디바이스(100)가 과거의 사용자 정보에 따른 아바타 기반 이미지(2342, 이하 과거 이미지라고 약함), 현재 이미지(2340), 및 미래 이미지(2341)를 동시에 디스플레이 하는 예이다. 23C is an example in which the device 100 simultaneously displays an avatar-based image 2342 (hereinafter abbreviated as past image), a current image 2340, and a future image 2341 according to past user information according to some embodiments. .

도 23c를 참조하면, 디바이스(100)는 서로 다른 헤어 스타일을 갖는 과거 이미지(2342), 현재 이미지(2340), 및 미래 이미지(2341)를 동시에 디스플레이 한다. 이는 과거의 사용자 정보, 현재의 사용자 정보, 및 미래의 사용자 정보에 각각 포함되어 있는 사용자의 헤어 스타일 정보가 다른 것을 의미한다. Referring to FIG. 23C , the device 100 simultaneously displays a past image 2342 , a current image 2340 , and a future image 2341 having different hairstyles. This means that the user's hair style information included in the past user information, the current user information, and the future user information is different.

디바이스(100)는 도 23b에서와 같이 일단위, 몇 일단위, 주 단위, 월 단위, 또는 년 단위 사용자 정보에 기초하여 과거 이미지(2341), 현재 이미지(2340), 및 미래 이미지(2341)를 동시에 생성하고, 디스플레이 할 수 있다. 예를 들어, 디바이스(100)는 현재 시점과 현재 시점 이전의 일주일 동안의 사용자 정보에 기초하여 현재 이미지(2340)를 생성하고, 현재 시점 이후의 일주일 동안의 사용자 정보에 기초하여 미래 이미지(2341)를 생성하고, 현재 이미지(2340)를 제공하기 위해 사용된 사용자 정보를 기준으로 이전 일주일 동안의 사용자 정보에 기초하여 과거 이미지(2342)를 생성할 수 있다. The device 100 generates a past image 2341, a current image 2340, and a future image 2341 based on user information in units of units, units, weeks, months, or years as shown in FIG. 23B. It can be created and displayed at the same time. For example, the device 100 generates a current image 2340 based on the current time and user information for a week before the current time, and a future image 2341 based on user information for a week after the current time. , and based on user information used to provide the current image 2340 , a past image 2342 may be generated based on user information for the previous week.

도 23d는 일부 실시 예에 따른 디바이스(100)가 오전의 사용자 정보에 기초한 아바타 기반 이미지(2343, 이하 오전 이미지라고 약함)와 오후의 사용자 정보에 기초한 아바타 기반 이미지(2344, 이하 오후 이미지라고 약함)를 동시에 디스플레이 하는 예이다. 디바이스(100)는 오전 이미지(2343)와 오후 이미지(2344)를 일단위, 몇 일단위, 주단위, 월 단위, 또는 년 단위중 하나에 기초하여 생성할 수 있으나 본 개시에서 오전 이미지(2343)와 오후 이미지(2344)의 생성 단위는 이로 제한되지 않는다. 23D shows an avatar-based image (2343, hereinafter abbreviated as morning image) based on user information in the morning and an avatar-based image (2344, hereinafter abbreviated as afternoon image) based on user information in the afternoon of the device 100 according to some embodiments. This is an example of simultaneously displaying . The device 100 may generate the morning image 2343 and the afternoon image 2344 based on one of the units of units, units of units, units of weeks, units of months, or units of years; and the unit of generation of the afternoon image 2344 is not limited thereto.

도 23d를 참조하면, 오전 이미지(2343)는 사용자 정보에 “오전에 출근한다”는 정보가 포함되어 있는 것을 나타낸다. 오후 이미지(2344)는 사용자 정보에 “퇴근 후에 바이올린 레슨을 받는다”는 정보가 포함되어 있는 것을 나타낸다. Referring to FIG. 23D , the morning image 2343 indicates that user information includes information about “going to work in the morning”. The afternoon image 2344 indicates that user information includes information about “taking a violin lesson after work”.

도 23e는 일부 실시 예에 따른 디바이스(100)가 평일에 사용자 정보에 기초한 아바타 기반 이미지(2345, 이하 평일 이미지라고 약함)와 주말에 사용자 정보에 기초한 아바타 기반 이미지(2346, 이하 주말 이미지라고 약함)를 동시에 디스플레이 하는 예이다. 23E shows an avatar-based image based on user information on weekdays (2345, hereinafter abbreviated as weekday image) and an avatar-based image based on user information on weekends (2346, hereinafter abbreviated as weekend image) of the device 100 according to some embodiments. This is an example of simultaneously displaying .

도 23e를 참조하면, 디바이스(100)는 월요일부터 금요일까지 사용자 정보에 기초하여 평일 이미지(2345)를 생성한다. 또한, 디바이스(100)는 토요일 및 일요일에 사용자 정보에 기초하여 주말 이미지(2346)를 생성할 수 있다. 디바이스(100)는 1주 단위, 몇 주단위, 월단위, 1년 단위, 또는 몇 년 단위중 하나에 기초하여 평일 이미지(2345)와 주말 이미지(2346)를 생성할 수 있으나 본 개시에서 평일 이미지(2345)와 주말 이미지(2346)의 제공 단위는 상술한 바로 제한되지 않는다. Referring to FIG. 23E , the device 100 generates a weekday image 2345 based on user information from Monday to Friday. Also, the device 100 may generate a weekend image 2346 on Saturday and Sunday based on user information. The device 100 may generate the weekday image 2345 and the weekend image 2346 based on one of a week, a few weeks, a monthly, a year, or a few years, but in the present disclosure, a weekday image The units of provision of 2345 and the weekend image 2346 are not limited as described above.

평일 이미지(2345)는 사용자 정보에 ”월요일부터 금요일까지 출근한다”는 정보가 포함되어 있는 것을 나타낸다. 주말 이미지(2346)는 사용자 정보에 “주말에는 조깅한다”는 정보가 포함되어 있는 것을 나타낸다. 본 개시에서 디바이스(100)에 디스플레이 되는 평일 이미지(2345)와 주말 이미지(2346)는 도 23d에 도시된 바로 제한되지 않는다. The weekday image 2345 indicates that user information includes information about “going to work from Monday to Friday”. The weekend image 2346 indicates that user information includes information about “jogging on the weekend”. In the present disclosure, the weekday image 2345 and the weekend image 2346 displayed on the device 100 are not limited to those shown in FIG. 23D .

도 23f는 일부 실시 예에 따른 디바이스(100)가 봄에 사용자 정보에 기초한 아바타 기반 이미지(2347, 이하 봄 이미지라고 약함), 여름에 사용자 정보에 기초한 아바타 기반 이미지(2348, 이하 여름 이미지라고 약함), 가을에 사용자 정보에 기초한 아바타 기반 이미지(2349, 이하 가을 이미지라고 약함), 및 겨울에 사용자 정보에 기초한 아바타 기반 이미지(2350)를 동시에 디스플레이 하는 예이다. 23F illustrates an avatar-based image based on user information in spring (2347, hereinafter abbreviated as spring image) and an avatar-based image based on user information in summer (2348, hereinafter abbreviated as summer image) of the device 100 according to some embodiments. , an avatar-based image 2349 based on user information in autumn (hereinafter abbreviated as autumn image), and an avatar-based image 2350 based on user information in winter are simultaneously displayed.

디바이스(100)는, 예를 들어, 3월부터 5월까지 사용자 정보에 기초하여 봄 이미지(2347)를 생성할 수 있다. 디바이스(100)는, 예를 들어, 6월부터 8월까지 사용자 정보에 기초하여 여름 이미지(2348)를 생성할 수 있다. 디바이스(100)는, 예를 들어, 9월부터 11월까지 사용자 정보에 기초하여 가을 이미지(2349)를 생성할 수 있다. 디바이스(100)는 12월부터 2월까지 사용자 정보에 기초하여 겨울 이미지(2350)를 생성할 수 있다. The device 100 may generate, for example, a spring image 2347 based on user information from March to May. The device 100 may generate, for example, a summer image 2348 based on user information from June to August. The device 100 may generate, for example, an autumn image 2349 based on user information from September to November. The device 100 may generate a winter image 2350 based on user information from December to February.

봄 이미지(2347)와 가을 이미지(2349)는 사용자 정보에 “자전거로 출근한다”는 정보가 포함되어 있는 것을 나타낸다. 여름 이미지(2348)와 겨울 이미지(2350)는 사용자 정보에 “자동자로 출근한다”는 정보가 포함되어 있는 것을 나타낸다. 디바이스(100)는 사용자 정보에 따라 서로 다른 봄 이미지(2347), 여름 이미지(2348), 가을 이미지(2349), 및 겨울 이미지(2350)를 생성하고, 디스플레이 할 수 있다. A spring image 2347 and an autumn image 2349 indicate that user information includes information about “commuting to work by bicycle”. A summer image 2348 and a winter image 2350 indicate that user information includes information about “automatically going to work”. The device 100 may generate and display different spring images 2347 , summer images 2348 , autumn images 2349 , and winter images 2350 according to user information.

디바이스(100)는 봄 이미지(2347), 여름 이미지(2348), 가을 이미지(2349), 및 겨울 이미지(2350)를 월별 이미지 또는 몇 개월 단위 이미지로 생성하고, 디스플레이 할 수 있다. The device 100 may generate and display a spring image 2347 , a summer image 2348 , an autumn image 2349 , and a winter image 2350 as monthly images or monthly images.

디바이스(100)는 사용자 정보에 따라 도 23a 내지 도 23f에 도시된 이미지들(2310, 2340, 2341, 2342, 2343, 2344, 2345, 2346)에 더 다양한 오브젝트를 포함시켜 생성하고, 디스플레이 할 수 있다. The device 100 includes more various objects in the images 2310, 2340, 2341, 2342, 2343, 2344, 2345, 2346 shown in FIGS. 23A to 23F according to user information, and can be generated and displayed. .

상술한 일부 실시 예들에서 언급되고 있는 디바이스(100)가 아바타 기반 이미지를 생성하고, 디스플레이 하는 것은 디바이스(100)가 아바타 기반 이미지를 제공하는 것을 말한다. Generating and displaying the avatar-based image by the device 100 mentioned in some embodiments described above means that the device 100 provides the avatar-based image.

이하 설명의 편의를 위해, 디바이스(100)에 디스플레이 되고 있는 아바타 기반 이미지를 도 23a에 도시된 이미지(2310)로 언급한다. 그러나, 본 개시에서 아바타 기반 이미지는 이로 제한되지 않는다. 예를 들어, 디바이스(100)에 디스플레이 되고 있는 아바타 기반 이미지(2310)는 사용자 정보에 따라 도 23b 내지 도 23f에 도시된 아바타 기반 이미지들(2340, 2341, 2342, 2343, 2344, 2345, 2346)중 하나가 될 수 있다. 또한, 디바이스(100)에 디스플레이 되고 있는 아바타 기반 이미지(2310)는 사용자 정보에 따라 도 23a 내지 도 23f에 도시된 아바타 기반 이미지들(2340, 2341, 2342, 2343, 2344, 2345, 2346)중 하나에 적어도 하나의 오브젝트가 추가된 이미지가 될 수 있다. Hereinafter, for convenience of description, the avatar-based image displayed on the device 100 will be referred to as the image 2310 illustrated in FIG. 23A . However, in the present disclosure, the avatar-based image is not limited thereto. For example, the avatar-based image 2310 being displayed on the device 100 may include the avatar-based images 2340, 2341, 2342, 2343, 2344, 2345, and 2346 shown in FIGS. 23B to 23F according to user information. can be one of In addition, the avatar-based image 2310 displayed on the device 100 is one of the avatar-based images 2340, 2341, 2342, 2343, 2344, 2345, and 2346 shown in FIGS. 23A to 23F according to user information. It may be an image to which at least one object is added.

디바이스(100)는 정적인 이미지 및 동적인 이미지중 적어도 하나의 이미지로 아바타 기반 이미지(2310)를 표현할 수 있다. 예를 들어, 디바이스(100)는 동적인 이미지로 아바타 기반 이미지(2310)를 표현한 후, 제 1 시간이 경과하면, 정적인 이미지로 아바타 기반 이미지(2310)를 표현할 수 있다. 디바이스(100)는 정적인 이미지로 아바타 기반 이미지(2310)를 표현한 후, 제 2 시간이 경과하면, 동적인 이미지로 아바타 기반 이미지(2310)를 표현할 수 있다. 제 1 시간과 제 2 시간은 사전에 설정될 수 있다. 제 1 시간과 제 2 시간은 동일한 시간일 수 있으나 서로 다른 시간일 수 있다. The device 100 may express the avatar-based image 2310 as at least one of a static image and a dynamic image. For example, the device 100 may represent the avatar-based image 2310 as a static image when a first time elapses after expressing the avatar-based image 2310 as a dynamic image. After a second time elapses after expressing the avatar-based image 2310 as a static image, the device 100 may express the avatar-based image 2310 as a dynamic image. The first time and the second time may be set in advance. The first time and the second time may be the same time, but may be different times.

도 23a를 참조하면, 사용자 정보(2300)는 사용자의 취미에 관한 정보(2301), 사용자의 이름(2302), 및 사용자의 성별에 관한 정보(2303)를 포함한다. 본 개시에서 사용자 정보(2300)는 도 23a에 도시된 바로 제한되지 않는다. Referring to FIG. 23A , the user information 2300 includes information 2301 about the user's hobbies, the user's name 2302 , and information 2303 about the user's gender. In the present disclosure, the user information 2300 is not limited to that shown in FIG. 23A .

예를 들어, 사용자 정보(2300)는 명세서 서두에서 언급된 사용자 정보중 적어도 하나를 더 포함할 수 있다. 사용자 정보(2300)는 도 23a에 도시된 것보다 더 적은 정보를 포함할 수 있다. 예를 들어, 사용자 정보(2300)는 사용자의 취미에 관한 정보(2301) 및 사용자의 이름(2302)으로 구성될 수 있다. For example, the user information 2300 may further include at least one of the user information mentioned in the introduction of the specification. User information 2300 may include less information than shown in FIG. 23A . For example, the user information 2300 may include information 2301 about the user's hobbies and the user's name 2302 .

아바타 기반 이미지(2310)를 생성하기 위하여, 디바이스(100)는 사용자 정보(2300)에 관한 사용자 모델링 정보(2400)를 생성할 수 있다. 사용자 모델링 정보(2400)는 사용자 모델링 정보 테이블이라 말할 수 있다. In order to generate the avatar-based image 2310 , the device 100 may generate user modeling information 2400 regarding the user information 2300 . The user modeling information 2400 may be referred to as a user modeling information table.

디바이스(100)는 온톨로지(ontology) 기반으로 사용자 정보(2300)에 대한 사용자 모델링 정보(2400)를 생성할 수 있다. 사용자 정보(2300)에 대한 사용자 모델링 정보(2400)를 생성하는 방식은 온톨리지 기반으로 제한되지 않는다. The device 100 may generate the user modeling information 2400 for the user information 2300 based on an ontology. A method of generating the user modeling information 2400 for the user information 2300 is not limited to an ontology basis.

도 24a는 사용자 정보(2300)에 대한 사용자 모델링 정보(2400)의 예로서 온톨리지 기반이다. 온톨로지는 상술한 도 3에서 설명한 바와 같다. 24A is an ontology-based example of user modeling information 2400 for user information 2300 . The ontology is as described above with reference to FIG. 3 .

도 24a를 참조하면, 사용자 모델링 정보(2400)는 서브젝트(subject) 필드(2401), 프레디킷(predicate) 필드(2402), 및 오브젝트(object) 필드(2403)를 포함한다. Referring to FIG. 24A , user modeling information 2400 includes a subject field 2401 , a predicate field 2402 , and an object field 2403 .

도 24a에 도시된 서브젝트 필드(2401)는 사용자 정보(2300)의 대상에 관한 필드이다. 도 24a를 참조하면, 사용자 정보(2300)의 대상은 사용자 1(user_1)이다. 도 24a는 클래스(class)(2404)와 리소스(resource)(2405)를 이용하여 사용자 1(user_1)이 사람(person)임을 나타내고 있다. 리소스(2405)는 클래스(2404)를 인스턴스(instance)화 한 것이다. The subject field 2401 shown in FIG. 24A is a field related to the object of the user information 2300 . Referring to FIG. 24A , the target of user information 2300 is user 1 (user_1). 24A shows that user 1 (user_1) is a person using a class 2404 and a resource 2405 . The resource 2405 is an instance of the class 2404 .

도 24a에 도시된 프레디킷 필드(2402)는 서브젝트 필드(2401)와 오브젝트 필드(2403)에 포함된 단어간의 관계를 나타내는 정형 어휘를 나타내는 필드이다. 따라서 도 24a에 도시된 프레디킷 필드(2402)는 이름에 관한 정형 어휘(Name), 성별에 관한 정형 어휘(Gender), 및 취미에 관한 정형 어휘(hasHobby)를 포함한다. The predicate field 2402 shown in FIG. 24A is a field indicating a formal vocabulary indicating a relationship between words included in the subject field 2401 and the object field 2403 . Accordingly, the predicate kit field 2402 shown in FIG. 24A includes a formal vocabulary about a name (Name), a formal vocabulary about a gender (Gender), and a formal vocabulary about a hobby (hasHobby).

이름에 관한 정형 어휘(Name)에 의해 오브젝트 필드(2403)에 포함되어 있는 “A”를 “사용자 1”의 이름으로 표현할 수 있다. 성별에 관한 정형 어휘(Gender)에 의해 오브젝트 필드(2403)에 있는 “여성”을 “사용자 1”의 성별로 표현할 수 있다. 취미에 관한 정형 어휘(hasHobby)에 의해 오브젝트 필드(2403)에 있는 “바이롤린”을 “사용자 1”의 취미로 표현할 수 있다. 도 24a에 도시된 오브젝트 필드(2403)에 포함된 정보는 프레디킷 필드(2402)에 포함된 정형 어휘에 대응되는 사용자 1의 사용자 정보이다. “A” included in the object field 2403 can be expressed as the name of “user 1” by the formal vocabulary (Name) regarding the name. "Female" in the object field 2403 can be expressed as the gender of "user 1" by the gender-related formal vocabulary (Gender). "Viroline" in the object field 2403 can be expressed as the hobby of "User 1" by the standard vocabulary about hobby (hasHobby). The information included in the object field 2403 shown in FIG. 24A is user information of user 1 corresponding to the formal vocabulary included in the predicate field 2402 .

도 24a의 사용자 모델링 정보(2400)는 RDF(Resource Description Framework) 언어로 생성한 예이다. 그러나 디바이스(100)는 OWL(Ontogogy Web Language), 및 SWRL(Semantic Web Rule Language) 등과 같은 언어로 사용자 정보(2300)에 대한 온톨리지 기반의 사용자 모델링 정보를 생성할 수 있다. The user modeling information 2400 of FIG. 24A is an example generated in a Resource Description Framework (RDF) language. However, the device 100 may generate ontology-based user modeling information for the user information 2300 in languages such as Ontogogy Web Language (OWL) and Semantic Web Rule Language (SWRL).

도 24b는 일부 실시 예에 따른 디바이스(100)에 디스플레이 될 수 있는 아바타 기반 이미지(2310)에 포함되는 오브젝트의 디스플레이 사이즈에 관한 예이다. 도 24b는 도 24a에 도시된 사용자 모델링 정보(2400)에 포함된 바이올린에 대한 예이다. 24B is an example of a display size of an object included in an avatar-based image 2310 that may be displayed on the device 100 according to some embodiments. 24B is an example of a violin included in the user modeling information 2400 shown in FIG. 24A .

도 24b를 참조하면, 디바이스(100)는 오브젝트에 부여된 가중치(possible weight value)에 따라 오브젝트의 디스플레이 사이즈를 결정할 수 있다. 도 24b에 도시된 바와 같이, 디바이스(100)는 오브젝트 필드(2403)에 포함된 바이올린에 부여된 가중치에 따라 아바타 기반 이미지(2310)에 포함될 바이올린의 디스플레이 사이즈를 결정할 수 있다. 가중치는 사용자 정보에 따라 결정될 수 있다. 가중치에 따른 디스플레이 사이즈는 사전에 설정될 수 있다. Referring to FIG. 24B , the device 100 may determine the display size of the object according to a possible weight value assigned to the object. 24B , the device 100 may determine the display size of the violin to be included in the avatar-based image 2310 according to the weight given to the violin included in the object field 2403 . The weight may be determined according to user information. The display size according to the weight may be set in advance.

도 24b를 참조하면, 가중치 범위는 0 ~ 1이다. 가중치가 0.3인 경우는 가중치가 1인 경우보다 바이올린에 대한 사용자의 관심도가 떨어지는 것을 나타낸다. 예를 들어, 디바이스(100)의 사용자 정보에 기초하여 사용자의 취미는 바이올린이고, 격일로 바이올린을 1시간씩 연주하는 것으로 판단되면, 디바이스(100)는 바이올린에 대한 가중치를 0.5로 할당할 수 있다. 또한, 디바이스(100)의 사용자 정보에 기초하여 사용자의 취미는 바이올린이고, 매일 1시간씩 연주하는 것으로 판단되면, 디바이스(100)는 바이올린에 대한 가중치를 1로 할당할 수 있다. Referring to FIG. 24B , the weight range is 0 to 1. When the weight is 0.3, the user's interest in the violin is lower than when the weight is 1. For example, if it is determined based on the user information of the device 100 that the user's hobby is the violin, and it is determined that the violin is played for 1 hour every other day, the device 100 may assign a weight of 0.5 to the violin. . In addition, if it is determined that the user's hobby is the violin based on the user information of the device 100 and it is determined that the user plays the violin for 1 hour every day, the device 100 may assign a weight to the violin as 1.

바이올린에 대한 가중치가 0.5인 경우에, 디바이스(100)는 바이올린의 디스플레이 사이즈를 (50×50) 픽셀로 결정한다. 이에 따라 디바이스(100)는 (50×50) 픽셀의 바이올린 이미지를 포함하는 아바타 기반 이미지(2310)를 생성할 수 있다. When the weight for the violin is 0.5, the device 100 determines the display size of the violin to be (50×50) pixels. Accordingly, the device 100 may generate an avatar-based image 2310 including a violin image of (50×50) pixels.

또한, 바이올린에 대한 가중치가 1인 경우에, 디바이스(100)는 바이올린의 디스플레이 사이즈를 (100×100) 픽셀로 결정한다. 이에 따라 디바이스(100)는 (100×100) 픽셀의 바이올린 이미지를 포함하는 아바타 기반 이미지(2310)를 생성할 수 있다. Also, when the weight of the violin is 1, the device 100 determines the display size of the violin as (100×100) pixels. Accordingly, the device 100 may generate an avatar-based image 2310 including a violin image of (100×100) pixels.

도 24c는 일부 실시 예에 따른 아바타 기반 이미지(2310)에 포함되는 오브젝트의 디스플레이 사이즈를 설명하는 도면이다. 도 24c는 도 24a에 도시된 사용자 모델링 정보(2400)에 포함된 여자에 대한 예이다. 24C is a diagram for describing a display size of an object included in an avatar-based image 2310 according to some embodiments. 24C is an example of a woman included in the user modeling information 2400 shown in FIG. 24A .

도 24c를 참조하면, 디바이스(100)는 체중(weight)과 키(height)에 따라 아바타 기반 이미지(2310)에 포함될 아바타(2311)의 디스플레이 사이즈를 결정할 수 있다. 체중과 키는 사용자 모델링 정보(2400)의 오브젝트 필드(2403)에 포함된 여자의 체중과 키이다. 여자의 체중 및 키는 사용자 정보에 포함된 정보이다. 디바이스(100)는 사전에 설정된 복수의 디스플레이 사이즈중 하나를 선택할 수 있다. Referring to FIG. 24C , the device 100 may determine the display size of the avatar 2311 to be included in the avatar-based image 2310 according to weight and height. The weight and height are the weight and height of a woman included in the object field 2403 of the user modeling information 2400 . The woman's weight and height are information included in the user information. The device 100 may select one of a plurality of preset display sizes.

도 24c를 참조하면, 디바이스(100)는 체중에 대한 기준치를 50kg으로 하고, 키에 대한 기준치를 170cm로 하고 있다. 그러나, 본 개시에서 기준치들은 상술한 바로 제한되지 않는다. 사용자 정보에 포함되는 사용자의 체중이 “(키-100)×0.9+5 > 체중”조건을 만족하면, 디바이스(100)는 아바타 기반 이미지(2310)에 포함되는 여자 아바타(2311)를 비만 이미지로 디스플레이 할 수 있다. Referring to FIG. 24C , the device 100 sets the reference value for the weight as 50 kg and the reference value for the height as 170 cm. However, the reference values in the present disclosure are not limited to the above. If the weight of the user included in the user information satisfies the condition of “(height-100)×0.9+5 > weight”, the device 100 sets the female avatar 2311 included in the avatar-based image 2310 as an obese image. can be displayed.

또한, 사용자의 체중이 “(키-100)×0.9 < 체중”조건을 만족하면, 디바이스(100)는 아바타 기반 이미지(2310)에 포함된 여자 아바타(2311)를 마른 이미지로 디스플레이 할 수 있다. 사용자의 체중이 “기타” 조건을 만족하면, 디바이스(100)는 아바타 기반 이미지(2310)에 포함되는 여자 아바타(2311)를 보통 이미지로 디스플레이 할 수 있다. Also, if the user's weight satisfies the condition of “(height-100)×0.9 < weight”, the device 100 may display the female avatar 2311 included in the avatar-based image 2310 as a skinny image. If the user's weight satisfies the "other" condition, the device 100 may display the female avatar 2311 included in the avatar-based image 2310 as a normal image.

도 25는 일부 실시 예에 따른 오브젝트 이미지와 오브젝트 식별 정보간 매핑 정보(2500)의 예를 도시한다. 도 25를 참조하면, 디바이스(100)는 매핑 정보(2500)와 도 24에 도시된 사용자 모델링 정보(2400)를 이용하여 아바타 기반 이미지(2310)를 생성할 수 있다. 도 25에 도시된 오브젝트 이미지는 도 24b 및 도 24c에서 언급된 바와 같이 사용자 정보에 포함되는 정보에 기초하여 디스플레이 사이즈가 조정되거나 변경될 수 있다. 25 illustrates an example of mapping information 2500 between an object image and object identification information according to some embodiments. Referring to FIG. 25 , the device 100 may generate an avatar-based image 2310 using mapping information 2500 and user modeling information 2400 illustrated in FIG. 24 . As described with reference to FIGS. 24B and 24C , the display size of the object image shown in FIG. 25 may be adjusted or changed based on information included in user information.

매핑 정보(2500)는 본 개시의 서두에서 언급된 사용자 정보들 모두 또는 일부를 고려하여 구성될 수 있다. 매핑 정보(2500)는 매핑 정보 테이블이라고 말할 수 있다. The mapping information 2500 may be configured in consideration of all or some of the user information mentioned in the introduction of the present disclosure. The mapping information 2500 may be referred to as a mapping information table.

본 개시에서 매핑 정보(2500)는 도 25에 도시된 바와 다르게 설정될 수 있다. 예를 들어, 매핑 정보(2500)는 도 25에 도시된 바와 같이 정지영상의 오브젝트 이미지를 제공하도록 구성될 수 있으나 동영상의 오브젝트 이미지를 제공하도록 구성될 수 있다. 매핑 정보는 디바이스(100)에 저장될 수 있으나 외부 디바이스(2120)에 저장될 수 있다. In the present disclosure, the mapping information 2500 may be set differently from that shown in FIG. 25 . For example, the mapping information 2500 may be configured to provide an object image of a still image as shown in FIG. 25 , but may be configured to provide an object image of a moving image. The mapping information may be stored in the device 100 or may be stored in the external device 2120 .

바이올린이나 기타에 대응되는 이미지는 바이올린을 연주하는 표준 이미지나 기타를 연주하는 표준 이미지를 포함할 수 있다. 표준 이미지 역시 정지 영상 형태 또는 동영상 형태로 제공될 수 있다. 표준 이미지는 악기와 악기를 연주하는 아바타 이미지를 포함할 수 있다. The image corresponding to the violin or guitar may include a standard image playing a violin or a standard image playing a guitar. The standard image may also be provided in the form of a still image or a form of a moving picture. The standard image may include a musical instrument and an avatar image playing a musical instrument.

매핑 정보(2500)에 표준 이미지가 저장된 경우에, 디바이스(100)는 악기를 연주하는 아바타를 사용자의 아바타로 변경할 수 있다. 디바이스(100)는 악기를 연주하는 아바타를 디스플레이 하는데 필요한 특징점에 관한 위치 정보와 사용자의 아바타를 디스플레이 하는데 필요한 특징점에 관한 위치 정보를 매핑시켜 악기를 연주하는 아바타를 사용자의 아바타로 변경할 수 있다. 특징점에 관한 위치 정보는 아바타가 2차원 이미지인 경우에, (x,y) 좌표 값으로 표현될 수 있다. 특징점에 관한 위치 정보는 아바타가 3차원 이미지인 경우에, (x, y, z) 좌표 값으로 표현될 수 있다. When the standard image is stored in the mapping information 2500 , the device 100 may change the avatar playing the musical instrument to the user's avatar. The device 100 may change the avatar playing the musical instrument into the user's avatar by mapping the location information on the feature point required to display the avatar playing the instrument and the location information on the feature point needed to display the user's avatar. The location information about the feature point may be expressed as (x,y) coordinate values when the avatar is a two-dimensional image. The location information on the feature point may be expressed as (x, y, z) coordinate values when the avatar is a 3D image.

도 26은 일부 실시 예에 따른 사용자 모델링 정보(2400)와 매핑 정보(2500)를 이용하여 아바타 기반 이미지(2310)를 생성하는 과정을 설명하는 도면이다. 26 is a diagram for explaining a process of generating an avatar-based image 2310 using user modeling information 2400 and mapping information 2500 according to some embodiments.

도 26을 참조하면, 디바이스(100)는 사용자 정보(2300)의 오브젝트 필드(2303)에 포함된 정보(A, 여자(Woman), 바이올린(Violin)을 검출한다. 디바이스(100)는 검출된 정보에 할당된 오브젝트 식별 정보(예를 들어, 여자의 경우에 “0000 0010”, 바이올린의 경우에 “0000 0011”)를 이용하여 매핑 정보(2500)로부터 대응되는 오브젝트 이미지들(2610, 2620)을 각각 검출한다. 디바이스(100)는 검출된 오브젝트 이미지들(2610, 2620)을 결합한다. 26 , the device 100 detects information A, a woman, and a violin included in the object field 2303 of the user information 2300. The device 100 detects the detected information Each of the corresponding object images 2610 and 2620 from the mapping information 2500 using the object identification information (eg, “0000 0010” for a woman and “0000 0011” for a violin) assigned to The device 100 combines the detected object images 2610 and 2620 .

오브젝트 이미지들(2610, 2620)을 결합할 때, 디바이스(100)는 각 오브젝트 이미지들(2610, 2620)을 렌더링하기 위해 사용되는 좌표 값(2차원 좌표 값 또는 3차원 좌표 값)과 사전에 설정된 결합 조건 정보를 이용할 수 있다. When combining the object images 2610 and 2620, the device 100 sets a coordinate value (a two-dimensional coordinate value or a three-dimensional coordinate value) used to render each of the object images 2610 and 2620 and a preset value. The binding condition information is available.

각 오브젝트 이미지별 좌표 값은 매핑 정보(2500)에 포함된 오브젝트 식별 정보를 이용하여 검출될 수 있는 테이블로 구성될 수 있다. 예를 들어, 디바이스(100)는 “0000 0010”를 이용하여 좌표 값 테이블로부터 오브젝트 이미지(2610)를 렌더링할 때 사용되는 좌표 값을 검출할 수 있다. 좌표 값 테이블은 각 오브젝트 이미지를 디스플레이 하기 위해 필요한 특징점의 위치 정보를 포함할 수 있다. 좌표 값 테이블은 디바이스(100) 또는/및 외부 디바이스(2120)에 저장될 수 있다. Coordinate values for each object image may be configured as a table that can be detected using object identification information included in the mapping information 2500 . For example, the device 100 may detect a coordinate value used when rendering the object image 2610 from the coordinate value table by using “0000 0010”. The coordinate value table may include position information of a feature point required to display each object image. The coordinate value table may be stored in the device 100 and/or the external device 2120 .

좌표 값 테이블은 오브젝트 이미지의 골격 데이터 테이블일 수 있다. 예를 들어, 오브젝트 이미지가 이미지(2610)와 같이 아바타인 경우에, 골격 데이터 테이블은 아바타의 윤곽을 나타낸다. 예를 들어, 아바타의 골격 데이터는 얼굴, 머리, 목, 어깨, 가슴, 허리, 엉덩이, 팔의 길이, 팔의 두께, 다리의 길이, 다리의 두께, 오른손, 및/또는 왼손 등에 관한 정보를 포함할 수 있으나 본 개시는 이로 제한되지 않는다. The coordinate value table may be a skeleton data table of an object image. For example, when the object image is an avatar like the image 2610 , the skeleton data table indicates the outline of the avatar. For example, the avatar's skeletal data may include information about face, head, neck, shoulders, chest, waist, hips, arm length, arm thickness, leg length, leg thickness, right hand, and/or left hand, etc. However, the present disclosure is not limited thereto.

예를 들어, 오브젝트 이미지가 이미지(2620)와 같이 바이올린인 경우에, 골격 데이터 테이블은 바이올린의 윤곽을 나타낸다. 예를 들어, 바이롤린의 골격 데이터는 스크롤(Scroll), 줄감개, 줄감개집, 너트, 넥(neck), 지판, 현, 울림판, 퍼플링, 옆판, 허리, 브지지, 1자 구멍, 줄걸이판, 턱받침, 및/또는 버튼 등에 관한 정보를 포함할 수 있으나 이로 제한되지 않는다. For example, if the object image is a violin, such as image 2620, the skeleton data table indicates the outline of the violin. For example, the skeletal data of Viroline includes scroll, bobbin, bobbin, nut, neck, fingerboard, string, soundboard, purple, side plate, waist, braid, figure 1 hole, and string. It may include, but is not limited to, information about a pedestal, chinrest, and/or buttons, and the like.

결합 조건 정보는 오브젝트 이미지간에 결합될 위치 정보를 포함할 수 있다. 결합 조건 정보는 결합될 오브젝트 이미지들의 식별 정보를 이용하여 검출될 수 있는 테이블로 구성될 수 있다. 예를 들어, 도 26과 같이 오브젝트 이미지들(2610, 2620)을 결합할 경우에, 디바이스(100)는 오브젝트 이미지들(2610, 2620)의 식별 정보인 “0000 0010”, “0000, 0011”를 이용하여 결합 조건 정보 테이블로부터 이미지들(2610, 2620)간의 결합 조건 정보를 검출할 수 있다. The combining condition information may include position information to be combined between object images. The combining condition information may be configured as a table that can be detected using identification information of object images to be combined. For example, when combining the object images 2610 and 2620 as shown in FIG. 26 , the device 100 receives “0000 0010”, “0000, 0011”, which are identification information of the object images 2610 and 2620 , By using this, coupling condition information between the images 2610 and 2620 may be detected from the coupling condition information table.

결합 조건 정보가, 예를 들어, 오브젝트 이미지(2610)의 오른손에 바이올린 활을 들고, 왼 손에 바이올린의 넥을 든다”를 나타내는 위치 정보를 포함할 경우에, 디바이스(100)는 오브젝트 이미지(2610)와 오브젝트 이미지(2620)를 이미지(2630)와 같이 결합하여 제공할 수 있다. 위치 정보는 각 오브젝트를 디스플레이 하기 위해 필요한 특징점의 위치 정보를 나타낸다. 결합 조건 정보 테이블은 디바이스(100) 및/또는 외부 디바이스(2120)에 사전에 저장될 수 있다. When the coupling condition information includes position information indicating, for example, holding a violin bow in the right hand of the object image 2610 and holding the neck of the violin in the left hand of the object image 2610 , the device 100 may display the object image 2610 ) and the object image 2620 may be combined and provided as in the image 2630 . The location information indicates location information of a feature point required to display each object. The coupling condition information table may be stored in advance in the device 100 and/or the external device 2120 .

아바타 기반 이미지(2310)를 생성하기 위하여, 결합 조건 정보는 “오른손에 바이올린 활을 들고, 턱에 바이올린의 턱받침을 대고, 왼손은 바이올린의 넥을 쥔다”를 나타내는 위치 정보를 포함할 수 있다. 바이올린 이미지(2620)가 바이올린을 연주하는 표준 이미지인 경우에, 디바이스(100)는 바이올린을 연주하는 연주자를 렌더링하는데 이용되는 좌표 값(또는 특징점의 위치 정보)을 오브젝트 이미지(2610)의 좌표 값으로 변경할 수 있다. In order to generate the avatar-based image 2310 , the binding condition information may include location information indicating “hold a violin bow in your right hand, put a violin chin rest on your chin, and your left hand grips a violin neck”. When the violin image 2620 is a standard image playing the violin, the device 100 converts the coordinate value (or location information of the feature point) used to render the violin player to the coordinate value of the object image 2610 . can be changed

단계 S2202에서, 디바이스(100)는 사용자 입력에 따라 아바타 기반 이미지(2310)를 수정한다. 사용자 입력은 아바타 기반 이미지(2310)에 대한 수정 요청을 나타내는 사용자 입력, 오브젝트 선택을 나타내는 사용자 입력, 또는 수정 완료를 나타내는 사용자 입력을 포함할 수 있으나 본 개시에서 사용자 입력은 이로 제한되지 않는다. 수정 요청을 나타내는 사용자 입력은 편집 요청을 나타내는 사용자 입력을 나타낼 수 있다. 수정 완료를 나타내는 사용자 입력은 편집 완료를 나타내는 사용자 입력을 나타낼 수 있다. In step S2202 , the device 100 modifies the avatar-based image 2310 according to the user input. The user input may include a user input indicating a request for modification of the avatar-based image 2310 , a user input indicating object selection, or a user input indicating completion of modification, but the user input is not limited thereto in the present disclosure. The user input representing the edit request may represent the user input representing the edit request. The user input indicating completion of editing may indicate user input indicating completion of editing.

사용자 입력은 터치, 터치 & 드래그, 제스처, 멀티 모달, 및 음성 중 적어도 하나에 기초할 수 있다. 사용자 입력은 외부 디바이스(2120)로부터 수신될 수 있다. The user input may be based on at least one of a touch, a touch & drag, a gesture, a multi-modal, and a voice. The user input may be received from the external device 2120 .

디바이스(100)는 아바타 기반 이미지(2310)가 디스플레이 되고 있을 때, 수정 요청을 나타내는 사용자 입력이 수신되면, 수정 가능한 오브젝트를 표시할 수 있다. When a user input indicating a modification request is received while the avatar-based image 2310 is being displayed, the device 100 may display a modifiable object.

도 27a 내지 도 27f는 일부 실시 예에 따른 디바이스(100)가 수정 가능한 오브젝트를 표시하는 예들이다. 27A to 27F are examples in which the device 100 displays a modifiable object according to some embodiments.

도 27a를 참조하면, 수정 요청 버튼(2701)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 사용자의 이름(2702)과 바이올린(2703)을 하이라이트 표시한다. 이에 따라 사용자는 사용자의 이름(2702)과 바이올린(2703)이 수정 가능한 오브젝트임을 알 수 있다. Referring to FIG. 27A , when a user input indicating selection of the edit request button 2701 is received, the device 100 highlights the user's name 2702 and the violin 2703 . Accordingly, the user can know that the user's name 2702 and the violin 2703 are editable objects.

도 27b에서, 수정 요청 버튼(2705)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 사용자의 이름(2702)의 일부 영역에 이름을 나타내는 메시지(2706)를 오버랩하여 디스플레이한다. 또한, 디바이스(100)는 바이올린(2703)상의 일부 영역에 취미를 나타내는 메시지(2707)를 오버랩하여 디스플레이 한다. 취미를 나타내는 메시지(2707)는 바이올린(2703)과 관련된 정보(예를 들어, 바이올린 연주)를 포함할 수 있다. 이에 따라 사용자는 사용자의 이름(2702)과 바이올린(2703)이 수정 가능한 오브젝트 또는 사용자의 이름(2702)과 사용자의 취미(2707)가 수정 가능한 오브젝트임을 알 수 있다. In FIG. 27B , when a user input indicating selection of the correction request button 2705 is received, the device 100 overlaps and displays a message 2706 indicating the name in a partial area of the user's name 2702 . Also, the device 100 overlaps and displays a message 2707 indicating a hobby in a partial area on the violin 2703 . The message 2707 indicating the hobby may include information related to the violin 2703 (eg, playing the violin). Accordingly, the user can know that the user's name 2702 and the violin 2703 are editable objects, or the user's name 2702 and the user's hobby 2707 are editable objects.

도 27c를 참조하면, 디바이스(100)는 수정 가능한 오브젝트에 대한 아이콘들(2710, 2711)을 포함하는 트레이(2712)를 아바타 기반 이미지(2310)와 함께 디스플레이 할 수 있다. Referring to FIG. 27C , the device 100 may display a tray 2712 including icons 2710 and 2711 for editable objects together with an avatar-based image 2310 .

도 27c에서, 수정 요청 버튼(2709)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 취미에 관한 아이콘(2710)과 이름에 관한 아이콘(2711)이 포함된 트레이(2712)를 제공한다. 취미에 관한 아이콘(2710)은 바이올린(2703)에 관련된 정보를 포함할 수 있다. 이에 따라 사용자는 사용자의 이름(2702)과 바이올린(2703) 또는 사용자의 이름(2702)과 취미 아이템이 수정 가능한 오브젝트임을 알 수 있다. 트레이(2712)는 아이콘들(2710, 2711)에 관한 식별 정보(취미, 이름)를 더 포함할 수 있다. In FIG. 27C , when a user input indicating selection of a modification request button 2709 is received, the device 100 provides a tray 2712 including an icon 2710 related to a hobby and an icon 2711 related to a name. do. The hobby icon 2710 may include information related to the violin 2703 . Accordingly, the user can know that the user's name 2702 and the violin 2703 or the user's name 2702 and the hobby item are editable objects. The tray 2712 may further include identification information (hobbies, names) regarding the icons 2710 and 2711 .

도 27c를 참조하면, 디바이스(100)는 화면 하단에 트레이(2712)를 디스플레이 한다. 그러나 트레이(2712)는 화면 좌측, 우측, 상측, 또는 하측중 적어도 하나에 표시될 수 있다. 수정 가능한 오브젝트의 아이콘의 수가 트레이(2712)에 동시에 디스플레이 될 수 있는 오브젝트의 아이콘의 수보다 많으면, 디바이스(100)는 트레이(2712)에 기초한 스크롤 입력에 따라 트레이(2712)를 통해 디스플레이 되고 있는 오브젝트의 아이콘을 이동시키면서 선택 가능한 오브젝트의 아이콘들을 디스플레이 할 수 있다. 트레이(2712)에 기초한 스크롤 입력은 트레이(2712) 영역에 기초한 스크롤 입력을 포함할 수 있다. Referring to FIG. 27C , the device 100 displays a tray 2712 at the bottom of the screen. However, the tray 2712 may be displayed on at least one of the left side, the right side, the upper side, and the lower side of the screen. If the number of editable object icons is greater than the number of object icons that can be simultaneously displayed on the tray 2712 , the device 100 displays the object being displayed through the tray 2712 according to a scroll input based on the tray 2712 . It is possible to display icons of selectable objects while moving the icons of . The scroll input based on the tray 2712 may include a scroll input based on the area of the tray 2712 .

수정 가능한 오브젝트의 아이콘의 수가 트레이(2712)에 동시에 디스플레이 될 수 있는 오브젝트의 아이콘의 수보다 많으면, 디바이스(100)는 사전에 설정된 카테고리별로 나눈 복수의 트레이를 제공할 수 있다. When the number of editable object icons is greater than the number of object icons that can be simultaneously displayed on the tray 2712 , the device 100 may provide a plurality of trays divided by preset categories.

디바이스(100)가 복수의 트레이를 제공할 경우에, 디바이스(100)는 복수의 트레이를 화면의 좌측, 우측, 상측 또는 하측중 적어도 하나의 위치에 하나의 트레이를 배치하거나 복수의 트레이를 계층적인 구조로 배치할 수 있다. 카테고리는 수정 가능한 오브젝트의 종류에 따라 설정될 수 있으나 이로 제한되지 않는다. When the device 100 provides a plurality of trays, the device 100 arranges the plurality of trays in at least one position of the left, right, upper or lower side of the screen, or arranges the plurality of trays hierarchically. structure can be placed. The category may be set according to the type of editable object, but is not limited thereto.

도 27c에서 트레이(2712)에 포함된 하나의 오브젝트의 아이콘이 선택되면, 디바이스(100)는 선택된 오브젝트의 아이콘에 대응되는 오브젝트를 하이라이트 표시할 수 있다. When an icon of one object included in the tray 2712 is selected in FIG. 27C , the device 100 may highlight an object corresponding to the icon of the selected object.

도 27d는 일부 실시 예에 따른 디바이스(100)가 오브젝트에 대한 터치 기반 입력에 따라 수정 가능한 오브젝트에 관한 정보를 말주머니를 통해 제공하는 예이다. 27D is an example in which the device 100 provides information about an object that can be modified according to a touch-based input to the object through a speech bag, according to some embodiments.

도 27d에서, 수정 요청 버튼(2714)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 디스플레이 되고 있는 이미지중 수정 가능한 이미지를 활성화 시킬 수 있다. In FIG. 27D , when a user input indicating selection of the edit request button 2714 is received, the device 100 may activate an editable image among displayed images.

디스플레이 되고 있는 이미지중에서 수정 가능한 오브젝트(예를 들어 바이올린(2703))에 대한 선택을 나타내는 터치 기반 입력(2715)이 수신되면, 디바이스(100)는 오브젝트(바이올린(2703))에 대한 수정한 가능한 정보(예를 들어, 취미)를 포함하는 말주머니(2716)를 디스플레이 한다. 디바이스(100)는 말주머니(2716)가 오브젝트(2703)에 관련된 것을 나타낼 수 있도록 오브젝트(2703)에 인접한 위치에 말주머니(2716)를 디스플레이 할 수 있다. 이에 따라 사용자는 바이올린(2703)이 수정 가능한 오브젝트이고, 취미에 관한 사용자 정보를 수정할 수 있는 것을 알 수 있다. When a touch-based input 2715 indicating selection of a modifiable object (eg, violin 2703) from among the displayed images is received, the device 100 displays modifiable information about the object (violin 2703). (eg, hobby) is displayed. The device 100 may display the bag 2716 at a position adjacent to the object 2703 to indicate that the bag 2716 is related to the object 2703 . Accordingly, the user can know that the violin 2703 is a modifiable object, and user information regarding hobbies can be modified.

도 27e를 참조하면, 디바이스(100)는 수정 가능한 오브젝트를 팝업 창(2721)으로 제공한다. 도 27e에서, 수정 요청 버튼(2718)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 수정 가능한 오브젝트에 관한 정보들(2719, 2720)을 포함하는 팝업 창(2721)을 디스플레이 한다. 팝업 창(2721)은 하나의 오브젝트에 관한 정보를 포함할 수 있다. Referring to FIG. 27E , the device 100 provides a modifiable object as a pop-up window 2721 . In FIG. 27E , when a user input indicating selection of a correction request button 2718 is received, the device 100 displays a pop-up window 2721 including information 2719 and 2720 about a modifiable object. The pop-up window 2721 may include information about one object.

이에 따라 사용자는 수정 가능한 오브젝트에 관한 정보들(2719, 2720)을 알 수 있다. 팝업 창(2721)에 포함된 하나의 오브젝트에 관한 정보가 선택되면, 디바이스(100)는 선택된 오브젝트에 관한 정보에 대응되는 오브젝트를 하이라이트 표시할 수 있다. Accordingly, the user can know the information 2719 and 2720 about the modifiable object. When information on one object included in the pop-up window 2721 is selected, the device 100 may highlight and display an object corresponding to the information on the selected object.

도 27f를 참조하면, 디바이스(100)는 독립된 페이지를 이용하여 수정 가능한 오브젝트를 표시할 수 있다. 도 27f에서, 수정 요청 버튼(2723)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 수정 가능한 오브젝트에 관한 정보들(2724, 2725)을 포함하는 페이지(2726)를 오픈한다. 이에 따라 사용자는 수정 가능한 오브젝트를 알 수 있다. 디바이스(100)는 페이지(2726)를 통해 적어도 하나의 수정 가능한 오브젝트에 관한 정보를 디스플레이 할 수 있다. Referring to FIG. 27F , the device 100 may display a modifiable object using an independent page. In FIG. 27F , when a user input indicating selection of the edit request button 2723 is received, the device 100 opens a page 2726 including information 2724 and 2725 on a modifiable object. Accordingly, the user can know the modifiable object. The device 100 may display information about at least one modifiable object through the page 2726 .

도 27e 또는 도 27f에서 수정 가능한 오브젝트가 선택되면, 디바이스(100)는 선택된 수정 가능한 오브젝트에 대응되는 오브젝트를 하이라이트 표시할 수 있다. When a modifiable object is selected in FIG. 27E or 27F , the device 100 may highlight an object corresponding to the selected modifiable object.

도 27a 내지 도 27f는 수정 요청 버튼(2701, 2705, 2709, 2714, 2718, 2723)에 대한 선택을 나타내는 사용자 입력을 수신하나 본 개시에서 수정 요청을 나타내는 사용자 입력은 상술한 바로 제한되지 않는다. 예를 들어, 디바이스(100)의 다른 버튼을 이용하거나 사용자의 제스처에 기초하여 수정 요청 입력을 나타내는 사용자 입력을 수신할 수 있다.27A to 27F receive a user input indicating selection of the correction request buttons 2701 , 2705 , 2709 , 2714 , 2718 , and 2723 , but in the present disclosure, the user input indicating a correction request is not limited as described above. For example, a user input indicating a correction request input may be received using another button of the device 100 or based on a user's gesture.

도 28은 일부 실시 예에 따른 디바이스(100)가 사용자 입력에 따라 아바타 기반 이미지(2310)를 수정하는 과정에 대한 흐름도이다. 28 is a flowchart illustrating a process in which the device 100 modifies an avatar-based image 2310 according to a user input, according to some embodiments.

도 28을 참조하면, 단계 S2801에서, 디바이스(100)는 수정 가능한 오브젝트중 하나의 오브젝트에 대한 제 1 선택신호를 수신한다. 단계 S2802에서, 디바이스(100)는 선택된 오브젝트에 대한 후보 오브젝트를 디스플레이 한다. Referring to FIG. 28 , in step S2801 , the device 100 receives a first selection signal for one object among modifiable objects. In step S2802, the device 100 displays a candidate object for the selected object.

도 29a 내지 도 29e는 일부 실시 예에 따른 디바이스(100)에 의해 제공되는 후보 오브젝트에 기초하여 오브젝트가 수정되는 예를 도시한다. 29A to 29E illustrate examples in which an object is modified based on a candidate object provided by the device 100 according to some embodiments.

도 29a의 화면(2910)에 도시된 바와 같이 디바이스(100)가 수정 가능한 오브젝트를 하이라이트 표시할 때, 화면(2920)과 같이 바이올린(2703)에 대한 선택을 나타내는 제 1 선택 신호(2715)가 수신되면, 디바이스(100)는 선택된 바이올린(2703)에 관련된 후보 오브젝트를 디스플레이 한다. As shown in the screen 2910 of FIG. 29A , when the device 100 highlights a modifiable object, a first selection signal 2715 indicating selection of the violin 2703 as shown in the screen 2920 is received. When done, the device 100 displays a candidate object related to the selected violin 2703 .

도 29a의 화면(2920)을 참조하면, 디바이스(100)는 기타 아이템(2912), 야구 아이템(2913), 및 배드민턴 아이템(2914)을 바이올린(2703)에 관련된 후보 오브젝트로서 제공하나 본 개시에서 후보 오브젝트는 이로 제한되지 않는다. Referring to the screen 2920 of FIG. 29A , the device 100 provides a guitar item 2912 , a baseball item 2913 , and a badminton item 2914 as candidate objects related to the violin 2703 , but a candidate in the present disclosure Objects are not limited to this.

도 29a의 화면(2920)을 참조하면, 디바이스(100)는 팝업 창(2921) 형태로 후보 오브젝트에 관한 정보를 디스플레이 한다. 도 29a의 화면(2920)을 참조하면, 디바이스(100)는 텍스트 형태로 후보 오브젝트에 관한 정보를 제공한다. Referring to the screen 2920 of FIG. 29A , the device 100 displays information about the candidate object in the form of a pop-up window 2921 . Referring to the screen 2920 of FIG. 29A , the device 100 provides information about the candidate object in the form of text.

그러나, 본 개시에서 후보 오브젝트에 관한 정보를 제공하는 방법은 상술한 바로 제한되지 않는다. 예를 들어, 도 29b에 도시된 화면(2930)에 도시된 바와 같이 디바이스(100)는 사각형 팝업 창(2931) 형태로 후보 오브젝트에 관한 정보를 제공할 수 있다. 사각형 팝업 창(2931)은 각 후보 오브젝트에 대응되는 이미지를 가로로 배열한다. 사각형 팝업 창(2931)에 포함되는 후보 오브젝트에 관한 정보는 심볼, 아이콘, 대표 이미지 등으로 제공될 수 있으나 본 개시에서 후보 오브젝트에 관한 정보는 상술한 바로 제한되지 않는다. However, in the present disclosure, a method of providing information about a candidate object is not limited as described above. For example, as shown in the screen 2930 shown in FIG. 29B , the device 100 may provide information about the candidate object in the form of a rectangular pop-up window 2931 . The rectangular pop-up window 2931 horizontally arranges images corresponding to each candidate object. Information on the candidate object included in the rectangular pop-up window 2931 may be provided as a symbol, an icon, a representative image, or the like, but in the present disclosure, the information on the candidate object is not limited as described above.

디바이스(100)는 도 29b의 화면(2940)에 도시된 바와 같이 링형 팝업 창(2941) 형태로 후보 오브젝트에 관한 정보를 제공할 수 있다. 링형 팝업 창(2941)은 심볼 형태 또는 텍스트 형태의 후보 오브젝트에 관한 정보를 포함할 수 있다. As shown in the screen 2940 of FIG. 29B , the device 100 may provide information about the candidate object in the form of a ring-type pop-up window 2941 . The ring-type pop-up window 2941 may include information about a candidate object in a symbol form or a text form.

후보 오브젝트의 개수가 팝업 창(2921, 2931, 2941)에 동시에 디스플레이될 수 있는 개수보다 많은 경우에, 디바이스(100)는 팝업 창(2921, 2931, 2941)에 기초한 스크롤 입력에 따라 팝업 창(2921, 2931, 2941)에 디스플레이 되고 있는 후보 오브젝트에 관한 정보를 이동시키면서 후보 오브젝트에 관한 정보를 제공할 수 있다. 디바이스(100)는 사전에 설정된 배열 순서에 따라 후보 오브젝트에 관한 정보를 이동시킬 수 있다. When the number of candidate objects is greater than the number that can be simultaneously displayed in the pop-up windows 2921, 2931, and 2941, the device 100 displays the pop-up window 2921 according to a scroll input based on the pop-up windows 2921, 2931, and 2941. , 2931 , and 2941 may provide information about the candidate object while moving the information about the candidate object displayed on the screens. The device 100 may move information about the candidate object according to a preset arrangement order.

후보 오브젝트의 개수가 팝업 창(2921, 2931, 2941)에 동시에 디스플레이될 수 있는 개수보다 많은 경우에, 디바이스(100)는 팝업 창(2921, 2931, 2941)에 기초한 입력(예를 들어, 터치 & 드래그)에 따라 팝업 창(2921, 2931, 2941)의 디스플레이 영역을 확장하여 후보 오브젝트에 관한 정보를 제공할 수 있다. When the number of candidate objects is greater than the number that can be simultaneously displayed in the pop-up windows 2921, 2931, and 2941, the device 100 performs an input (eg, touch & drag), the display area of the pop-up windows 2921 , 2931 , and 2941 may be expanded to provide information about the candidate object.

예를 들어, 도 29c에 도시된 화면(2950)에 도시된 바와 같이, 디바이스(100)는 터치 & 드래그 입력(2951)에 따라 팝업 창(2931)을 확장하여 후보 오브젝트에 관한 정보를 제공할 수 있다. 디바이스(100)는 도 29d에 도시된 화면(2960)과 같이 터치 & 드래그 입력(2951)에 따라 팝업 창(2931)과 독립된 팝업 창(2961)을 더 제공할 수 있다. For example, as shown in the screen 2950 shown in FIG. 29C , the device 100 expands the pop-up window 2931 according to the touch & drag input 2951 to provide information about the candidate object. there is. The device 100 may further provide a pop-up window 2931 and an independent pop-up window 2961 according to the touch & drag input 2951 like the screen 2960 shown in FIG. 29D .

도 28의 단계 S2803에서, 디바이스(100)는 디스플레이 되고 있는 후보 오브젝트에 관한 정보에 기초하여 제 2 선택 신호를 수신한다. 단계 S2804에서, 디바이스(100)는 제 2 선택 신호에 따라 선택된 후보 오브젝트로 선택된 오브젝트를 수정한다. In step S2803 of FIG. 28 , the device 100 receives a second selection signal based on information about the candidate object being displayed. In step S2804 , the device 100 modifies the selected object as the selected candidate object according to the second selection signal.

도 29e의 화면(2970)에서, 야구 아이템(2913)을 선택하는 제 2 선택 신호가 수신되면, 화면(2980)에 도시된 바와 같이, 디바이스(100)는 바이올린을 연주하던 아바타 기반 이미지를 왼손에 야구 글러브을 끼고 오른손으로 야구 공을 갖고 있는 아바타 기반 이미지로 변경한다. When the second selection signal for selecting the baseball item 2913 is received on the screen 2970 of FIG. 29E , as shown in the screen 2980 , the device 100 displays the avatar-based image playing the violin on the left hand. Change to the avatar-based image of wearing a baseball glove and holding a baseball in his right hand.

본 개시에서 야구를 하는 아바타 기반 이미지는 화면(2980)에 도시된 바로 제한되지 않는다. 예를 들어, 도 29f의 화면(2990)에 도시된 바와 같이, 디바이스(100)가 왼 손에 바이올린(2703)을 들고 있는 아바타 기반 이미지를 디스플레이 할 때, 야구 아이템(2913)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 왼 손에 야구 배트(2996)를 들고 있는 아바타 기반 이미지를 디스플레이 할 수 있다. 또한, 팝업 창(2911)을 통해 영화 아이템에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 왼손에 영화 CD 또는 영화 테이프를 들고 있는 아바타 기반 이비지를 디스플레이 할 수 있다. In the present disclosure, the avatar-based image playing baseball is not limited to the bar shown on the screen 2980 . For example, as shown in screen 2990 of FIG. 29F , when device 100 displays an avatar-based image holding violin 2703 in its left hand, indicating selection for baseball item 2913 , When the user input is received, the device 100 may display an avatar-based image holding the baseball bat 2996 in the left hand. In addition, when a user input indicating selection of a movie item is received through the pop-up window 2911 , the device 100 may display an avatar-based image holding a movie CD or movie tape in the left hand.

도 29e의 화면(2980) 또는 도 29f의 화면(2995)에서 수정 완료 버튼(2704)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 도 23a에 도시된 수정된 이미지(2320)를 생성하고 디스플레이 할 수 있다. 도 23a에 도시된 수정된 이미지(2320)는 기타를 연주하는 아바타 기반 이미지이다. When a user input indicating selection of the modified button 2704 is received on the screen 2980 of FIG. 29E or the screen 2995 of FIG. 29F , the device 100 displays the modified image 2320 illustrated in FIG. 23A can be created and displayed. The modified image 2320 shown in FIG. 23A is an avatar-based image playing a guitar.

도 30은 일부 실시 예에 따른 디바이스(100)가 아바타 기반 이미지(2310)에 포함된 오브젝트별로 제공 가능한 서비스 정보를 제공하는 과정에 대한 흐름도이다. 30 is a flowchart illustrating a process in which the device 100 provides service information that can be provided for each object included in the avatar-based image 2310, according to some embodiments.

도 30을 참조하면, 단계 S3001에서 디바이스(100)는 오브젝트에 대한 선택을 나타내는 제 1 선택신호를 수신한다. 단계 S3002에서, 디바이스(100)는 선택된 오브젝트에 기초한 적어도 하나의 서비스 정보를 제공한다. Referring to FIG. 30 , in step S3001 , the device 100 receives a first selection signal indicating selection of an object. In step S3002, the device 100 provides at least one piece of service information based on the selected object.

도 31a 내지 도 31d는 도 30에 도시된 사용자 정보 관리 방법에 설명하기 위한 화면의 예이다. 도 31a의 화면(3110)과 같이 아바타 기반 이미지가 디스플레이 되고 있을 때, 수정 요청 버튼(2701)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 도 31a의 화면(3120)과 같이 수정 가능한 오브젝트를 하이라이트 표시한다. 31A to 31D are examples of screens for explaining the user information management method illustrated in FIG. 30 . When an avatar-based image is being displayed as shown in the screen 3110 of FIG. 31A , when a user input indicating selection of the edit request button 2701 is received, the device 100 is modified as shown in the screen 3120 of FIG. 31A . Highlight possible objects.

도 31a의 화면(3120)에서 바이올린(2703)에 대한 제 1 선택 신호가 수신되면, 디바이스(100)는 도 31b의 화면(3130)에 도시된 바와 같이 바이올린(2703)에 기초하여 제공 가능한 서비스 정보를 팝업 창(3131)을 통해 제공한다. 팝업 창(3131)을 참조하면, 제공 가능한 서비스 정보는 연주회 예약 아이템, 커뮤니티 접속 아이템, 및/또는 전문 쇼핑몰 아이템을 포함할 수 있으나 본 개시에서 제공 가능한 서비스 정보를 상술한 바로 제한되지 않는다. When the first selection signal for the violin 2703 is received on the screen 3120 of FIG. 31A , the device 100 provides service information available based on the violin 2703 as shown on the screen 3130 of FIG. 31B . is provided through a pop-up window 3131 . Referring to the pop-up window 3131 , the available service information may include a concert reservation item, a community access item, and/or a specialized shopping mall item, but the service information available in the present disclosure is not limited as described above.

단계 S3003에서, 선택된 오브젝트(도 31b의 바이올린(2703))에 대한 선택을 나타내는 제 2 선택 신호(3132)를 수신하면, 단계 S3004에서, 디바이스(100)는 선택된 오브젝트(바이올린(2703))에 대한 적어도 하나의 후보 오브젝트에 관한 정보를 제공한다. 후보 오브젝트에 관한 정보는 도 31b의 화면(3140)에 도시된 바와 같이 팝업 창(3141)의 형태로 제공될 수 있다. In step S3003, upon receiving the second selection signal 3132 indicating selection of the selected object (violin 2703 in FIG. 31B), in step S3004, the device 100 selects the selected object (violin 2703). Provides information about at least one candidate object. Information on the candidate object may be provided in the form of a pop-up window 3141 as shown in the screen 3140 of FIG. 31B .

이에 따라 디바이스(100)는 단계 S3001에서의 제 1 선택 신호를 수정하기 원하는 오브젝트에 대한 예비 선택으로 인식하고, 단계 S3003에서의 제 2 선택 신호를 수정하기 원하는 오브젝트에 대한 완결 선택으로 인식할 수 있다. 예비 선택은 오브젝트에 대한 선택 대기 상태를 나타낸다. 완결 선택은 오브젝트에 대한 선택 완료 상태를 나타낸다. Accordingly, the device 100 may recognize the first selection signal in step S3001 as a preliminary selection for the desired object, and recognize the second selection signal in step S3003 as a final selection for the desired object. . The preliminary selection indicates a selection waiting state for an object. The final selection indicates the selection completion status for the object.

단계 S3005에서, 디바이스(100)는 후보 오브젝트에 관한 정보에 기초한 제 3 선택 신호를 수신한다. 이에 따라 단계 S3006에서, 디바이스(100)는 선택된 후보 오브젝트에 대한 적어도 하나의 서비스 정보를 제공한다. In step S3005, the device 100 receives a third selection signal based on the information on the candidate object. Accordingly, in step S3006, the device 100 provides at least one piece of service information for the selected candidate object.

도 31c를 참조하면, 화면(3150)을 통해 제공되고 있는 팝업 창(3141)에 포함된 후보 오브젝트에 관한 정보중 야구 아이템이 선택되면, 디바이스(100)는 화면(3160)에 도시된 바와 같이 야구 아이템에 기초하여 제공 가능한 서비스 정보를 말주머니(3151)를 통해 제공한다. Referring to FIG. 31C , when a baseball item is selected from information on a candidate object included in the pop-up window 3141 provided through the screen 3150 , the device 100 displays a baseball as shown on the screen 3160 . Service information that can be provided based on the item is provided through the bag 3151 .

단계 S3007에서, 디바이스(100)는 선택된 후보(야구)에 대한 제 4 선택 신호를 수신한다. 예를 들어, 도 31c의 화면(3160)에 도시된 바와 같은 더블 터치(3152)를 제 4 선택 신호로 수신할 수 있다. In step S3007 , the device 100 receives a fourth selection signal for the selected candidate (baseball). For example, a double touch 3152 as shown in the screen 3160 of FIG. 31C may be received as the fourth selection signal.

디바이스(100)는 단계 S3005에서의 후보 오브젝트에 대한 제 3 선택 신호를 후보 오브젝트에 대한 예비 선택으로 인식하고, 단계 S3007에서의 선택된 후보 오브젝트에 대한 제 4 선택 신호를 선택된 후보 오브젝트에 대한 완결 선택으로 인식할 수 있다. 예비 선택은 선택 대기 상태를 나타내고, 완결 선택은 선택 완료 상태를 나타낸다. The device 100 recognizes the third selection signal for the candidate object in step S3005 as preliminary selection for the candidate object, and converts the fourth selection signal for the candidate object selected in step S3007 to the final selection for the selected candidate object. can recognize A preliminary selection indicates a selection waiting state, and a final selection indicates a selection completion state.

단계 3008에서, 디바이스(100)는 선택된 후보 오브젝트로 선택된 오브젝트를 수정한다. 이에 따라 디바이스(100)는 도 31d의 화면(3170)에 도시된 바와 같이 야구 아이템에 기초한 아바타 기반 이미지를 디스플레이 할 수 있다. 도 31d의 화면(3170)에서 수정 완료 버튼(2704)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 이미지 수정을 완료한다. In operation 3008 , the device 100 modifies the selected object as the selected candidate object. Accordingly, the device 100 may display an avatar-based image based on a baseball item as shown on the screen 3170 of FIG. 31D . When a user input indicating selection of the edit completion button 2704 is received on the screen 3170 of FIG. 31D , the device 100 completes the image correction.

도 30에 도시된 흐름도에 따라 디바이스(100)의 사용자는 아바타 기반 이미지를 수정하기 전에 후보 오브젝트에 기초하여 제공 가능한 서비스 정보를 확인할 수 있다. According to the flowchart shown in FIG. 30 , the user of the device 100 may check service information that can be provided based on the candidate object before modifying the avatar-based image.

한편, 도 22의 단계 S2202에서 사용자 입력에 따라 아바타 기반 이미지(2310)가 수정되면, 단계 S2203에서 디바이스(100)는 수정된 아바타 기반 이미지(2320)에 기초하여 사용자 정보(2300)를 사용자 정보(2330)에 도시된 바와 같이 업데이트 한다. 사용자 정보(2330)는 사용자 취미에 관한 정보(기타 연주)(2331), 사용자 이름(2332), 및 사용자 성별에 관한 정보(여자)(2333)를 포함한다. On the other hand, when the avatar-based image 2310 is modified according to the user input in step S2202 of FIG. 22 , in step S2203 , the device 100 transmits the user information 2300 based on the modified avatar-based image 2320 to the user information ( 2330) is updated as shown. The user information 2330 includes information about a user's hobbies (guitar playing) 2331 , a user name 2332 , and information about a user's gender (female) 2333 .

사용자 정보(2300)를 사용자 정보(2330)로 업데이트함에 따라 도 24a에 도시된 사용자 모델링 정보(2400)는 도 32에 도시된 사용자 모델링 정보(3200)로 업데이트 될 수 있다. 도 32는 일부 실시 예에 따른 디바이스(100)에 의해 업데이트된 사용자 모델링 정보(3200)의 예이다. As the user information 2300 is updated with the user information 2330 , the user modeling information 2400 shown in FIG. 24A may be updated with the user modeling information 3200 shown in FIG. 32 . 32 is an example of user modeling information 3200 updated by the device 100 according to some embodiments.

아바타 기반 이미지(2310)에 포함된 아바타(2311)의 디스플레이 사이즈가 변경될 경우에, 디바이스(100)는 변경된 디스플레이 사이즈에 따라 사용자 정보를 변경할 수 있다. 예를 들어, 아바타 기반 이미지(2310)에 포함된 아바타(2311)의 디스플레이 사이즈가 보통일 때, 사용자 입력에 따라 아바타(2311)의 디스플레이 사이즈가 마름으로 변경되면, 디바이스(100)는 사용자 정보에 포함된 사용자의 체중 및 키를 마름 상태로 표현할 수 있는 값으로 업데이트 할 수 있다. When the display size of the avatar 2311 included in the avatar-based image 2310 is changed, the device 100 may change user information according to the changed display size. For example, when the display size of the avatar 2311 included in the avatar-based image 2310 is normal and the display size of the avatar 2311 is changed to diamond according to a user input, the device 100 displays the user information The included user's weight and height can be updated with values that can be expressed in a lean state.

도 22의 단계 S2201에서, 디바이스(100)에 의해 아바타 기반 이미지(2210)가 디스플레이 되고 있을 때, 디바이스(100)는 사용자 정보(2300)에 기초한 사운드를 함께 제공할 수 있다. 사운드는 아바타 기반 이미지(2310)의 배경 음악으로 제공되거나 아바타(2311)의 음성으로 제공될 수 있다. 아바타(2311)의 음성은 예를 들어, 사용자 정보(2300)에 관련된 안내 정보(예를 들어 “나의 이름은 A이고, 여자이며, 나의 취미는 바이올린 연주입니다.”)를 제공할 수 있다. In step S2201 of FIG. 22 , when the avatar-based image 2210 is being displayed by the device 100 , the device 100 may also provide a sound based on the user information 2300 . The sound may be provided as background music of the avatar-based image 2310 or may be provided as a voice of the avatar 2311 . The voice of the avatar 2311 may provide, for example, guide information related to the user information 2300 (eg, “My name is A, I am a woman, and my hobby is playing the violin.”).

디바이스(100)는 아바타(2311)의 음성을 여성 음성을 기반으로 다양한 모드로 제공할 수 있다. 다양한 모드는 예를 들어, 스피치 모드, 뮤지컬 모드, 또는 연극 모드 등과 같은 모드를 포함할 수 있으나 본 개시에서 음성을 기반으로 하는 다양한 모드를 상술한 바로 제한되지 않는다. 음성 모드는 디바이스(100)에 디폴트로 설정될 수 있으나 사용자에 의해 설정되거나 변경될 수 있다. The device 100 may provide the voice of the avatar 2311 in various modes based on the female voice. The various modes may include, for example, a mode such as a speech mode, a musical mode, or a theater mode, but is not limited to the above-described various modes based on voice in the present disclosure. The voice mode may be set as a default in the device 100, but may be set or changed by a user.

사운드가 배경 음악으로 제공되는 경우에, 디바이스(100)는 사용자 정보(2300)에 포함된 사용자의 취미에 관한 정보(2301, 바이올린 연주)에 기초하여 바이올린 연주곡을 제공할 수 있다. 바이올린 연주곡은 도 23a에 도시된 사용자 정보(2300) 이외의 사용자 정보에 기초하여 디바이스(100) 또는 서버(2120)에 의해 결정될 수 있다. When the sound is provided as background music, the device 100 may provide a violin performance song based on the user's hobby information 2301 (violin performance) included in the user information 2300 . The violin performance song may be determined by the device 100 or the server 2120 based on user information other than the user information 2300 shown in FIG. 23A .

디바이스(100)는 사용자 정보(2300)에 기초하여 아바타(2311)의 배경 이미지를 아바타 기반 이미지(2310)에 더 포함시켜 제공할 수 있다. 배경 이미지는 사용자의 취미에 관한 정보(2301, 바이올린 연주)에 기초하여 바이올린 연주 무대 이미지 또는 사용자의 성별에 관한 정보(2303, 여자)에 기초한 단색 이미지(예를 들어, 분홍색)로 표현될 수 있으나 본 개시에서 배경 이미지는 상술한 바로 제한되지 않는다. 예를 들어, 디바이스(100)는 사용자 정보에 기초하여 사용자가 주로 저녁에 바이올린(2312)을 연주하는 것으로 인식되면, 밤 이미지를 배경 이미지로 디스플레이 할 수 있다. 디바이스(100)는, 예를 들어, 사용자 정보에 포함되어 있는 바이올린 연주 시간대에 기초하여 사용자가 주로 저녁에 바이올린(2312)을 연주하는 것으로 판단할 수 있다. The device 100 may further include the background image of the avatar 2311 in the avatar-based image 2310 based on the user information 2300 to provide it. The background image may be expressed as a violin performance stage image based on the user's hobby information (2301, playing violin) or as a single color image (eg, pink) based on the user's gender information (2303, female). In the present disclosure, the background image is not limited as described above. For example, when it is recognized that the user mainly plays the violin 2312 in the evening based on user information, the device 100 may display a night image as a background image. The device 100 may determine, for example, that the user mainly plays the violin 2312 in the evening based on the violin playing time period included in the user information.

상술한 바와 같이 아바타 기반 이미지(2310)에 배경 이미지 및 사운드중 적어도 하나가 더 포함되어 제공되는 경우에, 디바이스(100)는 배경 이미지 및 사운드를 수정 가능한 오브젝트로 제공할 수 있다. As described above, when at least one of a background image and a sound is further included in the avatar-based image 2310 and provided, the device 100 may provide the background image and the sound as a modifiable object.

배경 이미지 및 사운드가 사용자 정보(2300)에 포함된 정보 이외의 다른 사용자 정보에 의해 제공되고, 배경 이미지 및/또는 사운드가 수정되면, 디바이스(100)는 수정된 배경 이미지 및/또는 수정된 사운드에 기초하여 사용자 정보를 업데이트 할 수 있다. If the background image and sound are provided by user information other than the information included in the user information 2300, and the background image and/or sound is modified, the device 100 responds to the modified background image and/or the modified sound. User information can be updated based on

도 33은 일부 실시 예에 따른 디바이스(100)가 아바타 기반 이미지를 수정하여 사용자 정보를 관리하는 방법의 흐름도이다. 도 33은 수정된 아바타 기반 이미지를 수락하는 사용자 입력에 따라 사용자 정보를 업데이트 하는 예이다. 33 is a flowchart of a method of managing user information by modifying an avatar-based image by the device 100, according to some embodiments. 33 is an example of updating user information according to a user input accepting a modified avatar-based image.

도 33의 단계 S3301에서, 디바이스(100)는, 상술한 단계 S2201에서와 같이 사용자 정보에 기초하여 아바타 기반 이미지(2310)를 디스플레이 한다. 단계 S3302에서, 디바이스(100)는 상술한 단계 S2202에서와 같이 사용자 입력에 따라 아바타 기반 이미지를 수정한다. In step S3301 of FIG. 33 , the device 100 displays the avatar-based image 2310 based on user information as in step S2201 described above. In step S3302, the device 100 modifies the avatar-based image according to the user input as in the above-described step S2202.

단계 S3303에서, 디바이스(100)는 수정된 아바타 기반 이미지(2320)를 디스플레이 한다. 단계 S3304에서, 디바이스(100)는 수정된 아바타 기반 이미지(2320)에 대해 수용을 나타내는 사용자 입력이 수신되면, 단계 S3305로 진행된다. 수정된 아바타 기반 이미지(2320)에 대해 수용을 나타내는 사용자 입력은 디바이스(100)를 통해 입력될 수 있으나, 외부 디바이스(2120)를 이용하여 입력될 수 있다. 수정된 아바타 기반 이미지(2320)에 대해 수용을 나타내는 사용자 입력을 수신하기 위하여, 디바이스(100)는 수정된 아바타 기반 이미지(2320)에 대한 수용 여부를 질의하는 메시지를 디스플레이 할 수 있다. In step S3303 , the device 100 displays the modified avatar-based image 2320 . In step S3304, when a user input indicating acceptance of the modified avatar-based image 2320 is received, the device 100 proceeds to step S3305. A user input indicating acceptance of the modified avatar-based image 2320 may be input through the device 100 , but may be input using an external device 2120 . In order to receive a user input indicating acceptance of the modified avatar-based image 2320 , the device 100 may display a message asking whether to accept the modified avatar-based image 2320 .

단계 S3304에서, 수정된 아바타 기반 이미지(2320)를 수용할 것을 나타내는 사용자 입력이 수신되지 않으면, 디바이스(100)는 단계 S3301로 진행되어 수정되기 이전의 아바타 기반 이미지(2310)를 디스플레이 한다. In step S3304, if a user input indicating acceptance of the modified avatar-based image 2320 is not received, the device 100 proceeds to step S3301 to display the avatar-based image 2310 before being modified.

단계 S3304에서, 수정된 아바타 기반 이미지(2320)를 수용할 것을 나타내는 사용자 입력이 수신되지 않으면, 디바이스(100)는 단계 S3303으로 진행되어 수정된 아바타 기반 이미지(2320)를 디스플레이 하면서, 추가 수정 요청을 나타내는 사용자 입력에 대해 대기 상태를 유지할 수 있다. In step S3304, if a user input indicating acceptance of the modified avatar-based image 2320 is not received, the device 100 proceeds to step S3303 to display the modified avatar-based image 2320 while requesting additional modifications. A waiting state may be maintained for the indicated user input.

단계 S3304에서, 사전에 설정된 시간동안 사용자 입력이 수신되지 않으면, 디바이스(100)는 수정된 아바타 기반 이미지(2320)를 수용할 것을 나타내는 사용자 입력이 수신되지 않은 것으로 판단할 수 있다. In operation S3304 , if a user input is not received for a preset period of time, the device 100 may determine that a user input indicating acceptance of the modified avatar-based image 2320 has not been received.

단계 S3304에서, 수정된 아바타 기반 이미지(2320)를 수용할 것을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 단계 S3305에서, 수정된 아바타 기반 이미지(2320)에 기초하여 사용자 정보를 업데이트 한다. In step S3304 , when a user input indicating to accept the modified avatar-based image 2320 is received, the device 100 updates user information based on the modified avatar-based image 2320 in step S3305 .

도 34는 일부 실시 예에 따른 디바이스(100)가 아바타 기반 이미지를 수정하여 사용자 정보를 관리하는 방법의 흐름도이다. 34 is a flowchart of a method for managing user information by modifying an avatar-based image by the device 100, according to some embodiments.

도 34를 참조하면, 단계 S3401에서, 디바이스(100)는 외부 디바이스(2120)로부터 사용자 정보를 수신한다. 디바이스(100)는 사용자 정보를 요청하는 사용자 입력에 따라 외부 디바이스(2120)로부터 사용자 정보를 수신할 수 있다. 예를 들어, 소셜 미디어 서버에 등록된 사용자 정보를 요청하는 사용자 입력에 따라 디바이스(100)는 외부 디바이스(2120)로 사용자 정보를 요청하고, 이에 따라 외부 디바이스(2120)로부터 사용자 정보를 수신할 수 있다. Referring to FIG. 34 , in step S3401 , the device 100 receives user information from the external device 2120 . The device 100 may receive user information from the external device 2120 according to a user input requesting user information. For example, the device 100 may request user information from the external device 2120 according to a user input requesting user information registered in the social media server, and thus receive user information from the external device 2120 . there is.

또한, 디바이스(100)의 요청없이 외부 디바이스(2120)로부터 사용자 정보를 수신할 수 있다. 예를 들어, 디바이스(100)가 슬립 모드이거나 A 애플리케이션을 실행하고 있을 때, 외부 디바이스(2120)으로부터 사용자의 헬스 정보가 수신될 수 있다. 단계 S3401에서 수신되는 사용자 정보는 본 개시의 서두에서 언급된 사용자 정보중 적어도 하나를 포함할 수 있다. 수신되는 사용자 정보는 디바이스(100)에 저장될 수 있다. Also, user information may be received from the external device 2120 without a request from the device 100 . For example, when the device 100 is in a sleep mode or an application A is running, the user's health information may be received from the external device 2120 . The user information received in step S3401 may include at least one of the user information mentioned in the introduction of the present disclosure. The received user information may be stored in the device 100 .

단계S3402에서, 디바이스(100)는 수신된 사용자 정보에 기초하여 아바타 기반 이미지를 생성하고, 디스플레이 한다. 수신된 사용자 정보에 기초하여 아바타 기반 이미지를 생성하는 것은 상술한 도 22의 단계 S2201에서와 같이 수행될 수 있다. In step S3402, the device 100 generates and displays an avatar-based image based on the received user information. Generating the avatar-based image based on the received user information may be performed as in step S2201 of FIG. 22 described above.

단계 S3403에서, 디바이스(100)는 수정 요청을 나타내는 사용자 입력에 따라 디스플레이 되고 있는 아바타 기반 이미지를 수정한다. 사용자 입력에 따라 아바타 기반 이미지를 수정하는 것은 상술한 도 22의 단계 S2202에서와 같이 수행될 수 있다. In step S3403, the device 100 modifies the displayed avatar-based image according to a user input indicating a modification request. Modifying the avatar-based image according to the user input may be performed as in step S2202 of FIG. 22 described above.

단계 S3404에서, 디바이스(100)는 수정된 아바타 기반 이미지에 따라 사용자 정보를 업데이트한다. 디바이스(100)는 수정된 아바타 기반 이미지에 따라 단계 S3401에서 수신된 사용자 정보를 변경하고, 변경된 사용자 정보를 외부 디바이스(2120)로 전송하면서, 사용자 정보에 대한 업데이트를 요청할 수 있다. 이에 따라 외부 디바이스(2120)는 사용자 정보를 업데이트할 수 있다. 사용자 정보에 대한 업데이트를 요청한 뒤, 디바이스(100)는 단계 S3401에서 사용자 정보를 수신함에 따라 디바이스(100)에 저장된 정보를 자동적으로 삭제할 수 있다. In step S3404, the device 100 updates the user information according to the modified avatar-based image. The device 100 may change the user information received in step S3401 according to the modified avatar-based image and request an update of the user information while transmitting the changed user information to the external device 2120 . Accordingly, the external device 2120 may update user information. After requesting the update of the user information, the device 100 may automatically delete information stored in the device 100 as the user information is received in step S3401.

도 35는 일부 실시 예에 따른 디바이스(100)가 아바타 기반 이미지를 이용하여 정보를 수정 및/또는 추가하는 사용자 정보 관리 방법의 동작 흐름도이다. 35 is an operation flowchart of a method for managing user information in which the device 100 corrects and/or adds information using an avatar-based image, according to some embodiments.

단계 S3501에서, 디바이스(100)는 사용자 정보에 따라 아바타 기반 이미지(2310)를 디스플레이 한다. 단계 S3501은 상술한 도 22의 단계 S2201과 유사하게 수행될 수 있다. In step S3501 , the device 100 displays an avatar-based image 2310 according to user information. Step S3501 may be performed similarly to step S2201 of FIG. 22 described above.

단계 S3502에서, 디바이스(100)는 사용자 입력에 따라 디스플레이 되고 있는 아바타 기반 이미지(2310)를 수정할 수 있다. 단계 S3502에서 수행되는 아바타 기반 이미지(2310)에 대한 수정은 상술한 도 22의 단계 S2202와 유사하게 수행될 수 있다. In operation S3502 , the device 100 may modify the displayed avatar-based image 2310 according to a user input. The modification of the avatar-based image 2310 performed in step S3502 may be performed similarly to the above-described step S2202 of FIG. 22 .

또한, 단계 S3502에서, 디바이스(100)는 사용자 입력에 따라 디스플레이 되고 있는 아바타 기반 이미지(2310)에 새로운 정보(또는 새로운 오브젝트)를 추가할 수 있다. 새로운 정보를 추가하는 것은 디바이스(100)에 의해 제공되는 추가 가능한 정보에 대응되는 이미지 정보에 기초하여 수행될 수 있다. 이미지 정보는 추가 가능한 정보를 상징하는 이미지, 심볼, 또는 아이콘 중 적어도 하나를 포함할 수 있다. Also, in step S3502 , the device 100 may add new information (or a new object) to the displayed avatar-based image 2310 according to a user input. Adding new information may be performed based on image information corresponding to addable information provided by the device 100 . The image information may include at least one of an image, a symbol, or an icon representing additional information.

디바이스(100)는 추가 가능한 정보에 대응되는 이미지가 선택되면, 선택된 이미지를 추가한 수정된 이미지(2320)를 제공할 수 있다. 본 개시에서 새로운 정보를 추가 과정은 상술한 바로 제한되지 않는다. When an image corresponding to the addable information is selected, the device 100 may provide a modified image 2320 to which the selected image is added. The process of adding new information in the present disclosure is not limited as described above.

예를 들어, 디바이스(100)는 추가 가능한 정보(예를 들어 액세서리)에 대한 이미지가 선택되면, 선택된 이미지에 관련된 정보(예를 들어, 귀걸이)를 입력할 수 있는 입력 창을 제공할 수 있다. 제공된 입력 창을 통해 선택된 이미지에 관련된 정보가 수신되면, 디바이스(100)는 수신된 정보에 기초하여 선택된 정보의 이미지(예를 들어, 귀걸이)를 생성하고, 생성된 이미지를 포함한 수정된 이미지(2320)를 제공할 수 있다. For example, when an image for additional information (eg, an accessory) is selected, the device 100 may provide an input window for inputting information (eg, an earring) related to the selected image. When information related to the selected image is received through the provided input window, the device 100 generates an image (eg, an earring) of the selected information based on the received information, and a modified image 2320 including the generated image ) can be provided.

단계 S3503에서, 디바이스(100)는 수정 및/또는 이미지가 추가된 아바타 기반 이미지에 따라 사용자 정보를 업데이트 한다. 예를 들어, 상술한 도 8a 내지 도 8c에 도시된 바와 같이 여행 준비물이 추가되면, 디바이스(100)는 추가된 준비물에 관한 정보가 사용자 정보에 포함되도록 사용자 정보를 업데이트 한다. In step S3503 , the device 100 updates user information according to the avatar-based image to which the modified and/or image is added. For example, when travel preparations are added as shown in FIGS. 8A to 8C , the device 100 updates user information so that information on the added preparations is included in the user information.

도 36은 일부 실시 예에 따른 디바이스(100)가 아바타 기반 이미지에서 선택된 오브젝트에 기초한 서비스를 제공할 수 있도록 사용자 정보를 관리하는 방법의 흐름도이다. 도 36에서 오브젝트는 아바타 기반 이미지에 포함된 수정 가능한 사용자 정보에 대응되는 이미지, 또는/및 텍스트를 말한다. 36 is a flowchart of a method for managing user information so that the device 100 may provide a service based on an object selected from an avatar-based image, according to some embodiments. In FIG. 36 , an object refers to an image and/or text corresponding to editable user information included in the avatar-based image.

단계 S3601에서, 디바이스(100)는 사용자 정보에 따라 아바타 기반 이미지를 디스플레이 한다. 디바이스(100)는 상술한 도 22의 단계 S2201에서와 같이 아바타 기반 이미지를 디스플레이 할 수 있다. 예를 들어, 디바이스(100)는 도 31a에 도시된 아바타 기반 이미지를 디스플레이 할 수 있다. 이 때, 디바이스(100)는 도 31a에 도시된 수정 요청 버튼(2701) 및 수정 완료 버튼(2704)을 포함하지 않은 아바타 기반 이미지를 디스플레이 할 수 있다. In step S3601, the device 100 displays an avatar-based image according to user information. The device 100 may display the avatar-based image as in step S2201 of FIG. 22 described above. For example, the device 100 may display the avatar-based image shown in FIG. 31A . In this case, the device 100 may display an avatar-based image that does not include the correction request button 2701 and the correction completion button 2704 shown in FIG. 31A .

단계 S3602에서, 디바이스(100)에 디스플레이 되고 있는 아바타 기반 이미지(3110)에서 하나의 오브젝트(2703)에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 선택된 오브젝트(2703)에 기초한 서비스 정보를 제공한다. 예를 들어, 상술한 도 31a의 화면(3120)과 같이 오브젝트(2703)에 대한 선택을 나타내는 사용자 입력이 수신되면, 도 31b의 화면(3130)에 도시된 바와 같이, 디바이스(100)는 선택된 오브젝트(2703)에 기초한 적어도 하나의 서비스 정보를 포함하는 팝업 창(3131)을 오픈한다. In step S3602 , when a user input indicating selection of one object 2703 from the avatar-based image 3110 being displayed on the device 100 is received, the device 100 provides service information based on the selected object 2703 . provides For example, when a user input indicating selection of an object 2703 is received as shown in the screen 3120 of FIG. 31A , as shown in the screen 3130 of FIG. 31B , the device 100 displays the selected object A pop-up window 3131 including at least one service information based on 2703 is opened.

도 31b를 참조하면, 팝업 창(3131)에 포함되는 서비스 정보는 연주회 예약 아이템, 커뮤니티 접속 아이템, 및 전문 쇼핑몰 아이템을 포함한다. 본 개시에서 팝업 창(3131)에 포함되는 서비스 정보는 상술한 바로 제한되지 않는다. 또한, 본 개시에서 선택된 오브젝트(2703)에 기초한 서비스 정보는 도 27c의 트레이(2712)에 포함된 형태로 제공될 수 있다. Referring to FIG. 31B , service information included in the pop-up window 3131 includes a concert reservation item, a community access item, and a specialized shopping mall item. In the present disclosure, service information included in the pop-up window 3131 is not limited as described above. In addition, service information based on the object 2703 selected in the present disclosure may be provided in a form included in the tray 2712 of FIG. 27C .

단계 S3603에서, 하나의 서비스 정보에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 선택된 서비스를 제공한다. 예를 들어, 팝업 창(3131)에 포함된 연주회 예약 항목에 대한 선택을 나타내는 사용자 입력이 수신되면, 디바이스(100)는 바이올린 연주회 예약 서비스를 제공하는 애플리케이션을 실행할 수 있다. In step S3603, when a user input indicating selection of one piece of service information is received, the device 100 provides the selected service. For example, when a user input indicating selection of a concert reservation item included in the pop-up window 3131 is received, the device 100 may execute an application providing a violin concert reservation service.

도 37은 일부 실시 예에 따른 디바이스(100)가 디스플레이 되고 있는 아바타 기반의 이미지에 기초한 QA(Question & Answer) 서비스를 제공하는 사용자 정보 관리 방법의 흐름도이다. 37 is a flowchart of a method for managing user information in which the device 100 provides a question and answer (QA) service based on an avatar-based image displayed, according to some embodiments.

도 37의 단계 S3701에서, 디바이스(100)는 사용자 정보에 따른 아바타 기반 이미지를 디스플레이 한다. 예를 들어, 디바이스(100)는 사용자 정보에 따라 도 23a에 도시된 아바타 기반 이미지(2310)를 디스플레이 할 수 있다. In step S3701 of FIG. 37 , the device 100 displays an avatar-based image according to user information. For example, the device 100 may display the avatar-based image 2310 shown in FIG. 23A according to user information.

단계 S3702에서, 질문(Question) 정보가 수신되면, 단계 S3703에서, 디바이스(100)는 수신된 질문 정보에 대한 답(Answer) 정보를 제공한다. In step S3702, when question information is received, in step S3703, the device 100 provides answer information to the received question information.

단계 S3702에서의 질문 정보는 디스플레이 되고 있는 아바타 기반 이미지에 관련된 질문 정보를 말한다. 예를 들어, 질문 정보는 “내가 예약한 바이올린 연주회 정보를 알려 줘.”, “내일 바이올린 레슨이 있는지 알려 줘,”, “어제 바이올린 레슨이 몇시에 있었지?”, 또는 “내일 바아올린 레슨 바로 이전에 어떤 스케줄이 있지?” 등과 같을 수 있다. The question information in step S3702 refers to question information related to the displayed avatar-based image. For example, the question information could be “Tell me the violin concert I have booked”, “Tell me if there is a violin lesson tomorrow,” “What time was the violin lesson yesterday?”, or “Just before tomorrow’s violin lesson. What schedule do you have?” and so on.

단계 S3702에서 수신되는 질문 정보는 사용자의 음성 신호를 이용할 수 있다. 단계 S3702에서 수신되는 질문 정보에 대해 디바이스(100)가 처리(또는 인식)할 수 없는 경우에, 디바이스(100)는 에러 메시지를 디스플레이 하거나 에러 메시지를 나타내는 음성 신호로 출력할 수 있다. The question information received in step S3702 may use the user's voice signal. If the device 100 cannot process (or recognize) the question information received in step S3702, the device 100 may display an error message or output an error message as a voice signal.

또한, 디바이스(100)는 수신되는 질문 정보를 인식하는데 실패한 경우에, 입력 가능한 질문 정보에 대한 안내 정보를 제공할 수 있다. 질문 정보에 대한 안내 정보는 입력 가능한 질문 정보를 리스트 형태로 제공할 수 있다. 질문 정보에 대한 안내 정보는 입력 가능한 질문 형태에 관한 정보를 제공할 수 있다. Also, when the device 100 fails to recognize the received question information, the device 100 may provide guide information on the inputable question information. The guide information for the question information may provide inputable question information in the form of a list. The guide information for the question information may provide information about the type of question that can be entered.

디바이스(100)는 수신되는 질문 정보를 인식할 때, 사용자 정보를 고려할 수 있다. 예를 들어, 수신된 질문이 “링컨에 대한 정보를 줘”이면, 디바이스(100)는 사용자 정보에 기초하여 “링컨”이 사람 “링컨”인지, 자동차 “링컨”인지를 판단할 수 있다. 사용자 정보에 기초하여 디바이스(100)의 사용자가 자동차에 관심이 많은 사람으로 판단되는 경우에, 디바이스(100)는 질문 정보에 포함되어 있는 “링컨”을 자동차 “링컨”으로 인식할 수 있다. When recognizing the received question information, the device 100 may consider user information. For example, if the received question is “Give me information about Lincoln”, the device 100 may determine whether “Lincoln” is a human “Lincoln” or a car “Lincoln” based on user information. When it is determined based on the user information that the user of the device 100 is a person interested in cars, the device 100 may recognize “Lincoln” included in the question information as “Lincoln” of the car.

한편, 단계 S3702에서 수신된 질문 정보가 “내가 예약한 바이올린 연주회 정보를 알려 줘”인 경우에, 단계 S3703에서 디바이스(100)는 도 38에 도시된 화면(3810) 또는 화면(3820)을 답 정보로 제공할 수 있다. 예를 들어, 단계 S3702에서 수신된 질문 정보가 “내가 최근에 업데이트한 연주회 정보를 알려 줘”인 경우에, 단계 S3703에서, 디바이스(100)는 도 38에 도시된 업데이트 전 연주회 정보(3810)와 업데이트 후 연주회 정보(3820)를 함께 제공할 수 있다. 이에 따라 사용자는 업데이트전 연주회 정보와 업데이트 후의 연주회 정보를 쉽게 확인할 수 있다. On the other hand, when the question information received in step S3702 is “Tell me information about the violin concert I have reserved”, in step S3703, the device 100 responds to the screen 3810 or the screen 3820 shown in FIG. 38 as answer information can be provided as For example, if the question information received in step S3702 is “Tell me about the concert information I recently updated”, in step S3703, the device 100 performs the concert information 3810 before the update shown in FIG. 38 and After the update, concert information 3820 may be provided together. Accordingly, the user can easily check the concert information before the update and the concert information after the update.

도 38은 일부 실시 예에 따른 디바이스(100)가 수신되는 질문 정보에 따른 답 정보를 제공하는 예이다. 도 38를 참조하면, 업데이트 되기 전의 사용자 정보에 기초한 답 정보와 업데이트 된 후 사용자 정보에 기초한 답 정보를 동시에 제공하는 예이다. 38 is an example in which the device 100 provides answer information according to received question information, according to some embodiments. Referring to FIG. 38 , it is an example of simultaneously providing answer information based on user information before being updated and answer information based on user information after being updated.

디바이스(100)는 화면(3810)과 화면(3820)을 일부 오버랩하여 제공할 수 있다. 디바이스(100)는 화면(3810)과 화면(3820)을 전자북을 펼친 형태로 제공할 수 있다. 화면들(3810, 3820)이 전자북을 펼친 형태로 제공될 경우에, 화면(3810) 또는 화면(3820)의 모서리 부분 또는 측면에 기초하여 터치 & 드래그하는 사용자 입력이 수신되면, 디바이스(100)는 드래그 되는 방향으로 화면들(3810, 3820)을 닫을 수 있다. 예를 들어, 화면(3820)의 최우측면을 터치하고 좌측면 방향으로 드래그하는 사용자 입력이 수신되면, 디바이스(100)는 화면(3820)이 화면(3810)을 덮는 형태로 화면을 닫을 수 있다. The device 100 may provide the screen 3810 and the screen 3820 by partially overlapping each other. The device 100 may provide the screen 3810 and the screen 3820 in the form of an unfolded e-book. When the screens 3810 and 3820 are provided in the form of an unfolded e-book, when a user input of touch & drag is received based on the screen 3810 or a corner portion or side of the screen 3820, the device 100 may close the screens 3810 and 3820 in the dragged direction. For example, when a user input of touching the rightmost side of the screen 3820 and dragging it toward the left side is received, the device 100 may close the screen in such a way that the screen 3820 covers the screen 3810 .

도 39는 일부 실시 예에 따른 디바이스(100)와 외부 디바이스(2120)에 기초한 사용자 정보 관리 방법의 흐름도이다. 도 39는 외부 디바이스(2120)에서 아바타 기반 이미지를 생성하는 경우이다. 39 is a flowchart of a user information management method based on the device 100 and the external device 2120 according to some embodiments. 39 is a case in which the external device 2120 generates an avatar-based image.

단계 S3901에서, 외부 디바이스(2120)는 사용자 정보에 기초한 아바타 기반 이미지를 생성한다. 외부 디바이스(2120)는 상술한 도 22의 단계 S2201에서와 같이 사용자 정보에 기초한 아바타 기반 이미지를 생성할 수 있다. 예를 들어, 외부 디바이스(2120)가 소셜 미디어 서버이면, 외부 디바이스(2120)는 소셜 미디어 서버에 등록된 사용자 프로파일 정보에 기초하여 아바타 기반 이미지를 생성할 수 있다. In step S3901, the external device 2120 generates an avatar-based image based on user information. The external device 2120 may generate an avatar-based image based on user information as in step S2201 of FIG. 22 described above. For example, if the external device 2120 is a social media server, the external device 2120 may generate an avatar-based image based on user profile information registered in the social media server.

단계 S3902에서, 외부 디바이스(2120)는 생성된 아바타 기반 이미지를 디바이스(100)로 전송한다. 단계 S3902는 디바이스(100)의 사용자 정보 요청에 따라 수행될 수 있다. In step S3902 , the external device 2120 transmits the generated avatar-based image to the device 100 . Step S3902 may be performed according to a user information request from the device 100 .

단계 S3903에서, 디바이스(100)는 아바타 기반 이미지를 디스플레이 한다. 단계 S3904에서, 디바이스(100)는 디스플레이 되고 있는 아바타 기반 이미지를 수정한다. 단계 S3904는 디스플레이 되고 있는 아바타 기반 이미지에 기초하여 수정 요청을 나타내는 사용자 입력이 수신되면 수행될 수 있다. 아바타 기반 이미지를 수정하는 방법은 상술한 도 22의 단계 S2202에서와 같이 수행될 수 있다. In step S3903, the device 100 displays an avatar-based image. In step S3904, the device 100 modifies the displayed avatar-based image. Step S3904 may be performed when a user input indicating a modification request is received based on the avatar-based image being displayed. The method of modifying the avatar-based image may be performed as in step S2202 of FIG. 22 described above.

아바타 기반 이미지가 수정되면, 단계 S3905에서, 디바이스(100)는 수정된 아바타 기반 이미지를 외부 디바이스(2120)로 전송한다. 단계 S3906에서, 외부 디바이스(2120)는 수신된 수정된 아바타 기반 이미지에 기초하여 사용자 정보를 업데이트 한다. 단계 S3906은 도 22의 단계 S2203과 같이 수행될 수 있다. If the avatar-based image is modified, in step S3905 , the device 100 transmits the modified avatar-based image to the external device 2120 . In step S3906, the external device 2120 updates user information based on the received modified avatar-based image. Step S3906 may be performed like step S2203 of FIG. 22 .

도 40은 일부 실시 예에 따른 디바이스(100)와 외부 디바이스(2120)에 기초한 사용자 정보 관리 방법의 흐름도이다. 도 40은 디바이스(100)에서 아바타 기반 이미지를 생성하는 경우이다. 40 is a flowchart of a user information management method based on the device 100 and the external device 2120 according to some embodiments. 40 is a case in which the device 100 generates an avatar-based image.

단계 S4001에서, 외부 디바이스(2120)로부터 디바이스(100)로 사용자 정보가 전송되면, 단계 S4002에서, 디바이스(100)는 수신된 사용자 정보에 기초한 아바타 기반 이미지를 생성한다. In step S4001, when user information is transmitted from the external device 2120 to the device 100, in step S4002, the device 100 generates an avatar-based image based on the received user information.

단계 S4003에서, 디바이스(100)는 생성된 아바타 기반 이미지를 디스플레이 한다. 단계 S4004에서, 디바이스(100)는 수신된 사용자 입력에 따라 디스플레이 되고 있는 아바타 기반 이미지를 수정한다. In step S4003, the device 100 displays the generated avatar-based image. In step S4004, the device 100 modifies the displayed avatar-based image according to the received user input.

단계 S4005에서, 디바이스(100)는 수정된 아바타 기반 이미지에 기초하여 사용자 정보를 업데이트 한다. 단계 S4006에서, 디바이스(100)는 업데이트된 사용자 정보를 외부 디바이스(2120)로 전송한다. 외부 디바이스(2120)는 수신된 업데이트된 사용자 정보에 기초하여 외부 디바이스(2120)에 저장되어 있는 사용자 정보를 업데이트 한다. In step S4005, the device 100 updates user information based on the modified avatar-based image. In step S4006 , the device 100 transmits the updated user information to the external device 2120 . The external device 2120 updates user information stored in the external device 2120 based on the received updated user information.

도 41은 일부 실시 예에 따른 디바이스(100)와 웨어러블 디바이스(4110)에 기초한 사용자 정보 관리 방법의 흐름도이다. 도 41은 아바타 기반 이미지에 포함되어 있는 오브젝트에 관한 정보를 웨어러블 디바이스(4110)를 통해 디스플레이 하는 예이다. 41 is a flowchart of a user information management method based on the device 100 and the wearable device 4110 according to some embodiments. 41 is an example of displaying information about an object included in an avatar-based image through the wearable device 4110. Referring to FIG.

단계 S4101에서, 디바이스(100)는 사용자 정보에 따른 아바타 기반 이미지를 디스플레이 하면서, 단계 S4102에서, 디바이스(100)는 아바타 기반 이미지에 포함되어 있는 수정 가능한 오브젝트에 관한 정보를 웨어러블 디바이스(4110)로 전송한다. In step S4101 , the device 100 displays the avatar-based image according to the user information, and in step S4102 , the device 100 transmits information on a modifiable object included in the avatar-based image to the wearable device 4110 . do.

단계 S4103에서, 웨어러블 디바이스(4110)는 수신된 오브젝트에 관한 정보를 디스플레이 한다. 본 개시에서 오브젝트에 관한 정보는 이미지 형태로 디스플레이 될 수 있으나 이로 제한되지 않는다. 예를 들어, 웨어러블 디바이스(4110)는 오브젝트에 관한 정보를 텍스트 형태로 디스플레이 할 수 있다. 단계 S4104에서, 디스플레이 되고 있는 오브젝트에 관한 정보에 기초한 선택 신호가 수신되면, 단계 S4105에서 웨어러블 디바이스(4110)는 선택된 오브젝트에 관한 정보를 디바이스(100)로 전송한다. In step S4103, the wearable device 4110 displays information about the received object. In the present disclosure, information about an object may be displayed in the form of an image, but is not limited thereto. For example, the wearable device 4110 may display information about the object in the form of text. When a selection signal based on information about the object being displayed is received in step S4104 , the wearable device 4110 transmits information about the selected object to the device 100 in step S4105 .

단계 S4106에서, 디바이스(100)는 저장된 정보로부터 선택된 오브젝트에 관한 후보 오브젝트에 관한 정보를 검색한다. 후보 오브젝트에 관한 정보는 디바이스(100)의 외부 저장 장치로부터 검색될 수 있다. 후보 오브젝트에 관한 정보는 디바이스(100)에 연결된 외부 디바이스(2120)로부터 검색될 수 있다. 디바이스(100)는 선택된 오브젝트의 식별 정보를 키워드로 하여 후보 오브젝트에 관한 정보를 검색할 수 있다. In step S4106, the device 100 searches for information about a candidate object about the selected object from the stored information. Information about the candidate object may be retrieved from an external storage device of the device 100 . Information about the candidate object may be retrieved from the external device 2120 connected to the device 100 . The device 100 may search for information about the candidate object using identification information of the selected object as a keyword.

단계 S4107에서, 디바이스(100)는 검색된 후보 오브젝트에 관한 정보를 웨어러블 디바이스(4110)로 전송한다. 단계 S4108에서, 웨어러블 디바이스(4110)는 수신된 후보 오브젝트에 관한 정보를 디스플레이 한다. In operation S4107 , the device 100 transmits information about the searched candidate object to the wearable device 4110 . In step S4108, the wearable device 4110 displays information about the received candidate object.

예를 들어, 단계 S4104에서 선택된 오브젝트가 상술한 도 29a의 바이올린(2703)이면, 단계 S4108에서 디스플레이 될 수 있는 후보 오브젝트는 도 29a의 화면(2920)에 도시된 팝업 창(2921)에 포함된 아이템들일 수 있다. For example, if the object selected in step S4104 is the violin 2703 of FIG. 29A described above, the candidate object that can be displayed in step S4108 is an item included in the pop-up window 2921 shown in the screen 2920 of FIG. 29A can take

예를 들어, 단계 S4104에서 선택된 오브젝트가 도 27c의 취미에 관한 아이콘(2710, 또는 취미 아이템)이면, 단계 S4108에서 디스플레이 될 수 있는 후보 오브젝트는 취미에 관련된 아이템(예를 들어, 수영, 자전거, 또는 사진 등)을 포함할 수 있다. For example, if the object selected in step S4104 is an icon 2710 or a hobby item of FIG. 27C , the candidate object that can be displayed in step S4108 is a hobby-related item (eg, swimming, cycling, or photos, etc.).

후보 오브젝트에 관한 정보는 이미지, 또는/및 텍스트 형태로 디스플레이 될 수 있으나 본 개시에서 후보 오브젝트에 관한 정보의 디스플레이 형태는 상술한 바로 제한되지 않는다. The information on the candidate object may be displayed in the form of an image and/or text, but the display form of the information on the candidate object in the present disclosure is not limited as described above.

단계 S4109에서, 후보 오브젝트에 대한 선택 신호가 수신되면, 단계 S4110에서 웨어러블 디바이스(4110)는 선택된 후보 오브젝트에 관한 정보를 디바이스(100)로 전송한다.In operation S4109 , when a selection signal for a candidate object is received, in operation S4110 , the wearable device 4110 transmits information about the selected candidate object to the device 100 .

단계 S4111에서, 디바이스(100)는 선택된 후보 오브젝트를 이용하여 아바타 기반 이미지를 수정한다. 단계 S4112에서, 디바이스(100)는 수정된 아바타 기반 이미지에 기초하여 사용자 정보를 업데이트 한다. 단계 S4112에서의 사용자 정보를 업데이트 하는 것은 상술한 도 22의 단계 S2203에서와 같이 수행될 수 있다. In step S4111, the device 100 modifies the avatar-based image by using the selected candidate object. In step S4112, the device 100 updates user information based on the modified avatar-based image. Updating the user information in step S4112 may be performed as in step S2203 of FIG. 22 described above.

도 42는 일부 실시 예에 따른 디바이스(100)와 웨어러블 디바이스(4210)에 기초한 사용자 정보 관리 방법의 흐름도이다. 도 42는 웨어러블 디바이스(4210)에 의해 획득된 사용자 정보에 기초하여 아바타 기반 이미지를 수정하는 예이다. 42 is a flowchart of a user information management method based on the device 100 and the wearable device 4210 according to some embodiments. 42 is an example of modifying an avatar-based image based on user information obtained by the wearable device 4210 .

단계 S4201에서, 디바이스(100)는 사용자 정보에 따른 아바타 기반 이미지를 디스플레이 한다. 단계 S4201에서, 디바이스(100)는 상술한 도 22의 단계 S2201에서와 같이 아바타 기반 이미지를 디스플레이 할 수 있다. In step S4201, the device 100 displays an avatar-based image according to user information. In step S4201, the device 100 may display the avatar-based image as in step S2201 of FIG. 22 described above.

단계 S4202에서, 웨어러블 디바이스(4210)는 사용자 정보를 획득한다. 웨어러블 디바이스(4210)에 의해 획득되는 사용자 정보는, 예를 들어, 사용자 헬스 정보, 또는 웨어러블 디바이스(4210)의 위치 정보를 포함할 수 있으나 본 개시에서 웨어러블 디바이스(4210)에 의해 획득될 수 있는 정보는 이로 제한되지 않는다. In step S4202, the wearable device 4210 acquires user information. The user information acquired by the wearable device 4210 may include, for example, user health information or location information of the wearable device 4210, but information that may be acquired by the wearable device 4210 in the present disclosure is not limited thereto.

상술한 단계 S4201과 단계 S4202는 동시에 수행될 수 있다. 단계 S4202는 단계 S4201보다 먼저 수행될 수 있다. The above-described steps S4201 and S4202 may be performed simultaneously. Step S4202 may be performed before step S4201.

단계 S4203에서, 웨어러블 디바이스(4210)는 획득된 사용자 정보를 디바이스(100)로 전송한다. 디바이스(100)는 수신된 사용자 정보에 기초하여 단계 S4201에서 디스플레이 되고 있는 아바타 기반 이미지를 수정한다. In step S4203 , the wearable device 4210 transmits the obtained user information to the device 100 . The device 100 modifies the avatar-based image being displayed in step S4201 based on the received user information.

예를 들어, 수신된 사용자 정보가 사용자의 체온을 측정한 정보이고, 측정된 체온이 기준보다 높은 것으로 판단되면, 디바이스(100)는 단계 S4201에서 디스플레이 되고 있는 아바타 기반 이미지의 얼굴의 칼라를 부분적으로 붉게 수정할 수 있다. 이에 따라 사용자는 디바이스(100)를 통해 디스플레이 되고 있는 아바타 기반 아미지를 통해 사용자가 열이 나고 있음을 확인할 수 있다. For example, if the received user information is information obtained by measuring the user's body temperature and it is determined that the measured body temperature is higher than the reference value, the device 100 partially changes the face color of the avatar-based image displayed in step S4201. It can be edited in red. Accordingly, the user can confirm that the user is heating up through the avatar-based image being displayed through the device 100 .

예를 들어, 수신된 사용자 정보가 사용자의 기쁜 감정을 나타내는 정보이면, 디바이스(100)는 단계 S4201에서 디스플레이 되고 있는 아바타 기반 이미지의 얼굴을 웃는 얼굴로 수정할 수 있다. 이에 따라 사용자는 디바이스(100)를 통해 디스플레이 되고 있는 아바타 기반 이미지를 통해 사용자의 기분이 좋은 상태임을 확인할 수 있다. For example, if the received user information is information indicating a user's happy emotion, the device 100 may change the face of the avatar-based image displayed in step S4201 to a smiling face. Accordingly, the user can confirm that the user is in a good mood through the avatar-based image displayed through the device 100 .

상술한 바와 같이 디바이스(100)는 웨어러블 디바이스(4210)에서 측정되어 전송되는 정보에 따라 단계 S4201에서 디스플레이 되고 있는 아바타 기반 이미지를 다양하게 수정할 수 있다. 이미지 수정은 이미지의 얼굴뿐 아니라 이미지에 포함된 오브젝트중에서 수정 가능한 적어도 하나의 오브젝트를 수정할 수 있다. 수정 가능한 오브젝트는 배경 이미지와 사운드중 적어도 하나를 포함할 수 있으나 본 개시에서 수정 가능한 오브젝트는 상술한 바로 제한되지 않는다. As described above, the device 100 may variously modify the avatar-based image displayed in step S4201 according to information measured and transmitted by the wearable device 4210 . The image modification may modify at least one modifiable object among objects included in the image as well as the face of the image. The modifiable object may include at least one of a background image and a sound, but the modifiable object in the present disclosure is not limited as described above.

도 43은 일부 실시 예에 따른 디바이스(100)의 기능 블록도이다. 도 43을 참조하면, 디바이스(100)는 사용자 입력부(4310), 제어부(4320), 디스플레이(4330), 및 메모리(4340)를 포함할 수 있다. 43 is a functional block diagram of the device 100 according to some embodiments. Referring to FIG. 43 , the device 100 may include a user input unit 4310 , a control unit 4320 , a display 4330 , and a memory 4340 .

사용자 입력부(4310)는 사용자 정보 요청을 나타내는 사용자 입력, 사용자 정보에 대한 수정 요청을 나타내는 사용자 입력, 사용자 정보 추가 요청을 나타내는 사용자 입력, 사용자 정보에 대한 수정 완료를 나타내는 사용자 입력, 오브젝트 선택을 나타내는 사용자 입력, 서비스 정보 요청을 나타내는 사용자 입력, 서비스 정보 선택을 나타내는 사용자 입력, 수정된 아바타 기반 이미지에 대한 수용을 나타내는 사용자 입력, 또는 디바이스(100)를 제어할 수 있는 사용자 입력을 포함할 수 있으나 본 개시에서 사용자 입력은 상술한 바로 제한되지 않는다. The user input unit 4310 may include a user input indicating a user information request, a user input indicating a request to modify user information, a user input indicating a request to add user information, a user input indicating completion of modification of user information, and a user indicating object selection input, a user input indicating a service information request, a user input indicating a service information selection, a user input indicating acceptance of a modified avatar-based image, or a user input capable of controlling the device 100 In , the user input is not limited as described above.

사용자 입력부(4310)는 디바이스(100)에 장착될 수 있다. 디바이스(100)에 장착될 수 있는 사용자 입력부(4310)는, 예를 들어, 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 또는/및 조그 스위치 중 적어도 하나를 포함할 수 있으나 본 개시에서 사용자 입력부(4310)는 상술한 바로 제한되지 않는다. The user input unit 4310 may be mounted on the device 100 . The user input unit 4310 that may be mounted on the device 100 may include, for example, a key pad, a dome switch, and a touch pad (contact capacitive type, pressure resistance type, infrared rays). It may include at least one of a sensing method, a surface ultrasonic conduction method, an integral tension measurement method, a piezo effect method, etc.), a jog wheel, and/or a jog switch, but the user input unit 4310 in the present disclosure is not limited to the above. does not

사용자 입력부(4310)를 통해 수신될 수 있는 사용자 입력은 터치 기반의 사용자 입력, 움직임 기반(movement-based)의 사용자 입력, 비전 기반(vision-based)의 사용자 입력, 또는/및 사용자 음성 기반의 사용자 입력중 적어도 하나를 포함할 수 있으나 본 개시에서 사용자 입력은 상술한 바로 제한되지 않는다. The user input that may be received through the user input unit 4310 may include a touch-based user input, a movement-based user input, a vision-based user input, and/or a user voice-based user input. At least one of the inputs may be included, but in the present disclosure, the user input is not limited as described above.

터치 기반의 사용자 입력은, 예를 들어, 탭(tap 또는 터치), 롱 탭(long tap 또는 롱 터치), 터치 앤 홀드(touch and hold), 터치 앤 드래그(touch and drag), 더블 탭(double tap), 드래그(drag), 패닝(panning), 플릭(flick), 드래그 앤 드롭(drag and drop), 또는 스윕(sweep)을 포함할 수 있으나 본 개시에서 터치 기반의 사용자 입력은 상술한 바로 제한되지 않는다. A touch-based user input is, for example, a tap (tap or touch), a long tap (long tap or long touch), a touch and hold, a touch and drag, and a double tap (double tap). tap), drag, panning, flick, drag and drop, or sweep, but in the present disclosure, touch-based user input is limited as described above. doesn't happen

움직임 기반(movement-based)의 사용자 입력은, 예를 들어, 디바이스(100)의 움직임 기반의 사용자 제스처(예를 들어, 디바이스 흔들기, 디바이스 회전, 또는 디바이스 들어 올리기 등)에 기초한 사용자 입력을 포함할 수 있으나 본 개시에서 움직임 기반의 사용자 입력은 상술한 바로 제한되지 않는다. A movement-based user input may include, for example, a user input based on a motion-based user gesture of the device 100 (eg, shake the device, rotate the device, or lift the device, etc.). However, in the present disclosure, the motion-based user input is not limited as described above.

비전 기반의 사용자 입력은, 디바이스(100)와 사용자간의 접촉 없이 디바이스(100)에 포함된 카메라(미 도시됨)에 의해 획득된 입력 이미지를 분석하여 인식된 사용자 입력을 포함할 수 있으나 본 개시에서 비전 기반의 사용자 입력은 상술한 바로 제한되지 않는다. The vision-based user input may include a user input recognized by analyzing an input image obtained by a camera (not shown) included in the device 100 without contact between the device 100 and the user. The vision-based user input is not limited to the above.

제어부(4320)는 디바이스(100)의 동작을 제어하는 프로세서를 말한다. 제어부(4320)는 메모리(4340)에 저장된 일부 실시 예들에 따른 사용자 정보 관리 방법을 실행할 수 있는 프로그램을 로딩하여 동작할 수 있다. 제어부(4320)는 메모리(4340)에 일부 실시 예들에 따른 사용자 정보 관리 방법을 실행할 수 있는 프로그램을 저장할 수 있다. 제어부(4320)는 메모리(4340)에 저장된 일부 실시 예들에 따른 사용자 정보 관리 방법을 실행할 수 있는 프로그램을 업데이트 할 수 있다. The controller 4320 refers to a processor that controls the operation of the device 100 . The controller 4320 may operate by loading a program for executing the user information management method according to some embodiments stored in the memory 4340 . The controller 4320 may store a program for executing the user information management method according to some embodiments in the memory 4340 . The controller 4320 may update a program for executing the user information management method according to some embodiments stored in the memory 4340 .

제어부(4320)는 일부 실시 예들에 따른 사용자 정보 관리 방법에 따라 사용자 정보에 기초한 아바타 기반 이미지를 생성하고, 디스플레이(4330)에 디스플레이 할 수 있다. 사용자 입력부(4310)로부터 아바타 기반 이미지에 대한 수정을 요청하는 사용자 입력이 수신되면, 제어부(4320)는 수신된 사용자 입력에 따라 아바타 기반 이미지를 수정한다. 제어부(4320)는 수정된 아바타 기반 이미지에 기초하여 사용자 정보를 업데이트 할 수 있다. The controller 4320 may generate an avatar-based image based on user information according to a user information management method according to some embodiments, and display it on the display 4330 . When a user input requesting to modify the avatar-based image is received from the user input unit 4310, the controller 4320 modifies the avatar-based image according to the received user input. The controller 4320 may update user information based on the modified avatar-based image.

제어부(4320)는 상술한 도 2, 도 7, 도 9, 도 11, 도 13, 도 14, 도 16, 도 18, 도 20, 도 22, 도 28, 도30, 도 33, 도 34, 도 35, 도 36, 도 37, 도 39, 도 40, 도 41, 또는 도 42에 도시된 흐름도에 기초한 디바이스(100)의 동작을 수행할 수 있다. 2, 7, 9, 11, 13, 14, 16, 18, 20, 22, 28, 30, 33, 34, and FIG. 35 , 36 , 37 , 39 , 40 , 41 , or 42 may perform an operation of the device 100 based on the flowchart shown in FIG.

또한, 사용자 입력부(4310)를 통해 특정 기간의 사용자 정보를 요청하는 사용자 입력이 수신되면, 제어부(4320)는, 사용자 입력에 응답하여, 특정 기간의 사용자 정보에 따라 복수의 아바타 기반 이미지가 디스플레이(4330)에 디스플레이 되도록 디스플레이(4330)를 제어한다. 디스플레이(4330)에 디스플레이 되는 복수의 아바타 기반 이미지는 특정 기간을 나누는 기준에 따라 결정될 수 있다. In addition, when a user input requesting user information of a specific period is received through the user input unit 4310, the controller 4320 displays a plurality of avatar-based images according to the user information of the specific period in response to the user input. The display 4330 is controlled to be displayed on the 4330 . A plurality of avatar-based images displayed on the display 4330 may be determined according to a criterion for dividing a specific period.

또한, 사용자 입력부(4310)를 통해 특정 기간의 사용자 정보를 요청하는 사용자 입력이 수신되면, 제어부(4320)는, 사용자 입력에 응답하여 특정 기간의 사용자 정보에 따라 복수의 아바타 기반 이미지가 디스플레이(4330)에 디스플레이 되도록 디스플레이(4330)를 제어한다. 디스플레이(4330)에 디스플레이 되는 복수의 아바타 기반 이미지는 특정 기간의 사용자 정보에 포함되는 테마 아이템에 따라 결정될 수 있다. In addition, when a user input requesting user information for a specific period is received through the user input unit 4310 , the controller 4320 displays a plurality of avatar-based images according to the user information of the specific period in response to the user input 4330 . ) to control the display 4330 to be displayed. A plurality of avatar-based images displayed on the display 4330 may be determined according to a theme item included in user information of a specific period.

또한, 사용자 입력부(4310)를 통해 수정 가능한 정보 표시를 요청하는 사용자 입력이 수신되면, 제어부(4320)는 사용자 입력에 응답하여, 디스플레이(4330)에 디스플레이 되고 있는 아바타 기반 이미지중에서 수정 가능한 부분을 수정 가능하지 않은 부분과 구별되게 표시할 수 있다. In addition, when a user input requesting display of editable information is received through the user input unit 4310 , the controller 4320 corrects the editable part of the avatar-based image displayed on the display 4330 in response to the user input It can be marked to distinguish it from the impossible part.

또한, 제어부(4320)는 아바타 기반 이미지에 대한 제공 기간이 설정되어 있으면, 제공 기간을 체크한다. 제공 기간이 만료되면, 제어부(4320)는 아바타 기반 이미지를 소멸시킬 수 있다. 상술한 제공 기간에 관한 정보 및 아바타 기반 이미지는 메모리(4340)에 저장될 수 있으나 본 개시는 이로 제한되지 않는다. 예를 들어, 상술한 제공 기간에 관한 정보 및 아바타 기반 이미지는 외부 디바이스(2120)에 저장될 수 있다. Also, if the provision period for the avatar-based image is set, the controller 4320 checks the provision period. When the provision period expires, the controller 4320 may destroy the avatar-based image. The above-described information regarding the provision period and the avatar-based image may be stored in the memory 4340 , but the present disclosure is not limited thereto. For example, the information regarding the above-described provision period and the avatar-based image may be stored in the external device 2120 .

또한, 디스플레이(4330)에 사용자의 헬스 정보에 기초한 아바타 기반 이미지가 디스플레이 되고 있을 때, 사용자 입력부(4310)를 통해 의료 정보 요청을 나타내는 사용자 입력이 수신되면, 제어부(4320)는 사용자 입력에 응답하여 사용자의 헬스 정보에 관련된 의료 정보를 디스플레이(4330)에 디스플레이 한다. Also, when an avatar-based image based on the user's health information is being displayed on the display 4330 and a user input indicating a medical information request is received through the user input unit 4310, the controller 4320 responds to the user input Medical information related to the user's health information is displayed on the display 4330 .

디스플레이(4330)를 통해 제공되는 의료 정보에 기초하여 선택된 의료 정보에 관한 사용자 입력이 사용자 입력부(4310)를 통해 수신되면, 제어부(4320)는 선택된 의료 정보에 따라 사용자의 스케줄 정보를 업데이트 할 수 있다. When a user input regarding medical information selected based on the medical information provided through the display 4330 is received through the user input unit 4310, the controller 4320 may update the user's schedule information according to the selected medical information. .

또한, 사용자 입력부(4310)를 통해 아바타 기반 이미지에 대한 정보 추가를 나타내는 사용자 입력이 수신되면, 제어부(4320)는 정보 추가를 위한 입력 창을 디스플레이(4330)에 디스플레이 한다. 입력 창을 통해 정보가 수신되면, 제어부(4320)는 수신된 정보에 대응되는 이미지를 디스플레이(4330)에 디스플레이 되고 있는 아바타 기반 이미지에 추가한다. 제어부(4320)는 디스플레이(4330)에 디스플레이 되고 있는 추가된 이미지를 포함하는 아바타 기반 이미지에 따라 사용자의 스케줄 정보를 업데이트 할 수 있다. 사용자의 스케줄 정보는 메모리(4340) 또는/및 외부 디바이스(2120)에 저장될 수 있다. Also, when a user input indicating addition of information to the avatar-based image is received through the user input unit 4310 , the controller 4320 displays an input window for adding information on the display 4330 . When information is received through the input window, the controller 4320 adds an image corresponding to the received information to the avatar-based image displayed on the display 4330 . The controller 4320 may update the user's schedule information according to the avatar-based image including the added image being displayed on the display 4330 . The user's schedule information may be stored in the memory 4340 and/or the external device 2120 .

또한, 제어부(4320)에 의해 제어되어 디스플레이(4330)에 사용자의 장래 희망 정보에 따른 아바타 기반 이미지가 디스플레이 될 수 있다. 디스플레이(4330)에 사용자의 장래 희망 정보에 따른 아바타 기반 이미지가 디스플레이 되고 있을 때, 사용자 입력부(4310)를 통해 장래 희망 정보에 관련된 정보를 요청하는 사용자 입력이 수신되면, 제어부(4320)는 사용자 입력에 따라 응답하여 장래 희망 정보에 관련된 정보를 디스플레이(4330)를 통해 제공한다. 사용자 입력부(4310)를 통해 디스플레이(4330)를 통해 제공되고 있는 장래 희망 정보에 관련된 정보 중 적어도 하나를 선택하는 사용자 입력이 수신되면, 제어부(4320)는 선택된 정보에 따라 사용자의 스케줄 정보를 업데이트 할 수 있다. In addition, an avatar-based image according to the user's future desired information may be displayed on the display 4330 by being controlled by the controller 4320 . When an avatar-based image according to the user's future hope information is being displayed on the display 4330 , when a user input requesting information related to the future hope information is received through the user input unit 4310 , the controller 4320 controls the user input In response, information related to future hope information is provided through the display 4330 . When a user input for selecting at least one of information related to future desired information provided through the display 4330 through the user input unit 4310 is received, the control unit 4320 may update the user's schedule information according to the selected information. can

또한, 사용자 입력부(4310)를 통해 디바이스(100)에 대한 사용 기간별 사용 히스토리 정보를 요청하는 사용자 입력이 수신되면, 제어부(4320)는 수신된 사용자 입력에 응답하여, 디바이스(100)의 사용 히스토리 정보에 따른 복수의 아바타 기반 이미지를 디스플레이(4330)에 디스플레이 할 수 있다. In addition, when a user input requesting usage history information for each usage period of the device 100 is received through the user input unit 4310 , the control unit 4320 responds to the received user input, and uses history information of the device 100 . A plurality of avatar-based images according to . may be displayed on the display 4330 .

또한, 제어부(4320)에 의해 제어되어 디스플레이(4330)에 소셜 미디어에 등록된 사용자 정보에 따른 아바타 기반의 이미지가 디스플레이될 수 있다. 이 때, 사용자 입력부(4310)를 통해 수정을 요청하는 사용자 입력이 수신되면, 제어부(4320)는 수신된 사용자 입력에 응답하여, 디스플레이(4330)에 디스플레이 되고 있는 아바타 기반의 이미지를 수정하고, 수정된 아바타 기반의 이미지에 따라 소셜 미디어에 등록된 사용자 정보를 업데이트 할 수 있다. 소셜 미디어에 등록된 사용자 정보는 상술한 소셜 미디어 서버에 등록된 사용자 프로파일 정보를 포함할 수 있다. 본 개시에서 소셜 미디어에 등록된 사용자 정보는 상술한 바로 제한되지 않는다. In addition, an avatar-based image according to user information registered in social media may be displayed on the display 4330 by being controlled by the controller 4320 . At this time, when a user input requesting correction is received through the user input unit 4310 , the controller 4320 corrects and modifies the avatar-based image displayed on the display 4330 in response to the received user input. User information registered on social media can be updated according to the avatar-based image. The user information registered in social media may include user profile information registered in the above-described social media server. In the present disclosure, user information registered in social media is not limited as described above.

디스플레이(4330)는 디바이스(100)에 의해 처리되는 정보를 디스플레이 할 수 있다. 디스플레이(4330)는 상술한 도 1, 도 5a 내지 도 5e, 도 6a 내지 도 6e, 도 8a 내지 도 8c, 도 10, 도 12a 내지 도 12c, 도 15a 내지 도 15e, 도 17a 내지 도 17d, 도 19a, 도 19b, 도 23a 내지 도 23f, 도 27a 내지 도 27f, 도 29a 내지 도 29f, 도 31a 내지 도 31d, 또는 도 38에 도시된 GUI(Graphic User Interface) 화면을 디스플레이 할 수 있다. The display 4330 may display information processed by the device 100 . The display 4330 is the above-described FIGS. 1, 5A to 5E, 6A to 6E, 8A to 8C, 10, 12A to 12C, 15A to 15E, 17A to 17D, and FIGS. 19A, 19B, 23A to 23F, 27A to 27F, 29A to 29F, 31A to 31D, or FIG. 38 may display a GUI (Graphic User Interface) screen.

디스플레이(4330)는 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 출력 장치와 입력 장치로 사용될 수 있다. 디스플레이(4330)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 또는/및 전기영동 디스플레이(electrophoretic display, EPD) 중에서 적어도 하나를 포함할 수 있다. The display 4330 may be used as an output device and an input device when the touch pad is configured as a touch screen by forming a layer structure. The display 4330 may include a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, and a three-dimensional display (3D). display), and/or at least one of an electrophoretic display (EPD).

디바이스(100)의 구현 형태에 따라 디바이스(100)는 디스플레이(4330)를 2개 이상 포함할 수 있다. 이때, 2개 이상의 디스플레이(4330)는 힌지(hinge)를 이용하여 마주보게 배치될 수 있다. 디스플레이(4330)는 투명 디스플레이로 구성될 수 있다. Depending on the implementation of the device 100 , the device 100 may include two or more displays 4330 . In this case, two or more displays 4330 may be disposed to face each other using a hinge. The display 4330 may be configured as a transparent display.

메모리(4340)는 제어부(4320)의 처리 및 제어를 위한 프로그램을 저장할 수 있다. 메모리(4340)에 저장되는 프로그램은 OS(Operating System) 프로그램 및 각종 애플리케이션 프로그램을 포함할 수 있다. 각종 애플리케이션 프로그램은 일부 실시 예들에 따른 사용자 정보 관리 방법 또는 아바타 기반 이미지에 따른 서비스 제공 방법중 적어도 하나를 실행할 수 있는 애플리케이션을 포함할 수 있으나 애플리케이션은 이로 제한되지 않는다. The memory 4340 may store a program for processing and control of the controller 4320 . The program stored in the memory 4340 may include an operating system (OS) program and various application programs. The various application programs may include an application capable of executing at least one of a method for managing user information according to some exemplary embodiments and a method for providing a service according to an avatar-based image, but the application is not limited thereto.

메모리(4340)는 애플리케이션 프로그램에 의해 관리되는 정보를 저장한다. 예를 들어, 일부 실시 예에 따른 사용자 정보, 사용자 정보에 기초하는 사용자 모델링 정보, 각 오브젝트별 좌표 값, 또는/및 각 오브젝트별 결합 조건 정보를 저장할 수 있으나 본 개시에서 메모리(4340)에 저장되는 정보는 상술한 바로 제한되지 않는다. The memory 4340 stores information managed by an application program. For example, user information according to some embodiments, user modeling information based on user information, coordinate values for each object, or/and combination condition information for each object may be stored, but in the present disclosure, it is stored in the memory 4340 The information is not limited to the above.

메모리(4340)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 또는 광디스크중 적어도 하나의 타입의 저장매체를 포함할 수 있다. The memory 4340 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg, SD or XD memory), and a RAM. (RAM, Random Access Memory) SRAM (Static Random Access Memory), ROM (Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), magnetic memory, magnetic disk , or at least one type of optical disk may include a storage medium.

디바이스(100)는 인터넷(internet)상에서 메모리(4340)의 저장 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버(미 도시됨)를 이용하도록 구성될 수 있다. 이러한 경우에, 디스플레이(4330)에 표시되는 GUI에 관한 정보는 상술한 웹 스토리지 또는 클라우드 서버로부터 제공될 수 있다.The device 100 may be configured to use a web storage or a cloud server (not shown) that performs a storage function of the memory 4340 on the Internet. In this case, information about the GUI displayed on the display 4330 may be provided from the above-described web storage or cloud server.

디바이스(100)는 도 43에 도시된 구성요소 모두가 필수 구성요소인 것은 아니다. 디바이스(100)는 도 43 도시된 구성요소보다 많은 구성요소를 포함하거나 도 43에 도시된 구성요소보다 적은 구성요소를 포함할 수 있다. 예를 들어, 디바이스(100)는 도 44에 도시된 바와 같이 구성될 수 있다. In the device 100, not all of the components shown in FIG. 43 are essential components. The device 100 may include more components than those illustrated in FIG. 43 or may include fewer components than those illustrated in FIG. 43 . For example, the device 100 may be configured as shown in FIG. 44 .

도 44를 참조하면, 디바이스(100)는 사용자 인터페이스부(4410), 제어부(4420), 센서부(4430), 메모리(4440), 영상 처리부(4450), 오디오 출력부(4460), 오디오 입력부(4470), 카메라(4480), 및 통신부(4490)를 포함할 수 있다. Referring to FIG. 44 , the device 100 includes a user interface unit 4410 , a control unit 4420 , a sensor unit 4430 , a memory 4440 , an image processing unit 4450 , an audio output unit 4460 , and an audio input unit ( 4470 ), a camera 4480 , and a communication unit 4490 may be included.

디바이스(100)는 배터리(미 도시됨)를 더 포함할 수 있다. 배터리는 내장형으로 디바이스(100)에 포함되거나 착탈이 가능한 형태로 디바이스(100)에 포함될 수 있다. 배터리는 디바이스(100)에 포함된 모든 구성 요소로 전원을 공급할 수 있다. 디바이스(100)는 외부 전원 공급 장치로부터 전원을 공급 받을 수 있다. 외부 전원 공급 장치는 외부 디바이스(2120)에 내장된 배터리일 수 있다. The device 100 may further include a battery (not shown). The battery may be included in the device 100 as a built-in type or may be included in the device 100 in a detachable form. The battery may supply power to all components included in the device 100 . The device 100 may receive power from an external power supply. The external power supply may be a battery built into the external device 2120 .

도 44에 도시된 사용자 인터페이스부(4410)에 포함된 사용자 입력부(4411), 디스플레이(4412), 제어부(4420), 및 메모리(4440)는 도 43에 도시된 사용자 입력부(4310), 제어부(4320), 디스플레이(4330), 및 메모리(4340)와 유사하거나 동일한 구성요소로 언급될 수 있다. The user input unit 4411 , the display 4412 , the control unit 4420 , and the memory 4440 included in the user interface unit 4410 shown in FIG. 44 include the user input unit 4310 and the control unit 4320 shown in FIG. 43 . ), display 4330 , and memory 4340 may be referred to as similar or identical components.

센서부(4430)는 디바이스(100)에 사용자의 접근 여부를 감지하는 근접 센서(4431), 디바이스(100) 주변의 조명을 감지하는 조도 센서(4432)(또는 광 센서), 디바이스(100)의 사용자의 무드(mood)를 감지하는 무드스코프 센서(4433), 디바이스(100)의 위치를 검출하기 위한 위치 센서(Position Sensor, 예를 들어, GPS(Global Positioning System) 수신기)(4434), 디바이스(100)의 방위각을 측정하는 자이로스코프 센서(4435), 지표면을 중심으로 디바이스(100)의 기울기 및 가속도 등을 측정하는 가속도(Accelerometer) 센서(4436), 디바이스(100)를 기준으로 동서남북 방위를 감지하는 지자기 센서(4437), 손바닥에 반사되는 적외선을 감지하여 손동작을 인식하는 제스처 센서(4438), 및/또는 주변 온도와 습도를 인식하는 온도/습도 센서(4439) 등을 포함할 수 있다. 위치 센서(4434)가 GPS 수신기로 구성되는 경우에, 위치 센서(4434)는 통신부(4490)에 포함되는 것으로 언급될 수 있다. 제스처 센서(4438)는 활동성(activity)을 감지하는 동작 감지 센서로 언급될 수 있다. The sensor unit 4430 includes a proximity sensor 4431 that detects whether a user approaches the device 100 , an illuminance sensor 4432 (or a light sensor) that detects lighting around the device 100 , and the device 100 . A mood scope sensor 4433 for detecting the user's mood, a position sensor for detecting the position of the device 100 (Position Sensor, for example, a Global Positioning System (GPS) receiver) 4434, a device ( A gyroscope sensor 4435 for measuring the azimuth of 100), an accelerometer sensor 4436 for measuring the inclination and acceleration of the device 100 with respect to the ground surface, and the device 100. It may include a geomagnetic sensor 4437, a gesture sensor 4438 for recognizing a hand gesture by detecting infrared rays reflected on the palm, and/or a temperature/humidity sensor 4439 for recognizing ambient temperature and humidity. When the location sensor 4434 is configured as a GPS receiver, the location sensor 4434 may be referred to as being included in the communication unit 4490 . The gesture sensor 4438 may be referred to as a motion detection sensor that detects activity.

센서부(4430)는 도 44에 도시된 바로 제한되지 않는다. 예를 들어, 센서부(4430)는 중력 센서, 고도(Altitude) 센서, 화학적 센서(예를 들어, 냄새 센서(Odorant sensor)), 기압 센서, 미세 먼지 측정 센서, 자외선 센서, 오존도 센서, 이산화 탄소(CO2) 센서, 또는/및 네트워크 센서(예를 들어 WiFi, Bluetooth, 3G, LTE(Long Term Evolution), 또는 NFC(Near Field Communication) 등에 기초한 네트워크 센서)를 포함할 수 있다. The sensor unit 4430 is not limited to that shown in FIG. 44 . For example, the sensor unit 4430 may include a gravity sensor, an altitude sensor, a chemical sensor (eg, an odor sensor), an atmospheric pressure sensor, a fine dust measurement sensor, an ultraviolet sensor, an ozone sensor, and a carbon dioxide sensor. a carbon (CO2) sensor, or/and a network sensor (eg, a network sensor based on WiFi, Bluetooth, 3G, Long Term Evolution (LTE), or Near Field Communication (NFC), etc.).

센서부(4430)는 압력 센서(예를 들어, 터치 센서, 압전 센서, 물리적인 버튼 등), 상태 센서(예를 들어, 이어폰 단자, DMB(Digital Multimedia Broadcasting) 안테나, 표준 단자(예를 들어, 충전 진행 여부를 인식할 수 있는 단자, PC(Personal Computer) 연결 여부를 인식할 수 있는 단자, 독(dock) 연결 여부를 인식할 수 있는 단자), 타임 센서, 또는/및 헬스 센서(예를 들어 바이오 센서, 심박동 센서, 혈류량 센서, 당뇨 센서, 혈압 센서, 스트레스 센서 등)를 포함할 수 있으나 본 개시에서 센서부(4430)에 포함될 수 있는 센서는 상술한 바로 제한되지 않는다. The sensor unit 4430 includes a pressure sensor (eg, a touch sensor, a piezoelectric sensor, a physical button, etc.), a status sensor (eg, an earphone terminal, a Digital Multimedia Broadcasting (DMB) antenna, a standard terminal (eg, A terminal that can recognize whether charging is in progress, a terminal that can recognize whether a PC (Personal Computer) is connected, a terminal that can recognize whether a dock is connected), a time sensor, or/and a health sensor (for example, a biosensor, a heartbeat sensor, a blood flow sensor, a diabetes sensor, a blood pressure sensor, a stress sensor, etc.), but the sensor that may be included in the sensor unit 4430 in the present disclosure is not limited thereto.

센서부(4430)에 의해 감지된 결과(또는 센싱 값, 또는 센싱 신호)는 제어부(4420)로 전송된다. The result (or sensed value, or sensed signal) sensed by the sensor unit 4430 is transmitted to the controller 4420 .

제어부(4420)는 센서부(4430)로부터 수신되는 센싱 값에 기초하여 아바타기반 이미지를 생성하여 디스플레이(4412)에 디스플레이 할 수 있다. 제어부(4420)는 사용자 입력부(4411)를 통해 수신되는 수정 요청을 나타내는 사용자 입력에 따라 디스플레이(4412)에 디스플레이 되고 있는 아바타 기반 이미지를 수정할 수 있다. 제어부(4420)는 수정된 아바타 기반 이미지에 기초하여 메모리(4440)에 저장된 사용자 정보를 업데이트 할 수 있다. 제어부(4410)는 수정된 아바타 기반 이미지에 기초하여 통신부(4490)를 통해 연결된 외부 디바이스(2120)에 저장된 사용자 정보를 업데이트 할 수 있다. 이와 같이 제어부(4420)는 도 43의 제어부(4320)와 같이 일부 실시 예에 따라 동작할 수 있다. The controller 4420 may generate an avatar-based image based on the sensed value received from the sensor 4430 and display it on the display 4412 . The controller 4420 may modify the avatar-based image displayed on the display 4412 according to a user input indicating a modification request received through the user input unit 4411 . The controller 4420 may update user information stored in the memory 4440 based on the modified avatar-based image. The controller 4410 may update user information stored in the external device 2120 connected through the communication unit 4490 based on the modified avatar-based image. As described above, the control unit 4420 may operate according to some embodiments, like the control unit 4320 of FIG. 43 .

제어부(4420)는 디바이스(100)의 전반적인 동작을 제어한다. 예를 들어, 제어부(4420)는 메모리(4440)에 저장된 프로그램들을 실행함으로써, 사용자 인터페이스부(4410), 센서부(4430), 메모리(4440), 영상 처리부(4450), 오디오 출력부(4460), 오디오 입력부(4470), 카메라(4480) 또는/및 통신부(4490)를 전반적으로 제어할 수 있다. The controller 4420 controls the overall operation of the device 100 . For example, the control unit 4420 executes programs stored in the memory 4440 , and thus the user interface unit 4410 , the sensor unit 4430 , the memory 4440 , the image processing unit 4450 , and the audio output unit 4460 . , the audio input unit 4470 , the camera 4480 , and/or the communication unit 4490 may be generally controlled.

제어부(4420)는 도 43의 제어부(4320)와 같이 상술한 도 2, 도 7, 도 9, 도 11, 도 13, 도 14, 도 16, 도 18, 도 20, 도 22, 도 28, 도30, 도 33, 도 34, 도 35, 도 36, 도 37, 도 39, 도 40, 도 41, 또는 도 42에 도시된 흐름도에 기초한 디바이스(100)의 동작을 수행할 수 있다. The control unit 4420 is similar to the control unit 4320 of FIG. 43 in FIGS. 2, 7, 9, 11, 13, 14, 16, 18, 20, 22, 28, and FIG. 30, 33, 34, 35, 36, 37, 39, 40, 41, or 42 may perform an operation of the device 100 based on the flowchart shown in FIG.

제어부(4420)는 디바이스(100)의 동작 환경에 따라 복수 개로 구성될 수 있다. 예를 들어, 제어부(4420)는 디바이스(100)의 저전력 모드 시 동작되는 프로세서와 정상 모드 시 동작되는 프로세서를 포함할 수 있다. 제어부(4420)는 디바이스(100)에 포함된 구성 요소에 따라 구분된 복수의 프로세서를 포함할 수 있다. A plurality of control units 4420 may be configured according to the operating environment of the device 100 . For example, the controller 4420 may include a processor operated in a low power mode of the device 100 and a processor operated in a normal mode of the device 100 . The controller 4420 may include a plurality of processors classified according to components included in the device 100 .

메모리(4440)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류될 수 있다. 예를 들어, 메모리(4440)에 저장되는 프로그램들은 UI 모듈(4441), 알림 모듈(4442), 또는/및 애플리케이션 모듈(4443) 등으로 분류될 수 있으나 본 개시에서 메모리(4440)에 저장되는 프로그램들은 상술한 바로 한정되는 것은 아니다. 예를 들어, 디스플레이(4412)가 터치 패널 레이어와 결합된 경우에, 상기 복수 개의 모듈은 터치 스크린 모듈을 포함할 수 있다. Programs stored in the memory 4440 may be classified into a plurality of modules according to their functions. For example, programs stored in the memory 4440 may be classified into a UI module 4441 , a notification module 4442 , and/or an application module 4443 , but in the present disclosure, programs stored in the memory 4440 . They are not limited to the above. For example, when the display 4412 is combined with a touch panel layer, the plurality of modules may include a touch screen module.

UI 모듈(4441)은 바람직한 실시 예에서 언급되는 사용자 정보를 수정하기 위한 GUI 정보를 제어부(4420)로 제공할 수 있다. UI 모듈(4441)은, 디바이스(100)에 설치된 각 애플리케이션에 대해 특화된 UI, GUI 등을 제어부(4420)로 제공할 수 있다. The UI module 4441 may provide GUI information for correcting user information mentioned in a preferred embodiment to the controller 4420 . The UI module 4441 may provide a UI, GUI, etc. specialized for each application installed in the device 100 to the controller 4420 .

알림 모듈(4442)은 디바이스(100)의 수정 요청, 추가 요청, 수정 완료, 오브젝트 선택, 서비스 정보 요청, 또는 서비스 선택 등을 알리는 신호를 발생할 수 있으나 알림 모듈(4442)에 의해 발생되는 알림은 상술한 바로 제한되지 않는다. The notification module 4442 may generate a signal notifying the device 100 of a modification request, an additional request, a modification completion, an object selection, a service information request, or a service selection, etc., but the notification generated by the notification module 4442 is described above. As long as it is not limited to

알림 모듈(4442)은 디스플레이(4412)를 통해 비디오 신호 형태로 알림 신호를 출력할 수 있고, 오디오 출력부(4460)를 통해 오디오 신호 형태로 알림 신호를 출력할 수 있으나 이로 한정되지 않는다. The notification module 4442 may output a notification signal in the form of a video signal through the display 4412 and may output a notification signal in the form of an audio signal through the audio output unit 4460, but is not limited thereto.

애플리케이션 모듈(4443)은 디바이스(100)에 설정된 사용자 정보 관리 애플리케이션, 또는/및 아바타 기반 이미지에 기초한 서비스 제공 애플리케이션중 적어도 하나를 포함할 수 있다. The application module 4443 may include at least one of a user information management application set in the device 100 and/or a service providing application based on an avatar-based image.

일부 실시 예들에 따른 사용자 정보 관리 애플리케이션은 디바이스(100)에 설정된 다른 애플리케이션과 연결되어 동작될 수 있다. 예를 들어, 도 37의 단계 S3702에서 질문 정보가 수신되면, 단계 S3703에서 수신된 질문 정보에 기초한 대답 정보(예를 들어, 서치 결과)를 제공하기 위하여 사용자 정보 관리 애플리케이션은 디바이스(100)에 설정된 QA(Question & Answer) 애플리케이션과 연결되어 동작될 수 있다. The user information management application according to some embodiments may be operated in connection with another application set in the device 100 . For example, when the question information is received in step S3702 of FIG. 37, the user information management application is set in the device 100 to provide answer information (eg, a search result) based on the question information received in step S3703 It may be operated in connection with a QA (Question & Answer) application.

영상 처리부(4450)는 통신부(4490)로부터 수신되거나 메모리(4440)에 저장된 영상 데이터를 디스플레이(4412)에 디스플레이 할 수 있도록 처리한다. 예를 들어, 상술한 도 1, 도 5a 내지 도 5e, 도 6a 내지 도 6e, 도 8a 내지 도 8c, 도 10, 도 12a 내지 도 12c, 도 15a 내지 도 15e, 도 17a 내지 도 17d, 도 19a, 도 19b, 도 23a 내지 도 23f, 도 27a 내지 도 27f, 도 29a 내지 도 29f, 도 31a 내지 도 31d, 또는 도 38에 도시된 GUI(Graphic User Interface) 화면이 디스플레이(4412)에 디스플레이 될 수 있도록, 영상 처리부(4450)는 영상 데이터에 대한 신호 처리를 수행할 수 있다. The image processing unit 4450 processes image data received from the communication unit 4490 or stored in the memory 4440 to be displayed on the display 4412 . For example, FIGS. 1, 5A to 5E, 6A to 6E, 8A to 8C, 10, 12A to 12C, 15A to 15E, 17A to 17D, and 19A described above. , 19B, 23A to 23F, 27A to 27F, 29A to 29F, 31A to 31D, or 38 may display a GUI (Graphic User Interface) screen shown on the display 4412. Thus, the image processing unit 4450 may perform signal processing on the image data.

오디오 출력부(4460)는 일부 실시 예들에 따라 사용자 정보에 따른 사운드를 출력할 수 있다. 오디오 출력부(4460)는 통신부(4490)로부터 수신되거나 메모리(4440)에 저장된 오디오 데이터를 출력할 수 있다. 오디오 출력부(4460)는 디바이스(100)에 의해 수행되는 기능과 관련된 음향 신호(예를 들어, 알림 음)를 출력할 수 있다. 오디오 출력부(4460)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있으나 이로 제한되지 않는다.The audio output unit 4460 may output a sound according to user information according to some embodiments. The audio output unit 4460 may output audio data received from the communication unit 4490 or stored in the memory 4440 . The audio output unit 4460 may output an acoustic signal (eg, a notification sound) related to a function performed by the device 100 . The audio output unit 4460 may include, but is not limited to, a speaker, a buzzer, and the like.

오디오 입력부(4470)는 마이크로 폰으로 구성될 수 있다. 오디오 입력부(4470)는 디바이스(100)의 외부로부터 입력되는 오디오 신호를 수신하고, 수신된 오디오 신호를 전기적인 오디오 신호로 변환하여 제어부(4420)로 전송할 수 있다. 오디오 입력부(4470)는 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘에 기초한 동작을 수행하도록 구성될 수 있다. 오디오 입력부(4470)는 사용자의 음성을 인식할 수 있다. The audio input unit 4470 may be configured as a microphone. The audio input unit 4470 may receive an audio signal input from the outside of the device 100 , convert the received audio signal into an electrical audio signal, and transmit it to the controller 4420 . The audio input unit 4470 may be configured to perform operations based on various noise removal algorithms for removing noise generated in the process of receiving an external sound signal. The audio input unit 4470 may recognize the user's voice.

카메라(4480)는 화상 통화 모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 카메라(4480)는 디바이스(100)의 사용자의 손가락 제스처 이미지를 얻어 제어부(4480)로 전송할 수 있다. 제어부(4420)는 사용자의 손가락 제스처 이미지에 기초하여 아바타 기반 이미지에 대한 수정 요청를 나타내는 사용자 입력, 아바타 기반 이미지에 대한 추가 요청을 나타내는 사용자 입력, 아바타 기반 이미지에 대한 수정 완료를 나타내는 사용자 입력, 아바타 기반 이미지에서 오브젝트 선택을 나타내는 사용자 입력, 아바타 기반 이미지에 기초한 서비스 정보 제공 요청을 나타내는 사용자 입력, 아바타 기반 이미지에 기초한 서비스 실행 요청을 나타내는 사용자 입력의 수신 여부를 판단할 수 있다. 본 개시에서 사용자의 손가락 제스처 이미지는 상술한 사용자 입력의 수신 여부를 판단하기 위해 이용되는 것으로 제한되지 않는다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(4420) 또는 별도의 이미지 처리부(미 도시됨)를 통해 처리될 수 있다. The camera 4480 may obtain an image frame such as a still image or a moving image through an image sensor in a video call mode or a shooting mode. The camera 4480 may obtain an image of the user's finger gesture of the device 100 and transmit it to the controller 4480 . Based on the user's finger gesture image, the controller 4420 may include a user input indicating a request for modification of the avatar-based image, a user input indicating an additional request for an avatar-based image, a user input indicating completion of modification of the avatar-based image, and an avatar-based image based on the user's finger gesture image. It may be determined whether a user input indicating object selection from an image, a user input indicating a service information provision request based on the avatar-based image, and a user input indicating a service execution request based on the avatar-based image are received. In the present disclosure, the user's finger gesture image is not limited to being used to determine whether the above-described user input is received. The image captured through the image sensor may be processed through the controller 4420 or a separate image processing unit (not shown).

카메라(4480)에 의해 처리된 화상 프레임은 메모리(4440)에 저장되거나 통신부(4490)를 통하여 외부로 전송될 수 있다. 카메라(4480)는 디바이스(100)의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 4480 may be stored in the memory 4440 or transmitted to the outside through the communication unit 4490 . Two or more cameras 4480 may be provided according to the configuration of the device 100 .

통신부(4490)는 디바이스(100)와 적어도 하나의 외부 디바이스(2120)간의 통신을 위한 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(4490)는, 근거리 통신기(4491), 이동 통신기(4492), 또는/및 방송 수신기(4493)중 적어도 하나를 포함할 수 있다. 본 개시에서 통신부(4490)에 포함되는 구성 요소는 상술한 바로 제한되지 않는다. 예를 들어, 통신부(4490)는 도 21의 네트워크(2110)에서 설명된 적어도 하나의 통신을 수행할 수 있는 구성 요소를 포함할 수 있다. The communication unit 4490 may include one or more components for communication between the device 100 and at least one external device 2120 . For example, the communication unit 4490 may include at least one of a short-range communicator 4491 , a mobile communicator 4492 , and/or a broadcast receiver 4493 . Components included in the communication unit 4490 in the present disclosure are not limited as described above. For example, the communication unit 4490 may include a component capable of performing at least one communication described in the network 2110 of FIG. 21 .

근거리 통신기(short-range wireless communicator)(4491)는, 블루투스 통신, BLE(Bluetooth Low Energy) 통신, 근거리 무선 통신(Near Field Communication unit, RFID), WLAN(와이파이) 통신, 지그비(Zigbee) 통신, Ant+ 통신, WFD(Wi-Fi Direct) 통신, 또는 UWB(ultra wideband) 통신중에서 적어도 하나의 통신이 가능한 모듈을 포함하도록 구성될 수 있다. 본 개시에서 근거리 통신기(4491)에 포함되는 통신 모듈은 상술한 바로 제한되지 않는다. 예를 들어, 근거리 통신기(4491)는 적외선(IrDA, infrared Data Association) 통신 모듈을 포함할 수 있다. 근거리 통신기(4491)는 비콘 신호를 수신할 때, 저전력 블루투스 통신을 사용할 수 있다. Short-range wireless communicator (short-range wireless communicator) 4491, Bluetooth communication, BLE (Bluetooth Low Energy) communication, short-range wireless communication (Near Field Communication unit, RFID), WLAN (Wi-Fi) communication, Zigbee (Zigbee) communication, Ant+ Communication, WFD (Wi-Fi Direct) communication, or UWB (ultra wideband) communication may be configured to include a module capable of at least one communication. In the present disclosure, the communication module included in the short-range communicator 4491 is not limited to the above. For example, the short-range communicator 4491 may include an infrared data association (IrDA) communication module. When receiving the beacon signal, the short-range communicator 4491 may use low-power Bluetooth communication.

이동 통신기(4492)는 이동 통신망 상에서 기지국, 외부 디바이스, 또는/및 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communicator 4492 transmits/receives wireless signals to and from at least one of a base station, an external device, and/or a server over a mobile communication network. Here, the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call signal, or a text/multimedia message.

방송 수신기(4493)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널, 및 라디오 채널중 적어도 하나를 포함할 수 있으나 이로 제한되지 않는다. The broadcast receiver 4493 receives a broadcast signal and/or broadcast-related information from the outside through a broadcast channel. The broadcast channel may include, but is not limited to, at least one of a satellite channel, a terrestrial channel, and a radio channel.

통신부(4490)는 일부 실시 예들에 따라 디바이스(100)에서 생성된 아바타기반 이미지 또는/및 수정된 아바타 기반 이미지를 외부 디바이스(2120)로 전송할 수 있다. 통신부(4490)는 일부 실시 예들에 따라 외부 디바이스(2120)로부터 사용자 정보, 사용자 모델링 정보, 아바타 기반 이미지, 서비스 정보, 각 오브젝트별 좌표 정보, 또는/및 오브젝트간 결합 조건 정보중 적어도 하나를 수신할 수 있다. 통신부(4490)를 통해 송수신되는 정보, 데이터, 및 신호는 상술한 바로 제한되지 않는다. The communication unit 4490 may transmit the avatar-based image generated by the device 100 and/or the modified avatar-based image to the external device 2120 according to some embodiments. The communication unit 4490 may receive at least one of user information, user modeling information, avatar-based image, service information, coordinate information for each object, and/or coupling condition information between objects from the external device 2120 according to some embodiments. can Information, data, and signals transmitted and received through the communication unit 4490 are not limited as described above.

도 45는 일부 실시 예들에 따른 제어부(4320, 4420)의 상세한 기능 블록도이다. 이하 설명을 편의를 위하여 도 44의 제어부(4420)에 기초하여 설명하나 이하 설명은 도 43의 제어부(4320)에 적용될 수 있다. 45 is a detailed functional block diagram of the controllers 4320 and 4420 according to some embodiments. The following description will be based on the controller 4420 of FIG. 44 for convenience, but the following description may be applied to the controller 4320 of FIG. 43 .

도 45를 참조하면, 제어부(4420)는 정보 수집 프로세서(4501), 사용자 모델링 정보 생성 프로세서(4502), 이미지 생성 프로세서(4503), 이미지 디스플레이 프로세서(4504), 이미지 수정 프로세서(4505), 및 사용자 모델링 정보 수정 프로세서(4506)를 포함한다. Referring to FIG. 45 , the controller 4420 includes an information collection processor 4501 , a user modeling information generation processor 4502 , an image generation processor 4503 , an image display processor 4504 , an image modification processor 4505 , and a user modeling information modification processor 4506 .

정보 수집 프로세서(4501)는 사용자 정보를 수집할 수 있다. 정보 수집 프로세서(4501)는 사용자 입력부(4411), 센서부(4430), 또는 통신부(4490)를 통해 수신되는 정보에 기초하여 사용자 정보를 수집할 수 있다. 사용자 정보는 본 개시의 서두에서 언급한 바와 같다. 사용자 입력부(4411)를 통해 수신되는 사용자 입력은 정보 수집 프로세서(4501)에 의해 제공되는 이미지 형태의 오브젝트에 대한 선택에 기초할 수 있으나 본 개시에서 사용자 입력은 상술한 바로 제한되지 않는다. 정보 수집 프로세서(4501)는 수집된 사용자 정보를 메모리(4440)에 저장하거나 통신부(4490)를 통해 외부 디바이스(2120)로 전송할 수 있다. The information collection processor 4501 may collect user information. The information collection processor 4501 may collect user information based on information received through the user input unit 4411 , the sensor unit 4430 , or the communication unit 4490 . User information is the same as mentioned at the beginning of the present disclosure. The user input received through the user input unit 4411 may be based on selection of an image-type object provided by the information collection processor 4501 , but the user input in the present disclosure is not limited as described above. The information collection processor 4501 may store the collected user information in the memory 4440 or transmit it to the external device 2120 through the communication unit 4490 .

사용자 모델링 정보 생성 프로세서(4502)는 정보 수집 프로세서(4501)에 의해 수집된 사용자 정보를 이용하여 사용자 모델링 정보를 생성한다. 사용자 모델링 정보는 도 3 또는 도 24a에 도시된 바와 같이 구성될 수 있다. 본 개시에서 사용자 모델링 정보는 상술한 바로 제한되지 않는다. 사용자 모델링 정보 생성 프로세서(4502)는 생성된 사용자 모델링 정보를 메모리(4440)에 저장하거나 통신부(4490)를 통해 외부 디바이스(2120)로 전송할 수 있다. The user modeling information generation processor 4502 generates user modeling information by using the user information collected by the information collection processor 4501 . The user modeling information may be configured as shown in FIG. 3 or FIG. 24A . The user modeling information in the present disclosure is not limited to the above. The user modeling information generation processor 4502 may store the generated user modeling information in the memory 4440 or transmit it to the external device 2120 through the communication unit 4490 .

이미지 생성 프로세서(4503)는 사용자 모델링 정보 생성 프로세서(4502)에 의해 생성된 사용자 모델링 정보에 기초하여 본 개시에서 언급되는 아바타 기반 이미지를 생성한다. 아바타 기반 이미지는 사용자를 상징하는 이미지라고 말할 수 있다. 이미지 생성 프로세서(4503)는 생성된 아바타 기반 이미지를 메모리(4440)에 저장하거나 통신부(4490)를 통해 외부 디바이스(2120)로 전송할 수 있다. 메모리(4440) 또는 외부 디바이스(2120)에 저장되는 이미지는 일시적으로 저장될 수 있다. The image generation processor 4503 generates the avatar-based image referred to in the present disclosure based on the user modeling information generated by the user modeling information generation processor 4502 . The avatar-based image may be said to be an image that represents the user. The image generation processor 4503 may store the generated avatar-based image in the memory 4440 or transmit it to the external device 2120 through the communication unit 4490 . The image stored in the memory 4440 or the external device 2120 may be temporarily stored.

이미지 디스플레이 프로세서(4504)는 이미지 생성 프로세서(4503)에 의해생성된 아바타 기반 이미지를 디스플레이(4412)를 통해 디스플레이 한다. The image display processor 4504 displays the avatar-based image generated by the image generation processor 4503 through the display 4412 .

이미지 수정 프로세서(4505)는 상술한 일부 실시 예들에 따라 디스플레이(4412)를 통해 디스플레이 되고 있는 아바타 기반 이미지에 기초하여 아바타 기반 이미지를 수정한다. 아바타 기반 이미지에 대한 수정이 완료되면, 이미지 수정 프로세서(4505)는 메모리(4440)에 저장된 이미지 또는 외부 디바이스(2120)에 저장된 이미지를 업데이트 할 수 있다. The image modification processor 4505 modifies the avatar-based image based on the avatar-based image being displayed through the display 4412 according to some embodiments described above. When the modification of the avatar-based image is completed, the image modification processor 4505 may update the image stored in the memory 4440 or the image stored in the external device 2120 .

사용자 모델링 정보 수정 프로세서(4506)는 이미지 수정 프로세서(4505)에 의해 수정된 이미지에 기초하여 메모리(4440) 또는 외부 디바이스(2120)에 저장된 사용자 정보를 업데이트한다. The user modeling information correction processor 4506 updates user information stored in the memory 4440 or the external device 2120 based on the image corrected by the image correction processor 4505 .

도 43 및 도 44에 도시된 제어부(4320, 4420)는 도 45에 도시된 구성 요소보다 적은 구성요소를 포함하거나 더 많은 구성 요소를 포함할 수 있다. 예를 들어, 외부 디바이스(2120)로부터 사용자 정보를 수신할 경우에 제어부(4320, 4420)는 정보 수집 프로세서(4501)를 포함하지 않을 수 있다. The controllers 4320 and 4420 illustrated in FIGS. 43 and 44 may include fewer or more components than those illustrated in FIG. 45 . For example, when receiving user information from the external device 2120 , the controllers 4320 and 4420 may not include the information collection processor 4501 .

외부 디바이스(2120)로부터 사용자 모델링 정보를 수신할 경우에, 제어부(4320, 4420)는 정보 수집 프로세서(4501) 및 사용자 모델링 정보 생성 프로세서(4502) 대신에 사용자 모델링 정보 수신 프로세서를 포함하고, 사용자 모델링 정보 수정 프로세서(4506) 대신에 사용자 모델링 정보 전송 프로세서를 포함할 수 있다. 예를 들어, 외부 디바이스(2120)로부터 사용자 정보에 기초한 아바타 기잔 이미지를 수신할 경우에, 제어부(4320, 4420)는 정보 수집 프로세서(4501), 사용자 모델링 정보 생성 프로세서(4502), 및 이미지 생성 프로세서(4503) 대신에 이미지 수신 프로세서를 포함할 수 있다. When receiving user modeling information from the external device 2120, the control unit 4320, 4420 includes a user modeling information receiving processor instead of the information collection processor 4501 and the user modeling information generating processor 4502, user modeling Instead of the information modification processor 4506, a user modeling information transmission processor may be included. For example, when receiving an avatar character image based on user information from the external device 2120 , the controllers 4320 and 4420 may include an information collection processor 4501 , a user modeling information generation processor 4502 , and an image generation processor (4503) may include an image receiving processor instead.

상술한 바와 같이 도 43 및 도 44에 도시된 제어부(4320, 4420)의 상세한 기능 블록도는 도 45에 도시된 바로 제한되지 않는다. 또한, 제어부(4320, 4420)의 기능 블록도에 기초하여 외부 디바이스(2120)의 기능이 결정될 수 있다. As described above, the detailed functional block diagrams of the controllers 4320 and 4420 shown in FIGS. 43 and 44 are not limited to those shown in FIG. 45 . Also, the function of the external device 2120 may be determined based on the functional block diagram of the controllers 4320 and 4420 .

본 개시의 실시 예들에 따른 방법을 컴퓨터로 구현하는 방법을 수행하도록 하는 명령어들을 포함하는 하나 이상의 프로그램은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로써 기록되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드로써 저장되고 실행될 수 있다. One or more programs including instructions to perform the method of implementing the method according to the embodiments of the present disclosure by a computer may be recorded as computer-readable codes in a computer-readable recording medium. The computer-readable recording medium includes all types of storage devices in which data readable by a computer system is stored. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. In addition, the computer-readable recording medium may be distributed in network-connected computer systems, and may be stored and executed as computer-readable codes in a distributed manner.

이제까지 본 개시에 대하여 그 바람직한 실시 예들을 중심으로 살펴보았다. 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자는 본 개시가 본 개시의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 개시의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 개시에 포함된 것으로 해석되어야 할 것이다. So far, the present disclosure has been focused on preferred embodiments thereof. Those of ordinary skill in the art to which the present disclosure pertains will understand that the present disclosure may be implemented in a modified form without departing from the essential characteristics of the present disclosure. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present disclosure is indicated in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present disclosure.

Claims (20)

사용자 정보를 관리하는 디바이스에 있어서,
아바타 기반 이미지를 디스플레이 하는 디스플레이;
사용자 입력을 수신하는 사용자 입력부;
사용자 스케줄 정보에 따른 아바타 기반 이미지가 상기 디스플레이에 디스플레이 되도록 상기 디스플레이를 제어하고,
상기 사용자 입력부를 통해, 상기 사용자 스케줄 정보에 따른 아바타 기반 이미지에 대한 수정 요청을 나타내는 사용자 입력이 수신됨에 따라, 상기 사용자 스케줄 정보에 따른 아바타 기반 이미지를 수정하고,
상기 수정된 아바타 기반 이미지에 따라 상기 사용자 스케줄 정보를 업데이트 하는 제어부를 포함하고,
상기 제어부는,
사용자의 헬스 정보에 따른 아바타 기반 이미지가 상기 디스플레이에 디스플레이 되도록 상기 디스플레이를 제어하고,
상기 사용자 입력부를 통해, 상기 사용자의 헬스 정보에 따른 아바타 기반 이미지에 기초한 의료 정보 요청을 나타내는 사용자 입력이 수신됨에 따라, 상기 사용자의 헬스 정보에 관련된 의료 정보가 상기 디스플레이에 디스플레이 되도록 상기 디스플레이를 제어하고,
상기 사용자 입력부를 통해, 상기 디스플레이 되고 있는 의료 정보에 기초하여 선택된 의료 정보에 관한 정보가 수신되면, 상기 선택된 의료 정보에 기초하여 상기 사용자 스케줄 정보를 업데이트 하도록 더 구성되는 디바이스.
In the device for managing user information,
a display that displays an avatar-based image;
a user input unit for receiving a user input;
controlling the display so that an avatar-based image according to user schedule information is displayed on the display;
modifying the avatar-based image according to the user schedule information when a user input indicating a request for modification of the avatar-based image according to the user schedule information is received through the user input unit;
a control unit for updating the user schedule information according to the modified avatar-based image;
The control unit is
controlling the display so that an avatar-based image according to the user's health information is displayed on the display;
When a user input indicating a medical information request based on an avatar-based image according to the user's health information is received through the user input unit, the display is controlled so that medical information related to the user's health information is displayed on the display, ,
The device further configured to update the user schedule information based on the selected medical information when information on medical information selected based on the displayed medical information is received through the user input unit.
제 1 항에 있어서, 상기 제어부는, 상기 사용자 입력부를 통해, 특정 기간의 사용자 정보를 요청하는 사용자 입력이 수신됨에 따라, 상기 특정 기간의 사용자 정보에 기초한 복수의 아바타 기반 이미지를 디스플레이하기 위하여 상기 디스플레이를 제어하도록 더 구성되고,
상기 복수의 아바타 기반 이미지는 상기 특정 기간을 나누는 기준에 따라 결정되는 디바이스.
According to claim 1, wherein the control unit, when a user input requesting user information of a specific period is received through the user input unit, the display is configured to display a plurality of avatar-based images based on the user information of the specific period is further configured to control
The plurality of avatar-based images are determined according to a criterion for dividing the specific period.
제 1 항에 있어서, 상기 제어부는, 상기 사용자 입력부를 통해, 특정 기간의 사용자 정보를 요청하는 사용자 입력이 수신됨에 따라, 상기 특정 기간의 사용자 정보에 기초한 복수의 아바타 기반 이미지를 디스플레이하기 위하여 상기 디스플레이를 제어하도록 더 구성되고,
상기 복수의 아바타 기반 이미지는 상기 특정 기간의 사용자 정보에 포함되는 테마 아이템에 따라 결정되는 디바이스.
According to claim 1, wherein the control unit, when a user input requesting user information of a specific period is received through the user input unit, the display is configured to display a plurality of avatar-based images based on the user information of the specific period is further configured to control
The plurality of avatar-based images is determined according to a theme item included in the user information of the specific period.
제 1 항에 있어서, 상기 제어부는,
상기 사용자 입력부를 통해, 수정 가능한 정보 표시를 요청하는 사용자 입력이 수신됨에 따라, 상기 아바타 기반 이미지중에서 수정 가능한 부분을 수정 가능하지 않은 부분과 구별되게 표시하기 위하여 상기 디스플레이를 제어하도록 더 구성되는 디바이스.
According to claim 1, wherein the control unit,
and when a user input requesting display of editable information is received through the user input unit, control the display to display an editable portion of the avatar-based image to be distinguished from a non-modifiable portion.
제 1 항에 있어서, 상기 제어부는,
상기 아바타 기반 이미지에 대한 제공 기간이 설정되어 있으면, 상기 제공 기간을 체크하고,
상기 제공 기간이 만료되면, 상기 아바타 기반 이미지를 소멸하도록 더 구성되는 디바이스.
According to claim 1, wherein the control unit,
If the provision period for the avatar-based image is set, check the provision period,
and when the provision period expires, destroy the avatar-based image.
삭제delete 제 1 항에 있어서, 상기 제어부는,
상기 사용자 입력부를 통해, 상기 아바타 기반 이미지에 대한 정보 추가를 나타내는 사용자 입력이 수신됨에 따라, 상기 정보 추가를 위한 입력 창이 디스플레이되도록 상기 디스플레이를 제어하고,
상기 입력 창을 통해 수신된 정보에 대응되는 이미지를 상기 아바타 기반 이미지에 추가하고,
상기 추가된 이미지를 포함하는 아바타 기반 이미지에 따라 상기 사용자 스케줄 정보를 업데이트 하도록 더 구성되는 디바이스.
According to claim 1, wherein the control unit,
When a user input indicating addition of information to the avatar-based image is received through the user input unit, the display is controlled to display an input window for adding the information;
adding an image corresponding to the information received through the input window to the avatar-based image;
The device further configured to update the user schedule information according to the avatar-based image including the added image.
제 1 항에 있어서, 상기 제어부는, 상기 사용자 입력부를 통해, 사용자의 장래 희망 정보에 관련된 정보를 요청하는 사용자 입력이 수신됨에 따라 상기 사용자의 장래 희망 정보에 관련된 정보를 상기 디스플레이를 통해 제공하고,
상기 사용자의 장래 희망 정보에 관련된 정보 중 선택된 정보에 따라 상기 사용자 스케줄 정보를 업데이트 하도록 더 구성되는 디바이스.
The method of claim 1, wherein the control unit provides information related to the user's future hope information through the display as a user input requesting information related to the user's future hope information is received through the user input unit,
The device is further configured to update the user schedule information according to selected information among information related to the user's future wish information.
제 1 항에 있어서, 상기 제어부는, 상기 사용자 입력부를 통해 상기 디바이스에 대한 사용 기간별 사용 히스토리 정보를 요청하는 사용자 입력이 수신됨에 따라, 상기 사용 히스토리 정보에 기초한 복수의 아바타 기반의 이미지를 디스플레이하기 위하여 상기 디스플레이를 제어하도록 더 구성되는 디바이스. The method of claim 1, wherein the control unit is configured to display a plurality of avatar-based images based on the usage history information in response to a user input requesting usage history information for each period of use of the device through the user input unit. A device further configured to control the display. 제 1 항에 있어서, 상기 제어부는, 소셜 미디어에 등록된 사용자 정보에 따른 아바타 기반 이미지를 디스플레이 하도록 상기 디스플레이를 제어하고,
상기 사용자 입력부를 통해, 수정을 요청하는 사용자 입력이 수신됨에 따라 상기 소셜 미디어에 등록된 사용자 정보에 따른 아바타 기반 이미지를 수정하고,
상기 수정된 아바타 기반 이미지에 따라 상기 소셜 미디어에 등록된 사용자 정보를 업데이트 하도록 더 구성되는 디바이스.
The method of claim 1, wherein the controller controls the display to display an avatar-based image according to user information registered in social media,
In response to a user input requesting modification being received through the user input unit, the avatar-based image is modified according to user information registered in the social media,
The device further configured to update user information registered in the social media according to the modified avatar-based image.
컴퓨팅 디바이스에 의해 실행되는 사용자 정보 관리 방법에 있어서,
사용자 스케줄 정보에 따른 아바타 기반 이미지를 상기 컴퓨팅 디바이스의 디스플레이에 디스플레이 하는 단계;
상기 사용자 스케줄 정보에 따른 아바타 기반 이미지에 대한 수정 요청을 나타내는 사용자 입력에 따라 상기 사용자 스케줄 정보에 따른 아바타 기반 이미지를 수정하는 단계;
상기 수정된 아바타 기반 이미지에 따라 상기 사용자 스케줄 정보를 업데이트 하는 단계;
사용자의 헬스 정보에 따른 아바타 기반 이미지를 상기 디스플레이에 디스플레이 하는 단계;
상기 사용자의 헬스 정보에 따른 아바타 기반 이미지에 기초한 의료 정보 요청을 나타내는 사용자 입력이 수신됨에 따라, 상기 사용자의 헬스 정보에 관련된 의료 정보를 상기 디스플레이에 디스플레이 하는 단계; 및
상기 디스플레이 되고 있는 의료 정보에 기초하여 선택된 의료 정보에 관한 정보가 수신되면, 상기 선택된 의료 정보에 기초하여 상기 사용자 스케줄 정보를 업데이트 하는 단계,
를 포함하는 사용자 정보 관리 방법.
A user information management method executed by a computing device, comprising:
displaying an avatar-based image according to user schedule information on a display of the computing device;
modifying the avatar-based image according to the user schedule information according to a user input indicating a request for modification of the avatar-based image according to the user schedule information;
updating the user schedule information according to the modified avatar-based image;
displaying an avatar-based image according to the user's health information on the display;
displaying medical information related to the user's health information on the display when a user input indicating a medical information request based on an avatar-based image according to the user's health information is received; and
When information on medical information selected based on the displayed medical information is received, updating the user schedule information based on the selected medical information;
A method for managing user information, including.
제 11 항에 있어서, 상기 사용자 스케줄 정보에 따른 아바타 기반 이미지를 디스플레이 하는 단계는,
특정 기간의 사용자 정보에 따라 복수의 아바타 기반 이미지를 디스플레이 하는 단계를 포함하고,
상기 복수의 아바타 기반 이미지는 상기 특정 기간을 나누는 기준에 따라 결정되는 사용자 정보 관리 방법.
The method of claim 11, wherein the displaying of the avatar-based image according to the user schedule information comprises:
Displaying a plurality of avatar-based images according to user information of a specific period,
The plurality of avatar-based images are determined according to a criterion for dividing the specific period.
제 11 항에 있어서, 상기 사용자 스케줄 정보에 따른 아바타 기반 이미지를 디스플레이 하는 단계는,
특정 기간의 사용자 정보에 따라 복수의 아바타 기반 이미지를 디스플레이 하는 단계를 포함하고,
상기 복수의 아바타 기반 이미지는 상기 특정 기간의 사용자 정보에 포함되어 있는 테마 아이템에 따라 결정되는 사용자 정보 관리 방법.
The method of claim 11, wherein the displaying of the avatar-based image according to the user schedule information comprises:
Displaying a plurality of avatar-based images according to user information of a specific period,
The plurality of avatar-based images are determined according to a theme item included in the user information of the specific period.
제 11 항에 있어서, 상기 방법은,
수정 가능한 정보 표시를 요청하는 사용자 입력이 수신됨에 따라 상기 아바타 기반 이미지중에서 수정 가능한 부분을 수정 가능하지 않은 부분과 구별되게 표시하는 단계를 더 포함하는 사용자 정보 관리 방법.
12. The method of claim 11, wherein the method comprises:
and displaying an editable portion of the avatar-based image to be distinguished from a non-modifiable portion of the avatar-based image in response to a user input requesting display of the editable information.
제 11 항에 있어서, 상기 방법은,
상기 아바타 기반 이미지에 대한 제공 기간이 설정되어 있으면, 상기 제공 기간을 체크하는 단계;
상기 제공 기간이 만료되면, 상기 아바타 기반 이미지를 소멸하는 단계를
더 포함하는 사용자 정보 관리 방법.
12. The method of claim 11, wherein the method comprises:
checking the provision period when a provision period for the avatar-based image is set;
When the provision period expires, the step of destroying the avatar-based image
A method for managing user information further comprising.
삭제delete 제 11 항에 있어서, 상기 방법은,
상기 아바타 기반 이미지에 대한 정보 추가를 나타내는 사용자 입력이 수신됨에 따라 상기 정보 추가를 위한 입력 창을 상기 디스플레이에 디스플레이 하는 단계;
상기 입력 창을 통해 수신된 정보에 대응되는 이미지를 상기 아바타 기반 이미지에 추가하는 단계; 및
상기 추가된 이미지를 포함하는 아바타 기반 이미지에 따라 상기 사용자 스케줄 정보를 업데이트 하는 단계를 더 포함하는 사용자 정보 관리 방법.
12. The method of claim 11, wherein the method comprises:
displaying an input window for adding information on the display when a user input indicating addition of information on the avatar-based image is received;
adding an image corresponding to the information received through the input window to the avatar-based image; and
The user information management method further comprising the step of updating the user schedule information according to the avatar-based image including the added image.
제 11 항에 있어서, 상기 방법은,
사용자의 장래 희망 정보에 따른 아바타 기반 이미지를 디스플레이 하는 단계; 및
상기 사용자의 장래 희망 정보에 관련된 정보를 요청하는 사용자 입력이 수신됨에 따라 상기 사용자의 장래 희망 정보에 관련된 정보를 제공하는 단계; 및
상기 사용자의 장래 희망 정보에 관련된 정보 중 선택된 정보에 따라 상기 사용자 스케줄 정보를 업데이트 하는 단계를 더 포함하는 사용자 정보 관리 방법.
12. The method of claim 11, wherein the method comprises:
displaying an avatar-based image according to the user's future wish information; and
providing information related to the user's future hope information in response to a user input requesting information related to the user's future hope information; and
The user information management method further comprising the step of updating the user schedule information according to information selected from the information related to the user's future desired information.
제 11 항에 있어서, 상기 방법은,
상기 컴퓨팅 디바이스에 대한 사용 기간별 사용 히스토리 정보를 요청하는 사용자 입력이 수신됨에 따라
상기 사용 히스토리 정보에 기초한 복수의 아바타 기반의 이미지를 디스플레이 하는 단계를 더 포함하는 사용자 정보 관리 방법.
12. The method of claim 11, wherein the method comprises:
As a user input requesting usage history information for each usage period for the computing device is received
The user information management method further comprising the step of displaying a plurality of avatar-based images based on the usage history information.
제 11 항에 있어서, 상기 방법은,
소셜 미디어에 등록된 사용자 정보에 따른 아바타 기반 이미지를 디스플레이 하는 단계;
수정을 요청하는 사용자 입력이 수신됨에 따라 상기 소셜 미디어에 등록된 사용자 정보에 따른 아바타 기반 이미지를 수정하는 단계; 및
상기 수정된 아바타 기반 이미지에 따라 상기 소셜 미디어에 등록된 사용자 정보를 업데이트 하는 단계를 더 포함하는 사용자 정보 관리 방법.
12. The method of claim 11, wherein the method comprises:
displaying an avatar-based image according to user information registered in social media;
modifying an avatar-based image according to user information registered in the social media in response to a user input requesting modification; and
The user information management method further comprising the step of updating the user information registered in the social media according to the modified avatar-based image.
KR1020150070566A 2014-10-31 2015-05-20 Device for managing user information based on image and method thereof KR102384311B1 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
TW104134458A TWI680400B (en) 2014-10-31 2015-10-21 Device and method of managing user information based on image
PCT/KR2015/011388 WO2016068581A1 (en) 2014-10-31 2015-10-27 Device and method of managing user information based on image
EP15191948.7A EP3015145A1 (en) 2014-10-31 2015-10-28 Device and method of managing user information based on image
CN201510726716.4A CN105573573B (en) 2014-10-31 2015-10-30 Apparatus and method for managing user information based on image
US14/929,841 US10096143B2 (en) 2014-10-31 2015-11-02 Device and method of managing user information based on image
US16/139,552 US11024070B2 (en) 2014-10-31 2018-09-24 Device and method of managing user information based on image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140150635 2014-10-31
KR20140150635 2014-10-31

Publications (2)

Publication Number Publication Date
KR20160051536A KR20160051536A (en) 2016-05-11
KR102384311B1 true KR102384311B1 (en) 2022-04-08

Family

ID=56026248

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150070566A KR102384311B1 (en) 2014-10-31 2015-05-20 Device for managing user information based on image and method thereof

Country Status (2)

Country Link
KR (1) KR102384311B1 (en)
TW (1) TWI680400B (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10155168B2 (en) 2012-05-08 2018-12-18 Snap Inc. System and method for adaptable avatars
US10339365B2 (en) 2016-03-31 2019-07-02 Snap Inc. Automated avatar generation
US10432559B2 (en) * 2016-10-24 2019-10-01 Snap Inc. Generating and displaying customized avatars in electronic messages
KR102515132B1 (en) 2017-04-27 2023-03-28 스냅 인코포레이티드 A geographic level representation of a user's location on a social media platform
US11893647B2 (en) 2017-04-27 2024-02-06 Snap Inc. Location-based virtual avatars
US10212541B1 (en) 2017-04-27 2019-02-19 Snap Inc. Selective location-based identity communication
TWI705397B (en) * 2018-05-21 2020-09-21 財團法人工業技術研究院 Method of managing inventory, method of searching inventory, server for managing inventory and server for searching inventory
KR102639725B1 (en) * 2019-02-18 2024-02-23 삼성전자주식회사 Electronic device for providing animated image and method thereof
CN112675535B (en) * 2020-12-24 2023-08-01 咪咕互动娱乐有限公司 Display interface adjusting method, device, network equipment and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002109306A (en) * 2000-09-28 2002-04-12 Citizen Watch Co Ltd System for preparing merchandise design
US20110004835A1 (en) * 2009-05-29 2011-01-06 Jake Yanchar Graphical planner
US20110239143A1 (en) 2010-03-29 2011-09-29 Microsoft Corporation Modifying avatar attributes
JP2013202111A (en) 2012-03-27 2013-10-07 Konami Digital Entertainment Co Ltd Game management device, game device, game system, game management method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3075030B2 (en) * 1993-07-27 2000-08-07 株式会社セガ・エンタープライゼス Game device
JP3711415B2 (en) * 1995-05-09 2005-11-02 カシオ計算機株式会社 Character image device
US8892999B2 (en) * 2007-11-30 2014-11-18 Nike, Inc. Interactive avatar for social network services
US20090300525A1 (en) * 2008-05-27 2009-12-03 Jolliff Maria Elena Romera Method and system for automatically updating avatar to indicate user's status

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002109306A (en) * 2000-09-28 2002-04-12 Citizen Watch Co Ltd System for preparing merchandise design
US20110004835A1 (en) * 2009-05-29 2011-01-06 Jake Yanchar Graphical planner
US20110239143A1 (en) 2010-03-29 2011-09-29 Microsoft Corporation Modifying avatar attributes
JP2013202111A (en) 2012-03-27 2013-10-07 Konami Digital Entertainment Co Ltd Game management device, game device, game system, game management method, and program

Also Published As

Publication number Publication date
KR20160051536A (en) 2016-05-11
TW201617947A (en) 2016-05-16
TWI680400B (en) 2019-12-21

Similar Documents

Publication Publication Date Title
US11024070B2 (en) Device and method of managing user information based on image
KR102384311B1 (en) Device for managing user information based on image and method thereof
JP6777201B2 (en) Information processing equipment, information processing methods and programs
JP6547977B2 (en) System and method for providing recommendations on electronic devices based on emotional state detection
US20210097100A1 (en) System for providing life log service and method of providing the service
Emmanouilidis et al. Mobile guides: Taxonomy of architectures, context awareness, technologies and applications
US10984192B2 (en) Application list providing method and device therefor
Kosmopoulos et al. A survey on developing personalized content services in museums
US10129336B2 (en) Content management method and cloud server therefor
KR102232929B1 (en) Message Service Providing Device and Method Providing Content thereof
KR102139664B1 (en) System and method for sharing profile image card
CN106020660A (en) Terminal and operating method thereof
CN106164962A (en) The personalized recommendation of explicit declaration based on user
KR102531656B1 (en) System for providing life log service and service method thereof
KR20130009922A (en) Situation-aware user sentiment social interest models
KR20170029398A (en) Method and electronic apparatus for providing application
KR20150131934A (en) System for providing personalization information and device thereof
CN110268437A (en) The context media content item of customization generates
CN105893771A (en) Information service method and device and device used for information services
CN107836011A (en) Method and apparatus for providing content
US20200005784A1 (en) Electronic device and operating method thereof for outputting response to user input, by using application
US20210099408A1 (en) Trending content view count
Rosa et al. A weight-aware recommendation algorithm for mobile multimedia systems
KR102087290B1 (en) Method for operating emotional contents service thereof, service providing apparatus and electronic Device supporting the same
Kotzé et al. Human-Computer Interaction--INTERACT 2013: 14th IFIP TC 13 International Conference, Cape Town, South Africa, September 2-6, 2013, Proceedings, Part IV

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant