KR20220011906A - Apparatus and method device for providing social network services using augmented reality - Google Patents

Apparatus and method device for providing social network services using augmented reality Download PDF

Info

Publication number
KR20220011906A
KR20220011906A KR1020200090739A KR20200090739A KR20220011906A KR 20220011906 A KR20220011906 A KR 20220011906A KR 1020200090739 A KR1020200090739 A KR 1020200090739A KR 20200090739 A KR20200090739 A KR 20200090739A KR 20220011906 A KR20220011906 A KR 20220011906A
Authority
KR
South Korea
Prior art keywords
user
avatar
information
augmented reality
image
Prior art date
Application number
KR1020200090739A
Other languages
Korean (ko)
Other versions
KR102419056B1 (en
Inventor
정혜경
이준엽
Original Assignee
건국대학교 글로컬산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 건국대학교 글로컬산학협력단 filed Critical 건국대학교 글로컬산학협력단
Priority to KR1020200090739A priority Critical patent/KR102419056B1/en
Publication of KR20220011906A publication Critical patent/KR20220011906A/en
Application granted granted Critical
Publication of KR102419056B1 publication Critical patent/KR102419056B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/109Time management, e.g. calendars, reminders, meetings or time accounting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0277Online advertisement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/50Business processes related to the communications industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Operations Research (AREA)
  • Computer Graphics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • General Engineering & Computer Science (AREA)
  • Game Theory and Decision Science (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to a social network service providing device using augmented reality. The social network service providing device using augmented reality comprises: an avatar management unit generating a user avatar corresponding to a user and storing it in a first storage unit; a screen control unit that overlaps and displays the user avatar on a real image displayed on a screen of a user terminal in response to a photographing target area when a photographing mode is detected; an image management unit for obtaining an augmented reality image in which the real image and the user avatar are combined and storing it in a second storage unit when a user input is made to a photographing button in the photographing mode; and an SNS management unit configured to upload the augmented reality image in an SNS relational network for sharing when a share request signal for sharing the augmented reality image with other users is input from the user.

Description

증강현실을 이용한 소셜 네트워크 서비스 제공 장치 {APPARATUS AND METHOD DEVICE FOR PROVIDING SOCIAL NETWORK SERVICES USING AUGMENTED REALITY}Device for providing social network service using augmented reality {APPARATUS AND METHOD DEVICE FOR PROVIDING SOCIAL NETWORK SERVICES USING AUGMENTED REALITY}

본원은 증강현실을 이용한 소셜 네트워크 서비스 제공 장치에 관한 것이다.The present application relates to an apparatus for providing a social network service using augmented reality.

소셜 네트워크 서비스(Social Networking Service, SNS, Social Media)는 사용자 간의 자유로운 의사소통과 정보 공유, 그리고 인맥 확대 등을 통해 사회적 관계를 생성하고 강화해주는 온라인 플랫폼을 의미한다. SNS에서 가장 중요한 부분은 이 서비스를 통해 사회적 관계망을 생성, 유지, 강화, 확장해 나간다는 점이다. 이러한 관계망을 통해 정보가 공유되고 유통될 때 더욱 의미 있을 수 있다.Social Networking Service (SNS, Social Media) refers to an online platform that creates and strengthens social relationships through free communication, information sharing, and network expansion between users. The most important part of SNS is that it creates, maintains, strengthens, and expands a social network through this service. It can be more meaningful when information is shared and distributed through such a network.

최근 들어 스마트폰 이용자의 증가와 무선인터넷 서비스의 확장과 더불어 SNS의 이용자 또한 급증하고 있다. SNS는 광범위하고 동시에 특정 성향의 집단으로 분류될 수 있는 서비스 이용자들을 데이터베이스에 의해 파악하고 관리할 수 있다는 점에서 마케팅 활용가치가 날로 부상하고 있다.Recently, along with the increase of smartphone users and the expansion of wireless Internet services, the number of users of SNS is also rapidly increasing. The value of using SNS for marketing is emerging day by day in that it can identify and manage service users who can be classified into a broad and specific group at the same time by means of a database.

그러나, 종래의 SNS는 다양한 기능을 제공하나 각종 광고와 개인사생활 문제에 있어서 끊임없이 문제를 일으키고 있다. 또한, 종래의 SNS는 사진 형식, 짧은 영상에 국한된 일상 공유 방법을 사용하기 때문에 정보를 표현하는 데에 한계가 있고, 이는 과시욕이 있는 일부 사람들에게 있어서 그들의 욕구를 충분히 충족시켜주지 못하며, 시간이 지날수록 사용자들이 점점 흥미를 잃어가게 되는 문제가 있다.However, although the conventional SNS provides various functions, it constantly causes problems in various advertisements and personal privacy issues. In addition, the conventional SNS has a limitation in expressing information because it uses a daily sharing method limited to photo format and short video, which does not sufficiently satisfy their needs for some people with a desire to show off, and as time goes by, There is a problem that users gradually lose interest as the number increases.

본원의 배경이 되는 기술은 한국등록특허공보 제10-1652433호에 개시되어 있다.The technology that is the background of the present application is disclosed in Korean Patent Publication No. 10-1652433.

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 종래의 SNS가 갖는 문제점들(일예로, 각종 광고로 인해 SNS 이용이 불편하고 개인사생활을 침해받는 문제점, 사진 형식, 짧은 영상에 국한된 일상 공유 방법을 사용하여 정보를 표현하는 데에 한계가 있는 문제점, 과시욕이 있는 일부 사람들에게 있어서 그들의 욕구를 충분히 충족시켜주지 못하는 문제점, 흥미 요소가 없이 시간이 지날수록 사용자들이 점점 흥미를 잃어가게 되는 문제점 등)을 해소할 수 있는 증강현실을 이용한 소셜 네트워크 서비스 제공 장치 및 방법을 제공하려는 것을 목적으로 한다.The present application is intended to solve the problems of the prior art described above, and the problems of the conventional SNS (for example, inconvenient to use SNS due to various advertisements and infringing on personal privacy, daily sharing limited to photo formats and short videos) Problems that have limitations in expressing information using methods, problems that do not sufficiently satisfy their needs for some people with a desire to show off, problems that users lose interest in as time goes by without an element of interest, etc. ) for the purpose of providing an apparatus and method for providing a social network service using augmented reality that can solve the problem.

다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problems to be achieved by the embodiments of the present application are not limited to the technical problems described above, and other technical problems may exist.

상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스(SNS, Social Network Services) 제공 장치는, 사용자에 대응하는 사용자 아바타를 생성하여 제1 저장부에 저장하는 아바타 관리부; 촬영 모드인 것으로 감지된 경우, 촬영 대상 영역에 대응하여 사용자 단말의 화면에 표출되는 현실 영상 상에 상기 사용자 아바타를 오버랩하여 표시하는 화면 제어부; 상기 촬영 모드에서 촬영 버튼에 대한 사용자 입력이 이루어진 경우, 상기 현실 영상과 상기 사용자 아바타가 결합된 증강현실 영상을 획득하여 제2 저장부에 저장하는 영상 관리부; 및 상기 증강현실 영상을 타 사용자와 공유하기 위한 공유 요청 신호가 사용자로부터 입력된 경우, 공유를 위해 상기 증강현실 영상을 SNS 관계망에 업로드하는 SNS 관리부를 포함할 수 있다.As a technical means for achieving the above technical problem, the apparatus for providing social network services (SNS, Social Network Services) using augmented reality according to an embodiment of the present application generates a user avatar corresponding to the user and includes a first storage unit Avatar management unit to store in; a screen control unit that overlaps and displays the user avatar on a real image displayed on the screen of the user terminal in response to a photographing target area when it is detected that the photographing mode is in the photographing mode; an image management unit for obtaining an augmented reality image in which the real image and the user avatar are combined and storing the augmented reality image in a second storage unit when a user input is made to the shooting button in the shooting mode; And when a share request signal for sharing the augmented reality image with other users is input from the user, it may include an SNS management unit for uploading the augmented reality image to an SNS relational network for sharing.

또한, 상기 사용자는 제1 사용자이고, 상기 제1 사용자의 사용자 아바타는 제1 사용자 아바타이고, 상기 증강현실 영상은 제1 증강현실 영상이며, 상기 화면 제어부는, 제2 사용자의 사용자 단말이 상기 촬영 대상 영역과 동일한 촬영 대상 영역의 촬영을 위한 촬영 모드인 것으로 감지되되, 상기 촬영 대상 영역과 관련하여 기 저장된 사용자 아바타로서 상기 제1 사용자 아바타가 존재하는 경우, 상기 제2 사용자의 사용자 단말의 화면에 표출되는 현실 영상 상에 제2 사용자 아바타 및 상기 제1 사용자 아바타를 오버랩하여 표시할 수 있다.In addition, the user is a first user, the user avatar of the first user is a first user avatar, the augmented reality image is a first augmented reality image, and the screen controller includes: It is detected that the shooting mode is for shooting the same target region as the target region, and when the first user avatar exists as a user avatar pre-stored in relation to the shooting target region, the image is displayed on the screen of the user terminal of the second user. The second user avatar and the first user avatar may be overlapped and displayed on the displayed real image.

또한, 상기 영상 관리부는, 상기 현실 영상, 상기 제2 사용자 아바타 및 상기 제1 사용자 아바타가 결합된 증강현실 영상으로서 제2 증강현실 영상을 획득하여 저장하되, 상기 제1 사용자 아바타와 관련하여 결합 불가 조건이 기 설정되어 있는 경우, 상기 결합 불가 조건을 고려하여 상기 제2 증강현실 영상의 획득을 위한 결합을 수행할 수 있다.In addition, the image management unit, the real image, the second user avatar and the first user avatar is combined with the augmented reality image as an augmented reality image to obtain and store the second augmented reality image, but cannot be combined in relation to the first user avatar If the condition is preset, combining for obtaining the second augmented reality image may be performed in consideration of the uncombinable condition.

또한, 상기 아바타 관리부는, 사용자로부터 입력받은 신체 특성 정보를 고려하여 상기 사용자 아바타를 생성하고, 상기 사용자 아바타는, 상기 신체 특성 정보로서 입력받은 사용자의 체형, 얼굴형, 얼굴 표정 및 피부톤 중 적어도 하나를 고려하여 생성된 3차원 아바타일 수 있다.The avatar manager may generate the user avatar in consideration of body characteristic information received from the user, and the user avatar may include at least one of a user's body type, face shape, facial expression, and skin tone received as the body characteristic information. It may be a 3D avatar generated in consideration of

또한, 상기 아바타 관리부는, 상기 촬영 모드인 것으로 감지된 경우, 상기 사용자의 생체 정보, 날씨 예보 정보 및 상기 사용자에 의하여 업로드된 업로드 정보를 분석하여 산출된 업로드 정보 분석 결과 중 적어도 하나의 정보를 획득하는 정보 획득부를 포함하고, 획득된 상기 적어도 하나의 정보에 기초하여, 상기 사용자 아바타의 상태 정보를 업데이트하고, 업데이트된 사용자 아바타를 생성하여 저장할 수 있다.In addition, the avatar manager may be configured to obtain at least one of the uploaded information analysis result calculated by analyzing the user's biometric information, the weather forecast information, and the upload information uploaded by the user when it is detected that the shooting mode is in the shooting mode. and an information obtaining unit, configured to update status information of the user avatar based on the at least one obtained information, and to generate and store the updated user avatar.

또한, 상기 화면 제어부는, 상기 사용자 단말의 화면에 상기 현실 영상이 미리 설정된 시간 동안 표출되는 경우, 상기 현실 영상 상에 적어도 하나의 기 선정 추천 위치를 표시하고, 상기 적어도 하나의 기 선정 추천 위치 중 어느 하나의 기 선정 추천 위치에 상기 사용자 아바타를 표시할 수 있다.In addition, when the real image is displayed on the screen of the user terminal for a preset time, the screen control unit displays at least one preselected recommended location on the real image, and among the at least one preselected recommended location The user avatar may be displayed at any one previously selected and recommended location.

또한, 상기 적어도 하나의 기 선정 추천 위치는, 상기 화면에 표출되는 상기 현실 영상의 이미지 분석을 통해 식별되는 객체 정보를 고려하여 선정되는 위치이거나 및/또는 상기 SNS 관계망에 업로드된 복수의 증강현실 영상의 분석을 기반으로 산출되는 사용자 아바타의 표시 위치와 관련된 통계 위치 정보를 고려하여 선정되는 위치일 수 있다.In addition, the at least one preselected recommended location is a location selected in consideration of object information identified through image analysis of the real image displayed on the screen and/or a plurality of augmented reality images uploaded to the SNS relational network It may be a location selected in consideration of statistical location information related to the display location of the user avatar calculated based on the analysis of .

또한, 상기 화면 제어부는, 상기 사용자 단말의 화면에 상기 현실 영상이 미리 설정된 시간 동안 표출되는 경우, 상기 현실 영상과 관련하여 상기 SNS 관계망에 업로드된 업로드 정보를 분석하여 상기 현실 영상의 주변에 위치한 장소의 방문을 추천하는 추천 방문 장소 관련 정보가 존재하는지 판단하고, 판단 결과 존재하면, 상기 추천 방문 장소 관련 정보를 포함하는 관리자 아바타를 생성하여 상기 현실 영상 상에 표시할 수 있다.In addition, when the real image is displayed on the screen of the user terminal for a preset time, the screen controller analyzes the uploaded information uploaded to the SNS relational network in relation to the real image to a place located in the vicinity of the real image It is determined whether there is information related to a recommended place to visit, and if it is determined as a result of the determination, a manager avatar including information related to the recommended place to visit may be generated and displayed on the real image.

또한, 상기 화면 제어부는, 상기 관리자 아바타에 대한 사용자 입력이 이루어진 경우, 상기 사용자 단말의 화면의 일영역에 상기 추천 방문 장소 관련 정보를 팝업 형태로 표시하되, 상기 추천 방문 장소 관련 정보 내에 복수개의 장소 항목이 포함된 경우, 상기 팝업 형태로 표시되는 상기 추천 방문 장소 관련 정보 내 상기 복수개의 장소 항목의 표시 순위를, 상기 복수개의 장소 항목에 대한 사용자 동작 정보의 수준을 고려하여 갱신할 수 있다.In addition, when a user input for the manager avatar is made, the screen control unit displays the recommended visit place related information in a pop-up form on one area of the screen of the user terminal, and includes a plurality of places within the recommended visit place related information. When the item is included, the display order of the plurality of place items in the recommended visit place related information displayed in the pop-up form may be updated in consideration of the level of user action information for the plurality of place items.

또한, 상기 사용자 동작 정보의 수준은, 제1 수준, 제2 수준 및 제3 수준을 포함한 복수의 수준으로 구분되고, 상기 제1 수준에 대응하는 사용자 동작 정보는, 사용자 단말로부터 상기 복수개의 장소 항목 중 적어도 하나의 장소 항목을 선택하는 선택 입력 동작을 수행하는 사용자 동작에 관한 정보이고, 상기 제2 수준에 대응하는 사용자 동작 정보는, 상기 선택된 적어도 하나의 장소 항목 중 어느 하나의 장소 항목과 관련하여, 상기 어느 하나의 장소 항목에 대응하는 장소까지의 길 안내를 요청하는 길 안내 요청 입력 동작을 수행하는 사용자 동작에 관한 정보이며, 상기 제3 수준에 대응하는 사용자 동작 정보는, 상기 길 안내 요청 입력 동작에 응답하여 생성된 길 안내 정보를 기반으로, 상기 어느 하나의 장소 항목에 대응하는 장소와 관련된 이미지를 획득하는 장소 이미지 획득 동작을 수행하는 사용자 동작에 관한 정보일 수 있다.In addition, the level of the user action information is divided into a plurality of levels including a first level, a second level, and a third level, and the user action information corresponding to the first level is obtained from the plurality of place items from the user terminal. information on a user action of performing a selection input operation to select at least one place item from , information about a user action of performing a route guidance request input operation for requesting route guidance to a place corresponding to the one place item, and the user action information corresponding to the third level includes the route guidance request input It may be information about a user action of performing a place image acquisition operation of acquiring an image related to a place corresponding to the one place item based on the route guidance information generated in response to the operation.

한편, 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 시스템은, 상술한 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치; 및 상기 증강현실을 이용한 소셜 네트워크 서비스 제공 장치 와 연동되어 상기 증강현실을 이용한 소셜 네트워크 서비스 제공 장치 의 동작 제어를 위한 제어 신호를 사용자로부터 입력받아 제공하는 사용자 단말을 포함할 수 있다.On the other hand, the social network service providing system using augmented reality according to an embodiment of the present application, the social network service providing apparatus using the augmented reality according to the embodiment of the present application described above; and a user terminal interlocking with the apparatus for providing a social network service using the augmented reality to receive a control signal for controlling an operation of the apparatus for providing a social network service using the augmented reality as input from the user.

또한, 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 방법은, 상술한 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치에 의한 증강현실을 이용한 소셜 네트워크 서비스 제공 방법으로서, (a) 사용자에 대응하는 사용자 아바타를 생성하여 제1 저장부에 저장하는 단계; (b) 촬영 모드인 것으로 감지된 경우, 촬영 대상 영역 에 대응하여 사용자 단말의 화면에 표출되는 현실 영상 상에 상기 사용자 아바타를 오버랩하여 표시하는 단계; (c) 상기 촬영 모드에서 촬영 버튼에 대한 사용자 입력이 이루어진 경우, 상기 현실 영상과 상기 사용자 아바타가 결합된 증강현실 영상을 획득하여 제2 저장부에 저장하는 단계; 및 (d) 상기 증강현실 영상을 타 사용자와 공유하기 위한 공유 요청 신호가 사용자로부터 입력된 경우, 공유를 위해 상기 증강현실 영상을 SNS 관계망에 업로드하는 단계를 포함할 수 있다.In addition, the method of providing a social network service using augmented reality according to an embodiment of the present application is a method of providing a social network service using augmented reality by the apparatus for providing a social network service using augmented reality according to the embodiment of the present application as described above. , (a) generating a user avatar corresponding to the user and storing the generated user avatar in a first storage unit; (b) overlapping and displaying the user avatar on a real image displayed on a screen of a user terminal in response to a shooting target area when it is detected that the shooting mode is in the shooting mode; (c) obtaining an augmented reality image in which the real image and the user avatar are combined and storing the augmented reality image in a second storage unit when a user input is made to the shooting button in the shooting mode; and (d) when a share request signal for sharing the augmented reality image with other users is input from the user, uploading the augmented reality image to an SNS relational network for sharing.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary, and should not be construed as limiting the present application. In addition to the exemplary embodiments described above, additional embodiments may exist in the drawings and detailed description.

전술한 본원의 과제 해결 수단에 의하면, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치 및 방법을 제공함으로써, 종래의 SNS가 갖는 문제점들(일예로, 각종 광고로 인해 SNS 이용이 불편하고 개인사생활을 침해받는 문제점, 사진 형식, 짧은 영상에 국한된 일상 공유 방법을 사용하여 정보를 표현하는 데에 한계가 있는 문제점, 과시욕이 있는 일부 사람들에게 있어서 그들의 욕구를 충분히 충족시켜주지 못하는 문제점, 흥미 요소가 없이 시간이 지날수록 사용자들이 점점 흥미를 잃어가게 되는 문제점 등)을 해소할 수 있다.According to the above-described problem solving means of the present application, by providing an apparatus and method for providing a social network service using augmented reality, problems with conventional SNS (eg, inconvenient to use SNS due to various advertisements and invasion of personal privacy) Problems, problems in the form of photos, limitations in expressing information using everyday sharing methods limited to short videos, problems that do not fully satisfy their needs for some people with a desire to show off, problems that pass without an element of interest It is possible to solve the problem that users gradually lose interest, etc.).

다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.However, the effects obtainable herein are not limited to the above-described effects, and other effects may exist.

도 1은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 시스템의 개략적인 구성을 나타낸 블록도이다.
도 2는 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치에서 제2 저장부에 저장되는 제1 증강현실 영상의 일예를 나타낸 도면이다.
도 3은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치에서 제2 저장부에 저장되는 제2 증강현실 영상의 일예를 나타낸 도면이다.
도 4는 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치에서 증강현실 영상의 획득시 고려되는 결합 불가 조건을 설명하기 위한 도면이다.
도 5는 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치에서 아바타 관리부의 구성을 개략적으로 나타낸 도면이다.
도 6은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치에 포함된 시뮬레이션부를 설명하기 위한 개략적인 블록도이다.
도 7은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치의 시뮬레이션부 내 식별부에 의해 식별된 조임 부위의 영역이 화면 상에 표시되는 예를 설명하기 위한 도면이다.
도 8은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치와 연동되는 전방표시장치(3)에 의해 제공되는 패션 제품 실감 데이터의 일예를 나타낸 도면이다.
도 9는 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 방법에 대한 동작 흐름도이다.
1 is a block diagram showing a schematic configuration of a system for providing a social network service using augmented reality according to an embodiment of the present application.
2 is a diagram illustrating an example of a first augmented reality image stored in a second storage unit in the apparatus for providing a social network service using augmented reality according to an embodiment of the present application.
3 is a diagram illustrating an example of a second augmented reality image stored in a second storage unit in the apparatus for providing a social network service using augmented reality according to an embodiment of the present application.
4 is a view for explaining a non-combination condition considered when acquiring an augmented reality image in the apparatus for providing a social network service using augmented reality according to an embodiment of the present application.
5 is a diagram schematically illustrating the configuration of an avatar manager in the apparatus for providing a social network service using augmented reality according to an embodiment of the present application.
6 is a schematic block diagram for explaining a simulation unit included in the apparatus for providing a social network service using augmented reality according to an embodiment of the present application.
7 is a view for explaining an example in which the region of the tightening portion identified by the identification unit in the simulation unit of the apparatus for providing a social network service using augmented reality according to an embodiment of the present application is displayed on the screen.
8 is a diagram illustrating an example of sensory data for a fashion product provided by the front display device 3 interlocked with the apparatus for providing a social network service using augmented reality according to an embodiment of the present application.
9 is an operation flowchart for a method of providing a social network service using augmented reality according to an embodiment of the present application.

아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present application will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art to which the present application pertains can easily carry out. However, the present application may be implemented in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present application in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 "간접적으로 연결"되어 있는 경우도 포함한다. Throughout this specification, when a part is "connected" with another part, it is not only "directly connected" but also "electrically connected" or "indirectly connected" with another element interposed therebetween. "Including cases where

본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout this specification, when a member is positioned “on”, “on”, “on”, “on”, “under”, “under”, or “under” another member, this means that a member is positioned on the other member. It includes not only the case where they are in contact, but also the case where another member exists between two members.

본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout this specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.

도 1은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스(SNS, Social Network Services) 제공 시스템(1000)의 개략적인 구성을 나타낸 블록도이다.1 is a block diagram showing a schematic configuration of a social network service (SNS, Social Network Services) providing system 1000 using augmented reality according to an embodiment of the present application.

본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스(SNS, Social Network Services) 제공 시스템(1000)은, 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스(SNS, Social Network Services) 제공 장치(100)를 포함할 수 있다.The system 1000 for providing a social network service (SNS, Social Network Services) using augmented reality according to an embodiment of the present application provides a social network service (SNS, Social Network Services) using augmented reality according to an embodiment of the present application device 100 may be included.

이하에서는 설명의 편의상, 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 시스템(1000)을 본 시스템(1000)이라 하고, 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치(100)를 본 장치(100)라 하기로 한다. 또한, 소셜 네트워크 서비스(Social Networking Service, SNS)는 소셜 미디어(Social Media) 등으로 달리 표현될 수 있다.Hereinafter, for convenience of description, the social network service providing system 1000 using augmented reality according to an embodiment of the present application is referred to as the present system 1000 , and an apparatus for providing social network service using augmented reality according to an embodiment of the present application (100) will be referred to as the present device (100). Also, a social network service (SNS) may be expressed differently as social media or the like.

도 1을 참조하면, 본 시스템(1000)은 본 장치(100) 및 복수의 사용자 단말(1, 1', …)을 포함할 수 있다.Referring to FIG. 1 , the present system 1000 may include the present apparatus 100 and a plurality of user terminals 1 , 1 ′, ... .

본 장치(100)는, 사용자에 대응하는 사용자 아바타를 생성하여 제1 저장부에 저장하고, 촬영 모드인 것으로 감지된 경우, 촬영 대상 영역에 대응하여 사용자 단말의 화면에 표출되는 현실 영상 상에 사용자 아바타를 오버랩하여 표시하고, 촬영 모드에서 촬영 버튼에 대한 사용자 입력이 이루어진 경우, 현실 영상과 사용자 아바타가 결합된 증강현실 영상 을 획득하여 제2 저장부 에 저장하고, 증강현실 영상을 타 사용자와 공유하기 위한 공유 요청 신호가 사용자로부터 입력된 경우, 공유를 위해 증강현실 영상을 SNS 관계망에 업로드할 수 있다. 본 장치(100)에 대한 구체적인 설명은 후술하여 설명하기로 한다.The apparatus 100 generates a user avatar corresponding to the user, stores it in the first storage unit, and when it is detected that the shooting mode is in the shooting mode, the user is displayed on a real image displayed on the screen of the user terminal corresponding to the shooting target area. The avatar is displayed overlapped, and when a user input is made to the shooting button in the shooting mode, an augmented reality image in which the real image and the user avatar are combined is acquired and stored in the second storage unit, and the augmented reality image is shared with other users When a share request signal for sharing is input from the user, the augmented reality image may be uploaded to the SNS relational network for sharing. A detailed description of the apparatus 100 will be described later.

복수의 사용자 단말(1, 1', …)은 제1 사용자의 사용자 단말인 제1 사용자 단말(1), 제2 사용자의 사용자 단말인 제2 사용자 단말(1') 등을 포함할 수 있다. 다만, 이는 본원의 이해를 돕기 위한 하나의 예시일 뿐, 이에만 한정되는 것은 아니고, 본원에서 고려되는 복수의 사용자 단말의 수 등은 다양하게 설정될 수 있다.The plurality of user terminals 1, 1', ... may include a first user terminal 1 that is a user terminal of a first user, a second user terminal 1' that is a user terminal of a second user, and the like. However, this is only an example for helping understanding of the present application, and is not limited thereto, and the number of a plurality of user terminals considered herein may be set in various ways.

복수의 사용자 단말(1, 1', …) 각각과 본 장치(100) 간에는 네트워크(2)를 통해 연결될 수 있다. 본 장치(100)는 사용자 단말(1)과 연동(연결)될 수 있다.Each of the plurality of user terminals 1 , 1 ′, ... and the apparatus 100 may be connected through the network 2 . The device 100 may be linked (connected) with the user terminal 1 .

이하에서는 본원을 설명함에 있어서, 사용자 단말에 대한 설명시 복수의 사용자 단말(1, 1', …) 중 제1 사용자 단말(1)을 기준으로 설명하기로 한다. 즉, 이하에서는 사용자 단말이 제1 사용자 단말(1)인 것으로 가정하여 설명하기로 한다. 이는 본원의 이해를 돕기 위한 하나의 예시일 뿐, 이에만 한정되는 것은 아니고, 사용자 단말(1, 제1 사용자 단말)에 대하여 설명된 내용은 이하 생략된 내용이라 하더라도 복수의 사용자 단말(1, 1', …) 각각에 대한 설명에도 동일하게 적용될 수 있다.Hereinafter, in the description of the present application, the first user terminal 1 among the plurality of user terminals 1, 1', ... will be described based on the description of the user terminal. That is, in the following description, it is assumed that the user terminal is the first user terminal 1 . This is only an example to help the understanding of the present application, and is not limited thereto, and the description of the user terminal 1 (the first user terminal) is omitted even if the contents are omitted below. ', ...) can be equally applied to the description of each.

뿐만 아니라, 본원을 설명함에 있어서, 사용자에 대한 설명시 복수의 사용자 중 제1 사용자를 기준으로 설명하기로 한다. 즉, 이하에서는 사용자가 제1 사용자인 것으로 가정하여 설명하기로 한다. 이는 본원의 이해를 돕기 위한 하나의 예시일 뿐, 이에만 한정되는 것은 아니고, 사용자(제1 사용자)에 대하여 설명된 내용은 이하 생략된 내용이라 하더라도 복수의 사용자 각각에 대한 설명에도 동일하게 적용될 수 있다. In addition, in the description of the present application, the description of the user will be based on the first user among a plurality of users. That is, in the following description, it is assumed that the user is the first user. This is only an example for helping understanding of the present application, and is not limited thereto, and the description of the user (the first user) may be equally applied to the description of each of a plurality of users, even if omitted below. have.

본 장치(100)가 사용자 단말(1, 제1 사용자 단말)과 연동(연결)될 수 있다. 여기서, 본 장치(100)가 사용자 단말(1)과 연동(연결)된다라 함은, 본 장치(100)에 의한 증강현실을 이용한 소셜 네트워크 서비스 제공 방법이 사용자 단말(1)에서 실행 가능한 프로그램 혹은 애플리케이션의 형태로 구현 가능한 경우일 때, 사용자 단말(1)에 설치됨에 따라 사용자 단말(1)에 의해 동작 제어가 가능한 경우(상태)를 의미할 수 있다.The device 100 may be linked (connected) with the user terminal 1 (the first user terminal). Here, when the device 100 is interlocked (connected) with the user terminal 1, the method of providing a social network service using augmented reality by the device 100 is a program executable in the user terminal 1 or When it can be implemented in the form of an application, it may mean a case where operation control is possible (state) by the user terminal 1 as it is installed in the user terminal 1 .

다른 일예로, 본 장치(100)가 사용자 단말(1)과 연동된다라 함은, 본 장치(100)가 사용자 단말(1)과 별개의 구성으로 마련되는 경우일 때, 본 장치(100)가 사용자 단말(1)과 네트워크(2)를 통해 연결됨에 따라 사용자 단말(1)에 의하여 원격으로 동작 제어가 가능한 경우(상태)를 의미할 수 있다.As another example, when the device 100 interworks with the user terminal 1 is a case in which the device 100 is provided in a configuration separate from the user terminal 1, the device 100 As the user terminal 1 is connected through the network 2 , it may mean a case (state) in which operation can be controlled remotely by the user terminal 1 .

달리 말하자면, 본 장치(100)는 일예로 사용자 단말(1)에 포함된 장치의 형태로 마련될 수 있다. 이러한 경우, 본 장치(100)는 사용자 단말(1)에 설치되는 프로그램 또는 애플리케이션의 형태로 구현 가능한 장치일 수 있다. 달리 말해, 본 장치(100)를 통해 제공되는 증강현실을 이용한 소셜 네트워크 서비스 제공 방법은 일예로 프로그램 또는 애플리케이션의 형태로 구현되어 사용자 단말(1)을 통해 제공될 수 있다. 다만, 이에 한정되는 것은 아니고, 다른 일예로 본 장치(100)는 사용자 단말(1)과 데이터 송수신이 가능한 서버 혹은 별도의 장치 형태로 마련될 수 있다.In other words, the device 100 may be provided in the form of a device included in the user terminal 1 , for example. In this case, the device 100 may be a device that can be implemented in the form of a program or application installed in the user terminal 1 . In other words, the method for providing a social network service using augmented reality provided through the present device 100 may be implemented in the form of a program or application, for example, and provided through the user terminal 1 . However, the present invention is not limited thereto, and as another example, the device 100 may be provided in the form of a server or a separate device capable of transmitting and receiving data with the user terminal 1 .

본원에서 고려되는 사용자 단말(즉, 복수의 사용자 단말 각각)은, 일예로 PCS(Personal Communication System), GSM(Global System for Mobile communication), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(WCode Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트패드(SmartPad), 태블릿 PC, 노트북, 웨어러블 디바이스, 데스크탑 PC 등과 같은 모든 종류의 유무선 통신 장치를 포함할 수 있으며, 이에 한정되는 것은 아니다.A user terminal (ie, each of a plurality of user terminals) considered herein is, for example, a Personal Communication System (PCS), a Global System for Mobile communication (GSM), a Personal Digital Cellular (PDC), a Personal Handyphone System (PHS), and a PDA. (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (WCode Division Multiple Access), Wibro (Wireless Broadband Internet) terminal, smartphone, smart phone It may include all types of wired/wireless communication devices such as a smart pad, a tablet PC, a notebook computer, a wearable device, and a desktop PC, but is not limited thereto.

네트워크(2)는 일예로 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, NFC(Near Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등 모든 종류의 유/무선 네트워크가 포함될 수 있으며, 이에 한정된 것은 아니다.The network 2 is, for example, a 3rd Generation Partnership Project (3GPP) network, a Long Term Evolution (LTE) network, a World Interoperability for Microwave Access (WIMAX) network, the Internet, a Local Area Network (LAN), and a Wireless LAN (Wireless LAN) network. Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), Bluetooth (Bluetooth) network, NFC (Near Field Communication) network, satellite broadcasting network, analog broadcasting network, DMB (Digital Multimedia Broadcasting) network, etc. Types of wired/wireless networks may be included, but are not limited thereto.

사용자 단말(1)은 본 장치(100)와 연동되어 본 장치(100)의 동작 제어를 위한 제어 신호를 사용자(제1 사용자)로부터 입력받아 본 장치(100)로 제공할 수 있다. 사용자 단말(1)은 본 장치(100)의 각종 동작을 제어(원격으로 제어)할 수 있다. 이하에서는 본 장치(100)에 대하여 보다 상세히 설명하기로 한다.The user terminal 1 may interwork with the apparatus 100 to receive a control signal for controlling the operation of the apparatus 100 from a user (the first user) and provide it to the apparatus 100 . The user terminal 1 may control (remotely control) various operations of the apparatus 100 . Hereinafter, the apparatus 100 will be described in more detail.

본 장치(100)는 아바타 관리부(210), 화면 제어부(220), 영상 관리부(230), SNS 관리부(240), 제1 저장부(250) 및 제2 저장부(260)를 포함할 수 있다. 아바타 관리부(210)는 정보 획득부(211)를 포함할 수 있다.The device 100 may include an avatar management unit 210 , a screen control unit 220 , an image management unit 230 , an SNS management unit 240 , a first storage unit 250 , and a second storage unit 260 . . The avatar manager 210 may include an information acquisition unit 211 .

아바타 관리부(210)는 사용자에 대응하는 사용자 아바타를 생성하여 제1 저장부(250)에 저장할 수 있다. 여기서, 사용자는 제1 사용자이고, 제1 사용자의 사용자 아바타는 제1 사용자 아바타일 수 있다.The avatar manager 210 may generate a user avatar corresponding to the user and store it in the first storage unit 250 . Here, the user may be the first user, and the user avatar of the first user may be the first user avatar.

이때, 본원의 일예에서는 사용자가 제1 사용자인 것으로 예시하였으나, 이에만 한정되는 것은 아니고 사용자로는 제1 사용자 뿐만 아니라 복수의 사용자 각각이 고려될 수 있다. 즉, 사용자(제1 사용자)에 대하여 설명된 내용은 이하 생략된 내용이라 하더라도 복수의 사용자 각각에 대한 설명에도 동일하게 적용될 수 있다.In this case, in the example of the present application, the user is exemplified as the first user, but the present disclosure is not limited thereto, and not only the first user but also each of a plurality of users may be considered as the user. That is, the description of the user (the first user) may be equally applied to the description of each of the plurality of users, even if omitted below.

아바타 관리부(210)는 사용자(제1 사용자)로부터 입력받은 신체 특성 정보를 고려하여 사용자 아바타(제1 사용자 아바타)를 생성할 수 있다. 아바타 관리부(210)에 의해 생성되는 사용자 아바타(제1 사용자 아바타)는, 신체 특성 정보로서 입력받은 사용자의 체형, 얼굴형, 얼굴 표정 및 피부톤 중 적어도 하나를 고려하여 생성된 3차원 아바타일 수 있다. 즉, 제1 사용자의 신체 특성 정보를 고려하여 생성된 제1 사용자 아바타는, 제1 사용자의 체형, 얼굴형, 얼굴 표정 및 피부톤 중 적어도 하나를 고려하여 생성된 3차원 아바타일 수 있다.The avatar manager 210 may generate a user avatar (first user avatar) in consideration of body characteristic information received from the user (first user). The user avatar (first user avatar) generated by the avatar manager 210 may be a 3D avatar generated in consideration of at least one of a user's body type, face shape, facial expression, and skin tone received as body characteristic information. . That is, the first user avatar generated in consideration of the body characteristic information of the first user may be a 3D avatar generated in consideration of at least one of the body type, face shape, facial expression, and skin tone of the first user.

이때, 사용자 아바타(제1 사용자 아바타)에 대하여 설명된 내용은 이하 생략된 내용이라 하더라도, 복수의 사용자 아바타 각각에 대한 설명에도 동일하게 적용될 수 있다.In this case, the description of the user avatar (the first user avatar) may be equally applied to the description of each of the plurality of user avatars, even if omitted below.

즉, 아바타 관리부(210)는 제1 사용자로부터 입력받은 신체 특성 정보를 고려하여 제1 사용자 아바타를 생성하여 제1 저장부(250)에 저장할 수 있다. 또한, 아바타 관리부(210)는 제2 사용자로부터 입력받은 신체 특성 정보를 고려하여 제2 사용자 아바타를 생성하여 제1 저장부(250)에 저장할 수 있다.That is, the avatar manager 210 may generate a first user avatar in consideration of the body characteristic information received from the first user and store it in the first storage unit 250 . Also, the avatar manager 210 may generate a second user avatar in consideration of body characteristic information received from the second user and store the generated second user avatar in the first storage unit 250 .

이때, 본원의 일예에서는, 제1 사용자에 대응하여 생성된 제1 사용자 아바타와 제2 사용자에 대응하여 생성된 제2 사용자 아바타가 모두 하나의 단일 저장부인 제1 저장부(250)에 저장되는 것으로 예시하였으나, 이에만 한정되는 것은 아니다. 다른 일예로, 복수의 사용자 각각에 대응하여 생성된 복수의 사용자 아바타는, 복수의 사용자 각각에 대응하는 수로 마련된 복수개의 서브 저장부 각각에 저장될 수 있다. 즉, 도면에 도시하지는 않았으나, 제1 저장부(250)는 복수개의 서브 저장부로서, 제1 서브 저장부, 제2 서브 저장부 등을 포함할 수 있다. 이때, 제1 서브 저장부는 제1 사용자에 대응하여 마련된 저장부로서, 제1 사용자와 관련하여 생성된 사용자 아바타(제1 사용자 아바타)가 저장될 수 있다. 제2 서브 저장부는 제2 사용자에 대응하여 마련된 저장부로서, 제2 사용자와 관련하여 생성된 사용자 아바타(제2 사용자 아바타)가 저장될 수 있다.In this case, in an example of the present application, both the first user avatar generated in response to the first user and the second user avatar generated in response to the second user are stored in the first storage unit 250 , which is a single storage unit. Although illustrated, the present invention is not limited thereto. As another example, the plurality of user avatars generated corresponding to each of the plurality of users may be stored in each of the plurality of sub storage units provided in the number corresponding to each of the plurality of users. That is, although not shown in the drawings, the first storage unit 250 includes a plurality of sub storage units, and may include a first sub storage unit, a second sub storage unit, and the like. In this case, the first sub storage unit is a storage unit provided in response to the first user, and may store a user avatar (first user avatar) generated in association with the first user. The second sub storage unit is a storage unit provided to correspond to the second user, and may store a user avatar (second user avatar) generated in association with the second user.

뿐만 아니라, 제1 저장부(250)에 대하여 설명된 내용은 후술하여 설명하는 제2 저장부(260)에 대한 설명에도 동일하거나 유사하게 적용될 수 있다. 즉, 제2 저장부(260)는 제1 사용자 단말(1)에 의해 획득된 증강현실 영상(제1 증강현실 영상)과 제2 사용자 단말(1')에 의해 획득된 증강현실 영상(제2 증강현실 영상)을 저장할 수 있다.In addition, the description of the first storage unit 250 may be applied to the description of the second storage unit 260 to be described later in the same or similar manner. That is, the second storage unit 260 is an augmented reality image (first augmented reality image) acquired by the first user terminal 1 and the augmented reality image (second augmented reality images).

이때, 본원의 일예에서는, 제1 사용자에 의하여 제1 사용자 단말(1)을 통해 획득된 제1 증강현실 영상과 제2 사용자에 의해 제2 사용자 단말(1')을 통해 획득된 제2 증강현실 영상이 모두 하나의 단일 저장부인 제2 저장부(260)에 저장되는 것으로 예시하였으나, 이에만 한정되는 것은 아니다. 다른 일예로, 복수의 사용자 단말(1, 1', …) 각각을 통해 획득되는 복수의 증강현실 영상은, 복수의 사용자 단말(1, 1', …) 각각에 대응하는 수로 마련된 복수개의 하위 저장부 각각에 저장될 수 있다. 즉, 도면에 도시하지는 않았으나, 제2 저장부(260)는 복수개의 하위 저장부로서, 제1 하위 저장부, 제2 하위 저장부 등을 포함할 수 있다. 이때, 제1 서브 저장부는 제1 사용자 단말(혹은 제1 사용자)에 대응하여 마련된 저장부로서, 제1 사용자 단말을 통해 획득된 제1 증강현실 영상이 저장될 수 있다. 제2 하위 저장부는 제2 사용자 단말(혹은 제2 사용자)에 대응하여 마련된 저장부로서, 제2 사용자 단말을 통해 획득된 제2 증강현실 영상이 저장될 수 있다.At this time, in an example of the present application, the first augmented reality image obtained through the first user terminal 1 by the first user and the second augmented reality obtained through the second user terminal 1 ′ by the second user Although it has been exemplified that the images are all stored in the second storage unit 260 which is a single storage unit, the present invention is not limited thereto. As another example, a plurality of augmented reality images obtained through each of the plurality of user terminals (1, 1', ...) are provided in a number corresponding to each of the plurality of user terminals (1, 1', ...) in a plurality of sub-storage may be stored in each section. That is, although not shown in the drawings, the second storage unit 260 is a plurality of lower storage units, and may include a first lower storage unit, a second lower storage unit, and the like. In this case, the first sub storage unit is a storage unit provided in response to the first user terminal (or the first user), and the first augmented reality image obtained through the first user terminal may be stored. The second lower storage unit is a storage unit provided in response to the second user terminal (or the second user), and may store the second augmented reality image obtained through the second user terminal.

이처럼, 제1 서브 저장부와 제1 하위 저장부는, 제1 사용자(혹은 제1 사용자 단말)에 대응하여 마련된 저장부로서, 제1 사용자 개인을 위한 제1 사용자 개인용 저장부를 의미할 수 있다. 뿐만 아니라, 제2 서브 저장부와 제2 서브 저장부는 제2 사용자(혹은 제2 사용자 단말)에 대응하여 마련된 저장부로서, 제2 사용자 개인을 위한 제2 사용자 개인용 저장부부를 의미할 수 있다.As such, the first sub storage unit and the first sub storage unit are storage units provided in response to the first user (or the first user terminal), and may mean a first personal storage unit for the first user. In addition, the second sub storage unit and the second sub storage unit are storage units provided in response to the second user (or the second user terminal), and may mean a second personal storage unit for the second user.

화면 제어부(220)는, 촬영 모드인 것으로 감지된 경우, 촬영 대상 영역에 대응하여 사용자 단말(1)의 화면에 표출되는 현실 영상 상에 사용자 아바타(제1 사용자 아바타)를 오버랩하여 표시할 수 있다.The screen controller 220 may overlap and display the user avatar (the first user avatar) on the real image displayed on the screen of the user terminal 1 in response to the shooting target area when it is detected that the shooting mode is in the shooting mode. .

여기서, 촬영 대상 영역은 제1 사용자 단말(1)의 이미지 센서를 통해 촬영되는 영역(이미지 센서를 통해 촬영 가능한 촬영 영역)을 의미하는 것으로서, 예시적으로, 특정 장소, 객체(사람, 사물 등), 풍경 등과 관련된 촬영 영역을 의미할 수 있다. 다만, 이에만 한정되는 것은 아니고, 촬영 대상 영역은 제1 사용자 단말(1)의 이미지 센서를 통해 촬영 가능한 영역이라면 무엇이든 적용 가능하다.Here, the photographing target area refers to an area photographed through the image sensor of the first user terminal 1 (a photographing area capable of being photographed through the image sensor), and for example, a specific place, object (person, object, etc.) , may mean a photographing area related to a landscape or the like. However, the present invention is not limited thereto, and any area that can be photographed through the image sensor of the first user terminal 1 may be applied to the photographing target area.

또한, 촬영 모드는 제1 사용자가 제1 사용자 단말(1)의 이미지 센서를 통해 촬영 대상 영역을 촬영하기 위한 모드를 의미할 수 있다. Also, the photographing mode may mean a mode for the first user to photograph the photographing target area through the image sensor of the first user terminal 1 .

화면 제어부(220)는 사용자 단말(1)의 화면에 표출되는 현실 영상 상에 사용자 아바타(제1 사용자 아바타)를 오버랩하여 표시할 때, 일예로 현실 영상 상에서 제1 사용자 아바타를 제1 사용자의 입력에 기반하여 설정되는 사용자 입력 기반 설정 위치에 표시할 수 있다. 이에 따르면, 일예로 제1 사용자는 화면 제어부(220)에 의해 현실 영상 상에 표시되는 제1 사용자 아바타를 제1 사용자 단말(1)의 화면에서 드래그, 터치 등의 입력을 통해 자유롭게 이동(변경)시킴으로써, 현실 영상 상에서의 제1 사용자 아바타의 표시 위치(즉, 현실 영상 상에서 제1 사용자 아바타가 놓여지는 위치, 표시되는 위치)를 설정할 수 있다.When the screen controller 220 overlaps and displays the user avatar (the first user avatar) on the real image displayed on the screen of the user terminal 1 , for example, the first user avatar is input by the first user on the real image. It can be displayed in a setting location based on user input that is set based on . According to this, as an example, the first user freely moves (changes) the first user avatar displayed on the real image by the screen controller 220 on the screen of the first user terminal 1 by dragging, touching, or the like. By doing so, the display position of the first user avatar on the real image (ie, the position where the first user avatar is placed or displayed on the real image) may be set.

예시적으로, 제1 사용자는 제1 사용자 단말(1)의 화면에 표출되는 현실 영상(51) 상에 제1 사용자 아바타의 위치를, 일예로 도 2에 도시된 제1 위치(71), 제2 위치(72), 제3 위치(73) 각각에 대하여 자유롭게 이동시켜 가며 변경/설정할 수 있다. 일예로, 복수의 위치(71, 72, 73) 중 제3 위치(73)에 대하여 제1 사용자 아바타의 표시 위치 설정과 관련된 제1 사용자의 입력이 이루어진 경우, 제1 사용자 입력이 이루어진 제3 위치(73)를 사용자 입력 기반 설정 위치인 것으로 인식하고, 화면 제어부(220)는 사용자 입력 기반 설정 위치인 제3 위치(72)에 제1 사용자 아바타를 표시할 수 있다.Exemplarily, the first user may determine the location of the first user avatar on the real image 51 displayed on the screen of the first user terminal 1, for example, the first location 71 shown in FIG. The second position 72 and the third position 73 can be freely moved and changed/set respectively. For example, when the first user input related to setting the display position of the first user avatar is made with respect to the third location 73 among the plurality of locations 71 , 72 , and 73 , the third location where the first user input is made Recognizing that 73 is the user input-based setting position, the screen controller 220 may display the first user avatar in the third position 72 which is the user input-based setting position.

다만, 이에만 한정되는 것은 아니고, 다른 일예로, 화면 제어부(220)는, 사용자 단말(제1 사용자 단말, 1)의 화면에 현실 영상이 미리 설정된 시간(일예로, 3초) 동안 표출되는 경우, 이를 현실 영상 상에 표시될 제1 사용자 아바타의 위치를 추천받기 위한 신호인 것으로 인식(즉, 현실 영상 상에서 제1 사용자 아바타가 표시되기에 가장 적합하다고 판단되는 위치의 추천을 요청하는 아바타 표시 관련 위치 추천 요청 신호인 것으로 인식)하여, 현실 영상 상에 적어도 하나의 기 선정 추천 위치를 표시하고, 현실 영상 상에 표시된 적어도 하나의 기 선정 추천 위치 중 어느 하나의 기 선정 추천 위치에 사용자 아바타(제1 사용자 아바타)를 위치시켜 표시할 수 있다. 여기서, 적어도 하나의 기 선정 추천 위치 중 어느 하나의 기 선정 추천 위치는, 제1 사용자의 입력에 의해 선택되는 위치일 수 있다.However, the present invention is not limited thereto, and as another example, when the screen controller 220 displays a real image on the screen of the user terminal (first user terminal, 1) for a preset time (for example, 3 seconds) , Recognizes this as a signal for receiving a recommendation for the location of the first user avatar to be displayed on the real image (that is, related to the avatar display requesting the recommendation of a location determined to be most suitable for displaying the first user avatar on the real image) Recognized as a location recommendation request signal), at least one previously selected recommended location is displayed on the real image, and the user avatar (first selected and recommended) is located at any one of the at least one previously selected recommended location displayed on the real image. 1 user avatar) can be positioned and displayed. Here, any one of the at least one previously selected and recommended location may be a location selected by the input of the first user.

또한, 적어도 하나의 기 선정 추천 위치는, 제1 사용자 단말(1)의 화면에 표출되는 현실 영상(51)의 이미지 분석을 통해 식별되는 객체 정보를 고려하여 선정되는 위치이거나 및/또는 SNS 관계망에 업로드된 복수의 증강현실 영상(즉, 복수 사용자들에 의하여 업로드되어 제2 저장부에 저장된 복수의 증강현실 영상)의 분석을 기반으로 산출되는 사용자 아바타의 표시 위치와 관련된 통계 위치 정보를 고려하여 선정되는 위치일 수 있다.In addition, the at least one preselected recommended location is a location selected in consideration of object information identified through image analysis of the real image 51 displayed on the screen of the first user terminal 1 and/or in the SNS network. Selected in consideration of statistical location information related to the display position of the user avatar calculated based on analysis of a plurality of uploaded augmented reality images (that is, a plurality of augmented reality images uploaded by multiple users and stored in the second storage unit) It may be a location where

여기서, 현실 영상(51)의 이미지 분석을 통해 식별되는 객체 정보라 함은, 현실 영상(51) 내 포함된 객체에 관한 정보로서, 이러한 객체 정보에는 일예로 의자, 사람, 동물, 건물의 입구, 조형물, 나무 등이 포함될 수 있으나, 이에만 한정되는 것은 아니다. 이때, 이미지 분석시에는 종래에 공지되었거나 향후 개발되는 다양한 이미지 분석 알고리즘이 적용될 수 있다.Here, the object information identified through image analysis of the real image 51 is information about an object included in the real image 51, and such object information includes, for example, a chair, a person, an animal, an entrance to a building, It may include a sculpture, a tree, and the like, but is not limited thereto. In this case, various image analysis algorithms known in the prior art or developed in the future may be applied to image analysis.

예를 들어, 현실 영상(51)의 이미지 분석을 통해 객체 정보로서 건물의 입구와 의자가 식별된 경우, 적어도 하나의 기 선정 추천 위치는 현실 영상(51) 내 식별된 건물의 입구에 대응하는 제1 위치 및 현실 영상(51) 내 식별된 의자에 대응하는 위치가 포함될 수 있다. 이때, 화면 제어부(220)는 제1 사용자 단말(1)의 화면에 현실 영상(51) 이 미리 설정된 시간 동안 표출되면, 현실 영상(51) 상에 제1 위치와 제2 위치를 표시하고, 이때, 제2 위치에 대한 사용자 입력이 이루어지면, 제1 사용자 아바타를 현실 영상(51) 상의 제2 위치에 표시할 수 있다. 이에 따르면, 화면 제어부(220)는 현실 영상(51)에 포함된 의자를 가리도록, 제1 사용자 아바타를 현실 영상(51) 상에 표시할 수 있다.For example, when the entrance and chair of the building are identified as object information through image analysis of the real image 51 , at least one pre-selected recommended location is the second corresponding to the identified entrance of the building in the real image 51 . 1 position and a position corresponding to the chair identified in the real image 51 may be included. At this time, when the real image 51 is displayed on the screen of the first user terminal 1 for a preset time, the screen controller 220 displays the first position and the second position on the real image 51, at this time , when a user input for the second location is made, the first user avatar may be displayed at the second location on the real image 51 . Accordingly, the screen controller 220 may display the first user avatar on the real image 51 to cover the chair included in the real image 51 .

이때, 화면 제어부(220)는 필요에 따라 사용자 입력에 의해 선택된 어느 하나의 기 선정 추천 위치에 대응하는 객체의 유형에 따라, 제1 사용자 아바타의 자세를 변경하고, 자세 변경된 제1 사용자 아바타를 사용자 입력에 의해 선택된 어느 하나의 기 선정 추천 위치에 표시할 수 있다. 예시적으로, 제1 위치와 제2 위치를 포함한 복수의 기 선정 추천 위치 중 일예로 제2 위치가 어느 하나의 기 선정 추천 위치로서 사용자(제1 사용자) 입력에 의해 선택되었다고 하자.In this case, the screen controller 220 may change the posture of the first user avatar according to the type of object corresponding to any one preselected recommended position selected by the user input as needed, and change the posture of the first user avatar to the user. It can be displayed at any one previously selected recommended position selected by input. For example, it is assumed that a second location is selected by a user (first user) input as one previously selected recommended location among a plurality of previously selected and recommended locations including a first location and a second location.

이러한 경우, 화면 제어부(220)는 사용자 입력에 의해 선택된 어느 하나의 기 선정 추천 위치(제2 위치)에 대응하는 객체가 의자이므로, 제1 사용자 아바타의 자세를, 기본 제1 사용자 아바타의 자세인 차렷 자세에서 제1 사용자 아바타가 의자에 앉아있는 자세인 의자에 앉은 자세로 변경할 수 있다. 이후, 화면 제어부(220)는 자세 변경된 제1 사용자 아바타(즉, 의자에 앉은 자세를 갖는 제1 사용자 아바타)를 현실 영상(51) 상의 제2 위치(의자에 대응하는 위치)에 표시할 수 있다.In this case, the screen controller 220 sets the posture of the first user avatar as the posture of the basic first user avatar because the object corresponding to any one preselected recommended position (second position) selected by the user input is a chair. A posture in which the first user avatar sits in a chair may be changed from the attentive posture to a sitting posture in a chair. Thereafter, the screen controller 220 may display the posture-changed first user avatar (ie, the first user avatar having a sitting posture in a chair) at a second position (a position corresponding to the chair) on the real image 51 . .

다른 일예로, 화면 제어부(220)는, 적어도 하나의 기 선정 추천 위치의 선정을 위해, SNS 관계망에 업로드된 복수의 증강현실 영상(즉, 복수 사용자들에 의하여 업로드되어 제2 저장부에 저장된 복수의 증강현실 영상)(특히, 현실 영상(51)과 관련하여 업로드된 현실 영상(51) 관련 복수의 증강현실 영상)을 분석할 수 있으며, 분석을 통해 현실 영상(51) 관련 복수의 증강현실 영상 내에 포함된 사용자 아바타들이 현실 영상(51) 내에서 어느 위치에 나타나는지에 대한 통계 정보(즉, 현실 영상 관련 복수의 증강현실 영상 내 사용자 아바타들이 표시되는 위치에 관한 통계 정보인 통계 위치 정보)를 산출할 수 있다.As another example, the screen controller 220 may include a plurality of augmented reality images uploaded to an SNS relational network (ie, a plurality of augmented reality images uploaded by a plurality of users and stored in the second storage unit) in order to select at least one previously selected recommended location. of the augmented reality image) (in particular, a plurality of augmented reality images related to the real image 51 uploaded in relation to the real image 51) can be analyzed, and a plurality of augmented reality images related to the real image 51 can be analyzed through the analysis. Calculation of statistical information (ie, statistical location information, which is statistical information about the positions at which user avatars are displayed in a plurality of augmented reality images related to real images) on which positions of the user avatars included in the real image 51 appear can do.

이때, 복수 사용자에 의해 제2 저장부(260)에 기 저장된 현실 영상(51) 관련 복수의 증강현실 영상 내 사용자 아바타들(이하 전체 사용자 아바타들이라 함)의 위치(표시 위치)를 분석한 결과, 일예로 도 2에 도시된 복수의 위치(71, 72, 73)에 대하여, 전체 사용자 아바타들 중 70%에 해당하는 사용자 아바타들이 제1 위치(71)에 표시되어 있고, 전체 사용자 아바타들 중 20%에 해당하는 사용자 아바타들이 제3 위치(73)에 표시되어 있으며, 전체 사용자 아바타들 중 9%에 해당하는 사용자 아바타들이 제2 위치(72)에 표시되고, 전체 사용자 아바타들 중 1%에 해당하는 사용자 아바타들이 제4 위치(미도시)에 표시되어 있다고 하자.At this time, as a result of analyzing the positions (display positions) of user avatars (hereinafter referred to as all user avatars) in a plurality of augmented reality images related to the real image 51 pre-stored in the second storage unit 260 by a plurality of users, For example, with respect to the plurality of locations 71 , 72 , and 73 shown in FIG. 2 , user avatars corresponding to 70% of all user avatars are displayed in the first location 71 , and 20 of all user avatars are displayed in the first location 71 . % of the user avatars are displayed at the third location 73 , and user avatars corresponding to 9% of the total user avatars are displayed at the second location 72 , corresponding to 1% of the total user avatars. It is assumed that user avatars are displayed at a fourth location (not shown).

이러한 경우, 화면 제어부(220)는 제1 위치(71)는 70%, 제2 위치(72)는 10%, 제3 위치(73)는 20%, 제4 위치(미도시)는 1%를 포함하는 통계 위치 정보를 산출할 수 있다. 이후, 화면 제어부(220)는 일예로 산출된 통계 위치 정보에 대응하는 복수의 위치(일예로 제1 위치 내지 제4 위치) 중 기 설정된 상위 개수(일예로, 상위 3개)에 속하는 위치로서 제1 위치(71) 내지 제3 위치(73)를 적어도 하나의 기 선정 추천 위치로서 현실 영상(51)에 표시할 수 있다. 이후, 일예로 현실 영상(51) 상에 적어도 하나의 기 선정 추천 위치 중 어느 하나의 기 선정 추천 위치로서 제3 위치(73)에 대한 사용자 입력이 이루어진 경우, 제1 사용자 아바타를 현실 영상(51) 상의 제3 위치(73)에 표시할 수 있다.In this case, the screen control unit 220 controls 70% of the first position 71, 10% of the second position 72, 20% of the third position 73, and 1% of the fourth position (not shown). It is possible to calculate statistical location information including Thereafter, as an example, the screen control unit 220 sets the second position as a position belonging to a preset high number (eg, top 3) among a plurality of positions (eg, first to fourth positions) corresponding to the calculated statistical position information. The first position 71 to the third position 73 may be displayed on the real image 51 as at least one previously selected recommended position. Thereafter, for example, when a user input is made to a third location 73 as one of at least one previously selected and recommended location on the real image 51 , the first user avatar is displayed on the real image 51 . ) can be displayed at the third position 73 on the

또 다른 일예로, 화면 제어부(220)는 통계 위치 정보가 산출되면, 산출된 통계 위치 정보에 대응하는 복수의 위치 중 사용자 아바타들이 가장 많이 표시(전체 사용자 아바타들 중 70%에 해당하는 사용자 아바타들이 표시)된 것으로 확인되는 최상위 위치(즉, 현실 영상 관련 복수의 증강현실 영상 내 사용자 아바타들이 표시 위치들 중 사용자 아바타들이 가장 많이 표시된 것으로 확인되는 위치)인 제1 위치(71)를 어느 하나의 기 선정 추천 위치로 결정할 수 있으며, 이후, 결정된 어느 하나의 기 선정 추천 위치인 제1 위치(71)에 제1 사용자 아바타를 표시할 수 있다.As another example, when the statistical location information is calculated, the screen controller 220 displays the most user avatars among a plurality of locations corresponding to the calculated statistical location information (user avatars corresponding to 70% of all user avatars are The first position 71, which is the highest position identified as displayed) The selected recommended location may be determined, and then, the first user avatar may be displayed in the determined first location 71 which is any one previously selected and recommended location.

화면 제어부(220)에 의해 현실 영상 상에 사용자 아바타가 표시된 이후, 영상 관리부(230)는, 촬영 모드에서 촬영 버튼에 대한 제1 사용자의 사용자 입력이 이루어진 경우, 사용자 입력에 응답하여 현실 영상과 사용자 아바타(제1 사용자 아바타)가 결합된 증강현실 영상을 획득하여 제2 저장부(260)에 저장할 수 있다.After the user avatar is displayed on the real image by the screen controller 220 , the image management unit 230 displays the real image and the user in response to the user input when the first user's user input for the shooting button is made in the shooting mode. The augmented reality image combined with the avatar (the first user avatar) may be acquired and stored in the second storage unit 260 .

이때, 촬영 버튼은 일예로 제1 사용자 단말(1)의 화면의 일영역에 터치 입력 방식으로 마련된 것일 수 있고, 또는 제1 사용자 단말(1)에 물리적인 버튼 방식으로 마련된 것일 수 있으며, 이에 한정되는 것은 아니다.In this case, for example, the shooting button may be provided in a touch input method on an area of the screen of the first user terminal 1 , or may be provided in a physical button method on the first user terminal 1 , limited thereto. it is not going to be

제1 사용자는, 화면 제어부(220)의 제어에 의하여, 사용자 단말(1)의 화면에 표출되는 현실 영상 상에 사용자 아바타(제1 사용자 아바타)가 오버랩하여 표시된 이후 이를 촬영한 이미지(증강현실 영상)을 획득하고자 하는 경우, 제1 사용자 단말(1)의 촬영 버튼에 대한 입력을 수행할 수 있다. 이처럼, 촬영 버튼에 대한 제1 사용자의 사용자 입력(제1 사용자 입력)이 이루어진 경우, 영상 관리부(230)는 제1 사용자 입력에 응답하여 제1 사용자 단말(1) 상에 표출된 현실 영상과 제1 사용자 아바타가 결합된 증강현실 영상(제1 증강현실 영상)을 획득하여 제2 저장부(260)에 저장(특히, 제2 저장부 내 제1 하위 저장부에 저장)할 수 있다.The first user, under the control of the screen control unit 220 , the user avatar (the first user avatar) overlapped and displayed on the real image displayed on the screen of the user terminal 1, and then a photographed image (augmented reality image) ), it is possible to perform an input to the photographing button of the first user terminal 1 . As such, when the first user's user input (first user input) for the shooting button is made, the image management unit 230 responds to the first user input with the real image displayed on the first user terminal 1 and the second user input. An augmented reality image (a first augmented reality image) combined with a user avatar may be acquired and stored in the second storage unit 260 (particularly, stored in the first lower storage unit within the second storage unit).

제1 사용자 단말(1)을 통해 획득되는 증강현실 영상은, 현실 영상과 제1 사용자 아바타가 결합된 증강현실 영상을 의미하는 것으로서, 이는 제1 증강현실 영상이라 지칭될 수 있다.The augmented reality image obtained through the first user terminal 1 means an augmented reality image in which a real image and a first user avatar are combined, which may be referred to as a first augmented reality image.

제2 저장부(260)에 저장되는 제1 증강현실 영상의 예는 도 2를 참조하여 보다 쉽게 이해될 수 있다.An example of the first augmented reality image stored in the second storage unit 260 may be more easily understood with reference to FIG. 2 .

도 2는 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치(100)에서 제2 저장부(260)에 저장되는 제1 증강현실 영상(53)의 일예를 나타낸 도면이다. 여기서, 제1 증강현실 영상(53)은 제1 사용자 단말(1)을 통해 획득된 증강현실 영상을 의미할 수 있다.2 is a diagram illustrating an example of the first augmented reality image 53 stored in the second storage unit 260 in the apparatus 100 for providing a social network service using augmented reality according to an embodiment of the present application. Here, the first augmented reality image 53 may mean an augmented reality image acquired through the first user terminal 1 .

도 2를 참조하면, 제1 사용자가 제1 사용자 단말(1)을 이용하여 일예로 궁 내 한옥을 촬영 대상 영역으로 하여 촬영을 수행하고자 한다고 하자. 이때, 화면 제어부(220)는 제1 사용자 단말(1)이 촬영 모드인 것으로 감지된 경우, 촬영 대상 영역에 대응하는 현실 영상(51)을 사용자 단말(1)의 화면에 표출시키고, 이와 함께 아바타 관리부(210)에서 생성되어 저장된 제1 사용자에 대응하는 제1 사용자 아바타(52)를 현실 영상(51) 상에 오버랩하여 제1 사용자 단말(1)의 화면에 표시(표출)할 수 있다.Referring to FIG. 2 , it is assumed that a first user intends to take a picture using a hanok in a palace as an example by using the first user terminal 1 . At this time, when it is detected that the first user terminal 1 is in the shooting mode, the screen controller 220 displays the real image 51 corresponding to the shooting target area on the screen of the user terminal 1, and together with the avatar The first user avatar 52 generated and stored in the management unit 210 may be overlapped on the real image 51 and displayed (expressed) on the screen of the first user terminal 1 .

즉, 화면 제어부(220)는, 제1 사용자 단말(1)이 촬영 모드인 것으로 감지된 경우, 촬영 대상 영역에 대응하여 제1 사용자 단말(1)의 화면에 표출되는 현실 영상(51) 상에 아바타 관리부(210)에 의해 생성된 제1 사용자 아바타(52)를 오버랩하여 제1 사용자 단말(1)의 화면 상에 표시(표출)할 수 있다.That is, when it is detected that the first user terminal 1 is in the photographing mode, the screen controller 220 may display the real image 51 displayed on the screen of the first user terminal 1 in response to the photographing target area. The first user avatar 52 generated by the avatar manager 210 may be overlapped and displayed (expressed) on the screen of the first user terminal 1 .

이후, 촬영 모드에서 촬영 버튼에 대한 제1 사용자의 입력(제1 사용자 입력)이 이루어지면, 영상 관리부(230)는 제1 사용자 단말(1)의 화면에 표출되고 있는 현실 영상(51)과 제1 사용자 아바타(52)가 결합된 증강현실 영상(53, 제1 증강현실 영상)을 제1 사용자 단말(1)로부터 획득하여 제2 저장부(260)(특히, 제2 저장부 내 제1 하위 저장부)에 저장할 수 있다.Thereafter, when the first user's input (first user input) to the shooting button is made in the shooting mode, the image management unit 230 displays the real image 51 and the second image displayed on the screen of the first user terminal 1 . One user avatar 52 is combined with an augmented reality image 53 (a first augmented reality image) obtained from the first user terminal 1, and the second storage unit 260 (particularly, the first lower level in the second storage unit) storage) can be saved.

즉, 영상 관리부(230)는 촬영 모드에 대한 제1 사용자의 입력이 이루어지면, 현실 영상(51)에 대하여 제1 사용자 아바타(52)를 결합시킴으로써 제1 증강현실 영상(53)을 생성하고, 생성된 제1 증강현실 영상(53)을 획득하여 제2 저장부(260)에 저장할 수 있다.That is, the image management unit 230 generates a first augmented reality image 53 by combining the first user avatar 52 with respect to the real image 51 when the first user's input for the shooting mode is made, The generated first augmented reality image 53 may be acquired and stored in the second storage unit 260 .

본원에서 제2 저장부(260)에 저장되는 증강현실 영상은, 정적인 상태의 영상(이미지, 사진)을 의미할 수 있으나, 이에만 한정되는 것은 아니고, 이미지, 사진과 같은 정적인 상태의 영상뿐만 아니라 동적인 상태의 영상(동영상 등)을 모두 포함하는 개념으로 이해됨이 바람직하다.Herein, the augmented reality image stored in the second storage unit 260 may mean an image (image, photo) in a static state, but is not limited thereto, and an image in a static state such as an image or a photo. In addition, it is preferable to be understood as a concept including all images (movies, etc.) in a dynamic state.

SNS 관리부(240)는 증강현실 영상을 타 사용자와 공유하기 위한 공유 요청 신호가 사용자로부터 입력된 경우, 공유 요청 신호에 대한 사용자 입력에 응답하여 공유를 위해 증강현실 영상을 SNS 관계망에 업로드할 수 있다.When a share request signal for sharing the augmented reality image with other users is input from the user, the SNS management unit 240 may upload the augmented reality image to the SNS network for sharing in response to the user input for the share request signal. .

즉, SNS 관리부(240)는 제2 저장부(260)에 저장된 제1 증강현실 영상(53)을 타 사용자에게 공유하기 위한 공유 요청 신호가 제1 사용자로부터 입력된 경우, 공유 요청 신호에 대한 사용자 입력(제1 사용자의 입력)에 응답하여 공유를 위해 제1 증강현실 영상(53)을 SNS 관계망에 업로드할 수 있다.That is, when a share request signal for sharing the first augmented reality image 53 stored in the second storage unit 260 to another user is input from the first user, the SNS management unit 240 responds to the share request signal. In response to the input (input of the first user), the first augmented reality image 53 may be uploaded to the SNS relational network for sharing.

여기서, SNS 관계망은 본 장치(100)에 의해 제공되는 관계망(네트워크)으로서, 이는 특정한 관심이나 활동을 공유하는 사람들 사이의 관계망(사람들 사이에 형성되는 관계망)을 의미할 수 있다.Here, the SNS relational network is a relational network (network) provided by the device 100, which may mean a relational network (a relational network formed between people) between people who share a specific interest or activity.

도면에 도시하지는 않았으나, 본 장치(100)는 제어부(미도시)를 포함할 수 있다. 제어부(미도시)는 본 장치(100)에 포함된 각 부의 동작을 제어할 수 있다. Although not shown in the drawings, the apparatus 100 may include a controller (not shown). A control unit (not shown) may control the operation of each unit included in the apparatus 100 .

제1 저장부(250)는 상술한 바와 같이 사용자에 대응하여 생성된 사용자 아바타를 저장할 수 있다. 일예로, 제1 저장부(250)는 제1 사용자에 대응하여 생성된 제1 사용자 아바타를 저장할 수 있다.The first storage unit 250 may store the user avatar generated in response to the user as described above. For example, the first storage unit 250 may store the first user avatar generated in response to the first user.

제2 저장부(260)는 상술한 바와 같이 사용자 단말로부터 획득된 증강현실 영상을 저장할 수 있다. 일예로, 제2 저장부(260)는 제1 사용자 단말(1)로부터 획득된 제1 증강현실 영상(53)을 저장할 수 있다.The second storage unit 260 may store the augmented reality image obtained from the user terminal as described above. For example, the second storage unit 260 may store the first augmented reality image 53 obtained from the first user terminal 1 .

한편, 제2 저장부(260)에 제1 증강현실 영상(53)이 저장된 이후에, 제2 사용자가 제2 사용자의 사용자 단말(제2 사용자 단말, 1')을 이용하여, 제1 사용자가 촬영했었던 촬영 대상 영역(즉, 제1 증강현실 영상(53)의 획득이 이루어졌던 촬영 대상 영역으로서, 제1 증강현실 영상에 대응하는 촬영 대상 영역을 의미함)과 동일한 촬영 대상 영역(동일 촬영 대상 영역)을 촬영하고자 한다고 하자.On the other hand, after the first augmented reality image 53 is stored in the second storage unit 260 , the second user uses the second user's user terminal (the second user terminal, 1'), and the first user The same shooting target area (same shooting target) as the shooting target area that was photographed (that is, the shooting target area where the first augmented reality image 53 was obtained, which means the shooting target area corresponding to the first augmented reality image) Let's say you want to shoot a region).

이때, 제2 사용자 단말(1')을 이용해 촬영되는 촬영 대상 영역과 제1 사용자 단말(1)에 의해 촬영되었던 촬영 대상 영역이 서로 동일한 촬영 대상 영역인지에 대한 판단(즉, 제2 사용자 단말이 동일 촬영 대상 영역의 촬영을 위한 촬영 모드인지 여부에 대한 판단)은, 일예로, 제2 저장부(260)에 기 저장된 제1 증강현실 영상(제1 사용자 단말에 의해 촬영되었던 촬영 대상 영역에 대응하는 제1 증강현실 영상)의 제1 위치 방위 정보(즉, 제1 증강현실 영상의 위치 정보와 방위 정보를 포함한 제1 위치 방위 정보)와 제2 사용자 단말(1')의 화면에 표출되는 촬영 대상 영역에 대응하는 현실 영상의 제2 위치 방위 정보(제2 사용자 단말의 화면에 표출되는 현실 영상의 위치 정보와 방위 정보를 포함한 제2 위치 방위 정보) 간의 비교를 통해 이루어질 수 있다.At this time, it is determined whether the photographing target area photographed using the second user terminal 1' and the photographing target area photographed by the first user terminal 1 are the same photographing target area (that is, the second user terminal Determination of whether the shooting mode is for shooting the same shooting target area) is, for example, the first augmented reality image (corresponding to the shooting target area photographed by the first user terminal) pre-stored in the second storage unit 260 . The first location and orientation information (ie, the first location and orientation information including the location information and orientation information of the first augmented reality image) of the first augmented reality image) and the photographing displayed on the screen of the second user terminal 1 ' The comparison may be made between the second position and orientation information of the real image corresponding to the target region (second position and orientation information including the position information and orientation information of the real image displayed on the screen of the second user terminal).

일예로, 화면 제어부(220)는 제1 위치 방위 정보로부터 미리 설정된 오차 범위 영역 내에 제2 위치 방위 정보가 위치하는 경우, 제2 사용자 단말(1')을 이용해 촬영되는 촬영 대상 영역과 제1 사용자 단말(1)에 의해 촬영되었던 촬영 대상 영역이 서로 동일한 촬영 대상 영역인 것으로 판단할 수 있다.For example, when the second location and orientation information is located within a preset error range from the first location and orientation information, the screen controller 220 may control the area to be photographed using the second user terminal 1 ′ and the first user. It may be determined that the photographing target areas photographed by the terminal 1 are the same photographing target areas.

이에 따르면, 영상 관리부(230)는 증강현실 영상을 제2 저장부(260)에 저장할 때, 증강현실 영상, 증강현실 영상 내 포함된 사용자 아바타, 증강현실 영상이 획득된 위치에 관한 위치 정보, 증강현실 영상이 획득된 방위에 관한 방위 정보, 사용자 아바타에 대하여 기 설정된 후술하는 결합 불가 조건 등이 서로 함께 연계하여 저장할 수 있다.According to this, when the image management unit 230 stores the augmented reality image in the second storage unit 260 , the augmented reality image, the user avatar included in the augmented reality image, location information about the location where the augmented reality image is obtained, and augmented reality The azimuth information regarding the azimuth from which the real image is acquired, the non-combination condition described below preset for the user avatar, etc. may be linked together and stored.

화면 제어부(220)는, 제2 사용자의 사용자 단말(제2 사용자 단말, 1')이 제1 사용자 단말(1)에 의해 획득되어 제2 저장부(260)에 저장된 제1 증강현실 영상(53)에 대응하는 촬영 대상 영역과 동일한 촬영 대상 영역(동일 촬영 대상 영역)의 촬영을 위한 촬영 모드인 것으로 감지되되, 촬영 대상 영역(동일 촬영 대상 영역)과 관련하여 기 저장된 사용자 아바타로서 제1 사용자 아바타(52)가 존재하는 경우, 제2 사용자의 사용자 단말(1')의 화면에 표출되는 현실 영상 상에 제2 사용자 아바타 및 제1 사용자 아바타를 오버랩하여 표시할 수 있다. 이는 도 3을 참조하여 보다 쉽게 이해될 수 있다.The screen control unit 220, the second user's user terminal (second user terminal, 1 ') is obtained by the first user terminal (1), the first augmented reality image 53 stored in the second storage unit (260) The first user avatar as a pre-stored user avatar in relation to the shooting target area (same shooting target area) is detected as being in a shooting mode for shooting the same shooting target area (same shooting target area) as the shooting target area corresponding to ). If 52 exists, the second user avatar and the first user avatar may be overlapped and displayed on the real image displayed on the screen of the user terminal 1 ′ of the second user. This can be more easily understood with reference to FIG. 3 .

도 3은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치(100)에서 제2 저장부(260)에 저장되는 제2 증강현실 영상(63)의 일예를 나타낸 도면이다. 여기서, 제2 증강현실 영상(63)은 제2 사용자 단말(1')을 통해 획득된 증강현실 영상을 의미할 수 있다.3 is a diagram illustrating an example of a second augmented reality image 63 stored in the second storage unit 260 in the apparatus 100 for providing a social network service using augmented reality according to an embodiment of the present application. Here, the second augmented reality image 63 may mean an augmented reality image obtained through the second user terminal 1 ′.

도 3을 참조하면, 앞서 말한 바와 같이, 제2 저장부(260)에 제1 증강현실 영상(53)이 저장된 이후에, 제2 사용자가 제2 사용자 단말(1')을 이용하여 제1 증강현실 영상(53)에 대응하는 촬영 대상 영역과 동일한 촬영 대상 영역(동일 촬영 대상 영역)을 촬영하고자 한다고 하자.Referring to FIG. 3 , as described above, after the first augmented reality image 53 is stored in the second storage unit 260 , the second user uses the second user terminal 1 ′ to perform the first augmentation. It is assumed that a photographing target area (same photographing target area) that is the same as the photographing target area corresponding to the real image 53 is to be photographed.

이때, 화면 제어부(220)는, 제2 사용자 단말(1')이 촬영 모드인 것으로 감지된 경우, 제2 저장부(260)에 기 저장된 복수의 증강현실 영상 중 촬영 모드에 대응하여 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61)에 대응하는 촬영 대상 영역과 동일한 촬영 대상 영역(동일 촬영 대상 영역)을 대상으로 하는 증강현실 영상이 제2 저장부(260)에 존재하는지 판단할 수 있다. 여기서, 제2 사용자 단말(1')의 화면에 표출되는 현실 영상에 대응하는 촬영 대상 영역과 동일한 촬영 대상 영역을 갖는 제2 저장부(260)에 기저장된 증강현실 영상은 후술하는 설명에서 매칭 증강현실 영상이라 지칭될 수 있으며, 이때, 매칭 증강현실 영상이 일예로 제1 증강현실 영상(53)이라 하자.At this time, when it is detected that the second user terminal 1 ′ is in the shooting mode, the screen controller 220 , corresponds to the shooting mode among a plurality of augmented reality images pre-stored in the second storage unit 260 , the second user Whether an augmented reality image targeting the same shooting target area (same shooting target area) as the shooting target area corresponding to the real image 61 displayed on the screen of the terminal 1' exists in the second storage unit 260 can judge Here, the augmented reality image pre-stored in the second storage unit 260 having the same shooting target region as the shooting target region corresponding to the real image displayed on the screen of the second user terminal 1 ′ is augmented matching in the description to be described later. It may be referred to as a real image, and in this case, let the matching augmented reality image be the first augmented reality image 53 as an example.

이러한 경우, 화면 제어부(220)는, 제2 사용자 단말(1')이 촬영 모드일 때, 제2 사용자 단말(1')의 화면에 표출되는 현실 영상에 대응하는 촬영 대상 영역과 동일한 촬영 대상 영역(동일 촬영 대상 영역)을 대상으로 하는 증강현실 영상(즉, 매칭 증강현실 영상인 제1 증강현실 영상)이 제2 저장부(260)에 존재하면, 제2 사용자 단말(1')의 촬영 모드를 제2 저장부(260)에 기 저장된 복수의 증강현실 영상 중 적어도 하나의 증강현실 영상(일예로, 매칭 증강현실 영상인 제1 증강현실 영상)의 촬영 대상 영역과 동일한 촬영 대상 영역(동일 촬영 대상 영역)의 촬영을 위한 촬영 모드인 것으로 인식할 수 있다.In this case, the screen controller 220, when the second user terminal 1' is in the shooting mode, the shooting target area corresponding to the real image displayed on the screen of the second user terminal 1' is the same as the shooting target area When the augmented reality image (ie, the first augmented reality image that is the matching augmented reality image) for the (same shooting target area) exists in the second storage unit 260, the shooting mode of the second user terminal 1' of at least one augmented reality image (for example, a first augmented reality image that is a matching augmented reality image) among a plurality of augmented reality images stored in the second storage unit 260 in the same shooting target area as the shooting target area (same shooting) It can be recognized as a shooting mode for shooting the target area).

이후, 화면 제어부(220)는, 제2 사용자의 사용자 단말(1')이 제2 저장부(260)에 기 저장된 복수의 증강현실 영상 중 적어도 하나의 증강현실 영상(일예로, 매칭 증강현실 영상인 제1 증강현실 영상)의 촬영 대상 영역과 동일한 촬영 대상 영역(동일 촬영 대상 영역)의 촬영을 위한 촬영 모드인 것으로 감지되되, 촬영 대상 영역(동일 촬영 대상 영역)과 관련하여 기 저장된 사용자 아바타로서 제1 사용자 아바타가 존재한다고 하자. 즉, 제2 저장부(260) 내에, 제2 사용자의 단말(1')이 촬영하고자 하는 촬영 대상 영역과 동일한 촬영 대상 영역(동일 촬영 대상 영역)을 촬영함으로써 획득되어 저장된 증강현실 영상(매칭 증강현실 영상)으로서 제1 증강현실 영상(53)이 존재하고, 이러한 제1 증강현실 영상(53)과 관련하여 기 저장된 사용자 아바타로서 제1 사용자 아바타(52)가 존재한다고 하자.Then, the screen control unit 220, the second user's user terminal (1 ') at least one of the plurality of augmented reality images pre-stored in the second storage unit 260 (eg, matching augmented reality image) It is detected that the shooting mode is for shooting the same shooting target region (same shooting target region) as the shooting target region of the first augmented reality image), but as a pre-stored user avatar in relation to the shooting target region (same shooting target region) Assume that a first user avatar exists. That is, in the second storage unit 260 , the augmented reality image (matching augmentation) obtained and stored by photographing the same shooting target area (same shooting target area) as the shooting target area that the second user's terminal 1 ′ wants to shoot. Assume that a first augmented reality image 53 exists as a real image), and a first user avatar 52 exists as a pre-stored user avatar in relation to the first augmented reality image 53 .

이러한 경우, 화면 제어부(220)는, 제2 사용자의 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상에 제2 사용자에 대응하여 생성된 사용자 아바타인 제2 사용자 아바타(62)를 오버랩하여 표시할 수 있으며, 이 뿐만 아니라, 더하여 제2 사용자의 사용자 단말(1')의 화면에 표출되는 현실 영상(61)과 관련하여 제2 저장부(260)에 기 저장되어 있던 증강현실 영상(매칭 증강현실 영상인 제1 증강현실 영상) 내 사용자 아바타인 제1 사용자 아바타(52)를 제2 사용자의 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상에 오버랩하여 표시할 수 있다.In this case, the screen control unit 220 may include a second user avatar 62 that is a user avatar generated in response to the second user on the real image 61 displayed on the screen of the user terminal 1 ′ of the second user. can be displayed overlappingly, and in addition to this, augmented reality previously stored in the second storage unit 260 in relation to the real image 61 displayed on the screen of the user terminal 1' of the second user. The first user avatar 52, which is the user avatar in the image (the first augmented reality image that is the matching augmented reality image), is overlapped and displayed on the real image 61 displayed on the screen of the user terminal 1' of the second user. can do.

즉, 화면 제어부(220)는, 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61)과 관련하여, 제2 저장부(260)에 기 저장되어 있던 제1 사용자 아바타(52)와 제2 사용자 아바타(62)를 함께 제2 사용자 단말(1')의 화면 상에 표출되는 현실 영상(61) 상에 오버랩하여 표시할 수 있다.That is, in relation to the real image 61 displayed on the screen of the second user terminal 1 ′, the screen control unit 220 controls the first user avatar 52 previously stored in the second storage unit 260 . and the second user avatar 62 may be overlapped and displayed on the real image 61 displayed on the screen of the second user terminal 1'.

이후, 영상 관리부(230)는, 일예로 제2 사용자 단말(1')의 화면 일영역에 표시된 촬영 버튼에 대한 사용자 입력(제2 사용자의 입력)이 이루어진 경우, 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61), 제2 사용자 아바타(62) 및 제1 사용자 아바타(52)가 모두 결합된 증강현실 영상으로서 제2 증강현실 영상(63)을 제2 사용자 단말(1')로부터 획득하고, 획득된 제2 증강현실 영상(63)을 제2 저장부(260)에 저장(특히, 제2 저장부 내 제2 하위 저장부에 저장)할 수 있다.Thereafter, the image management unit 230 may, for example, when a user input (a second user's input) is made with respect to a shooting button displayed on a screen area of the second user terminal 1', the second user terminal 1' As an augmented reality image in which all of the real image 61, the second user avatar 62, and the first user avatar 52 displayed on the screen of are combined, the second augmented reality image 63 is transferred to the second user terminal 1' ), and may store the obtained second augmented reality image 63 in the second storage unit 260 (in particular, store it in a second lower storage unit within the second storage unit).

이때, 영상 관리부(230)는 현실 영상(61), 제2 사용자 아바타(62) 및 제1 사용자 아바타(52)가 결합된 제2 증강현실 영상(63)을 획득하여 저장하고자 할 때, 제1 사용자 아바타(52)와 관련하여 결합 불가 조건이 기 설정되어 있는 경우, 결합 불가 조건을 고려하여 제2 증강현실 영상(63)의 획득을 위한 결합을 수행할 수 있다. 영상 관리부(230)는 결합 불가 조건을 고려하여 제2 증강현실 영상(63)의 획득을 위한 결합의 수행 및/또는 제2 증강현실 영상(63)의 획득 여부를 결정할 수 있다.At this time, the image manager 230 acquires and stores the second augmented reality image 63 in which the real image 61, the second user avatar 62, and the first user avatar 52 are combined, the first When a non-combination condition is previously set in relation to the user avatar 52 , combining for acquiring the second augmented reality image 63 may be performed in consideration of the non-combination condition. The image manager 230 may determine whether to perform combining for obtaining the second augmented reality image 63 and/or to acquire the second augmented reality image 63 in consideration of the uncombinable condition.

즉, 영상 관리부(230)는 촬영 모드에 대한 제2 사용자의 입력이 이루어지면, 현실 영상(61)에 대하여 제2 사용자 아바타(62)와 제1 사용자 아바타(52)를 결합시킴으로써 제2 증강현실 영상(63)을 생성하고, 생성된 제2 증강현실 영상(63)을 획득하여 제2 저장부(260)에 저장할 수 있다.That is, when the second user's input for the shooting mode is made, the image manager 230 combines the second user avatar 62 and the first user avatar 52 with respect to the real image 61 to thereby create the second augmented reality. An image 63 may be generated, and the generated second augmented reality image 63 may be acquired and stored in the second storage unit 260 .

이때, 영상 관리부(230)는, 제2 증강현실 영상(63)의 획득을 위해 현실 영상(61)에 제2 사용자 아바타(62)와 제1 사용자 아바타(52)를 결합시키고자 할 때, 제1 사용자 아바타(52)와 관련하여 결합 불가 조건이 기 설정되어 있는 경우, 결합 불가 조건을 고려하여 제2 증강현실 영상(63)의 획득을 위한 결합을 수행할 수 있다.At this time, the image management unit 230, when trying to combine the second user avatar 62 and the first user avatar 52 with the real image 61 to obtain the second augmented reality image 63, When a non-combination condition is previously set in relation to the first user avatar 52 , combining for acquiring the second augmented reality image 63 may be performed in consideration of the non-combination condition.

즉, 영상 관리부(230)는 제2 사용자 단말(1')을 통해 제2 증강현실 영상(63)을 획득함에 있어서, 제2 저장부(260)에 기 저장된 기저장 사용자 아바타(일예로 제1 사용자 아바타)와 현재의 촬영 모드인 것으로 감지된 사용자 단말에 대응하는 현재 사용자 아바타(일예로, 제2 사용자 아바타)를 포함한 복수의 사용자 아바타를 현실 영상에 결합시킨 제2 증강현실 영상(63)을 획득하고자 하는 경우, 기저장 사용자 아바타와 관련해 결합 불가 조건이 기 설정되어 있으면, 결합 불가 조건을 고려하여 제2 증강현실 영상(63)의 획득을 위한 결합(현실 영상에 대한 복수의 사용자 아바타의 결합)을 수행할 수 있다. 이는 도 4를 참조하여 보다 쉽게 이해될 수 있다.That is, when the image manager 230 acquires the second augmented reality image 63 through the second user terminal 1 ′, the pre-stored user avatar (eg, the first A second augmented reality image 63 in which a plurality of user avatars including a user avatar) and a current user avatar (for example, a second user avatar) corresponding to the user terminal detected as being in the current shooting mode are combined with a real image In the case of acquisition, if a non-combination condition is previously set in relation to the pre-stored user avatar, combining (combining a plurality of user avatars with respect to the real image) for the acquisition of the second augmented reality image 63 in consideration of the uncombinable condition ) can be done. This can be more easily understood with reference to FIG. 4 .

도 4는 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치(100)에서 증강현실 영상의 획득시 고려되는 결합 불가 조건을 설명하기 위한 도면이다.4 is a view for explaining a non-combination condition considered when acquiring an augmented reality image in the apparatus 100 for providing a social network service using augmented reality according to an embodiment of the present application.

도 4를 참조하면, 영상 관리부(230)는, 제2 증강현실 영상(63)의 획득을 위해 현실 영상(61)에 제2 사용자 아바타(62)와 제1 사용자 아바타(52)를 결합시키고자 할 때, 제1 사용자 아바타(52)와 관련하여 결합 불가 조건이 기 설정되어 있는 경우, 제1 사용자 아바타(52)와 관련하여 설정되어 있는 결합 불가 조건을 고려하여 제2 증강현실 영상(63)의 획득을 위한 결합을 수행할 수 있다.Referring to FIG. 4 , the image manager 230 combines the second user avatar 62 and the first user avatar 52 with the real image 61 to obtain the second augmented reality image 63 . At this time, when a non-combination condition is previously set in relation to the first user avatar 52 , the second augmented reality image 63 is taken in consideration of the uncombinable condition set in relation to the first user avatar 52 . can be combined to obtain .

즉, 영상 관리부(230)는, 제1 사용자 아바타(52)와 관련하여 기 설정되어 있는 결합 불가 조건을 고려하여, 현실 영상(61)에 제2 사용자 아바타(62)와 제1 사용자 아바타(52)를 결합시킴으로써 제2 증강현실 영상(63)을 획득하여 제2 저장부(260)에 저장할 수 있다.That is, the image management unit 230 may display the second user avatar 62 and the first user avatar 52 on the real image 61 in consideration of a previously set uncombinable condition in relation to the first user avatar 52 . ) may be combined to obtain the second augmented reality image 63 and store it in the second storage unit 260 .

여기서, 결합 불가 조건은 제1 조건 및 제2 조건을 포함할 수 있다. 제1 조건은 현실 영상(61) 상에 오버랩하여 표시되는 제1 사용자 아바타(52)와 제2 사용자 아바타(62) 간에 적어도 일부의 중첩 영역(s)이 존재하는 경우, 전후방향에 대한 사용자 아바타의 위치와 관련하여 설정된 조건을 의미할 수 있다. 제2 조건은 현실 영상(61) 상에 오버랩하여 표시되는 제1 사용자 아바타(52)와 제2 사용자 아바타(62) 간에 적어도 일부의 중첩 영역(s)이 존재하는 경우, 중첩 영역(s)에 대응하는 사용자 아바타의 신체 부위와 관련하여 설정된 조건을 의미할 수 있다.Here, the non-binding condition may include a first condition and a second condition. The first condition is that when there is at least a partial overlapping area s between the first user avatar 52 and the second user avatar 62 that are overlapped and displayed on the real image 61, the user avatar in the forward and backward directions It may mean a condition set in relation to the location of The second condition is that when at least a part of the overlapping area s exists between the first user avatar 52 and the second user avatar 62 that are overlapped and displayed on the real image 61, the overlapping area s is It may mean a condition set in relation to a body part of the corresponding user avatar.

구체적으로, 제1 조건은, 현실 영상(61) 상에 오버랩하여 표시되는 제1 사용자 아바타(52)와 제2 사용자 아바타(62) 간에 적어도 일부의 중첩 영역(s)이 존재하는 경우, 제2 사용자 아바타(62)가 제1 사용자 아바타(52)보다 전방에 위치하는 조건을 의미할 수 있다.Specifically, the first condition is that when there is at least a partial overlapping area s between the first user avatar 52 and the second user avatar 62 that are overlapped and displayed on the real image 61 , the second condition is It may mean a condition that the user avatar 62 is located in front of the first user avatar 52 .

예시적으로, 제2 증강현실 영상(63)의 획득을 위해 촬영 버튼에 대한 제2 사용자의 입력이 이루어졌을 때(제2 사용자의 입력이 이루어진 시점에), 제2 사용자 단말(1')의 화면 상에 표출된 현실 영상(61) 상에 제1 사용자 아바타(52)와 제2 사용자 아바타(62)가 서로 간에 적어도 일부의 중첩 영역(s)을 가지도록 표시되어 있되, 제2 사용자 아바타(62)의 중첩된 영역이 제1 사용자 아바타(52)의 중첩된 영역보다 전방에 위치하도록 표시되어 있다고 하자(즉, 제1 사용자 아바타의 중첩된 영역이 제2 사용자 아바타의 중첩된 영역에 의해 가려져있다고 하자). 이때, 제1 사용자 아바타(52)에 제1 조건에 관한 결합 불가 조건이 기 설정되어 있는 경우, 영상 관리부(230)는 제2 사용자 아바타(62)의 중첩된 영역이 제1 사용자 아바타(52)의 중첩된 영역보다 전방에 위치하고 있음에 따라 제1 조건에 의해 결합이 불가하다고 판단(즉, 제1 조건에 관한 결합 불가 조건을 충족하고 있다고 판단)하여, 결과적으로 촬영 버튼에 대한 제2 사용자의 입력이 이루어진 경우, 제2 사용자의 입력에 응답하여 제2 증강현실 영상(63)의 획득이 이루어지지 않도록 할 수 있다(즉, 제2 증강현실 영상이 미획득되도록 할 수 있다).Exemplarily, when the second user's input to the capture button is made to obtain the second augmented reality image 63 (at the time when the second user's input is made), the second user terminal 1' On the real image 61 displayed on the screen, the first user avatar 52 and the second user avatar 62 are displayed to have at least a partial overlapping area s with each other, and the second user avatar ( Assume that the overlapped area of 62 is displayed to be located in front of the overlapped area of the first user avatar 52 (ie, the overlapped area of the first user avatar is obscured by the overlapped area of the second user avatar). Let's say there is). In this case, if the first user avatar 52 has a pre-set condition that cannot be combined with the first condition, the image manager 230 determines that the overlapping area of the second user avatar 62 is the first user avatar 52 . As it is located in front of the overlapping area of When an input is made, the second augmented reality image 63 may not be acquired in response to the second user's input (that is, the second augmented reality image may not be acquired).

만약, 제2 사용자 아바타(62)의 중첩된 영역이 제1 사용자 아바타(52)의 중첩된 영역보다 후방에 위치하도록 표시되어 있다고 하자(즉, 제2 사용자 아바타의 중첩된 영역이 제1 사용자 아바타의 중첩된 영역에 의해 가려져있다고 하자). 이때, 제1 사용자 아바타(52)에 제1 조건에 관한 결합 불가 조건이 기 설정되어 있는 경우, 영상 관리부(230)는 제2 사용자 아바타(62)의 중첩된 영역이 제1 사용자 아바타(52)의 중첩된 영역보다 후방에 위치하고 있음에 따라 제1 조건에 관한 결합 불가 조건을 충족하고 있지 않다(미충족하고 있다)고 판단하여, 결과적으로 촬영 버튼에 대한 제2 사용자의 입력이 이루어진 경우, 제2 사용자의 입력에 응답하여 제2 증강현실 영상(63)을 획득하여 제2 저장부(260)에 저장할 수 있다.If it is assumed that the overlapping area of the second user avatar 62 is displayed to be located behind the overlapping area of the first user avatar 52 (that is, the overlapping area of the second user avatar 62 is the overlapping area of the first user avatar). Let's say it is obscured by an overlapping region of ). In this case, if the first user avatar 52 has a pre-set condition that cannot be combined with the first condition, the image manager 230 determines that the overlapping area of the second user avatar 62 is the first user avatar 52 . As it is located behind the overlapping region of The second augmented reality image 63 may be acquired in response to the user's input and stored in the second storage unit 260 .

이에 따르면, 제1 사용자 아바타에 제1 조건에 관한 결합 불가 조건이 설정되어 있다라 함은, 타 사용자(일예로 제2 사용자)가 제1 사용자 자신의 아바타(제1 사용자 아바타)가 포함된 증강현실 영상을 획득 가능하도록 허용함에 있어서, 타 사용자의 아바타(일예로 제2 사용자 아바타)가 제1 사용자 아바타보다 앞에 위치하여 제1 사용자 아바타의 적어도 일부의 영역이 타 사용자의 아바타(제2 사용자 아바타)에 의해 가려진 경우에 한해서는 타 사용자가 제1 사용자 아바타가 포함된 증강현실 영상을 획득하지 못하도록 제한하는 설정을 의미할 수 있다.According to this, the fact that the first user avatar is set with the uncombinable condition related to the first condition means that another user (eg, the second user) is augmented with the first user's own avatar (the first user avatar). In allowing a real image to be acquired, the avatar of the other user (eg, the second user avatar) is positioned in front of the first user avatar so that at least a portion of the first user avatar is the avatar of the other user (the second user avatar). ) may mean a setting that restricts other users from acquiring the augmented reality image including the first user avatar.

타 사용자(일예로, 제2 사용자 등)가 제1 사용자 아바타가 포함된 증강현실 영상을 획득하고자 할 때, 제1 사용자가 자신의 아바타(제1 사용자 아바타)가 타 사용자의 아바타(일예로 제2 사용자 아바타 등)에 의해 가려지는 것 없이 제1 사용자 아바타의 형상(형태)이 온전히 증강현실 영상에서 맨 앞에 표시되길 희망하는 경우, 제1 사용자는 제1 사용자 아바타에 대하여 제1 조건에 관한 결합 불가 조건을 설정할 수 있다. 즉, 제1 사용자는 자신의 아바타(제1 사용자 아바타)를 포함한 증강현실 영상을 타 사용자들이 획득 가능하도록 함에 있어서, 타 사용자들이 획득하는 증강현실 영상 내에서 제1 사용자 아바타를 맨 앞에 보이고 싶어하는 경우에, 제1 사용자 아바타에 대하여 제1 조건에 관한 결합 불가 조건을 설정할 수 있다.When another user (eg, a second user, etc.) wants to acquire an augmented reality image including a first user avatar, the first user's avatar (the first user avatar) is the avatar of another user (eg, the first user avatar) 2 When it is desired that the shape (shape) of the first user avatar is completely displayed in the front of the augmented reality image without being obscured by the user avatar, etc.) You can set an impossible condition. That is, when the first user wants other users to obtain an augmented reality image including his/her avatar (the first user avatar), he/she wants to show the first user avatar in front of the augmented reality images acquired by other users. In this case, a non-combination condition related to the first condition may be set for the first user avatar.

한편, 제2 조건은, 현실 영상(61) 상에 오버랩하여 표시되는 제1 사용자 아바타(52)와 제2 사용자 아바타(62) 간에 적어도 일부의 중첩 영역(s)이 존재하되, 중첩 영역(s)의 크기가 미리 설정된 크기 이하의 크기를 가지며 제2 사용자 아바타(62)가 제1 사용자 아바타(52)보다 전방에 위치하는 경우, 중첩 영역(s)에 대응하는 제2 사용자 아바타(62)의 신체 부위가 기 설정된 신체 부위에 해당하는 조건을 의미할 수 있다.On the other hand, the second condition is that at least a partial overlapping area (s) exists between the first user avatar 52 and the second user avatar 62 that are overlapped and displayed on the real image 61, but the overlapping area (s) ) has a size less than or equal to a preset size and the second user avatar 62 is positioned in front of the first user avatar 52, the second user avatar 62 corresponding to the overlapping area s is The body part may mean a condition corresponding to a preset body part.

여기서, 기 설정된 신체 부위는 예시적으로 입술 부위, 손 부위 등일 수 있으나, 이에만 한정되는 것은 아니고, 이는 사용자 입력에 의해 설정될 수 있다.Here, the preset body part may be, for example, a lip part, a hand part, etc., but is not limited thereto, and may be set by a user input.

예시적으로, 제2 증강현실 영상(63)의 획득을 위해 촬영 버튼에 대한 제2 사용자의 입력이 이루어졌을 때(제2 사용자의 입력이 이루어진 시점에), 제2 사용자 단말(1')의 화면 상에 표출된 현실 영상(61) 상에 제1 사용자 아바타(52)와 제2 사용자 아바타(62)가 서로 간에 적어도 일부의 중첩 영역(s)을 가지도록 표시되어 있되, 중첩 영역(s)의 크기가 미리 설정된 크기 이하의 크기를 가지며, 제2 사용자 아바타(62)의 중첩된 영역이 제1 사용자 아바타(52)의 중첩된 영역보다 전방에 위치하도록 표시되어 있다고 하자(즉, 제1 사용자 아바타의 중첩된 영역이 제2 사용자 아바타의 중첩된 영역에 의해 가려져있다고 하자).Exemplarily, when the second user's input to the capture button is made to obtain the second augmented reality image 63 (at the time when the second user's input is made), the second user terminal 1' On the real image 61 displayed on the screen, the first user avatar 52 and the second user avatar 62 are displayed to have at least a partial overlapping area (s) with each other, the overlapping area (s) Assume that the size of has a size equal to or smaller than a preset size, and the overlapping area of the second user avatar 62 is displayed to be positioned in front of the overlapping area of the first user avatar 52 (that is, the first user Assume that the overlapping area of the avatar is obscured by the overlapping area of the second user's avatar).

이때, 영상 관리부(230)는 미리 설정된 크기 이하의 크기를 갖는 중첩 영역(s)에 대응하는 제2 사용자 아바타(62)의 신체 부위(즉, 제2 사용자 아바타의 중첩된 영역의 신체 부위)가 기 설정된 신체 부위에 해당하는지 판단할 수 있다. 이때, 영상 관리부(230)는 중첩 영역(s)에 대응하는 제2 사용자 아바타(62)의 신체 부위(즉, 제2 사용자 아바타의 중첩된 영역의 신체 부위)가 기 설정된 신체 부위로서 일예로 입술 부위에 해당하는 경우, 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상에 제1 사용자 아바타(52)와 제2 사용자 아바타(62)가 서로 간에 제1 사용자 아바타(52)에 대하여 기 설정된 제2 조건에 관한 결합 불가 조건을 충족하는 상태로 표시(위치, 배치)되어 있다고 판단할 수 있다.In this case, the image manager 230 determines whether the body part of the second user avatar 62 (ie, the body part of the overlapping region of the second user avatar) corresponding to the overlapping region s having a size less than or equal to a preset size is selected. It may be determined whether it corresponds to a preset body part. In this case, the image manager 230 sets the body part of the second user avatar 62 corresponding to the overlapping region s (ie, the body part of the overlapping region of the second user avatar) as a preset body part, as an example, the lips. In the case of a part, the first user avatar 52 and the second user avatar 62 are interposed between the first user avatar 52 and the second user avatar 62 on the real image 61 displayed on the screen of the second user terminal 1'. ), it can be determined that the display (position, arrangement) is displayed in a state that satisfies the non-binding condition related to the preset second condition.

이처럼, 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상에 표시된 제1 사용자 아바타(52)와 제2 사용자 아바타(62) 간의 중첩 영역(s)의 형태가 제2 조건에 관한 결합 불가 조건을 충족하는 형태인 경우(즉, 제2 사용자 아바타에서 입술 부위에 해당하는 부분만이 제1 사용자 아바타와 중첩된 상태로 제1 사용자 아바타보다 전방에 위치하도록 표시된 형태인 경우), 영상 관리부(230)는 획득하고자 하는 제2 증강현실 영상(63)이 제2 조건에 관한 결합 불가 조건을 충족하고 있다고 판단하여, 결과적으로 촬영 버튼에 대한 제2 사용자의 입력이 이루어진 경우, 제2 사용자의 입력에 응답하여 제2 증강현실 영상(63)의 획득이 이루어지지 않도록 할 수 있다(즉, 제2 증강현실 영상이 미획득되도록 할 수 있다.As such, the shape of the overlapping region s between the first user avatar 52 and the second user avatar 62 displayed on the real image 61 displayed on the screen of the second user terminal 1 ′ is the second condition. In the case of a form that satisfies the condition not to be combined with respect to (that is, when only the portion corresponding to the lips of the second user avatar is displayed to be positioned in front of the first user avatar while overlapping the first user avatar) , the image management unit 230 determines that the second augmented reality image 63 to be acquired satisfies the uncombinable condition related to the second condition, and as a result, when the second user's input to the capture button is made, the second 2 It is possible to prevent the acquisition of the second augmented reality image 63 in response to the user's input (that is, it is possible to prevent the second augmented reality image from being acquired.

만약, 제2 사용자 아바타(62)와 제1 사용자 아바타(52) 간의 중첩된 중첩 영역(s)의 크기가 미리 설정된 크기를 초과하는 크기를 가지되, 제2 사용자 아바타(62)가 제1 사용자 아바타(52)보다 전방에 위치하는 경우 혹은 후방에 위치하는 경우, 영상 관리부(230)는 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상의 제1 사용자 아바타(52)와 제2 사용자 아바타(62)가 서로 간에, 제1 사용자 아바타(52)에 대하여 기 설정된 제2 조건에 관한 결합 불가 조건을 충족하고 있지 않다(미충족하고 있다)고 판단하여, 결과적으로 촬영 버튼에 대한 제2 사용자의 입력이 이루어진 경우, 제2 사용자의 입력에 응답하여 제2 증강현실 영상(63)을 획득하여 제2 저장부(260)에 저장할 수 있다.If the size of the overlapping area s between the second user avatar 62 and the first user avatar 52 exceeds a preset size, the second user avatar 62 is When positioned in front of or behind the avatar 52 , the image management unit 230 performs the first user avatar 52 on the real image 61 displayed on the screen of the second user terminal 1 ′ and It is determined that the second user avatar 62 does not satisfy (does not satisfy) the condition for not being able to combine with respect to the second condition preset for the first user avatar 52 with each other. When the second user's input is made, the second augmented reality image 63 may be acquired in response to the second user's input and stored in the second storage unit 260 .

이에 따르면, 제1 사용자 아바타(52)에 제2 조건에 관한 결합 불가 조건이 설정되어 있다라 함은, 타 사용자(일예로 제2 사용자)가 제1 사용자 자신의 아바타(제1 사용자 아바타)가 포함된 증강현실 영상을 획득 가능하도록 허용함에 있어서, 타 사용자의 아바타(일예로 제2 사용자 아바타) 중 기 설정된 신체 부위(일예로 입술 부위, 손 부위)에 해당하는 영역만이 제1 사용자 아바타보다 앞에 위치하는 경우에 한해서는 타 사용자가 제1 사용자 아바타가 포함된 증강현실 영상을 획득하지 못하도록 제한하는 설정을 의미할 수 있다.According to this, when the first user avatar 52 is set with a non-combination condition related to the second condition, another user (for example, the second user) has the first user's own avatar (the first user avatar) In allowing the included augmented reality image to be acquired, only a region corresponding to a preset body part (eg, lips, hand) among other user's avatars (eg, second user avatar) is greater than that of the first user's avatar. It may mean a setting that restricts other users from acquiring the augmented reality image including the first user avatar only in the case where it is located in front.

타 사용자(일예로, 제2 사용자 등)가 제1 사용자 아바타가 포함된 증강현실 영상을 획득하고자 할 때, 제1 사용자 아바타를 희롱하는 행위나 제스처를 이용한 도발 행위 등과 같은 불쾌감 유발 행위(즉, 제1 사용자 아바타와 관련해 불쾌감을 유발하는 행위)가 포함된 증강현실 영상의 획득이 이루어지지 않게 하고자 하는 경우, 제1 사용자는 제1 사용자 아바타에 대하여 제2 조건에 관한 결합 불가 조건을 설정할 수 있다. 즉, 제1 사용자는 자신의 아바타(제1 사용자 아바타)를 포함한 증강현실 영상을 타 사용자들이 획득 가능하도록 함에 있어서, 제1 사용자 아바타와 관련해 희롱이나 도발 등의 불쾌감 유발 행위 없이 건전한 상태의 제1 사용자 아바타가 포함된 증강현실 영상의 획득이 이루어질 수 있도록 희망하는 경우에, 제1 사용자 아바타에 대하여 제2 조건에 관한 결합 불가 조건을 설정할 수 있다.When another user (for example, a second user, etc.) tries to acquire an augmented reality image including the first user avatar, an act of harassing the first user avatar or a provocative act using a gesture (i.e., In the case of preventing the acquisition of an augmented reality image including an action that causes discomfort in relation to the first user avatar), the first user may set a non-combination condition related to the second condition with respect to the first user avatar. . That is, when the first user enables other users to acquire an augmented reality image including his/her avatar (the first user avatar), the first user is in a healthy state without any unpleasant behavior such as harassment or provocation in relation to the first user avatar. When it is desired to obtain an augmented reality image including the user avatar, a non-combination condition related to the second condition may be set for the first user avatar.

일예로, 아바타 관리부(210)는 제1 사용자에 대응하는 제1 사용자 아바타를 생성하여 제1 저장부(250)에 저장할 수 있으며, 이때 제1 사용자로부터 결합 불가 조건 관련 설정 정보를 입력받은 경우, 제1 사용자로부터 입력받은 결합 불가 조건 관련 설정 정보를 제1 사용자 아바타와 연계하여 제1 저장부(250)에 저장할 수 있다. 이러한 결합 불가 조건 관련 설정 정보에는 제1 조건의 충족 여부를 판단하는 제1 조건 설정 정보 및 제2 조건의 충족 여부를 판단하는 제2 조건 설정 정보가 포함될 수 있다.As an example, the avatar management unit 210 may generate a first user avatar corresponding to the first user and store it in the first storage unit 250 , and in this case, when receiving input from the first user, setting information related to the non-combinable condition, The setting information related to the non-combination condition received from the first user may be stored in the first storage unit 250 in association with the first user avatar. The setting information related to the non-combinable condition may include first condition setting information for determining whether the first condition is satisfied and second condition setting information for determining whether the second condition is satisfied.

만약, 제1 사용자 아바타와 관련하여 결합 불가 조건 관련 설정 정보가 존재하지 않는 경우(즉, 제1 사용자 아바타와 관련하여 결합 불가 조건이 기 설정되어 있지 않은 경우)에는, 제1 사용자 아바타와 타 사용자의 아바타 간에 어떠한 제약 없이 두 사용자 아바타 간에 결합이 이루어질 수 있다.If, in relation to the first user avatar, there is no setting information related to the non-combination condition (that is, when the non-combination condition is not previously set in relation to the first user avatar), the first user avatar and the other users A combination can be made between two user avatars without any restrictions between the avatars of .

또한, 앞서 말한 바와 같이, 화면 제어부(220)는, 제2 사용자의 사용자 단말(제2 사용자 단말, 1')이 제1 사용자 단말(1)에 의해 획득되어 제2 저장부(260)에 저장된 제1 증강현실 영상(53)에 대응하는 촬영 대상 영역과 동일한 촬영 대상 영역(동일 촬영 대상 영역)의 촬영을 위한 촬영 모드인 것으로 감지되되, 촬영 대상 영역(동일 촬영 대상 영역)과 관련하여 기 저장된 사용자 아바타로서 제1 사용자 아바타(52)가 존재하는 경우, 제2 사용자의 사용자 단말(1')의 화면에 표출되는 현실 영상 상에 제2 사용자 아바타 및 제1 사용자 아바타를 오버랩하여 표시할 수 있다.In addition, as described above, the screen controller 220 stores the second user's user terminal (the second user terminal, 1') obtained by the first user terminal 1 and stored in the second storage unit 260 . It is detected that the shooting mode is for shooting the same shooting target area (same shooting target area) as the shooting target area corresponding to the first augmented reality image 53, but pre-stored in relation to the shooting target area (same shooting target area) When the first user avatar 52 exists as the user avatar, the second user avatar and the first user avatar may be overlapped and displayed on the real image displayed on the screen of the user terminal 1' of the second user. .

이때, 화면 제어부(220)는, 제2 사용자 단말(1')의 화면에 표출되는 현실 영상 상에 제1 사용자 아바타의 표시시, 제1 사용자 아바타에 대하여 기 설정된 공개 범위 설정 정보를 기반으로 제1 사용자 아바타의 표시 여부를 결정할 수 있다.In this case, when the first user avatar is displayed on the real image displayed on the screen of the second user terminal 1 ′, the screen controller 220 is configured to perform the second user avatar based on preset disclosure range setting information for the first user avatar. 1 It is possible to determine whether to display the user avatar.

여기서, 기 설정된 공개 범위 설정 정보는, 제1 사용자 이외의 타 사용자들의 단말에 대하여 제1 사용자 아바타의 표시를 허용하는 범위를 설정한 정보를 의미할 수 있다. 이러한 공개 범위 설정 정보에는 모두 공개, 친구 공개, 비공개를 포함한 3가지 유형의 설정 정보가 포함될 수 있다. 이러한 공개 범위 설정 정보는 사용자 입력에 의하여 설정될 수 있다. 일예로 제1 사용자 아바타에 대한 공개 범위 설정 정보는 제1 사용자 입력에 의하여 설정될 수 있다.Here, the preset disclosure range setting information may refer to information that sets a range allowing the display of the first user avatar to terminals of other users other than the first user. All of the public scope setting information may include three types of setting information including public, friend public, and private. Such public range setting information may be set by a user input. For example, the disclosure range setting information for the first user avatar may be set by a first user input.

예를 들면, 제2 사용자의 단말(1')이 동일 촬영 대상 영역의 촬영을 위한 촬영 모드인 것으로 감지되되, 동일 촬영 대상 영역과 관련하여 기 저장된 사용자 아바타로서 제1 사용자 아바타가 존재한다고 하자. 이때, 화면 제어부(220)는 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상에 제2 사용자 아바타(62)와 제1 사용자 아바타(52)를 표시하기 이전에, 제1 사용자 아바타(52)에 대한 공개 범위 설정 정보가 존재하는지 확인할 수 있다.For example, suppose that the second user's terminal 1' is detected to be in a shooting mode for shooting the same shooting target area, but a first user avatar exists as a pre-stored user avatar in relation to the same shooting target area. In this case, the screen controller 220 performs the second user avatar 62 and the first user avatar 52 on the real image 61 displayed on the screen of the second user terminal 1 ′ before displaying the second user avatar 62 and the first user avatar 52 . 1 It may be checked whether the disclosure range setting information for the user avatar 52 exists.

이때, 제1 사용자 아바타에 기 설정된 공개 범위 설정 정보로서 '비공개'인 정보가 존재하면, 화면 제어부(220)는 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상에 제2 사용자 아바타(62)만 표시할 수 있다.At this time, if 'private' information exists as preset disclosure range setting information in the first user avatar, the screen control unit 220 displays the information on the real image 61 displayed on the screen of the second user terminal 1 '. Only 2 user avatars 62 can be displayed.

다른 일예로, 제1 사용자 아바타에 기 설정된 공개 범위 설정 정보로서 '친구 공개'인 정보가 존재하면, 화면 제어부(220)는 제1 사용자 아바타(52)에 대응하는 사용자인 제1 사용자와 제2 사용자 아바타(62)에 대응하는 제2 사용자가 본 장치(100) 내에서 서로 간에 친구 맺음 상태인지 확인하고, 확인 결과 친구 맺음 상태가 맞으면 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상에 제2 사용자 아바타(62)와 제1 사용자 아바타(52)를 함께 표시할 수 있다. 반면, 확인 결과 친구 맺음 상태가 아니면, 화면 제어부(220)는 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상에 제2 사용자 아바타(62)만 표시하고, 제1 사용자 아바타(52)는 표시되지 않도록 할 수 있다.As another example, when the information 'friend public' exists as preset disclosure range setting information in the first user avatar, the screen control unit 220 controls the first user and the second user corresponding to the first user avatar 52 . A real image displayed on the screen of the second user terminal 1' if the second user corresponding to the user avatar 62 is in a friending state with each other in the device 100, and if the confirming result is in the friending state The second user avatar 62 and the first user avatar 52 may be displayed together on 61 . On the other hand, if the confirmation result is not in the friending state, the screen controller 220 displays only the second user avatar 62 on the real image 61 displayed on the screen of the second user terminal 1', and the first user The avatar 52 may not be displayed.

또 다른 일예로, 제1 사용자 아바타에 기 설정된 공개 범위 설정 정보로서 '모두 공개'인 정보가 존재하면, 화면 제어부(220)는 제1 사용자 아바타(52)에 대응하는 사용자인 제1 사용자와 제2 사용자 아바타(62)에 대응하는 제2 사용자가 본 장치(100) 내에서 서로 간에 친구 맺음 상태인지와 관계없이, 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상에 제2 사용자 아바타(62)와 제1 사용자 아바타(52)를 모두 표시할 수 있다.As another example, if 'public all' information exists as preset disclosure range setting information in the first user avatar, the screen control unit 220 controls the first user and the second user corresponding to the first user avatar 52 . 2 On the real image 61 displayed on the screen of the second user terminal 1', regardless of whether the second user corresponding to the user avatar 62 is in a state of making friends with each other in the device 100 Both the second user avatar 62 and the first user avatar 52 may be displayed.

일예로, 제1 사용자가 연예인이고, 제1 사용자 아바타(52)에 대하여 기 설정된 공개 범위 설정 정보를 '모두 공개'인 것으로 설정해 두고, 제2 사용자가 제1 사용자의 팬이라고 하자. 이러한 경우, 제2 사용자는 본 장치(100)를 통하여 증강현실 영상으로서 현실 영상(61) 상에 제1 사용자 아바타(52)와 제2 사용자 아바타(62)가 결합된 제2 증강현실 영상(63)을 획득하여 제2 저장부(260)에 저장할 수 있다. 이에 따르면, 증강현실 영상의 획득을 위해 사용자 단말의 화면에 표시되는 사용자 아바타들이 각각의 사용자들의 신체 특성 정보를 고려하여 생성된 3차원 아바타임에 따라, 제2 사용자는 촬영 대상 영역에서 실제로 제1 사용자를 만나 제1 사용자와 함께 사진을 찍지 않았음에도 불구하고, 본 장치(100)를 통해 제공되는 제2 증강현실 영상(63)으로 하여금 제2 사용자가 마치 촬영 대상 영역에서 제1 사용자와 함께 사진을 찍은 것과 같은 느낌을 받을 수 있도록 제공할 수 있다.As an example, it is assumed that the first user is a celebrity, preset public range setting information for the first user avatar 52 is set to 'public all', and the second user is a fan of the first user. In this case, the second user receives the second augmented reality image 63 in which the first user avatar 52 and the second user avatar 62 are combined on the real image 61 as an augmented reality image through the device 100 . ) may be obtained and stored in the second storage unit 260 . According to this, as the user avatars displayed on the screen of the user terminal are 3D avatars generated in consideration of the body characteristic information of each user in order to acquire the augmented reality image, the second user is actually the first user in the photographing target area. Despite not meeting the user and taking a picture with the first user, the second augmented reality image 63 provided through the device 100 makes it seem as if the second user took a picture with the first user in the area to be photographed. You can provide it so that you can get the same feeling as when you took it.

한편, 아바타 관리부(210)는 정보 획득부(211)를 포함할 수 있다. 정보 획득부(211)는 제1 사용자의 사용자 단말(제1 사용자 단말, 1)이 촬영 모드인 것으로 감지된 경우, 촬영 모드인 것으로 감지된 시점인 촬영 모드 감지 시점에 대응하는 사용자(제1 사용자)의 생체 정보, 촬영 모드 감지 시점에 대응하는 날씨 예보 정보 및 사용자(제1 사용자)에 의하여 업로드된 업로드 정보를 분석하여 산출된 업로드 정보 분석 결과 정보 중 적어도 하나의 정보를 획득할 수 있다.Meanwhile, the avatar manager 210 may include an information acquisition unit 211 . When it is detected that the user terminal (the first user terminal, 1 ) of the first user is in the shooting mode, the information obtaining unit 211 may be configured to detect a user (first user) corresponding to the shooting mode detection time, which is the sensing time to be in the shooting mode. ) of biometric information, weather forecast information corresponding to the detection time of the shooting mode, and upload information uploaded by the user (the first user) may be analyzed to obtain at least one of the calculated upload information analysis result information.

이때, 사용자(제1 사용자)의 생체 정보는 사용자의 혈압, 체온, 맥박, 호흡수, 심전도 신호 등이 포함될 수 있으나, 이에만 한정되는 것은 아니다. 사용자의 생체 정보는 일예로 사용자(제1 사용자)의 신체 일부에 착용 가능하고, 본 장치(100)와 네트워크(2)를 통해 유/무선으로 연결되는 웨어러블 디바이스로부터 획득될 수 있다. 이때, 웨어러블 디바이스는 사용자의 신체 일부로서 일예로 손목, 머리, 목 등에 착용 가능한 형태의 디바이스를 의미할 수 있다. 이러한 웨어러블 디바이스는 일예로 스마트 워치 등이 포함될 수 있으나, 이에 한정되는 것은 아니고, 사용자의 신체 일부에 착용 가능한 형태의 것이라면 어떠한 형태로든 적용 가능하다.In this case, the biometric information of the user (the first user) may include, but is not limited to, the user's blood pressure, body temperature, pulse, respiration rate, ECG signal, and the like. The user's biometric information may be, for example, wearable on a body part of the user (the first user), and may be obtained from a wearable device connected to the apparatus 100 and the network 2 through a wired/wireless connection. In this case, the wearable device may refer to a type of device that can be worn on a wrist, head, neck, etc. as a part of the user's body. The wearable device may include, for example, a smart watch and the like, but is not limited thereto, and may be applied in any form as long as it is wearable on a part of the user's body.

날씨 예보 정보는, 본 장치(100)와 네트워크(2)를 통해 연결되는 일예로 기상청 서버(미도시)로부터 획득될 수 있다.The weather forecast information may be obtained from a server (not shown) of the Korea Meteorological Administration, for example, connected to the device 100 and the network 2 through the network 2 .

정보 획득부(211)가 획득하는 업로드 정보 분석 결과는, 일예로 사용자(제1 사용자)가 SNS 관계망에 업로드한 적어도 하나의 업로드 정보를 분석함으로써 산출된 정보일 수 있다. 이때, 업로드 정보 분석 결과는 일예로 사용자(제1 사용자)의 감정 상태와 관련하여 분석된 정보(즉 감정 상태 관련 분석 정보)를 의미할 수 있으나, 이에 한정되는 것은 아니다. 여기서, 감정 상태라 함은, 기쁨 상태, 슬픈 상태, 우울한 상태 등이 포함될 수 있으나, 이에 한정되는 것은 아니다. The upload information analysis result obtained by the information acquisition unit 211 may be, for example, information calculated by analyzing at least one piece of upload information uploaded by the user (the first user) to the SNS relational network. In this case, the upload information analysis result may mean, for example, information analyzed in relation to the emotional state of the user (the first user) (ie, emotional state-related analysis information), but is not limited thereto. Here, the emotional state may include, but is not limited to, a joy state, a sad state, a depressed state, and the like.

또한, 업로드 정보 분석 결과는, 일예로 촬영 모드 감지 시점에 대응하는 날짜에 기 업로드된 업로드 정보를 분석함으로써 산출된 정보일 수 있으나, 이에 한정되는 것은 아니고, 사용자에 의해 미리 설정된 기간 내(예를 들어, 촬영 모드 감지 시점에 대응하는 날짜로부터 3일 이전에 해당하는 기간)에 기 업로드된 업로드 정보를 분석함으로써 산출된 정보일 수 있다.In addition, the upload information analysis result, for example, may be information calculated by analyzing previously uploaded upload information on a date corresponding to the detection time of the shooting mode, but is not limited thereto, and within a period preset by the user (eg, For example, it may be information calculated by analyzing previously uploaded upload information (a period corresponding to three days before the date corresponding to the detection time of the shooting mode).

이때, 업로드 정보 분석 결과의 산출시 고려되는 업로드 정보에는 블로그, 포스팅, 게시물 등과 관련하여 업로드된 각종 정보가 포함될 수 있으며, 블로그, 포스팅, 게시물 등과 관련된 게시글(내용)이 포함할 수 있다. 또한, 업로드 정보에는 사용자 단말(제1 사용자 단말) 내에 송수신된 메시지 정보가 포함될 수 있으며, 이에 한정되는 것은 아니다.In this case, the upload information considered when calculating the upload information analysis result may include various types of information uploaded in relation to blogs, postings, and posts, and may include postings (contents) related to blogs, postings, posts, and the like. In addition, the upload information may include message information transmitted and received in the user terminal (the first user terminal), but is not limited thereto.

아바타 관리부(210)는, 정보 획득부(211)에 의해 획득된 적어도 하나의 정보에 기초하여, 아바타 관리부(210)에 의해 생성된 사용자 아바타(즉, 신체 특성 정보를 고려하여 생성된 제1 사용자 아바타)의 상태 정보를 업데이트하고, 업데이트된 사용자 아바타(업데이트된 제1 사용자 아바타)를 생성하여 제1 저장부(250)에 저장할 수 있다. 이후, 화면 제어부(220)는, 제1 사용자 단말(1)이 촬영 모드인 것으로 감지된 경우, 업데이트된 사용자 아바타(업데이트된 제1 사용자 아바타)에 기초하여, 제1 사용자 단말(1)의 화면에 표출되는 현실 영상 상에 업데이트된 사용자 아바타(업데이트된 제1 사용자 아바타)를 표시할 수 있다.The avatar manager 210 may be configured to generate a user avatar generated by the avatar manager 210 based on at least one piece of information acquired by the information acquirer 211 (ie, a first user generated by taking body characteristic information into consideration). The state information of the avatar) may be updated, and an updated user avatar (updated first user avatar) may be generated and stored in the first storage unit 250 . Thereafter, when it is detected that the first user terminal 1 is in the shooting mode, the screen controller 220 is configured to control the screen of the first user terminal 1 based on the updated user avatar (updated first user avatar). An updated user avatar (updated first user avatar) may be displayed on the real image displayed in the .

여기서, 사용자 아바타(제1 사용자 아바타)의 상태 정보는, 사용자 아바타의 얼굴 표정, 자세(동작), 멘트 및 착용 의류(사용자 아바타에 착용된 의류인 착용 의류) 중 적어도 하나를 포함할 수 있다.Here, the state information of the user avatar (the first user avatar) may include at least one of a facial expression, a posture (action), a comment, and wearable clothes (wearing clothes that are clothes worn on the user avatar) of the user avatar.

사용자 아바타(제1 사용자 아바타)의 상태 정보는, 정보 획득부(211)에 의해 획득된 적어도 하나의 정보에 기초하여 자동으로 The state information of the user avatar (the first user avatar) is automatically obtained based on at least one piece of information acquired by the information acquisition unit 211 .

예시적으로, 아바타 관리부(210)는 제1 사용자의 신체 특성 정보를 고려하여 제1 사용자 아바타(이는 기본 제1 사용자 아바타라 지칭될 수 있음)를 생성할 수 있다. 이때, 정보 획득부(211)에서 획득된 적어도 하나의 정보를 분석한 결과, 예시적으로 촬영 모드 감지 시점에 대응하여 획득된 사용자의 생체 정보가 정상 수준의 범위에 속하는 것으로 판단되고, 날씨 예보 정보가 맑은 날씨에 해당하며, 촬영 모드 감지 시점에 대응하는 날짜에 기 업로드된 업로드 정보를 분석하였더니 업로드 정보 분석 결과가 기쁨 상태인 것으로 분석된 경우, 이들을 종합적으로 분석한 결과를 토대로 아바타 관리부(210)는 촬영 모드 감지 시점에 대응하여 예측된 사용자의 현재 상태로서 기쁨 상태인 것으로 판단할 수 있다.For example, the avatar manager 210 may generate a first user avatar (which may be referred to as a basic first user avatar) in consideration of the body characteristic information of the first user. At this time, as a result of analyzing the at least one piece of information acquired by the information acquisition unit 211 , it is determined that the user's biometric information obtained in response to the detection time of the shooting mode is determined to be within the normal level range, for example, and the weather forecast information corresponds to sunny weather, and when the uploaded information is analyzed on the date corresponding to the detection time of the shooting mode and the result of analyzing the uploaded information is analyzed to be in a state of joy, based on the result of comprehensive analysis of these, the avatar management unit 210 ) may be determined to be a joy state as the current state of the user predicted in response to the sensing time of the shooting mode.

즉, 아바타 관리부(210)는 촬영 모드인 것으로 감지된 시점에 대응하여 정보 획득부(211)가 획득한 적어도 하나의 정보에 기초하여(적어도 하나의 정보를 종합적으로 분석함으로써), 사용자(제1 사용자)의 현재 상태(촬영 모드 감지 시점에 대응하는 사용자의 현 상태)를 예측한 정보인 예측된 사용자의 현재 상태 정보를 판단할 수 있다. 이후, 아바타 관리부(210)는 예측된 사용자의 현재 상태가 기쁨 상태인 것으로 판단됨에 따라, 일예로 앞서 신체 특성 정보를 고려하여 생성된 제1 사용자 아바타(기본 제1 사용자 아바타)의 상태 정보로서 얼굴 표정을 업데이트 할 수 있다That is, the avatar management unit 210 determines whether the user (the first one), based on at least one piece of information acquired by the information obtaining unit 211 (by comprehensively analyzing at least one piece of information) in response to the time point at which the shooting mode is sensed. It is possible to determine the predicted current state information of the user, which is information that predicts the current state of the user) (the current state of the user corresponding to the time of sensing the shooting mode). Thereafter, as it is determined that the predicted user's current state is a joy state, the avatar manager 210 determines that the first user avatar (basic first user avatar) has a face as state information of the first user avatar (basic first user avatar) generated in consideration of body characteristic information. You can update your expression

일예로, 기본 제1 사용자 아바타의 얼굴 표정은 무표정일 수 있고, 업데이트된 제1 사용자 아바타의 얼굴 표정은 웃는 얼굴 표정일 수 있다. 아바타 관리부(210)는 업데이트된 제1 사용자 아바타를 생성하여 제1 저장부(250)에 저장할 수 있다. 혹은 아바타 관리부(210)는 제1 저장부(250)에 기 저장된 제1 사용자 아바타(기본 제1 사용자 아바타)를 업데이트된 제1 사용자 아바타로 변경할 수 있다. 뿐만 아니라, 아바타 관리부(210)가 업데이트된 제1 사용자 아바타를 생성하여 제1 저장부(250)에 저장하는 동시에, 화면 제어부(220)는 촬영 모드 감지에 응답하여 제1 사용자 단말(1)의 화면에 표출되는 현실 영상 상에 업데이트된 제1 사용자 아바타를 표시할 수 있다.For example, the basic facial expression of the first user avatar may be an expressionless expression, and the updated facial expression of the first user avatar may be a smiling facial expression. The avatar manager 210 may generate an updated first user avatar and store it in the first storage unit 250 . Alternatively, the avatar manager 210 may change the first user avatar (basic first user avatar) pre-stored in the first storage unit 250 into the updated first user avatar. In addition, the avatar management unit 210 generates an updated first user avatar and stores it in the first storage unit 250 , while the screen control unit 220 controls the first user terminal 1 in response to sensing the shooting mode. The updated first user avatar may be displayed on the real image displayed on the screen.

이때, 촬영 모드에서 촬영 버튼에 대한 제1 사용자의 입력이 이루어지면, 영상 관리부(230)는 증강현실 영상으로서, 현실 영상과 업데이트된 제1 사용자 아바타가 결합된 증간현실 영상을 획득하여 제2 저장부(260)에 저장할 수 있다.At this time, when the first user's input to the shooting button is made in the shooting mode, the image management unit 230 acquires an augmented reality image in which the real image and the updated first user avatar are combined as an augmented reality image, and stores the second. may be stored in the unit 260 .

이처럼, 본 장치(100)는 촬영 모드 감지 시점에 대응하여 획득된 사용자의 생체 정보, 날씨 예보 정보, 업로드 정보 분석 결과 등의 분석을 토대로, 촬영 모드 감지 시점에 대응하는 사용자의 현재 상태를 예측(예측된 사용자의 현재 상태 정보를 판단)하고, 예측된 사용자의 현재 상태를 반영하여 앞서 신체 특성 정보를 고려하여 생성된 제1 사용자 아바타(기본 제1 사용자 아바타)의 상태 정보(얼굴 표정, 자세, 착용 의류, 멘트 등)을 업데이트하여 업데이트된 제1 사용자 아바타를 화면에 표시함으로써, 증강현실 영상의 획득시에, 사용자의 현재 상태의 반영이 이루어진 업데이트된 제1 사용자 아바타가 포함된 증강현실 영상의 획득이 이루어지도록 제공할 수 있다.As such, the apparatus 100 predicts ( determining the predicted user's current status information), reflecting the predicted user's current status, and taking the body characteristic information into consideration in advance of the first user avatar (basic first user avatar) status information (facial expression, posture, Wearing clothing, comments, etc.) and displaying the updated first user avatar on the screen, when the augmented reality image is acquired, the augmented reality image including the updated first user avatar reflecting the user's current state is displayed. It can be provided for the acquisition to take place.

이러한 본 장치(100)는 사용자의 현재 상태(기분 등)이 반영된 아바타(업데이트된 제1 사용자 아바타)가 반영된 증강현실 영상의 획득을 통해, 보다 사용자가 현재 느끼는 감정이 반영된 증감현실 영상을 타 사용자와 공유 가능하도록 제공할 수 있다.This device 100 receives the augmented reality image reflecting the user's current emotion more through the acquisition of the augmented reality image reflecting the avatar (updated first user avatar) reflecting the user's current state (mood, etc.) It can be provided so that it can be shared with

즉, 본 장치(100)는 제1 사용자의 실제 모습이 아닌 그를 대신하여 표현되는 사용자 아바타(제1 사용자 아바타)가 획득되는 증강현실 영상 내에 포함되도록 하며(특히나, 사용자의 현재 느끼는 감정이 반영된 업데이트된 사용자 아바타가 증강현실 영상에 포함되도록 하며), 이렇게 획득된 증강현실 영상을 타인과 공유 가능하게 할 수 있다. 이러한 본 장치(100)는, 종래의 SNS가 갖는 문제들(일예로, 개인사생활의 노출 우려가 있고, 사진 형식, 짧은 영상에 국한된 일상 공유 방법을 사용하기 때문에 정보를 표현하는 데에 한계가 있으며, 과시욕이 있는 일부 사람들에게 있어서 그들의 욕구를 충분히 충족시켜주지 못하고, 시간이 지날수록 사용자들이 점점 흥미를 잃어가게 되는 문제 등)을 해소할 수 있다.That is, the device 100 allows the user avatar (the first user avatar) expressed on behalf of the first user, not the actual appearance, to be included in the acquired augmented reality image (especially, an update reflecting the user's current emotions) to be included in the augmented reality image), and the augmented reality image thus obtained can be shared with others. This device 100 has problems with conventional SNS (for example, there is a risk of exposure of personal life, and there is a limit in expressing information because it uses a daily sharing method limited to photo format and short video. , for some people who have a desire to show off, they do not fully satisfy their needs, and users lose interest over time, etc.) can be solved.

즉, 이러한 본 장치(100)는 업데이트된 제1 사용자 아바타가 포함된 증강현실 영상의 공유가 가능하도록 제공함으로써, 제1 사용자가 자신의 실제 모습을 노출시키지 않으면서(개인 사생활 노출을 줄이면서) 자신과 닮도록 생성된 제1 사용자 아바타의 노출을 통해 간접적으로 자신을 표현할 수 있으며, 이를 통해 제1 사용자 자신의 일상과 감정을 부담없이 적극적으로 타인과 공유 가능하게 할 수 있다.That is, the present device 100 provides an augmented reality image including the updated first user avatar to be shared, so that the first user does not expose his or her real appearance (while reducing personal privacy exposure) Through exposure of the first user avatar created to resemble the user, he or she can indirectly express himself, and through this, the first user's daily life and emotions can be actively shared with others without burden.

또한, 화면 제어부(220)는, 사용자 단말(제1 사용자 단말)의 화면에 현실 영상(51)이 미리 설정된 시간(일예로 3초) 동안 표출되는 경우, 현실 영상(51)과 관련하여 SNS 관계망에 업로드된 업로드 정보를 분석하여, 현실 영상(51)과 관련해 현실 영상(51)의 주변에 위치한 장소의 방문을 추천하는 추천 방문 장소 관련 정보가 존재하는지 판단할 수 있다. 여기서, 업로드 정보로는, 앞서 말한 바와 같이 로그, 포스팅, 게시물 등과 관련하여 업로드된 각종 정보가 포함될 수 있으며, 블로그, 포스팅, 게시물 등과 관련된 게시글(내용)이 포함할 수 있다. 또한, 업로드 정보에는 사용자 단말(제1 사용자 단말) 내에 송수신된 메시지 정보가 포함될 수 있으며, 이에 한정되는 것은 아니다.In addition, the screen control unit 220, when the real image 51 is displayed on the screen of the user terminal (first user terminal) for a preset time (for example, 3 seconds), in relation to the real image 51, SNS relational network By analyzing the uploaded information uploaded to the , it is possible to determine whether information related to a recommended visit place for recommending a visit to a place located in the vicinity of the real image 51 in relation to the real image 51 exists. Here, the upload information may include various types of information uploaded in relation to logs, postings, posts, etc. as described above, and may include posts (contents) related to blogs, postings, posts, and the like. In addition, the upload information may include message information transmitted and received in the user terminal (the first user terminal), but is not limited thereto.

이때, 판단 결과 존재하면(즉, 현실 영상(51)의 주변에 위치한 장소의 방문을 추천하는 추천 방문 장소 관련 정보가 존재하면), 화면 제어부(220)는 추천 방문 장소 관련 정보를 포함하는 관리자 아바타를 생성하여 현실 영상(51) 상에 표시할 수 있다. 즉, 화면 제어부(220)는 현실 영상(51) 상에 제1 사용자 아바타를 표시할 수 있는데, 이때 현실 영상(51)과 관련하여 추천 방문 장소 관련 정보가 존재하는 것으로 판단되면, 현실 영상(51) 상에 제1 사용자 아바타를 표시하는 것 외에 추가적으로 관리자 아바타를 더 표시할 수 있다.In this case, if there is as a result of the determination (that is, if there is information related to a recommended place to visit that recommends visiting a place located in the vicinity of the real image 51), the screen controller 220 controls the manager avatar including information related to the recommended place to visit. can be generated and displayed on the real image 51 . That is, the screen controller 220 may display the first user avatar on the real image 51 . In this case, if it is determined that information related to a recommended visit place exists in relation to the real image 51 , the real image 51 ), in addition to displaying the first user avatar, an administrator avatar may be further displayed.

이때, 화면 제어부(220)는, 제1 사용자 단말(1)의 화면에 표출되는 현실 영상(51) 상에 표시된 관리자 아바타에 대한 사용자 입력(제1 사용자의 입력)이 이루어진 경우, 사용자 단말(1)의 화면 일영역에 관리자 아바타에 포함된 추천 방문 장소 관련 정보를 일예로 팝업 형태로 표시할 수 있다.At this time, the screen control unit 220, when a user input (a first user's input) for the manager avatar displayed on the real image 51 displayed on the screen of the first user terminal 1 is made, the user terminal 1 ), information related to a recommended visit place included in the manager avatar may be displayed in a pop-up form, for example.

여기서, 화면 제어부(220)는, 추천 방문 장소 관련 정보 내에 복수개의 장소 항목이 포함된 경우, 팝업 형태로 표시되는 추천 방문 장소 관련 정보 내 복수개의 장소 항목의 표시 순위를, 복수의 사용자 단말(1, 1’, …)에 의해 이루어지는 복수개의 장소 항목에 대한 사용자 동작 정보의 수준(레벨)을 고려하여 갱신할 수 있다. 이하에서, 수준은 레벨 등으로 달리 표현될 수 있다.Here, when a plurality of place items are included in the recommended visit place related information, the screen controller 220 sets the display order of the plurality of place items in the recommended visit place related information displayed in a pop-up form, the plurality of user terminals 1 , 1', ...) may be updated in consideration of the level (level) of user action information for a plurality of place items. Hereinafter, the level may be expressed differently as a level or the like.

일예로, 추천 방문 장소 관련 정보 내에 4개의 장소의 추천을 위한 정보가 포함되어 있는 경우, 복수개의 장소 항목은 4개의 장소 중 제1 장소의 방문을 추천하는 제1 장소 항목, 제2 장소의 방문을 추천하는 제2 장소 항목, 제3 장소의 방문을 추천하는 제3 장소 항목 및 제4 장소의 방문을 추천하는 제4 장소 항목이 포함될 수 있다.For example, when information for recommending four places is included in the recommended visiting place-related information, the plurality of place items includes a first place item recommending visiting a first place among the four places, and a visit of a second place. A second place item recommending , a third place item recommending visiting a third place, and a fourth place item recommending visiting a fourth place may be included.

또한, 추천 방문 장소 관련 정보 내 포함되는 복수개의 장소 항목에는, 일예로 유명 관광지의 장소, 유명 관광지의 관광 코스 정보, 도심 내 방문할 만한 랜드마크(예를 들어, 박물관, 미술관 등) 장소, 맛집 장소 등과 같이 다양한 유형의 장소(혹은 코스)에 관한 정보가 포함될 수 있다.In addition, a plurality of place items included in the recommended place-related information include, for example, places of famous tourist destinations, tourist course information of famous tourist destinations, landmarks (eg, museums, art galleries, etc.) places to visit in the city, places to eat, and restaurants. Information about various types of places (or courses), such as places, may be included.

또한, 장소 항목에는 해당 장소에 관한 정보로서, 명칭, 주소, 경로 안내 정보, 위치가 표시된 지도 정보, 이용 요금 정보, 이용 시간 정보 등이 포함될 수 있으며, 이에 한정되는 것은 아니다. In addition, the place item is information about the corresponding place, and may include, but is not limited to, name, address, route guide information, map information showing a location, usage fee information, usage time information, and the like.

복수개의 장소 항목의 표시 순위의 갱신시 고려되는 사용자 동작 정보의 수준(레벨)은, 제1 수준, 제2 수준 및 제3 수준을 포함한 복수의 수준으로 구분될 수 있다. 이때, 이하 사용자 동작 정보의 수준을 설명함에 있어서, 사용자 단말은 복수의 사용자 단말(1, 1’, …) 중 어느 하나의 사용자 단말을 의미할 수 있다.Levels (levels) of user motion information considered when updating the display order of a plurality of place items may be divided into a plurality of levels including a first level, a second level, and a third level. In this case, in describing the level of user motion information below, the user terminal may refer to any one user terminal among the plurality of user terminals 1, 1', ....

제1 수준에 대응하는 사용자 동작 정보는, 사용자 단말로부터 복수개의 장소 항목 중 적어도 하나의 장소 항목을 선택하는 선택 입력 동작을 수행하는 사용자 동작에 관한 정보를 의미할 수 있다. 제2 수준에 대응하는 사용자 동작 정보는, 사용자 단말에 의해 선택된 적어도 하나의 장소 항목(즉, 선택 입력 동작이 이루어진 적어도 하나의 장소 항목) 중 어느 하나의 장소 항목과 관련하여, 어느 하나의 장소 항목에 대응하는 장소까지의 길 안내를 요청하는 길 안내 요청 입력 동작을 수행하는 사용자 동작에 관한 정보를 의미할 수 있다. 제3 수준에 대응하는 사용자 동작 정보는, 길 안내 요청 입력 동작에 응답하여 생성된 어느 하나의 장소 항목에 대응하는 장소까지의 길 안내 정보를 기반으로, 사용자가 어느 하나의 장소 항목에 대응하는 장소를 실제 방문함에 따라 어느 하나의 장소 항목에 대응하는 장소와 관련된 이미지를 획득하는 장소 이미지 획득 동작을 수행하는 사용자 동작에 관한 정보를 의미할 수 있다.The user action information corresponding to the first level may mean information about a user action of performing a selection input operation of selecting at least one place item from among a plurality of place items from the user terminal. The user action information corresponding to the second level may include any one place item in relation to any one place item among at least one place item selected by the user terminal (ie, at least one place item to which a selection input operation was made). It may mean information about a user action of performing a route guidance request input operation for requesting route guidance to a place corresponding to . The user motion information corresponding to the third level is a place where the user corresponds to any one place item, based on the route guidance information to a place corresponding to any one place item generated in response to a way guidance request input operation. It may mean information about a user operation of performing a place image acquisition operation of acquiring an image related to a place corresponding to any one place item as the user actually visits .

화면 제어부(220)는 복수개의 장소 항목에 대하여 이루어진 사용자 동작 정보의 수준에 따라 각기 다른 점수를 부여할 수 있으며, 부여된 점수를 기반으로 팝업 형태로 표시되는 추천 방문 장소 관련 정보 내 복수개의 장소 항목의 표시 순위(랭킹)를 갱신할 수 있다.The screen control unit 220 may give different scores according to the level of user action information made with respect to the plurality of place items, and a plurality of place items in the recommended visit place related information displayed in a pop-up form based on the assigned scores. display ranking (ranking) can be updated.

일예로, 화면 제어부(220)는 제1 수준에 대응하는 사용자 동작 정보가 이루어진 장소 항목에는 제1 점수를 부여하고, 제2 수준에 대응하는 사용자 동작 정보가 이루어진 장소 항목에는 제2 점수를 부여하며, 제3 수준에 대응하는 사용자 동작 정보가 이루어진 장소 항목에는 제3 점수를 부여할 수 있다. 이때, 제2 점수는 제1 점수보다 높게 설정되고, 제3 점수는 제2 점수보다 높게 설정될 수 있다. For example, the screen controller 220 gives a first score to a place item in which user motion information corresponding to the first level is made, and gives a second score to a place item in which user motion information corresponding to the second level is made, , a third score may be given to a place item in which user motion information corresponding to the third level is made. In this case, the second score may be set higher than the first score, and the third score may be set higher than the second score.

이때, 화면 제어부(220)는 제3 점수의 부여시, 장소 이미지 획득 동작을 기반으로 획득된 장소와 관련된 이미지의 위치 정보(제1 위치)와 길 안내 요청 입력 동작이 이루어진 장소와 관련된 위치 정보(제2 위치)를 비교하고, 비교 결과 제1 위치가 제2 위치로부터 기 설정된 반경 이내에 속하는 것으로 판단(검증)되면, 사용자가 길 안내 요청 입력 동작이 이루어진 장소에 실제로 방문한 것으로 판단하여 제3 점수를 부여할 수 있다. 만약, 비교 결과 제1 위치가 제2 위치로부터 기 설정된 반경 이내에 속하지 않으면, 사용자가 길 안내 요청 입력 동작이 이루어진 장소에 실제로 방문하지 않은 것으로 판단하여 제3 점수를 부여하지 않을 수 있다.At this time, when the third score is given, the screen control unit 220 includes location information (first location) of an image related to a place obtained based on the location image acquisition operation and location information ( second location), and if it is determined (verified) that the first location falls within a preset radius from the second location as a result of the comparison, it is determined that the user actually visited the place where the navigation request input operation was performed, and a third score is obtained can be given If, as a result of the comparison, the first location does not fall within a preset radius from the second location, it is determined that the user has not actually visited the place where the navigation request input operation is performed, and a third score may not be given.

예를 들면, 제1 사용자 단말(1)의 화면에 표시된 관리자 아바타에 대한 제1 사용자의 입력이 이루어진 경우, 제1 사용자 단말(1)의 화면의 일영역에는 복수의 장소 항목으로서 4개의 장소 항목을 포함한 추천 방문 장소 관련 정보를 팝업 형태로 표시할 수 있다.For example, when the first user inputs to the manager avatar displayed on the screen of the first user terminal 1 , in one area of the screen of the first user terminal 1 , there are four place items as a plurality of place items. Information on recommended places to visit, including , can be displayed in a pop-up form.

이때, 4개의 장소 항목 중 제1 장소 항목에 대하여, 과거에 복수의 사용자 중 제3 사용자와 제4 사용자가 제1 장소 항목을 선택한 선택 입력 동작을 수행한 적 있다고 하자. 이러한 경우, 제3 사용자의 사용자 단말(제3 사용자 단말)에 의해 이루어진 제1 장소 항목에 대한 사용자 동작 정보의 수준이 제1 수준임에 따라, 제1 장소 항목에는 제3 사용자 단말에 의해 제1 점수가 부여될 수 있다. 마찬가지로, 제4 사용자의 사용자 단말(제4 사용자 단말)에 의해 이루어진 제1 장소 항목에 대한 사용자 동작 정보의 수준이 제1 수준임에 따라, 제1 장소 항목에는 제4 사용자 단말에 의해 제1 점수가 부여될 수 있다.In this case, it is assumed that, with respect to the first place item among the four place items, a selection input operation of selecting the first place item by a third user and a fourth user among a plurality of users has been performed in the past. In this case, as the level of user action information for the first place item made by the user terminal (third user terminal) of the third user is the first level, the first place item has a first score by the third user terminal can be given. Similarly, as the level of user action information for the first place item made by the user terminal of the fourth user (the fourth user terminal) is the first level, the first place item has a first score by the fourth user terminal can be given

만약, 제1 장소 항목에 대하여, 과거에 제3 사용자가 제1 장소 항목을 선택한 선택 입력 동작을 수행한 이후에, 제1 장소 항목에 해당하는 장소까지의 길 안내를 요청하는 길 안내 요청 입력 동작을 수행한 적 있다고 하자. 이러한 경우, 제3 사용자 단말에 의해 이루어진 제1 장소 항목에 대한 사용자 동작 정보의 수준이 제2 수준임에 따라, 제1 장소 항목에는 제3 사용자 단말에 의해 제1 점수보다 높은 제2 점수가 부여될 수 있다.If, with respect to the first place item, after the third user performs a selection input operation of selecting the first place item in the past, a navigation request input operation for requesting directions to a place corresponding to the first place item Let's say you've done In this case, as the level of user action information for the first place item made by the third user terminal is the second level, the first place item will be given a second score higher than the first score by the third user terminal. can

또한, 일예로 제3 사용자가 제1 장소 항목에 해당하는 장소(즉 제1 장소)까지의 길 안내를 요청하는 길 안내 요청 입력 동작을 수행한 이후, 길 안내 요청 입력 동작에 응답하여 제공되는 제1 장소까지의 길 안내 정보를 기반으로 실제로 제1 장소에 방문하였다고 하자. 이후, 제3 사용자가 실제 방문한 제1 장소를 기념하기 위하여, 제1 장소와 관련된 이미지를 제3 사용자 단말의 이미지 센서를 통해 획득하였다고 하자(즉, 제3 사용자가 제1 장소와 관련된 이미지를 획득하는 장소 이미지 획득 동작을 수행하였다고 하자). 이러한 경우, 제3 사용자 단말에 의해 이루어진 제1 장소 항목에 대한 사용자 동작 정보의 수준이 제3 수준임에 따라, 제1 장소 항목에는 제3 사용자 단말에 의해 제2 점수보다 높은 제3 점수가 부여될 수 있다.In addition, as an example, after the third user performs a route guidance request input operation for requesting route guidance to a place (ie, the first place) corresponding to the first place item, the third user provided in response to the route guidance request input operation Assume that you have actually visited the first place based on the route guidance information to the first place. Thereafter, in order to commemorate the first place that the third user actually visited, it is assumed that the image related to the first place is acquired through the image sensor of the third user terminal (that is, the third user acquires the image related to the first place) Let's say we have performed a place image acquisition operation). In this case, as the level of user action information for the first place item made by the third user terminal is the third level, the first place item will be given a third score higher than the second score by the third user terminal. can

이처럼, 화면 제어부(220)는, 복수개의 장소 항목에 대하여, 복수의 사용자(혹은 복수의 사용자 단말)에 의해 이루어진 복수 사용자들에 의한 사용자 동작 정보의 수준을 고려하여 그에 따라 점수를 부여하고, 부여된 점수를 기반으로 하여 복수개의 장소 항목의 순위(랭킹)를 갱신할 수 있다. 이후, 화면 제어부(220)는, 갱신된 순위(랭킹)가 반영된 복수개의 장소 항목이 포함된 추천 방문 장소 관련 정보를 팝업 형태로 사용자 단말(제1 사용자 단말)의 화면에 표시할 수 있다.As such, the screen control unit 220 gives a score according to the level of user action information by a plurality of users made by a plurality of users (or a plurality of user terminals) with respect to a plurality of place items, and gives a score accordingly It is possible to update the ranking (ranking) of a plurality of place items based on the obtained score. Thereafter, the screen controller 220 may display, on the screen of the user terminal (the first user terminal), information related to a recommended visit place including a plurality of place items in which the updated ranking (ranking) is reflected in a pop-up form.

즉, 화면 제어부(220)는 복수의 사용자들에 의한 사용자 동작 정보의 수준을 고려하여 추천 방문 장소 관련 정보 내 복수개의 장소 항목의 표시 순위를 갱신할 수 있다.That is, the screen controller 220 may update the display order of the plurality of place items in the recommended visit place related information in consideration of the level of user motion information by the plurality of users.

이러한 본 장치(100)는, 특정 장소(특정 장소 목록)에 대한 사용자의 관심이 실제 행동으로 옮겨지기까지의 온라인 상의 행동과 오프라인 상의 행동이 모두 고려된 사용자의 일련의 행동(사용자 동작 정보)을 복수의 수준(레벨)으로 구분하고, 각 동작 수준별로 각기 다른 가중치를 부여하여 복수의 추천 방문 장소에 대한 랭크 갱신을 수행함으로써, 추천 장소 랭크의 신뢰성을 확보하면서 해당 추천 방문 장소의 방문 가치에 대한 신뢰성을 부여할 수 있다.This device 100 performs a series of user actions (user action information) in which both online and offline actions are taken into consideration until the user's interest in a specific place (a list of specific places) is transferred to an actual action. By classifying a plurality of levels (levels) and performing rank update for a plurality of recommended visit places by giving different weights for each operation level, the reliability of the recommended place rank is secured and the reliability can be provided.

즉, 본 장치(100)는, 팝업 형태로 제공된 복수개의 장소 항목과 관련하여, 복수개의 장소 항목 중 선택 입력 동작이 이루어진 장소 항목에는 제1 점수를 부여(부가)하고, 선택 입력 동작이 이루어진 장소 항목 중 특정 장소 항목에 대응하는 장소에 방문하고자 길 안내를 요청하는 사용자의 동작 행동인 길 안내 요청 입력 동작이 이루어진 장소 항목에는 제1 점수보다 높은 제2 점수를 부여하며, 길 안내를 요청받은 장소 항목 중 사용자가 길 안내 요청 장소 항목에 대응하는 장소에 실제 방문을 수행하고 나아가 사용자 단말을 통해 길 안내 요청 장소 항목에 대응하는 장소에서의 이미지 획득까지 수행하는 사용자의 동작 행동인 장소 이미지 획득 동작이 이루어진 장소 항목에는 제2 점수보다 높은 제3 점수를 부여함으로써, 복수개의 장소 항목의 순위(표시 순위, 랭크)를 사용자 동작 정보의 수준을 고려해 갱신할 수 있다.That is, in relation to a plurality of place items provided in a pop-up form, the device 100 gives (adds) a first score to a place item in which a selection input operation is performed among the plurality of place items, and a place where the selection input operation is performed Among the items, a second score higher than the first score is given to a place item in which a navigation request input operation, which is an action action of a user requesting a route guidance to visit a place corresponding to a specific place entry, is made, and the location from which the route guidance is requested Among the items, the user actually visits a place corresponding to the place item requested for directions and furthermore, through the user terminal, the user's action action to obtain an image at the place corresponding to the place item requested for way guidance is the place image obtaining action. By assigning a third score higher than the second score to the created place item, the ranking (display order, rank) of the plurality of place items may be updated in consideration of the level of user action information.

이러한 본 장치(100)는, 촬영 대상 영역(혹은 현실 영상)의 주변에 위치한 특정 장소의 방문을 추천하기 위한, 복수개의 장소 항목을 포함한 추천 방문 장소 관련 정보를 제공함에 있어서, 복수개의 장소 항목 중 보다 선호되는 장소 항목이 우선적으로 표출되거나 추천되도록 함에 있어서, 특정 장소 항목에 대한 사용자의 관심에 따른 동작(행동)으로서, 온라인 상에서 보이는 관심 동작에서부터 실제 오프라인 상에서 보이는 관심 동작으로 옮겨지기까지의 일련의 동작(즉, 장소 항목을 선택하는 제1 동작 → 선택한 장소 항목에 대한 길 안내를 요청하는 제2 동작 → 길 안내 요청이 이루어진 장소 항목에 대한 장소를 실제 방문함과 더불어 토대로 해당 장소의 이미지까지를 획득하는 제3 동작)을 동작 단계(레벨, 수준)별로 구분하여 각 동작 수준에 따라 각기 다른 가중치를 부여함(특히, 동작 레벨이 높아질수록 더 높은 점수의 가중치를 부여함)으로써, 사용자 동작 정보별로 서로 각기 다른 가중치의 부여를 통해 추천되는 복수개의 장소 항목에 대한 랭크 갱신이 이루어지도록 할 수 있습니다.The present device 100 provides recommended visit place related information including a plurality of place items for recommending a visit to a specific place located in the vicinity of the shooting target area (or real image), among the plurality of place items. In order to preferentially display or recommend a more preferred place item, as an action (action) according to the user's interest in a specific place item, a series of steps from an online interest action to an actual offline interest action Action (i.e., the first action of selecting a place item → the second action of requesting directions for the selected place item → actually visiting the place for the place item for which the direction request is made, as well as the image of the place based on the action The third motion to be obtained) is divided by motion step (level, level) and different weights are given according to each motion level (in particular, the higher the motion level, the higher the score is given), so that the user motion information By assigning different weights to each, it is possible to update the rank of a plurality of recommended place items.

이러한 본 장치(100)는, 사용자 동작 정보의 수준에 따라 부여되는 점수의 가중치를 달리함으로써, 복수개의 장소 항목에 대한 순위(랭크) 조작을 방지하고 순위 산정의 신뢰성을 확보할 수 있다. 또한, 본 장치(100)는 해당 장소 항목에 대응하는 장소의 방문 가치에 대한 신뢰성을 부여하고, 이를 통해 방문객을 유치할 수 있어 해당 지역(장소)의 홍보와 활성화를 적극 유도할 수 있다. 또한, 본 장치(100)는 복수개의 장소 항목 중 선택된 길 안내 요청 장소 항목에 대한 길 안내 정보를 제공함에 따라, 해당 장소의 주소나 명칭을 입력하지 않고도 장소 항목의 선택에 기반한 길 안내 요청을 토대로 해당 장소 항목에 해당하는 장소까지의 경로 안내가 가능하여, 온라인 상에서 활동하는 사용자를 오프라인 상의 실제 장소로 찾아오는 방문객으로 유도할 수 있다.The apparatus 100 may prevent ranking (rank) manipulation for a plurality of place items and secure reliability of ranking by varying the weight of the score given according to the level of user motion information. In addition, the device 100 can provide reliability to the visit value of a place corresponding to the corresponding place item, and can attract visitors through this, thereby actively inducing promotion and activation of the corresponding area (place). In addition, as the device 100 provides route guidance information for a selected route guidance request place item among a plurality of place items, based on a route guidance request based on selection of a place item without inputting an address or name of the corresponding place It is possible to guide a route to a place corresponding to the corresponding place item, so that a user who is active online can be led to a visitor to an actual place offline.

이러한 본 장치(100)는 사람들에게 있어서 타인에게 보여줄 수 있는 또 다른 공간을 제공하고, 증강현실(AR)을 이용하여 현실에서 구현하기 힘들거나 한계가 있는 부분을 가상에서 구현 가능하도록 제공할 수 있다. 또한, 본 장치(100)는 기존의 가볍게 쓸 수 있는 SNS의 요소를 포함할 수 있다.This device 100 provides people with another space that can be shown to others, and can provide a part that is difficult to implement in reality or has limitations using augmented reality (AR) so that it can be implemented in virtual reality. . In addition, the device 100 may include elements of an existing light-weight SNS.

종래의 공지된 SNS 는 사진 형식, 짧은 영상에 국한된 일상 공유 방법을 사용 중이다. 이는 정보를 표현하는 데에 한계가 있고, 개인정보 노출 등의 위험 등이 따르는 문제가 있다.The conventionally known SNS uses a daily sharing method limited to a photo format and a short video. This has limitations in expressing information, and there is a problem with risks such as exposure of personal information.

이에 반해, 본 장치(100)는 과거에 아바타 꾸미기 등의 유행했던 방법들을 최근 사용되기 시작한 AR기능에 도입시켜 좀더 세분화되고 새로운 방식의 SNS 제공 기술에 대하여 제안한다. 본 장치(100)는, 본 장치(100)를 통해 제공되는 어플을 사용하는 사용자들에게 있어서, 사용자 본인이 간 장소에 대한 영상 확득시 본인의 아바타(사용자 아바타)를 화면 상에 표출시켜 본인의 아바타가 포함된 증강현실 영상(사진, 동영상 등)을 획득할 수 있도록 할 수 있다. 또한, 본 장치(100)는 사용자가 특정 장소에 방문하여 해당 방문 장소에 대한 증강현실 영상을 획득하였을 때, 증강현실 영상의 획득이 이루어진 해당 장소에 사용자 아바타가 남겨지도록 하는 기록 방식을 채택한다.On the other hand, the present device 100 introduces popular methods such as avatar decorating in the past to the recently used AR function, and proposes a more subdivided and new method of providing SNS. The device 100, for users who use the application provided through the device 100, displays their avatar (user avatar) on the screen when the user obtains an image of the place he or she has been to. It is possible to obtain an augmented reality image (photo, video, etc.) including an avatar. In addition, the device 100 adopts a recording method such that, when a user visits a specific place and acquires an augmented reality image for the visited place, the user's avatar is left in the corresponding place where the augmented reality image is acquired.

이러한 본 장치(100)는, 사용자들에게 개인정보 노출의 두려움을 줄이면서 더욱 적극적인 일상 공유가 가능해지도록 제공할 수(도울 수) 있다. 또한, 본 장치(100)는, 종래의 SNS 대비 생성되는 사용자 아바타로 하여금 더욱 다양한 자기 개성 표출이 가능하다.This device 100 may provide (help) users to more actively share their daily lives while reducing the fear of personal information exposure. In addition, the device 100 allows the user avatar to be created compared to the conventional SNS to express more diverse personalities.

본 장치(100)는 현재 존재하지 않는 새로운 방식의 SNS 서비스 제공 기술을 제공할 수 있다. 본 장치(100)는 SNS의 본질적 이유인 과시욕을 좀더 본격적으로 채워줄 수 있는 효과를 제공할 수 있다. 또한, 본 장치(100)는 더욱 즐거운 방식으로 사용자가 추억을 보관할 수 있도록 도울 수 있다.The device 100 may provide a new type of SNS service providing technology that does not currently exist. The device 100 can provide an effect that can more fully satisfy the desire to show off, which is an essential reason for SNS. In addition, the device 100 can help the user to keep memories in a more enjoyable way.

또한, 본 장치(100)에 의한 SNS 서비스 제공 기술은 사용자가 방문한 장소에서 증강현실 영상 획득이 이루어진 경우, 증강현실 영상의 획득이 이루어진 해당 장소에 사용자 아바타가 남겨지도록 하는 개념임에 따라, 이는 예상치 못한 돌발 상황(일예로, 희롱, 제스처를 사용한 도발 등)으로 인해 좀 더 민감해진 다툼상황이 발생할 가능성의 문제가 있을 수 있다. 이에, 본 장치(100)는, 사용자 아바타에 대하여 기 설정된 결합 불가 조건을 고려하여 사용자 아바타와 현실 영상 간의 결합 수행 및/또는 사용자 아바타가 포함된 증강현실 영상의 획득 여부의 결정을 수행함으로써, 상술한 돌발 상황으로 인한 다툼 상황의 발생 가능성을 해소할 수 있다.In addition, since the SNS service providing technology by the device 100 is a concept that, when an augmented reality image is acquired at a place visited by the user, the user avatar is left in the corresponding place where the augmented reality image is acquired, so this is expected There may be a problem of the possibility of a more sensitive fight situation due to an unexpected situation (eg, harassment, provocation using gestures, etc.). Accordingly, the apparatus 100 performs the combination between the user avatar and the real image in consideration of the condition for not being able to combine the user avatar and/or determines whether to acquire the augmented reality image including the user avatar, as described above. It can eliminate the possibility of a conflict situation arising from an unexpected situation.

페이스북 등과 같은 종래의 SNS 기술은, 다양한 기능을 제공하나 각종 광고와 개인사생활 문제에 있어 끊임없이 문제를 일으키고 있다. 또한, 종래의 SNS 기술은 표현 방법에 있어서 영상, 사진이라는 명확한 한계가 존재하여 간혹 일부 사람들의 더 많은 욕구를 충족시켜주지 못하는 경우가 존재한다.Conventional SNS technology, such as Facebook, provides various functions, but constantly causes problems in various advertisements and personal privacy issues. In addition, there are cases in which the conventional SNS technology cannot satisfy more needs of some people because there are clear limitations such as images and photos in expression methods.

이에 본 장치(100)는 증강현실로 가상의 현실을 제공한다는 개념을 기초로 하는 어플로서 사용자에게 제공될 수 있다. Accordingly, the device 100 may be provided to the user as an application based on the concept of providing virtual reality with augmented reality.

본 장치(100)는, 일예로 개인 프로필 관리 설정 기능, 개인 타임라인 기능, 사진 및 동영상 업로드 기능, 친구에 대한 팔로우/팔로잉 기능, 사용자 아바타 관리 기능, 사용자 아바타의 장식 아이템(일예로 의류, 액세서리 등)에 대한 판매/거래/제작 기능, AR 사진(즉, 증강현실 영상) 획득 기능, 아바타로 원거리 친구와 사진찍기 기능(일예로, 제2 사용자가 제2 사용자 아바타 외에 타 사용자인 제1 사용자 아바타가 함께 포함된 증강현실 영상을 획득하는 기능), 타 사용자와의 소통 기능(커뮤니케이션 기능, 댓글 기능, 공감 기능), 업로드하는 주제에 맞춘 랜덤 친구 추천 기능 등을 제공할 수 있으며, 이에 한정되는 것은 아니고, 다양한 기능이 포함될 수 있다.The device 100 provides, for example, a personal profile management setting function, a personal timeline function, a photo and video upload function, a following/following function for a friend, a user avatar management function, and a decorative item of the user avatar (eg, clothing, Accessories, etc.) for sales/trading/production functions, AR photo (ie, augmented reality image) acquisition function, and ability to take pictures with a distant friend as an avatar (for example, a first user whose second user is another user other than the second user’s avatar) Function to acquire augmented reality image with user avatar), communication function with other users (communication function, comment function, empathy function), and random friend recommendation function tailored to the topic being uploaded, etc. It is not, and various functions may be included.

본 장치(100)는 AR을 사용한 SNS 어플리케이션을 제공할 수 있다. 본 장치(100)는 SNS 어플리케이션에 AR을 적용하여 사용자가 사용자 단말을 이용하여 촬영한 사진에 사용자가 설정한 아바타를 포함하여 촬영 가능하도록 제공할 수 있다.The device 100 may provide an SNS application using AR. The device 100 may provide an avatar set by the user in a picture taken by the user using the user terminal by applying AR to the SNS application so that the user can take the picture.

또한, 본 장치(100)는 GPS 등 사용자 위치에 기반하여 사용자가 방문한 장소에 방문 기록을 남겨서, 다른 사용자가 방문하였을 때 사용자의 아바타를 다른 사용자의 단말에 표시되도록 제공할 수 있다. 또한, 본 장치(100)는 사용자의 아바타를 이용하여 원거리에 있는 다른 사용자와 사진을 찍을 수 있도록 제공할 수 있다. 또한, 본 장치(100)는 개인 프로필 관리, 타임라인, 사진 및 동영상 업로드, 아바타 관리 및 꾸미는 기능 및 소통기능을 제공할 수 있다.In addition, the device 100 may provide a user's avatar to be displayed on another user's terminal when another user visits by leaving a visit record at a place visited by the user based on the user's location, such as GPS. In addition, the device 100 may provide a picture to be taken with another user at a distance by using the user's avatar. Also, the device 100 may provide a personal profile management, timeline, photo and video upload, avatar management and decorating function, and communication function.

또한, 본 장치(100)는, 사진, 동영상 촬영 시 영상 내 사물, 환경 등 객체를 인식하고 인식된 사물, 환경 등의 객체와 사용자의 아바타(사용자 아바타)가 상호작용할 수 있도록 제공할 수 있다. 즉, 본 장치(100)는 인식된 객체에 따라 사용자 아바타의 자세, 표정 등을 변경할 수 있다.In addition, the device 100 may recognize an object, such as an object, an environment, etc. in an image when taking a photo or a video, and provide the recognized object, such as an object or an environment, to interact with the user's avatar (user avatar). That is, the apparatus 100 may change the posture, facial expression, etc. of the user avatar according to the recognized object.

또한, 본 장치(100)는, 사용자의 생체신호, SNS 블로그 등 포스팅 내용, 날씨, 사용자 단말 내 메시지 등과 연계하여 화면에 표시되는 사용자 아바타의 동작(자세), 표정, 멘트 등을 다양하게 변경할 수 있으며, 사진, 동영상 등의 촬영시 촬영이 이루어지는 장소(방문 장소)에 해당하는 위치에 사용자 아바타가 남겨 기록(제2 저장부에 증강현실 영상의 저장시 사용자 아바타를 함께 연계햐여 저장함으로써, 사용자 아바타의 위치를 기록할 수 있음)할 수 있다.In addition, the device 100 can variously change the operation (posture), facial expression, comments, etc. of the user avatar displayed on the screen in connection with the user's bio-signals, posting contents such as SNS blogs, weather, messages in the user terminal, etc. In addition, when taking photos, videos, etc., the user avatar is left in a location corresponding to the place (visited place) where the shooting takes place (the second storage unit stores the augmented reality image by linking and storing the user avatar, location can be recorded).

또한, 본 장치(100)는 아바타를 포함한 영상으로 하여금, 일예로 아바타를 사용한 영상통화, 아바타를 활용한 게임 등을 가능케 할 수 있다.Also, the apparatus 100 may enable an image including an avatar, for example, a video call using the avatar, a game using the avatar, and the like.

또한, 본 장치(100)는 사용자 아바타의 생성시 사용자의 선택/설정으로 생성할 수 있다. 뿐만 아니라, 본 장치(100)는 사용자 아바타의 생성시 일예로 사용자의 사진(혹은 동영상)을 수신하면, 수신된 사진에 대한 이미지 분석을 통해 수신된 사진 내 사용자의 특징(표정이나 피부톤, 얼굴형 등)을 추출할 수 있다. 이후, 본 장치(100)는 추출된 사용자의 특징과 일예로 사용자로부터 기 입력받은 사용자의 취미, 나이, 성별 등에 관한 정보를 함께 고려하여 사용자의 신체 특성 정보를 획득할 수 있으며, 획득된 신체 특성 정보가 반영된 사용자 아바타를 생성할 수 있다.In addition, the apparatus 100 may create a user avatar by selection/setting of the user when generating the user avatar. In addition, when the device 100 receives a user's photo (or video) when generating a user avatar, as an example, the user's characteristics (expression, skin tone, face type) in the received photo are analyzed through image analysis of the received photo. etc.) can be extracted. Thereafter, the apparatus 100 may acquire the user's body characteristic information in consideration of the extracted user's characteristics and, for example, information about the user's hobbies, age, gender, etc. previously inputted from the user, and the obtained body characteristics A user avatar in which information is reflected may be created.

또한, 본 장치(100)는, 사용자 아바타 외의 관리자 아바타를 생성하여 표시할 수 있다. 본 장치(100)는 관리자 아바타를 이용하여 유명 관광지 관광 코스, 도심 내 방문할 만한 랜드마크(박물관, 미술관 등)에 관한 정보를 제공할 수 있으며, 뿐만 아니라 추천 방문 장소에 관한 정보와 관련하여 사용자가 확인할 수 있는 추천 경로를 생성하여 제공할 수 있다.Also, the apparatus 100 may generate and display a manager avatar other than the user avatar. The device 100 may provide information on famous tourist destination tourist courses and landmarks (museums, art galleries, etc.) worth visiting in the city center by using the manager avatar, as well as information on recommended places to visit. It is possible to create and provide a recommended route that can be checked.

또한, 본 장치(100)는, 홍보를 제공하고자 하는 상품(제품)이나 서비스 공급자의 아바타를 활용하여 자신의 매장 인근 위치에 아바타를 위치시켜 기록할 수 있으며, 기록된 해당 아바타를 통하여 매장 접근 정보, 상품 및 서비스 정보 등을 제공하는 기능을 제공할 수 있다.In addition, the device 100 may use an avatar of a product (product) or service provider to be provided publicity to locate and record the avatar in a location near its own store, and store access information through the recorded avatar , product and service information, etc. may be provided.

한편, 본 장치(100)에서 아바타 관리부(210)는, 사용자(제1 사용자)에 대응하는 사용자 아바타(제1 사용자 아바타)를 생성함에 있어서, 제1 사용자 아바타에 적용되는 의류 추천 정보를 생성하고, 생성된 의류 추천 정보에 해당하는 의류의 착용이 이루어진 제1 사용자 아바타를 생성하여 제1 저장부(250)에 저장할 수 있다. 아바타 관리부(210)는, 사용자 단말(1)이 증강현실 영상의 획득을 위해 촬영 모드인 것으로 감지되면, 촬영 모드 감지에 응답하여 생성된 의류 추천 정보에 해당하는 의류의 착용이 이루어진 제1 사용자 아바타를 생성하고, 생성된 제1 사용자 아바타가 현실 영사 상에 표시되도록 화면 제어부(220)로 제공할 수 있다. 이에 대한 보다 구체적인 설명은 도 5를 참조하여 보다 쉽게 이해될 수 있다.Meanwhile, in the device 100 , the avatar manager 210 generates clothing recommendation information applied to the first user avatar when generating a user avatar (first user avatar) corresponding to the user (first user), and , a first user avatar on which clothing is worn corresponding to the generated clothing recommendation information may be generated and stored in the first storage unit 250 . When it is detected that the user terminal 1 is in a shooting mode to acquire an augmented reality image, the avatar manager 210 is configured to perform a first user avatar wearing clothes corresponding to the clothes recommendation information generated in response to the sensing of the shooting mode. may be generated and provided to the screen controller 220 so that the generated first user avatar is displayed on the real projection. A more detailed description thereof may be more easily understood with reference to FIG. 5 .

도 5는 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치(100)에서 아바타 관리부(210)의 구성을 개략적으로 나타낸 도면이다.5 is a diagram schematically showing the configuration of the avatar manager 210 in the apparatus 100 for providing a social network service using augmented reality according to an embodiment of the present application.

도 5를 참조하면, 아바타 관리부(210)는 감지부(110), 생성부(120), 관리 제어부(130), 위치 판단부(140), 소유 의류 관리부(150), 일정 판단부(160), 이력 저장부(170) 및 소유 의류 저장부(180)를 포함할 수 있다.Referring to FIG. 5 , the avatar management unit 210 includes the sensing unit 110 , the generating unit 120 , the management control unit 130 , the location determining unit 140 , the owned clothing management unit 150 , and the schedule determining unit 160 . , a history storage unit 170 and an owned clothing storage unit 180 may be included.

감지부(110)는, 사용자 단말(1)이 촬영 대상 영역에 대응하는 증강현실 영상을 획득하기 위한 촬영 모드(촬영 모드 상태)의 감지가 이루어진 시점을 감지할 수 있다. 즉, 감지부(110)는 촬영 모드 감지 시점을 감지, 식별, 인식할 수 있다.The sensing unit 110 may detect a point in time at which a sensing mode (photographing mode state) for the user terminal 1 to acquire an augmented reality image corresponding to the shooting target area is sensed. That is, the sensing unit 110 may detect, identify, and recognize the shooting mode detection time.

생성부(120)는 감지부(110)에 의해 감지된 촬영 모드 감지 시점에 응답하여, 이력 저장부(170)에 기 저장된 복수의 착용 의류 이력 데이터의 분석을 통해 획득된 사용자 체감 특성 정보와 촬영 모드 감지 시점에 대응하는 날씨 예보 정보를 고려 하여, 촬영 모드 감지 시점에 대응하는 의류 추천 정보를 생성할 수 있다. The generating unit 120 responds to the shooting mode detection time sensed by the sensing unit 110 , and captures the user's sensible characteristic information obtained through analysis of a plurality of worn clothing history data pre-stored in the history storage unit 170 . Considering the weather forecast information corresponding to the mode detection time, it is possible to generate clothing recommendation information corresponding to the photographing mode detection time.

여기서, 이력 저장부(170)에 저장된 착용 의류 이력 데이터는, 후술하는 입력 요청 메시지(체감 온도 정보의 입력을 위한 입력 요청 메시지)에 대한 사용자 입력(이는 후술하는 설명에서, 설명의 편의상 제1 질의 관련 사용자 입력이라 지칭하기로 한다)이 이루어진 경우에, 체감 온도 정보의 입력 값이 사용자 주변 환경의 온도 측정 값, 입력 시점 날씨 예보 정보 및 착용 의류의 속성 정보 중 적어도 하나와 서로 연계되어 한 세트로 구성되어 저장되는 데이터를 의미할 수 있다. 이에 대한 보다 자세한 설명은 후술하여 설명하기로 한다.Here, the worn clothing history data stored in the history storage unit 170 is a user input (which will be described later, for convenience of explanation) to an input request message (an input request message for input of sensory temperature information) to be described later. When a related user input) is made, the input value of the sensible temperature information is linked to at least one of the temperature measurement value of the user's surrounding environment, the weather forecast information at the time of input, and the attribute information of the worn clothes to form a set It may mean data that is configured and stored. A more detailed description thereof will be given later.

도면에 도시하지는 않았으나, 아바타 관리부(210)는 분석부(미도시)를 포함할 수 있다. 분석부(미도시)는 이력 저장부(170)에 기 저장된 복수의 착용 의류 이력 데이터를 분석하여 사용자 체감 특성 정보를 제공할 수 있다.Although not shown in the drawing, the avatar manager 210 may include an analysis unit (not shown). The analysis unit (not shown) may analyze a plurality of worn clothing history data previously stored in the history storage unit 170 to provide user sensible characteristic information.

이때, 사용자 체감 특성 정보는, 사용자 주변 환경의 온도 측정 값, 입력 시점 날씨 예보 정보 및 착용 의류의 속성 정보 중 적어도 하나와 체감 온도 정보의 입력 값 간의 상관 관계 정보(상관성, 관련성)를 분석한 정보를 의미할 수 있다. 여기서, 체감 온도 정보는 사용자가 상대적으로 체감하는(느끼는) 더움 정도 및/또는 추움 정도에 관한 정보를 의미할 수 있다. 따라서, 사용자 체감 특성 정보라 함은 주변 환경의 온도 측정 값, 날씨 예보 정보 및 착용 의류의 속성 정보 중 적어도 하나와 사용자에 의해 입력받은 체감 온도 정보의 입력 값 간의 상관 관계를 분석한 정보(상관 관계 정보)를 의미할 수 있다. 즉, 사용자 체감 특성 정보는 사용자의 체감 온도 정보와 관련된 상관 관계 정보를 의미할 수 있다. In this case, the user's sensible characteristic information is information obtained by analyzing correlation information (correlation, relevance) between at least one of a temperature measurement value of the user's surrounding environment, weather forecast information at the time of input, and attribute information of worn clothes and an input value of sensible temperature information. can mean Here, the sensible temperature information may refer to information about a degree of heat and/or a degree of cold that the user relatively senses (feels). Therefore, the user's sensible characteristic information refers to information obtained by analyzing the correlation between at least one of a temperature measurement value of the surrounding environment, weather forecast information, and attribute information of worn clothes, and an input value of sensible temperature information received by the user (correlation relationship). information) can be That is, the user's sensible characteristic information may mean correlation information related to the user's sensible temperature information.

분석부(미도시)는 상관 관계 정보의 분석시 분석 알고리즘으로서 종래에 기 공지되거나 향후 개발되는 다양한 상관성 분석 알고리즘을 이용할 수 있으며, 이에 한정되는 것은 아니다.The analysis unit (not shown) may use various correlation analysis algorithms previously known or developed in the future as an analysis algorithm when analyzing correlation information, but is not limited thereto.

일예로, 분석부(미도시)는 이력 저장부(170)에 기 저장된 복수의 착용 의류 이력 데이터를 기반으로, 기 저장된 복수의 착용 의류 이력 데이터를 딥러닝 모델로 학습 시킴으로써, 학습된 딥러닝 모델을 이용해 사용자 체감 특성 정보를 획득할 수 있다.As an example, the analysis unit (not shown) learns a plurality of pre-stored worn clothing history data as a deep learning model based on a plurality of pre-stored worn clothing history data in the history storage unit 170, thereby learning a deep learning model can be used to obtain user sensible characteristic information.

이때, 딥러닝 모델은 복수의 착용 의류 이력 데이터에서 사용자 주변 환경의 온도 측정 값, 입력 시점 날씨 예보 정보 및 착용 의류의 속성 정보 중 적어도 하나를 입력값으로 하고, 입력값 각각과 매칭되는 착용 의류 이력 데이터 내 체감 온도 정보의 입력 값을 출력값으로 하도록 학습된 모델일 수 있다. 이러한 기 학습된 딥러닝 모델을 이용하여 사용자 체감 특성 정보(착용 의류 이력 데이터로서 저장된 각 데이터들 간의 상관 관계 정보)가 획득될 수 있다.In this case, the deep learning model uses at least one of a temperature measurement value of the user's surrounding environment, weather forecast information at the time of input, and attribute information of the worn clothes as an input value from a plurality of worn clothes history data, and wears clothes history matching each of the input values. It may be a model trained to use the input value of the sensible temperature information in the data as an output value. By using such a pre-learned deep learning model, user sensible characteristic information (correlation information between each data stored as wearable clothing history data) may be obtained.

여기서, 딥러닝 모델은 인공지능(AI) 알고리즘 모델, 기계학습(머신러닝) 모델, 신경망 모델(인공 신경망 모델), 뉴로 퍼지 모델 등을 의미할 수 있다. 또한, 딥러닝 모델은 예시적으로 컨볼루션 신경망(Convolution Neural Network, CNN, 합성곱 신경망), 순환신경망(RNN, Recurrent Neural Network), 딥 신경망(Deep Neural Network) 등 종래에 이미 공지되었거나 향후 개발되는 다양한 신경망 모델이 적용될 수 있다.Here, the deep learning model may mean an artificial intelligence (AI) algorithm model, a machine learning (machine learning) model, a neural network model (an artificial neural network model), a neurofuzzy model, and the like. In addition, the deep learning model is exemplarily a convolutional neural network (CNN, convolutional neural network), a recurrent neural network (RNN), a deep neural network, etc. that have been previously known or developed in the future. Various neural network models can be applied.

본원에서 고려되는 날씨 예보 정보는 일예로 본 장치(100)와 네트워크(2)를 통해 연결되는 기상청 서버(미도시)로부터 획득될 수 있다. 기상청 서버(미도시)는 날씨 예보 정보를 포함하여 날씨와 관련된 각종 정보를 제공할 수 있다.The weather forecast information considered herein may be obtained, for example, from a meteorological agency server (not shown) connected to the apparatus 100 and the network 2 through the network 2 . The Korea Meteorological Administration server (not shown) may provide various types of information related to weather, including weather forecast information.

생성부(120)는 분석부(미도시)의 분석에 의해 제공되는 사용자 체감 특성 정보(사용자의 체감 온도 정보와 관련된 상관 관계 정보)와 기상청 서버(미도시)로부터 획득된 촬영 모드 감지 시점에 대응하는 날씨 예보 정보를 고려해, 촬영 모드 감지 시점에 대응하는 의류 추천 정보를 생성할 수 있다.The generating unit 120 corresponds to the user's sensible characteristic information (correlation information related to the user's sensible temperature information) provided by the analysis of the analysis unit (not shown) and the shooting mode detection time obtained from the Meteorological Administration server (not shown) In consideration of the weather forecast information, it is possible to generate clothing recommendation information corresponding to the time of sensing the shooting mode.

생성부(120)는 생성된 의류 추천 정보를 일예로 사용자에게 맞춤화된 맞춤 의류 추천 정보로서 사용자 단말의 화면에 표시할 수 있다. 또한, 생성부(120)는 생성된 의류 추천 정보를 아바타 관리부(210)에 의해 생성된 사용자 아바타(제1 사용자 아바타)에 착용시킴으로써, 생성된 의류 추천 정보에 대응하는 의류의 착용이 이루어진 제1 사용자 아바타(즉, 의류 착용 제1 사용자 아바타)를 생성할 수 있으며, 이를 제1 저장부(250)에 저장할 수 있다. 뿐만 아니라, 촬영 모드 감지 시점에 대한 응답으로서 화면 제어부(220)가, 생성부(120)에 의해 생성된 의류 추천 정보에 대응하는 의류의 착용이 이루어진 제1 사용자 아바타(즉, 의류 착용 제1 사용자 아바타)를 화면에 표시할 수 있도록, 생성부(120)는 의류 착용 제1 사용자 아바타를 화면 제어부(220)로 전달할 수 있다. 이후, 화면 제어부(220)는 아바타 관리부(210)에 의해 생성된 의류 착용 제1 사용자 아바타를 사용자 단말(1)의 화면에 표출되는 현실 영상 상에 오버랩하여 표시할 수 있다.The generator 120 may display the generated clothing recommendation information as customized clothing recommendation information customized to the user, for example, on the screen of the user terminal. Also, the generation unit 120 puts the generated clothing recommendation information on the user avatar (first user avatar) generated by the avatar management unit 210 , so that the first clothing corresponding to the generated clothing recommendation information is worn. A user avatar (ie, a first user avatar wearing clothes) may be generated and stored in the first storage unit 250 . In addition, in response to the sensing time of the shooting mode, the screen controller 220 controls the first user avatar (that is, the first user wearing clothes) on which clothes are worn corresponding to the clothes recommendation information generated by the generator 120 . avatar) to be displayed on the screen, the generator 120 may transmit the first user avatar wearing clothes to the screen controller 220 . Thereafter, the screen controller 220 may overlap and display the first user avatar wearing clothes generated by the avatar manager 210 on the real image displayed on the screen of the user terminal 1 .

생성부(120)에 의해 생성되는 의류 추천 정보는 촬영 모드 감지 시점에 사용자 단말(1)의 화면에 표출되는 사용자 아바타가 착용할 의류(옷차림, 코디)를 추천하는 정보를 의미할 수 있다.The clothing recommendation information generated by the generator 120 may refer to information for recommending clothing (dressing, coordinating) to be worn by the user avatar displayed on the screen of the user terminal 1 at the time of sensing the shooting mode.

본원의 일예에서는 생성부(120)에 의해 생성되는 의류 추천 정보가 사용자 아바타에 착용되는(입혀지는) 의류를 추천하는 정보를 의미하는 것으로 예시하였으나, 이에만 한정되는 것은 아니다. 다른 일예로, 생성부(120)에 의해 생성되는 의류 추천 정보는 촬영 모드 감지 시점에 해당하는 시기(날짜)에 사용자가 실제로 입기에 적합한(적절한) 의류(옷차림, 코디)를 추천하는 정보를 의미할 수 있다. 즉, 의류 추천 정보는 사용자가 실제 착용을 추천하는 맞춤 의류 추천 정보를 의미할 수 있다.In an example of the present disclosure, the clothing recommendation information generated by the generator 120 is exemplified as information for recommending clothing worn (applied) to the user avatar, but is not limited thereto. As another example, the clothing recommendation information generated by the generator 120 refers to information that recommends clothing (suitable for clothes, coordination) suitable for the user to actually wear at the time (date) corresponding to the detection time of the shooting mode. can do. That is, the clothing recommendation information may refer to customized clothing recommendation information for which the user actually recommends wearing.

관리 제어부(130)는 후술하는 소유 의류 저장부(180)에 저장된 사용자가 실제 소유한 소유 의류에 관한 정보 중 일부 소유 의류를 착용 의류로서 선택한 경우, 미리 설정된 시간 주기 마다 사용자 단말(1)의 화면의 일영역에 체감 온도 정보의 입력을 위한 입력 요청 메시지를 표시할 수 있다. 특히, 관리 제어부(130)는 사용자가 소유 의류 저장부(180)에 저장된 소유 의류에 관한 정보 중 일부 소유 의류를 착용 의류로서 선택하고 선택된 착용 의류에 대응하는 실물 의류를 실제 착용한 후 외부 활동을 수행하는 경우에, 외부 활동의 수행 중 미리 설정된 시간 주기 마다 입력 요청 메시지를 화면의 일영역에 표시할 수 있다.The management control unit 130 is configured to display the screen of the user terminal 1 at every preset time period when some owned clothes are selected as wearing clothes among the information on the clothes actually owned by the user stored in the owned clothes storage unit 180 to be described later. An input request message for input of sensible temperature information may be displayed in a region of the . In particular, the management control unit 130 allows the user to select some owned clothing from among the information about the owned clothing stored in the owned clothing storage unit 180 as wearing clothing, and actually wears real clothing corresponding to the selected worn clothing, and then performs an external activity. In the case of performing the external activity, an input request message may be displayed on one area of the screen at each preset time period during the execution of the external activity.

여기서, 외부 활동이라 함은 외출을 하는 등 의류를 입고 돌아다니는 행위를 의미할 수 있다. 또한, 미리 설정된 시간 주기는 일예로 2시간, 3시간 등으로 설정될 수 있으나, 이에만 한정되는 것은 아니다. 본원의 일예에서는 미리 설정된 시간 주기가 시간 단위로 설정되는 것으로 예시하였으나, 이는 본원의 이해를 돕기 위한 하나의 예시일 뿐 이에만 한정되는 것은 아니고, 초 단위, 일(day) 단위 등 다양한 단위로 설정될 수 있다.Here, the term "outside activity" may mean an act of walking around wearing clothes, such as going out. In addition, the preset time period may be set to, for example, 2 hours or 3 hours, but is not limited thereto. In an example of the present application, it is illustrated that the preset time period is set in units of time, but this is only an example for helping understanding of the present application and is not limited thereto, and is set in various units such as units of seconds, units of days, etc. can be

관리 제어부(130)는 체감 온도 정보의 입력을 위한 입력 요청 메시지를 화면에 표시할 수 있다. 여기서, 체감 온도 정보는 사용자 주변 환경의 온도 측정 값과 대비하여 사용자가 상대적으로 체감하는(느끼는) 더움 정도 및/또는 추움 정도에 관한 정보에 관한 정보를 의미할 수 있다.The management control unit 130 may display an input request message for input of the sensible temperature information on the screen. Here, the sensible temperature information may refer to information about the degree of heat and/or the degree of cold that the user relatively senses (feels) in comparison with a temperature measurement value of the user's surrounding environment.

날씨의 온도가 동일한 조건이라 할지라도, 해당 온도에서 사용자 각각이 체감하는(느끼는) 상대적인 체감 온도는 각기 다르게 느끼게 된다. 예를 들어 현재의 날씨 온도가 22도라고 하자. 이때, 제1 사용자가 추위를 많이 타는 체질이고 두꺼운 긴팔 상의/긴 하의를 입고 있는 상태인 경우에는 체감 온도로서 따듯하다고(적정 온도라고) 느낄 수 있다. 다른 일예로, 제2 사용자가 추위를 많이 타는 체질이고 반팔 상의(면티)/반팔 하의를 입고 있는 상태인 경우에는 체감 온도로서 춥다고 느낄 수 있다. 또 다른 일예로, 제3 사용자가 더위를 많이 타는 체질이고 반팔 상의/반팔 하의를 입고 있는 상태인 경우에는 체감 온도로서 덥다고 느낄 수 있다.Even if the weather temperature is the same, the relative sensible temperature felt (feeled) by each user at the corresponding temperature is different. For example, let's say the current weather temperature is 22 degrees. At this time, if the first user has a constitution that is prone to cold and is wearing a thick long-sleeved top/long bottom, he/she may feel warm as a sensible temperature (appropriate temperature). As another example, when the second user has a constitution that is prone to cold and is wearing a short-sleeved top (cotton tee)/short-sleeved bottoms, he or she may feel cold as a sensible temperature. As another example, if the third user has a constitution that burns a lot of heat and is wearing a short-sleeved top/short-sleeved bottom, he or she may feel hot as a sensible temperature.

이처럼, 사용자가 지닌 본래의 체질이나 주변 환경/상황 등에 따라 각각의 사용자가 느끼는 체감 온도는 각기 다를 수 있다. 그런데, 종래의 의류 추천 기술은 일반적으로 특정 기온에 대한 평균적인 의류(옷차림, 코디) 추천 정보를 제공하기 때문에, 이러한 평균 의류 추천 정보는 일부 사용자에게 있어서 만족스럽지 않은 정보로 취급될 수 있다.As such, the sensible temperature felt by each user may be different depending on the user's original constitution or surrounding environment/situation. However, since the conventional clothing recommendation technology generally provides average clothing (dressing, coordination) recommendation information for a specific temperature, the average clothing recommendation information may be treated as unsatisfactory information for some users.

따라서, 본 장치(100)는 사용자가 느끼는 체감 온도 정보를 토대로 사용자에게 최적화된 맞춤 의류 추천 정보를 제공하고자, 체감 온도 정보를 획득하기 위해 미리 설정된 시간 주기마다 입력 요청 메시지를 화면에 표시할 수 있다.Accordingly, the device 100 may display an input request message on the screen at every preset time period to obtain the sensible temperature information in order to provide customized clothing recommendation information optimized to the user based on the sensible temperature information felt by the user. .

또한, 본 장치(100)는 사용자가 느끼는 체감 온도 정보를 토대로 생성되는 의류 추천 정보(맞춤 의류 추천 정보)에 해당하는 의류를 제1 사용자 아바타에 적용시켜 화면에 표출시킴으로써, 획득되는 증강현실 영상 내 포함되는 제1 사용자 아바타로서, 보다 사용자의 현재 상태, 체감 온도 정보에 대한 사용자의 현재 느낌이 반영된 제1 사용자 아바타의 적용이 이루어지도록 제공할 수 있다. 이러한 본 장치(100)는 제1 사용자 아바타로 하여금 실제 사용자와 상당히 유사한 느낌을 갖는 아바타를 제공할 수 있다. In addition, the device 100 applies clothing corresponding to clothing recommendation information (custom clothing recommendation information) generated based on the sensible temperature information felt by the user to the first user avatar and displays it on the screen. As the included first user avatar, the application of the first user avatar in which the user's current feeling to the user's current state and sensible temperature information is applied may be provided. The apparatus 100 may provide the first user avatar with an avatar having a feeling very similar to that of an actual user.

입력 요청 메시지는 사용자가 현재 추운지, 혹은 더운지를 묻는 질의에 대한 사용자 입력(즉, 제1 질의 관련 사용자 입력)을 요청하는 메시지를 의미할 수 있다.The input request message may mean a message for requesting a user input (ie, a user input related to the first query) for a query asking whether the user is currently cold or hot.

입력 요청 메시지는 일예로 '현재 기온에 착용하고 계신 옷은 어떤가요?'라는 질의와 함께 '춥다', '덥다', '적당하다' 와 같은 선택지가 포함된 메시지일 수 있다. 본원의 일예에서는 체감 온도 정보의 입력을 위한 선택지가 일예로 3가지(춥다, 덥다, 적당하다)인 것으로 예시하였으나, 이에만 한정되는 것은 아니다. The input request message may be, for example, a message including options such as 'cold', 'hot', and 'suitable' along with a query of 'what are the clothes you are wearing at the current temperature?' In an example of the present application, three options for input of sensible temperature information have been exemplified as an example (cold, hot, suitable), but is not limited thereto.

일예로, 체감 온도 정보의 입력을 위한 선택지는 10단계로 구분되고, 이때 단계가 낮을수록 추움이 강함을 의미하고, 단계가 높을수록 더움이 강함을 의미할 수 있다. 즉, 1단계는 매우 추움, 4단계는 조금 추움, 5단계는 적당함, 5단계는 조금 더움, 10단계는 매우 추움 등을 의미할 수 있다.For example, the options for inputting the sensible temperature information are divided into 10 steps, where a lower level may mean stronger coldness, and a higher level may mean stronger heat. That is, level 1 may mean very cold, level 4 a little cold, level 5 moderate, level 5 a little hot, level 10 very cold, etc.

사용자는 화면에 대한 입력 요청 메시지의 표시에 응답하여, 사용자가 현재 시점(즉, 입력 요청 메시지가 표시된 시점)에 느끼는 체감 온도 정보를 입력할 수 있다. 즉, 사용자는 메시지 표시에 응답하여 체감 온도 정보 관련 복수의 선택지 중 어느 하나를 선택할 수 있다.In response to the display of the input request message on the screen, the user may input sensible temperature information that the user feels at a current time point (ie, a time point at which the input request message is displayed). That is, the user may select any one of a plurality of options related to the sensible temperature information in response to the message display.

이후, 입력 요청 메시지에 대한 사용자 입력(제1 질의 관련 사용자 입력)이 이루어진 경우, 관리 제어부(130)는 제1 질의 관련 사용자 입력에 응답하여, 제1 질의 관련 사용자 입력이 이루어진 시점에 대응하는 사용자 주변 환경의 온도 측정 값, 제1 질의 관련 사용자 입력이 이루어진 시점에 대응하는 입력 시점 날씨 예보 정보 및 제1 질의 관련 사용자 입력이 이루어진 시점에 대응하는 착용 의류의 속성 정보 중 적어도 하나를 입력 요청 메시지에 대응하는 체감 온도 정보의 입력 값과 서로 연계하여 착용 의류 이력 데이터로서 이력 저장부(170)에 저장되도록 제어할 수 있다.Thereafter, when a user input (a first query-related user input) for the input request message is made, the management control unit 130 responds to the first query-related user input, and the user corresponding to the time point at which the first query-related user input is made. At least one of the temperature measurement value of the surrounding environment, the weather forecast information at the input time corresponding to the time when the user input related to the first query is made, and attribute information of the worn clothes corresponding to the time when the user input related to the first query is made, in the input request message In connection with the input value of the corresponding sensible temperature information, it may be controlled to be stored in the history storage unit 170 as worn clothing history data.

여기서, 제1 질의 관련 사용자 입력이 이루어진 시점이라 함은 화면에 표시된 입력 요청 메시지에 응답하여, 사용자에 의해 체감 온도 정보의 입력이 이루어진 시점(현 시점)을 의미할 수 있다.Here, the time point at which the first query-related user input is made may mean a time point (current time point) at which the sensible temperature information is input by the user in response to the input request message displayed on the screen.

사용자 주변 환경의 온도 측정 값은 제1 질의 관련 사용자 입력이 이루어진 시점에 사용자가 위치한 주변(주변 환경)의 온도를 측정한 값을 의미할 수 있다. 사용자 주변 환경의 온도 측정 값은, 일예로 본 장치(100)에 자체 구비된 온도 측정 센서(미도시), 사용자가 소지한 사용자 단말(1)에 구비된 온도 측정 센서(미도시), 본 장치(100)와 네트워크(2)를 통해 연결되고 사용자가 위치한 공간에 마련(설치)되어 있는 온도 측정 센서 중 적어도 하나를 이용해 획득될 수 있다.The temperature measurement value of the user's surrounding environment may mean a value obtained by measuring the temperature of the surrounding (neighboring environment) where the user is located at the point in time when the user input related to the first query is made. The temperature measurement value of the user's surrounding environment is, for example, a temperature measuring sensor (not shown) provided in the device 100, a temperature measuring sensor (not shown) provided in the user terminal 1 carried by the user, and the device It may be obtained using at least one of the temperature measuring sensors that are connected through the network 100 and the network 2 and are provided (installed) in the space where the user is located.

입력 시점 날씨 예보 정보는 제1 질의 관련 사용자 입력이 이루어진 시점의 날짜에 해당하는 날씨 예보 정보를 의미할 수 있다.The input time weather forecast information may refer to weather forecast information corresponding to the date at which the first query related user input is made.

착용 의류의 속성 정보는 제1 질의 관련 사용자 입력이 이루어진 시점에 사용자가 실제 착용하고 있는 의류(착용 의류)에 대한 속성 정보로서, 착용 의류의 종류(유형), 소재(재질), 두께, 사이즈(치수, 길이), 색상(컬러) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 여기서, 착용 의류의 종류라 함은 예시적으로 반팔인지, 긴팔인지, 치마인지, 아우터인지 등을 구분하는 정보를 의미할 수 있다.The attribute information of the worn clothing is attribute information on the clothing (wearing clothing) that the user is actually wearing at the time when the user input related to the first query is made, and includes the type (type), material (material), thickness, and size ( dimension, length), color (color), and the like, but is not limited thereto. Here, the type of clothing to be worn may mean information for classifying whether it is a short sleeve, a long sleeve, a skirt, an outer, and the like.

체감 온도 정보의 입력 값이라 함은 체감 온도 정보 관련 복수의 선택지 중 사용자에 의해 선택된 어느 하나를 선택지의 값을 의미할 수 있다.The input value of the sensible temperature information may mean a value of any one selected by the user from among a plurality of options related to the sensible temperature information.

이처럼, 관리 제어부(130)는 입력 요청 메시지가 화면에 미리 설정된 시간 주기로 표시될 때마다, 그에 대한 사용자 입력(제1 질의 관련 사용자 입력)에 응답하여 사용자 주변 환경의 온도 측정 값, 입력 시점 날씨 예보 정보 및 착용 의류의 속성 정보 중 적어도 하나를 체감 온도 정보의 입력 값과 서로 연계시켜 착용 의류 이력 데이터로서 생성하여 이력 저장부(170)에 저장할 수 있다. 이때, 착용 의류 이력 데이터에는 후술하는 일정 정보(지인 정보를 포함한 일정 정보)가 존재하는 경우, 일정 정보가 함께 연계되어 저장될 수 있다.As such, whenever an input request message is displayed on the screen at a preset time period, the management control unit 130 responds to a user input (a user input related to the first query) corresponding to the temperature measurement value of the user's surrounding environment and weather forecast at the input time At least one of the information and the attribute information of the worn clothing may be linked with the input value of the sensible temperature information to generate and store the worn clothing history data in the history storage unit 170 . In this case, if schedule information (schedule information including acquaintance information) to be described later exists in the worn clothing history data, the schedule information may be linked and stored.

이력 저장부(170)에는 미리 설정된 시간 주기마다 제1 질의 관련 사용자 입력에 응답하여 생성된 착용 의류 이력 데이터가 누적하여 저장될 수 있다. 이후, 분석부(미도시)는 이력 저장부(170)에 저장된 복수의 착용 의류 이력 데이터(복수의 누적 착용 의류 이력 데이터)를 분석(특히, 상관 관계의 분석을 수행)하여 사용자 체감 특성 정보를 획득할 수 있다. 이후, 생성부(120)는 획득된 사용자 체감 특성 정보와 날씨 예보 정보를 고려해 촬영 모드 감지 시점에 대응하는 의류 추천 정보를 생성할 수 있다.The history storage unit 170 may accumulate and store worn clothing history data generated in response to a user input related to a first query at each preset time period. Thereafter, the analysis unit (not shown) analyzes a plurality of worn clothing history data (a plurality of accumulated worn clothing history data) stored in the history storage unit 170 (in particular, performs correlation analysis) to obtain user experience characteristic information. can be obtained Thereafter, the generator 120 may generate the clothing recommendation information corresponding to the sensing time of the shooting mode in consideration of the acquired user sensible characteristic information and weather forecast information.

분석부(미도시)에 의한 분석을 통해 상술한 상관 관계 정보인 사용자 체감 특성 정보가 획득됨에 따라, 일예로 생성부(120)는 촬영 모드 감지 시점이 감지되었을 때 기상청 서버(미도시)로부터 획득된 촬영 모드 감지 시점에 대응하는 날씨 예보 정보가 존재하면, 사용자 체감 특성 정보를 기초로 하여 '촬영 모드 감지 시점에 해당하는 날짜에 사용자는 어느 정도의 추위(혹은 더위)를 느낄 것이다'라는 정보를 예측한 체감 온도 예측 정보를 획득하고, 획득된 체감 온도 예측 정보를 기반으로 촬영 모드 감지 시점에 대응하는 의류 추천 정보를 생성할 수 있다.As the user sensible characteristic information, which is the above-described correlation information, is obtained through analysis by an analysis unit (not shown), for example, the generation unit 120 obtains from the Korea Meteorological Administration server (not shown) when a shooting mode detection time is detected. If there is weather forecast information corresponding to the sensing time of the shooting mode, information that 'the user will feel some degree of cold (or heat) on the date corresponding to the sensing time of the shooting mode' is provided based on the user's sensible characteristic information. Predicted sensible temperature prediction information may be acquired, and clothing recommendation information corresponding to the sensing time of the shooting mode may be generated based on the acquired sensible temperature prediction information.

다른 일예로, 촬영 모드 감지 시점이 감지되었을 때 기상청 서버(미도시)로부터 획득된 촬영 모드 감지 시점에 대응하는 날씨 예보 정보와 선택 의류 정보가 존재한다고 하자. 여기서, 선택 의류 정보라 함은 소유 의류 저장부(180)에 저장된 소유 의류 중 사용자가 촬영 모드 감지 시점에 해당하는 날짜에 착용하길 희망하여 선택한 의류 정보를 의미할 수 있다. 이러한 경우, 생성부(120)는 사용자 체감 특성 정보를 기초로 하여 '촬영 모드 감지 시점에 해당하는 날짜에 선택 의류 정보에 해당하는 의류를 실제로 착용하여 입는다면, 사용자는 많이 더워할 것이다(혹은 많이 추워할 것이다)'와 같은 예측된 정보(즉, 체감 온도 예측 정보)를 획득하고, 획득된 체감 온도 예측 정보를 기반으로 촬영 모드 감지 시점에 대응하는 의류 추천 정보를 생성할 수 있다.As another example, it is assumed that, when the sensing time of the shooting mode is sensed, weather forecast information corresponding to the sensing time of the shooting mode obtained from the Meteorological Administration server (not shown) and selected clothing information exist. Here, the selected clothing information may refer to information on clothing that the user desires to wear on a date corresponding to the sensing time of the shooting mode, among the owned clothing stored in the owned clothing storage unit 180 . In this case, if the generation unit 120 actually wears and wears clothes corresponding to the selected clothes information on the date corresponding to the time of sensing the shooting mode, the user will feel very hot (or a lot of It will be cold), and predicted information (ie, sensible temperature prediction information) may be obtained, and clothing recommendation information corresponding to the sensing time of the shooting mode may be generated based on the acquired sensible temperature prediction information.

위치 판단부(140)는 위치 측정 센서(미도시)를 통해 획득된 사용자(제1 사용자)의 위치 정보를 기반으로 사용자가 실외에 위치하는지 또는 실내에 위치하는지 판단할 수 있다.The location determination unit 140 may determine whether the user is located outdoors or indoors based on location information of the user (the first user) obtained through a location sensor (not shown).

여기서, 위치 측정 센서(미도시)는 일예로 본 장치(100)에 자체 구비된 위치 측정 센서 및 사용자가 소지한 사용자 단말(1)에 구비된 위치 측정 센서 중 적어도 하나를 의미할 수 있다. 위치 측정 센서(미도시)는 GPS 센서 등으로 달리 지칭될 수 있다.Here, the position measuring sensor (not shown) may mean, for example, at least one of a position measuring sensor provided by the device 100 and a position measuring sensor provided in the user terminal 1 carried by the user. The position measuring sensor (not shown) may be referred to as a GPS sensor or the like.

관리 제어부(130)는 위치 판단부(140)에 의한 위치 판단 결과에 따라, 입력 요청 메시지 표시에 대한 사용자 입력에 응답하여 이력 저장부(170)에 착용 의류 이력 데이터의 저장시, 입력 시점 날씨 예보 정보를 선택적으로 포함시켜 저장할 수 있다. The management control unit 130 stores the worn clothing history data in the history storage unit 170 in response to a user input for displaying an input request message according to the position determination result by the position determination unit 140 , and forecasts the weather at the input time. Information can be optionally included and stored.

일예로, 관리 제어부(130)는 위치 판단 결과 사용자가 실외에 위치하는 것으로 판단된 경우, 이력 저장부(170)에 대한 착용 의류 이력 데이터의 저장시 입력 시점 날씨 예보 정보를 포함시킬 수 있다. 반면, 관리 제어부(130)는 위치 판단 결과 사용자가 실내에 위치하는 것으로 판단된 경우, 이력 저장부(170)에 대한 착용 의류 이력 데이터의 저장시 입력 시점 날씨 예보 정보를 포함시키지 않을 수 있다.For example, when it is determined that the user is located outdoors as a result of the location determination, the management controller 130 may include weather forecast information at the time of input when storing the worn clothing history data in the history storage unit 170 . On the other hand, when it is determined that the user is located indoors as a result of the location determination, the management control unit 130 may not include the weather forecast information at the time of input when storing the worn clothing history data in the history storage unit 170 .

사용자가 실외에 위치할 때에는 사용자가 야외 등에 노출된 상태임에 따라 날씨 예보 정보에 직접적으로 영향받는 상태라 할 수 있을 것이다. 반면, 사용자가 실내에 위치할 때에는, 실내의 경우 구조물로 인해 제한된 공간이 형성되고 해당 공간에서는 에어컨이나 히터 등의 동작이 이루어짐에 따라, 날씨 예보 정보에는 크게 영향받지 않고 오히려 사용자 주변 환경의 온도 측정 값에 더 크게 영향받는 상태라 할 수 있을 것이다.When the user is located outdoors, it can be said that the user is directly affected by the weather forecast information because the user is exposed to the outdoors. On the other hand, when a user is located indoors, a limited space is formed due to a structure indoors, and as an air conditioner or heater is operated in the space, it is not significantly affected by weather forecast information, but rather measures the temperature of the user's surrounding environment. It can be said that the state is greatly affected by the value.

즉, 날씨 예보 정보는 사용자가 실내에 있는 경우보다는 실외에 있을 때 사용자가 체감하는 온도인 체감 온도 정보에 대하여 더 민감하게 반응한다고(영향을 받는다고) 할 수 있을 것이다.That is, it can be said that the weather forecast information responds more sensitively to (influenced by) the sensible temperature information, which is the temperature the user feels when the user is outdoors than when the user is indoors.

따라서, 관리 제어부(130)는 입력 요청 메시지에 대한 사용자 입력에 응답하여 착용 의류 이력 데이터를 이력 저장부(170)에 저장할 때, 사용자가 실외에 위치하는지 혹은 사용자가 실내에 위치하는지에 따라 입력 시점 날씨 예보 정보를 선택적으로 포함시켜 저장할 수 있다. 즉, 관리 제어부(130)는 사용자가 실외에 위치하는 것으로 판단된 경우 입력 시점 날씨 예보 정보를 함께 포함시켜 착용 의류 이력 데이터를 저장하고, 사용자가 실내에 위치하는 경우 입력 시점 날씨 예보 정보를 제외시키고 착용 의류 이력 데이터를 저장할 수 있다. 이러한, 본 장치(100)는 사용자의 체감 온도 정보가 고려된 사용자 체감 특성 정보를 분석하여 획득함에 있어서, 보다 신뢰도 높고 정확한 사용자 체감 특성 정보를 획득할 수 있으므로, 이를 통해 결과적으로 사용자에게 최적으로 맞춤화된 맞춤 의류 추천 정보를 제공할 수 있다.Accordingly, when the management control unit 130 stores the worn clothing history data in the history storage unit 170 in response to a user input to the input request message, the input timing depends on whether the user is located outdoors or indoors. Weather forecast information can be optionally included and stored. That is, when it is determined that the user is located outdoors, the management control unit 130 stores the worn clothing history data by including the input time forecast information together, and when the user is located indoors, excludes the input time forecast information and Wearing clothing history data may be stored. As such, the present apparatus 100 can obtain more reliable and accurate user's sensible characteristic information by analyzing and acquiring the user's sensible temperature information in consideration of the user's sensible temperature information. It is possible to provide customized clothing recommendation information.

관리 제어부(130)에 의해 화면에 입력 요청 메시지가 표시되는 미리 설정된 시간 주기는, 위치 판단부(140)에 의해 판단된 위치 판단 결과를 기초로 하여 사용자가 실내에 위치하는 경우 대비 사용자가 실외에 위치하는 경우에 더 짧게 설정될 수 있다.The preset time period during which the input request message is displayed on the screen by the management control unit 130 is based on the position determination result determined by the position determination unit 140 when the user is located indoors compared to when the user is outdoors. It can be set shorter when located.

즉, 입력 요청 메시지가 표시되는 미리 설정된 시간 주기는, 일예로 사용자가 실내에 위치하는 경우 제1 주기로 설정되고, 사용자가 실외에 위치하는 경우 제2 주기로 설정될 수 있다. 이때, 제1 주기는 제2 주기보다 더 짧게 설정(더 작은 값으로 설정)될 수 있다. 예시적으로, 제1 주기는 1시간으로 설정될 수 있으며, 제2 주기는 제1 주기보다 긴 2시간으로 설정될 수 있다.That is, the preset time period for displaying the input request message may be set to a first period when the user is located indoors, and may be set to a second period when the user is located outdoors. In this case, the first period may be set shorter (set to a smaller value) than the second period. For example, the first period may be set to 1 hour, and the second period may be set to 2 hours longer than the first period.

이에 따르면, 관리 제어부(130)는 사용자가 실외에 위치하는 것으로 판단된 경우에는 입력 요청 메시지를 1시간 주기 단위로 화면에 표시하고, 사용자가 실내에 위치하는 것으로 판단된 경우에는 입력 요청 메시지를 2시간 주기 단위로 화면에 표시할 수 있다.According to this, when it is determined that the user is located outdoors, the management control unit 130 displays an input request message on the screen in units of one hour, and when it is determined that the user is located indoors, the input request message is sent to 2 It can be displayed on the screen in units of time periods.

본 장치(100)에서는, 사용자가 실외에 있는 경우일 때가 실내에 있는 경우일 때 보다 더 활동적일 가능성(움직이고 있을 가능성)(일예로, 걷거나 뛰는 등 움직이고 있을 가능성)이 높다고 보고, 이에 사용자가 체감하는 체감 온도의 변화가 실외일 때가 실내일 때 보다 더 유동적으로 가변될 가능성이 높다고 판단할 수 있다. 따라서, 본 장치(100)는 분석부(미도시)에 의해 분석된 사용자의 위치가 실외인지 혹은 실외인지에 따라 입력 요청 메시지가 표시되는 미리 설정된 시간 주기를 달리함으로써, 사용자가 체감하는 체감 온도의 변화를 보다 실시간으로 반영해 보다 최적화된 맞춤 의류 추천 정보의 제공이 이루어지도록 할 수 있다.In the present device 100, when the user is outdoors, the possibility of being more active (possibility of being in motion) (for example, the likelihood of being in motion, such as walking or running) is higher when the user is outdoors than when the user is indoors. It can be determined that the change in the sensible temperature is more likely to vary more fluidly when outdoors than when indoors. Accordingly, the device 100 varies the preset time period for displaying the input request message according to whether the user's location analyzed by the analysis unit (not shown) is outdoors or outdoors, thereby reducing the sensible temperature experienced by the user. By reflecting changes in real time, it is possible to provide more optimized customized clothing recommendation information.

생성부(120)는 사용자 체감 특성 정보와 날씨 예보 정보를 고려하여 의류 추천 정보를 생성하는 것 외에도, 사용자 개인의 병원 방문 이력 정보, 사용자의 생체정보, 및 사용자의 체질 정보 중 적어도 하나를 더 고려하여 촬영 모드 감지 시점에 대응하는 의류 추천 정보를 생성할 수 있다.The generator 120 considers at least one of the user's personal hospital visit history information, the user's biometric information, and the user's constitution information, in addition to generating the clothing recommendation information in consideration of the user's sensible characteristic information and the weather forecast information. Thus, it is possible to generate clothing recommendation information corresponding to the detection time of the shooting mode.

여기서, 병원 방문 이력 정보는 예를 들어 감기 발병 여부 관련 정보, 두통 발명 여부 관련 정보 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 병원 방문 이력 정보는 일예로 본 장치(100)와 네트워크(2)를 통해 연결되는 전자의무기록(Electronic Medical Record, EMR)을 기록하는 EMR 서버(미도시) 및/또는 병원 서버(미도시)로부터 획득된 전자의무기록의 분석을 통해 획득될 수 있다.Here, the hospital visit history information may include, for example, information related to whether or not a cold occurs, information related to the invention of a headache, and the like, but is not limited thereto. Hospital visit history information is, for example, from an EMR server (not shown) and/or a hospital server (not shown) that records an Electronic Medical Record (EMR) connected through the device 100 and the network 2 It can be obtained through analysis of the obtained electronic medical record.

사용자의 생체정보는 예를 들어, 사용자의 혈압, 체온, 심전도 신호 등을 포함하는 사용자의 특성과 관련된 각종 정보를 의미할 수 있다. 이러한 사용자의 생체정보는 예시적으로 본 장치(100)와 네트워크(2)를 통해 연결되고 사용자의 신체 일부에 착용되는 웨어러블 디바이스(미도시)로부터 획득될 수 있다. 여기서, 웨어러블 디바이스(미도시)에는 스마트 워치 등을 포함할 수 있으나, 이에만 한정되는 것은 아니고, 시계, 안경, 헤드셋 등과 같이 사용자의 신체의 적어도 일부에 착용 가능하게 마련되는 디바이스라면 무엇이든 적용 가능하다.The user's biometric information may refer to various types of information related to the user's characteristics including, for example, the user's blood pressure, body temperature, and ECG signal. The user's biometric information may be obtained from, for example, a wearable device (not shown) that is connected to the present apparatus 100 and the network 2 through the network 2 and is worn on a part of the user's body. Here, the wearable device (not shown) may include, but is not limited to, a smart watch, and any device that is provided to be worn on at least a part of the user's body, such as a watch, glasses, and a headset, is applicable. do.

사용자의 체질 정보는 예를 들어 선호 식품에 대한 정보, 알레르기 정보 등을 포함할 수 있다. 이러한 사용자의 체질 정보는 일예로 사용자가 사용자 단말(1)을 통해 직접 타이핑함으로써 획득되거나, 혹은 상술한 EMR 서버(미도시)에 기록된 전자의무기록으로부터 획득될 수 있다.The constitutional information of the user may include, for example, information on preferred food, allergy information, and the like. Such constitutional information of the user may be obtained by, for example, the user directly typing through the user terminal 1, or may be obtained from the electronic medical record recorded in the above-described EMR server (not shown).

예시적으로, 관리 제어부(130)는 이력 저장부(170)에 착용 의류 이력 데이터를 저장하고자 할 때, 입력 요청 메시지에 대한 사용자 입력이 이루어진 시점에 EMR 서버(미도시) 및/또는 병원 서버(미도시)로부터 획득된 전자의무기록을 분석하여 사용자 개인의 병원 방문 이력 정보가 존재하는지 확인할 수 있다. 이때, 확인 결과 사용자 개인의 병원 방문 이력 정보와 관련하여 감기 발병 여부 관련 정보가 존재하고, 이를 분석한 결과 사용자가 현재 감기에 걸린 상태인 것으로 확인되었다고 하자. 이러한 경우, 관리 제어부(130)는 착용 의류 이력 데이터의 저장시, 일예로 사용자 주변 환경의 온도 측정 값, 입력 시점 날씨 예보 정보, 및 착용 의류의 속성 정보 중 적어도 하나와 체감 온도 정보의 입력 값을 서로 연계한 정보에, 추가적으로 '사용자가 현재 감기에 걸린 상태임'을 나타내는 감기 발병 여부 관련 정보를 함께 연계시킨 정보를 착용 의류 이력 데이터(일예로 제1 착용 의류 이력 데이터)로서 이력 저장부(170)에 저장할 수 있다.Exemplarily, when the management control unit 130 wants to store the worn clothing history data in the history storage unit 170 , the EMR server (not shown) and/or the hospital server ( By analyzing the electronic medical record obtained from (not shown), it is possible to check whether the user's personal hospital visit history information exists. In this case, as a result of the confirmation, it is assumed that there is information related to whether or not a cold has occurred in relation to the user's personal hospital visit history information, and as a result of analyzing this information, it is confirmed that the user is currently ill with a cold. In this case, when storing the worn clothing history data, the management control unit 130 receives, for example, at least one of a temperature measurement value of the user's surrounding environment, weather forecast information at the time of input, and attribute information of the worn clothing and an input value of the sensible temperature information. In addition to the information linked to each other, information related to the onset of a cold indicating that 'the user is currently catching a cold' is linked together as the wearing clothing history data (for example, the first wearing clothing history data), the history storage unit 170 can be stored in

이에 따르면, 예시적으로 이력 저장부(170)에 저장된 착용 의류 이력 데이터(일예로 제1 착용 의류 이력 데이터)는, '사용자가 위치한 사용자 주변 환경의 온도 측정 값에 따르면 현재 사용자 주변의 온도가 19도이고, 현재 사용자가 착용한 착용 의류의 속성 정보에 따르면 사용자가 3mm의 두께를 가진 면 소재의 긴팔 상의와 면 소재의 반바지를 입고 있으며, 입력 시점 날씨 예보 정보에 따르면 사용자 입력이 이루어진 시점에 대응하는 날짜의 날씨 예보 정보는 온도가 20도이며, 사용자 개인의 병원 방문 이력 정보에 따르면 사용자가 현재 감기에 걸린 상태임'을 나타내는 정보 및 이때의 체감 온도 정보의 입력 값으로 '사용자가 체감한 체감 온도 정보는 일예로 5단계에 해당하는 조금 더움'에 해당하는 정보가 서로 연계된 정보일 수 있다.According to this, for example, the worn clothing history data (eg, the first worn clothing history data) stored in the history storage unit 170 is 'according to the temperature measurement value of the user's surrounding environment where the user is located, the temperature around the current user is 19 According to the attribute information of the currently worn clothing worn by the user, the user is wearing a cotton long-sleeved top and cotton shorts with a thickness of 3 mm. The weather forecast information for the date is 20 degrees, and according to the user's personal hospital visit history information, it is information indicating that the user is currently in a cold state, and the input value of the sensible temperature information. The temperature information may be, for example, information in which information corresponding to 'slightly hot corresponding to step 5' is linked to each other.

즉, 이력 저장부(170)에는 일예로 사용자가 감기에 걸리고, 그때의 주변 환경의 온도 측정 값이 몇도이며, 그때의 날씨 예보 정보가 어떠했으며, 그때 착용했던 착용 의류의 속성 정보가 어떠한 경우일 때, 사용자가 상대적으로 체감한(느꼈던) 더움 정도 및/또는 추움 정도에 관한 정보는 어떠했음을 나타내는 정보가 제1 착용 의류 이력 데이터로서 저장될 수 있다.That is, in the history storage unit 170 , for example, when the user catches a cold, what is the temperature measurement value of the surrounding environment at that time, what is the weather forecast information at that time, and what is the attribute information of the clothes worn at that time? When , information indicating what kind of information about the degree of heat and/or degree of cold that the user has relatively felt (felt) may be stored as the first worn clothing history data.

분석부(미도시)는 이력 저장부(170)에 저장된 제1 착용 의류 이력 데이터와 같은 복수개의 착용 의류 이력 데이터를 분석함으로써 이력 저장부(170)에 저장된 서로 다른 유형의 데이터들(일예로, 사용자 주변 환경의 온도 측정 값, 입력 시점 날씨 예보 정보, 착용 의류의 속성 정보, 체감 온도 정보의 입력 값, 감기 발병 여부 관련 정보를 포함한 5가지 유형의 데이터들) 간의 상관 관계를 나타내는 사용자 체감 특성 정보를 획득할 수 있다. The analysis unit (not shown) analyzes a plurality of worn clothing history data, such as the first worn clothing history data stored in the history storage unit 170 , so that different types of data stored in the history storage unit 170 (for example, User sensible characteristic information indicating the correlation between five types of data, including temperature measurement values of the user's surrounding environment, weather forecast information at the time of input, attribute information of worn clothing, input values of sensible temperature information, and information on whether or not a cold occurs) can be obtained.

이후, 생성부(120)는 촬영 모드 감지 시점이 감지되었을 때, 일예로 전자의무기록의 분석 결과 '사용자가 현재 감기에 걸려있는 상태'인 것으로 판단되고 해당 시기 정보에 대응하는 날씨 예보 정보가 획득된 상태인 경우, 분석부(미도시)에 의해 획득된 사용자 체감 특성 정보를 기초로 하여 '촬영 모드 감지 시점에 대응하는 날짜에 사용자가 조금 추위를 느낄 것이다'라는 체감 온도 예측 정보를 획득할 수 있다. 이후, 생성부(120)는 획득된 체감 온도 예측 정보를 기반으로 소장 의류 저장부(180)에 기 저장된 복수의 소유 의류에 관한 정보 중 사용자가 추위를 조금 느끼는 상태일 때 입기 가장 적합하다고 판단되는 적어도 하나의 의류를 선택할 수 있다. 이후, 생성부(120)는 선택된 적어도 하나의 의류를 포함한 의류 추천 정보를 생성하고, 생성된 의류 추천 정보가 맞춤 의류 추천 정보로서 화면에 표시되도록 관리 제어부(130)로 제공할 수 있다. 또한, 생성부(120)는 생성된 의류 추천 정보에 해당하는 의류가 착용된 제1 사용자 아바타를 생성하여 제1 저장부(250)에 저장하고, 이를 증강현실 영상의 획득을 위해 사용자 단말(1)의 화면에 표출되는 현실 영상 상에 오버랩하여 표시할 수 있다.Thereafter, when the detection time of the shooting mode is detected, the generation unit 120 determines that 'the user is currently catching a cold' as an example of the analysis result of the electronic medical record, and weather forecast information corresponding to the time information is obtained. In this case, it is possible to obtain sensible temperature prediction information that 'the user will feel a little cold on the date corresponding to the time of sensing the shooting mode' based on the user's sensible characteristic information obtained by the analysis unit (not shown). have. Thereafter, the generation unit 120 determines that it is most suitable to wear when the user feels a little cold among the plurality of owned clothing pre-stored in the collectible clothing storage unit 180 based on the obtained sensible temperature prediction information. At least one piece of clothing can be selected. Thereafter, the generator 120 may generate clothing recommendation information including the selected at least one piece of clothing, and provide the generated clothing recommendation information to the management controller 130 so that the generated clothing recommendation information is displayed on the screen as customized clothing recommendation information. In addition, the generation unit 120 generates a first user avatar wearing clothes corresponding to the generated clothing recommendation information, stores it in the first storage unit 250, and the user terminal 1 to obtain an augmented reality image. ) can be overlapped and displayed on the real image displayed on the screen.

상술한 일예에서는, 생성부(120)가 사용자 개인의 병원 방문 이력 정보, 사용자의 생체정보, 및 사용자의 체질 정보 중 적어도 하나를 더 고려하여 의류 추천 정보를 생성함에 있어서, 예시적으로 사용자 개인의 병원 방문 이력 정보를 고려하여 의류 추천 정보를 생성하는 경우에 대하여 구체적으로 예시하였다. 이는 본원의 이해를 돕기 위한 하나의 예시일 뿐, 이에만 한정되는 것은 아니고, 사용자의 생체정보와 사용자의 체질 정보를 고려하여 의류 추천 정보를 생성하는 과정은, 사용자 개인의 병원 방문 이력 정보를 고려하여 의류 추천 정보를 생성하는 과정과 대비하여 그와 동일하거나 그와 유사한 방식으로 이루어질 수 있다. 따라서, 이하 생략된 내용이라 하더라도, 사용자 개인의 병원 방문 이력 정보를 고려한 의류 추천 정보의 생성 과정에 대한 설명은, 고려 대상만 다를 뿐 사용자의 생체정보를 고려한 의류 추천 정보의 생성 과정 및 사용자의 체질 정보를 고려한 의류 추천 정보의 생성 과정에 대한 설명에도 동일하게 적용될 수 있다.In the above-described example, when generating the clothing recommendation information by further considering at least one of the user's personal hospital visit history information, the user's biometric information, and the user's constitution information, the generating unit 120 exemplarily includes the user's personal information. A case in which clothing recommendation information is generated in consideration of hospital visit history information has been specifically exemplified. This is only an example to help the understanding of the present application, and is not limited thereto, and the process of generating clothing recommendation information in consideration of the user's biometric information and the user's constitution information considers the user's personal hospital visit history information Thus, in comparison with the process of generating the clothing recommendation information, the same or similar method may be used. Therefore, even if omitted below, the description of the process of generating the clothing recommendation information in consideration of the user's personal hospital visit history information differs only in the consideration subject, but the process of generating the clothing recommendation information in consideration of the user's biometric information and the user's constitution The same may be applied to a description of a process of generating clothing recommendation information in consideration of the information.

소유 의류 관리부(150)는 사용자가 소유한 소유 의류에 관한 정보를 획득하여 소유 의류 저장부(180)에 저장하고 관리할 수 있다.The owned clothing management unit 150 may obtain information about the owned clothing owned by the user, store it in the owned clothing storage unit 180 , and manage it.

여기서, 소유 의류라 함은 사용자가 실제 가지고 있는 의류(예를 들어, 옷, 바지, 치마, 원피스, 정장 등)를 의미할 수 있다. 여기서, 소유 의류에 대한 정보는 해당 의류(소유 의류)에 대한 이미지 정보, 소유 의류를 구입한 날짜 정보 및 소유 의류의 속성 정보 중 적어도 하나가 포함될 수 있으며, 이에 한정되는 것은 아니고 각종 정보가 저장될 수 있다.Here, the owned clothes may mean clothes that the user actually owns (eg, clothes, pants, skirts, dresses, suits, etc.). Here, the information on the owned clothing may include at least one of image information on the corresponding clothing (owned clothing), purchase date information of the owned clothing, and attribute information of the owned clothing, but is not limited thereto. can

여기서, 소유 의류에 관한 정보는 일예로 사용자가 사용자 단말(1)을 통해 직접 타이핑함으로써 획득될 수 있다. 다른 일예로, 소유 의류에 관한 정보는 사용자가 사용자 단말(1)의 이미지 센서(미도시)를 통해 소유 의류를 촬영함으로써 획득될 수 있다. 또 다른 일예로, 소유 의류에 관한 정보는, 사용자가 사용자 단말(1)의 이미지 센서(미도시)를 통해 소유 의류에 대한 이미지 정보를 획득한 경우, 획득된 이미지 정보에 대한 이미지 분석을 통해 획득된 이미지 정보 내 소유 의류와 매칭되는 의류(매칭 의류)를 인터넷(혹은 온라인 쇼핑몰) 상에서 검색하고, 검색된 매칭 의류에 대하여 기록된 정보를 크롤링(수집)함으로써 획득될 수 있다. 다만, 이러한 예들은 본원의 이해를 돕기 위한 예시일 뿐, 이에만 한정되는 것은 아니고, 다양한 방식으로 소유 의류에 관한 정보가 획득될 수 있다.Here, the information on the owned clothing may be obtained by, for example, a user directly typing through the user terminal 1 . As another example, the information on the owned clothes may be obtained by the user photographing the owned clothes through an image sensor (not shown) of the user terminal 1 . As another example, when a user acquires image information on owned clothing through an image sensor (not shown) of the user terminal 1 , the information on owned clothing is obtained through image analysis on the acquired image information. It can be obtained by searching the Internet (or online shopping mall) for clothes (matching clothes) matching the owned clothes in the image information, and crawling (collecting) recorded information about the searched matching clothes. However, these examples are merely examples for helping understanding of the present disclosure, and the present disclosure is not limited thereto, and information on owned clothing may be obtained in various ways.

다시 말해, 일예로 소유 의류에 관한 정보는, 사용자가 직접 타이핑하여 입력하거나, 혹은 사용자가 소유 의류에 대한 품번 정보를 입력하면 그와 매칭되는 정보를 온라인 쇼핑몰 또는 의류 업체 DB와 연동하여 검색함으로써 자동으로 해당 온라인 쇼핑몰 사이트로부터 상세 정보를 추출해 옴으로써 입력될 수 있다. 이러한 소유 의류에 관한 정보에는 소유 의류의 이미지 정보, 제조년도 정보, 구입 날짜 정보, 색상, 컬러, 사이즈 등에 관한 정보가 포함될 수 있다.In other words, as an example, information on owned clothing is automatically entered by a user directly typing or when a user inputs part number information about owned clothing, matching information is searched for by linking with an online shopping mall or clothing company DB. can be input by extracting detailed information from the corresponding online shopping mall site. The information on the owned clothing may include image information of the owned clothing, manufacturing year information, purchase date information, color, color, size, and the like information.

소유 의류 관리부(150)는 이력 저장부(170)에 기 저장된 복수의 착용 의류 이력 데이터의 분석을 기반으로 소유 의류 저장부(180)에 저장된 소유 의류(소유 의류들) 중 기 설정된 닳음 조건을 충족하는 닳음 의류를 식별할 수 있다.The owned clothing management unit 150 satisfies a preset wear condition among the owned clothing (owned clothing) stored in the owned clothing storage unit 180 based on the analysis of a plurality of worn clothing history data previously stored in the history storage unit 170 . worn-out clothing can be identified.

여기서, 기 설정된 닳음 조건은, 일예로 소유 의류 저장부(180)에 저장된 소유 의류(들) 중 사용자에 의해 착용 의류로 선택된 횟수가 미리 설정된 횟수 이상인 조건일 수 있다. 미리 설정된 횟수는 예시적으로 80회, 100회 등과 같이 설정될 수 있으며, 이에만 한정되는 것은 아니고 다양하게 설정될 수 있다.Here, the preset wear-out condition may be, for example, a condition in which the number of times the number of times the user selects the clothes to be worn among the owned clothes(s) stored in the owned clothes storage unit 180 is equal to or greater than the preset number of times. The preset number of times may be set, for example, 80 times, 100 times, etc., and is not limited thereto and may be variously set.

다른 일예로, 기 설정된 닳음 조건은, 소유 의류 저장부(180)에 저장된 소유 의류(들) 중 소유 의류를 구입한 날짜 정보에 해당하는 날짜로부터 미리 설정된 기간이 경과한 조건일 수 있다. 여기서, 소유 의류를 구입한 날짜 정보는 소유 의류 저장부(180)에 저장되는 소유 의류에 관한 정보로부터 식별될 수 있다. 또한, 미리 설정된 기간은 일예로 3년일 수 있으며, 이에만 한정되는 것은 아니고 다양하게 설정될 수 있다.As another example, the preset wear-out condition may be a condition in which a preset period has elapsed from a date corresponding to information on the purchase date of the owned clothing among the owned clothing(s) stored in the owned clothing storage unit 180 . Here, the information on the purchase date of the owned clothing may be identified from information about the owned clothing stored in the owned clothing storage unit 180 . In addition, the preset period may be, for example, three years, and is not limited thereto and may be variously set.

이에 따르면, 소유 의류 관리부(150)는 소유 의류 저장부(180)에 저장된 소유 의류에 관한 정보 중 일예로 착용 횟수가 80회 이상이거나 혹은 구입한 날짜로부터 3년이 경과한 소유 의류를 기 설정된 닳음 조건을 충족하는 닳음 의류로서 식별할 수 있다.According to this, the owned clothing management unit 150 sets the number of wearing of the owned clothing stored in the owned clothing storage unit 180, for example, 80 times or more, or 3 years from the date of purchase, the predetermined wear of the owned clothing. It can be identified as a worn-out garment that meets the conditions.

생성부(120)는 소유 의류 관리부(150)에 의한 닳음 의류의 식별에 응답하여, 식별된 닳음 의류의 대체를 위한 대체 의류 추천 리스트를 생성하여 화면 상에 표시하기 위해 생성된 대체 의류 추천 리스트를 관리 제어부(130)로 제공할 수 있다.The generation unit 120 generates a replacement clothing recommendation list for replacing the identified worn clothing in response to the identification of the worn clothing by the owned clothing management unit 150 and displays the generated replacement clothing recommendation list on the screen. It may be provided to the management control unit 130 .

즉, 소유 의류 관리부(150)가 소유 의류 저장부(180)에 저장된 소유 의류에 관한 정보 중 적어도 하나를 닳음 의류로 식별한 경우, 생성부(120)는 닳음 의류의 식별에 응답하여, 식별된 닳음 의류를 다른 의류로 대체할 대체 의류를 추천하기 위한 추천 리스트(즉, 대체 의류 추천 리스트)를 생성할 수 있다. 이후, 생성부(120)는 생성된 대체 의류 추천 리스트를 화면에 표시하기 위해 관리 제어부(130)로 제공할 수 있으며, 관리 제어부(130)는 제공받은 대체 의류 추천 리스트를 화면의 일영역에 표시할 수 있다.That is, when the owned clothing management unit 150 identifies at least one piece of information on the owned clothing stored in the owned clothing storage unit 180 as worn clothing, the generation unit 120 responds to the identification of the worn clothing, A recommendation list (ie, a replacement clothing recommendation list) for recommending replacement clothing for replacing worn clothing with other clothing may be generated. Thereafter, the generation unit 120 may provide the generated replacement clothing recommendation list to the management control unit 130 to display it on the screen, and the management control unit 130 displays the provided replacement clothing recommendation list on one area of the screen. can do.

다시 말해, 생성부(120)는, 소유 의류 관리부(150)에 의해 닳음 의류가 식별되면, 식별된 닳음 의류와 관련하여 대체 가능한 대체 의류의 추천을 위한 대체 의류 추천 리스트를 생성하여 제공할 수 있다.In other words, when worn clothing is identified by the owned clothing management unit 150 , the generation unit 120 may generate and provide a replacement clothing recommendation list for recommending replacement clothing that can be replaced in relation to the identified worn clothing. .

이때, 대체 의류 추천 리스트에 포함된 대체 의류에는, 온라인 쇼핑몰 상에서 판매(거래)되는 의류 중 적어도 하나의 의류가 포함될 수 있다. 특히, 대체 의류 추천 리스트에 포함된 대체 의류에는, 닳음 의류와 동일한 의류인 동일(동종) 대체 의류 및 닳음 의류와 유사 성능을 가진 다른 이종의 의류인 유사 대체 의류(혹은 이종 대체 의류)가 포함될 수 있다.In this case, the replacement clothing included in the replacement clothing recommendation list may include at least one piece of clothing sold (traded) on the online shopping mall. In particular, the replacement clothing included in the replacement clothing recommendation list may include the same (same) replacement clothing, which is the same clothing as the worn-out clothing, and similar replacement clothing (or dissimilar replacement clothing), which is a different type of clothing with similar performance to the worn-out clothing. have.

특히나, 유사 대체 의류로는 대체가 필요하다고 판단된 닳음 의류 대비 후기(평가)가 더 좋거나 가격이 더 낮거나, 품질이 더 좋은 의류가 포함될 수 있다.In particular, similar replacement clothing may include clothing with better reviews (evaluation), lower price, or higher quality compared to worn out clothing determined to be replaced.

이에 따르면, 본 장치(100)는 사용자가 소유하고 있는 소유 의류들 중 기 설정된 닳음 조건을 충족하는 닳음 의류에 대하여, 닳음 의류에 대한 교체가 필요하다고 판단하여 그와 동일하거나 혹은 그와 유사한 성능을 가진 다른 의류를 포함하는 대체 의류 추천 리스트를 제공함으로써, 닳음 의류를 대체할 의류를 결정함에 있어서 사용자가 여러 의류들을 쉽게 비교해 보고 보다 합리적으로 선택할 수 있도록 할 수 있다.According to this, the apparatus 100 determines that replacement of the worn-out clothing is necessary for worn-out clothing that meets a preset wear-out condition among the owned clothing owned by the user, and provides the same or similar performance to that of the worn-out clothing. By providing a replacement clothing recommendation list including other clothing owned by the user, in determining clothing to replace worn clothing, the user can easily compare various clothing and select more rationally.

즉, 본 장치(100)는 닳음 의류가 식별된 경우, 식별된 닳음 의류에 대하여 대체(교체)가 필요하다고 판단하여 닳음 의류의 대체를 위한 대체 의류 추천 리스트를 제공할 수 있는데, 이때 닳음 의류와 동일한 의류뿐만 아니라 그와는 동류가 상이하나 성능이 좋은 가성비 좋은 의류를 함께 대체 의류로서 대체 의류 추천 리스트에 포함시켜 제공(추천)할 수 있다. 이러한 본 장치(100)는 사용자로 하여금 닳음 의류의 대체(교체)시 합리적으로 제품 비교/선택이 가능하도록 하고, 보다 용이하고 효율적으로 대체(교체) 및 관리가 이루어지도록 지원할 수 있다.That is, when worn clothing is identified, the apparatus 100 determines that replacement (replacement) is necessary for the identified worn clothing, and may provide a replacement clothing recommendation list for replacement of the worn clothing. In this case, the worn clothing and It is possible to provide (recommend) not only the same clothing but also clothing of the same type but with good performance and good performance, included in the replacement clothing recommendation list as replacement clothing. This device 100 allows the user to rationally compare/select products when replacing (replacement) worn out clothing, and can support replacement (replacement) and management more easily and efficiently.

일정 판단부(160)는, 감지부(110)가 감지한 촬영 모드 감지 시점에 해당하는 날짜에 지인과의 만남과 관련된 기등록 일정 정보(즉, 지인과의 만남 관련 일정 정보)가 존재하는지 판단할 수 있다.The schedule determination unit 160 determines whether pre-registered schedule information related to a meeting with an acquaintance (ie, schedule information related to a meeting with an acquaintance) exists on a date corresponding to the detection time of the shooting mode detected by the sensing unit 110 . can do.

이러한 일정 정보는 일예로 본 장치(100)를 통해 제공되는 일정 관리 메뉴(예를 들어, 캘린더 메뉴)에 기록된 정보를 의미할 수 있다. 일예로, 사용자는 복수의 지인 중 제1 지인과 모레에 만나기로 만남을 약속한 경우, 본 장치(100)를 통해 제공되는 일정 관리 메뉴로 들어가 모레에 해당하는 날짜에 '제1 지인과 오후 3시에 만나기로 함'과 같은 일정 정보를 저장(기록)할 수 있다.Such schedule information may refer to, for example, information recorded in a schedule management menu (eg, a calendar menu) provided through the device 100 . For example, when the user promises to meet the first acquaintance among a plurality of acquaintances the next day, the user enters the schedule management menu provided through the device 100 and enters '3 pm with the first acquaintance on the date corresponding to the day after day. You can save (record) schedule information such as 'to meet at

이때, 촬영 모드 감지 시점에 해당하는 날짜에 제1 지인과의 만남과 관련된 기등록 일정 정보가 존재하는 것으로 판단할 수 있다. 생성부(120)는 일정 판단부(160)에 의한 판단 결과 기 등록 일정 정보가 존재하는 경우, 이력 저장부(170)에 기 저장된 복수의 착용 의류 이력 데이터의 분석을 기반으로 하여 과거에 지인(일예로, 제1 지인)의 만남시 착용했던 착용 소장 의류에 대한 지인 통계 정보를 산출하고, 산출된 지인 통계 정보를 기반으로 의류 추천 정보를 재생성할 수 있다.In this case, it may be determined that pre-registration schedule information related to the meeting with the first acquaintance exists on the date corresponding to the time of sensing the shooting mode. As a result of determination by the schedule determining unit 160 , when there is pre-registration schedule information, the generating unit 120 determines whether previously registered acquaintances ( For example, it is possible to calculate acquaintance statistical information on the collection clothing worn when the first acquaintance) met, and regenerate clothing recommendation information based on the calculated acquaintance statistical information.

이에 따르면, 분석부(미도시)는 이력 저장부(170)에 기 저장된 복수의 착용 의류 이력 데이터를 기초로 상관 관계의 분석을 통해 상술한 사용자 체감 특성 정보를 획득할 수 있을 뿐만 아니라, 기 저장된 복수의 착용 의류 이력 데이터를 기초로 통계 분석을 수행함으로써 통계 정보를 생성할 수 있다.According to this, the analysis unit (not shown) can acquire the above-described user's sensible characteristic information through correlation analysis based on a plurality of pre-stored worn clothing history data in the history storage unit 170 , and also obtain the previously stored Statistical information may be generated by performing statistical analysis based on a plurality of worn clothing history data.

이력 저장부(170)에 대한 착용 의류 이력 데이터의 저장시, 일예로 착용 의류 이력 데이터의 저장이 이루어지는 시점에 대응하는 일정 정보(특히, 지인 정보를 포함한 일정 정보)가 존재하는 경우, 이력 저장부(170)에는 착용 의류 이력 데이터에 일정 정보(특히, 지인 정보를 포함한 일정 정보)가 함께 연계되어 저장될 수 있다.When storing the worn clothing history data in the history storage 170 , for example, when there is schedule information (particularly, schedule information including acquaintance information) corresponding to the time when the worn clothing history data is stored, the history storage unit At 170 , schedule information (particularly, schedule information including acquaintance information) may be linked and stored in the worn clothing history data.

즉, 상술한 일예에서는 사용자 주변 환경의 온도 측정 값, 입력 시점 날씨 예보 정보 및 착용 의류의 속성 정보 중 적어도 하나와 체감 온도 정보의 입력 값을 서로 연계시켜 하나의 데이터 세트로 구성함으로써 이를 착용 의류 이력 데이터로 이력 저장부(170)에 저장하는 것으로 예시하였으나, 이에 한정되는 것은 아니고, 지인 정보를 포함한 일정 정보가 존재하는 경우에는 일정 정보를 더 연계시킨 착용 의류 이력 데이터를 이력 저장부(170)에 저장할 수 있다.That is, in the above-described example, at least one of the temperature measurement value of the user's surrounding environment, the weather forecast information at the time of input, and the attribute information of the worn clothing and the input value of the sensible temperature information are linked to each other to form a single data set, and the worn clothing history Although it has been exemplified as storing data in the history storage unit 170 , the present invention is not limited thereto, and when certain information including acquaintance information exists, worn clothing history data in which the predetermined information is further linked is stored in the history storage unit 170 . can be saved

이를 통해, 분석부(미도시)는 이력 저장부(170)에 저장된 복수의 착용 의류 이력 데이터에 대한 통계 분석을 통해 통계 정보를 생성할 수 있다.Through this, the analysis unit (not shown) may generate statistical information through statistical analysis of a plurality of worn clothing history data stored in the history storage unit 170 .

이후, 생성부(120)는, 촬영 모드 감지 시점에 해당하는 특정 날짜에 일예로 제1 지인과 관련된 기등록 일정 정보가 존재하는 것으로 판단된 경우, 분석부(미도시)의 분석(통계 분석)을 통해 생성된 통계 정보를 기반으로 하여, 과거에 제1 지인을 만날 때 착용했었던 착용 소장 의류에 대한 지인 통계 정보를 산출하고, 산출된 지인 통계 정보를 기반으로 의류 추천 정보를 재생성할 수 있다.Thereafter, when it is determined that, for example, pre-registered schedule information related to the first acquaintance exists on a specific date corresponding to the sensing time of the shooting mode, the generating unit 120 analyzes (statistical analysis) of the analyzing unit (not shown). Based on the statistical information generated through , it is possible to calculate acquaintance statistical information about the clothes owned by the wearer that was worn when meeting the first acquaintance in the past, and regenerate clothing recommendation information based on the calculated acquaintance statistical information.

이때, 일정 정보(혹은 통계 정보)의 고려 없이, 생성부(120)가 사용자 체감 특성 정보와 날씨 예보 정보를 고려하여 생성한 의류 추천 정보는 제1 의류 추천 정보라 지칭될 수 있다. 반면, 일정 정보(혹은 통계 정보)를 고려하여 생성된 의류 추천 정보는 제1 의류 추천 정보와는 다른 의류 추천 정보로서 제2 의류 추천 정보라 지칭될 수 있다. 즉, 생성부(120)는 일정 정보(혹은 통계 정보)를 고려하여 의류 추천 정보를 제1 의류 추천 정보가 아닌 제2 의류 추천 정보로 재생성할 수 있다.In this case, the clothing recommendation information generated by the generator 120 in consideration of the user's sensible characteristic information and the weather forecast information without considering the schedule information (or statistical information) may be referred to as first clothing recommendation information. On the other hand, the clothing recommendation information generated in consideration of the schedule information (or statistical information) is different from the first clothing recommendation information, and may be referred to as second clothing recommendation information. That is, the generator 120 may regenerate the clothing recommendation information as the second clothing recommendation information instead of the first clothing recommendation information in consideration of the schedule information (or statistical information).

구체적으로, 사용자 체감 특성 정보와 날씨 예보 정보를 고려하여 생성된 의류 추천 정보는 제1 의류 추천 정보일 수 있다. 생성부(120)는 산출된 지인 통계 정보를 기반으로 하여, 앞서 생성된 제1 의류 추천 정보에 대응하는 소장 의류의 착용 횟수(즉, 제1 의류 추천 정보에 대응하는 소장 의류를 과거에 제1 지인을 만날 때 착용했었던 횟수)가 기 설정된 착용 횟수를 초과하는 것으로 판단되면, 앞서 생성된 의류 추천 정보(제1 의류 추천 정보)를 제1 의류 추천 정보와는 다른 제2 의류 추천 정보로 재생성할 수 있다. 이후, 관리 제어부(130)는 재생성된 제2 의류 추천 정보를 맞춤 의류 추천 정보로서 화면에 표시할 수 있다.Specifically, the clothing recommendation information generated in consideration of the user's sensible characteristic information and the weather forecast information may be the first clothing recommendation information. Based on the calculated acquaintance statistical information, the generation unit 120 is configured to wear the owned clothing corresponding to the previously generated first clothing recommendation information (that is, to select the collected clothing corresponding to the first clothing recommendation information for the first time in the past). If it is determined that the number of times worn when meeting an acquaintance) exceeds the preset number of wearing, the previously generated clothing recommendation information (first clothing recommendation information) is regenerated into second clothing recommendation information different from the first clothing recommendation information. can Thereafter, the management controller 130 may display the regenerated second clothing recommendation information as customized clothing recommendation information on the screen.

여기서, 기 설정된 착용 횟수는 예시적으로 5회로 설정될 수 있으나, 이에만 한정되는 것은 아니고, 그 횟수는 다양하게 설정될 수 있다.Here, the preset number of wearing may be exemplarily set to 5, but is not limited thereto, and the number of times may be variously set.

이에 따르면, 생성부(120)는 제1 의류 추천 정보에 대응하는 소장 의류가, 과거에 특정 지인(제1 지인)을 만났을 때 여러 번(일예로 기 설정된 착용 횟수인 5회 이상) 입었었던 의류인 경우, 제1 의류 추천 정보에 대응하는 소장 의류와는 다른 의류를 포함하는 제2 의류 추천 정보를 생성할 수 있다.According to this, the generation unit 120 generates the clothing that the collectible clothing corresponding to the first clothing recommendation information has worn several times (for example, 5 times or more, which is a preset number of times) when meeting a specific acquaintance (first acquaintance) in the past. In the case of , second clothing recommendation information including clothes different from the collected clothes corresponding to the first clothes recommendation information may be generated.

다른 일예로 일정 정보(지인 통계 정보)와는 무관하게, 생성부(120)는 분석부(미도시)의 분석에 의해 획득된 통계 정보를 기반으로 하여, 일예로 제1 의류 추천 정보에 대응하는 소장 의류의 착용 횟수가 미리 설정된 구간 기간 동안 기 설정 횟수 이상으로 판단되면, 의류 추천 정보를 제1 의류 추천 정보가 아닌 제2 의류 추천 정보로 재생성 할 수 있다. 여기서, 미리 설정된 구간 기간은 일예로 의류 추천 정보의 생성이 이루어지는 시점으로부터 일주일 이전 기간, 이주일 이전 기간 등일 수 있으며, 이에 한정되는 것은 아니다. 또한, 기 설정된 횟수는 일예로 3회일 수 있으나, 이에 한정되는 것은 아니다.In another example, regardless of schedule information (statistical information of acquaintances), the generation unit 120 based on the statistical information obtained by the analysis of the analysis unit (not shown), for example, the collection corresponding to the first clothing recommendation information. If it is determined that the number of times of wearing clothes is greater than or equal to the preset number of times during a preset period, the clothes recommendation information may be regenerated as the second clothes recommendation information instead of the first clothes recommendation information. Here, the preset section period may be, for example, a period before one week or two weeks before the time when the clothing recommendation information is generated, and the like, but is not limited thereto. In addition, the preset number of times may be, for example, three times, but is not limited thereto.

이에 따르면, 생성부(120)는 제1 의류 추천 정보에 대응하는 소장 의류가, 근래에 일예로 일주일 동안에 여러 번(일예로, 기 설정된 횟수인 3회 이상) 입었던 의류인 경우, 제1 의류 추천 정보에 대응하는 소장 의류와는 다른 의류를 포함하는 제2 의류 추천 정보를 생성할 수 있다.Accordingly, when the collectible clothing corresponding to the first clothing recommendation information is clothing that has been recently worn multiple times (eg, three or more times a preset number of times) in a week, for example, the generation unit 120 recommends the first clothing. Second clothing recommendation information including clothing different from the collected clothing corresponding to the information may be generated.

이때, 생성부(120)에 의해 생성되는 의류 추천 정보(즉, 제1 의류 추천 정보와 제2 의류 추천 정보를 포함하는 의류 추천 정보)는, 소유 의류 저장부(180)에 저장된 소유 의류(소유 의류들)를 기반으로 생성되는 정보일 수 있다. 즉, 생성부(120)는 사용자가 소유하고 있는 의류(소유 의류)를 기반으로 하여 의류 추천 정보를 생성할 수 있다.In this case, the clothing recommendation information generated by the generator 120 (that is, clothing recommendation information including the first clothing recommendation information and the second clothing recommendation information) is stored in the owned clothing storage unit 180 of the owned clothing (owned). It may be information generated based on clothes). That is, the generator 120 may generate the clothing recommendation information based on the clothing (owned clothing) owned by the user.

또한, 일예로 관리 제어부(130)는 일정 판단부(160)에 의한 판단 결과, 촬영 모드 감지 시점에 해당하는 날짜에 대하여 지인(일예로 제1 지인)과의 만남과 관련된 기등록 일정 정보가 존재하는 것으로 판단된 경우, 기등록 일정 정보에 포함되어 있는 지인(일예로 제1 지인)에 관한 지인정보(제1 지인정보)를 식별하고, 식별된 지인 정보(제1 지인정보)로부터 제1 지인의 연락처 정보를 추출할 수 있다. 여기서, 지인정보에는 지인의 이름, 연락처, 주소 등이 포함될 수 있으나, 이에만 한정되는 것은 아니고 다양한 정보가 포함될 수 있다. 이후, 관리 제어부(130)는 추출된 제1 지인의 연락처 정보를 기반으로, 사용자와 지인(제1 지인)이 서로 간에 함께 하기로 한 만남 관련 일정 정보(즉, 지인과의 만남과 관련된 기등록 일정 정보)에 관한 일정 알림 메시지를 제공할 수 있다.In addition, as an example, the management control unit 130 includes, as a result of determination by the schedule determination unit 160 , pre-registered schedule information related to a meeting with an acquaintance (eg, the first acquaintance) with respect to a date corresponding to the time of detection of the shooting mode. If it is determined to do so, acquaintance information (first acquaintance information) about the acquaintance (eg, first acquaintance) included in the pre-registration schedule information is identified, and the first acquaintance information (first acquaintance information) is identified. of contact information can be extracted. Here, the acquaintance information may include the acquaintance's name, contact information, address, etc., but is not limited thereto and may include various information. Then, the management control unit 130, based on the extracted contact information of the first acquaintance, the user and the acquaintance (the first acquaintance) with each other, meeting related schedule information (ie, pre-registration related to the meeting with the acquaintance) schedule information) may be provided.

이때, 관리 제어부(130)는 일정 알림 메시지를 기등록 일정 정보에 대응하는 날짜(촬영 모드 감지 시점에 해당하는 날짜)로부터 미리 설정된 시간 이전에 제공할 수 있다. 여기서, 미리 설정된 시간은 예시적으로 24시간 전일 수 있으나, 이에만 한정되는 것은 아니다. 또한, 관리 제어부(130)는 일정 알림 메시지를 기등록 일정 정보를 저장한 사용자의 사용자 단말(1)과 기등록 일정 정보와 관련된 지인(제1 지인)의 단말에 함께 제공할 수 있다.In this case, the management control unit 130 may provide the schedule notification message before a preset time from the date corresponding to the pre-registered schedule information (the date corresponding to the detection time of the shooting mode). Here, the preset time may exemplarily be 24 hours before, but is not limited thereto. In addition, the management control unit 130 may provide the schedule notification message to the user terminal 1 of the user who has stored the previously registered schedule information and to the terminal of the acquaintance (the first acquaintance) related to the previously registered schedule information.

즉, 관리 제어부(130)는 일정 알림 메시지를 제공함에 있어서, 지인과의 만남과 관련된 일정 정보를 기 등록해둔 사용자의 사용자 단말(1)로만 제공하는 것이 아니라, 사용자 단말(1) 및 기등록 일정 정보에 포함된 지인의 연락처 정보에 대응하는 지인의 단말 각각에게 모두 일정 알림 메시지를 제공할 수 있다.That is, in providing the schedule notification message, the management control unit 130 does not provide schedule information related to a meeting with an acquaintance only to the user terminal 1 of the previously registered user, but the user terminal 1 and the pre-registered schedule. A schedule notification message may be provided to each terminal of the acquaintance corresponding to the contact information of the acquaintance included in the information.

이에 따르면, 본 장치(100)는 사용자와 지인(제1 지인)이 서로 간에 함께 하기로 한 만남 약속에 대한 일정 공지(일정 알림)가, 해당 일정을 자신의 단말에 등록/저장해둔 사용자뿐만 아니라, 해당 일정과 관련된 지인(즉, 제1 지인) 모두에게 함께(동시에) 알려지도록 할 수 있다. 이러한 본 장치(100)는 제1 지인이 사용자와의 만남(만남 약속)에 관한 일정을 별도로 기록하거나 메모해두지 않았다 할지라도, 사용자가 자신의 단말(사용자 단말)에 기 등록해 둔 기등록 일정 정보로 하여금 제1 지인이 만남(만남 약속)에 관한 일정에 대한 알림을 제공받을 수 있도록 할 수 있어, 자신(사용자)뿐만 아니라 만남 약속을 함께 하기로 한 상대방(일예로, 제1 지인)이 해당 일정을 망각하지 않도록 상기시켜, 서로 간에 원활한 만남의 진행이 이루어지도록 도울 수 있다.According to this, the device 100 provides a schedule notification (schedule notification) for a meeting appointment between the user and the acquaintance (the first acquaintance), as well as the user who has registered/stored the schedule in his/her terminal. , it can be made known together (simultaneously) to all acquaintances (ie, first acquaintances) related to the corresponding schedule. In this device 100, even if the first acquaintance does not separately record or memorize a schedule related to a meeting (meeting appointment) with the user, the user has a pre-registered schedule registered in his/her terminal (user terminal). The information allows the first acquaintance to receive a notification of the schedule for the meeting (meeting appointment), so that not only the user (the user) but also the other party (eg, the first acquaintance) who has decided to make the meeting appointment together By reminding them not to forget the schedule, they can help make the meeting go smoothly.

즉, 관리 제어부(130)는 사용자 단말(1) 및 지인의 단말 각각에 대하여 일정 알림 메시지를 제공할 수 있다. 이때, 본 장치(100)는 일예로 사용자 단말(1)에 일정 알림 메시지를 제공(사용자 단말의 화면에 일정 알림 메시지를 표시)한 이후, 그에 응답하여 제공된 일정 알림 메시지를 확인하였음을 나타내는 메시지 확인 신호를 사용자 입력(일예로 화면에 대한 터치 입력 등)을 통해 수신할 수 있다.That is, the management control unit 130 may provide a schedule notification message to each of the user terminal 1 and the terminal of the acquaintance. In this case, the device 100 provides, for example, a schedule notification message to the user terminal 1 (displaying a schedule notification message on the screen of the user terminal), and then confirms a message indicating that the provided schedule notification message is checked in response The signal may be received through a user input (for example, a touch input to the screen, etc.).

이때, 관리 제어부(130)는 사용자 단말(1)에 일정 알림 메시지를 제공한 이후, 미리 설정된 시간(일예로 3시간) 내에 메시지 확인 신호가 수신되지 않는 경우(즉, 제공된 일정 알림 메시지에 대하여 사용자의 확인 입력이 이루어지지 않은 경우), 사용자가 제공된 일정 알림 메시지를 확인하지 못한 것으로 인지하여, 일정 알림 메시지의 제공에 대한 알림 제공 유형을 변경시킬 수 있다.In this case, the management control unit 130 provides a schedule notification message to the user terminal 1, if the message confirmation signal is not received within a preset time (for example, 3 hours) (that is, the user with respect to the provided schedule notification message) is not inputted), the user may recognize that the provided schedule notification message has not been checked, and the notification provision type for providing the schedule notification message may be changed.

여기서, 알림 제공 유형을 변경시킨다 함은 일예로 일정 알림 메시지의 알림 제공 유형이 현재 진동 알림인 경우, 일정 알림 메시지의 진동 세기를 제1 진동 세기에서 그보다 더 강한 세기의 제2 진동 세기로 변경시키는 것을 의미할 수 있다. 이에 따르면, 관리 제어부(130)는 사용자 단말(1)로 일정 알림 메시지를 1차적으로 제1 진동 세기로 제공한 이후 미리 설정된 시간(일예로 3시간) 내에 메시지 확인 신호가 수신되지 않은 경우, 관리 제어부(130)는 진동 세기를 제1 진동 세기에서 제2 진동 세기로 변경시킨 다음, 변경된 제2 진동 세기를 갖는 일정 알림 메시지를 다시 사용자 단말(1)로 제공(전송)할 수 있다.Here, changing the notification providing type means, for example, when the notification providing type of the schedule notification message is the current vibration notification, changing the vibration strength of the schedule notification message from the first vibration strength to the second vibration strength stronger than that can mean that According to this, the management control unit 130 manages when a message confirmation signal is not received within a preset time (for example, 3 hours) after primarily providing the schedule notification message to the user terminal 1 at the first vibration intensity. The controller 130 may change the vibration strength from the first vibration strength to the second vibration strength, and then provide (transmit) a schedule notification message having the changed second vibration strength to the user terminal 1 again.

다른 일예로, 알림 제공 유형을 변경시킨다 함은 일예로 일정 알림 메시지의 알림 제공 유형이 현재 진동 알림인 경우, 일정 알림 메시지의 알림 제공 종류를 다른 이종의 종류로 변경시키는 것을 의미할 수 있다. 여기서, 알림 제공 종류에는 진동 알림, 소리 알림 및 전화 알림 중 적어도 하나가 포함될 수 있다. 이에 따르면, 관리 제어부(130)는 사용자 단말(1)로 일정 알림 메시지를 1차적으로 진동 알림으로 제공한 이후 미리 설정된 시간(일예로 3시간) 내에 메시지 확인 신호가 수신되지 않은 경우, 관리 제어부(130)는 알림 제공 종류를 진동 알림에서 소리 알림으로 변경시킨 다음, 변경된 소리 알림을 갖는 일정 알림 메시지를 다시 사용자 단말(1)로 제공할 수 있다. 이러한 소리 알림을 갖는 일정 알림 메시지의 제공에 의하면, 그에 응답하여 사용자 단말(1)에서는 스피커부(미도시)를 통해 '일정 알림 메시지가 존재합니다'와 같은 소리 알림이 출력될 수 있다.As another example, changing the notification providing type may mean changing the notification providing type of the schedule notification message to a different type when, for example, the notification providing type of the schedule notification message is a current vibration notification. Here, the notification providing type may include at least one of a vibration notification, a sound notification, and a phone notification. According to this, if the management control unit 130 does not receive a message confirmation signal within a preset time (for example, 3 hours) after providing the schedule notification message to the user terminal 1 as a vibration notification primarily, the management control unit ( 130) may change the notification providing type from the vibration notification to the sound notification, and then provide a schedule notification message having the changed sound notification to the user terminal 1 again. According to the provision of the schedule notification message having such a sound notification, in response thereto, the user terminal 1 may output a sound notification such as 'a schedule notification message exists' through the speaker unit (not shown).

만약, 관리 제어부(130)는 사용자 단말(1)로 일정 알림 메시지를 1차적으로 소리 알림으로 제공한 이후 미리 설정된 시간(일예로 3시간) 내에 메시지 확인 신호가 수신되지 않은 경우, 관리 제어부(130)는 알림 제공 종류를 소리 알림에서 전화 알림으로 변경시킨 다음, 변경된 전화 알림을 갖는 일정 알림 메시지를 다시 사용자 단말(1)로 제공할 수 있다. 이러한 전화 알림을 갖는 일정 알림 메시지의 제공에 의하면, 그에 응답하여 사용자 단말(1)에는 ARS와 같은 자동응답 전화 연결이 이루어지고, 이러한 ARS 를 통해 사용자에게 일정 알림 메시지의 제공이 이루어질 수 있다.If the management control unit 130 does not receive a message confirmation signal within a preset time (for example, 3 hours) after providing the schedule notification message to the user terminal 1 as a sound notification, the management control unit 130 ) may change the notification providing type from a sound notification to a phone notification, and then provide a schedule notification message having the changed phone notification to the user terminal 1 again. According to the provision of the schedule notification message having such a call notification, an automatic answering phone connection such as an ARS is made to the user terminal 1 in response thereto, and the schedule notification message can be provided to the user through the ARS.

이처럼, 본 장치(100)는 일정 알림 메시지를 1차 제공한 이후, 그에 대한 응답(메시지 확인 신호)이 미리 설정된 시간(일예로 3시간) 내에 수신되지 않으면, 알림 제공 유형을 변경시켜 변경된 알림 제공 유형의 방식으로 다시 일정 알림 메시지를 제공함으로써, 사용자가 보다 일정 알림 메시지에 대한 확인을 정확히 인식(확실하게 인지)할 수 있도록 도울 수 있다.As such, the device 100 provides a changed notification by changing the notification providing type if a response (message confirmation signal) is not received within a preset time (for example, 3 hours) after providing the schedule notification message for the first time By providing the rescheduling reminder message in a tangible way, it can help the user to more accurately recognize (clearly recognize) the confirmation of the schedule reminder message.

또한 생성부(120)는 의류 추천 정보를 생성함에 있어서, 일예로 기상청 서버(미도시)로부터 획득된 촬영 모드 감지 시점에 대응하는 날씨 예보 정보로부터 밤과 낮의 기온차 정보를 판단하고, 판단된 기온차 정보의 수준(정도)에 따라 서로 다른 의류 추천 정보를 생성할 수 있다. 여기서, 밤과 낮은 통상적으로 정의된 시간대를 의미할 수 있으며, 이에 한정되는 것은 아니다.In addition, in generating the clothing recommendation information, the generator 120 determines the temperature difference between night and day from the weather forecast information corresponding to the time of sensing the shooting mode obtained from the Meteorological Agency server (not shown), for example, and determines the temperature difference Depending on the level (degree) of the information, different clothing recommendation information may be generated. Here, night and day may mean a commonly defined time zone, but is not limited thereto.

예시적으로, 생성부(120)는 촬영 모드 감지 시점에 대응하는 날씨 예보 정보를 기상청 서버(미도시)로부터 획득하고, 획득된 내일에 대응하는 날씨 예보 정보로부터 밤과 낮의 기온차 정보를 판단할 수 있다. 이때, 생성부(120)는 판단된 기온차 정보가 제1 범위에 속하면 제1 의류 추천 정보를 생성하고, 기온차 정보가 제2 범위에 속하면 제2 의류 추천 정보를 생성하며, 기온차 정보가 제3 범위에 속하면 제3 의류 추천 정보를 생성할 수 있다.Illustratively, the generating unit 120 obtains weather forecast information corresponding to the sensing time of the shooting mode from the Meteorological Administration server (not shown), and determines the temperature difference information between night and day from the obtained weather forecast information corresponding to tomorrow. can In this case, the generator 120 generates first clothing recommendation information when the determined temperature difference information falls within the first range, and generates second clothing recommendation information when the temperature difference information falls within the second range, and the temperature difference information If it falls within the 3 range, third clothing recommendation information may be generated.

여기서, 제1 범위는 일예로 밤과 낮의 기온차 값이 0도 이상 5도 미만으로 나타나는 범위를 의미하고, 제2 범위는 밤과 낮의 기온차 값이 5도 이상 10도 미만으로 나타나는 범위를 의미하며, 제3 범위는 밤과 낮의 기온차 값이 10도 이상으로 나타나는 범위를 의미할 수 있다.Here, the first range means, for example, a range in which the temperature difference between night and day is 0 degrees or more and less than 5 degrees, and the second range means a range in which the temperature difference between night and day is 5 degrees or more and less than 10 degrees. and, the third range may mean a range in which the temperature difference between night and day is 10 degrees or more.

이때, 일예로, 제1 의류 추천 정보는 의류의 두께가 제1 값 미만에 속하는 소장 의류에 관한 정보가 포함되고, 제2 의류 추천 정보는 의류의 두께가 제1 값 이상 제1 값보다 큰 제2 값 미만에 속하는 소장 의류에 관한 정보가 포함되며, 제3 의류 추천 정보는 제2 값 이상에 속하는 소장 의류에 관한 정보가 포함될 수 있다. 여기서, 예시적으로 제1 값은 1mm, 제2 값은 3mm 일 수 있으나, 이에 한정되는 것은 아니다.In this case, as an example, the first clothing recommendation information includes information on collectible clothing for which the thickness of the clothing is less than the first value, and the second clothing recommendation information includes the first clothing recommendation information for which the thickness of the clothing is greater than or equal to the first value and greater than the first value. Information on collectible clothing belonging to a value less than 2 may be included, and the third clothing recommendation information may include information about collectible clothing belonging to a value greater than or equal to the second value. Here, for example, the first value may be 1 mm and the second value may be 3 mm, but is not limited thereto.

이에 따르면, 본 장치(100)는 밤과 낮의 기온차 정보의 수준에 따라 해당 수준에 맞는 맞춤형 의류 추천 정보를 생성하여 사용자에게 제공할 수 있다.According to this, the apparatus 100 may generate and provide customized clothing recommendation information suitable for the corresponding level according to the level of night and day temperature difference information to the user.

이력 저장부(170)는 상술한 바와 같이 입력 요청 메시지에 대한 사용자 입력시마다, 입력 요청 메시지에 대응하는 착용 의류 이력 데이터를 생성하여 저장할 수 있다. 소유 의류 저장부(180)는 사용자가 소유한 소유 의류에 관한 정보를 저장할 수 있다. 이에 대한 설명은 앞서 자세히 설명했으므로, 이하 구체적인 설명은 생략하기로 한다.As described above, whenever a user inputs an input request message, the history storage unit 170 may generate and store wearing clothing history data corresponding to the input request message. The owned clothing storage unit 180 may store information on owned clothing owned by the user. Since this has been described in detail above, a detailed description thereof will be omitted.

본 장치(100)에서 생성부(120)가 생성하는 의류 추천 정보는, 사용자가 소유한 소유 의류 중 적어도 하나의 소유 의류를 기초로 생성하는 옷차림 정보(코디 정보)와 관련된 의류 추천 정보일 수 있다. 다만, 이에만 한정되는 것은 아니고, 생성부(120)가 생성하는 의류 추천 정보는, 후술하는 온라인 쇼핑몰 상에서 판매, 거래되는 패션 제품(이는 의류, 패션 잡화, 화장품 등을 포함한 각종 패션 관련 상품을 의미함) 중 적어도 하나의 패션 제품을 기초로 생성하는 코디 정보와 관련된 의류 추천 정보일 수 있다.The clothing recommendation information generated by the generator 120 in the device 100 may be clothing recommendation information related to attire information (coordination information) generated based on at least one of the clothes owned by the user. . However, the present invention is not limited thereto, and the clothing recommendation information generated by the generator 120 refers to fashion products sold and traded on an online shopping mall to be described later (this means various fashion-related products including clothing, fashion accessories, cosmetics, etc.) ) may be clothing recommendation information related to coordination information generated based on at least one fashion product.

상술한 바와 같이, 본 장치(100)는 종래의 SNS 제공 기술이 개인정보 노출 우려가 있고 일상을 공유하기 위한 정보를 표현하는 데에 한계가 있는 문제를 해소하고자, 생성된 사용자 아바타를 현실 영상 상에 표시함으로써, 사용자 아바타가 반영된 증강현실 영상의 획득이 이루어지도록 하는 기능을 제공할 수 있다.As described above, in order to solve the problem that the conventional SNS providing technology has a risk of personal information exposure and a limitation in expressing information for sharing daily life, the device 100 displays the generated user avatar on a real image. By displaying in , it is possible to provide a function for obtaining an augmented reality image in which the user avatar is reflected.

또한, 본 장치(100)는, 사용자가 실제 느끼는 체감 온도 정보를 고려하여 생성된 의류 추천 정보를 기반으로, 이를 사용자 단말의 화면에 표시함으로써, 날씨의 온도가 동일한 조건에서 각각의 사용자가 체감하는(느끼는) 상대적인 체감 온도가 각기 다름을 고려하여 사용자 개개인에게 맞춤화된 보다 활용성 높은 맞춤 의류 추천 정보를 제공(추천)하는 기능을 제공할 수 있다. 또한, 본 장치(100)는 사용자가 실제 느끼는 체감 온도 정보를 고려하여 생성된 의류 추천 정보에 해당하는 의류를 사용자 아바타에 적용시키고 이를 증강현실 영상의 획득을 위해 화면에 표시함으로써, 자신을 대체하여 표현하는 사용자 아바타로서, 보다 사용자의 체감 온도 정보 내지 사용자가 실제 느끼는 감정 등이 반영된 사용자 아바타의 적용(표현)을 가능케 할 수 있다. 이러한 본 장치(100)는 사용자 아바타로 하여금 보다 현실감 있는 자신을 표현 가능하게 함에 따라, 개인정보 노출의 위험은 줄이면서도 보다 자신만의 개성의 표출이 강하게 이루어지도록 제공할 수 있다.In addition, the apparatus 100 displays the clothing recommendation information generated in consideration of the sensible temperature information that the user actually feels, and displays it on the screen of the user terminal, so that each user experiences the same under the same weather temperature condition. Considering that the relative sensible temperature (feeling) is different, it is possible to provide a function of providing (recommending) more useful customized clothing recommendation information customized to each user. In addition, the device 100 applies clothing corresponding to the clothing recommendation information generated in consideration of the sensible temperature information actually felt by the user to the user avatar and displays it on the screen to obtain an augmented reality image, thereby replacing itself. As the user avatar to express, it may be possible to apply (express) the user avatar in which the user's sensory temperature information or the user's actual emotions are reflected. As the present device 100 enables the user avatar to express himself in a more realistic way, the risk of personal information exposure can be reduced and his or her individuality can be more strongly expressed.

뿐만 아니라, 본 장치(100)는 후술하는 시뮬레이션부(190)에 의하면, 온라인 쇼핑몰상에서 판매하는 패션상품(패션 제품)을 구매함에 있어서, 구매자의 상품 구매의 실패율을 줄이고 효과적으로 구매할 수 있도록 하는 패션 스타일링 시뮬레이션 기능을 제공할 수 있다. 즉, 본 장치(100)는, 시뮬레이션부(190)를 제공함으로써, 온라인 쇼핑몰 상에서 본 상품(제품)을 구매하여 실제 받아보았을 때 쇼핑몰 상에서 본 상품의 느낌/크기 등이 실제 상품을 본 느낌/크기 등과 다름에 따라 상품 구매의 만족도가 높지 않고 교환/환불 등이 빈번히 일어나던 문제를 해소할 수 있는 패션 스타일링 시뮬레이션 기능을 제공할 수 있다. 시뮬레이션부(190)에 대한 설명은 도 6을 참조하여 보다 쉽게 이해될 수 있다.In addition, according to the simulation unit 190, which will be described later, the device 100 reduces the failure rate of the purchaser's purchase of the product and makes it possible to purchase it effectively when purchasing a fashion product (fashion product) sold on an online shopping mall. A simulation function can be provided. That is, by providing the simulation unit 190 , the device 100 provides the simulation unit 190 , so that when the product (product) is purchased and received on the online shopping mall, the feeling/size of the product viewed on the shopping mall is the feeling/size of the actual product. It is possible to provide a fashion styling simulation function that can solve problems in which product purchase satisfaction is not high and exchanges/refunds occur frequently due to differences in product purchases. The description of the simulation unit 190 may be more easily understood with reference to FIG. 6 .

도 6은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치(100)에 포함된 시뮬레이션부(190)를 설명하기 위한 개략적인 블록도이다. 6 is a schematic block diagram for explaining the simulation unit 190 included in the apparatus 100 for providing a social network service using augmented reality according to an embodiment of the present application.

이하 도 6을 참조하여 설명함에 있어서, 도 6에 도시된 본 시스템(1000), 본 장치(100), 사용자 단말(1) 및 네트워크(2)의 구성은, 각각 상술한 도 1에 도시된 본 시스템(1000), 본 장치(100), 제1 사용자 단말(1), 네트워크(2)의 구성과 동일한 구성일 수 있다. 따라서, 이하 생략된 내용이라 하더라도, 도 1을 참조하여 설명된 내용은 도 6을 참조하여 설명된 내용에도 동일하게 적용될 수 있다.Hereinafter, in the description with reference to FIG. 6, the configuration of the present system 1000, the present apparatus 100, the user terminal 1, and the network 2 shown in FIG. The system 1000 , the device 100 , the first user terminal 1 , and the network 2 may have the same configuration. Accordingly, even if omitted below, the contents described with reference to FIG. 1 may be equally applied to the contents described with reference to FIG. 6 .

도 6을 참조하면, 본 장치(100)는 상술한 도 1에 도시된 본 장치(100)에 포함된 구성들 이외에, 추가적으로 시뮬레이션부(270)를 포함할 수 있다. Referring to FIG. 6 , the apparatus 100 may additionally include a simulation unit 270 in addition to the components included in the apparatus 100 illustrated in FIG. 1 .

시뮬레이션부(270)는 사용자(제1 사용자)의 신체 특성 정보가 입력된 경우 입력된 신체 특성 정보가 고려된 아바타를 생성하고, 복수의 패션 제품 중 착용 시뮬레이션 적용을 희망하는 착용 희망 패션 제품에 대한 사용자 선택이 이루어지면, 선택된 착용 희망 패션 제품의 착용이 이루어진 제품 착용 아바타의 영상을 생성하여 화면에 표시할 수 있다. 이에 대한 보다 구체적인 설명은 다음과 같다.The simulation unit 270 generates an avatar in consideration of the inputted body characteristic information when the user's (first user) body characteristic information is input, and relates to a desired wearing fashion product to which a wearing simulation is desired among a plurality of fashion products. When a user selection is made, an image of the product wearing avatar in which the selected desired fashion product is worn may be generated and displayed on the screen. A more detailed description of this is as follows.

사용자 단말(1)은 일예로 상술한 제1 사용자 단말(1)을 의미할 수 있다. 다만, 이에만 한정되는 것은 아니고, 상술한 바와 같이, 사용자 단말(1)에 대하여 설명된 내용은 이하 생략된 내용이라 하더라도 복수의 사용자 단말(1, 1', …) 각각에 대한 설명에도 동일하게 적용될 수 있다.The user terminal 1 may refer to the above-described first user terminal 1 as an example. However, the present invention is not limited thereto, and as described above, the description of the user terminal 1 is the same in the description of each of the plurality of user terminals 1 , 1 ', ... even if omitted below. can be applied.

사용자 단말(1)은 일예로 사용자로부터 사용자의 신체 특성 정보를 입력받을 수 있으며, 입력받은 신체 특성 정보를 시뮬레이션부(270)의 입력부(10)로 제공할 수 있다. 이에 따라, 입력부(10)는 사용자의 신체 특성 정보를 사용자 단말(1)을 통해 사용자로부터 입력받을 수 있다. 이 외에도, 사용자 단말(1)은 시뮬레이션부(270)를 포함한 본 장치(100) 내 각 부의 동작을 제어(원격으로 제어)할 수 있다.The user terminal 1 may receive, for example, the user's body characteristic information from the user, and may provide the received body characteristic information to the input unit 10 of the simulation unit 270 . Accordingly, the input unit 10 may receive the user's body characteristic information from the user through the user terminal 1 . In addition, the user terminal 1 may control (remotely control) the operation of each unit in the apparatus 100 including the simulation unit 270 .

시뮬레이션부(270)는 입력부(10), 아바타 생성부(20), 시뮬레이션 제어부(30), 식별부(40) 및 평가부(50)를 포함할 수 있다.The simulation unit 270 may include an input unit 10 , an avatar generation unit 20 , a simulation control unit 30 , an identification unit 40 , and an evaluation unit 50 .

입력부(10)는 사용자(사용자 단말)로부터 사용자의 신체 특성과 관련된 정보인 신체 특성 정보를 입력받을 수 있다. 입력부(10)는 신체 특성 정보를 사용자 단말(1)을 통해 입력받을 수 있고, 혹은 본 장치(100)에 자체 구비된 화면을 통해 입력받을 수 있다.The input unit 10 may receive body characteristic information, which is information related to the user's body characteristics, from a user (user terminal). The input unit 10 may receive body characteristic information through the user terminal 1 or through a screen provided in the device 100 itself.

여기서, 신체 특성 정보는 일예로 사용자의 체형, 얼굴형 및 피부톤 중 적어도 하나를 포함할 수 있다. 이때, 사용자의 체형에 관한 정보라 함은 사용자의 몸의 모양(형태, 형상)에 관한 정보를 의미할 수 있다. 다만, 이에만 한정되는 것은 아니고, 사용자의 체형에 관한 정보에는 사용자의 키, 몸무게, 발사이즈, 허리 사이즈, 가슴 사이즈 등 사용자의 신체 사이즈에 관한 각종 정보가 포함될 수 있다. 신체 특성 정보는 사용자와 닮은 3차원 아바타(3차원 모델)을 생성하는데 있어서 필요한 모든 정보를 의미할 수 있다. Here, the body characteristic information may include, for example, at least one of the user's body type, face shape, and skin tone. In this case, the information about the user's body type may mean information about the shape (shape, shape) of the user's body. However, the present invention is not limited thereto, and the information about the user's body type may include various types of information about the user's body size, such as the user's height, weight, foot size, waist size, and chest size. The body characteristic information may refer to all information necessary for generating a 3D avatar (3D model) resembling a user.

일예로, 입력부(10)는 사용자의 신체 특성 정보를 사용자 단말(1)을 통해 사용자로부터 타이핑을 통해 직접 입력받을 수 있다.For example, the input unit 10 may directly receive the user's body characteristic information through typing from the user through the user terminal 1 .

다른 일예로, 입력부(10)는 사용자의 신체 특성 정보를 사용자 단말(1)로부터 획득된 사용자 촬영 이미지로부터 추출함으로써 입력받을 수 있다. 구체적인 예로, 사용자는 신체 특성 정보를 입력하기 위해, 일예로 사용자 단말(1)의 카메라를 이용해 본인의 신체 특성 정보에 대한 추출이 가능하도록 본인 자신을 촬영할 수 있다. 이때, 본인의 신체 특성 정보에 대한 추출이 가능하도록 촬영한다라 함은, 사용자의 체형(몸의 형태), 얼굴형, 피부톤이 나타나도록 사용자의 전신 부위(혹은 사용자의 신체부위 중 적어도 일부의 신체부위)를 정면, 측면 등에서 촬영하는 것을 의미할 수 있으며, 이에 한정되는 것은 아니다. As another example, the input unit 10 may receive the user's body characteristic information by extracting the user's body characteristic information from the user photographed image obtained from the user terminal 1 . As a specific example, in order to input body characteristic information, the user may photograph himself/herself so that the body characteristic information can be extracted using, for example, the camera of the user terminal 1 . At this time, shooting so that the user's body characteristic information can be extracted means the user's body part (or at least part of the user's body part) so that the user's body type (body shape), face shape, and skin tone appear. part) may mean photographing the front, side, etc., but is not limited thereto.

사용자 단말(1)을 통해 사용자 본인 자신을 촬영한 이미지인 사용자 촬영 이미지의 획득이 이루어진 경우, 입력부(10)는 획득된 사용자 촬영 이미지에 대한 이미지 분석을 수행하여 사용자 촬영 이미지로부터 신체 특성 정보를 추출할 수 있다. 입력부(10)는 사용자 촬영 이미지로부터 추출된 신체 특성 정보를 사용자의 신체 특성 정보로서 입력받을 수 있다. 여기서, 이미지 분석시에는 기 알려져 있거나 향후 개발되는 다양한 이미지 분석 알고리즘이 적용될 수 있다.When a user-captured image, which is an image taken by the user himself/herself, is acquired through the user terminal 1, the input unit 10 performs image analysis on the acquired user-captured image to extract body characteristic information from the user-captured image can do. The input unit 10 may receive body characteristic information extracted from the user's photographed image as the user's body characteristic information. Here, various image analysis algorithms that are known or developed in the future may be applied to image analysis.

아바타 생성부(20)는 입력부(10)에서 입력받은 신체 특성 정보가 고려된 아바타를 생성할 수 있다.The avatar generator 20 may generate an avatar in consideration of the body characteristic information received from the input unit 10 .

이때, 아바타 생성부(20)에 의해 생성되는 아바타는, 상술한 아바타 관리부(210)가 생성하는 사용자 아바타와 동일한 아바타일 수 있다. 따라서, 이하 생략된 내용이라 하더라도, 아바타 관리부(210)에 의해 생성된 사용자 아바타에 대하여 설명되는 내용은 아바타 생성부(20)에 의해 생성된 아바타(사용자 아바타)에 대한 설명에도 동일하게 적용될 수 있고, 그 반대로도 적용 가능하다.In this case, the avatar generated by the avatar generating unit 20 may be the same avatar as the user avatar generated by the above-described avatar managing unit 210 . Accordingly, even if omitted below, the description of the user avatar generated by the avatar manager 210 may be equally applied to the description of the avatar (user avatar) generated by the avatar generator 20 , , and vice versa.

아바타 생성부(20)에 의해 생성되는 아바타는, 신체 특성 정보로서 입력받은 사용자의 체형, 얼굴형 및 피부톤 중 적어도 하나를 고려하여 생성된 3차원 아바타일 수 있다. 아바타 생성부(20)에 의해 생성되는 아바타는 바람직하게 입력부(10)에서 입력받은 신체 특성 정보를 모두 반영하여 생성된 3차원 아바타임이 바람직할 수 있다.The avatar generated by the avatar generator 20 may be a three-dimensional avatar generated in consideration of at least one of a user's body type, face shape, and skin tone received as body characteristic information. The avatar generated by the avatar generating unit 20 may preferably be a 3D avatar generated by reflecting all body characteristic information received from the input unit 10 .

아바타 생성부(20)는 신체 특성 정보를 기반으로 하여, 사용자와 상당히 유사한(흡사한) 형상의 아바타를 3차원으로 모델링하여 생성할 수 있다. 아바타 생성부(20)는 사용자 자신을 닮은 체형의 아바타를 생성할 수 있다.The avatar generator 20 may model and generate an avatar having a shape very similar to (similar to) a user's in three dimensions, based on the body characteristic information. The avatar generator 20 may generate an avatar having a body shape resembling the user himself/herself.

시뮬레이션 제어부(30)는 복수의 패션 제품 중 착용 시뮬레이션 적용을 희망하는 착용 희망 패션 제품에 대한 사용자 선택이 이루어진 경우, 사용자에 의해 선택된 착용 희망 패션 제품의 착용이 이루어진 제품 착용 아바타의 영상을 생성하여 화면에 표시할 수 있다. 여기서, 제품 착용 아바타라 함은, 아바타 생성부(20)에 의해 생성된 아바타 상에 사용자에 의해 선택된 착용 희망 패션 제품의 착용이 이루어진 모습(착용 희망 패션 제품이 입혀진 모습)의 아바타를 의미할 수 있다.The simulation control unit 30 generates an image of a product wearing avatar in which the desired fashion product selected by the user is worn when a user selects a desired fashion product to be worn for which a wearing simulation is to be applied among a plurality of fashion products. can be displayed in Here, the product wearing avatar may mean an avatar in which the desired fashion product selected by the user is worn on the avatar created by the avatar generating unit 20 (the desired fashion product is worn). have.

시뮬레이션 제어부(30)는 생성된 제품 착용 아바타의 영상을 일예로 본 장치(100) 자체에 구비된 화면 상에 표시할 수 있으며, 다른 일예로 사용자 단말(1)의 화면 상에 표시할 수 있다.The simulation control unit 30 may display the generated image of the product wearing avatar as an example on a screen provided in the device 100 itself, and as another example, may be displayed on the screen of the user terminal 1 .

본원에서 패션 제품이라 함은 일예로 온라인 쇼핑몰 상에서 판매, 거래되는 각종 패션 관련 상품을 의미할 수 있다. 패션 제품에는 일예로 의류, 패션 잡화, 화장품 등이 포함될 수 있다. 의류에는 상의, 하의, 원피스, 속옷 등 다양한 의상들이 포함될 수 있으며, 패션 잡화에는 액세서리(악세사리), 구두, 핸드백, 지갑, 벨트, 모자 등이 포함될 수 있다. 이러한 예는 본원의 이해를 돕기 위한 하나의 예시일 뿐, 이에만 한정되는 것은 아니고, 패션 제품에는 패션, 스타일링, 외모 꾸밈 등과 관련된 각종 물품, 물건 등이 포함(고려)될 수 있다. 본원에서 패션 제품은 패션 아이템, 패션 상품 등으로 달리 지칭될 수 있다.As used herein, the term “fashion product” may refer to, for example, various fashion-related products sold and traded on an online shopping mall. Fashion products may include, for example, clothing, fashion accessories, cosmetics, and the like. Clothing may include various clothes such as tops, bottoms, dresses, and underwear, and fashion miscellaneous goods may include accessories (accessories), shoes, handbags, wallets, belts, hats, and the like. This example is only one example for helping understanding of the present application, and is not limited thereto, and the fashion product may include (consider) various articles, articles, etc. related to fashion, styling, appearance decoration, and the like. In the present specification, a fashion product may be referred to as a fashion item, a fashion product, or the like.

사용자는 일예로 온라인 쇼핑몰 상에서 판매(거래)되는 패션 제품 중 특정 패션 제품을 구매하기에 앞서, 해당 특정 패션 제품이 자신에게 잘 어울리는지, 자신이 입었을 때의 핏이 어떻게 보여지는지, 품, 기장 등이 어떠한지, 해당 특정 패션 제품을 착용했을 때 조여지는 부분(타이트한 부분)이 없는지 등을 확인(시뮬레이션)하기 위해, 확인(시뮬레이션)을 희망하는 해당 특정 패션 제품을 착용 희망 패션 제품으로서 선택할 수 있다.For example, before purchasing a specific fashion product among fashion products sold (traded) on an online shopping mall, the user may check whether the specific fashion product suits him well, how the fit looks when he wears it, width, length, etc. In order to confirm (simulation) whether the specific fashion product is tightened (tight part) when the specific fashion product is worn, the specific fashion product desired to be confirmed (simulated) may be selected as the desired fashion product to be worn.

즉, 사용자는 온라인 쇼핑몰 상에 판매되는 패션 제품 중 아바타 생성부(20)에서 생성된 아바타에 대하여 착용 시뮬레이션을 수행하길 희망하는 패션 제품을 착용 희망 패션 제품으로서 선택할 수 있다.That is, the user may select, as the desired fashion product, a fashion product that the user desires to perform a wearing simulation on the avatar generated by the avatar generating unit 20 among fashion products sold on the online shopping mall.

일예로, 온라인 쇼핑몰 상에 복수의 패션 제품으로서 제1 패션 제품(일예로 상의-반팔), 제2 패션 제품(일예로 하의-반바지), 제3 패션 제품(일예로 하의-치마) 등이 판매되고 있다고 하자. 그리고 사용자가 제1 패션 제품에 관심이 있어 제1 패션 제품을 자신이 실제 착용했을 때의 모습을 시뮬레이션하고 싶은 경우, 제1 패션 제품이 아바타 생성부(20)에 의해 생성된 아바타에 입혀진 모습의 영상을 보기 위해, 사용자는 제1 패션 제품을 착용 희망 패션 제품으로서 선택할 수 있다.For example, a first fashion product (eg, top-short sleeve), a second fashion product (eg, bottom-shorts), and a third fashion product (eg, bottom-skirt) are sold on the online shopping mall as a plurality of fashion products. let's say it's happening In addition, if the user is interested in the first fashion product and wants to simulate the appearance when the user actually wears the first fashion product, the image of the first fashion product applied to the avatar generated by the avatar generating unit 20 is To view the image, the user may select the first fashion product as a desired fashion product to be worn.

이러한 경우, 시뮬레이션 제어부(30)는 복수의 패션 제품 중 제1 패션 제품에 대한 사용자 선택(사용자의 선택 입력)에 응답하여, 착용 희망 패션 제품인 제1 패션 제품과 기 생성된 아바타를 서로 합성시킬 수 있으며, 이를 통해 제1 패션 제품의 착용이 이루어진 제품 착용 아바타의 영상을 생성할 수 있다. 이때, 제품 착용 아바타는 아바타 생성부(20)에 의해 생성된 아바타 상에 제1 패션 제품이 입혀진 모습의 아바타를 의미하는 것으로서, 제1 패션 제품의 착용이 이루어진 아바타를 의미할 수 있다.In this case, in response to a user selection (user selection input) for a first fashion product among a plurality of fashion products, the simulation control unit 30 may synthesize a first fashion product, which is a desired fashion product, and a pre-generated avatar with each other. In this way, an image of the product wearing avatar in which the first fashion product is worn may be generated. In this case, the product wearing avatar means an avatar in which the first fashion product is worn on the avatar generated by the avatar generating unit 20 , and may refer to an avatar in which the first fashion product is worn.

시뮬레이션 제어부(30)는 생성된 제품 착용 아바타의 영상을 화면에 표시할 수 있다. 사용자는 화면에 표시되는 제품 착용 아바타를 통하여 제1 패션 제품이 실제로 자신이 입었을 때 어떠한 모습으로 보여지는지에 대한 모습을 가상으로 확인해 볼 수 있다.The simulation controller 30 may display the generated image of the product wearing avatar on the screen. The user can virtually check the appearance of the first fashion product when the first fashion product is actually worn through the product wearing avatar displayed on the screen.

이후, 시뮬레이션 제어부(30)는 제품 착용 아바타의 자세를 변경시키는 시뮬레이션을 수행할 수 있다. 이때, 제품 착용 아바타의 자세는 일예로 사용자의 실시간 자세 변경 조작 제어에 의해 변경될 수 있으며, 다른 일예로 기 설정된 복수 유형의 변경 자세로 자동으로 변경될 수 있다.Thereafter, the simulation controller 30 may perform a simulation of changing the posture of the product wearing avatar. In this case, the posture of the product wearing avatar may be changed by, for example, a user's real-time posture change manipulation control, and as another example, may be automatically changed to a plurality of preset types of changing postures.

이때, 본원에서 제품 착용 아바타의 자세를 변경시킨다 함은, 정적인 상태로의 자세 변경을 의미할 수 있겠으나, 이에 한정되는 것은 아니고, 동적인 상태로의 자세 변경까지 모두 포함하는 넓은 개념으로 이해됨이 바람직할 수 있다.In this case, changing the posture of the product wearing avatar may mean changing the posture to a static state, but is not limited thereto, and is understood as a broad concept including all posture changes to a dynamic state. It may be desirable to be

예시적으로, 제품 착용 아바타의 기본 자세는 정자세일 수 있으며, 변경된 자세로는 다양한 높이별 의자에 앉은 자세, 맨 바닥에 쭈그린 자세, 걷는 자세, 뛰는 자세 등이 포함될 수 있으며, 뿐만 아니라 걷는 동작, 뛰는 동작, 앉았다 일어서는 것을 반복하는 동작 등이 포함될 수 있다.Illustratively, the basic posture of the product wearing avatar may be an upright posture, and the changed posture may include a sitting posture on a chair at various heights, a squatting posture, a walking posture, a running posture, and the like, as well as a walking posture. , jumping, and repeating sitting and standing.

시뮬레이션 제어부(30)는 사용자에 의해 선택된 착용 희망 패션 제품의 제품 속성 정보를 고려하여, 제품 착용 아바타의 자세를 변경시킴에 따른 상태 변화가 이루어지는 변화된 착용 희망 패션 제품이 반영된 자세 변경 아바타의 영상을 실시간으로 생성하여 화면에 표시할 수 있다. 즉, 시뮬레이션 제어부(30)는 제품 착용 아바타의 자세 변경에 응답하여, 변화되는 착용 희망 패션 제품의 상태의 변화(일예로, 옷이 늘어나거나, 조이거나, 팽팽해지거나 하는 등의 변화)가 반영된 자세가 변경된 아바타(자세 변경 아바타)의 영상을 실시간으로 화면에 표시할 수 있다.The simulation control unit 30 considers the product attribute information of the desired fashion product to be worn by the user, and displays the image of the posture change avatar reflecting the changed desired fashion product to be worn in real time, in which the state is changed by changing the posture of the product wearing avatar. can be created and displayed on the screen. That is, in response to the change in the posture of the product wearing avatar, the simulation control unit 30 reflects the change in the state of the desired fashion product to be worn (for example, a change in clothes stretched, tightened, tightened, etc.) An image of an avatar whose posture has been changed (posture change avatar) may be displayed on the screen in real time.

여기서, 착용 희망 패션 제품의 제품 속성 정보에는 치수, 소재, 신축성, 및 비침 정도 중 적어도 하나에 관한 정보가 포함될 수 있다. 예시적으로 착용 희망 패션 제품이 반팔 상의인 경우, 치수 정보에는 단순히 S, M, L 와 같은 사이즈 정보만 포함되는 것이 아니라, 총기장, 가슴단면, 어깨넓이, 소매길이 등의 정보가 포함될 수 있으며, 이에 한정되는 것은 아니다.Here, the product attribute information of the desired fashion product to be worn may include information on at least one of dimensions, material, elasticity, and see-through level. For example, if the desired fashion product is a short-sleeved top, the size information may include not only size information such as S, M, L, but also information such as gun length, chest section, shoulder width, and sleeve length. , but is not limited thereto.

착용 희망 패션 제품의 제품 속성 정보는, 일예로 착용 희망 패션 제품이 판매되는 온라인 쇼핑몰의 홈페이지 상에 개시된 정보의 크롤링(수집)을 통해 획득될 수 있다.Product attribute information of the desired fashion product to be worn may be obtained, for example, by crawling (collecting) information disclosed on the homepage of an online shopping mall where the desired fashion product to be worn is sold.

이에 따르면, 시뮬레이션 제어부(30)는 복수의 패션 제품 중 착용 희망 패션 제품에 대한 사용자 선택이 이루어진 경우, 사용자에 의해 선택된 착용 희망 패션 제품에 대한 제품 속성 정보를 크롤링을 통해 획득하고, 이후 획득된 제품 속성 정보를 고려하여 제품 착용 아바타의 자세를 변경시킴에 따라 상태 변화가 이루어지는 착용 희망 패션 제품이 적용된 자세 변경 아바타의 영상을 실시간으로 화면에 표시할 수 있다. 즉, 제품 착용 아바타의 자세 변경에 따라 실시간으로 화면에 표시되는 자세 변경 아바타는, 자세 변경으로 인한 변화된 착용 희망 패션 제품의 상태(형상, 형태 등)가 적용된(반영된) 자세가 변경된 아바타를 의미할 수 있다.According to this, when a user selects a desired fashion product from among a plurality of fashion products, the simulation control unit 30 acquires product attribute information on the desired fashion product selected by the user through crawling, and then obtains the product obtained An image of the posture-changed avatar to which the desired fashion product to be worn is applied may be displayed on the screen in real time, in which the state is changed as the posture of the product wearing avatar is changed in consideration of the attribute information. That is, the posture change avatar displayed on the screen in real time according to the posture change of the product wearing avatar means an avatar whose posture is changed (reflected) to which the state (shape, shape, etc.) of the desired fashion product to be worn is changed due to the posture change. can

식별부(40)는 화면에 표시되는 자세 변경 아바타 상에서, 변화된(상태 변화가 이루어진) 착용 희망 패션 제품에 의하여 기 설정된 조임 강도값 이상의 조임 강도값이 나타나는 조임 부위의 영역을 식별할 수 있다. 여기서, 조임 강도값이라 함은 조여지는 수준(정도)을 나타내는 값으로서, 타이트함(tightness) 정도값 등으로 달리 지칭될 수 있다.The identification unit 40 may identify, on the posture change avatar displayed on the screen, a region of a tightening portion in which a tightening strength value greater than or equal to a preset tightening strength value appears by the changed (state change) desired fashion product. Here, the tightening strength value is a value indicating the level (degree) to be tightened, and may be referred to as a tightness degree value or the like.

시뮬레이션 제어부(30)는 식별부(40)에 의해 식별된 조임 부위의 영역을 자세 변경 아바타의 영상 상에 표시할 수 있다.The simulation control unit 30 may display the region of the tightening portion identified by the identification unit 40 on the image of the posture change avatar.

본원의 일예에서는 시뮬레이션 제어부(30)가 자세 변경 아바타 상에서 식별된 조임 부위의 영역을 자세 변경 아바타 상에 표시하는 것으로 예시하였으나, 이에만 한정되는 것은 아니다. 식별부(40)는 제품 착용 아바타 상에서 조임 부위의 영역을 식별할 수 있으며, 이에 따라 시뮬레이션 제어부(30)는 제품 착용 아바타 상에서 식별된 조임 부위의 영역을 제품 착용 아바타 상에 표시할 수 있다.In the example of the present disclosure, the simulation controller 30 has illustrated that the region of the tightened portion identified on the posture change avatar is displayed on the posture change avatar, but the present disclosure is not limited thereto. The identification unit 40 may identify the region of the tightened portion on the product wearing avatar, and accordingly, the simulation controller 30 may display the region of the tightened portion identified on the product wearing avatar on the product wearing avatar.

시뮬레이션 제어부(30)는 기 설정된 조임 강도값 이상의 조임 강도의 수준(정도)에 따라 자세 변경 아바타의 영상 상에 표시되는 조임 부위의 영역에 대한 표시 형태를 달리할 수 있다. 이때, 시뮬레이션 제어부(30)는 식별부(40)에 의해 자세 변경 아바타 상에서 식별된 조임 부위의 영역들 중 조임 강도의 수준이 높게 나타나는 조임 부위의 영역일수록, 그보다 상대적으로 조임 강도의 수준이 낮게 나타나는 조임 부위의 영역과 대비하여 보다 인식 또는 식별이 용이한 형태로 표시되도록 제어할 수 있다.The simulation controller 30 may change the display form of the region of the tightening portion displayed on the image of the posture change avatar according to the level (degree) of the tightening strength equal to or greater than the preset tightening strength value. At this time, the simulation control unit 30 determines that the region of the tightening portion having a high level of tightening strength among the regions of the tightening portion identified on the posture change avatar by the identification unit 40 shows a relatively low level of tightening strength. It can be controlled to display in a form that is easier to recognize or identify in contrast to the region of the tightening part.

달리 말해, 시뮬레이션 제어부(30)는 식별부(40)에 의해 식별된 조임 부위가 제1 조임 부위 및 제2 조임 부위를 포함하되, 제1 조임 부위의 조임 강도값이 제2 조임 부위의 조임 강도값 보다 큰 경우, 자세 변경 아바타의 영상(혹은 제품 착용 아바타 상에서) 제1 조임 부위의 영역이 제2 조임 부위의 영역 대비 보다 인식 또는 식별이 용이한 형태로 표시되도록 제어할 수 있다.In other words, in the simulation control unit 30, the tightening portion identified by the identification unit 40 includes the first tightening portion and the second tightening portion, and the tightening strength value of the first tightening portion is the tightening strength of the second tightening portion. If the value is greater than the value, the image of the posture change avatar (or on the product wearing avatar) may be controlled so that the region of the first tightened portion is displayed in a form that is easier to recognize or identify than the region of the second tightened portion.

여기서, 조임 부위의 영역을 인식 또는 식별이 용이한 형태로 표시한다는 것은, 해당 조임 부위의 영역의 표시가 시각적으로 강조된 형태, 크기가 확장된 형태, 청각적인 효과를 수반하는 형태 및 동적인 애니메이션 형태 중 적어도 하나로 표시하는 것을 의미할 수 있다. 이는 도 7을 참조하여 보다 쉽게 이해될 수 있다.Here, displaying the region of the tightening portion in a form that is easy to recognize or identify means that the display of the region of the tightening portion is visually emphasized, expanded in size, accompanied by an auditory effect, and a dynamic animation form It may mean displaying at least one of This can be more easily understood with reference to FIG. 7 .

도 7은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치(100)의 시뮬레이션부(190) 내 식별부(40)에 의해 식별된 조임 부위의 영역이 화면 상에 표시되는 예를 설명하기 위한 도면이다.7 is an example in which the region of the tightening portion identified by the identification unit 40 in the simulation unit 190 of the apparatus 100 for providing a social network service using augmented reality according to an embodiment of the present application is displayed on the screen. It is a drawing for explanation.

도 7에는 일예로 식별부(40)가 제품 착용 아바타(5) 상에서 조임 부위의 영역을 식별함에 따라, 시뮬레이션 제어부(30)가 식별부(40)에 의해 식별된 조임 부위의 영역을 제품 착용 아바타(5)의 영상 상에 표시한 경우의 예를 나타낸다. 다만, 이에만 한정되는 것은 아니고, 앞서 말한 바와 같이, 시뮬레이션 제어부(30)는 식별부(40)에 의해 식별된 자세 변경 아바타 상에서의 조임 부위의 영역을 자세 변경 아바타 상에 표시할 수 있다.In FIG. 7 , as an example, as the identification unit 40 identifies the region of the tightened portion on the product wearing avatar 5 , the simulation controller 30 sets the region of the tightened portion identified by the identification unit 40 to the product wearing avatar 5 . An example of the case of displaying on the video of (5) is shown. However, the present invention is not limited thereto, and as described above, the simulation controller 30 may display the region of the tightened portion on the posture change avatar identified by the identification unit 40 on the posture change avatar.

후술하는 설명에서 조임 부위의 영역 식별 및 표시에 대해 설명함에 있어서, 제품 착용 아바타(5)에 대하여 설명되는 내용은 이하 생략된 내용이라 하더라도 자세 변경 아바타에 대한 설명에도 동일하게 적용될 수 있다. In the description of the region identification and display of the tightening portion in the description to be described later, the description of the product wearing avatar 5 may be equally applied to the description of the posture change avatar, even if omitted below.

도 7을 참조하면, 시뮬레이션 제어부(30)는 사용자의 선택이 이루어진 착용 희망 패션 제품의 착용이 이루어진 제품 착용 아바타(5)의 영상을 화면에 표시할 수 있다. 이때, 제품 착용 아바타(5)는 사용자의 신체 특성을 고려하여 생성된 3차원 아바타 상에 사용자가 선택한 착용 희망 패션 제품의 착용이 이루어진 모습을 의미할 수 있다.Referring to FIG. 7 , the simulation controller 30 may display an image of the product wearing avatar 5 in which the desired fashion product is worn, selected by the user, on the screen. In this case, the product wearing avatar 5 may refer to a state in which the desired fashion product selected by the user is worn on the three-dimensional avatar created in consideration of the user's body characteristics.

사용자가 선택한 착용 희망 패션 제품이 일예로 복수개로서, 상의-나시인 제1 착용 희망 패션 제품(11), 하의-반바지인 제2 착용 희망 패션 제품(12) 및 양말인 제3 착용 희망 패션 제품(13)이 포함된다고 하자. 이러한 경우, 시뮬레이션 제어부(30)는 제1 착용 희망 패션 제품(11) 내지 제3 착용 희망 패션 제품(13)의 착용이 이루어진 아바타(아바타 생성부에서 생성된 아바타)를 제품 착용 아바타(5)로 하여 화면 상에 영상으로 표시할 수 있다.A plurality of desired fashion products selected by the user include, for example, a first desired fashion product 11 that is a top-nash, a second desired fashion product 12 that is a bottom-shorts, and a third desired fashion product that is a sock ( 13) is included. In this case, the simulation controller 30 converts the avatar (the avatar generated by the avatar generating unit) in which the first desired fashion product 11 to the third desired fashion product 13 to be worn to the product wearing avatar 5 . This can be displayed as an image on the screen.

이때, 식별부(40)는 제품 착용 아바타(5) 상에서, 착용된 착용 희망 패션 제품(11, 12, 13)에 의하여 기 설정된 조임 강도값 이상의 조임 강도값이 나타나는 조임 부위의 영역을 식별할 수 있다. 이때, 식별부(40)에 의하여, 기 설정된 조임 강도값 이상의 조임 강도값이 나타나는 조임 부위의 영역으로서 제1 조임 부위(21)와 제2 조임 부위(22)를 포함한 두 부위가 식별되었다고 하자.In this case, the identification unit 40 may identify, on the product wearing avatar 5 , the region of the tightening portion in which the tightening strength value greater than or equal to the preset tightening strength value appears by the worn desired fashion product 11 , 12 , 13 . have. In this case, it is assumed that two parts including the first tightening portion 21 and the second tightening portion 22 are identified as the region of the tightening portion in which the tightening strength value greater than or equal to the preset tightening strength value appears by the identification unit 40 .

이때, 제1 조임 부위(21)의 조임 강도값이 제2 조임 부위(22)의 조임 강도값보다 높게 나타난 경우, 시뮬레이션 제어부(30)는 화면에 표시되는 제품 착용 아바타(5)의 영상 상에서 제1 조임 부위(21)의 영역이 제2 조임 부위(22)의 영역 대비 보다 인식 또는 식별이 용이한 형태로 표시되도록 할 수 있다.At this time, when the tightening strength value of the first tightening portion 21 is higher than the tightening strength value of the second tightening portion 22, the simulation control unit 30 performs the second on the image of the product wearing avatar 5 displayed on the screen. The region of the first tightening portion 21 may be displayed in a form that is easier to recognize or identify than the region of the second tightening portion 22 .

일예로, 시뮬레이션 제어부(30)는 제1 조임 부위(21)의 영역을 빨간색으로 표시하고, 제2 조임 부위(21)의 영역을 노란색으로 표시할 수 있다. 시뮬레이션 제어부(30)는 일예로 조임 강도값이 가장 큰 값을 기준으로 점차 낮아질수록 빨, 주, 노, 초 파, 남, 보와 같은 색상순으로 표시되도록 할 수 있다. 즉, 가장 높은 조임 강도값으로 나타나는 영역은 빨간색, 가장 낮은 조임 강도값으로 나타나는 영역은 보라색으로 표시할 수 있다.For example, the simulation controller 30 may display the area of the first tightening portion 21 in red and the area of the second tightening portion 21 in yellow. The simulation control unit 30 may display, for example, in the order of colors such as red, main, no, super wave, male, and bo as the tightening strength value gradually decreases based on the largest value. That is, the region indicated by the highest tightening strength value may be displayed in red, and the region indicated by the lowest tightening strength value may be displayed in purple.

다른 일예로, 시뮬레이션 제어부(30)는 제1 조임 부위(21)의 영역의 표시 크기를 제2 조임 부위(21)의 영역의 표시 크기보다 더 크게 하여 표시할 수 있다. 또 다른 일예로, 시뮬레이션 제어부(30)는 제1 조임 부위(21)의 영역을 볼딕으로 표시하고 제2 조임 부위(21)의 영역을 볼딕 없이 표시할 수 있다. As another example, the simulation control unit 30 may display the display size of the region of the first tightening portion 21 larger than the display size of the region of the second tightening portion 21 . As another example, the simulation control unit 30 may display the region of the first tightening portion 21 in bold and display the region of the second tightening portion 21 without bold.

또 다른 일예로, 시뮬레이션 제어부(30)는 제1 조임 부위(21)의 영역을 점멸 형태로 표시하는 반면, 제2 조임 부위(21)의 영역을 정적인 형태로 표시할 수 있다. 이처럼, 시뮬레이션 제어부(30)는 제1 조임 부위(21)의 영역을 점멸 형태로 표시(즉, 깜빡깜빡하게 표시)함으로써, 사용자로 하여금 제1 조임 부위(21)의 영역이 제2 조임 부위(22)의 영역 대비 상대적으로 더 많이 조이는 부위임을 직관적으로 인지할 수 있도록 제공할 수 있다.As another example, the simulation controller 30 may display the region of the first tightening portion 21 in a blinking form, while displaying the region of the second tightening portion 21 in a static form. In this way, the simulation control unit 30 displays the region of the first tightening portion 21 in a blinking form (ie, blinking), thereby allowing the user to change the region of the first tightening portion 21 to the second tightening portion ( 22) can be provided so that it can be intuitively recognized that it is a part that is tightened relatively more compared to the area of 22).

즉, 시뮬레이션부(270)는 자세 변경 아바타 혹은 제품 착용 아바타(5) 상(혹은 해당 아바타의 영상 상)에서 조임 부위의 영역을 표시함에 있어서, 상대적으로 조임 강도값이 더 높게 나타나는 영역이 그보다 조임 강도값이 낮게 나타나는 영역 대비 인식 또는 식별이 용이한 형태로 표시함으로써, 사용자가 해당 착용 희망 패션 제품을 구매하여 실제로 착용하였을 때 조임이 예상되는 부위(위치)를 미리 직관적으로 인지(확인)할 수 있도록 제공할 수 있다.That is, when the simulation unit 270 displays the region of the tightening portion on the posture change avatar or the product wearing avatar 5 (or on the image of the corresponding avatar), the region in which the tightening strength value is relatively higher is tightened. By displaying in a form that is easy to recognize or identify compared to an area where the intensity value is low, the user can intuitively recognize (confirm) in advance the area (location) where tightening is expected when the user purchases the desired fashion product and actually wears it. can be provided so that

이러한 시뮬레이션부(270)는 사용자가 해당 착용 희망 패션 제품을 실제 구매하기에 앞서, 해당 착용 희망 패션 제품을 구매할지 여부에 대한 결정, 해당 착용 희망 패션 제품 대비 다른 사이즈로 바꾸어 구매할지에 대한 결정, 혹은 해당 착용 희망 패션 제품과는 다른 이종의 패션 제품으로 구매할지에 대한 결정이 보다 신속하고 용이하게 이루어지도록 하고, 패션 제품에 대한 구매의 실패 확률을 낮출 수 있다.The simulation unit 270 determines whether or not to purchase the desired fashion product to be worn before the user actually purchases the desired fashion product to be worn, to determine whether to purchase a different size compared to the desired fashion product to be worn; Alternatively, a decision on whether to purchase a different type of fashion product different from the desired fashion product to be worn may be made more quickly and easily, and the probability of failure of purchasing the fashion product may be reduced.

또한, 시뮬레이션 제어부(30)는 식별부(40)에 의해 식별된 조임 부위의 영역의 개수가 기 설정된 개수 이상인 것으로 판단되는 경우, 기 설정된 개수 이상으로 조임 부위의 영역이 나타나는 착용 희망 패션 제품보다 한 단계 큰 치수를 갖는 동종 패션 제품의 정보를 추천 패션 제품으로서의 추천을 위해 화면의 일영역에 표시할 수 있다.In addition, when it is determined that the number of regions of the tightening portion identified by the identification unit 40 is equal to or greater than a preset number, the simulation control unit 30 may be configured to exceed the desired wearing fashion product in which the region of the tightening portion is greater than or equal to the preset number. Information on the same type of fashion product having a larger dimension may be displayed on one area of the screen for recommendation as a recommended fashion product.

여기서, 기 설정된 개수는 일예로 3개일 수 있으나, 이에만 한정되는 것은 아니고, 그 개수는 다양하게 변경 설정(적용)될 수 있다.Here, the preset number may be, for example, three, but is not limited thereto, and the number may be variously changed and set (applied).

본원에서는 동종 패션 제품의 정보의 추천이 이루어지는 화면이 일영역을 설명의 편의상 화면의 제1 영역이라 할 수 있다. 화면의 제1 영역에는 기 설정된 개수 이상의 조임 부위의 영역이 나타난 착용 희망 패션 제품을 기준으로, 그와 동종인 동종 패션 제품의 정보(크기가 더 크거나 크기가 더 작은 동종의 패션 제품의 정보 포함)가 표시될 수 있으며, 이에만 한정되는 것은 아니고 그와 이종인 패션 제품의 정보가 표시될 수도 있다. 즉, 화면의 제1 영역은 동종 패션 제품의 정보를 포함하여 각종 패션 제품 중 사용자에게 추천을 위한 추천 패션 제품이 표시되는 영역을 의미할 수 있다.In the present application, a region of the screen on which information of the same type of fashion product is recommended may be referred to as the first region of the screen for convenience of explanation. In the first area of the screen, information on the same type of fashion product (including information on the same type of fashion product with a larger or smaller size) may be displayed, but the present invention is not limited thereto, and information on fashion products different from the same may be displayed. That is, the first area of the screen may mean an area in which a recommended fashion product for recommendation to a user is displayed among various fashion products including information on the same type of fashion product.

달리 말하자면, 본원의 일예에서는 화면의 제1 영역에 추천 패션 제품으로서 착용 희망 패션 제품보다 한 단계 큰 치수를 갖는 동종 패션 제품의 정보가 표시되는 것으로 예시하였으나, 이에만 한정되는 것은 아니고, 제1 영역에는 조임 부위의 영역의 개수가 기 설정된 개수 이상으로 나타난 착용 희망 패션 제품과 관련하여, 그와 종류는 같으나 사이즈가 더 큰 동종의 착용 희망 패션 제품(이는 색상, 모양, 무늬 등이 모두 같고 크기만 다른 동종 착용 희망 패션 제품을 의미함), 그와 종류는 같으나 사이즈가 더 작은 동종의 착용 희망 패션 제품, 그와 종류가 다른 이종의 착용 희망 패션 제품(이는 색상, 모양 및 무늬 중 적어도 하나가 다르거나 종류 자체가 다른 착용 희망 패션 제품을 의미함) 등이 모두 같고 크기만 다른 동종 착용 희망 패션 제품을 의미함) 등이 추천 패션 제품으로서 표시될 수 있다.In other words, in an example of the present application, information of the same type of fashion product having a dimension larger than that of the desired fashion product to be worn as a recommended fashion product is displayed in the first area of the screen, but the present disclosure is not limited thereto, and the first area is not limited thereto. Regarding the desired fashion product to be worn, in which the number of areas of the tightening area is more than the preset number, the desired fashion product to be worn is of the same type but larger in size (which is the same in color, shape, pattern, etc. It means a different type of desired fashion product), a similar type but smaller in size, and a different type of desired fashion product (this means that at least one of a different color, shape and pattern) b) may be displayed as recommended fashion products.

일예로 자세 변경 아바타(혹은 제품 착용 아바타)가 복수의 착용 희망 패션 제품을 착용하고 있고, 식별부(40)가 복수의 착용 희망 패션 제품 중 어느 하나의 착용 희망 패션 제품에서 조임 부위의 영역이 기 설정된 개수 이상으로 나타났음을 식별하였다고 하자. 이러한 경우, 시뮬레이션 제어부(30)는 기 설정된 개수 이상의 조임 부위의 영역이 나타난 해당 착용 희망 패션 제품(즉, 어느 하나의 착용 희망 패션 제품)이 사용자에게 작은 것으로 판단(즉, 사용자가 해당 착용 희망 패션 제품을 실제 구매하여 착용하였을 때 작을 수 있을 것이라 판단)하여, 해당 착용 희망 패션 제품보다 한 단계(혹은 두단계 이상) 큰 치수(사이즈)를 갖는 동종의 패션 제품의 정보를 추천 패션 제품으로서 사용자에게 추천하고자 이를 화면의 일영역(제1 영역)에 표시할 수 있다.For example, the posture change avatar (or the product wearing avatar) is wearing a plurality of desired fashion products, and the identification unit 40 determines the region of the tightening part in any one of the plurality of desired fashion products to be worn. Assume that it is identified that it appears more than a set number. In this case, the simulation control unit 30 determines that the desired fashion product to be worn (ie, any one desired fashion product) in which the region of the tightening part appears greater than or equal to a preset number is small for the user (that is, the user desires to wear the corresponding fashion product). When the product is actually purchased and worn, it is judged that it may be small), and information about the same type of fashion product having a size (size) that is one (or more than two) larger than the desired fashion product is recommended to the user as a recommended fashion product. The recommendation may be displayed in one area (the first area) of the screen.

이때, 시뮬레이션 제어부(30)는, 착용 희망 패션 제품에 대하여 기 설정된 개수 이상의 조임 부위의 영역이 식별된 경우(일예로, 5개의 조임 부위의 영역이 식별된 경우), 식별된 조임 부위의 영역의 개수, 식별된 조임 부위의 영역 각각에 대한 조임 강도값, 및 식별된 조임 부위의 영역의 위치 중 적어도 하나를 고려하여 착용 희망 패션 제품 대비 몇 단계로 치수 차이가 나는 패션 제품을 추천할 것인지를 결정할 수 있다.At this time, the simulation control unit 30, when the region of the tightening part more than a preset number for the desired fashion product to be worn is identified (for example, when 5 regions of the tightening part are identified), the area of the identified tightening part is Decide whether to recommend a fashion product with a size difference from the desired fashion product to be worn in consideration of at least one of the number, the tightening strength value for each region of the identified tightening portion, and the location of the identified tightening portion region can

예시적으로, 착용 희망 패션 제품이 M 사이즈이고, 착용 희망 패션 제품에서 식별된 조임 부위의 영역의 개수가 8개 이상인 경우, 시뮬레이션 제어부(30)는 착용 희망 패션 제품 대비 2단계 큰 치수(XL 사이즈)를 갖는 동종의 패션 제품의 정보를 제1 영역에 표시할 수 있다. 착용 희망 패션 제품이 M 사이즈이고, 착용 희망 패션 제품에서 식별된 조임 부위의 영역의 개수가 3개 이상 8개 미만인 경우, 시뮬레이션 제어부(30)는 착용 희망 패션 제품 대비 한단계(1단계) 큰 치수(즉, S 사이즈)를 갖는 동종의 패션 제품의 정보를 제1 영역에 표시할 수 있다.Exemplarily, when the desired fashion product to be worn is size M, and the number of regions of the tightened portion identified in the desired fashion product to be worn is 8 or more, the simulation control unit 30 controls the size of the desired fashion product by two steps (XL size) compared to the desired fashion product. ) of the same type of fashion product may be displayed in the first area. If the desired fashion product to be worn is M size, and the number of areas of tightening parts identified in the desired fashion product to be worn is 3 or more but less than 8, the simulation control unit 30 controls the size by one step (1 step) larger than the desired fashion product to be worn ( That is, information on fashion products of the same type having size S) may be displayed in the first area.

화면의 제1 영역에 표시되는 동종 패션 제품의 정보는 동종 패션 제품의 이미지일 수 있으며, 이에 한정되는 것은 아니고 동종 패선 제품의 제품 속성 정보 중 적어도 하나가 포함될 수 있다.The information of the same type of fashion product displayed on the first area of the screen may be an image of the same type of fashion product, but is not limited thereto, and may include at least one of product attribute information of the same type of fashion product.

상술한 본원의 일예에서는, 식별부(40)가 기 설정된 조임 강도값(이는 기 설정된 조임 강도 상한값이라 달리 지칭될 수 있음) 이상의 조임 강도값이 나타나는 조임 부위의 영역을 식별함에 따라, 그 결과에 따라 시뮬레이션 제어부(30)가 보다 큰 치수의 동종 패션 제품을 추천하는 경우에 대하여 예시하였으나, 이에만 한정되는 것은 아니다. 다른 일예로, 식별부(40)는 기 설정된 조임 강도 하한값 미만에 해당하는 조임 강도값이 나타나는 조임 부위의 영역을 식별하고, 그 결과에 따라 시뮬레이션 제어부(30)는 해당 착용 희망 패션 제품이 사용자에게 너무 큰 것으로 판단하여 착용 희망 패션 제품보다 한 단계(혹은 두단계 이상) 작은 치수의 동종 패션 제품을 추천 패션 제품으로서 화면의 제1 영역에 표시할 수 있다.In the above-described example of the present application, as the identification unit 40 identifies the region of the tightening portion in which the tightening strength value greater than or equal to the preset tightening strength value (which may be referred to as a preset upper limit of tightening strength) is identified, the result is Accordingly, the case in which the simulation control unit 30 recommends the same type of fashion product having a larger dimension has been exemplified, but the present invention is not limited thereto. As another example, the identification unit 40 identifies the region of the tightening portion in which the tightening strength value corresponding to less than the preset tightening strength lower limit appears, and according to the result, the simulation control unit 30 provides the desired fashion product to be worn to the user. It is determined that the size is too large and the same type of fashion product having a size smaller than the desired fashion product to be worn by one (or two or more steps) may be displayed as a recommended fashion product on the first area of the screen.

시뮬레이션 제어부(30)는, 화면의 제1 영역에 추천 패션 제품으로서 일예로 착용 희망 패션 제품보다 한 단계 큰 치수를 갖는 동종 패션 제품의 정보(일예로 이미지)가 표시된 이후, 표시된 동종 패션 제품의 정보에 대하여 사용자 입력이 이루어진 경우, 사용자 입력에 응답하여 동종 패션 제품의 착용이 이루어진 제품 적용 아바타의 영상을 생성해(재생성해) 화면에 표시할 수 있다.The simulation control unit 30 is configured to display, as a recommended fashion product, information (eg, an image) of a fashion product of the same type having a dimension larger than that of a desired fashion product to be worn on the first area of the screen (eg, an image), then the information of the displayed fashion product When a user input is made to , an image of an avatar to which a product of the same type is worn is generated (regenerated) and displayed on the screen in response to the user input.

즉, 시뮬레이션 제어부(30)는 화면의 제1 영역에 추천 패션 제품에 대한 사용자 입력이 이루어진 경우, 그에 응답하여 실시간으로 사용자 입력이 이루어진 추천 패션 제품이 착용된 제품 적용 아바타의 영상을 재생성하여 화면에 표시할 수 있다.That is, when a user input for a recommended fashion product is made in the first area of the screen, the simulation control unit 30 regenerates an image of an avatar to which the recommended fashion product is worn in real time and is displayed on the screen in response. can be displayed

이러한 시뮬레이션부(270)는 제품 착용 아바타를 통하여 사용자가 선택한 패션 제품(사용자가 선택한 착용 희망 패션 제품, 사용자가 선택한 추천 패션 제품)의 착용이 이루어진 아바타의 모습을 실시간으로 보여주되, 이때 패션 제품이 착용된 사용자 체형을 모델링한 아바타 상에서 착용된 패션 제품에 의해 너무 조여지거나 너무 느슨한 부분의 위치를 화면에 표시함으로써, 사용자의 신체 특성을 고려하여 생성된 아바타로 하여금 특정 패션 제품을 실제 착용하였을 때 예상되는 모습을 현실감있게 제공받을 수 있다.The simulation unit 270 shows, in real time, the appearance of the avatar in which the user's selected fashion product (the user's desired wearable fashion product, the user's selected recommended fashion product) is worn through the product wearing avatar, in which case the fashion product is displayed. By displaying on the screen the location of the part that is too tight or too loose by the fashion product worn on the avatar that models the user's body type, the avatar created in consideration of the user's body characteristics can be predicted when a specific fashion product is actually worn. It can be provided realistically.

또한, 시뮬레이션부(270)는 제품 착용 아바타의 자세를 변경시켜가며 자세 변경시마다 나타나는 조임 부위의 영역을 실시간으로 표시해 줄 수 있어, 단순히 착용 희망 패션 제품을 정자세로 입었을 때뿐만 아니라 동적으로 움직여 자세를 변경시켰을 때에도 조임이 예상되는 부분 등을 사용자가 직관적으로 인지할 수 있도록 할 수 있어, 해당 착용 희망 패션 제품을 살지에 대한 결정이 보다 결단력 있게 이루어지도록 도울 수 있고 온라인 쇼핑몰에서의 패션 제품의 구매 실패 확률을 효과적으로 줄일 수 있다.In addition, the simulation unit 270 can change the posture of the product wearing avatar and display the region of the tightening part that appears whenever the posture is changed in real time, so that the posture can be adjusted dynamically by moving the desired fashion product to be worn in an upright posture as well as simply when the desired fashion product is worn in an upright posture. Even when a change is made, the user can intuitively recognize the expected tightening part, so it can help a decision to purchase the desired fashion product to be worn more decisively, and failure to purchase a fashion product in an online shopping mall The probability can be effectively reduced.

평가부(50)는, 시뮬레이션 제어부(30)에 의해 화면에 표시된 제품 착용 아바타의 영상(혹은 자세 변경 아바타의 영상) 내 제품 착용 아바타에 대하여 스타일링 평가를 수행할 수 있다.The evaluation unit 50 may perform styling evaluation on the product wearing avatar in the image (or the posture change avatar image) of the product wearing avatar displayed on the screen by the simulation control unit 30 .

시뮬레이션 제어부(30)는 평가부(50)에 의한 스타일링 평가의 결과에 따라 화면의 일영역에 추천 패션 제품의 정보를 표시할지 여부를 결정할 수 있다. 이때, 스타일링 평가 결과를 기반으로 추천 패션 제품의 정보 표시가 이루어지는 화면의 일영역은 후술하는 설명에서 설명의 편의상 제2 영역이라 지칭될 수 있다.The simulation control unit 30 may determine whether to display information of a recommended fashion product in one area of the screen according to a result of the styling evaluation by the evaluation unit 50 . In this case, one region of the screen in which information of recommended fashion products is displayed based on the styling evaluation result may be referred to as a second region for convenience of description in the following description.

평가부(50)는 스타일링 평가의 수행시 복수의 평가 항목에 대한 평가 점수를 산출하되, 산출된 평가 점수에 기반하여 복수의 평가 항목 중 평가 점수가 기 설정된 평가 점수를 충족하지 못하는 평가 항목을 점수 미달 평가 항목으로서 식별할 수 있다. 특히, 평가부(50)는 후술하여 설명하는 사용자 아바타 영상에 대한 스타일링 평가 점수를 산출할 수 있으며, 이는 사용자 아바타 영상과 관련하여 복수의 평가 항목에 대한 평가 점수(토탈 평가 점수)를 의미할 수 있다.The evaluation unit 50 calculates evaluation scores for a plurality of evaluation items when performing styling evaluation, and scores evaluation items whose evaluation scores do not satisfy a preset evaluation score among the plurality of evaluation items based on the calculated evaluation scores It can be identified as an under-evaluation item. In particular, the evaluation unit 50 may calculate a styling evaluation score for the user avatar image, which will be described later, which may mean evaluation scores (total evaluation scores) for a plurality of evaluation items in relation to the user avatar image. have.

이후, 시뮬레이션 제어부(30)는 점수 미달 평가 항목에 대한 식별에 응답하여, 제품 착용 아바타에 착용된 착용 희망 패션 제품 중 점수 미달 평가 항목과 관련된 착용 희망 패션 제품에 대한 다른 패션 제품으로의 대체를 위해 추천 패션 제품의 정보를 화면의 일영역(제2 영역)에 표시할 수 있다.Thereafter, the simulation control unit 30 responds to the identification of the low-scoring evaluation item, and replaces the desired fashion product related to the low-scoring evaluation item among the desired fashion products worn on the product wearing avatar with another fashion product. Information on recommended fashion products may be displayed in one area (second area) of the screen.

여기서, 복수의 평가 항목은, 제품 착용 아바타에 착용된 착용 희망 패션 제품들 간의 어울림 정도에 관한 제1 평가 항목 및 제품 착용 아바타의 피부톤과 제품 착용 아바타에 착용된 착용 희망 패션 제품 간의 어울림 정도에 관한 제2 평가 항목을 포함할 수 있다. 다만, 이에만 한정되는 것은 아니고, 복수의 평가 항목에는 디자인(예시적으로, 패션 제품의 무늬나 패턴 등), 색상(컬러) 조합 등과 관련하여, 아바타와 해당 아바타에 착용된 패션 제품 간의 어울림 정도, 패션 제품들 간의 어울림 정도를 평가하는 항목이라면 무엇이든 적용 가능하다.Here, the plurality of evaluation items include a first evaluation item regarding the degree of matching between desired fashion products worn on the product wearing avatar and a matching degree between the skin tone of the product wearing avatar and the desired fashion product worn on the product wearing avatar. A second evaluation item may be included. However, the present invention is not limited thereto, and the plurality of evaluation items includes the degree of matching between the avatar and the fashion product worn on the avatar in relation to design (eg, a pattern or pattern of a fashion product), color (color) combination, etc. , any item that evaluates the degree of harmony between fashion products is applicable.

예시적으로, 제1 평가 항목에 의하면, 제품 착용 아바타에 착용 희망 패션 제품으로서 구두와 상의가 착용되어 있는 경우 구두와 상의가 서로 어울리는지가 평가(서로 어울리는 정도가 평가)될 수 있다. 또한, 제1 평가 항목에 의하면, 일예로 제품 착용 아바타에 상의-면티와 하의-치마가 착용되어 있는 경우 상의와 하의가 서로 어울리는지가 평가될 수 있다.For example, according to the first evaluation item, when shoes and a top are worn as a desired fashion product to be worn on the product wearing avatar, whether the shoes and the top match each other (the degree of matching with each other is evaluated) may be evaluated. Also, according to the first evaluation item, when, for example, a top-cotton tee and a bottom-skirt are worn on the product wearing avatar, whether the top and bottom match each other may be evaluated.

또한, 제2 평가 항목에 의하면, 일예로 아바타의 피부 톤(일예로 얼굴 피부 색상)과 착용 희망 패션 제품인 상의의 색상이 서로 어울리는지가 평가될 수 있다. 또한, 제2 평가 항목에 의하면, 아바타의 피부 톤이나 얼굴형과 착용 희망 패션 제품의 무늬 패턴(예를 들어, 줄무늬 패턴, 체크 패턴인 경우 등)과 서로 어울리는지가 평가될 수 있다.Also, according to the second evaluation item, as an example, whether the skin tone of the avatar (eg, the skin color of the face) and the color of the top, which is a desired fashion product, match each other may be evaluated. In addition, according to the second evaluation item, it may be evaluated whether the skin tone or face shape of the avatar and the pattern pattern of the desired fashion product to be worn (for example, a stripe pattern or a check pattern) match each other.

평가부(50)는 제품 착용 아바타에 대한 스타일링 평가시 제품 착용 아바타에 대한 평가 점수(즉, 복수의 평가 항목에 대한 평가 점수)를 산출할 수 있는데, 이때 제품 착용 아바타에 대한 평가 점수는 복수의 타 사용자에 의하여 평가된 타인 평가 점수를 고려하여 산출될 수 있다.The evaluator 50 may calculate an evaluation score for the product wearing avatar (ie, evaluation scores for a plurality of evaluation items) when evaluating the styling of the product wearing avatar, wherein the evaluation score for the product wearing avatar is a plurality of evaluation points. It may be calculated in consideration of the evaluation score of others evaluated by other users.

일예로, 사용자는 자신이 구매하길 희망하는 패션 제품인 착용 희망 패션 제품이 착용된 아바타(제품 착용 아바타, 자세 변경 아바타)에 대한 전반적인 스타일링을 타 사용자들에게 평가받기 위해(즉, 타 사용자에 의한 스타일링 평가를 받기 위해), 일예로 시뮬레이션 제어부(30)에 의해 생성되어 화면에 표시된 아바타(제품 착용 아바타, 자세 변경 아바타)의 영상에 대한 평가 요청 신호를 시뮬레이션부(270)에 입력할 수 있다. 후술하는 설명에서는 시뮬레이션 제어부(30)에 의해 생성되어 화면에 표시된 아바타(제품 착용 아바타, 자세 변경 아바타)의 영상을 설명의 편의상 사용자에 대응하는 아바타의 영상으로서, 사용자 아바타 영상이라 지칭하기로 한다.For example, in order for the user to evaluate the overall styling of the avatar (product wearing avatar, posture change avatar) in which the desired fashion product is worn, which is a fashion product that the user wants to purchase, in order to be evaluated by other users (ie, styling by other users). In order to receive evaluation), for example, an evaluation request signal for an image of an avatar (product wearing avatar, posture change avatar) generated by the simulation controller 30 and displayed on the screen may be input to the simulation unit 270 . In the following description, an image of an avatar (product wearing avatar, posture change avatar) generated by the simulation controller 30 and displayed on the screen is referred to as a user avatar image for convenience of explanation.

이때, 평가 요청 신호는 화면의 일영역에 마련된 평가 요청 버튼에 대한 사용자 입력이 이루어지는 경우, 평가 요청 버튼에 대한 사용자 입력에 응답하여 시뮬레이션 제어부(30)에 의해 생성된 아바타의 영상(즉, 사용자 아바타 영상)을 소셜 네트워크 서비스(Social Network Services/Sites, SNS) 상에 업로드하는 신호를 의미할 수 있다.In this case, the evaluation request signal is an avatar image (ie, user avatar) generated by the simulation controller 30 in response to a user input to the evaluation request button when a user input is made to the evaluation request button provided in one area of the screen. image) may mean a signal for uploading to a social network service (Social Network Services/Sites, SNS).

평가 요청 신호에 의하여, 사용자 아바타 영상이 SNS 상에 업로드되면, 해당 영상의 업로드가 이루어진 SNS의 이용자들(즉, 타 사용자들)은 사용자 아바타 영상에 대하여 복수의 평가 항목과 관련된 스타일링 평가를 수행할 수 있다. SNS의 이용자들(즉, 타 사용자들)은 사용자 아바타 영상에 대하여 복수의 평가 항목과 관련하여 평가 점수를 제공할 수(매길 수) 있으며, 이처럼 타 사용자에 의하여 평가된 점수는 타인 평가 점수라 지칭될 수 있다.When the user avatar image is uploaded to the SNS according to the evaluation request signal, users of the SNS (ie, other users) to which the image has been uploaded may perform styling evaluation related to a plurality of evaluation items on the user avatar image. can Users of the SNS (ie, other users) may provide (or rate) an evaluation score in relation to a plurality of evaluation items for the user avatar image, and the score evaluated by other users is referred to as the evaluation score of others. can be

평가부(50)는 사용자 아바타 영상에 대하여 타 사용자들에 의해 평가된 적어도 하나의 점수(즉, 적어도 하나의 타인 평가 점수)를 고려하여 사용자 아바타 영상과 관련한 스타일링 평가 점수(즉, 사용자 아바타 영상과 관련하여 복수의 평가 항목에 관한 토탈 평가 점수)를 산출할 수 있다. 이때, 사용자 아바타 영상과 관련된 스타일링 평가 점수는, 일예로 사용자 아바타 영상에 대하여 평가된 타인 평가 점수들의 평균값으로 산출될 수 있으나, 이에만 한정되는 것은 아니다.The evaluation unit 50 considers at least one score (ie, at least one evaluation score of others) evaluated by other users for the user avatar image and a styling evaluation score (ie, the user avatar image and the user's avatar image). In this regard, a total evaluation score for a plurality of evaluation items) may be calculated. In this case, the styling evaluation score related to the user avatar image may be calculated as, for example, an average value of evaluation scores of others evaluated for the user avatar image, but is not limited thereto.

평가부(50)는 사용자 아바타 영상과 관련한 스타일링 평가 점수에서 복수의 평가 항목 중 평가 점수가 기 설정된 평가 점수를 충족하지 못하는 평가 항목을 점수 미달 평가 항목으로서 식별할 수 있다. 여기서, 일예로 점수 미달 평가 항목이 제2 평가 항목으로 식별되었다고 하자.The evaluation unit 50 may identify an evaluation item in which an evaluation score does not satisfy a preset evaluation score among a plurality of evaluation items in the styling evaluation score related to the user avatar image as an under-score evaluation item. Here, as an example, it is assumed that an under-scored evaluation item is identified as a second evaluation item.

이러한 경우, 시뮬레이션 제어부(30)는 사용자 아바타 영상 내 제품 착용 아바타의 피부톤과 해당 제품 착용 아바타가 착용하고 있는 착용 희망 패션 제품이 서로 어울리지 않는 것으로 판단(즉, 사용자가 구매하길 희망하는 착용 희망 패션 제품이 사용자의 피부톤과 어울리지 않는 것으로 판단)하여, 점수 미달 평가 항목과 관련된 착용 희망 패션 제품에 대한 다른 패션 제품으로의 대체를 위해 화면의 제2 영역에 추천 패션 제품의 정보를 표시할 수 있다. 이때, 화면의 제2 영역에 표시되는 추천 패션 제품은, 점수 미달 평가 항목과 관련된 착용 희망 패션 제품을 대체하기 위한 대체 추천 패션 제품이라 달리 지칭될 수 있다.In this case, the simulation controller 30 determines that the skin tone of the avatar wearing the product in the user avatar image and the desired fashion product worn by the avatar wearing the product do not match each other (ie, the desired fashion product that the user wants to purchase). It is determined that it does not match the user's skin tone), and information on a recommended fashion product may be displayed on the second area of the screen to replace the desired fashion product to be worn related to the under-scored evaluation item with another fashion product. In this case, the recommended fashion product displayed in the second area of the screen may be referred to as an alternative recommended fashion product for replacing the desired fashion product to be worn related to the low-scoring evaluation item.

또한, 평가부(50)는 사용자 아바타 영상과 관련한 스타일링 평가 점수(즉, 사용자 아바타 영상과 관련하여 복수의 평가 항목에 관한 토탈 평가 점수)를 산출함에 있어서, 타인 평가 점수를 이용하는 것 이외에도, 다른 일예로 학습된 딥러닝 모델을 이용하여 스타일링 평가 점수를 산출할 수 있다. 딥러닝 모델의 종류에 대한 예는 앞서 설명했으므로, 이하 중복되는 설명은 생략하기로 한다.In addition, the evaluation unit 50 calculates the styling evaluation score related to the user avatar image (that is, the total evaluation score for a plurality of evaluation items in relation to the user avatar image), in addition to using the evaluation score of others, another example The styling evaluation score can be calculated using the deep learning model trained with Since examples of the types of deep learning models have been described above, overlapping descriptions will be omitted below.

딥러닝 모델은, 일예로 복수의 사용자의 신체 특성 정보(얼굴형, 피부톤, 사이즈 등)를 입력으로 하고 복수의 사용자의 신체 특성 정보 각각과 매칭되는 패션 제품을 출력값으로 하여 학습하는 학습된 신경망 모델을 의미할 수 있다.The deep learning model, for example, is a learned neural network model that learns by inputting body characteristic information (face shape, skin tone, size, etc.) of a plurality of users and using fashion products matching each of the body characteristic information of a plurality of users as an output value can mean

시뮬레이션 제어부(30)는 제2 영역에 표시되는 추천 패션 제품의 정보(대체 추천 패션 제품의 정보)로서, 대체 추천 패션 제품의 이미지, 대체 추천 패션 제품의 리스트 등을 제공(표시)할 수 있다.The simulation controller 30 may provide (display) an image of an alternative recommended fashion product, a list of alternative recommended fashion products, etc. as information (information on an alternative recommended fashion product) displayed on the second area of the recommended fashion product.

이때, 화면의 제2 영역에 표시되는 추천 패션 제품(대체 추천 패션 제품)에 포함된 리스트에는 점수 미달 평가 항목과 관련된 착용 희망 패션 제품과 색상만 다른 동종의 패션 제품 및 점수 미달 평가 항목과 관련된 착용 희망 패션 제품과 유사한 성능(모양, 소재, 신축성, 비침 정도 등)을 가진 다른 이종의 패션 제품이 포함될 수 있다. 이때, 다른 이종의 패션 제품으로는 점수 미달 평가 항목과 관련된 착용 희망 패션 제품과 대비하여 후기(평가)가 더 좋거나, 가격이 더 낮거나, 품질이 더 좋은 패션 제품이 포함될 수 있다.At this time, in the list included in the recommended fashion products (recommended alternative fashion products) displayed on the second area of the screen, fashion products of the same type that differ only in color from the desired fashion product related to the under-scoring evaluation item and wearing related to the under-scoring evaluation item Other heterogeneous fashion products with similar performance (shape, material, elasticity, see-through, etc.) to the desired fashion product may be included. In this case, the different types of fashion products may include fashion products with better reviews (evaluation), lower prices, or higher quality compared to the desired fashion products related to the low-scoring evaluation item.

이에 따르면, 시뮬레이션부(270)는 사용자가 구매 희망하는 패션 제품(착용 희망 패션 제품) 중 평가부(50)에 의하여 사용자에게 어울리지 않는 것으로 평가되는 패션 제품(즉, 점수 미달 평가 항목과 관련된 착용 희망 패션 제품)을 대체할 대체 추천 패션 제품(대체 추천 패션 제품)의 정보(일예로, 리스트)를 제공함에 있어서, 점수 미달 평가 항목과 관련된 착용 희망 패션 제품과 색상만 다른 동종의 패션 제품뿐만 아니라 그와는 종류가 다르나 성능이 좋은 가성비 좋은 패션 제품을 함께 대체 추천 패션 제품의 리스트에 포함시켜 제공(추천)할 수 있다. 이러한 시뮬레이션부(270)는 사용자로 하여금, 점수 미달 평가 항목과 관련된 착용 희망 패션 제품의 대체(교체)시, 합리적으로 제품 비교/선택이 가능하도록 하며, 보다 용이하고 효율적으로 대체/관리가 이루어지도록 지원할 수 있다.According to this, the simulation unit 270 is a fashion product evaluated as unsuitable for the user by the evaluation unit 50 among the fashion products that the user desires to purchase (that is, the fashion product that the user wants to wear (ie, desired to wear in relation to the low-scoring evaluation item). In providing information (for example, a list) of alternative recommended fashion products (recommended alternative fashion products) to replace fashion products), It is possible to provide (recommend) a fashion product that is different from the one with good performance but is included in the list of alternative recommended fashion products. The simulation unit 270 allows the user to rationally compare/select products when replacing (replacement) the desired fashion product to wear related to the evaluation item with a low score, and to make replacement/management easier and more efficient. can support

또한, 시뮬레이션 제어부(30)는 제품 착용 아바타의 영상에 포함된 착용 희망 패션 제품의 구매를 위한 구매 버튼을 화면의 일영역에 표시할 수 있다. 이때, 후술하는 설명에서 구매 버튼이 이루어지는 화면의 일영역은 화면의 제3 영역이라 달리 지칭될 수 있다.Also, the simulation controller 30 may display a purchase button for purchasing a desired fashion product included in the image of the product wearing avatar on one area of the screen. In this case, in the description to be described later, the one region of the screen where the purchase button is made may be referred to as a third region of the screen differently.

시뮬레이션 제어부(30)는 화면의 제3 영역에 표시된 구매 버튼에 대한 사용자 입력이 이루어진 경우, 화면에 표시된 제품 착용 아바타 상에 착용된 착용 희망 패션 제품의 구매를 위한 구매 요청 신호를 전송할 수 있다.When a user input is made to the purchase button displayed on the third area of the screen, the simulation control unit 30 may transmit a purchase request signal for purchasing a desired fashion product worn on the product wearing avatar displayed on the screen.

여기서, 구매 요청 신호는, 착용 희망 패션 제품을 판매하는 온라인 쇼핑몰과 연계되어 착용 희망 패션 제품의 자동 결제가 가능(혹은 자동 결제로 인한 자동 배송이 가능)하도록 제공하는 신호이거나 및/또는 착용 희망 패션 제품에 대한 주문 장려를 위해 본 장치(100)와 연계된 사용자 단말(1)의 화면에 메시지 알림을 제공하는 신호일 수 있다.Here, the purchase request signal is a signal provided to enable automatic payment of the desired fashion product to be worn (or automatic delivery through automatic payment is possible) in connection with an online shopping mall that sells the desired fashion product to be worn and/or the desired fashion to be worn It may be a signal for providing a message notification on the screen of the user terminal 1 associated with the device 100 in order to encourage an order for a product.

이러한 시뮬레이션부(270)는 구매 버튼에 대한 사용자 입력에 응답하여 구매 요청 신호를 전송함으로써, 사용자가 구매 희망하는 패션 제품에 대한 착용 시뮬레이션을 본 이후 구매를 원하는 패션 제품들을 동시에 일괄적으로 구매할 수 있도록 제공할 수 있어, 패션 제품에 대한 사용자의 구매 편의성을 향상시킬 수 있다.The simulation unit 270 transmits a purchase request signal in response to a user input for a purchase button so that the user can simultaneously purchase fashion products desired to be purchased after viewing a wearing simulation for the desired fashion product. can be provided, so that the user's convenience in purchasing fashion products can be improved.

또한, 본 시스템(1000)은 본 장치(100)와 연동되는 전방표시장치(3)를 포함할 수 있다. 본 장치(100)와 전방표시장치(3) 간에는 네트워크(2)를 통해 연동(연결)될 수 있으며, 네트워크(2)에 대한 설명은 앞서 설명했으므로, 이하 중복되는 설명은 생략하기로 한다.In addition, the present system 1000 may include a front display device 3 interlocked with the present device 100 . The device 100 and the front display device 3 may be linked (connected) through the network 2 , and since the description of the network 2 has been described above, the overlapping description will be omitted below.

시뮬레이션 제어부(30)는 본 장치(100)와 연동되는 전방표시장치(3)의 동작을 제어할 수 있다. 시뮬레이션 제어부(30)는 화면의 일영역(일예로 제4 영역)에 표시된 실감 데이터 제공 버튼에 대한 사용자 입력이 이루어진 것으로 판단되는 경우, 실감 데이터 제공 버튼에 대한 사용자 입력에 응답하여 착용 희망 패션 제품의 제품 속성 정보가 고려된 착용 희망 패션 제품에 대응하는 패션 제품 실감 데이터가 전방표시장치(3)의 전방에 제공되도록 전방표시장치(3)의 동작을 제어할 수 있다.The simulation control unit 30 may control the operation of the front display device 3 interlocked with the present device 100 . When it is determined that a user input has been made to the sensory data providing button displayed in one area (eg, the fourth area) of the screen, the simulation control unit 30 responds to the user's input to the sensory data providing button of the desired fashion product to be worn. The operation of the front display device 3 may be controlled so that fashion product sensory data corresponding to a desired fashion product to be worn in consideration of product attribute information is provided to the front of the front display device 3 .

여기서, 패션 제품 실감 데이터라 함은, 착용 희망 패션 제품의 제품 속성 정보(일예로, 치수, 소재, 신축성, 및 비침 정도 등)를 고려하여 착용 희망 패션 제품을 3차원 입체 영상으로 구현한 데이터(즉, 3차원 입체 영상 데이터)를 의미할 수 있다. 즉, 패션 제품 실감 데이터는 착용 희망 패션 제품의 실물(실제) 크기와 상응하는 크기로 구현되는 착용 희망 패션 제품의 3차원 입체 영상 데이터를 의미할 수 있다. 다시 말하자면, 패션 제품 실감 데이터는, 전방표시장치(3)에 의하여 상공에 조사되는 빔을 통해 보여지는 착용 희망 패션 제품에 대응하는 3차원 패션 제품(3차원 형상의 패션 제품)을 의미할 수 있다.Here, the fashion product realization data refers to data that implements a desired fashion product as a three-dimensional image ( That is, it may mean 3D stereoscopic image data). That is, the sensory data of the fashion product may mean 3D stereoscopic image data of the desired fashion product to be worn, which is implemented in a size corresponding to the actual (actual) size of the desired fashion product. In other words, the fashion product sensory data may mean a three-dimensional fashion product (fashion product of a three-dimensional shape) corresponding to a desired fashion product to be worn shown through a beam irradiated into the sky by the front display device 3 . .

예시적으로, 착용 희망 패션 제품의 제품 속성 정보로서 해당 착용 희망 패션 제품의 총기장, 가슴단면, 어깨넓이, 및 소매길이에 관한 정보가 크롤링을 통해 획득되어 있다고 하자. 이때, 해당 착용 희망 패션 제품에 대한 패션 제품 실감 데이터의 제공을 위한 사용자 입력이 이루어지면(즉, 실감 데이터 제공 버튼에 대한 사용자 입력이 이루어지면), 시뮬레이션 제어부(30)는 전방표시장치(3)를 통해 전방에 패션 제품 실감 데이터가 제공되도록 전방표시장치(3)의 동작을 제어할 수 있다. 이때, 제공되는 패션 제품 실감 데이터는 착용 희망 패션 제품의 총기장, 가슴단면, 어깨넓이, 및 소매길이에 관한 정보를 기반으로 해당 치수에 맞추어 착용 희망 패션 제품을 3차원 입체 영상으로 영상화한 데이터일 수 있다.For example, it is assumed that information on the total length, chest section, shoulder width, and sleeve length of the desired fashion product to be worn is obtained through crawling as product attribute information of the desired fashion product to be worn. At this time, when a user input for providing the sensory data of the fashion product for the desired fashion product to be worn is made (that is, when a user input is made for the sensory data providing button), the simulation control unit 30 controls the front display device 3 It is possible to control the operation of the front display device 3 so that the fashion product sensory data is provided in the front through the . At this time, the provided fashion product realism data is data obtained by imaging the desired fashion product to be worn in a three-dimensional image according to the relevant dimensions based on the information on the total length, chest section, shoulder width, and sleeve length of the desired fashion product. can

시뮬레이션 제어부(30)는 네트워크(2)를 통해 전방표시장치(3)와 연동(연결)되어 전방표시장치(3)의 동작을 제어할 수 있다. 전방표시장치(Head Up Display, HUD)(3)는 빔(beam) 조사를 통해 전방표시장치(3)의 전방에(혹은 전방의 공중에, 전방의 상공에) 패션 제품 실감 데이터를 제공할 수 있다.The simulation control unit 30 may be linked (connected) with the front display device 3 through the network 2 to control the operation of the front display device 3 . A Head Up Display (HUD) 3 can provide real-world data of fashion products in front of the front display device 3 (or in the air in front, in the air in front) through beam irradiation. have.

전방표시장치(3)는 시뮬레이션 제어부(30)의 제어에 의해, 패션 제품 실감 데이터를 전방표시장치(3)의 전방에 제공할 수 있다. 전방표시장치(3)는 빔(beam)을 통해 전방표시장치(3)의 전방에 초점이 맺히도록 할 수 있으며, 이로부터 해당 초점에 대응하는 위치에 패션 제품 실감 데이터에 대응하는 영상(이미지)이 표시되도록 할 수 있다.The front display device 3 may provide the sensory data of the fashion product to the front of the front display device 3 under the control of the simulation controller 30 . The front display device 3 may focus on the front of the front display device 3 through a beam, and from this, an image (image) corresponding to the sensory data of a fashion product at a position corresponding to the focus can be displayed.

다시 말해, 실감 데이터 제공 버튼에 대한 사용자 입력이 이루어지면, 전방표시장치(3)는 시뮬레이션 제어부(30)의 제어에 응답하여 전방표시장치(3)의 전방에 빔을 통해 상을 뿌림으로써 패션 제품 실감 데이터를 전방표시장치(3) 전방의 상공 상에 제공할 수 있다.In other words, when a user input to the sensory data providing button is made, the front display device 3 scatters the image in front of the front display device 3 through a beam in response to the control of the simulation controller 30 to produce a fashion product. The sensory data may be provided on the sky in front of the front display device 3 .

도 8은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치(100)와 연동되는 전방표시장치(3)에 의해 제공되는 패션 제품 실감 데이터의 일예를 나타낸 도면이다.8 is a diagram illustrating an example of sensory data for a fashion product provided by the front display device 3 interworking with the social network service providing device 100 using augmented reality according to an embodiment of the present application.

도 8을 참조하면, 시뮬레이션 제어부(30)는 실감 데이터 제공 버튼에 대한 사용자 입력에 응답하여, 실감 데이터 제공 버튼과 관련된 착용 희망 패션 제품에 대응하는 패션 제품 실감 데이터가 전방표시장치(3)의 전방 상공에 제공되도록 전방표시장치(3)의 동작을 제어할 수 있다.Referring to FIG. 8 , in response to a user input for the sensory data providing button, the simulation control unit 30 displays the sensory data of a fashion product corresponding to a desired fashion product to be worn related to the sensory data providing button on the front of the front display device 3 . It is possible to control the operation of the front display device 3 so as to be provided in the sky.

일반적으로 패션 제품을 판매, 거래하고 있는 온라인 쇼핑몰 상에서는, 패션 제품의 크기를 나타내는 정보(일예로, 총기장, 가슴단면, 어깨넓이, 및 소매길이 등)의 표시를 단순히 수치 값(몇 cm, 몇 mm 등)으로만 표시하고 있다. 그렇게 때문에, 사용자는 온라인 쇼핑몰 상에서 판매되는 패션 제품을 실제로 받아보았을 때 그 크기가 어느정도 되는지를 쉽게 가늠(판단)하는 데에 어려움이 있다.In general, in online shopping malls that sell and trade fashion products, the display of information indicating the size of fashion products (eg, gun length, chest section, shoulder width, and sleeve length, etc.) mm, etc.). For this reason, it is difficult for the user to easily estimate (judgment) what the size of the fashion product sold on the online shopping mall is when actually receiving it.

즉, 종래에는 온라인 쇼핑몰 상에 표시된 수치 값을 토대로만 사용자가 해당 패션 제품의 크기를 가늠할 수 있었기 때문에, 실제로 실물 패션 제품을 받아보았을 때 자신(사용자 자신)이 예상했던 패션 제품의 크기보다 실제 해당 패션 제품의 크기가 더 크거나 혹은 더 작은 경우가 빈번히 존재하였으며, 이러한 경우 사용자가 다시 다른 치수의 패션 제품으로 교환하거나 환불해야 하는 불편함이 따른다.That is, in the prior art, because the user could estimate the size of the corresponding fashion product only based on the numerical value displayed on the online shopping mall, when the actual fashion product was actually received, the actual size of the fashion product was greater than the size of the fashion product expected by the user (the user himself). There have been frequent cases where the size of the fashion product is larger or smaller, and in this case, the user has to exchange or refund the fashion product with a different size again.

이에, 시뮬레이션부(270)는 패션 제품 실감 데이터의 실제 크기와 상응하는 크기를 갖는 3차원 입체 영상인 패션 제품 실감 데이터를 전방표시장치(3)를 통해 사용자에게 제공할 수 있다. 이러한 시뮬레이션부(270)는 사용자가 구매를 희망하는 패션 제품(착용 희망 패션 제품)을 구매/결제하기에 앞서, 패션 제품 실감 데이터를 제공받음으로써 구매를 희망하는 패션 제품(착용 희망 패션 제품)의 실물 크기(실제 크기)를 직관적으로 인지하여 체감해볼 수 있도록 제공할 수 있다.Accordingly, the simulation unit 270 may provide the sensory data of the fashion product, which is a 3D stereoscopic image having a size corresponding to the actual size of the sensory data of the fashion product, to the user through the front display device 3 . This simulation unit 270 receives fashion product real-world data before purchasing/paying for a fashion product that the user desires to purchase (fashion product desired to be worn), so that The actual size (actual size) can be intuitively recognized and provided so that you can experience it.

특히나, 시뮬레이션 제어부(30)는 전방표시장치(3)를 통해 제공되는 패션 제품 실감 데이터가 사용자의 신체 상에 투영되도록 전방표시장치(3)의 이동을 제어할 수 있다. 이를 위해, 도면에 도시하지는 않았으나, 본 시스템(1000)은 시뮬레이션부(270)와 네트워크를 통해 연결되는 이미지 센서(미도시)와 이동 제어 부재(미도시)를 포함할 수 있다.In particular, the simulation controller 30 may control the movement of the front display device 3 so that the sensory data of the fashion product provided through the front display device 3 is projected onto the user's body. To this end, although not shown in the drawings, the present system 1000 may include an image sensor (not shown) and a movement control member (not shown) connected to the simulation unit 270 through a network.

여기서, 이미지 센서(미도시)는 패션 제품 실감 데이터의 투영 대상이 되는 사용자의 신체 영상을 획득하는 센서를 의미할 수 있다. 이미지 센서(미도시)는 카메라, 영상 촬영 센서 등으로 달리 표현될 수 있다. 이미지 센서(미도시)는 일예로 사용자 단말(1)에 마련된 이미지 센서, 전방표시장치(3)에 마련된 이미지 센서 및 시뮬레이션부(270)에 자체 마련된 이미지 센서 중 적어도 하나일 수 있으며, 이에 한정되는 것은 아니다.Here, the image sensor (not shown) may mean a sensor that acquires a body image of a user who is a target of projection of sensory data of a fashion product. The image sensor (not shown) may be expressed differently as a camera, an image capturing sensor, or the like. The image sensor (not shown) may be, for example, at least one of an image sensor provided in the user terminal 1 , an image sensor provided in the front display device 3 , and an image sensor provided in the simulation unit 270 , which is limited thereto. it is not

이동 제어 부재(미도시)는 전방표시장치(3)와 결합되고, 좌/우/상/하/전/후에 대한 전방표시장치(3)의 이동 동작을 제어할 수 있다. 이동 제어 부재(미도시)는 전방표시장치(3)의 이동 및 각도의 동작을 제어할 수 있다. 즉, 이동 제어 부재(미도시)는 패션 제품 실감 데이터를 제공하는 전방표시장치(3)의 위치뿐만 아니라 각도를 제어할 수 있다.A movement control member (not shown) may be coupled to the front display device 3 and control movement of the front display device 3 for left/right/up/down/front/rear. A movement control member (not shown) may control movement and angle of the front display device 3 . That is, the movement control member (not shown) may control the angle as well as the position of the front display device 3 providing the sensory data of the fashion product.

일예로, 시뮬레이션 제어부(30)는 이미지 센서(미도시)를 통해 획득된 사용자(패션 제품 실감 데이터의 투영 대상이 되는 사용자)의 신체 영상에 대한 이미지 분석을 통해 사용자의 부분 부위(예를 들어, 머리, 목, 팔, 손목, 상체, 하체, 발목, 발 등의 부위)를 식별할 수 있다. 또한, 시뮬레이션 제어부(30)는 패션 제품 실감 데이터에 대응하는 착용 희망 패션 제품의 분류 유형(예를 들어, 상의인지, 하의인지, 팔찌 등의 액세서리인지, 모자인지 등)을 식별할 수 있다.As an example, the simulation control unit 30 performs image analysis on a body image of a user (a user who is a target of projection of sensory data of a fashion product) obtained through an image sensor (not shown), and the user's partial region (eg, Head, neck, arm, wrist, upper body, lower body, ankle, foot, etc.) can be identified. In addition, the simulation control unit 30 may identify a classification type (eg, whether it is a top or bottom, whether it is an accessory such as a bracelet, a hat, etc.) of a fashion product to be worn corresponding to the sensory data of the fashion product.

이후, 시뮬레이션 제어부(30)는 식별된 착용 희망 패션 제품의 분류 유형과 식별된 사용자의 부분 부위를 기반으로 하여, 착용 희망 패션 제품에 대응하는 패션 제품 실감 데이터가 그에 대응하는 사용자의 신체 부분 부위 상에 투영되도록 이동 제어 부지(미도시)의 동작을 제어함으로써 전방표시장치(3)를 이동시킬 수 있다.Thereafter, the simulation control unit 30 determines the fashion product sensory data corresponding to the desired fashion product to be worn on the corresponding user's body part based on the identified classification type of the desired fashion product to be worn and the identified partial part of the user. By controlling the operation of the movement control site (not shown) to be projected on the front display device 3 can be moved.

예시적으로, 착용 희망 패션 제품의 분류 유형이 상의인 경우, 시뮬레이션 제어부(30)는 착용 희망 패션 제품에 대응하는 패션 제품 실감 데이터가 이미지 분석을 통해 식별된 사용자의 부분 부위 중 식별된 착용 희망 패션 제품의 분류 유형에 대응하는 신체 부분 부위인 상체(즉, 상의에 대응하는 신체부위인 상체) 상에 투영되도록, 이동 제어 부재(미도시)의 동작 제어를 통해 전방표시장치(3)를 이동시키는 제어를 수행할 수 있다. 즉, 시뮬레이션 제어부(30)는 사용자의 신체 부위 중 상체 상에 착용 희망 패션 제품(상의)에 해당하는 패션 제품 실감 데이터가 오버랩하여 투영되도록 전방표시장치(3)를 이동시킬 수 있으며, 이러한 전방표시장치(3)의 이동을 위해 이동 제어 부재(미도시)의 동작을 제어할 수 있다.Exemplarily, when the classification type of the desired fashion product to be worn is upper, the simulation controller 30 may control the desired wear fashion identified from among the user's partial regions in which fashion product sensory data corresponding to the desired fashion product is identified through image analysis. Moving the front display device 3 through the operation control of the movement control member (not shown) so as to be projected onto the upper body that is the body part corresponding to the classification type of the product (that is, the upper body that is the body part corresponding to the upper body). control can be performed. That is, the simulation control unit 30 may move the front display device 3 so that the fashion product sensory data corresponding to the desired fashion product (top) to be worn on the upper body of the user's body part is overlapped and projected. An operation of a movement control member (not shown) may be controlled for movement of the device 3 .

본 장치(100)는 시뮬레이션부(270)를 통해 패션 제품 실감 데이터를 제공함으로써 착용 희망 패션 제품에 대한 구매의 실패 확률을 효과적으로 줄일 수 있다.The device 100 may effectively reduce a failure probability of purchasing a desired fashion product by providing the fashion product sensory data through the simulation unit 270 .

이에 따르면, 본 장치(100)는, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치라 지칭될 수 있으며, 이 뿐만 아니라, 본 장치(100)는 의류 추천 정보를 생성함에 따라 의류 추천 장치, 시뮬레이션부(270)에 의하면 패션 스타일링에 대한 시뮬레이션이 가능한 장치임에 따라 패션 스타일링 시뮬레이션 장치 등으로 달리 지칭될 수 있다.Accordingly, the device 100 may be referred to as an apparatus for providing a social network service using augmented reality. In addition, the apparatus 100 generates clothing recommendation information, thereby providing a clothing recommendation device and a simulation unit 270 . ), as it is a device capable of simulating fashion styling, it may be referred to as a fashion styling simulation device or the like.

이러한 본 장치(100)는 앞서 말한 바와 같이 사용자 단말(1)에 설치되는 애플리케이션 형태로 구현될 수 있다. 본 장치(100)는 시뮬레이션부(270)에 의해 개개인의 다양성을 존중한 개인화된 패션 플랫폼 어플이라 표현될 수 있다.This device 100 may be implemented in the form of an application installed in the user terminal 1 as described above. The device 100 may be expressed as a personalized fashion platform application that respects individual diversity by the simulation unit 270 .

시뮬레이션부(270)는 아바타 생성부(20)를 통해 사용자의 신체 특성 정보가 고려된 아바타로서 자신을 닮은 다양한 체형의 아바타를 생성하고, 생성된 아바타 상에 원하는 코디를 시뮬레이션 할 수 있다. 시뮬레이션부(270)에 의하면, 본 장치(100)는 사용자의 사이즈를 고려해 테마 별 스타일 연출을 수행할 수 있다. 시뮬레이션부(270)에 의하면, 본 장치(100)는 일예로 SNS 등을 통해 다양한 패션 관련 소식을 구독, 제안받을 수 있다.The simulation unit 270 may generate avatars of various body types resembling itself as an avatar in consideration of the user's body characteristic information through the avatar generating unit 20 , and may simulate a desired coordination on the generated avatar. According to the simulation unit 270 , the apparatus 100 may perform style presentation for each theme in consideration of the user's size. According to the simulation unit 270 , the device 100 may subscribe to and receive various fashion related news through SNS, for example.

시뮬레이션부(270)에 의하면, 본 장치(100)는 일예로 분류 별로 표시된 아이콘을 통해 연계된 쇼핑몰 사이트(인터넷 쇼핑몰 사이트)로 이동 가능하고, 이동한 쇼핑몰 사이트 상에서 판매되는 패션 제품을 구매 가능하도록 제공할 수 있다. 또한, 시뮬레이션부(270)는 구매 버튼에 대한 사용자 입력에 응답하여, 제품 착용 아바타의 영상에 포함된 착용 희망 패션 제품들의 구매를 위한 구매 요청 신호를 전송할 수 있으며, 이를 통해 해당 착용 희망 패션 제품들의 구매가 보다 손쉽고 간편하게 이루어지도록 제공할 수 있다.According to the simulation unit 270, the device 100 can move to a shopping mall site (Internet shopping mall site) linked through an icon displayed for each category, for example, and provide fashion products sold on the moved shopping mall site to purchase. can do. In addition, the simulation unit 270 may transmit a purchase request signal for purchasing desired fashion products included in the image of the product wearing avatar in response to a user input for the purchase button, and through this, It can be provided to make the purchase easier and more convenient.

시뮬레이션부(270)는 아바타에 오늘 입은 옷 등의 패션 제품을 적용해 데일리룩을 기록할 수 있도록 할 수 있다. 이를 위해, 도면에 도시하지는 않았으나, 시뮬레이션부(270)는 사용자가 소유한 소장 패션 제품에 관한 정보(소장 패션 제품의 정보)를 획득하여 저장하는 제1 데이터 저장부(미도시) 및 데일리룩을 기록(저장)하는 제2 데이터 저장부(미도시)를 포함할 수 있다. The simulation unit 270 may record a daily look by applying a fashion product such as clothes worn today to the avatar. To this end, although not shown in the drawing, the simulation unit 270 uses a first data storage unit (not shown) for acquiring and storing information about the collection fashion product owned by the user (information on the collection fashion product) and the daily look. It may include a second data storage unit (not shown) for recording (storing).

여기서, 제1 데이터 저장부(미도시)는 일예로 상술한 소유 의류 저장부(180)와 동일한 구성일 수 있다. 따라서, 이하 생략된 내용이라 하더라도 상술한 소유 의류 저장부(180)에 대하여 설명된 내용은 제1 데이터 저장부(미도시)에 대한 설명에도 동일하게 적용될 수 있다.Here, the first data storage unit (not shown) may have the same configuration as, for example, the owned clothing storage unit 180 described above. Accordingly, even if omitted below, the description of the owned clothing storage unit 180 may be equally applied to the description of the first data storage unit (not shown).

예시적으로, 사용자는 제1 데이터 저장부(미도시)에 저장된 소장 패션 제품들 중 일예로 외출을 위해 사용자가 실제 착용한 패션 제품에 해당하는 소장 패션 제품을 선택(여기서, 선택 소장 패션 제품에는 일예로 상술한 선택된 착용 의류가 포함될 수 있음)하여 아바타 생성부(20)에서 생성된 아바타에 착용시킨 후, 소장 패션 제품의 착용이 이루어진 제품 착용 아바타를 데일리룩으로 하여 제2 데이터 저장부(미도시)에 기록(저장)할 수 있다.Illustratively, the user selects a collectible fashion product corresponding to a fashion product actually worn by the user for going out as an example among the collectible fashion products stored in the first data storage unit (not shown) (herein, the selected collectible fashion product includes As an example, the above-described selected clothing to be worn may be included) and worn on the avatar generated by the avatar generating unit 20, and then the second data storage unit (not shown) using the product wearing avatar on which the collectible fashion product is worn as a daily look. time) can be recorded (stored).

이처럼, 제2 데이터 저장부(미도시)는 사용자가 외출시 복장 등을 기록한 데일리룩 정보를 저장할 수 있다. 뿐만 아니라, 제2 데이터 저장부(미도시)는 상술한 바와 같이 스타일링 평가의 대상이 되는 제품 착용 아바타의 영상(혹은 자세 변경 아바타의 영상)을 저장할 수 있다.As such, the second data storage unit (not shown) may store daily look information in which the user records clothes and the like when going out. In addition, the second data storage unit (not shown) may store an image (or an image of the posture change avatar) of the product wearing avatar, which is the subject of styling evaluation, as described above.

본 장치(100)는 시뮬레이션부(270)에 의해 다음과 같은 기능들을 가질 수 있다.The apparatus 100 may have the following functions by the simulation unit 270 .

본 장치(100)는 제2 데이터 저장부(미도시)에 저장된 데일리룩 정보 및/또는 스타일링 평가의 대상이 되는 제품 착용 아바타의 영상 정보를 일예로 SNS 와 연계해 업로드하고, 업로드된 정보에 대하여 타 사용자의 평가를 받을 수 있다.The device 100 uploads, for example, daily look information stored in the second data storage unit (not shown) and/or image information of an avatar wearing a product, which is the subject of styling evaluation, in connection with SNS, and for the uploaded information You can get reviews from other users.

또한, 본 장치(100)는 일예로 화면의 일영역(일예로 제5 영역)에 표시되는 '나의 옷장' 아이콘 메뉴에 대한 사용자 입력이 이루어진 경우, 사용자가 구매를 희망하거나 구매한 패션 제품들을 한눈에 모아서 볼 수 있도록 화면에 표시할 수 있다.Also, when a user input is made to the 'My Closet' icon menu displayed on one area (eg, the fifth area) of the screen for example, the device 100 may view fashion products that the user wishes to purchase or purchases at a glance. It can be displayed on the screen for viewing.

또한, 본 장치(100)는 일예로 패션 제품과 관련된 큐알코드(QR 코드)의 획득 및/또는 사용자 단말(1)로 촬영된 패션 제품 이미지의 획득을 기반으로, 획득된 패션 제품에 대한 정보 검색을 수행할 수 있다. In addition, the device 100 searches for information on an acquired fashion product based on, for example, acquisition of a QR code (QR code) related to a fashion product and/or acquisition of a fashion product image photographed by the user terminal 1 . can be performed.

또한, 본 장치(100)는 일예로 액세서리의 경우 사용자의 신체에 적용될 실제 크기를 AR 모형으로 도움 받을 수 있도록 제공할 수 있다. 본 장치(100)는 온라인 쇼핑몰 상에서 판매되는 패션 제품 중 사용자가 구매를 희망하는 패션 제품에 대하여, 그 실제 크기와 상응하는 크기를 갖는 3차원 입체 영상을 제공(즉, 패션 제품 실감 데이터를 제공)함으로써, 사용자가 구매를 희망하는 패션 제품(착용 희망 패션 제품)에 대한 보다 현실감 있는 착용 시뮬레이션을 체감할 수 있도록 제공할 수 있다.Also, in the case of an accessory, the device 100 may provide the actual size to be applied to the user's body as an AR model, for example. The device 100 provides a 3D stereoscopic image having a size corresponding to the actual size of a fashion product that a user desires to purchase among fashion products sold on an online shopping mall (ie, providing realistic data of a fashion product) By doing so, it is possible to provide a more realistic wearing simulation for a fashion product that the user desires to purchase (fashion product desired to be worn).

본 장치(100)는 시뮬레이션부(270)를 통하여, 아바타 생성부(20)에 의해 생성되는 아바타에 의하여 사용자의 체형, 얼굴형, 사이즈 등을 개인의 특성에 맞게 다양화할 수 있으므로, 기존의 아바타 어플과는 차별점을 제공할 수 있다.The device 100 can diversify a user's body type, face shape, size, etc. according to individual characteristics by using the avatar generated by the avatar generating unit 20 through the simulation unit 270 . It can provide a differentiator from the app.

본 장치(100)는 실제 피팅할 수 없는 온라인 쇼핑몰의 한계를 보완하여, 패션 제품에 대한 코디, 옷 구매 등에 도움을 줄 수 있는 기술을 제공할 수 있다. 본 장치(100)는 옷, 액세서리, 메이크업 요소 등이 포함된 다양한 종류의 패션 제품을 아바타 생성부(20)에 의해 생성된 아바타 상에 코디 가능하도록 제공할 수 있다. 또한, 본 장치(100)는 신상품(신상 패션 제품들)이 누락되지 않게 다양한 테마의 아이템들(패션 제품들)이 정기적으로 업데이트되도록 제공할 수 있다.The device 100 may provide technology that can help coordinate fashion products, purchase clothes, and the like, by supplementing the limitations of online shopping malls that cannot actually fit. The device 100 may provide various types of fashion products including clothes, accessories, and makeup elements so that they can be coordinated on the avatar generated by the avatar generator 20 . Also, the device 100 may provide items (fashion products) of various themes to be updated regularly so that new products (new fashion products) are not omitted.

또한, 본 장치(100)는 앱 자체적으로 SNS 기능을 가지고 있도록 구현할 수 있다. 이러한 본 장치(100)는 일예로 SNS 상의 다른 사람(타 사용자)이 나의 코디(사용자가 SNS 상에 업로드하여 공유한 코디 정보)를 저장하거나 추천할 수 있도록 하는 기능을 제공할 수 있다. 이때, 본 장치(100)는 타 사용자가 나의 코디를 저장하거나 추천하는 경우, 타 사용자에게 포인트를 제공할 수 있다. 반대로, 사용자가 타 사용자의 코디를 저장하거나 추천하는 경우, 사용자는 본 장치(100)로부터 포인트를 제공받을 수 있다. 이때, 본 장치(100)에 의해 제공되는 포인트는 일예로 SNS 상, 온라인 쇼핑몰 상에서 판매/거래되는 패션 제품에 대한 구매가 가능하도록 마련될 수 있으나, 이에만 한정되는 것은 아니고 기타 다른 보상(일예로 실제 현금으로의 교환 등)으로 활용 가능하도록 마련될 수 있다.In addition, the device 100 may be implemented so that the app itself has an SNS function. As an example, the device 100 may provide a function that allows another person (other user) on the SNS to store or recommend my coordinator (coordinate information uploaded and shared by the user on the SNS). In this case, when another user stores or recommends my co-ordination, the device 100 may provide points to other users. Conversely, when the user stores or recommends another user's coordination, the user may receive points from the device 100 . In this case, the points provided by the device 100 may be provided to enable purchase of fashion products sold/traded on social media and online shopping malls, for example, but is not limited thereto and other rewards (eg, exchange for real money, etc.) may be provided.

또한, 본 장치(100)는 일예로 어플 공유를 통해 신규 유저(신규 사용자)가 추가될 경우, 어플을 공유한 유저(사용자)에게 포인트를 지급할 수 있다. 또한, 본 장치(100)는 본 장치(100)의 앱을 통해 옷을 구매한 경우에도 옷을 구매한 사용자(유저)에게 포인트를 제공할 수 있다. 또한, 본 장치(100)는 특정 패션 제품에 대한 이벤트 및/또는 홍보를 한 사용자에 대해서도 보상으로서 포인트를 제공할 수 있다.Also, when a new user (new user) is added through sharing the application, for example, the device 100 may pay points to the user (user) who has shared the application. Also, even when clothes are purchased through the app of the device 100 , the device 100 may provide points to the user (user) who purchased the clothes. Also, the device 100 may provide points as a reward to a user who has promoted an event and/or promotion for a specific fashion product.

또한, 본 장치(100)는 사용자가 제공받은 포인트를 모음으로써, 포인트로 하여금 실제 패션 제품을 살 때 할인받을 수 있도록 하거나 실제 패션 제품의 구매가 가능하도록 할 수 있다.Also, by collecting points provided by the user, the device 100 may allow the points to receive a discount when purchasing an actual fashion product or to enable the purchase of an actual fashion product.

본 장치(100)는 온라인 쇼핑몰 상에서 구매자(패션 제품의 구매를 희망하는 사용자)가 쇼핑한 제품(착용 희망 패션 제품)을 제품 착용 시뮬레이션이 가능하도록 해, 소비자의 구매 실패부담을 효과적으로 덜게 할 수 있다. 또한, 본 장치(100)는 온라인 쇼핑몰이 한번에 몰려 있어 원하는 사이트로 바로 이동해 간편한 구매가 가능하도록 제공할 수 있다. 이러한 본 장치(100)는 소비자(구매자)가 패션 제품을 구매함에 있어서 불편함을 해소하고 보다 편의성(편리성)을 제공할 수 있다.The device 100 enables simulation of product wearing of a product (a fashion product desired to be worn) purchased by a buyer (a user wishing to purchase a fashion product) on an online shopping mall, thereby effectively reducing the consumer's burden of failure to purchase. . In addition, the device 100 may provide a convenient purchase by moving directly to a desired site because online shopping malls are concentrated at once. This device 100 can eliminate inconvenience and provide more convenience (convenience) when a consumer (buyer) purchases a fashion product.

본 장치(100)는 사용자(구매자)가 온라인 쇼핑몰에서 판매되는 패션 제품을 구매하기 전에, 해당 패션 제품이 착용된 모습(미리 착용 모습)을 시뮬레이션해 패션 제품의 착용 핏을 보다 직관적으로 확인 가능하도록 제공할 수 있다.The device 100 allows the user (the buyer) to more intuitively check the wearing fit of the fashion product by simulating how the fashion product is worn (pre-wearing) before the user (the buyer) purchases the fashion product sold in the online shopping mall. can provide

본 장치(100)는 사용자(구매자, 소비자)가 구매를 희망하는 패션 제품에 대한 구매를 행함에 있어서, 사용자가 보다 원활하게 구매할 수 있도록 도울 수 있다. 또한, 본 장치(100)는 시뮬레이션부(270)로 하여금 사용자가 패션 제품의 구매 실패율이 적도록 하며(실패율을 줄이며) 쇼핑하도록 도울 수 있다.The apparatus 100 may help the user (buyer, consumer) to purchase a fashion product desired to be purchased more smoothly. In addition, the apparatus 100 may help the simulation unit 270 to shop with a low failure rate (reducing failure rate) of the purchase of fashion products by the user.

본 장치(100)는 시뮬레이션부(270)로 하여금 패션 코디 스타일을 사용자에게 맞춤화한 맞춤 추천이 가능하며, 보다 현실감 있는 제품 착용 시뮬레이션 기능을 제공할 수 있다.The device 100 may allow the simulation unit 270 to make a customized recommendation for a fashion coordination style to the user, and may provide a more realistic product wearing simulation function.

본 장치(100)는 비즈니스 니즈 관점에서 보았을 때, 더 많은 옷을 팔아 쇼핑몰들의 매출을 높여주어 원활한 쇼핑 서비스의 제공이 이루어지도록 제공할 수 있다. 또한, 본 장치(100)는 사용자 니즈 관점에서 보았을 때, 저렴한 가격에 나에게 가장 잘 어울리는 옷을 추천받아 구매할 수 있도록 도울 수 있다.From a business need point of view, the device 100 may sell more clothes to increase sales of shopping malls to provide a smooth shopping service. Also, from the viewpoint of user needs, the device 100 can help to recommend and purchase clothes that best suit me at a low price.

본 장치(100)는 온라인 쇼핑몰 상에서 판매되는 패션 제품이, 사진과 다르게 실제로는 사용자가 착용했을 때 사이즈가 맞지 않아 교환/환불이 이루어져야 했던 종래의 문제를 해소할 수 있다.The device 100 can solve the conventional problem that a fashion product sold on an online shopping mall needs to be exchanged/refunded because the size does not match when the user actually wears it, unlike the picture.

본 장치(100)는 복수의 패션 제품 중 사용자에 의해 선택된 착용 희망 패션 제품이 화장품(예시적으로, 매니큐어, 비비크림, 썬크림 등)인 경우, 아바타 생성부(20)를 통해 생성된 아바타 상에 해당 화장품을 이용한 화장(메이크업)이나 네일 아트 등을 적용시키는 착용 시뮬레이션(제품 착용 시뮬레이션)을 수행할 수 있다.When the desired fashion product selected by the user from among the plurality of fashion products is cosmetics (eg, nail polish, BB cream, sunscreen, etc.), the device 100 generates an avatar image generated through the avatar generating unit 20 Wearing simulation (product wearing simulation) in which makeup (makeup) or nail art using the corresponding cosmetics is applied can be performed.

또한, 본 장치(100)는 일예로 브랜드에서 추구하는 시즌 별 추천 패션 제품을 한 화면 상에 모아 표시되도록 하거나, 또는 각 쇼핑몰에서의 판매율 1위에 해당하는 패션 제품을 한 화면 상에 모아 표시되도록 할 수 있다.In addition, the device 100 may collect and display, for example, season-specific recommended fashion products pursued by a brand on one screen, or collect and display fashion products corresponding to the number one sales rate in each shopping mall on one screen. can

또한, 본 장치(100)는 추천 코디 북 카테고리 기능, 어플 사용자들의 패션 코디 확인 기능, 커뮤니케이션 기능, 유사한 패션 디자인 한눈에 보기 기능, 유사한 패션 제품의 가격대 비교 기능을 제공할 수 있다. 또한, 본 장치(100)는 어플 사용자의 취향에 맞춰 코디를 추천하는 기능, 사용자들과 또는 친구와 패션 코디를 공유하는 기능을 제공할 수 있다.Also, the device 100 may provide a recommended coordination book category function, a function to check fashion coordination of application users, a communication function, a function to view similar fashion designs at a glance, and a function to compare prices of similar fashion products. Also, the device 100 may provide a function of recommending an outfit according to the taste of an application user, and a function of sharing a fashion coordination with users or with a friend.

이때, 본원에서 코디를 추천/공유한다라 함은, 착용 시뮬레이션의 적용에 의하여 착용 희망 패션 제품의 착용이 이루어진 제품 착용 아바타(혹은 자세 변경 아바타)의 영상(모습)을 일예로 SNS 상에 업로드하여 추천하거나 공유하는 등의 행위를 의미할 수 있다.At this time, to recommend/share a coordinator here means uploading an image (shape) of a product wearing avatar (or posture change avatar) in which a desired fashion product is worn by application of a wearing simulation, as an example, to SNS. It can mean an action such as recommending or sharing.

본 장치(100)는 패션 스타일링 코디 추천 기능, 옷 가격대 조정 가능 기능, 패션스타일 코디 시뮬레이션 기능, 다른 사용자들과의 커뮤니케이션 기능(사용자 간의 커뮤니케이션 기능, 스타일 공유 기능), 비슷한 스타일의 옷 코디 스타일을 한번에 확인할 수 있는 기능, 포인트를 통해 패션 제품의 구매시 할인을 제공받을 수 있는 기능, 이미지 검색 기능(비슷한 패션 제품들의 비교 분석 기능) 등을 제공할 수 있다.The device 100 provides a fashion styling coordination recommendation function, a clothing price adjustment function, a fashion style coordination simulation function, a communication function with other users (a communication function between users, a style sharing function), and a similar style clothes coordination style at once. It is possible to provide a function to check, a function to receive a discount when purchasing fashion products through points, and an image search function (a function to compare and analyze similar fashion products).

또한, 본 장치(100)에서 아바타 생성부(20)는, 개인마다의 신체 특성 정보(일예로 체형 등)가 고려된 아바타를 생성할 수 있다.Also, in the device 100 , the avatar generator 20 may generate an avatar in consideration of body characteristic information (eg, body shape, etc.) for each individual.

본 장치(100)는 시뮬레이션부(270)에 의한 착용 시뮬레이션(제품 착용 시뮬레이션)을 통하여, 아바타를 통해 보이는 패션 제품의 착용 핏(아바타 착용 핏)과 실제 사용자가 해당 패션 제품을 구매하여 착용했을 때의 착용 핏(실제 착용 핏, 실제 코디한 모습)이 상당히 비슷하게 보이도록 제공할 수 있으며, 이를 통해 온라인 쇼핑몰 상에서의 패션 제품의 구매 실패 확률을 효과적으로 줄일 수 있다.The device 100 performs a wearing simulation (product wearing simulation) by the simulation unit 270 when the wearing fit (avatar wearing fit) of the fashion product shown through the avatar and the actual user purchase and wear the corresponding fashion product. It can be provided so that the worn fit (actual worn fit, actual coordinated appearance) of the wearer looks quite similar, thereby effectively reducing the probability of failure to purchase a fashion product on an online shopping mall.

또한, 본 장치(100)는 SNS와의 연계를 통해 어플 자체가 SNS 기능을 가지도록 제공할 수 있다.In addition, the device 100 may provide the application itself to have an SNS function through association with the SNS.

본 장치(100)는 자신이 코디한 패션 제품들(즉, 아바타 생성부에서 생성된 아바타에 착용된 착용 희망 패션 제품들)의 착용 핏을 확인함과 동시에 해당 패션 제품들을 일괄적으로 동시에 구매 가능하도록 제공할 수 있다. 이를 통해, 본 장치(100)는 패션 제품에 대한 구매 편의성을 향상시킬 수 있다.The device 100 confirms the fit of the fashion products coordinated by the device 100 (ie, desired fashion products worn on the avatar generated by the avatar generating unit) and simultaneously purchases the corresponding fashion products at the same time can be provided to do so. Through this, the device 100 may improve the convenience of purchasing fashion products.

또한, 본 장치(100)는 추천 패션 제품의 제공을 통해, 자신이 코디한 스타일(패션 제품의 스타일)과 비슷하거나 유사한 스타일의 패션 제품을 추천받을 수 있으며, 이를 통해 패션 제품의 구매/비교 등이 원활히 이루어지도록 제공할 수 있다. 본 장치(100)는 사용자로 하여금 만족스러운 패션 제품의 쇼핑 구매가 이루어지도록 제공할 수 있고, 실패 확률 가능성을 낮출 수 있다.In addition, the device 100 may receive a recommendation for a style similar to or similar to the style (style of a fashion product) coordinated by the device 100 through the provision of the recommended fashion product, and through this, purchase/comparison of fashion products, etc. It can be provided to make this happen smoothly. The device 100 may provide a user with a satisfactory shopping purchase of fashion products, and may reduce the probability of failure.

종래에는 각 온라인 쇼핑몰에서 제공하는 패션 제품들을 사용자가 일일이 가격/성능 등의 비교를 수행해야 했고, 유행하는 코디를 찾아 구매하고 싶어도 가격대가 비싸 부담스러운 경우가 있었으며, 직접 입어 볼 수 없어 패션 제품 구매에 실패하는 등의 문제(불편함)가 존재하였다. 이에 반해, 본 장치(100)는 추천 패션 제품을 제공함으로써, 사용자가 보다 효과적으로 패선 제품 간의 비교를 수행하고, 적정 가격대의 패션 제품 등 사용자가 원하는 최적화된 패션 제품을 효과적으로 검색해 제공받을 수 있도록 할 수 있다.In the past, users had to compare the price/performance of the fashion products provided by each online shopping mall individually. There were problems (inconvenient) such as failure to In contrast, by providing recommended fashion products, the device 100 allows the user to more effectively compare fashion products and to effectively search for and receive optimized fashion products desired by the user, such as fashion products at an appropriate price. have.

본 장치(100)는 일예로 타 사용자들에 의하여 어플 혹은 SNS 상에 업로드되는 패션 제품과 관련된 신상 소식, 코디 추천 소식, 추천 유저 등에 대한 정보를 화면에 제공할 수 있다. 또한, 본 장치(100)는 일예로 복수의 패션 제품을 카테고리별(일예로, 상의 하의, 액세서리, 신발, 기타 등)로 분류하여 제공할 수 있으며, 각 카테고리별로 분류된 패션 제품을 해당 패션 제품을 판매하는 온라인 쇼핑몰의 정보와 함께 연계하여 제공할 수 있다.The device 100 may provide, for example, new news related to a fashion product uploaded on an application or SNS by other users, information on a coordinating recommendation, information on a recommended user, and the like, on the screen. Also, the device 100 may classify a plurality of fashion products into categories (eg, tops and bottoms, accessories, shoes, etc.) for example and provide the fashion products classified by each category as corresponding fashion products. It can be provided in conjunction with the information of the online shopping mall that sells them.

본 장치(100)의 화면에는 복수의 패션 제품이 표시될 수 있다. 이때, 복수의 패션 제품은 온라인 쇼핑몰 상에서 판매/거래되는 패션 제품을 의미할 수 있다. 본 장치(100)는 일예로 화면의 일영역에 패션 제품의 검색을 위한 검색 창을 표시할 수 있다. 사용자는 화면에 표시된 검색 창에 원하는 패션 제품의 검색을 위한 키워드를 입력할 수 있으며, 본 장치(100)는 복수의 패션 제품 중 입력된 키워드와 매칭되는 패션 제품(매칭 패션 제품)을 화면 상에 표시할 수 있다. 이후, 매칭 패션 제품 중 어느 하나에 대한 선택이 이루어지면, 시뮬레이션 제어부(30)는 화면의 일영역에 표시된 아바타(이는 아바타 생성부에 의해 생성된 아바타를 의미함) 상에 사용자가 선택한 매칭 패션 제품을 적용시킴에 따라 생성된 제품 착용 아바타(즉, 생성된 아바타에 대하여 선택된 매칭 패션 제품의 착용 시뮬레이션이 이루어진 아바타)의 영상을 화면에 표시할 수 있다.A plurality of fashion products may be displayed on the screen of the device 100 . In this case, the plurality of fashion products may refer to fashion products sold/traded on the online shopping mall. The device 100 may display, for example, a search window for searching for fashion products in one area of the screen. The user may input a keyword for searching for a desired fashion product in the search window displayed on the screen, and the device 100 displays a fashion product (matching fashion product) matching the input keyword among a plurality of fashion products on the screen. can be displayed Thereafter, when any one of the matching fashion products is selected, the simulation controller 30 displays the matching fashion product selected by the user on the avatar (meaning the avatar generated by the avatar generator) displayed on one area of the screen. An image of a product wearing avatar (ie, an avatar in which a wearing simulation of a matching fashion product selected with respect to the generated avatar is performed) may be displayed on the screen.

이를 통해, 본 장치(100)는 화면에 표시된 제품 착용 아바타로 하여금, 매칭 패션 제품이 자신의 체형과 유사한 형태로 모델링된 아바타 상에 코디된 모습(매칭 패션 제품의 착용 핏)을 시각적으로 확인 가능하도록 제공할 수 있다. 또한, 본 장치(100)는 이러한 매칭 패션 제품에 대하여 구매를 희망하여 구매 버튼에 대한 사용자 입력이 이루어지면, 해당 매칭 패션 제품을 판매하는 온라인 쇼핑몰로 이동되도록 하거나(즉, 매칭 패션 제품을 판매하는 온라인 쇼핑몰의 화면이 표시되도록 제어하거나) 혹은 해당 매칭 패션 제품의 구매가 가능하도록 하는 구매 청 신호를 전송할 수 있다.Through this, the device 100 allows the product wearing avatar displayed on the screen to visually check the appearance (fit of the matching fashion product worn) coordinated on the avatar modeled in a shape similar to the matching fashion product. can be provided to do so. In addition, the device 100 desires to purchase such a matching fashion product, and when a user input to the purchase button is made, the device 100 moves to an online shopping mall that sells the matching fashion product (that is, to sell the matching fashion product) control so that the screen of the online shopping mall is displayed) or transmit a purchase request signal enabling purchase of the corresponding matching fashion product.

또한, 본 장치(100)는 검색 창에 패션 제품의 검색을 위한 키워드 입력시 해당 키워드와 관련된 검색어들이 함께 보이도록 화면 표시를 제어할 수 있다.Also, when a keyword for searching for a fashion product is input in the search window, the device 100 may control the screen display so that search terms related to the corresponding keyword are displayed together.

본 장치(100)는 홈 화면에서 내 캐릭터를 확인하는 기능, 캐릭터 생성 후 저장하는 기능, 저장된 완성 캐릭터를 확인하는 기능, 홈 화면에서 아바타를 누를 시 아바타 목록으로 이동하는 기능, 저장된 아바타 목록에서 아바타를 선택하여 삭제하는 기능, 홈 화면에서 아이콘을 선택하면 쇼핑몰의 순위 목록 화면으로 이동하는 기능, 즐겨찾기 버튼을 눌러 내가 찜한 쇼핑몰을 한눈에 확인할 수 있는 표시 기능, 내가 찜한 쇼핑몰을 선택하여 삭제하는 기능, 찜한 쇼핑몰에서 내가 찜한 아이템들(패션 제품들)을 한 화면 상에 확인할 수 있는 기능, 내가 찜한 쇼핑몰에서 장바구니 버튼을 눌러 해당 장바구니에 담은 패션 제품 중 해당 쇼핑몰의 제품들만 확인할 수 있는 기능 등을 포함할 수 있다.The device 100 provides a function to check my character on the home screen, a function to save after creating a character, a function to check a stored completed character, a function to move to the avatar list when pressing an avatar on the home screen, and an avatar from the stored avatar list function to delete by selecting , a function to move to the ranking list screen of shopping malls by selecting the icon on the home screen, a display function to check the shopping malls you wish to at a glance by pressing the Favorites button, a function to select and delete the shopping malls you wish to , a function that allows you to check the items (fashion products) you wished for on one screen in the shopping mall you wished can do.

또한, 본 장치(100)는 카메라로 패션 제품을 촬영한 후 촬영한 이미지를 잘라서 패션 제품 검색을 수행하는 기능, 촬영된 이미지와 비슷한 관련 패션 제품들을 검색 결과를 제공하는 기능, 쇼핑시 배너에서 상세하게 쇼핑 조건을 정할 수 있어 더 빠르게 쇼핑 가능하도록 하는 기능, 해당 쇼핑몰의 원하는 패션 제품의 정보를 한눈에 확인 하는 기능, 저장된 나의 아바타에 원하는 패션 제품을 착용시키는 착용 시뮬레이션(착용 제품 시뮬레이션)을 통해 착용 핏을 확인하는 기능, 배송/문의 내역확인 기능, 자주 묻는 질문 등을 확인하는 기능, 로그인 화면 기능 등을 포함할 수 있다. 다만, 상술한 본 장치(100)에 포함되는 각종 기능들은 본원의 이해를 돕기 위한 하나의 예시일 뿐, 이에만 한정되는 것은 아니다. In addition, the device 100 captures a fashion product with a camera and cuts the photographed image to perform a fashion product search function, a function to provide search results for related fashion products similar to the photographed image, and detailed information in a banner during shopping A function that allows you to shop faster because you can set shopping conditions carefully, a function to check the information of a desired fashion product in the shopping mall at a glance, and a function to wear the desired fashion product to your saved avatar (wearing product simulation). It may include a function to check fit, a function to check delivery/inquiry history, a function to check frequently asked questions, and the like, a login screen function, and the like. However, the various functions included in the above-described device 100 are merely examples for helping understanding of the present application, and are not limited thereto.

다시 말해, 본 장치(100)는 실제 피팅 할 수 없는 온라인 쇼핑몰의 한계를 보완해 코디와 옷을 포함한 패션 제품의 구매에 도움을 주고자, 자신을 닮은 다양한 체형의 아바타를 만들어 원하는 코디가 가능하도록 하는 기술에 대하여 제공한다.In other words, the device 100 compensates for the limitations of online shopping malls that cannot be fitted in reality to help purchase fashion products including outfits and clothes. technology is provided.

본 장치(100)는 온라인 쇼핑몰에서 구매자가 쇼핑한 제품을 제품 착용 시뮬레이션이 가능하도록 해 소비자의 구매 실패 부담을 덜고, 간편하게 구매가 가능하도록 할 수 있으며, 제품 구매전 미리 착용 모습을 시뮬레이션해 핏을 확인할 수 있도록 제공할 수 있다.The device 100 can reduce the consumer's purchase failure burden by making it possible to simulate wearing the product purchased by the purchaser in the online shopping mall, and can make the purchase easier, and simulate wearing the product in advance to ensure the fit. can be provided for verification.

본 장치(100)는 분류 별로 표시된 아이콘을 통해 연계 쇼핑몰 사이트로 이동 및 구매가 가능하도록 하고, 아바타에 오늘 입을 옷을 적용해 데일리 룩을 기록하며, 패션 제품(상품)과 관련된 큐알코드 및 이미지 검색이 가능하고, 액세서리의 경우 신체에 적용될 실제 크기를 AR 모형으로 도움 받을 수 있도록 할 수 있다.The device 100 enables movement and purchase to a linked shopping mall site through icons displayed by classification, records daily looks by applying the clothes to wear today to the avatar, and searches QR codes and images related to fashion products (products) This is possible, and in the case of accessories, the actual size to be applied to the body can be helped by an AR model.

본 장치(100)는 사용자의 실제 체형을 고려해 생성된 아바타에 의류 등의 패션 제품을 입힌 이후(착용시킨 이후) 아바타를 의자에 앉히거나 혹은 팔을 들어올리게 하는 등 아바타 자세를 변경시키는 시뮬레이션을 수행할 수 있다. 이때, 본 장치(100)는 시뮬레이션을 통해 타이트함, 쪼임 등이 발생하는 부분의 위치(아바타 상의 위치)를 화면에 표시할 수 있다. 일예로 본 장치(100)는 아바타가 착용한 신발이나 의류 등에서 아바타의 자세를 변경함에 따라 조임이 나타나는 부분의 위치를 표시할 수 있다.The device 100 performs a simulation of changing the avatar posture, such as placing the avatar on a chair or raising the arm, after the avatar created in consideration of the user's actual body type is put on (after wearing) fashion products such as clothes. can do. In this case, the device 100 may display the position (position on the avatar) of the part where tightness, tightness, etc. occur through simulation. For example, the device 100 may display the position of the portion where the tightening occurs as the posture of the avatar is changed, such as shoes or clothing worn by the avatar.

또한, 본 장치(100)는 추가적으로 사용자가 느낄 조임의 강도를 예측한 정보(타이트함의 강도)를 예측한 정보를 함께 제공할 수 있다. In addition, the apparatus 100 may additionally provide information predicting the intensity of tightening felt by the user (intensity of tightness).

또한, 본 장치(100)는 아바타에 대하여 자세 변경에 따른 패션 제품의 착용 시뮬레이션을 제공함으로써, 일예로 아바타가 의자에 앉도록 자세를 변경하였을 때, 아바타가 의자에 앉은 자세를 취함에 따라 아바타에 착용된 바지의 밑단이 위로 올라가게 되는 예상 모습, 혹은 바지의 허벅지 부분이 쪼이게 되는 예상 모습 등을 사용자가 시각적으로 확인 가능하게 할 수 있다.In addition, the device 100 provides a simulation of wearing a fashion product according to a change in posture for the avatar, so that when the avatar changes posture to sit on a chair, the avatar wears a seated posture on the avatar according to the posture change. The user can visually confirm the expected appearance in which the hem of the worn pants rises, or the expected appearance in which the thigh portion of the pants is tightened.

또한, 본 장치(100)는 아바타에 대한 패션 제품의 착용시 혹은 자세 변경시, 조임 부분이 여러 군데(여러 영역) 식별된 경우, 그 조임 강도에 따라 화면에 표시되는 조임 부분의 표시 색상을 달리할 수 있다. 또한, 본 장치(100)는 일예로 조임 부분의 수가 기 설정된 개수 이상인 경우, 아바타에 착용된 해당 패션 제품보다 큰 치수의 패션 제품을 추천 패션 제품으로서 추천하기 위해 화면의 일영역에 표시할 수 있다. 이때, 본 장치(100)는 추천 패션 제품 중 어느 하나의 추천 패션 제품에 대한 사용자 선택 입력이 이루어진 경우, 선택된 어느 하나의 추천 패션 제품이 실시간으로 아바타 상에 적용된(착용된) 모습(추천 패션 제품의 착용 샷)을 화면에 표시하여 제공할 수 있다.Also, when the avatar 100 is wearing a fashion product or changing a posture, when multiple tightening parts (several areas) are identified, the display color of the tightening parts displayed on the screen is different according to the tightening strength. can do. Also, for example, when the number of tightening parts is greater than or equal to a preset number, the device 100 may display a fashion product having a size larger than that of the corresponding fashion product worn on the avatar as a recommended fashion product in one area of the screen. . In this case, when a user selection input is made for any one of the recommended fashion products, the device 100 applies (wears) the selected one of the recommended fashion products to the avatar in real time (recommended fashion products). of wearing shot) can be provided by displaying it on the screen.

또한, 본 장치(100)는 SNS 와의 연계를 통해, 사용자의 피부톤 등을 고려하여 생성된 아바타를 기반으로 하여 사용자가 코디한 패션에 대하여, 다수의 타 사용자들에게 평가 받을 수 있는 기능을 포함할 수 있다. In addition, the device 100 may include a function to be evaluated by a number of other users for the fashion coordinated by the user based on the avatar generated in consideration of the user's skin tone, etc., through linkage with the SNS. can

또한, 본 장치(100)는 개인 맞춤형 기온별 의류 추천 정보를 제공할 수 있다. 본 장치(100)는 큰 일교차와 예측할 수 없는 기온의 변화에도 불구하고, 사용자에게 맞춤화된 의류 추천 정보를 제공할 수 있다. 종래의 의류 추천 기술은 다수의 평균 정보를 이용하는 반면, 본 장치(100)는 개인이 느끼는 추위/더위의 정도가 다름을 고려하여 사용자 맞춤형 의류 추천 정보를 제공할 수 있다.In addition, the apparatus 100 may provide information on clothing recommendation for each individual temperature. The apparatus 100 may provide customized clothing recommendation information to the user despite the large daily temperature difference and unpredictable temperature change. While the conventional clothing recommendation technology uses a plurality of average pieces of information, the apparatus 100 may provide user-customized clothing recommendation information in consideration of different degrees of cold/heat perceived by individuals.

본 장치(100)는 다수의 평균이 아닌 개인 맞춤형 의류 추천 정보를 제공할 수 있다. 본 장치(100)는 일정한 간격을 둔 실시간 기온 변화를 안내할 수 있고. 실시간 기온 변화에 따른 특정 옷에 대한 추위/더위 정도에 대한 정보를 제공하며, 현재 이용자 본인이 소유하고 있는 옷을 이용하여 의류 추천 정보를 제공할 수 있다. 또한, 본 장치(100)는 커뮤니티를 통해 자신과 추위/더위의 정도가 비슷하게 느끼는 타 사용자들에게 의류 정보를 획득(습득)하고, 획득된 타 사용자들의 의류 정보를 이용하여 의류 추천 정보를 생성하여 제공할 수 있다. 본 장치(100)는 위젯 기능으로 앱에 직접 접속하지 않아도 정보를 습득할 수 있다.The apparatus 100 may provide individual customized clothing recommendation information rather than a plurality of averages. The device 100 may guide real-time temperature change at regular intervals. It provides information on the degree of cold/heat for specific clothes according to real-time temperature changes, and can provide clothing recommendation information using clothes currently owned by the user. In addition, the device 100 acquires (acquires) clothing information from other users who feel the same degree of cold/heat as themselves through the community, and generates clothing recommendation information using the obtained clothing information of other users. can provide The device 100 may acquire information without directly accessing the app through a widget function.

본 장치(100)는 카메라 인식을 통한 소유 의류에 대한 정보를 입력할 수 있으며, 일예로 카메라의 사용이 불가능한 경우에는 직접 타이핑함으로써 입력할 수 있다.The device 100 may input information about owned clothing through camera recognition, and, for example, if it is impossible to use a camera, may input it by directly typing.

본 장치(100)는 일예로 평균 의류 추천 정보를 우선 제공할 수 있으며, 사용자 본인이 소유한 소유 의류에 대한 정보가 획득되어 저장되어 있는 경우에는 기 저장된 소유 의류에 대한 정보를 토대로 개인 맞춤형 의류 추천 정보를 생성하여 제공할 수 있다.As an example, the device 100 may first provide average clothing recommendation information, and when information on owned clothing owned by the user is acquired and stored, personalized clothing recommendation based on pre-stored information on owned clothing Information can be generated and provided.

본 장치(100)는 일예로 충분한 데이터가 쌓이기 전에, 지속적으로 계속해서 추위/더위에 대한 질문(즉, 체감 온도 정보의 입력을 위한 입력 요청 메시지)을 던짐으로써, 사용자에게 제공되는 맞춤 의류 추천 정보의 정확도를 향상시킬 수 있다.For example, the device 100 provides customized clothing recommendation information to the user by continuously and continuously asking questions about cold/heat (ie, an input request message for input of sensible temperature information) before sufficient data is accumulated. can improve the accuracy of

또한, 본 장치(100)는 익명으로만 이루어지는 커뮤니티에서 애꿎은 익명인과 싸우는 것을 방지하기 위해, 익명 별 넘버(식별번호)를 부여할 수 있다. 또한, 본 장치(100)는 쇼핑몰 링크를 제공하여 필요한 의류가 생겼을 때 보다 빠르게 구매 가능하도록 제공할 수 있다.In addition, the device 100 may give an anonymous number (identification number) to prevent fighting with an anonymous person who is cherished in a community made only by anonymity. In addition, the device 100 may provide a shopping mall link so that when necessary clothes are available, they can be purchased more quickly.

종래에 의류 추천 기술과 관련하여, 인터넷에 올라오는 기온별 알맞은 옷차림 미지들, 관련 포스팅들이 많으며, 유트브 영상 등에서도 기온에 맞는 옷차림을 찾는 사람들이 많다. 그런데, 이러한 의류 추천 기술들의 경우, 추천해주는 옷이 본인이 갖고 있지 않은 경우가 많으므로, 추천되는 의류 추천 정보를 실제로 활용하는 데에 어려움이 있다.Conventionally, in relation to clothing recommendation technology, there are many unknowns and related posts on clothing suitable for each temperature that are uploaded to the Internet, and there are many people looking for clothing suitable for the temperature in YouTube videos and the like. However, in the case of such clothing recommendation techniques, since the recommended clothing is often not owned by the person, it is difficult to actually use the recommended clothing recommendation information.

이에 본 장치(100)는, 개인이 소유하고 있는 의류(소유 의류) 내에서 이들을 활용하여 의류 추천 정보를 제공하고자 한다. 본 장치(100)는 다수의 평균이 아닌 개인에 중점을 둔 개인 맞춤형 의류 추천 정보를 제공할 수 있다. 본 장치(100)는 본인과 비슷한 사용자들과 커뮤니케이션 하는 기능을 제공할 수 있으며, 이를 통해 객관적 정보 외의 주관적 정보도 획득(습득) 가능하고 이들을 종합적으로 고려해 보다 맞춤화된 의류 추천 정보를 제공할 수 있다. 또한, 본 장치(100)는 일예로 GPS 와 데이터 수신이 가능한 상황(환경)에서 언제 어디서든 의류 추천 정보를 제공받을 수 있다.Accordingly, the device 100 intends to provide clothing recommendation information by utilizing the clothing (owned clothing) owned by the individual. The apparatus 100 may provide personalized clothing recommendation information focusing on an individual rather than a plurality of averages. The device 100 may provide a function to communicate with users similar to the user, and through this, it is possible to acquire (acquire) subjective information other than objective information, and comprehensively consider them to provide more customized clothing recommendation information. . Also, the apparatus 100 may receive clothing recommendation information anytime, anywhere in a situation (environment) in which GPS and data reception are possible, for example.

종래의 의류 추천 기술들은 제작자 본인 기준으로 추천을 해주거나 온도에 따른 평균적인 옷차림(의류 추천 정보)을 추천한다. 이에 반해, 본 장치(100)는 제작자 기준이나 평균이 아닌, 개인 앱 사용자를 기준으로 한 옷차림 추천 정보(의류 추천 정보)를 제공하기 때문에, 사용자들의 이용률을 높일 수 있다.Conventional clothing recommendation technologies recommend based on the manufacturer's own standards or average clothing (clothing recommendation information) according to temperature. On the other hand, since the device 100 provides attire recommendation information (clothing recommendation information) based on individual app users, not based on the manufacturer or average, users' usage rate can be increased.

본 장치(100)는, 소유 의류에 관한 정보의 획득시 카메라 인식 혹은 사진만으로 획득할 수 있다. 또한, 본 장치(100)는 일예로 남/여 외에 남-여가 함께 착용 가능한 공통 의류 추천 정보를 제공할 수 있다. 본 장치(100)는 사용자 단말(1)의 바탕화면에서 볼 수 있는 위젯 기능을 제공할 수 있다. 본 장치(100)는 밤-낮의 기온차를 제공하여 선택한 의류에 대해 사용자가 밤에 어떻게 느낄지에 대한 정보를 제공할 수 있다. 또한, 본 장치(100)는 쇼핑몰과의 연동이 가능하며, 디테일한 옷차림 추천, 의류 정보를 제공할 수 있다. 또한, 본 장치(100)는 온도를 느끼는 것(체감 온도 정보)과 관련해 구체적인 상황 설정을 할 수 있으며, 팝업 알리미 기능, 음성 기능 등을 제공할 수 있다.The device 100 may acquire information about owned clothing only by camera recognition or a photo. Also, the device 100 may provide, for example, common clothing recommendation information that can be worn by both men and women in addition to men/women. The device 100 may provide a widget function that can be viewed on the desktop of the user terminal 1 . The apparatus 100 may provide information on how the user feels at night with respect to the selected clothing by providing a temperature difference between night and day. In addition, the device 100 may be linked with a shopping mall, and may provide detailed clothing recommendation and clothing information. Also, the device 100 may set a specific situation in relation to feeling the temperature (feeling temperature information), and may provide a pop-up reminder function, a voice function, and the like.

본 장치(100)는 현재 날씨를 기반으로 의류 추천 정보를 생성할 수 있다. 본 장치(100)는 의류 추천 정보에 대한 상세 정보(일예로, 의류의 재질, 두께 등)를 제공할 수 있다. 본 장치(100)는 시간대별 날씨에 기반한 의류 추천 정보를 생성할 수 있고, 혹은 주간 날씨와 사용자가 선택한 의류를 기반으로 한 의류 추천 정보를 생성할 수 있다.The apparatus 100 may generate clothing recommendation information based on the current weather. The apparatus 100 may provide detailed information (eg, material, thickness, etc. of clothing) on the clothing recommendation information. The device 100 may generate clothing recommendation information based on the weather for each time period, or may generate clothing recommendation information based on the weekly weather and clothes selected by the user.

본 장치(100)는 기온을 고려한 평균적인 의류 추천 정보(옷차림 추천 정보)를 제공할 수 있다. 또한, 본 장치(100)는 시간대별 의류 추천 정보를 생성하여 제공할 수 있고, 뿐만 아니라 일별(주간정보)을 기초로 의류 추천 정보를 생성하여 제공할 수 있다. The apparatus 100 may provide average clothing recommendation information (clothing recommendation information) in consideration of the temperature. Also, the apparatus 100 may generate and provide clothing recommendation information for each time period, and may generate and provide clothing recommendation information based on daily (weekly information) as well.

본 장치(100)는 체감 온도 정보의 입력을 위한 입력 요청 메시지에 대한 사용자 입력시, 사용자 입력이 이루어진 시점에 대응하여 획득되는 정보와 관련하여, 날씨 정보(날씨 예보 정보), 미세먼지 정보, 위치 정보, 기온차 정보 등을 획득할 수 있으나, 이에 한정되는 것은 아니다. When a user inputs an input request message for input of sensible temperature information, the apparatus 100 relates to information acquired in response to the time when the user input is made, weather information (weather forecast information), fine dust information, location Information, temperature difference information, etc. may be acquired, but the present invention is not limited thereto.

본 장치(100)는 일예로 체감 온도 정보의 입력을 위한 입력 요청 메시지를 팝업 형식으로 화면에 표시할 수 있다. 이러한 입력 요청 메시지는 사용자가 현재 추운지, 혹은 더운지를 묻는 질의에 대한 사용자 입력을 요청하는 메시지를 의미할 수 있다. 이러한 입력 요청 메시지에 대한 사용자 입력을 토대로, 본 장치(100)는 사용자가 현재 추운지 혹은 더운지에 관한 정보(체감 온도 정보)를 획득할 수 있다.The device 100 may display, for example, an input request message for input of sensible temperature information on the screen in a pop-up format. Such an input request message may mean a message for requesting a user input in response to a query asking whether the user is currently cold or hot. Based on the user input to the input request message, the apparatus 100 may acquire information (sensible temperature information) regarding whether the user is currently cold or hot.

또한, 본 장치(100)는 시뮬레이션부(270)를 통하여, 온라인 쇼핑몰상에서 판매하는 패션 제품(패션 상품)의 구매시, 구매자의 패션 상품 구매의 실패율을 줄이고 효과적으로 패션 상품의 구매가 이루어지도록 제공할 수 있다. 또한, 본 장치(100)는 시뮬레이션부(270)로 하여금, 온라인 쇼핑몰 상에서 본 상품(제품)을 구매하여 실제 받아보았을 때 쇼핑몰 상에서 본 상품의 느낌/크기 등이 실제 상품을 본 느낌/크기 등과 다름에 따라 상품 구매의 만족도가 높지 않고 교환/환불 등이 빈번히 일어나던 문제를 해소할 수 있다.In addition, the device 100, through the simulation unit 270, when purchasing a fashion product (fashion product) sold on an online shopping mall, reduce the failure rate of the purchaser's purchase of the fashion product and provide a fashion product to be purchased effectively. have. In addition, the device 100 causes the simulation unit 270 to purchase and actually receive the product (product) on the online shopping mall, and the feeling/size of the product on the shopping mall is different from the feeling/size of the actual product Accordingly, it is possible to solve the problem of not having high satisfaction with product purchase and frequent exchanges/refunds.

이하에서는 상기에 자세히 설명된 내용을 기반으로, 본원의 동작 흐름을 간단히 살펴보기로 한다.Hereinafter, an operation flow of the present application will be briefly reviewed based on the details described above.

도 9는 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 방법에 대한 동작 흐름도이다.9 is an operation flowchart of a method for providing a social network service using augmented reality according to an embodiment of the present application.

도 9에 도시된 증강현실을 이용한 소셜 네트워크 서비스 제공 방법은 앞서 설명된 본 장치(100)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 본 장치(100)에 대하여 설명된 내용은 증강현실을 이용한 소셜 네트워크 서비스 제공 방법에 대한 설명에도 동일하게 적용될 수 있다.The method of providing a social network service using augmented reality shown in FIG. 9 may be performed by the apparatus 100 described above. Accordingly, even if omitted below, the description of the device 100 may be equally applied to the description of the method of providing a social network service using augmented reality.

도 9를 참조하면, 단계S11에서 아바타 관리부는, 사용자에 대응하는 사용자 아바타를 생성하여 제1 저장부에 저장할 수 있다.Referring to FIG. 9 , in step S11 , the avatar manager may generate a user avatar corresponding to the user and store the generated user avatar in the first storage unit.

다음으로, 단계S12에서 화면 제어부는, 촬영 모드인 것으로 감지된 경우, 촬영 대상 영역에 대응하여 사용자 단말의 화면에 표출되는 현실 영상 상에 단계S11에서 생성된 사용자 아바타를 오버랩하여 표시할 수 있다.Next, in step S12, when it is detected that the shooting mode is in the shooting mode, the screen controller may overlap and display the user avatar generated in step S11 on the real image displayed on the screen of the user terminal corresponding to the shooting target area.

다음으로, 단계S13에서 영상 관리부는, 촬영 모드에서 촬영 버튼에 대한 사용자 입력이 이루어진 경우, 현실 영상과 사용자 아바타가 결합된 증강현실 영상을 획득하여 제2 저장부에 저장할 수 있다.Next, in step S13 , when a user input is made to the shooting button in the shooting mode, the image management unit may acquire an augmented reality image in which a real image and a user avatar are combined and store the acquired augmented reality image in the second storage unit.

다음으로, 단계S14에서 SNS 관리부는, 단계S13에서 획득된 증강현실 영상을 타 사용자와 공유하기 위한 공유 요청 신호가 사용자로부터 입력된 경우, 공유를 위해 증강현실 영상을 SNS 관계망에 업로드할 수 있다.Next, in step S14, when a sharing request signal for sharing the augmented reality image obtained in step S13 with other users is input from the user, the SNS management unit may upload the augmented reality image to the SNS relational network for sharing.

상술한 설명에서, 단계 S11 내지 S14는 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S11 to S14 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present application. In addition, some steps may be omitted if necessary, and the order between steps may be changed.

본원의 일 실시 예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The social network service providing method using augmented reality according to an embodiment of the present application may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

또한, 전술한 증강현실을 이용한 소셜 네트워크 서비스 제공 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.In addition, the above-described method for providing a social network service using augmented reality may be implemented in the form of a computer program or application executed by a computer stored in a recording medium.

전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present application is for illustration, and those of ordinary skill in the art to which the present application pertains will understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present application. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may be implemented in a combined form.

본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present application.

1000: 증강현실을 이용한 소셜 네트워크 서비스 제공 시스템
100: 증강현실을 이용한 소셜 네트워크 서비스 제공 장치
210: 아바타 관리부 220: 화면 제어부
230: 영상 관리부 240: SNS 관리부
250: 제1 저장부 260: 제2 저장부
1000: Social network service providing system using augmented reality
100: device for providing social network service using augmented reality
210: avatar management unit 220: screen control unit
230: video management unit 240: SNS management unit
250: first storage unit 260: second storage unit

Claims (12)

증강현실을 이용한 소셜 네트워크 서비스(SNS, Social Network Services) 제공 장치로서,
사용자에 대응하는 사용자 아바타를 생성하여 제1 저장부에 저장하는 아바타 관리부;
촬영 모드인 것으로 감지된 경우, 촬영 대상 영역에 대응하여 사용자 단말의 화면에 표출되는 현실 영상 상에 상기 사용자 아바타를 오버랩하여 표시하는 화면 제어부;
상기 촬영 모드에서 촬영 버튼에 대한 사용자 입력이 이루어진 경우, 상기 현실 영상과 상기 사용자 아바타가 결합된 증강현실 영상을 획득하여 제2 저장부에 저장하는 영상 관리부; 및
상기 증강현실 영상을 타 사용자와 공유하기 위한 공유 요청 신호가 사용자로부터 입력된 경우, 공유를 위해 상기 증강현실 영상을 SNS 관계망에 업로드하는 SNS 관리부,
를 포함하는 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.
As a social network service (SNS, Social Network Services) providing device using augmented reality,
an avatar management unit generating a user avatar corresponding to the user and storing the generated user avatar in the first storage unit;
a screen control unit that overlaps and displays the user avatar on a real image displayed on the screen of the user terminal in response to a photographing target area when it is detected that the photographing mode is in;
an image management unit for obtaining an augmented reality image in which the real image and the user avatar are combined and storing the augmented reality image in a second storage unit when a user input is made to the shooting button in the shooting mode; and
When a share request signal for sharing the augmented reality image with other users is input from the user, an SNS management unit for uploading the augmented reality image to an SNS relational network for sharing;
A social network service providing device using augmented reality comprising a.
제1항에 있어서,
상기 사용자는 제1 사용자이고, 상기 제1 사용자의 사용자 아바타는 제1 사용자 아바타이고, 상기 증강현실 영상은 제1 증강현실 영상이며,
상기 화면 제어부는,
제2 사용자의 사용자 단말이 상기 촬영 대상 영역과 동일한 촬영 대상 영역의 촬영을 위한 촬영 모드인 것으로 감지되되, 상기 촬영 대상 영역과 관련하여 기 저장된 사용자 아바타로서 상기 제1 사용자 아바타가 존재하는 경우, 상기 제2 사용자의 사용자 단말의 화면에 표출되는 현실 영상 상에 제2 사용자 아바타 및 상기 제1 사용자 아바타를 오버랩하여 표시하는 것인, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.
According to claim 1,
the user is a first user, the user avatar of the first user is a first user avatar, the augmented reality image is a first augmented reality image,
The screen control unit,
If it is detected that the user terminal of the second user is in a photographing mode for photographing the same photographing target area as the photographing target area, and the first user avatar exists as a pre-stored user avatar in relation to the photographing target area, the An apparatus for providing a social network service using augmented reality to overlap and display a second user avatar and the first user avatar on a real image displayed on a screen of a user terminal of a second user.
제2항에 있어서,
상기 영상 관리부는,
상기 현실 영상, 상기 제2 사용자 아바타 및 상기 제1 사용자 아바타가 결합된 증강현실 영상으로서 제2 증강현실 영상을 획득하여 저장하되,
상기 제1 사용자 아바타와 관련하여 결합 불가 조건이 기 설정되어 있는 경우, 상기 결합 불가 조건을 고려하여 상기 제2 증강현실 영상의 획득을 위한 결합을 수행하는 것인, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.
3. The method of claim 2,
The video management unit,
Obtaining and storing a second augmented reality image as an augmented reality image in which the real image, the second user avatar, and the first user avatar are combined,
When a non-combination condition is previously set in relation to the first user avatar, combining for obtaining the second augmented reality image is performed in consideration of the uncombinable condition, providing a social network service using augmented reality Device.
제1항에 있어서,
상기 아바타 관리부는,
사용자로부터 입력받은 신체 특성 정보를 고려하여 상기 사용자 아바타를 생성하고,
상기 사용자 아바타는, 상기 신체 특성 정보로서 입력받은 사용자의 체형, 얼굴형, 얼굴 표정 및 피부톤 중 적어도 하나를 고려하여 생성된 3차원 아바타인 것인, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.
According to claim 1,
The avatar management unit,
generating the user avatar in consideration of body characteristic information input from the user;
The user avatar is a three-dimensional avatar generated in consideration of at least one of a user's body type, face shape, facial expression, and skin tone received as the body characteristic information, the apparatus for providing a social network service using augmented reality.
제4항에 있어서,
상기 아바타 관리부는,
상기 촬영 모드인 것으로 감지된 경우, 상기 사용자의 생체 정보, 날씨 예보 정보 및 상기 사용자에 의하여 업로드된 업로드 정보를 분석하여 산출된 업로드 정보 분석 결과 중 적어도 하나의 정보를 획득하는 정보 획득부를 포함하고,
획득된 상기 적어도 하나의 정보에 기초하여, 상기 사용자 아바타의 상태 정보를 업데이트하고, 업데이트된 사용자 아바타를 생성하여 저장하는 것인, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.
5. The method of claim 4,
The avatar management unit,
and an information acquisition unit configured to acquire at least one of the upload information analysis result calculated by analyzing the user's biometric information, weather forecast information, and upload information uploaded by the user when it is detected that the shooting mode is in the shooting mode,
The apparatus for providing a social network service using augmented reality, which updates status information of the user avatar based on the at least one obtained information, and generates and stores the updated user avatar.
제1항에 있어서,
상기 화면 제어부는,
상기 사용자 단말의 화면에 상기 현실 영상이 미리 설정된 시간 동안 표출되는 경우, 상기 현실 영상 상에 적어도 하나의 기 선정 추천 위치를 표시하고, 상기 적어도 하나의 기 선정 추천 위치 중 어느 하나의 기 선정 추천 위치에 상기 사용자 아바타를 표시하는 것인, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.
According to claim 1,
The screen control unit,
When the real image is displayed on the screen of the user terminal for a preset time, at least one preset recommended position is displayed on the real image, and any one preset recommended position from among the at least one preset recommended position Displaying the user avatar on the social network service providing device using augmented reality.
제6항에 있어서,
상기 적어도 하나의 기 선정 추천 위치는,
상기 화면에 표출되는 상기 현실 영상의 이미지 분석을 통해 식별되는 객체 정보를 고려하여 선정되는 위치이거나 및/또는 상기 SNS 관계망에 업로드된 복수의 증강현실 영상의 분석을 기반으로 산출되는 사용자 아바타의 표시 위치와 관련된 통계 위치 정보를 고려하여 선정되는 위치인 것인, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.
7. The method of claim 6,
The at least one previously selected recommended location is,
A position selected in consideration of object information identified through image analysis of the real image displayed on the screen and/or a display position of a user avatar calculated based on analysis of a plurality of augmented reality images uploaded to the SNS relational network A device for providing a social network service using augmented reality, which is a location that is selected in consideration of related statistical location information.
제1항에 있어서,
상기 화면 제어부는,
상기 사용자 단말의 화면에 상기 현실 영상이 미리 설정된 시간 동안 표출되는 경우, 상기 현실 영상과 관련하여 상기 SNS 관계망에 업로드된 업로드 정보를 분석하여 상기 현실 영상의 주변에 위치한 장소의 방문을 추천하는 추천 방문 장소 관련 정보가 존재하는지 판단하고,
판단 결과 존재하면, 상기 추천 방문 장소 관련 정보를 포함하는 관리자 아바타를 생성하여 상기 현실 영상 상에 표시하는 것인, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.
According to claim 1,
The screen control unit,
When the real image is displayed on the screen of the user terminal for a preset time, by analyzing the uploaded information uploaded to the SNS relational network in relation to the real image in relation to the real image, a recommended visit to recommend a visit to a place located in the vicinity of the real image to determine whether location-related information exists,
If it exists as a result of the determination, a social network service providing apparatus using augmented reality to generate a manager avatar including information related to the recommended visit place and display the generated manager avatar on the real image.
제8항에 있어서,
상기 화면 제어부는,
상기 관리자 아바타에 대한 사용자 입력이 이루어진 경우, 상기 사용자 단말의 화면의 일영역에 상기 추천 방문 장소 관련 정보를 팝업 형태로 표시하되,
상기 추천 방문 장소 관련 정보 내에 복수개의 장소 항목이 포함된 경우, 상기 팝업 형태로 표시되는 상기 추천 방문 장소 관련 정보 내 상기 복수개의 장소 항목의 표시 순위를, 상기 복수개의 장소 항목에 대한 사용자 동작 정보의 수준을 고려하여 갱신하는 것인, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.
9. The method of claim 8,
The screen control unit,
When a user input for the manager avatar is made, the information related to the recommended visit place is displayed in a pop-up form on one area of the screen of the user terminal,
When a plurality of place items are included in the recommended visit place-related information, the display order of the plurality of place items in the recommended visit place-related information displayed in the pop-up form is determined according to the user action information for the plurality of place items. A social network service providing device using augmented reality, which is updated in consideration of the level.
제9항에 있어서,
상기 사용자 동작 정보의 수준은, 제1 수준, 제2 수준 및 제3 수준을 포함한 복수의 수준으로 구분되고,
상기 제1 수준에 대응하는 사용자 동작 정보는, 사용자 단말로부터 상기 복수개의 장소 항목 중 적어도 하나의 장소 항목을 선택하는 선택 입력 동작을 수행하는 사용자 동작에 관한 정보이고,
상기 제2 수준에 대응하는 사용자 동작 정보는, 상기 선택된 적어도 하나의 장소 항목 중 어느 하나의 장소 항목과 관련하여, 상기 어느 하나의 장소 항목에 대응하는 장소까지의 길 안내를 요청하는 길 안내 요청 입력 동작을 수행하는 사용자 동작에 관한 정보이며,
상기 제3 수준에 대응하는 사용자 동작 정보는, 상기 길 안내 요청 입력 동작에 응답하여 생성된 길 안내 정보를 기반으로, 상기 어느 하나의 장소 항목에 대응하는 장소와 관련된 이미지를 획득하는 장소 이미지 획득 동작을 수행하는 사용자 동작에 관한 정보인 것인, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.
10. The method of claim 9,
The level of the user motion information is divided into a plurality of levels including a first level, a second level, and a third level,
The user action information corresponding to the first level is information about a user action of performing a selection input operation of selecting at least one place item from among the plurality of place items from a user terminal,
The user action information corresponding to the second level includes a route guidance request input for requesting a route guidance to a place corresponding to the one place item in relation to any one place item among the selected at least one place item Information about the user's action to perform the action,
The user action information corresponding to the third level is a place image acquisition operation of acquiring an image related to a place corresponding to the one place item based on the route guidance information generated in response to the route guidance request input operation A device for providing a social network service using augmented reality, which is information about a user's action to perform.
증강현실을 이용한 소셜 네트워크 서비스 제공 시스템으로서,
제1항의 증강현실을 이용한 소셜 네트워크 서비스 제공 장치; 및
상기 증강현실을 이용한 소셜 네트워크 서비스 제공 장치 와 연동되어 상기 증강현실을 이용한 소셜 네트워크 서비스 제공 장치 의 동작 제어를 위한 제어 신호를 사용자로부터 입력받아 제공하는 사용자 단말,
을 포함하는 증강현실을 이용한 소셜 네트워크 서비스 제공 시스템.
As a social network service providing system using augmented reality,
A social network service providing apparatus using the augmented reality of claim 1; and
a user terminal interlocking with the apparatus for providing a social network service using the augmented reality to receive a control signal for controlling the operation of the apparatus for providing a social network service using the augmented reality as input from the user;
A system for providing social network services using augmented reality, including a.
제1항의 증강현실을 이용한 소셜 네트워크 서비스 제공 장치에 의한 증강현실을 이용한 소셜 네트워크 서비스 제공 방법으로서,
(a) 사용자에 대응하는 사용자 아바타를 생성하여 제1 저장부에 저장하는 단계;
(b) 촬영 모드인 것으로 감지된 경우, 촬영 대상 영역 에 대응하여 사용자 단말의 화면에 표출되는 현실 영상 상에 상기 사용자 아바타를 오버랩하여 표시하는 단계;
(c) 상기 촬영 모드에서 촬영 버튼에 대한 사용자 입력이 이루어진 경우, 상기 현실 영상과 상기 사용자 아바타가 결합된 증강현실 영상을 획득하여 제2 저장부에 저장하는 단계; 및
(d) 상기 증강현실 영상을 타 사용자와 공유하기 위한 공유 요청 신호가 사용자로부터 입력된 경우, 공유를 위해 상기 증강현실 영상을 SNS 관계망에 업로드하는 단계,
를 포함하는 증강현실을 이용한 소셜 네트워크 서비스 제공 방법.
As a method of providing a social network service using augmented reality by the apparatus for providing a social network service using the augmented reality of claim 1,
(a) generating a user avatar corresponding to the user and storing it in a first storage unit;
(b) overlapping and displaying the user avatar on a real image displayed on a screen of a user terminal in response to a shooting target area when it is detected that the shooting mode is in the shooting mode;
(c) when a user input is made to the shooting button in the shooting mode, acquiring an augmented reality image in which the real image and the user avatar are combined and storing the augmented reality image in a second storage unit; and
(d) when a share request signal for sharing the augmented reality image with other users is input from the user, uploading the augmented reality image to an SNS relational network for sharing;
A method of providing a social network service using augmented reality comprising a.
KR1020200090739A 2020-07-22 2020-07-22 Apparatus and method device for providing social network services using augmented reality KR102419056B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200090739A KR102419056B1 (en) 2020-07-22 2020-07-22 Apparatus and method device for providing social network services using augmented reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200090739A KR102419056B1 (en) 2020-07-22 2020-07-22 Apparatus and method device for providing social network services using augmented reality

Publications (2)

Publication Number Publication Date
KR20220011906A true KR20220011906A (en) 2022-02-03
KR102419056B1 KR102419056B1 (en) 2022-07-07

Family

ID=80268855

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200090739A KR102419056B1 (en) 2020-07-22 2020-07-22 Apparatus and method device for providing social network services using augmented reality

Country Status (1)

Country Link
KR (1) KR102419056B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230057821A1 (en) * 2021-08-20 2023-02-23 Kyndryl, Inc. Enhanced content submissions for support chats

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110119127A (en) * 2010-04-26 2011-11-02 엘지전자 주식회사 Mobile terminal and operation method thereof
KR20150057424A (en) * 2013-11-19 2015-05-28 한국전자통신연구원 A system and method for interaction with augmented reality avatar
KR20170112406A (en) * 2016-03-31 2017-10-12 한국전자통신연구원 Apparatus and method for taking a picture with avatar in augmented reality
KR20190046559A (en) * 2017-10-26 2019-05-07 한국전자통신연구원 Method for providing augmented reality contents

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110119127A (en) * 2010-04-26 2011-11-02 엘지전자 주식회사 Mobile terminal and operation method thereof
KR20150057424A (en) * 2013-11-19 2015-05-28 한국전자통신연구원 A system and method for interaction with augmented reality avatar
KR20170112406A (en) * 2016-03-31 2017-10-12 한국전자통신연구원 Apparatus and method for taking a picture with avatar in augmented reality
KR20190046559A (en) * 2017-10-26 2019-05-07 한국전자통신연구원 Method for providing augmented reality contents

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230057821A1 (en) * 2021-08-20 2023-02-23 Kyndryl, Inc. Enhanced content submissions for support chats
US11855933B2 (en) * 2021-08-20 2023-12-26 Kyndryl, Inc. Enhanced content submissions for support chats

Also Published As

Publication number Publication date
KR102419056B1 (en) 2022-07-07

Similar Documents

Publication Publication Date Title
US20240289858A1 (en) Methods and systems for virtual fitting rooms or hybrid stores
US11494390B2 (en) Crowd-based scores for hotels from measurements of affective response
US11273378B2 (en) Generating and utilizing digital avatar data for online marketplaces
US10210544B2 (en) Displaying merchandise with avatars
US10417825B2 (en) Interactive cubicle and method for determining a body shape
US10013713B2 (en) Computer implemented methods and systems for generating virtual body models for garment fit visualisation
US20160170996A1 (en) Crowd-based scores for experiences from measurements of affective response
KR102506356B1 (en) Apparatus and method for recommending of fashion coordination
US20160042402A1 (en) Evaluating digital inventories
KR20160144305A (en) Method and apparatus for providing content
WO2015200617A1 (en) Digital avatars in online marketplaces
KR102381566B1 (en) Simulation apparatus and method for fashion styling
US11526931B2 (en) Systems and methods for digital mirror
KR102365896B1 (en) Apparatus and method for recommending clothing
KR102419056B1 (en) Apparatus and method device for providing social network services using augmented reality
KR102531374B1 (en) Artificial intelligence-based virtual world realization device for dead companion animals
US20170345089A1 (en) Frameworks and methodologies configured to enable generation and utilisation of three-dimensional body scan data
KR102375569B1 (en) Apparatus and method for providing challenge service
US20230351643A1 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant