KR102419056B1 - 증강현실을 이용한 소셜 네트워크 서비스 제공 장치 - Google Patents

증강현실을 이용한 소셜 네트워크 서비스 제공 장치 Download PDF

Info

Publication number
KR102419056B1
KR102419056B1 KR1020200090739A KR20200090739A KR102419056B1 KR 102419056 B1 KR102419056 B1 KR 102419056B1 KR 1020200090739 A KR1020200090739 A KR 1020200090739A KR 20200090739 A KR20200090739 A KR 20200090739A KR 102419056 B1 KR102419056 B1 KR 102419056B1
Authority
KR
South Korea
Prior art keywords
user
avatar
information
augmented reality
image
Prior art date
Application number
KR1020200090739A
Other languages
English (en)
Other versions
KR20220011906A (ko
Inventor
정혜경
이준엽
Original Assignee
건국대학교 글로컬산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 건국대학교 글로컬산학협력단 filed Critical 건국대학교 글로컬산학협력단
Priority to KR1020200090739A priority Critical patent/KR102419056B1/ko
Publication of KR20220011906A publication Critical patent/KR20220011906A/ko
Application granted granted Critical
Publication of KR102419056B1 publication Critical patent/KR102419056B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/109Time management, e.g. calendars, reminders, meetings or time accounting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0277Online advertisement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/50Business processes related to the communications industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Operations Research (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • Game Theory and Decision Science (AREA)
  • Quality & Reliability (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

증강현실을 이용한 소셜 네트워크 서비스 제공 장치에 관한 것이며, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치는, 사용자에 대응하는 사용자 아바타를 생성하여 제1 저장부에 저장하는 아바타 관리부; 촬영 모드인 것으로 감지된 경우, 촬영 대상 영역에 대응하여 사용자 단말의 화면에 표출되는 현실 영상 상에 상기 사용자 아바타를 오버랩하여 표시하는 화면 제어부; 상기 촬영 모드에서 촬영 버튼에 대한 사용자 입력이 이루어진 경우, 상기 현실 영상과 상기 사용자 아바타가 결합된 증강현실 영상을 획득하여 제2 저장부에 저장하는 영상 관리부; 및 상기 증강현실 영상을 타 사용자와 공유하기 위한 공유 요청 신호가 사용자로부터 입력된 경우, 공유를 위해 상기 증강현실 영상을 SNS 관계망에 업로드하는 SNS 관리부를 포함할 수 있다.

Description

증강현실을 이용한 소셜 네트워크 서비스 제공 장치 {APPARATUS AND METHOD DEVICE FOR PROVIDING SOCIAL NETWORK SERVICES USING AUGMENTED REALITY}
본원은 증강현실을 이용한 소셜 네트워크 서비스 제공 장치에 관한 것이다.
소셜 네트워크 서비스(Social Networking Service, SNS, Social Media)는 사용자 간의 자유로운 의사소통과 정보 공유, 그리고 인맥 확대 등을 통해 사회적 관계를 생성하고 강화해주는 온라인 플랫폼을 의미한다. SNS에서 가장 중요한 부분은 이 서비스를 통해 사회적 관계망을 생성, 유지, 강화, 확장해 나간다는 점이다. 이러한 관계망을 통해 정보가 공유되고 유통될 때 더욱 의미 있을 수 있다.
최근 들어 스마트폰 이용자의 증가와 무선인터넷 서비스의 확장과 더불어 SNS의 이용자 또한 급증하고 있다. SNS는 광범위하고 동시에 특정 성향의 집단으로 분류될 수 있는 서비스 이용자들을 데이터베이스에 의해 파악하고 관리할 수 있다는 점에서 마케팅 활용가치가 날로 부상하고 있다.
그러나, 종래의 SNS는 다양한 기능을 제공하나 각종 광고와 개인사생활 문제에 있어서 끊임없이 문제를 일으키고 있다. 또한, 종래의 SNS는 사진 형식, 짧은 영상에 국한된 일상 공유 방법을 사용하기 때문에 정보를 표현하는 데에 한계가 있고, 이는 과시욕이 있는 일부 사람들에게 있어서 그들의 욕구를 충분히 충족시켜주지 못하며, 시간이 지날수록 사용자들이 점점 흥미를 잃어가게 되는 문제가 있다.
본원의 배경이 되는 기술은 한국등록특허공보 제10-1652433호에 개시되어 있다.
본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 종래의 SNS가 갖는 문제점들(일예로, 각종 광고로 인해 SNS 이용이 불편하고 개인사생활을 침해받는 문제점, 사진 형식, 짧은 영상에 국한된 일상 공유 방법을 사용하여 정보를 표현하는 데에 한계가 있는 문제점, 과시욕이 있는 일부 사람들에게 있어서 그들의 욕구를 충분히 충족시켜주지 못하는 문제점, 흥미 요소가 없이 시간이 지날수록 사용자들이 점점 흥미를 잃어가게 되는 문제점 등)을 해소할 수 있는 증강현실을 이용한 소셜 네트워크 서비스 제공 장치 및 방법을 제공하려는 것을 목적으로 한다.
다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스(SNS, Social Network Services) 제공 장치는, 사용자에 대응하는 사용자 아바타를 생성하여 제1 저장부에 저장하는 아바타 관리부; 촬영 모드인 것으로 감지된 경우, 촬영 대상 영역에 대응하여 사용자 단말의 화면에 표출되는 현실 영상 상에 상기 사용자 아바타를 오버랩하여 표시하는 화면 제어부; 상기 촬영 모드에서 촬영 버튼에 대한 사용자 입력이 이루어진 경우, 상기 현실 영상과 상기 사용자 아바타가 결합된 증강현실 영상을 획득하여 제2 저장부에 저장하는 영상 관리부; 및 상기 증강현실 영상을 타 사용자와 공유하기 위한 공유 요청 신호가 사용자로부터 입력된 경우, 공유를 위해 상기 증강현실 영상을 SNS 관계망에 업로드하는 SNS 관리부를 포함할 수 있다.
또한, 상기 사용자는 제1 사용자이고, 상기 제1 사용자의 사용자 아바타는 제1 사용자 아바타이고, 상기 증강현실 영상은 제1 증강현실 영상이며, 상기 화면 제어부는, 제2 사용자의 사용자 단말이 상기 촬영 대상 영역과 동일한 촬영 대상 영역의 촬영을 위한 촬영 모드인 것으로 감지되되, 상기 촬영 대상 영역과 관련하여 기 저장된 사용자 아바타로서 상기 제1 사용자 아바타가 존재하는 경우, 상기 제2 사용자의 사용자 단말의 화면에 표출되는 현실 영상 상에 제2 사용자 아바타 및 상기 제1 사용자 아바타를 오버랩하여 표시할 수 있다.
또한, 상기 영상 관리부는, 상기 현실 영상, 상기 제2 사용자 아바타 및 상기 제1 사용자 아바타가 결합된 증강현실 영상으로서 제2 증강현실 영상을 획득하여 저장하되, 상기 제1 사용자 아바타와 관련하여 결합 불가 조건이 기 설정되어 있는 경우, 상기 결합 불가 조건을 고려하여 상기 제2 증강현실 영상의 획득을 위한 결합을 수행할 수 있다.
또한, 상기 아바타 관리부는, 사용자로부터 입력받은 신체 특성 정보를 고려하여 상기 사용자 아바타를 생성하고, 상기 사용자 아바타는, 상기 신체 특성 정보로서 입력받은 사용자의 체형, 얼굴형, 얼굴 표정 및 피부톤 중 적어도 하나를 고려하여 생성된 3차원 아바타일 수 있다.
또한, 상기 아바타 관리부는, 상기 촬영 모드인 것으로 감지된 경우, 상기 사용자의 생체 정보, 날씨 예보 정보 및 상기 사용자에 의하여 업로드된 업로드 정보를 분석하여 산출된 업로드 정보 분석 결과 중 적어도 하나의 정보를 획득하는 정보 획득부를 포함하고, 획득된 상기 적어도 하나의 정보에 기초하여, 상기 사용자 아바타의 상태 정보를 업데이트하고, 업데이트된 사용자 아바타를 생성하여 저장할 수 있다.
또한, 상기 화면 제어부는, 상기 사용자 단말의 화면에 상기 현실 영상이 미리 설정된 시간 동안 표출되는 경우, 상기 현실 영상 상에 적어도 하나의 기 선정 추천 위치를 표시하고, 상기 적어도 하나의 기 선정 추천 위치 중 어느 하나의 기 선정 추천 위치에 상기 사용자 아바타를 표시할 수 있다.
또한, 상기 적어도 하나의 기 선정 추천 위치는, 상기 화면에 표출되는 상기 현실 영상의 이미지 분석을 통해 식별되는 객체 정보를 고려하여 선정되는 위치이거나 및/또는 상기 SNS 관계망에 업로드된 복수의 증강현실 영상의 분석을 기반으로 산출되는 사용자 아바타의 표시 위치와 관련된 통계 위치 정보를 고려하여 선정되는 위치일 수 있다.
또한, 상기 화면 제어부는, 상기 사용자 단말의 화면에 상기 현실 영상이 미리 설정된 시간 동안 표출되는 경우, 상기 현실 영상과 관련하여 상기 SNS 관계망에 업로드된 업로드 정보를 분석하여 상기 현실 영상의 주변에 위치한 장소의 방문을 추천하는 추천 방문 장소 관련 정보가 존재하는지 판단하고, 판단 결과 존재하면, 상기 추천 방문 장소 관련 정보를 포함하는 관리자 아바타를 생성하여 상기 현실 영상 상에 표시할 수 있다.
또한, 상기 화면 제어부는, 상기 관리자 아바타에 대한 사용자 입력이 이루어진 경우, 상기 사용자 단말의 화면의 일영역에 상기 추천 방문 장소 관련 정보를 팝업 형태로 표시하되, 상기 추천 방문 장소 관련 정보 내에 복수개의 장소 항목이 포함된 경우, 상기 팝업 형태로 표시되는 상기 추천 방문 장소 관련 정보 내 상기 복수개의 장소 항목의 표시 순위를, 상기 복수개의 장소 항목에 대한 사용자 동작 정보의 수준을 고려하여 갱신할 수 있다.
또한, 상기 사용자 동작 정보의 수준은, 제1 수준, 제2 수준 및 제3 수준을 포함한 복수의 수준으로 구분되고, 상기 제1 수준에 대응하는 사용자 동작 정보는, 사용자 단말로부터 상기 복수개의 장소 항목 중 적어도 하나의 장소 항목을 선택하는 선택 입력 동작을 수행하는 사용자 동작에 관한 정보이고, 상기 제2 수준에 대응하는 사용자 동작 정보는, 상기 선택된 적어도 하나의 장소 항목 중 어느 하나의 장소 항목과 관련하여, 상기 어느 하나의 장소 항목에 대응하는 장소까지의 길 안내를 요청하는 길 안내 요청 입력 동작을 수행하는 사용자 동작에 관한 정보이며, 상기 제3 수준에 대응하는 사용자 동작 정보는, 상기 길 안내 요청 입력 동작에 응답하여 생성된 길 안내 정보를 기반으로, 상기 어느 하나의 장소 항목에 대응하는 장소와 관련된 이미지를 획득하는 장소 이미지 획득 동작을 수행하는 사용자 동작에 관한 정보일 수 있다.
한편, 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 시스템은, 상술한 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치; 및 상기 증강현실을 이용한 소셜 네트워크 서비스 제공 장치 와 연동되어 상기 증강현실을 이용한 소셜 네트워크 서비스 제공 장치 의 동작 제어를 위한 제어 신호를 사용자로부터 입력받아 제공하는 사용자 단말을 포함할 수 있다.
또한, 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 방법은, 상술한 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치에 의한 증강현실을 이용한 소셜 네트워크 서비스 제공 방법으로서, (a) 사용자에 대응하는 사용자 아바타를 생성하여 제1 저장부에 저장하는 단계; (b) 촬영 모드인 것으로 감지된 경우, 촬영 대상 영역 에 대응하여 사용자 단말의 화면에 표출되는 현실 영상 상에 상기 사용자 아바타를 오버랩하여 표시하는 단계; (c) 상기 촬영 모드에서 촬영 버튼에 대한 사용자 입력이 이루어진 경우, 상기 현실 영상과 상기 사용자 아바타가 결합된 증강현실 영상을 획득하여 제2 저장부에 저장하는 단계; 및 (d) 상기 증강현실 영상을 타 사용자와 공유하기 위한 공유 요청 신호가 사용자로부터 입력된 경우, 공유를 위해 상기 증강현실 영상을 SNS 관계망에 업로드하는 단계를 포함할 수 있다.
상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.
전술한 본원의 과제 해결 수단에 의하면, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치 및 방법을 제공함으로써, 종래의 SNS가 갖는 문제점들(일예로, 각종 광고로 인해 SNS 이용이 불편하고 개인사생활을 침해받는 문제점, 사진 형식, 짧은 영상에 국한된 일상 공유 방법을 사용하여 정보를 표현하는 데에 한계가 있는 문제점, 과시욕이 있는 일부 사람들에게 있어서 그들의 욕구를 충분히 충족시켜주지 못하는 문제점, 흥미 요소가 없이 시간이 지날수록 사용자들이 점점 흥미를 잃어가게 되는 문제점 등)을 해소할 수 있다.
다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.
도 1은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 시스템의 개략적인 구성을 나타낸 블록도이다.
도 2는 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치에서 제2 저장부에 저장되는 제1 증강현실 영상의 일예를 나타낸 도면이다.
도 3은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치에서 제2 저장부에 저장되는 제2 증강현실 영상의 일예를 나타낸 도면이다.
도 4는 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치에서 증강현실 영상의 획득시 고려되는 결합 불가 조건을 설명하기 위한 도면이다.
도 5는 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치에서 아바타 관리부의 구성을 개략적으로 나타낸 도면이다.
도 6은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치에 포함된 시뮬레이션부를 설명하기 위한 개략적인 블록도이다.
도 7은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치의 시뮬레이션부 내 식별부에 의해 식별된 조임 부위의 영역이 화면 상에 표시되는 예를 설명하기 위한 도면이다.
도 8은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치와 연동되는 전방표시장치(3)에 의해 제공되는 패션 제품 실감 데이터의 일예를 나타낸 도면이다.
도 9는 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 방법에 대한 동작 흐름도이다.
아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 "간접적으로 연결"되어 있는 경우도 포함한다.
본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.
본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
도 1은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스(SNS, Social Network Services) 제공 시스템(1000)의 개략적인 구성을 나타낸 블록도이다.
본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스(SNS, Social Network Services) 제공 시스템(1000)은, 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스(SNS, Social Network Services) 제공 장치(100)를 포함할 수 있다.
이하에서는 설명의 편의상, 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 시스템(1000)을 본 시스템(1000)이라 하고, 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치(100)를 본 장치(100)라 하기로 한다. 또한, 소셜 네트워크 서비스(Social Networking Service, SNS)는 소셜 미디어(Social Media) 등으로 달리 표현될 수 있다.
도 1을 참조하면, 본 시스템(1000)은 본 장치(100) 및 복수의 사용자 단말(1, 1', …)을 포함할 수 있다.
본 장치(100)는, 사용자에 대응하는 사용자 아바타를 생성하여 제1 저장부에 저장하고, 촬영 모드인 것으로 감지된 경우, 촬영 대상 영역에 대응하여 사용자 단말의 화면에 표출되는 현실 영상 상에 사용자 아바타를 오버랩하여 표시하고, 촬영 모드에서 촬영 버튼에 대한 사용자 입력이 이루어진 경우, 현실 영상과 사용자 아바타가 결합된 증강현실 영상 을 획득하여 제2 저장부 에 저장하고, 증강현실 영상을 타 사용자와 공유하기 위한 공유 요청 신호가 사용자로부터 입력된 경우, 공유를 위해 증강현실 영상을 SNS 관계망에 업로드할 수 있다. 본 장치(100)에 대한 구체적인 설명은 후술하여 설명하기로 한다.
복수의 사용자 단말(1, 1', …)은 제1 사용자의 사용자 단말인 제1 사용자 단말(1), 제2 사용자의 사용자 단말인 제2 사용자 단말(1') 등을 포함할 수 있다. 다만, 이는 본원의 이해를 돕기 위한 하나의 예시일 뿐, 이에만 한정되는 것은 아니고, 본원에서 고려되는 복수의 사용자 단말의 수 등은 다양하게 설정될 수 있다.
복수의 사용자 단말(1, 1', …) 각각과 본 장치(100) 간에는 네트워크(2)를 통해 연결될 수 있다. 본 장치(100)는 사용자 단말(1)과 연동(연결)될 수 있다.
이하에서는 본원을 설명함에 있어서, 사용자 단말에 대한 설명시 복수의 사용자 단말(1, 1', …) 중 제1 사용자 단말(1)을 기준으로 설명하기로 한다. 즉, 이하에서는 사용자 단말이 제1 사용자 단말(1)인 것으로 가정하여 설명하기로 한다. 이는 본원의 이해를 돕기 위한 하나의 예시일 뿐, 이에만 한정되는 것은 아니고, 사용자 단말(1, 제1 사용자 단말)에 대하여 설명된 내용은 이하 생략된 내용이라 하더라도 복수의 사용자 단말(1, 1', …) 각각에 대한 설명에도 동일하게 적용될 수 있다.
뿐만 아니라, 본원을 설명함에 있어서, 사용자에 대한 설명시 복수의 사용자 중 제1 사용자를 기준으로 설명하기로 한다. 즉, 이하에서는 사용자가 제1 사용자인 것으로 가정하여 설명하기로 한다. 이는 본원의 이해를 돕기 위한 하나의 예시일 뿐, 이에만 한정되는 것은 아니고, 사용자(제1 사용자)에 대하여 설명된 내용은 이하 생략된 내용이라 하더라도 복수의 사용자 각각에 대한 설명에도 동일하게 적용될 수 있다.
본 장치(100)가 사용자 단말(1, 제1 사용자 단말)과 연동(연결)될 수 있다. 여기서, 본 장치(100)가 사용자 단말(1)과 연동(연결)된다라 함은, 본 장치(100)에 의한 증강현실을 이용한 소셜 네트워크 서비스 제공 방법이 사용자 단말(1)에서 실행 가능한 프로그램 혹은 애플리케이션의 형태로 구현 가능한 경우일 때, 사용자 단말(1)에 설치됨에 따라 사용자 단말(1)에 의해 동작 제어가 가능한 경우(상태)를 의미할 수 있다.
다른 일예로, 본 장치(100)가 사용자 단말(1)과 연동된다라 함은, 본 장치(100)가 사용자 단말(1)과 별개의 구성으로 마련되는 경우일 때, 본 장치(100)가 사용자 단말(1)과 네트워크(2)를 통해 연결됨에 따라 사용자 단말(1)에 의하여 원격으로 동작 제어가 가능한 경우(상태)를 의미할 수 있다.
달리 말하자면, 본 장치(100)는 일예로 사용자 단말(1)에 포함된 장치의 형태로 마련될 수 있다. 이러한 경우, 본 장치(100)는 사용자 단말(1)에 설치되는 프로그램 또는 애플리케이션의 형태로 구현 가능한 장치일 수 있다. 달리 말해, 본 장치(100)를 통해 제공되는 증강현실을 이용한 소셜 네트워크 서비스 제공 방법은 일예로 프로그램 또는 애플리케이션의 형태로 구현되어 사용자 단말(1)을 통해 제공될 수 있다. 다만, 이에 한정되는 것은 아니고, 다른 일예로 본 장치(100)는 사용자 단말(1)과 데이터 송수신이 가능한 서버 혹은 별도의 장치 형태로 마련될 수 있다.
본원에서 고려되는 사용자 단말(즉, 복수의 사용자 단말 각각)은, 일예로 PCS(Personal Communication System), GSM(Global System for Mobile communication), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(WCode Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트패드(SmartPad), 태블릿 PC, 노트북, 웨어러블 디바이스, 데스크탑 PC 등과 같은 모든 종류의 유무선 통신 장치를 포함할 수 있으며, 이에 한정되는 것은 아니다.
네트워크(2)는 일예로 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, NFC(Near Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등 모든 종류의 유/무선 네트워크가 포함될 수 있으며, 이에 한정된 것은 아니다.
사용자 단말(1)은 본 장치(100)와 연동되어 본 장치(100)의 동작 제어를 위한 제어 신호를 사용자(제1 사용자)로부터 입력받아 본 장치(100)로 제공할 수 있다. 사용자 단말(1)은 본 장치(100)의 각종 동작을 제어(원격으로 제어)할 수 있다. 이하에서는 본 장치(100)에 대하여 보다 상세히 설명하기로 한다.
본 장치(100)는 아바타 관리부(210), 화면 제어부(220), 영상 관리부(230), SNS 관리부(240), 제1 저장부(250) 및 제2 저장부(260)를 포함할 수 있다. 아바타 관리부(210)는 정보 획득부(211)를 포함할 수 있다.
아바타 관리부(210)는 사용자에 대응하는 사용자 아바타를 생성하여 제1 저장부(250)에 저장할 수 있다. 여기서, 사용자는 제1 사용자이고, 제1 사용자의 사용자 아바타는 제1 사용자 아바타일 수 있다.
이때, 본원의 일예에서는 사용자가 제1 사용자인 것으로 예시하였으나, 이에만 한정되는 것은 아니고 사용자로는 제1 사용자 뿐만 아니라 복수의 사용자 각각이 고려될 수 있다. 즉, 사용자(제1 사용자)에 대하여 설명된 내용은 이하 생략된 내용이라 하더라도 복수의 사용자 각각에 대한 설명에도 동일하게 적용될 수 있다.
아바타 관리부(210)는 사용자(제1 사용자)로부터 입력받은 신체 특성 정보를 고려하여 사용자 아바타(제1 사용자 아바타)를 생성할 수 있다. 아바타 관리부(210)에 의해 생성되는 사용자 아바타(제1 사용자 아바타)는, 신체 특성 정보로서 입력받은 사용자의 체형, 얼굴형, 얼굴 표정 및 피부톤 중 적어도 하나를 고려하여 생성된 3차원 아바타일 수 있다. 즉, 제1 사용자의 신체 특성 정보를 고려하여 생성된 제1 사용자 아바타는, 제1 사용자의 체형, 얼굴형, 얼굴 표정 및 피부톤 중 적어도 하나를 고려하여 생성된 3차원 아바타일 수 있다.
이때, 사용자 아바타(제1 사용자 아바타)에 대하여 설명된 내용은 이하 생략된 내용이라 하더라도, 복수의 사용자 아바타 각각에 대한 설명에도 동일하게 적용될 수 있다.
즉, 아바타 관리부(210)는 제1 사용자로부터 입력받은 신체 특성 정보를 고려하여 제1 사용자 아바타를 생성하여 제1 저장부(250)에 저장할 수 있다. 또한, 아바타 관리부(210)는 제2 사용자로부터 입력받은 신체 특성 정보를 고려하여 제2 사용자 아바타를 생성하여 제1 저장부(250)에 저장할 수 있다.
이때, 본원의 일예에서는, 제1 사용자에 대응하여 생성된 제1 사용자 아바타와 제2 사용자에 대응하여 생성된 제2 사용자 아바타가 모두 하나의 단일 저장부인 제1 저장부(250)에 저장되는 것으로 예시하였으나, 이에만 한정되는 것은 아니다. 다른 일예로, 복수의 사용자 각각에 대응하여 생성된 복수의 사용자 아바타는, 복수의 사용자 각각에 대응하는 수로 마련된 복수개의 서브 저장부 각각에 저장될 수 있다. 즉, 도면에 도시하지는 않았으나, 제1 저장부(250)는 복수개의 서브 저장부로서, 제1 서브 저장부, 제2 서브 저장부 등을 포함할 수 있다. 이때, 제1 서브 저장부는 제1 사용자에 대응하여 마련된 저장부로서, 제1 사용자와 관련하여 생성된 사용자 아바타(제1 사용자 아바타)가 저장될 수 있다. 제2 서브 저장부는 제2 사용자에 대응하여 마련된 저장부로서, 제2 사용자와 관련하여 생성된 사용자 아바타(제2 사용자 아바타)가 저장될 수 있다.
뿐만 아니라, 제1 저장부(250)에 대하여 설명된 내용은 후술하여 설명하는 제2 저장부(260)에 대한 설명에도 동일하거나 유사하게 적용될 수 있다. 즉, 제2 저장부(260)는 제1 사용자 단말(1)에 의해 획득된 증강현실 영상(제1 증강현실 영상)과 제2 사용자 단말(1')에 의해 획득된 증강현실 영상(제2 증강현실 영상)을 저장할 수 있다.
이때, 본원의 일예에서는, 제1 사용자에 의하여 제1 사용자 단말(1)을 통해 획득된 제1 증강현실 영상과 제2 사용자에 의해 제2 사용자 단말(1')을 통해 획득된 제2 증강현실 영상이 모두 하나의 단일 저장부인 제2 저장부(260)에 저장되는 것으로 예시하였으나, 이에만 한정되는 것은 아니다. 다른 일예로, 복수의 사용자 단말(1, 1', …) 각각을 통해 획득되는 복수의 증강현실 영상은, 복수의 사용자 단말(1, 1', …) 각각에 대응하는 수로 마련된 복수개의 하위 저장부 각각에 저장될 수 있다. 즉, 도면에 도시하지는 않았으나, 제2 저장부(260)는 복수개의 하위 저장부로서, 제1 하위 저장부, 제2 하위 저장부 등을 포함할 수 있다. 이때, 제1 서브 저장부는 제1 사용자 단말(혹은 제1 사용자)에 대응하여 마련된 저장부로서, 제1 사용자 단말을 통해 획득된 제1 증강현실 영상이 저장될 수 있다. 제2 하위 저장부는 제2 사용자 단말(혹은 제2 사용자)에 대응하여 마련된 저장부로서, 제2 사용자 단말을 통해 획득된 제2 증강현실 영상이 저장될 수 있다.
이처럼, 제1 서브 저장부와 제1 하위 저장부는, 제1 사용자(혹은 제1 사용자 단말)에 대응하여 마련된 저장부로서, 제1 사용자 개인을 위한 제1 사용자 개인용 저장부를 의미할 수 있다. 뿐만 아니라, 제2 서브 저장부와 제2 서브 저장부는 제2 사용자(혹은 제2 사용자 단말)에 대응하여 마련된 저장부로서, 제2 사용자 개인을 위한 제2 사용자 개인용 저장부부를 의미할 수 있다.
화면 제어부(220)는, 촬영 모드인 것으로 감지된 경우, 촬영 대상 영역에 대응하여 사용자 단말(1)의 화면에 표출되는 현실 영상 상에 사용자 아바타(제1 사용자 아바타)를 오버랩하여 표시할 수 있다.
여기서, 촬영 대상 영역은 제1 사용자 단말(1)의 이미지 센서를 통해 촬영되는 영역(이미지 센서를 통해 촬영 가능한 촬영 영역)을 의미하는 것으로서, 예시적으로, 특정 장소, 객체(사람, 사물 등), 풍경 등과 관련된 촬영 영역을 의미할 수 있다. 다만, 이에만 한정되는 것은 아니고, 촬영 대상 영역은 제1 사용자 단말(1)의 이미지 센서를 통해 촬영 가능한 영역이라면 무엇이든 적용 가능하다.
또한, 촬영 모드는 제1 사용자가 제1 사용자 단말(1)의 이미지 센서를 통해 촬영 대상 영역을 촬영하기 위한 모드를 의미할 수 있다.
화면 제어부(220)는 사용자 단말(1)의 화면에 표출되는 현실 영상 상에 사용자 아바타(제1 사용자 아바타)를 오버랩하여 표시할 때, 일예로 현실 영상 상에서 제1 사용자 아바타를 제1 사용자의 입력에 기반하여 설정되는 사용자 입력 기반 설정 위치에 표시할 수 있다. 이에 따르면, 일예로 제1 사용자는 화면 제어부(220)에 의해 현실 영상 상에 표시되는 제1 사용자 아바타를 제1 사용자 단말(1)의 화면에서 드래그, 터치 등의 입력을 통해 자유롭게 이동(변경)시킴으로써, 현실 영상 상에서의 제1 사용자 아바타의 표시 위치(즉, 현실 영상 상에서 제1 사용자 아바타가 놓여지는 위치, 표시되는 위치)를 설정할 수 있다.
예시적으로, 제1 사용자는 제1 사용자 단말(1)의 화면에 표출되는 현실 영상(51) 상에 제1 사용자 아바타의 위치를, 일예로 도 2에 도시된 제1 위치(71), 제2 위치(72), 제3 위치(73) 각각에 대하여 자유롭게 이동시켜 가며 변경/설정할 수 있다. 일예로, 복수의 위치(71, 72, 73) 중 제3 위치(73)에 대하여 제1 사용자 아바타의 표시 위치 설정과 관련된 제1 사용자의 입력이 이루어진 경우, 제1 사용자 입력이 이루어진 제3 위치(73)를 사용자 입력 기반 설정 위치인 것으로 인식하고, 화면 제어부(220)는 사용자 입력 기반 설정 위치인 제3 위치(72)에 제1 사용자 아바타를 표시할 수 있다.
다만, 이에만 한정되는 것은 아니고, 다른 일예로, 화면 제어부(220)는, 사용자 단말(제1 사용자 단말, 1)의 화면에 현실 영상이 미리 설정된 시간(일예로, 3초) 동안 표출되는 경우, 이를 현실 영상 상에 표시될 제1 사용자 아바타의 위치를 추천받기 위한 신호인 것으로 인식(즉, 현실 영상 상에서 제1 사용자 아바타가 표시되기에 가장 적합하다고 판단되는 위치의 추천을 요청하는 아바타 표시 관련 위치 추천 요청 신호인 것으로 인식)하여, 현실 영상 상에 적어도 하나의 기 선정 추천 위치를 표시하고, 현실 영상 상에 표시된 적어도 하나의 기 선정 추천 위치 중 어느 하나의 기 선정 추천 위치에 사용자 아바타(제1 사용자 아바타)를 위치시켜 표시할 수 있다. 여기서, 적어도 하나의 기 선정 추천 위치 중 어느 하나의 기 선정 추천 위치는, 제1 사용자의 입력에 의해 선택되는 위치일 수 있다.
또한, 적어도 하나의 기 선정 추천 위치는, 제1 사용자 단말(1)의 화면에 표출되는 현실 영상(51)의 이미지 분석을 통해 식별되는 객체 정보를 고려하여 선정되는 위치이거나 및/또는 SNS 관계망에 업로드된 복수의 증강현실 영상(즉, 복수 사용자들에 의하여 업로드되어 제2 저장부에 저장된 복수의 증강현실 영상)의 분석을 기반으로 산출되는 사용자 아바타의 표시 위치와 관련된 통계 위치 정보를 고려하여 선정되는 위치일 수 있다.
여기서, 현실 영상(51)의 이미지 분석을 통해 식별되는 객체 정보라 함은, 현실 영상(51) 내 포함된 객체에 관한 정보로서, 이러한 객체 정보에는 일예로 의자, 사람, 동물, 건물의 입구, 조형물, 나무 등이 포함될 수 있으나, 이에만 한정되는 것은 아니다. 이때, 이미지 분석시에는 종래에 공지되었거나 향후 개발되는 다양한 이미지 분석 알고리즘이 적용될 수 있다.
예를 들어, 현실 영상(51)의 이미지 분석을 통해 객체 정보로서 건물의 입구와 의자가 식별된 경우, 적어도 하나의 기 선정 추천 위치는 현실 영상(51) 내 식별된 건물의 입구에 대응하는 제1 위치 및 현실 영상(51) 내 식별된 의자에 대응하는 위치가 포함될 수 있다. 이때, 화면 제어부(220)는 제1 사용자 단말(1)의 화면에 현실 영상(51) 이 미리 설정된 시간 동안 표출되면, 현실 영상(51) 상에 제1 위치와 제2 위치를 표시하고, 이때, 제2 위치에 대한 사용자 입력이 이루어지면, 제1 사용자 아바타를 현실 영상(51) 상의 제2 위치에 표시할 수 있다. 이에 따르면, 화면 제어부(220)는 현실 영상(51)에 포함된 의자를 가리도록, 제1 사용자 아바타를 현실 영상(51) 상에 표시할 수 있다.
이때, 화면 제어부(220)는 필요에 따라 사용자 입력에 의해 선택된 어느 하나의 기 선정 추천 위치에 대응하는 객체의 유형에 따라, 제1 사용자 아바타의 자세를 변경하고, 자세 변경된 제1 사용자 아바타를 사용자 입력에 의해 선택된 어느 하나의 기 선정 추천 위치에 표시할 수 있다. 예시적으로, 제1 위치와 제2 위치를 포함한 복수의 기 선정 추천 위치 중 일예로 제2 위치가 어느 하나의 기 선정 추천 위치로서 사용자(제1 사용자) 입력에 의해 선택되었다고 하자.
이러한 경우, 화면 제어부(220)는 사용자 입력에 의해 선택된 어느 하나의 기 선정 추천 위치(제2 위치)에 대응하는 객체가 의자이므로, 제1 사용자 아바타의 자세를, 기본 제1 사용자 아바타의 자세인 차렷 자세에서 제1 사용자 아바타가 의자에 앉아있는 자세인 의자에 앉은 자세로 변경할 수 있다. 이후, 화면 제어부(220)는 자세 변경된 제1 사용자 아바타(즉, 의자에 앉은 자세를 갖는 제1 사용자 아바타)를 현실 영상(51) 상의 제2 위치(의자에 대응하는 위치)에 표시할 수 있다.
다른 일예로, 화면 제어부(220)는, 적어도 하나의 기 선정 추천 위치의 선정을 위해, SNS 관계망에 업로드된 복수의 증강현실 영상(즉, 복수 사용자들에 의하여 업로드되어 제2 저장부에 저장된 복수의 증강현실 영상)(특히, 현실 영상(51)과 관련하여 업로드된 현실 영상(51) 관련 복수의 증강현실 영상)을 분석할 수 있으며, 분석을 통해 현실 영상(51) 관련 복수의 증강현실 영상 내에 포함된 사용자 아바타들이 현실 영상(51) 내에서 어느 위치에 나타나는지에 대한 통계 정보(즉, 현실 영상 관련 복수의 증강현실 영상 내 사용자 아바타들이 표시되는 위치에 관한 통계 정보인 통계 위치 정보)를 산출할 수 있다.
이때, 복수 사용자에 의해 제2 저장부(260)에 기 저장된 현실 영상(51) 관련 복수의 증강현실 영상 내 사용자 아바타들(이하 전체 사용자 아바타들이라 함)의 위치(표시 위치)를 분석한 결과, 일예로 도 2에 도시된 복수의 위치(71, 72, 73)에 대하여, 전체 사용자 아바타들 중 70%에 해당하는 사용자 아바타들이 제1 위치(71)에 표시되어 있고, 전체 사용자 아바타들 중 20%에 해당하는 사용자 아바타들이 제3 위치(73)에 표시되어 있으며, 전체 사용자 아바타들 중 9%에 해당하는 사용자 아바타들이 제2 위치(72)에 표시되고, 전체 사용자 아바타들 중 1%에 해당하는 사용자 아바타들이 제4 위치(미도시)에 표시되어 있다고 하자.
이러한 경우, 화면 제어부(220)는 제1 위치(71)는 70%, 제2 위치(72)는 10%, 제3 위치(73)는 20%, 제4 위치(미도시)는 1%를 포함하는 통계 위치 정보를 산출할 수 있다. 이후, 화면 제어부(220)는 일예로 산출된 통계 위치 정보에 대응하는 복수의 위치(일예로 제1 위치 내지 제4 위치) 중 기 설정된 상위 개수(일예로, 상위 3개)에 속하는 위치로서 제1 위치(71) 내지 제3 위치(73)를 적어도 하나의 기 선정 추천 위치로서 현실 영상(51)에 표시할 수 있다. 이후, 일예로 현실 영상(51) 상에 적어도 하나의 기 선정 추천 위치 중 어느 하나의 기 선정 추천 위치로서 제3 위치(73)에 대한 사용자 입력이 이루어진 경우, 제1 사용자 아바타를 현실 영상(51) 상의 제3 위치(73)에 표시할 수 있다.
또 다른 일예로, 화면 제어부(220)는 통계 위치 정보가 산출되면, 산출된 통계 위치 정보에 대응하는 복수의 위치 중 사용자 아바타들이 가장 많이 표시(전체 사용자 아바타들 중 70%에 해당하는 사용자 아바타들이 표시)된 것으로 확인되는 최상위 위치(즉, 현실 영상 관련 복수의 증강현실 영상 내 사용자 아바타들이 표시 위치들 중 사용자 아바타들이 가장 많이 표시된 것으로 확인되는 위치)인 제1 위치(71)를 어느 하나의 기 선정 추천 위치로 결정할 수 있으며, 이후, 결정된 어느 하나의 기 선정 추천 위치인 제1 위치(71)에 제1 사용자 아바타를 표시할 수 있다.
화면 제어부(220)에 의해 현실 영상 상에 사용자 아바타가 표시된 이후, 영상 관리부(230)는, 촬영 모드에서 촬영 버튼에 대한 제1 사용자의 사용자 입력이 이루어진 경우, 사용자 입력에 응답하여 현실 영상과 사용자 아바타(제1 사용자 아바타)가 결합된 증강현실 영상을 획득하여 제2 저장부(260)에 저장할 수 있다.
이때, 촬영 버튼은 일예로 제1 사용자 단말(1)의 화면의 일영역에 터치 입력 방식으로 마련된 것일 수 있고, 또는 제1 사용자 단말(1)에 물리적인 버튼 방식으로 마련된 것일 수 있으며, 이에 한정되는 것은 아니다.
제1 사용자는, 화면 제어부(220)의 제어에 의하여, 사용자 단말(1)의 화면에 표출되는 현실 영상 상에 사용자 아바타(제1 사용자 아바타)가 오버랩하여 표시된 이후 이를 촬영한 이미지(증강현실 영상)을 획득하고자 하는 경우, 제1 사용자 단말(1)의 촬영 버튼에 대한 입력을 수행할 수 있다. 이처럼, 촬영 버튼에 대한 제1 사용자의 사용자 입력(제1 사용자 입력)이 이루어진 경우, 영상 관리부(230)는 제1 사용자 입력에 응답하여 제1 사용자 단말(1) 상에 표출된 현실 영상과 제1 사용자 아바타가 결합된 증강현실 영상(제1 증강현실 영상)을 획득하여 제2 저장부(260)에 저장(특히, 제2 저장부 내 제1 하위 저장부에 저장)할 수 있다.
제1 사용자 단말(1)을 통해 획득되는 증강현실 영상은, 현실 영상과 제1 사용자 아바타가 결합된 증강현실 영상을 의미하는 것으로서, 이는 제1 증강현실 영상이라 지칭될 수 있다.
제2 저장부(260)에 저장되는 제1 증강현실 영상의 예는 도 2를 참조하여 보다 쉽게 이해될 수 있다.
도 2는 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치(100)에서 제2 저장부(260)에 저장되는 제1 증강현실 영상(53)의 일예를 나타낸 도면이다. 여기서, 제1 증강현실 영상(53)은 제1 사용자 단말(1)을 통해 획득된 증강현실 영상을 의미할 수 있다.
도 2를 참조하면, 제1 사용자가 제1 사용자 단말(1)을 이용하여 일예로 궁 내 한옥을 촬영 대상 영역으로 하여 촬영을 수행하고자 한다고 하자. 이때, 화면 제어부(220)는 제1 사용자 단말(1)이 촬영 모드인 것으로 감지된 경우, 촬영 대상 영역에 대응하는 현실 영상(51)을 사용자 단말(1)의 화면에 표출시키고, 이와 함께 아바타 관리부(210)에서 생성되어 저장된 제1 사용자에 대응하는 제1 사용자 아바타(52)를 현실 영상(51) 상에 오버랩하여 제1 사용자 단말(1)의 화면에 표시(표출)할 수 있다.
즉, 화면 제어부(220)는, 제1 사용자 단말(1)이 촬영 모드인 것으로 감지된 경우, 촬영 대상 영역에 대응하여 제1 사용자 단말(1)의 화면에 표출되는 현실 영상(51) 상에 아바타 관리부(210)에 의해 생성된 제1 사용자 아바타(52)를 오버랩하여 제1 사용자 단말(1)의 화면 상에 표시(표출)할 수 있다.
이후, 촬영 모드에서 촬영 버튼에 대한 제1 사용자의 입력(제1 사용자 입력)이 이루어지면, 영상 관리부(230)는 제1 사용자 단말(1)의 화면에 표출되고 있는 현실 영상(51)과 제1 사용자 아바타(52)가 결합된 증강현실 영상(53, 제1 증강현실 영상)을 제1 사용자 단말(1)로부터 획득하여 제2 저장부(260)(특히, 제2 저장부 내 제1 하위 저장부)에 저장할 수 있다.
즉, 영상 관리부(230)는 촬영 모드에 대한 제1 사용자의 입력이 이루어지면, 현실 영상(51)에 대하여 제1 사용자 아바타(52)를 결합시킴으로써 제1 증강현실 영상(53)을 생성하고, 생성된 제1 증강현실 영상(53)을 획득하여 제2 저장부(260)에 저장할 수 있다.
본원에서 제2 저장부(260)에 저장되는 증강현실 영상은, 정적인 상태의 영상(이미지, 사진)을 의미할 수 있으나, 이에만 한정되는 것은 아니고, 이미지, 사진과 같은 정적인 상태의 영상뿐만 아니라 동적인 상태의 영상(동영상 등)을 모두 포함하는 개념으로 이해됨이 바람직하다.
SNS 관리부(240)는 증강현실 영상을 타 사용자와 공유하기 위한 공유 요청 신호가 사용자로부터 입력된 경우, 공유 요청 신호에 대한 사용자 입력에 응답하여 공유를 위해 증강현실 영상을 SNS 관계망에 업로드할 수 있다.
즉, SNS 관리부(240)는 제2 저장부(260)에 저장된 제1 증강현실 영상(53)을 타 사용자에게 공유하기 위한 공유 요청 신호가 제1 사용자로부터 입력된 경우, 공유 요청 신호에 대한 사용자 입력(제1 사용자의 입력)에 응답하여 공유를 위해 제1 증강현실 영상(53)을 SNS 관계망에 업로드할 수 있다.
여기서, SNS 관계망은 본 장치(100)에 의해 제공되는 관계망(네트워크)으로서, 이는 특정한 관심이나 활동을 공유하는 사람들 사이의 관계망(사람들 사이에 형성되는 관계망)을 의미할 수 있다.
도면에 도시하지는 않았으나, 본 장치(100)는 제어부(미도시)를 포함할 수 있다. 제어부(미도시)는 본 장치(100)에 포함된 각 부의 동작을 제어할 수 있다.
제1 저장부(250)는 상술한 바와 같이 사용자에 대응하여 생성된 사용자 아바타를 저장할 수 있다. 일예로, 제1 저장부(250)는 제1 사용자에 대응하여 생성된 제1 사용자 아바타를 저장할 수 있다.
제2 저장부(260)는 상술한 바와 같이 사용자 단말로부터 획득된 증강현실 영상을 저장할 수 있다. 일예로, 제2 저장부(260)는 제1 사용자 단말(1)로부터 획득된 제1 증강현실 영상(53)을 저장할 수 있다.
한편, 제2 저장부(260)에 제1 증강현실 영상(53)이 저장된 이후에, 제2 사용자가 제2 사용자의 사용자 단말(제2 사용자 단말, 1')을 이용하여, 제1 사용자가 촬영했었던 촬영 대상 영역(즉, 제1 증강현실 영상(53)의 획득이 이루어졌던 촬영 대상 영역으로서, 제1 증강현실 영상에 대응하는 촬영 대상 영역을 의미함)과 동일한 촬영 대상 영역(동일 촬영 대상 영역)을 촬영하고자 한다고 하자.
이때, 제2 사용자 단말(1')을 이용해 촬영되는 촬영 대상 영역과 제1 사용자 단말(1)에 의해 촬영되었던 촬영 대상 영역이 서로 동일한 촬영 대상 영역인지에 대한 판단(즉, 제2 사용자 단말이 동일 촬영 대상 영역의 촬영을 위한 촬영 모드인지 여부에 대한 판단)은, 일예로, 제2 저장부(260)에 기 저장된 제1 증강현실 영상(제1 사용자 단말에 의해 촬영되었던 촬영 대상 영역에 대응하는 제1 증강현실 영상)의 제1 위치 방위 정보(즉, 제1 증강현실 영상의 위치 정보와 방위 정보를 포함한 제1 위치 방위 정보)와 제2 사용자 단말(1')의 화면에 표출되는 촬영 대상 영역에 대응하는 현실 영상의 제2 위치 방위 정보(제2 사용자 단말의 화면에 표출되는 현실 영상의 위치 정보와 방위 정보를 포함한 제2 위치 방위 정보) 간의 비교를 통해 이루어질 수 있다.
일예로, 화면 제어부(220)는 제1 위치 방위 정보로부터 미리 설정된 오차 범위 영역 내에 제2 위치 방위 정보가 위치하는 경우, 제2 사용자 단말(1')을 이용해 촬영되는 촬영 대상 영역과 제1 사용자 단말(1)에 의해 촬영되었던 촬영 대상 영역이 서로 동일한 촬영 대상 영역인 것으로 판단할 수 있다.
이에 따르면, 영상 관리부(230)는 증강현실 영상을 제2 저장부(260)에 저장할 때, 증강현실 영상, 증강현실 영상 내 포함된 사용자 아바타, 증강현실 영상이 획득된 위치에 관한 위치 정보, 증강현실 영상이 획득된 방위에 관한 방위 정보, 사용자 아바타에 대하여 기 설정된 후술하는 결합 불가 조건 등이 서로 함께 연계하여 저장할 수 있다.
화면 제어부(220)는, 제2 사용자의 사용자 단말(제2 사용자 단말, 1')이 제1 사용자 단말(1)에 의해 획득되어 제2 저장부(260)에 저장된 제1 증강현실 영상(53)에 대응하는 촬영 대상 영역과 동일한 촬영 대상 영역(동일 촬영 대상 영역)의 촬영을 위한 촬영 모드인 것으로 감지되되, 촬영 대상 영역(동일 촬영 대상 영역)과 관련하여 기 저장된 사용자 아바타로서 제1 사용자 아바타(52)가 존재하는 경우, 제2 사용자의 사용자 단말(1')의 화면에 표출되는 현실 영상 상에 제2 사용자 아바타 및 제1 사용자 아바타를 오버랩하여 표시할 수 있다. 이는 도 3을 참조하여 보다 쉽게 이해될 수 있다.
도 3은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치(100)에서 제2 저장부(260)에 저장되는 제2 증강현실 영상(63)의 일예를 나타낸 도면이다. 여기서, 제2 증강현실 영상(63)은 제2 사용자 단말(1')을 통해 획득된 증강현실 영상을 의미할 수 있다.
도 3을 참조하면, 앞서 말한 바와 같이, 제2 저장부(260)에 제1 증강현실 영상(53)이 저장된 이후에, 제2 사용자가 제2 사용자 단말(1')을 이용하여 제1 증강현실 영상(53)에 대응하는 촬영 대상 영역과 동일한 촬영 대상 영역(동일 촬영 대상 영역)을 촬영하고자 한다고 하자.
이때, 화면 제어부(220)는, 제2 사용자 단말(1')이 촬영 모드인 것으로 감지된 경우, 제2 저장부(260)에 기 저장된 복수의 증강현실 영상 중 촬영 모드에 대응하여 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61)에 대응하는 촬영 대상 영역과 동일한 촬영 대상 영역(동일 촬영 대상 영역)을 대상으로 하는 증강현실 영상이 제2 저장부(260)에 존재하는지 판단할 수 있다. 여기서, 제2 사용자 단말(1')의 화면에 표출되는 현실 영상에 대응하는 촬영 대상 영역과 동일한 촬영 대상 영역을 갖는 제2 저장부(260)에 기저장된 증강현실 영상은 후술하는 설명에서 매칭 증강현실 영상이라 지칭될 수 있으며, 이때, 매칭 증강현실 영상이 일예로 제1 증강현실 영상(53)이라 하자.
이러한 경우, 화면 제어부(220)는, 제2 사용자 단말(1')이 촬영 모드일 때, 제2 사용자 단말(1')의 화면에 표출되는 현실 영상에 대응하는 촬영 대상 영역과 동일한 촬영 대상 영역(동일 촬영 대상 영역)을 대상으로 하는 증강현실 영상(즉, 매칭 증강현실 영상인 제1 증강현실 영상)이 제2 저장부(260)에 존재하면, 제2 사용자 단말(1')의 촬영 모드를 제2 저장부(260)에 기 저장된 복수의 증강현실 영상 중 적어도 하나의 증강현실 영상(일예로, 매칭 증강현실 영상인 제1 증강현실 영상)의 촬영 대상 영역과 동일한 촬영 대상 영역(동일 촬영 대상 영역)의 촬영을 위한 촬영 모드인 것으로 인식할 수 있다.
이후, 화면 제어부(220)는, 제2 사용자의 사용자 단말(1')이 제2 저장부(260)에 기 저장된 복수의 증강현실 영상 중 적어도 하나의 증강현실 영상(일예로, 매칭 증강현실 영상인 제1 증강현실 영상)의 촬영 대상 영역과 동일한 촬영 대상 영역(동일 촬영 대상 영역)의 촬영을 위한 촬영 모드인 것으로 감지되되, 촬영 대상 영역(동일 촬영 대상 영역)과 관련하여 기 저장된 사용자 아바타로서 제1 사용자 아바타가 존재한다고 하자. 즉, 제2 저장부(260) 내에, 제2 사용자의 단말(1')이 촬영하고자 하는 촬영 대상 영역과 동일한 촬영 대상 영역(동일 촬영 대상 영역)을 촬영함으로써 획득되어 저장된 증강현실 영상(매칭 증강현실 영상)으로서 제1 증강현실 영상(53)이 존재하고, 이러한 제1 증강현실 영상(53)과 관련하여 기 저장된 사용자 아바타로서 제1 사용자 아바타(52)가 존재한다고 하자.
이러한 경우, 화면 제어부(220)는, 제2 사용자의 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상에 제2 사용자에 대응하여 생성된 사용자 아바타인 제2 사용자 아바타(62)를 오버랩하여 표시할 수 있으며, 이 뿐만 아니라, 더하여 제2 사용자의 사용자 단말(1')의 화면에 표출되는 현실 영상(61)과 관련하여 제2 저장부(260)에 기 저장되어 있던 증강현실 영상(매칭 증강현실 영상인 제1 증강현실 영상) 내 사용자 아바타인 제1 사용자 아바타(52)를 제2 사용자의 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상에 오버랩하여 표시할 수 있다.
즉, 화면 제어부(220)는, 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61)과 관련하여, 제2 저장부(260)에 기 저장되어 있던 제1 사용자 아바타(52)와 제2 사용자 아바타(62)를 함께 제2 사용자 단말(1')의 화면 상에 표출되는 현실 영상(61) 상에 오버랩하여 표시할 수 있다.
이후, 영상 관리부(230)는, 일예로 제2 사용자 단말(1')의 화면 일영역에 표시된 촬영 버튼에 대한 사용자 입력(제2 사용자의 입력)이 이루어진 경우, 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61), 제2 사용자 아바타(62) 및 제1 사용자 아바타(52)가 모두 결합된 증강현실 영상으로서 제2 증강현실 영상(63)을 제2 사용자 단말(1')로부터 획득하고, 획득된 제2 증강현실 영상(63)을 제2 저장부(260)에 저장(특히, 제2 저장부 내 제2 하위 저장부에 저장)할 수 있다.
이때, 영상 관리부(230)는 현실 영상(61), 제2 사용자 아바타(62) 및 제1 사용자 아바타(52)가 결합된 제2 증강현실 영상(63)을 획득하여 저장하고자 할 때, 제1 사용자 아바타(52)와 관련하여 결합 불가 조건이 기 설정되어 있는 경우, 결합 불가 조건을 고려하여 제2 증강현실 영상(63)의 획득을 위한 결합을 수행할 수 있다. 영상 관리부(230)는 결합 불가 조건을 고려하여 제2 증강현실 영상(63)의 획득을 위한 결합의 수행 및/또는 제2 증강현실 영상(63)의 획득 여부를 결정할 수 있다.
즉, 영상 관리부(230)는 촬영 모드에 대한 제2 사용자의 입력이 이루어지면, 현실 영상(61)에 대하여 제2 사용자 아바타(62)와 제1 사용자 아바타(52)를 결합시킴으로써 제2 증강현실 영상(63)을 생성하고, 생성된 제2 증강현실 영상(63)을 획득하여 제2 저장부(260)에 저장할 수 있다.
이때, 영상 관리부(230)는, 제2 증강현실 영상(63)의 획득을 위해 현실 영상(61)에 제2 사용자 아바타(62)와 제1 사용자 아바타(52)를 결합시키고자 할 때, 제1 사용자 아바타(52)와 관련하여 결합 불가 조건이 기 설정되어 있는 경우, 결합 불가 조건을 고려하여 제2 증강현실 영상(63)의 획득을 위한 결합을 수행할 수 있다.
즉, 영상 관리부(230)는 제2 사용자 단말(1')을 통해 제2 증강현실 영상(63)을 획득함에 있어서, 제2 저장부(260)에 기 저장된 기저장 사용자 아바타(일예로 제1 사용자 아바타)와 현재의 촬영 모드인 것으로 감지된 사용자 단말에 대응하는 현재 사용자 아바타(일예로, 제2 사용자 아바타)를 포함한 복수의 사용자 아바타를 현실 영상에 결합시킨 제2 증강현실 영상(63)을 획득하고자 하는 경우, 기저장 사용자 아바타와 관련해 결합 불가 조건이 기 설정되어 있으면, 결합 불가 조건을 고려하여 제2 증강현실 영상(63)의 획득을 위한 결합(현실 영상에 대한 복수의 사용자 아바타의 결합)을 수행할 수 있다. 이는 도 4를 참조하여 보다 쉽게 이해될 수 있다.
도 4는 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치(100)에서 증강현실 영상의 획득시 고려되는 결합 불가 조건을 설명하기 위한 도면이다.
도 4를 참조하면, 영상 관리부(230)는, 제2 증강현실 영상(63)의 획득을 위해 현실 영상(61)에 제2 사용자 아바타(62)와 제1 사용자 아바타(52)를 결합시키고자 할 때, 제1 사용자 아바타(52)와 관련하여 결합 불가 조건이 기 설정되어 있는 경우, 제1 사용자 아바타(52)와 관련하여 설정되어 있는 결합 불가 조건을 고려하여 제2 증강현실 영상(63)의 획득을 위한 결합을 수행할 수 있다.
즉, 영상 관리부(230)는, 제1 사용자 아바타(52)와 관련하여 기 설정되어 있는 결합 불가 조건을 고려하여, 현실 영상(61)에 제2 사용자 아바타(62)와 제1 사용자 아바타(52)를 결합시킴으로써 제2 증강현실 영상(63)을 획득하여 제2 저장부(260)에 저장할 수 있다.
여기서, 결합 불가 조건은 제1 조건 및 제2 조건을 포함할 수 있다. 제1 조건은 현실 영상(61) 상에 오버랩하여 표시되는 제1 사용자 아바타(52)와 제2 사용자 아바타(62) 간에 적어도 일부의 중첩 영역(s)이 존재하는 경우, 전후방향에 대한 사용자 아바타의 위치와 관련하여 설정된 조건을 의미할 수 있다. 제2 조건은 현실 영상(61) 상에 오버랩하여 표시되는 제1 사용자 아바타(52)와 제2 사용자 아바타(62) 간에 적어도 일부의 중첩 영역(s)이 존재하는 경우, 중첩 영역(s)에 대응하는 사용자 아바타의 신체 부위와 관련하여 설정된 조건을 의미할 수 있다.
구체적으로, 제1 조건은, 현실 영상(61) 상에 오버랩하여 표시되는 제1 사용자 아바타(52)와 제2 사용자 아바타(62) 간에 적어도 일부의 중첩 영역(s)이 존재하는 경우, 제2 사용자 아바타(62)가 제1 사용자 아바타(52)보다 전방에 위치하는 조건을 의미할 수 있다.
예시적으로, 제2 증강현실 영상(63)의 획득을 위해 촬영 버튼에 대한 제2 사용자의 입력이 이루어졌을 때(제2 사용자의 입력이 이루어진 시점에), 제2 사용자 단말(1')의 화면 상에 표출된 현실 영상(61) 상에 제1 사용자 아바타(52)와 제2 사용자 아바타(62)가 서로 간에 적어도 일부의 중첩 영역(s)을 가지도록 표시되어 있되, 제2 사용자 아바타(62)의 중첩된 영역이 제1 사용자 아바타(52)의 중첩된 영역보다 전방에 위치하도록 표시되어 있다고 하자(즉, 제1 사용자 아바타의 중첩된 영역이 제2 사용자 아바타의 중첩된 영역에 의해 가려져있다고 하자). 이때, 제1 사용자 아바타(52)에 제1 조건에 관한 결합 불가 조건이 기 설정되어 있는 경우, 영상 관리부(230)는 제2 사용자 아바타(62)의 중첩된 영역이 제1 사용자 아바타(52)의 중첩된 영역보다 전방에 위치하고 있음에 따라 제1 조건에 의해 결합이 불가하다고 판단(즉, 제1 조건에 관한 결합 불가 조건을 충족하고 있다고 판단)하여, 결과적으로 촬영 버튼에 대한 제2 사용자의 입력이 이루어진 경우, 제2 사용자의 입력에 응답하여 제2 증강현실 영상(63)의 획득이 이루어지지 않도록 할 수 있다(즉, 제2 증강현실 영상이 미획득되도록 할 수 있다).
만약, 제2 사용자 아바타(62)의 중첩된 영역이 제1 사용자 아바타(52)의 중첩된 영역보다 후방에 위치하도록 표시되어 있다고 하자(즉, 제2 사용자 아바타의 중첩된 영역이 제1 사용자 아바타의 중첩된 영역에 의해 가려져있다고 하자). 이때, 제1 사용자 아바타(52)에 제1 조건에 관한 결합 불가 조건이 기 설정되어 있는 경우, 영상 관리부(230)는 제2 사용자 아바타(62)의 중첩된 영역이 제1 사용자 아바타(52)의 중첩된 영역보다 후방에 위치하고 있음에 따라 제1 조건에 관한 결합 불가 조건을 충족하고 있지 않다(미충족하고 있다)고 판단하여, 결과적으로 촬영 버튼에 대한 제2 사용자의 입력이 이루어진 경우, 제2 사용자의 입력에 응답하여 제2 증강현실 영상(63)을 획득하여 제2 저장부(260)에 저장할 수 있다.
이에 따르면, 제1 사용자 아바타에 제1 조건에 관한 결합 불가 조건이 설정되어 있다라 함은, 타 사용자(일예로 제2 사용자)가 제1 사용자 자신의 아바타(제1 사용자 아바타)가 포함된 증강현실 영상을 획득 가능하도록 허용함에 있어서, 타 사용자의 아바타(일예로 제2 사용자 아바타)가 제1 사용자 아바타보다 앞에 위치하여 제1 사용자 아바타의 적어도 일부의 영역이 타 사용자의 아바타(제2 사용자 아바타)에 의해 가려진 경우에 한해서는 타 사용자가 제1 사용자 아바타가 포함된 증강현실 영상을 획득하지 못하도록 제한하는 설정을 의미할 수 있다.
타 사용자(일예로, 제2 사용자 등)가 제1 사용자 아바타가 포함된 증강현실 영상을 획득하고자 할 때, 제1 사용자가 자신의 아바타(제1 사용자 아바타)가 타 사용자의 아바타(일예로 제2 사용자 아바타 등)에 의해 가려지는 것 없이 제1 사용자 아바타의 형상(형태)이 온전히 증강현실 영상에서 맨 앞에 표시되길 희망하는 경우, 제1 사용자는 제1 사용자 아바타에 대하여 제1 조건에 관한 결합 불가 조건을 설정할 수 있다. 즉, 제1 사용자는 자신의 아바타(제1 사용자 아바타)를 포함한 증강현실 영상을 타 사용자들이 획득 가능하도록 함에 있어서, 타 사용자들이 획득하는 증강현실 영상 내에서 제1 사용자 아바타를 맨 앞에 보이고 싶어하는 경우에, 제1 사용자 아바타에 대하여 제1 조건에 관한 결합 불가 조건을 설정할 수 있다.
한편, 제2 조건은, 현실 영상(61) 상에 오버랩하여 표시되는 제1 사용자 아바타(52)와 제2 사용자 아바타(62) 간에 적어도 일부의 중첩 영역(s)이 존재하되, 중첩 영역(s)의 크기가 미리 설정된 크기 이하의 크기를 가지며 제2 사용자 아바타(62)가 제1 사용자 아바타(52)보다 전방에 위치하는 경우, 중첩 영역(s)에 대응하는 제2 사용자 아바타(62)의 신체 부위가 기 설정된 신체 부위에 해당하는 조건을 의미할 수 있다.
여기서, 기 설정된 신체 부위는 예시적으로 입술 부위, 손 부위 등일 수 있으나, 이에만 한정되는 것은 아니고, 이는 사용자 입력에 의해 설정될 수 있다.
예시적으로, 제2 증강현실 영상(63)의 획득을 위해 촬영 버튼에 대한 제2 사용자의 입력이 이루어졌을 때(제2 사용자의 입력이 이루어진 시점에), 제2 사용자 단말(1')의 화면 상에 표출된 현실 영상(61) 상에 제1 사용자 아바타(52)와 제2 사용자 아바타(62)가 서로 간에 적어도 일부의 중첩 영역(s)을 가지도록 표시되어 있되, 중첩 영역(s)의 크기가 미리 설정된 크기 이하의 크기를 가지며, 제2 사용자 아바타(62)의 중첩된 영역이 제1 사용자 아바타(52)의 중첩된 영역보다 전방에 위치하도록 표시되어 있다고 하자(즉, 제1 사용자 아바타의 중첩된 영역이 제2 사용자 아바타의 중첩된 영역에 의해 가려져있다고 하자).
이때, 영상 관리부(230)는 미리 설정된 크기 이하의 크기를 갖는 중첩 영역(s)에 대응하는 제2 사용자 아바타(62)의 신체 부위(즉, 제2 사용자 아바타의 중첩된 영역의 신체 부위)가 기 설정된 신체 부위에 해당하는지 판단할 수 있다. 이때, 영상 관리부(230)는 중첩 영역(s)에 대응하는 제2 사용자 아바타(62)의 신체 부위(즉, 제2 사용자 아바타의 중첩된 영역의 신체 부위)가 기 설정된 신체 부위로서 일예로 입술 부위에 해당하는 경우, 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상에 제1 사용자 아바타(52)와 제2 사용자 아바타(62)가 서로 간에 제1 사용자 아바타(52)에 대하여 기 설정된 제2 조건에 관한 결합 불가 조건을 충족하는 상태로 표시(위치, 배치)되어 있다고 판단할 수 있다.
이처럼, 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상에 표시된 제1 사용자 아바타(52)와 제2 사용자 아바타(62) 간의 중첩 영역(s)의 형태가 제2 조건에 관한 결합 불가 조건을 충족하는 형태인 경우(즉, 제2 사용자 아바타에서 입술 부위에 해당하는 부분만이 제1 사용자 아바타와 중첩된 상태로 제1 사용자 아바타보다 전방에 위치하도록 표시된 형태인 경우), 영상 관리부(230)는 획득하고자 하는 제2 증강현실 영상(63)이 제2 조건에 관한 결합 불가 조건을 충족하고 있다고 판단하여, 결과적으로 촬영 버튼에 대한 제2 사용자의 입력이 이루어진 경우, 제2 사용자의 입력에 응답하여 제2 증강현실 영상(63)의 획득이 이루어지지 않도록 할 수 있다(즉, 제2 증강현실 영상이 미획득되도록 할 수 있다.
만약, 제2 사용자 아바타(62)와 제1 사용자 아바타(52) 간의 중첩된 중첩 영역(s)의 크기가 미리 설정된 크기를 초과하는 크기를 가지되, 제2 사용자 아바타(62)가 제1 사용자 아바타(52)보다 전방에 위치하는 경우 혹은 후방에 위치하는 경우, 영상 관리부(230)는 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상의 제1 사용자 아바타(52)와 제2 사용자 아바타(62)가 서로 간에, 제1 사용자 아바타(52)에 대하여 기 설정된 제2 조건에 관한 결합 불가 조건을 충족하고 있지 않다(미충족하고 있다)고 판단하여, 결과적으로 촬영 버튼에 대한 제2 사용자의 입력이 이루어진 경우, 제2 사용자의 입력에 응답하여 제2 증강현실 영상(63)을 획득하여 제2 저장부(260)에 저장할 수 있다.
이에 따르면, 제1 사용자 아바타(52)에 제2 조건에 관한 결합 불가 조건이 설정되어 있다라 함은, 타 사용자(일예로 제2 사용자)가 제1 사용자 자신의 아바타(제1 사용자 아바타)가 포함된 증강현실 영상을 획득 가능하도록 허용함에 있어서, 타 사용자의 아바타(일예로 제2 사용자 아바타) 중 기 설정된 신체 부위(일예로 입술 부위, 손 부위)에 해당하는 영역만이 제1 사용자 아바타보다 앞에 위치하는 경우에 한해서는 타 사용자가 제1 사용자 아바타가 포함된 증강현실 영상을 획득하지 못하도록 제한하는 설정을 의미할 수 있다.
타 사용자(일예로, 제2 사용자 등)가 제1 사용자 아바타가 포함된 증강현실 영상을 획득하고자 할 때, 제1 사용자 아바타를 희롱하는 행위나 제스처를 이용한 도발 행위 등과 같은 불쾌감 유발 행위(즉, 제1 사용자 아바타와 관련해 불쾌감을 유발하는 행위)가 포함된 증강현실 영상의 획득이 이루어지지 않게 하고자 하는 경우, 제1 사용자는 제1 사용자 아바타에 대하여 제2 조건에 관한 결합 불가 조건을 설정할 수 있다. 즉, 제1 사용자는 자신의 아바타(제1 사용자 아바타)를 포함한 증강현실 영상을 타 사용자들이 획득 가능하도록 함에 있어서, 제1 사용자 아바타와 관련해 희롱이나 도발 등의 불쾌감 유발 행위 없이 건전한 상태의 제1 사용자 아바타가 포함된 증강현실 영상의 획득이 이루어질 수 있도록 희망하는 경우에, 제1 사용자 아바타에 대하여 제2 조건에 관한 결합 불가 조건을 설정할 수 있다.
일예로, 아바타 관리부(210)는 제1 사용자에 대응하는 제1 사용자 아바타를 생성하여 제1 저장부(250)에 저장할 수 있으며, 이때 제1 사용자로부터 결합 불가 조건 관련 설정 정보를 입력받은 경우, 제1 사용자로부터 입력받은 결합 불가 조건 관련 설정 정보를 제1 사용자 아바타와 연계하여 제1 저장부(250)에 저장할 수 있다. 이러한 결합 불가 조건 관련 설정 정보에는 제1 조건의 충족 여부를 판단하는 제1 조건 설정 정보 및 제2 조건의 충족 여부를 판단하는 제2 조건 설정 정보가 포함될 수 있다.
만약, 제1 사용자 아바타와 관련하여 결합 불가 조건 관련 설정 정보가 존재하지 않는 경우(즉, 제1 사용자 아바타와 관련하여 결합 불가 조건이 기 설정되어 있지 않은 경우)에는, 제1 사용자 아바타와 타 사용자의 아바타 간에 어떠한 제약 없이 두 사용자 아바타 간에 결합이 이루어질 수 있다.
또한, 앞서 말한 바와 같이, 화면 제어부(220)는, 제2 사용자의 사용자 단말(제2 사용자 단말, 1')이 제1 사용자 단말(1)에 의해 획득되어 제2 저장부(260)에 저장된 제1 증강현실 영상(53)에 대응하는 촬영 대상 영역과 동일한 촬영 대상 영역(동일 촬영 대상 영역)의 촬영을 위한 촬영 모드인 것으로 감지되되, 촬영 대상 영역(동일 촬영 대상 영역)과 관련하여 기 저장된 사용자 아바타로서 제1 사용자 아바타(52)가 존재하는 경우, 제2 사용자의 사용자 단말(1')의 화면에 표출되는 현실 영상 상에 제2 사용자 아바타 및 제1 사용자 아바타를 오버랩하여 표시할 수 있다.
이때, 화면 제어부(220)는, 제2 사용자 단말(1')의 화면에 표출되는 현실 영상 상에 제1 사용자 아바타의 표시시, 제1 사용자 아바타에 대하여 기 설정된 공개 범위 설정 정보를 기반으로 제1 사용자 아바타의 표시 여부를 결정할 수 있다.
여기서, 기 설정된 공개 범위 설정 정보는, 제1 사용자 이외의 타 사용자들의 단말에 대하여 제1 사용자 아바타의 표시를 허용하는 범위를 설정한 정보를 의미할 수 있다. 이러한 공개 범위 설정 정보에는 모두 공개, 친구 공개, 비공개를 포함한 3가지 유형의 설정 정보가 포함될 수 있다. 이러한 공개 범위 설정 정보는 사용자 입력에 의하여 설정될 수 있다. 일예로 제1 사용자 아바타에 대한 공개 범위 설정 정보는 제1 사용자 입력에 의하여 설정될 수 있다.
예를 들면, 제2 사용자의 단말(1')이 동일 촬영 대상 영역의 촬영을 위한 촬영 모드인 것으로 감지되되, 동일 촬영 대상 영역과 관련하여 기 저장된 사용자 아바타로서 제1 사용자 아바타가 존재한다고 하자. 이때, 화면 제어부(220)는 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상에 제2 사용자 아바타(62)와 제1 사용자 아바타(52)를 표시하기 이전에, 제1 사용자 아바타(52)에 대한 공개 범위 설정 정보가 존재하는지 확인할 수 있다.
이때, 제1 사용자 아바타에 기 설정된 공개 범위 설정 정보로서 '비공개'인 정보가 존재하면, 화면 제어부(220)는 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상에 제2 사용자 아바타(62)만 표시할 수 있다.
다른 일예로, 제1 사용자 아바타에 기 설정된 공개 범위 설정 정보로서 '친구 공개'인 정보가 존재하면, 화면 제어부(220)는 제1 사용자 아바타(52)에 대응하는 사용자인 제1 사용자와 제2 사용자 아바타(62)에 대응하는 제2 사용자가 본 장치(100) 내에서 서로 간에 친구 맺음 상태인지 확인하고, 확인 결과 친구 맺음 상태가 맞으면 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상에 제2 사용자 아바타(62)와 제1 사용자 아바타(52)를 함께 표시할 수 있다. 반면, 확인 결과 친구 맺음 상태가 아니면, 화면 제어부(220)는 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상에 제2 사용자 아바타(62)만 표시하고, 제1 사용자 아바타(52)는 표시되지 않도록 할 수 있다.
또 다른 일예로, 제1 사용자 아바타에 기 설정된 공개 범위 설정 정보로서 '모두 공개'인 정보가 존재하면, 화면 제어부(220)는 제1 사용자 아바타(52)에 대응하는 사용자인 제1 사용자와 제2 사용자 아바타(62)에 대응하는 제2 사용자가 본 장치(100) 내에서 서로 간에 친구 맺음 상태인지와 관계없이, 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상에 제2 사용자 아바타(62)와 제1 사용자 아바타(52)를 모두 표시할 수 있다.
일예로, 제1 사용자가 연예인이고, 제1 사용자 아바타(52)에 대하여 기 설정된 공개 범위 설정 정보를 '모두 공개'인 것으로 설정해 두고, 제2 사용자가 제1 사용자의 팬이라고 하자. 이러한 경우, 제2 사용자는 본 장치(100)를 통하여 증강현실 영상으로서 현실 영상(61) 상에 제1 사용자 아바타(52)와 제2 사용자 아바타(62)가 결합된 제2 증강현실 영상(63)을 획득하여 제2 저장부(260)에 저장할 수 있다. 이에 따르면, 증강현실 영상의 획득을 위해 사용자 단말의 화면에 표시되는 사용자 아바타들이 각각의 사용자들의 신체 특성 정보를 고려하여 생성된 3차원 아바타임에 따라, 제2 사용자는 촬영 대상 영역에서 실제로 제1 사용자를 만나 제1 사용자와 함께 사진을 찍지 않았음에도 불구하고, 본 장치(100)를 통해 제공되는 제2 증강현실 영상(63)으로 하여금 제2 사용자가 마치 촬영 대상 영역에서 제1 사용자와 함께 사진을 찍은 것과 같은 느낌을 받을 수 있도록 제공할 수 있다.
한편, 아바타 관리부(210)는 정보 획득부(211)를 포함할 수 있다. 정보 획득부(211)는 제1 사용자의 사용자 단말(제1 사용자 단말, 1)이 촬영 모드인 것으로 감지된 경우, 촬영 모드인 것으로 감지된 시점인 촬영 모드 감지 시점에 대응하는 사용자(제1 사용자)의 생체 정보, 촬영 모드 감지 시점에 대응하는 날씨 예보 정보 및 사용자(제1 사용자)에 의하여 업로드된 업로드 정보를 분석하여 산출된 업로드 정보 분석 결과 정보 중 적어도 하나의 정보를 획득할 수 있다.
이때, 사용자(제1 사용자)의 생체 정보는 사용자의 혈압, 체온, 맥박, 호흡수, 심전도 신호 등이 포함될 수 있으나, 이에만 한정되는 것은 아니다. 사용자의 생체 정보는 일예로 사용자(제1 사용자)의 신체 일부에 착용 가능하고, 본 장치(100)와 네트워크(2)를 통해 유/무선으로 연결되는 웨어러블 디바이스로부터 획득될 수 있다. 이때, 웨어러블 디바이스는 사용자의 신체 일부로서 일예로 손목, 머리, 목 등에 착용 가능한 형태의 디바이스를 의미할 수 있다. 이러한 웨어러블 디바이스는 일예로 스마트 워치 등이 포함될 수 있으나, 이에 한정되는 것은 아니고, 사용자의 신체 일부에 착용 가능한 형태의 것이라면 어떠한 형태로든 적용 가능하다.
날씨 예보 정보는, 본 장치(100)와 네트워크(2)를 통해 연결되는 일예로 기상청 서버(미도시)로부터 획득될 수 있다.
정보 획득부(211)가 획득하는 업로드 정보 분석 결과는, 일예로 사용자(제1 사용자)가 SNS 관계망에 업로드한 적어도 하나의 업로드 정보를 분석함으로써 산출된 정보일 수 있다. 이때, 업로드 정보 분석 결과는 일예로 사용자(제1 사용자)의 감정 상태와 관련하여 분석된 정보(즉 감정 상태 관련 분석 정보)를 의미할 수 있으나, 이에 한정되는 것은 아니다. 여기서, 감정 상태라 함은, 기쁨 상태, 슬픈 상태, 우울한 상태 등이 포함될 수 있으나, 이에 한정되는 것은 아니다.
또한, 업로드 정보 분석 결과는, 일예로 촬영 모드 감지 시점에 대응하는 날짜에 기 업로드된 업로드 정보를 분석함으로써 산출된 정보일 수 있으나, 이에 한정되는 것은 아니고, 사용자에 의해 미리 설정된 기간 내(예를 들어, 촬영 모드 감지 시점에 대응하는 날짜로부터 3일 이전에 해당하는 기간)에 기 업로드된 업로드 정보를 분석함으로써 산출된 정보일 수 있다.
이때, 업로드 정보 분석 결과의 산출시 고려되는 업로드 정보에는 블로그, 포스팅, 게시물 등과 관련하여 업로드된 각종 정보가 포함될 수 있으며, 블로그, 포스팅, 게시물 등과 관련된 게시글(내용)이 포함할 수 있다. 또한, 업로드 정보에는 사용자 단말(제1 사용자 단말) 내에 송수신된 메시지 정보가 포함될 수 있으며, 이에 한정되는 것은 아니다.
아바타 관리부(210)는, 정보 획득부(211)에 의해 획득된 적어도 하나의 정보에 기초하여, 아바타 관리부(210)에 의해 생성된 사용자 아바타(즉, 신체 특성 정보를 고려하여 생성된 제1 사용자 아바타)의 상태 정보를 업데이트하고, 업데이트된 사용자 아바타(업데이트된 제1 사용자 아바타)를 생성하여 제1 저장부(250)에 저장할 수 있다. 이후, 화면 제어부(220)는, 제1 사용자 단말(1)이 촬영 모드인 것으로 감지된 경우, 업데이트된 사용자 아바타(업데이트된 제1 사용자 아바타)에 기초하여, 제1 사용자 단말(1)의 화면에 표출되는 현실 영상 상에 업데이트된 사용자 아바타(업데이트된 제1 사용자 아바타)를 표시할 수 있다.
여기서, 사용자 아바타(제1 사용자 아바타)의 상태 정보는, 사용자 아바타의 얼굴 표정, 자세(동작), 멘트 및 착용 의류(사용자 아바타에 착용된 의류인 착용 의류) 중 적어도 하나를 포함할 수 있다.
사용자 아바타(제1 사용자 아바타)의 상태 정보는, 정보 획득부(211)에 의해 획득된 적어도 하나의 정보에 기초하여 자동으로
예시적으로, 아바타 관리부(210)는 제1 사용자의 신체 특성 정보를 고려하여 제1 사용자 아바타(이는 기본 제1 사용자 아바타라 지칭될 수 있음)를 생성할 수 있다. 이때, 정보 획득부(211)에서 획득된 적어도 하나의 정보를 분석한 결과, 예시적으로 촬영 모드 감지 시점에 대응하여 획득된 사용자의 생체 정보가 정상 수준의 범위에 속하는 것으로 판단되고, 날씨 예보 정보가 맑은 날씨에 해당하며, 촬영 모드 감지 시점에 대응하는 날짜에 기 업로드된 업로드 정보를 분석하였더니 업로드 정보 분석 결과가 기쁨 상태인 것으로 분석된 경우, 이들을 종합적으로 분석한 결과를 토대로 아바타 관리부(210)는 촬영 모드 감지 시점에 대응하여 예측된 사용자의 현재 상태로서 기쁨 상태인 것으로 판단할 수 있다.
즉, 아바타 관리부(210)는 촬영 모드인 것으로 감지된 시점에 대응하여 정보 획득부(211)가 획득한 적어도 하나의 정보에 기초하여(적어도 하나의 정보를 종합적으로 분석함으로써), 사용자(제1 사용자)의 현재 상태(촬영 모드 감지 시점에 대응하는 사용자의 현 상태)를 예측한 정보인 예측된 사용자의 현재 상태 정보를 판단할 수 있다. 이후, 아바타 관리부(210)는 예측된 사용자의 현재 상태가 기쁨 상태인 것으로 판단됨에 따라, 일예로 앞서 신체 특성 정보를 고려하여 생성된 제1 사용자 아바타(기본 제1 사용자 아바타)의 상태 정보로서 얼굴 표정을 업데이트 할 수 있다
일예로, 기본 제1 사용자 아바타의 얼굴 표정은 무표정일 수 있고, 업데이트된 제1 사용자 아바타의 얼굴 표정은 웃는 얼굴 표정일 수 있다. 아바타 관리부(210)는 업데이트된 제1 사용자 아바타를 생성하여 제1 저장부(250)에 저장할 수 있다. 혹은 아바타 관리부(210)는 제1 저장부(250)에 기 저장된 제1 사용자 아바타(기본 제1 사용자 아바타)를 업데이트된 제1 사용자 아바타로 변경할 수 있다. 뿐만 아니라, 아바타 관리부(210)가 업데이트된 제1 사용자 아바타를 생성하여 제1 저장부(250)에 저장하는 동시에, 화면 제어부(220)는 촬영 모드 감지에 응답하여 제1 사용자 단말(1)의 화면에 표출되는 현실 영상 상에 업데이트된 제1 사용자 아바타를 표시할 수 있다.
이때, 촬영 모드에서 촬영 버튼에 대한 제1 사용자의 입력이 이루어지면, 영상 관리부(230)는 증강현실 영상으로서, 현실 영상과 업데이트된 제1 사용자 아바타가 결합된 증간현실 영상을 획득하여 제2 저장부(260)에 저장할 수 있다.
이처럼, 본 장치(100)는 촬영 모드 감지 시점에 대응하여 획득된 사용자의 생체 정보, 날씨 예보 정보, 업로드 정보 분석 결과 등의 분석을 토대로, 촬영 모드 감지 시점에 대응하는 사용자의 현재 상태를 예측(예측된 사용자의 현재 상태 정보를 판단)하고, 예측된 사용자의 현재 상태를 반영하여 앞서 신체 특성 정보를 고려하여 생성된 제1 사용자 아바타(기본 제1 사용자 아바타)의 상태 정보(얼굴 표정, 자세, 착용 의류, 멘트 등)을 업데이트하여 업데이트된 제1 사용자 아바타를 화면에 표시함으로써, 증강현실 영상의 획득시에, 사용자의 현재 상태의 반영이 이루어진 업데이트된 제1 사용자 아바타가 포함된 증강현실 영상의 획득이 이루어지도록 제공할 수 있다.
이러한 본 장치(100)는 사용자의 현재 상태(기분 등)이 반영된 아바타(업데이트된 제1 사용자 아바타)가 반영된 증강현실 영상의 획득을 통해, 보다 사용자가 현재 느끼는 감정이 반영된 증감현실 영상을 타 사용자와 공유 가능하도록 제공할 수 있다.
즉, 본 장치(100)는 제1 사용자의 실제 모습이 아닌 그를 대신하여 표현되는 사용자 아바타(제1 사용자 아바타)가 획득되는 증강현실 영상 내에 포함되도록 하며(특히나, 사용자의 현재 느끼는 감정이 반영된 업데이트된 사용자 아바타가 증강현실 영상에 포함되도록 하며), 이렇게 획득된 증강현실 영상을 타인과 공유 가능하게 할 수 있다. 이러한 본 장치(100)는, 종래의 SNS가 갖는 문제들(일예로, 개인사생활의 노출 우려가 있고, 사진 형식, 짧은 영상에 국한된 일상 공유 방법을 사용하기 때문에 정보를 표현하는 데에 한계가 있으며, 과시욕이 있는 일부 사람들에게 있어서 그들의 욕구를 충분히 충족시켜주지 못하고, 시간이 지날수록 사용자들이 점점 흥미를 잃어가게 되는 문제 등)을 해소할 수 있다.
즉, 이러한 본 장치(100)는 업데이트된 제1 사용자 아바타가 포함된 증강현실 영상의 공유가 가능하도록 제공함으로써, 제1 사용자가 자신의 실제 모습을 노출시키지 않으면서(개인 사생활 노출을 줄이면서) 자신과 닮도록 생성된 제1 사용자 아바타의 노출을 통해 간접적으로 자신을 표현할 수 있으며, 이를 통해 제1 사용자 자신의 일상과 감정을 부담없이 적극적으로 타인과 공유 가능하게 할 수 있다.
또한, 화면 제어부(220)는, 사용자 단말(제1 사용자 단말)의 화면에 현실 영상(51)이 미리 설정된 시간(일예로 3초) 동안 표출되는 경우, 현실 영상(51)과 관련하여 SNS 관계망에 업로드된 업로드 정보를 분석하여, 현실 영상(51)과 관련해 현실 영상(51)의 주변에 위치한 장소의 방문을 추천하는 추천 방문 장소 관련 정보가 존재하는지 판단할 수 있다. 여기서, 업로드 정보로는, 앞서 말한 바와 같이 로그, 포스팅, 게시물 등과 관련하여 업로드된 각종 정보가 포함될 수 있으며, 블로그, 포스팅, 게시물 등과 관련된 게시글(내용)이 포함할 수 있다. 또한, 업로드 정보에는 사용자 단말(제1 사용자 단말) 내에 송수신된 메시지 정보가 포함될 수 있으며, 이에 한정되는 것은 아니다.
이때, 판단 결과 존재하면(즉, 현실 영상(51)의 주변에 위치한 장소의 방문을 추천하는 추천 방문 장소 관련 정보가 존재하면), 화면 제어부(220)는 추천 방문 장소 관련 정보를 포함하는 관리자 아바타를 생성하여 현실 영상(51) 상에 표시할 수 있다. 즉, 화면 제어부(220)는 현실 영상(51) 상에 제1 사용자 아바타를 표시할 수 있는데, 이때 현실 영상(51)과 관련하여 추천 방문 장소 관련 정보가 존재하는 것으로 판단되면, 현실 영상(51) 상에 제1 사용자 아바타를 표시하는 것 외에 추가적으로 관리자 아바타를 더 표시할 수 있다.
이때, 화면 제어부(220)는, 제1 사용자 단말(1)의 화면에 표출되는 현실 영상(51) 상에 표시된 관리자 아바타에 대한 사용자 입력(제1 사용자의 입력)이 이루어진 경우, 사용자 단말(1)의 화면 일영역에 관리자 아바타에 포함된 추천 방문 장소 관련 정보를 일예로 팝업 형태로 표시할 수 있다.
여기서, 화면 제어부(220)는, 추천 방문 장소 관련 정보 내에 복수개의 장소 항목이 포함된 경우, 팝업 형태로 표시되는 추천 방문 장소 관련 정보 내 복수개의 장소 항목의 표시 순위를, 복수의 사용자 단말(1, 1’, …)에 의해 이루어지는 복수개의 장소 항목에 대한 사용자 동작 정보의 수준(레벨)을 고려하여 갱신할 수 있다. 이하에서, 수준은 레벨 등으로 달리 표현될 수 있다.
일예로, 추천 방문 장소 관련 정보 내에 4개의 장소의 추천을 위한 정보가 포함되어 있는 경우, 복수개의 장소 항목은 4개의 장소 중 제1 장소의 방문을 추천하는 제1 장소 항목, 제2 장소의 방문을 추천하는 제2 장소 항목, 제3 장소의 방문을 추천하는 제3 장소 항목 및 제4 장소의 방문을 추천하는 제4 장소 항목이 포함될 수 있다.
또한, 추천 방문 장소 관련 정보 내 포함되는 복수개의 장소 항목에는, 일예로 유명 관광지의 장소, 유명 관광지의 관광 코스 정보, 도심 내 방문할 만한 랜드마크(예를 들어, 박물관, 미술관 등) 장소, 맛집 장소 등과 같이 다양한 유형의 장소(혹은 코스)에 관한 정보가 포함될 수 있다.
또한, 장소 항목에는 해당 장소에 관한 정보로서, 명칭, 주소, 경로 안내 정보, 위치가 표시된 지도 정보, 이용 요금 정보, 이용 시간 정보 등이 포함될 수 있으며, 이에 한정되는 것은 아니다.
복수개의 장소 항목의 표시 순위의 갱신시 고려되는 사용자 동작 정보의 수준(레벨)은, 제1 수준, 제2 수준 및 제3 수준을 포함한 복수의 수준으로 구분될 수 있다. 이때, 이하 사용자 동작 정보의 수준을 설명함에 있어서, 사용자 단말은 복수의 사용자 단말(1, 1’, …) 중 어느 하나의 사용자 단말을 의미할 수 있다.
제1 수준에 대응하는 사용자 동작 정보는, 사용자 단말로부터 복수개의 장소 항목 중 적어도 하나의 장소 항목을 선택하는 선택 입력 동작을 수행하는 사용자 동작에 관한 정보를 의미할 수 있다. 제2 수준에 대응하는 사용자 동작 정보는, 사용자 단말에 의해 선택된 적어도 하나의 장소 항목(즉, 선택 입력 동작이 이루어진 적어도 하나의 장소 항목) 중 어느 하나의 장소 항목과 관련하여, 어느 하나의 장소 항목에 대응하는 장소까지의 길 안내를 요청하는 길 안내 요청 입력 동작을 수행하는 사용자 동작에 관한 정보를 의미할 수 있다. 제3 수준에 대응하는 사용자 동작 정보는, 길 안내 요청 입력 동작에 응답하여 생성된 어느 하나의 장소 항목에 대응하는 장소까지의 길 안내 정보를 기반으로, 사용자가 어느 하나의 장소 항목에 대응하는 장소를 실제 방문함에 따라 어느 하나의 장소 항목에 대응하는 장소와 관련된 이미지를 획득하는 장소 이미지 획득 동작을 수행하는 사용자 동작에 관한 정보를 의미할 수 있다.
화면 제어부(220)는 복수개의 장소 항목에 대하여 이루어진 사용자 동작 정보의 수준에 따라 각기 다른 점수를 부여할 수 있으며, 부여된 점수를 기반으로 팝업 형태로 표시되는 추천 방문 장소 관련 정보 내 복수개의 장소 항목의 표시 순위(랭킹)를 갱신할 수 있다.
일예로, 화면 제어부(220)는 제1 수준에 대응하는 사용자 동작 정보가 이루어진 장소 항목에는 제1 점수를 부여하고, 제2 수준에 대응하는 사용자 동작 정보가 이루어진 장소 항목에는 제2 점수를 부여하며, 제3 수준에 대응하는 사용자 동작 정보가 이루어진 장소 항목에는 제3 점수를 부여할 수 있다. 이때, 제2 점수는 제1 점수보다 높게 설정되고, 제3 점수는 제2 점수보다 높게 설정될 수 있다.
이때, 화면 제어부(220)는 제3 점수의 부여시, 장소 이미지 획득 동작을 기반으로 획득된 장소와 관련된 이미지의 위치 정보(제1 위치)와 길 안내 요청 입력 동작이 이루어진 장소와 관련된 위치 정보(제2 위치)를 비교하고, 비교 결과 제1 위치가 제2 위치로부터 기 설정된 반경 이내에 속하는 것으로 판단(검증)되면, 사용자가 길 안내 요청 입력 동작이 이루어진 장소에 실제로 방문한 것으로 판단하여 제3 점수를 부여할 수 있다. 만약, 비교 결과 제1 위치가 제2 위치로부터 기 설정된 반경 이내에 속하지 않으면, 사용자가 길 안내 요청 입력 동작이 이루어진 장소에 실제로 방문하지 않은 것으로 판단하여 제3 점수를 부여하지 않을 수 있다.
예를 들면, 제1 사용자 단말(1)의 화면에 표시된 관리자 아바타에 대한 제1 사용자의 입력이 이루어진 경우, 제1 사용자 단말(1)의 화면의 일영역에는 복수의 장소 항목으로서 4개의 장소 항목을 포함한 추천 방문 장소 관련 정보를 팝업 형태로 표시할 수 있다.
이때, 4개의 장소 항목 중 제1 장소 항목에 대하여, 과거에 복수의 사용자 중 제3 사용자와 제4 사용자가 제1 장소 항목을 선택한 선택 입력 동작을 수행한 적 있다고 하자. 이러한 경우, 제3 사용자의 사용자 단말(제3 사용자 단말)에 의해 이루어진 제1 장소 항목에 대한 사용자 동작 정보의 수준이 제1 수준임에 따라, 제1 장소 항목에는 제3 사용자 단말에 의해 제1 점수가 부여될 수 있다. 마찬가지로, 제4 사용자의 사용자 단말(제4 사용자 단말)에 의해 이루어진 제1 장소 항목에 대한 사용자 동작 정보의 수준이 제1 수준임에 따라, 제1 장소 항목에는 제4 사용자 단말에 의해 제1 점수가 부여될 수 있다.
만약, 제1 장소 항목에 대하여, 과거에 제3 사용자가 제1 장소 항목을 선택한 선택 입력 동작을 수행한 이후에, 제1 장소 항목에 해당하는 장소까지의 길 안내를 요청하는 길 안내 요청 입력 동작을 수행한 적 있다고 하자. 이러한 경우, 제3 사용자 단말에 의해 이루어진 제1 장소 항목에 대한 사용자 동작 정보의 수준이 제2 수준임에 따라, 제1 장소 항목에는 제3 사용자 단말에 의해 제1 점수보다 높은 제2 점수가 부여될 수 있다.
또한, 일예로 제3 사용자가 제1 장소 항목에 해당하는 장소(즉 제1 장소)까지의 길 안내를 요청하는 길 안내 요청 입력 동작을 수행한 이후, 길 안내 요청 입력 동작에 응답하여 제공되는 제1 장소까지의 길 안내 정보를 기반으로 실제로 제1 장소에 방문하였다고 하자. 이후, 제3 사용자가 실제 방문한 제1 장소를 기념하기 위하여, 제1 장소와 관련된 이미지를 제3 사용자 단말의 이미지 센서를 통해 획득하였다고 하자(즉, 제3 사용자가 제1 장소와 관련된 이미지를 획득하는 장소 이미지 획득 동작을 수행하였다고 하자). 이러한 경우, 제3 사용자 단말에 의해 이루어진 제1 장소 항목에 대한 사용자 동작 정보의 수준이 제3 수준임에 따라, 제1 장소 항목에는 제3 사용자 단말에 의해 제2 점수보다 높은 제3 점수가 부여될 수 있다.
이처럼, 화면 제어부(220)는, 복수개의 장소 항목에 대하여, 복수의 사용자(혹은 복수의 사용자 단말)에 의해 이루어진 복수 사용자들에 의한 사용자 동작 정보의 수준을 고려하여 그에 따라 점수를 부여하고, 부여된 점수를 기반으로 하여 복수개의 장소 항목의 순위(랭킹)를 갱신할 수 있다. 이후, 화면 제어부(220)는, 갱신된 순위(랭킹)가 반영된 복수개의 장소 항목이 포함된 추천 방문 장소 관련 정보를 팝업 형태로 사용자 단말(제1 사용자 단말)의 화면에 표시할 수 있다.
즉, 화면 제어부(220)는 복수의 사용자들에 의한 사용자 동작 정보의 수준을 고려하여 추천 방문 장소 관련 정보 내 복수개의 장소 항목의 표시 순위를 갱신할 수 있다.
이러한 본 장치(100)는, 특정 장소(특정 장소 목록)에 대한 사용자의 관심이 실제 행동으로 옮겨지기까지의 온라인 상의 행동과 오프라인 상의 행동이 모두 고려된 사용자의 일련의 행동(사용자 동작 정보)을 복수의 수준(레벨)으로 구분하고, 각 동작 수준별로 각기 다른 가중치를 부여하여 복수의 추천 방문 장소에 대한 랭크 갱신을 수행함으로써, 추천 장소 랭크의 신뢰성을 확보하면서 해당 추천 방문 장소의 방문 가치에 대한 신뢰성을 부여할 수 있다.
즉, 본 장치(100)는, 팝업 형태로 제공된 복수개의 장소 항목과 관련하여, 복수개의 장소 항목 중 선택 입력 동작이 이루어진 장소 항목에는 제1 점수를 부여(부가)하고, 선택 입력 동작이 이루어진 장소 항목 중 특정 장소 항목에 대응하는 장소에 방문하고자 길 안내를 요청하는 사용자의 동작 행동인 길 안내 요청 입력 동작이 이루어진 장소 항목에는 제1 점수보다 높은 제2 점수를 부여하며, 길 안내를 요청받은 장소 항목 중 사용자가 길 안내 요청 장소 항목에 대응하는 장소에 실제 방문을 수행하고 나아가 사용자 단말을 통해 길 안내 요청 장소 항목에 대응하는 장소에서의 이미지 획득까지 수행하는 사용자의 동작 행동인 장소 이미지 획득 동작이 이루어진 장소 항목에는 제2 점수보다 높은 제3 점수를 부여함으로써, 복수개의 장소 항목의 순위(표시 순위, 랭크)를 사용자 동작 정보의 수준을 고려해 갱신할 수 있다.
이러한 본 장치(100)는, 촬영 대상 영역(혹은 현실 영상)의 주변에 위치한 특정 장소의 방문을 추천하기 위한, 복수개의 장소 항목을 포함한 추천 방문 장소 관련 정보를 제공함에 있어서, 복수개의 장소 항목 중 보다 선호되는 장소 항목이 우선적으로 표출되거나 추천되도록 함에 있어서, 특정 장소 항목에 대한 사용자의 관심에 따른 동작(행동)으로서, 온라인 상에서 보이는 관심 동작에서부터 실제 오프라인 상에서 보이는 관심 동작으로 옮겨지기까지의 일련의 동작(즉, 장소 항목을 선택하는 제1 동작 → 선택한 장소 항목에 대한 길 안내를 요청하는 제2 동작 → 길 안내 요청이 이루어진 장소 항목에 대한 장소를 실제 방문함과 더불어 토대로 해당 장소의 이미지까지를 획득하는 제3 동작)을 동작 단계(레벨, 수준)별로 구분하여 각 동작 수준에 따라 각기 다른 가중치를 부여함(특히, 동작 레벨이 높아질수록 더 높은 점수의 가중치를 부여함)으로써, 사용자 동작 정보별로 서로 각기 다른 가중치의 부여를 통해 추천되는 복수개의 장소 항목에 대한 랭크 갱신이 이루어지도록 할 수 있습니다.
이러한 본 장치(100)는, 사용자 동작 정보의 수준에 따라 부여되는 점수의 가중치를 달리함으로써, 복수개의 장소 항목에 대한 순위(랭크) 조작을 방지하고 순위 산정의 신뢰성을 확보할 수 있다. 또한, 본 장치(100)는 해당 장소 항목에 대응하는 장소의 방문 가치에 대한 신뢰성을 부여하고, 이를 통해 방문객을 유치할 수 있어 해당 지역(장소)의 홍보와 활성화를 적극 유도할 수 있다. 또한, 본 장치(100)는 복수개의 장소 항목 중 선택된 길 안내 요청 장소 항목에 대한 길 안내 정보를 제공함에 따라, 해당 장소의 주소나 명칭을 입력하지 않고도 장소 항목의 선택에 기반한 길 안내 요청을 토대로 해당 장소 항목에 해당하는 장소까지의 경로 안내가 가능하여, 온라인 상에서 활동하는 사용자를 오프라인 상의 실제 장소로 찾아오는 방문객으로 유도할 수 있다.
이러한 본 장치(100)는 사람들에게 있어서 타인에게 보여줄 수 있는 또 다른 공간을 제공하고, 증강현실(AR)을 이용하여 현실에서 구현하기 힘들거나 한계가 있는 부분을 가상에서 구현 가능하도록 제공할 수 있다. 또한, 본 장치(100)는 기존의 가볍게 쓸 수 있는 SNS의 요소를 포함할 수 있다.
종래의 공지된 SNS 는 사진 형식, 짧은 영상에 국한된 일상 공유 방법을 사용 중이다. 이는 정보를 표현하는 데에 한계가 있고, 개인정보 노출 등의 위험 등이 따르는 문제가 있다.
이에 반해, 본 장치(100)는 과거에 아바타 꾸미기 등의 유행했던 방법들을 최근 사용되기 시작한 AR기능에 도입시켜 좀더 세분화되고 새로운 방식의 SNS 제공 기술에 대하여 제안한다. 본 장치(100)는, 본 장치(100)를 통해 제공되는 어플을 사용하는 사용자들에게 있어서, 사용자 본인이 간 장소에 대한 영상 확득시 본인의 아바타(사용자 아바타)를 화면 상에 표출시켜 본인의 아바타가 포함된 증강현실 영상(사진, 동영상 등)을 획득할 수 있도록 할 수 있다. 또한, 본 장치(100)는 사용자가 특정 장소에 방문하여 해당 방문 장소에 대한 증강현실 영상을 획득하였을 때, 증강현실 영상의 획득이 이루어진 해당 장소에 사용자 아바타가 남겨지도록 하는 기록 방식을 채택한다.
이러한 본 장치(100)는, 사용자들에게 개인정보 노출의 두려움을 줄이면서 더욱 적극적인 일상 공유가 가능해지도록 제공할 수(도울 수) 있다. 또한, 본 장치(100)는, 종래의 SNS 대비 생성되는 사용자 아바타로 하여금 더욱 다양한 자기 개성 표출이 가능하다.
본 장치(100)는 현재 존재하지 않는 새로운 방식의 SNS 서비스 제공 기술을 제공할 수 있다. 본 장치(100)는 SNS의 본질적 이유인 과시욕을 좀더 본격적으로 채워줄 수 있는 효과를 제공할 수 있다. 또한, 본 장치(100)는 더욱 즐거운 방식으로 사용자가 추억을 보관할 수 있도록 도울 수 있다.
또한, 본 장치(100)에 의한 SNS 서비스 제공 기술은 사용자가 방문한 장소에서 증강현실 영상 획득이 이루어진 경우, 증강현실 영상의 획득이 이루어진 해당 장소에 사용자 아바타가 남겨지도록 하는 개념임에 따라, 이는 예상치 못한 돌발 상황(일예로, 희롱, 제스처를 사용한 도발 등)으로 인해 좀 더 민감해진 다툼상황이 발생할 가능성의 문제가 있을 수 있다. 이에, 본 장치(100)는, 사용자 아바타에 대하여 기 설정된 결합 불가 조건을 고려하여 사용자 아바타와 현실 영상 간의 결합 수행 및/또는 사용자 아바타가 포함된 증강현실 영상의 획득 여부의 결정을 수행함으로써, 상술한 돌발 상황으로 인한 다툼 상황의 발생 가능성을 해소할 수 있다.
페이스북 등과 같은 종래의 SNS 기술은, 다양한 기능을 제공하나 각종 광고와 개인사생활 문제에 있어 끊임없이 문제를 일으키고 있다. 또한, 종래의 SNS 기술은 표현 방법에 있어서 영상, 사진이라는 명확한 한계가 존재하여 간혹 일부 사람들의 더 많은 욕구를 충족시켜주지 못하는 경우가 존재한다.
이에 본 장치(100)는 증강현실로 가상의 현실을 제공한다는 개념을 기초로 하는 어플로서 사용자에게 제공될 수 있다.
본 장치(100)는, 일예로 개인 프로필 관리 설정 기능, 개인 타임라인 기능, 사진 및 동영상 업로드 기능, 친구에 대한 팔로우/팔로잉 기능, 사용자 아바타 관리 기능, 사용자 아바타의 장식 아이템(일예로 의류, 액세서리 등)에 대한 판매/거래/제작 기능, AR 사진(즉, 증강현실 영상) 획득 기능, 아바타로 원거리 친구와 사진찍기 기능(일예로, 제2 사용자가 제2 사용자 아바타 외에 타 사용자인 제1 사용자 아바타가 함께 포함된 증강현실 영상을 획득하는 기능), 타 사용자와의 소통 기능(커뮤니케이션 기능, 댓글 기능, 공감 기능), 업로드하는 주제에 맞춘 랜덤 친구 추천 기능 등을 제공할 수 있으며, 이에 한정되는 것은 아니고, 다양한 기능이 포함될 수 있다.
본 장치(100)는 AR을 사용한 SNS 어플리케이션을 제공할 수 있다. 본 장치(100)는 SNS 어플리케이션에 AR을 적용하여 사용자가 사용자 단말을 이용하여 촬영한 사진에 사용자가 설정한 아바타를 포함하여 촬영 가능하도록 제공할 수 있다.
또한, 본 장치(100)는 GPS 등 사용자 위치에 기반하여 사용자가 방문한 장소에 방문 기록을 남겨서, 다른 사용자가 방문하였을 때 사용자의 아바타를 다른 사용자의 단말에 표시되도록 제공할 수 있다. 또한, 본 장치(100)는 사용자의 아바타를 이용하여 원거리에 있는 다른 사용자와 사진을 찍을 수 있도록 제공할 수 있다. 또한, 본 장치(100)는 개인 프로필 관리, 타임라인, 사진 및 동영상 업로드, 아바타 관리 및 꾸미는 기능 및 소통기능을 제공할 수 있다.
또한, 본 장치(100)는, 사진, 동영상 촬영 시 영상 내 사물, 환경 등 객체를 인식하고 인식된 사물, 환경 등의 객체와 사용자의 아바타(사용자 아바타)가 상호작용할 수 있도록 제공할 수 있다. 즉, 본 장치(100)는 인식된 객체에 따라 사용자 아바타의 자세, 표정 등을 변경할 수 있다.
또한, 본 장치(100)는, 사용자의 생체신호, SNS 블로그 등 포스팅 내용, 날씨, 사용자 단말 내 메시지 등과 연계하여 화면에 표시되는 사용자 아바타의 동작(자세), 표정, 멘트 등을 다양하게 변경할 수 있으며, 사진, 동영상 등의 촬영시 촬영이 이루어지는 장소(방문 장소)에 해당하는 위치에 사용자 아바타가 남겨 기록(제2 저장부에 증강현실 영상의 저장시 사용자 아바타를 함께 연계햐여 저장함으로써, 사용자 아바타의 위치를 기록할 수 있음)할 수 있다.
또한, 본 장치(100)는 아바타를 포함한 영상으로 하여금, 일예로 아바타를 사용한 영상통화, 아바타를 활용한 게임 등을 가능케 할 수 있다.
또한, 본 장치(100)는 사용자 아바타의 생성시 사용자의 선택/설정으로 생성할 수 있다. 뿐만 아니라, 본 장치(100)는 사용자 아바타의 생성시 일예로 사용자의 사진(혹은 동영상)을 수신하면, 수신된 사진에 대한 이미지 분석을 통해 수신된 사진 내 사용자의 특징(표정이나 피부톤, 얼굴형 등)을 추출할 수 있다. 이후, 본 장치(100)는 추출된 사용자의 특징과 일예로 사용자로부터 기 입력받은 사용자의 취미, 나이, 성별 등에 관한 정보를 함께 고려하여 사용자의 신체 특성 정보를 획득할 수 있으며, 획득된 신체 특성 정보가 반영된 사용자 아바타를 생성할 수 있다.
또한, 본 장치(100)는, 사용자 아바타 외의 관리자 아바타를 생성하여 표시할 수 있다. 본 장치(100)는 관리자 아바타를 이용하여 유명 관광지 관광 코스, 도심 내 방문할 만한 랜드마크(박물관, 미술관 등)에 관한 정보를 제공할 수 있으며, 뿐만 아니라 추천 방문 장소에 관한 정보와 관련하여 사용자가 확인할 수 있는 추천 경로를 생성하여 제공할 수 있다.
또한, 본 장치(100)는, 홍보를 제공하고자 하는 상품(제품)이나 서비스 공급자의 아바타를 활용하여 자신의 매장 인근 위치에 아바타를 위치시켜 기록할 수 있으며, 기록된 해당 아바타를 통하여 매장 접근 정보, 상품 및 서비스 정보 등을 제공하는 기능을 제공할 수 있다.
한편, 본 장치(100)에서 아바타 관리부(210)는, 사용자(제1 사용자)에 대응하는 사용자 아바타(제1 사용자 아바타)를 생성함에 있어서, 제1 사용자 아바타에 적용되는 의류 추천 정보를 생성하고, 생성된 의류 추천 정보에 해당하는 의류의 착용이 이루어진 제1 사용자 아바타를 생성하여 제1 저장부(250)에 저장할 수 있다. 아바타 관리부(210)는, 사용자 단말(1)이 증강현실 영상의 획득을 위해 촬영 모드인 것으로 감지되면, 촬영 모드 감지에 응답하여 생성된 의류 추천 정보에 해당하는 의류의 착용이 이루어진 제1 사용자 아바타를 생성하고, 생성된 제1 사용자 아바타가 현실 영사 상에 표시되도록 화면 제어부(220)로 제공할 수 있다. 이에 대한 보다 구체적인 설명은 도 5를 참조하여 보다 쉽게 이해될 수 있다.
도 5는 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치(100)에서 아바타 관리부(210)의 구성을 개략적으로 나타낸 도면이다.
도 5를 참조하면, 아바타 관리부(210)는 감지부(110), 생성부(120), 관리 제어부(130), 위치 판단부(140), 소유 의류 관리부(150), 일정 판단부(160), 이력 저장부(170) 및 소유 의류 저장부(180)를 포함할 수 있다.
감지부(110)는, 사용자 단말(1)이 촬영 대상 영역에 대응하는 증강현실 영상을 획득하기 위한 촬영 모드(촬영 모드 상태)의 감지가 이루어진 시점을 감지할 수 있다. 즉, 감지부(110)는 촬영 모드 감지 시점을 감지, 식별, 인식할 수 있다.
생성부(120)는 감지부(110)에 의해 감지된 촬영 모드 감지 시점에 응답하여, 이력 저장부(170)에 기 저장된 복수의 착용 의류 이력 데이터의 분석을 통해 획득된 사용자 체감 특성 정보와 촬영 모드 감지 시점에 대응하는 날씨 예보 정보를 고려 하여, 촬영 모드 감지 시점에 대응하는 의류 추천 정보를 생성할 수 있다.
여기서, 이력 저장부(170)에 저장된 착용 의류 이력 데이터는, 후술하는 입력 요청 메시지(체감 온도 정보의 입력을 위한 입력 요청 메시지)에 대한 사용자 입력(이는 후술하는 설명에서, 설명의 편의상 제1 질의 관련 사용자 입력이라 지칭하기로 한다)이 이루어진 경우에, 체감 온도 정보의 입력 값이 사용자 주변 환경의 온도 측정 값, 입력 시점 날씨 예보 정보 및 착용 의류의 속성 정보 중 적어도 하나와 서로 연계되어 한 세트로 구성되어 저장되는 데이터를 의미할 수 있다. 이에 대한 보다 자세한 설명은 후술하여 설명하기로 한다.
도면에 도시하지는 않았으나, 아바타 관리부(210)는 분석부(미도시)를 포함할 수 있다. 분석부(미도시)는 이력 저장부(170)에 기 저장된 복수의 착용 의류 이력 데이터를 분석하여 사용자 체감 특성 정보를 제공할 수 있다.
이때, 사용자 체감 특성 정보는, 사용자 주변 환경의 온도 측정 값, 입력 시점 날씨 예보 정보 및 착용 의류의 속성 정보 중 적어도 하나와 체감 온도 정보의 입력 값 간의 상관 관계 정보(상관성, 관련성)를 분석한 정보를 의미할 수 있다. 여기서, 체감 온도 정보는 사용자가 상대적으로 체감하는(느끼는) 더움 정도 및/또는 추움 정도에 관한 정보를 의미할 수 있다. 따라서, 사용자 체감 특성 정보라 함은 주변 환경의 온도 측정 값, 날씨 예보 정보 및 착용 의류의 속성 정보 중 적어도 하나와 사용자에 의해 입력받은 체감 온도 정보의 입력 값 간의 상관 관계를 분석한 정보(상관 관계 정보)를 의미할 수 있다. 즉, 사용자 체감 특성 정보는 사용자의 체감 온도 정보와 관련된 상관 관계 정보를 의미할 수 있다.
분석부(미도시)는 상관 관계 정보의 분석시 분석 알고리즘으로서 종래에 기 공지되거나 향후 개발되는 다양한 상관성 분석 알고리즘을 이용할 수 있으며, 이에 한정되는 것은 아니다.
일예로, 분석부(미도시)는 이력 저장부(170)에 기 저장된 복수의 착용 의류 이력 데이터를 기반으로, 기 저장된 복수의 착용 의류 이력 데이터를 딥러닝 모델로 학습 시킴으로써, 학습된 딥러닝 모델을 이용해 사용자 체감 특성 정보를 획득할 수 있다.
이때, 딥러닝 모델은 복수의 착용 의류 이력 데이터에서 사용자 주변 환경의 온도 측정 값, 입력 시점 날씨 예보 정보 및 착용 의류의 속성 정보 중 적어도 하나를 입력값으로 하고, 입력값 각각과 매칭되는 착용 의류 이력 데이터 내 체감 온도 정보의 입력 값을 출력값으로 하도록 학습된 모델일 수 있다. 이러한 기 학습된 딥러닝 모델을 이용하여 사용자 체감 특성 정보(착용 의류 이력 데이터로서 저장된 각 데이터들 간의 상관 관계 정보)가 획득될 수 있다.
여기서, 딥러닝 모델은 인공지능(AI) 알고리즘 모델, 기계학습(머신러닝) 모델, 신경망 모델(인공 신경망 모델), 뉴로 퍼지 모델 등을 의미할 수 있다. 또한, 딥러닝 모델은 예시적으로 컨볼루션 신경망(Convolution Neural Network, CNN, 합성곱 신경망), 순환신경망(RNN, Recurrent Neural Network), 딥 신경망(Deep Neural Network) 등 종래에 이미 공지되었거나 향후 개발되는 다양한 신경망 모델이 적용될 수 있다.
본원에서 고려되는 날씨 예보 정보는 일예로 본 장치(100)와 네트워크(2)를 통해 연결되는 기상청 서버(미도시)로부터 획득될 수 있다. 기상청 서버(미도시)는 날씨 예보 정보를 포함하여 날씨와 관련된 각종 정보를 제공할 수 있다.
생성부(120)는 분석부(미도시)의 분석에 의해 제공되는 사용자 체감 특성 정보(사용자의 체감 온도 정보와 관련된 상관 관계 정보)와 기상청 서버(미도시)로부터 획득된 촬영 모드 감지 시점에 대응하는 날씨 예보 정보를 고려해, 촬영 모드 감지 시점에 대응하는 의류 추천 정보를 생성할 수 있다.
생성부(120)는 생성된 의류 추천 정보를 일예로 사용자에게 맞춤화된 맞춤 의류 추천 정보로서 사용자 단말의 화면에 표시할 수 있다. 또한, 생성부(120)는 생성된 의류 추천 정보를 아바타 관리부(210)에 의해 생성된 사용자 아바타(제1 사용자 아바타)에 착용시킴으로써, 생성된 의류 추천 정보에 대응하는 의류의 착용이 이루어진 제1 사용자 아바타(즉, 의류 착용 제1 사용자 아바타)를 생성할 수 있으며, 이를 제1 저장부(250)에 저장할 수 있다. 뿐만 아니라, 촬영 모드 감지 시점에 대한 응답으로서 화면 제어부(220)가, 생성부(120)에 의해 생성된 의류 추천 정보에 대응하는 의류의 착용이 이루어진 제1 사용자 아바타(즉, 의류 착용 제1 사용자 아바타)를 화면에 표시할 수 있도록, 생성부(120)는 의류 착용 제1 사용자 아바타를 화면 제어부(220)로 전달할 수 있다. 이후, 화면 제어부(220)는 아바타 관리부(210)에 의해 생성된 의류 착용 제1 사용자 아바타를 사용자 단말(1)의 화면에 표출되는 현실 영상 상에 오버랩하여 표시할 수 있다.
생성부(120)에 의해 생성되는 의류 추천 정보는 촬영 모드 감지 시점에 사용자 단말(1)의 화면에 표출되는 사용자 아바타가 착용할 의류(옷차림, 코디)를 추천하는 정보를 의미할 수 있다.
본원의 일예에서는 생성부(120)에 의해 생성되는 의류 추천 정보가 사용자 아바타에 착용되는(입혀지는) 의류를 추천하는 정보를 의미하는 것으로 예시하였으나, 이에만 한정되는 것은 아니다. 다른 일예로, 생성부(120)에 의해 생성되는 의류 추천 정보는 촬영 모드 감지 시점에 해당하는 시기(날짜)에 사용자가 실제로 입기에 적합한(적절한) 의류(옷차림, 코디)를 추천하는 정보를 의미할 수 있다. 즉, 의류 추천 정보는 사용자가 실제 착용을 추천하는 맞춤 의류 추천 정보를 의미할 수 있다.
관리 제어부(130)는 후술하는 소유 의류 저장부(180)에 저장된 사용자가 실제 소유한 소유 의류에 관한 정보 중 일부 소유 의류를 착용 의류로서 선택한 경우, 미리 설정된 시간 주기 마다 사용자 단말(1)의 화면의 일영역에 체감 온도 정보의 입력을 위한 입력 요청 메시지를 표시할 수 있다. 특히, 관리 제어부(130)는 사용자가 소유 의류 저장부(180)에 저장된 소유 의류에 관한 정보 중 일부 소유 의류를 착용 의류로서 선택하고 선택된 착용 의류에 대응하는 실물 의류를 실제 착용한 후 외부 활동을 수행하는 경우에, 외부 활동의 수행 중 미리 설정된 시간 주기 마다 입력 요청 메시지를 화면의 일영역에 표시할 수 있다.
여기서, 외부 활동이라 함은 외출을 하는 등 의류를 입고 돌아다니는 행위를 의미할 수 있다. 또한, 미리 설정된 시간 주기는 일예로 2시간, 3시간 등으로 설정될 수 있으나, 이에만 한정되는 것은 아니다. 본원의 일예에서는 미리 설정된 시간 주기가 시간 단위로 설정되는 것으로 예시하였으나, 이는 본원의 이해를 돕기 위한 하나의 예시일 뿐 이에만 한정되는 것은 아니고, 초 단위, 일(day) 단위 등 다양한 단위로 설정될 수 있다.
관리 제어부(130)는 체감 온도 정보의 입력을 위한 입력 요청 메시지를 화면에 표시할 수 있다. 여기서, 체감 온도 정보는 사용자 주변 환경의 온도 측정 값과 대비하여 사용자가 상대적으로 체감하는(느끼는) 더움 정도 및/또는 추움 정도에 관한 정보에 관한 정보를 의미할 수 있다.
날씨의 온도가 동일한 조건이라 할지라도, 해당 온도에서 사용자 각각이 체감하는(느끼는) 상대적인 체감 온도는 각기 다르게 느끼게 된다. 예를 들어 현재의 날씨 온도가 22도라고 하자. 이때, 제1 사용자가 추위를 많이 타는 체질이고 두꺼운 긴팔 상의/긴 하의를 입고 있는 상태인 경우에는 체감 온도로서 따듯하다고(적정 온도라고) 느낄 수 있다. 다른 일예로, 제2 사용자가 추위를 많이 타는 체질이고 반팔 상의(면티)/반팔 하의를 입고 있는 상태인 경우에는 체감 온도로서 춥다고 느낄 수 있다. 또 다른 일예로, 제3 사용자가 더위를 많이 타는 체질이고 반팔 상의/반팔 하의를 입고 있는 상태인 경우에는 체감 온도로서 덥다고 느낄 수 있다.
이처럼, 사용자가 지닌 본래의 체질이나 주변 환경/상황 등에 따라 각각의 사용자가 느끼는 체감 온도는 각기 다를 수 있다. 그런데, 종래의 의류 추천 기술은 일반적으로 특정 기온에 대한 평균적인 의류(옷차림, 코디) 추천 정보를 제공하기 때문에, 이러한 평균 의류 추천 정보는 일부 사용자에게 있어서 만족스럽지 않은 정보로 취급될 수 있다.
따라서, 본 장치(100)는 사용자가 느끼는 체감 온도 정보를 토대로 사용자에게 최적화된 맞춤 의류 추천 정보를 제공하고자, 체감 온도 정보를 획득하기 위해 미리 설정된 시간 주기마다 입력 요청 메시지를 화면에 표시할 수 있다.
또한, 본 장치(100)는 사용자가 느끼는 체감 온도 정보를 토대로 생성되는 의류 추천 정보(맞춤 의류 추천 정보)에 해당하는 의류를 제1 사용자 아바타에 적용시켜 화면에 표출시킴으로써, 획득되는 증강현실 영상 내 포함되는 제1 사용자 아바타로서, 보다 사용자의 현재 상태, 체감 온도 정보에 대한 사용자의 현재 느낌이 반영된 제1 사용자 아바타의 적용이 이루어지도록 제공할 수 있다. 이러한 본 장치(100)는 제1 사용자 아바타로 하여금 실제 사용자와 상당히 유사한 느낌을 갖는 아바타를 제공할 수 있다.
입력 요청 메시지는 사용자가 현재 추운지, 혹은 더운지를 묻는 질의에 대한 사용자 입력(즉, 제1 질의 관련 사용자 입력)을 요청하는 메시지를 의미할 수 있다.
입력 요청 메시지는 일예로 '현재 기온에 착용하고 계신 옷은 어떤가요?'라는 질의와 함께 '춥다', '덥다', '적당하다' 와 같은 선택지가 포함된 메시지일 수 있다. 본원의 일예에서는 체감 온도 정보의 입력을 위한 선택지가 일예로 3가지(춥다, 덥다, 적당하다)인 것으로 예시하였으나, 이에만 한정되는 것은 아니다.
일예로, 체감 온도 정보의 입력을 위한 선택지는 10단계로 구분되고, 이때 단계가 낮을수록 추움이 강함을 의미하고, 단계가 높을수록 더움이 강함을 의미할 수 있다. 즉, 1단계는 매우 추움, 4단계는 조금 추움, 5단계는 적당함, 5단계는 조금 더움, 10단계는 매우 추움 등을 의미할 수 있다.
사용자는 화면에 대한 입력 요청 메시지의 표시에 응답하여, 사용자가 현재 시점(즉, 입력 요청 메시지가 표시된 시점)에 느끼는 체감 온도 정보를 입력할 수 있다. 즉, 사용자는 메시지 표시에 응답하여 체감 온도 정보 관련 복수의 선택지 중 어느 하나를 선택할 수 있다.
이후, 입력 요청 메시지에 대한 사용자 입력(제1 질의 관련 사용자 입력)이 이루어진 경우, 관리 제어부(130)는 제1 질의 관련 사용자 입력에 응답하여, 제1 질의 관련 사용자 입력이 이루어진 시점에 대응하는 사용자 주변 환경의 온도 측정 값, 제1 질의 관련 사용자 입력이 이루어진 시점에 대응하는 입력 시점 날씨 예보 정보 및 제1 질의 관련 사용자 입력이 이루어진 시점에 대응하는 착용 의류의 속성 정보 중 적어도 하나를 입력 요청 메시지에 대응하는 체감 온도 정보의 입력 값과 서로 연계하여 착용 의류 이력 데이터로서 이력 저장부(170)에 저장되도록 제어할 수 있다.
여기서, 제1 질의 관련 사용자 입력이 이루어진 시점이라 함은 화면에 표시된 입력 요청 메시지에 응답하여, 사용자에 의해 체감 온도 정보의 입력이 이루어진 시점(현 시점)을 의미할 수 있다.
사용자 주변 환경의 온도 측정 값은 제1 질의 관련 사용자 입력이 이루어진 시점에 사용자가 위치한 주변(주변 환경)의 온도를 측정한 값을 의미할 수 있다. 사용자 주변 환경의 온도 측정 값은, 일예로 본 장치(100)에 자체 구비된 온도 측정 센서(미도시), 사용자가 소지한 사용자 단말(1)에 구비된 온도 측정 센서(미도시), 본 장치(100)와 네트워크(2)를 통해 연결되고 사용자가 위치한 공간에 마련(설치)되어 있는 온도 측정 센서 중 적어도 하나를 이용해 획득될 수 있다.
입력 시점 날씨 예보 정보는 제1 질의 관련 사용자 입력이 이루어진 시점의 날짜에 해당하는 날씨 예보 정보를 의미할 수 있다.
착용 의류의 속성 정보는 제1 질의 관련 사용자 입력이 이루어진 시점에 사용자가 실제 착용하고 있는 의류(착용 의류)에 대한 속성 정보로서, 착용 의류의 종류(유형), 소재(재질), 두께, 사이즈(치수, 길이), 색상(컬러) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 여기서, 착용 의류의 종류라 함은 예시적으로 반팔인지, 긴팔인지, 치마인지, 아우터인지 등을 구분하는 정보를 의미할 수 있다.
체감 온도 정보의 입력 값이라 함은 체감 온도 정보 관련 복수의 선택지 중 사용자에 의해 선택된 어느 하나를 선택지의 값을 의미할 수 있다.
이처럼, 관리 제어부(130)는 입력 요청 메시지가 화면에 미리 설정된 시간 주기로 표시될 때마다, 그에 대한 사용자 입력(제1 질의 관련 사용자 입력)에 응답하여 사용자 주변 환경의 온도 측정 값, 입력 시점 날씨 예보 정보 및 착용 의류의 속성 정보 중 적어도 하나를 체감 온도 정보의 입력 값과 서로 연계시켜 착용 의류 이력 데이터로서 생성하여 이력 저장부(170)에 저장할 수 있다. 이때, 착용 의류 이력 데이터에는 후술하는 일정 정보(지인 정보를 포함한 일정 정보)가 존재하는 경우, 일정 정보가 함께 연계되어 저장될 수 있다.
이력 저장부(170)에는 미리 설정된 시간 주기마다 제1 질의 관련 사용자 입력에 응답하여 생성된 착용 의류 이력 데이터가 누적하여 저장될 수 있다. 이후, 분석부(미도시)는 이력 저장부(170)에 저장된 복수의 착용 의류 이력 데이터(복수의 누적 착용 의류 이력 데이터)를 분석(특히, 상관 관계의 분석을 수행)하여 사용자 체감 특성 정보를 획득할 수 있다. 이후, 생성부(120)는 획득된 사용자 체감 특성 정보와 날씨 예보 정보를 고려해 촬영 모드 감지 시점에 대응하는 의류 추천 정보를 생성할 수 있다.
분석부(미도시)에 의한 분석을 통해 상술한 상관 관계 정보인 사용자 체감 특성 정보가 획득됨에 따라, 일예로 생성부(120)는 촬영 모드 감지 시점이 감지되었을 때 기상청 서버(미도시)로부터 획득된 촬영 모드 감지 시점에 대응하는 날씨 예보 정보가 존재하면, 사용자 체감 특성 정보를 기초로 하여 '촬영 모드 감지 시점에 해당하는 날짜에 사용자는 어느 정도의 추위(혹은 더위)를 느낄 것이다'라는 정보를 예측한 체감 온도 예측 정보를 획득하고, 획득된 체감 온도 예측 정보를 기반으로 촬영 모드 감지 시점에 대응하는 의류 추천 정보를 생성할 수 있다.
다른 일예로, 촬영 모드 감지 시점이 감지되었을 때 기상청 서버(미도시)로부터 획득된 촬영 모드 감지 시점에 대응하는 날씨 예보 정보와 선택 의류 정보가 존재한다고 하자. 여기서, 선택 의류 정보라 함은 소유 의류 저장부(180)에 저장된 소유 의류 중 사용자가 촬영 모드 감지 시점에 해당하는 날짜에 착용하길 희망하여 선택한 의류 정보를 의미할 수 있다. 이러한 경우, 생성부(120)는 사용자 체감 특성 정보를 기초로 하여 '촬영 모드 감지 시점에 해당하는 날짜에 선택 의류 정보에 해당하는 의류를 실제로 착용하여 입는다면, 사용자는 많이 더워할 것이다(혹은 많이 추워할 것이다)'와 같은 예측된 정보(즉, 체감 온도 예측 정보)를 획득하고, 획득된 체감 온도 예측 정보를 기반으로 촬영 모드 감지 시점에 대응하는 의류 추천 정보를 생성할 수 있다.
위치 판단부(140)는 위치 측정 센서(미도시)를 통해 획득된 사용자(제1 사용자)의 위치 정보를 기반으로 사용자가 실외에 위치하는지 또는 실내에 위치하는지 판단할 수 있다.
여기서, 위치 측정 센서(미도시)는 일예로 본 장치(100)에 자체 구비된 위치 측정 센서 및 사용자가 소지한 사용자 단말(1)에 구비된 위치 측정 센서 중 적어도 하나를 의미할 수 있다. 위치 측정 센서(미도시)는 GPS 센서 등으로 달리 지칭될 수 있다.
관리 제어부(130)는 위치 판단부(140)에 의한 위치 판단 결과에 따라, 입력 요청 메시지 표시에 대한 사용자 입력에 응답하여 이력 저장부(170)에 착용 의류 이력 데이터의 저장시, 입력 시점 날씨 예보 정보를 선택적으로 포함시켜 저장할 수 있다.
일예로, 관리 제어부(130)는 위치 판단 결과 사용자가 실외에 위치하는 것으로 판단된 경우, 이력 저장부(170)에 대한 착용 의류 이력 데이터의 저장시 입력 시점 날씨 예보 정보를 포함시킬 수 있다. 반면, 관리 제어부(130)는 위치 판단 결과 사용자가 실내에 위치하는 것으로 판단된 경우, 이력 저장부(170)에 대한 착용 의류 이력 데이터의 저장시 입력 시점 날씨 예보 정보를 포함시키지 않을 수 있다.
사용자가 실외에 위치할 때에는 사용자가 야외 등에 노출된 상태임에 따라 날씨 예보 정보에 직접적으로 영향받는 상태라 할 수 있을 것이다. 반면, 사용자가 실내에 위치할 때에는, 실내의 경우 구조물로 인해 제한된 공간이 형성되고 해당 공간에서는 에어컨이나 히터 등의 동작이 이루어짐에 따라, 날씨 예보 정보에는 크게 영향받지 않고 오히려 사용자 주변 환경의 온도 측정 값에 더 크게 영향받는 상태라 할 수 있을 것이다.
즉, 날씨 예보 정보는 사용자가 실내에 있는 경우보다는 실외에 있을 때 사용자가 체감하는 온도인 체감 온도 정보에 대하여 더 민감하게 반응한다고(영향을 받는다고) 할 수 있을 것이다.
따라서, 관리 제어부(130)는 입력 요청 메시지에 대한 사용자 입력에 응답하여 착용 의류 이력 데이터를 이력 저장부(170)에 저장할 때, 사용자가 실외에 위치하는지 혹은 사용자가 실내에 위치하는지에 따라 입력 시점 날씨 예보 정보를 선택적으로 포함시켜 저장할 수 있다. 즉, 관리 제어부(130)는 사용자가 실외에 위치하는 것으로 판단된 경우 입력 시점 날씨 예보 정보를 함께 포함시켜 착용 의류 이력 데이터를 저장하고, 사용자가 실내에 위치하는 경우 입력 시점 날씨 예보 정보를 제외시키고 착용 의류 이력 데이터를 저장할 수 있다. 이러한, 본 장치(100)는 사용자의 체감 온도 정보가 고려된 사용자 체감 특성 정보를 분석하여 획득함에 있어서, 보다 신뢰도 높고 정확한 사용자 체감 특성 정보를 획득할 수 있으므로, 이를 통해 결과적으로 사용자에게 최적으로 맞춤화된 맞춤 의류 추천 정보를 제공할 수 있다.
관리 제어부(130)에 의해 화면에 입력 요청 메시지가 표시되는 미리 설정된 시간 주기는, 위치 판단부(140)에 의해 판단된 위치 판단 결과를 기초로 하여 사용자가 실내에 위치하는 경우 대비 사용자가 실외에 위치하는 경우에 더 짧게 설정될 수 있다.
즉, 입력 요청 메시지가 표시되는 미리 설정된 시간 주기는, 일예로 사용자가 실내에 위치하는 경우 제1 주기로 설정되고, 사용자가 실외에 위치하는 경우 제2 주기로 설정될 수 있다. 이때, 제1 주기는 제2 주기보다 더 짧게 설정(더 작은 값으로 설정)될 수 있다. 예시적으로, 제1 주기는 1시간으로 설정될 수 있으며, 제2 주기는 제1 주기보다 긴 2시간으로 설정될 수 있다.
이에 따르면, 관리 제어부(130)는 사용자가 실외에 위치하는 것으로 판단된 경우에는 입력 요청 메시지를 1시간 주기 단위로 화면에 표시하고, 사용자가 실내에 위치하는 것으로 판단된 경우에는 입력 요청 메시지를 2시간 주기 단위로 화면에 표시할 수 있다.
본 장치(100)에서는, 사용자가 실외에 있는 경우일 때가 실내에 있는 경우일 때 보다 더 활동적일 가능성(움직이고 있을 가능성)(일예로, 걷거나 뛰는 등 움직이고 있을 가능성)이 높다고 보고, 이에 사용자가 체감하는 체감 온도의 변화가 실외일 때가 실내일 때 보다 더 유동적으로 가변될 가능성이 높다고 판단할 수 있다. 따라서, 본 장치(100)는 분석부(미도시)에 의해 분석된 사용자의 위치가 실외인지 혹은 실외인지에 따라 입력 요청 메시지가 표시되는 미리 설정된 시간 주기를 달리함으로써, 사용자가 체감하는 체감 온도의 변화를 보다 실시간으로 반영해 보다 최적화된 맞춤 의류 추천 정보의 제공이 이루어지도록 할 수 있다.
생성부(120)는 사용자 체감 특성 정보와 날씨 예보 정보를 고려하여 의류 추천 정보를 생성하는 것 외에도, 사용자 개인의 병원 방문 이력 정보, 사용자의 생체정보, 및 사용자의 체질 정보 중 적어도 하나를 더 고려하여 촬영 모드 감지 시점에 대응하는 의류 추천 정보를 생성할 수 있다.
여기서, 병원 방문 이력 정보는 예를 들어 감기 발병 여부 관련 정보, 두통 발명 여부 관련 정보 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 병원 방문 이력 정보는 일예로 본 장치(100)와 네트워크(2)를 통해 연결되는 전자의무기록(Electronic Medical Record, EMR)을 기록하는 EMR 서버(미도시) 및/또는 병원 서버(미도시)로부터 획득된 전자의무기록의 분석을 통해 획득될 수 있다.
사용자의 생체정보는 예를 들어, 사용자의 혈압, 체온, 심전도 신호 등을 포함하는 사용자의 특성과 관련된 각종 정보를 의미할 수 있다. 이러한 사용자의 생체정보는 예시적으로 본 장치(100)와 네트워크(2)를 통해 연결되고 사용자의 신체 일부에 착용되는 웨어러블 디바이스(미도시)로부터 획득될 수 있다. 여기서, 웨어러블 디바이스(미도시)에는 스마트 워치 등을 포함할 수 있으나, 이에만 한정되는 것은 아니고, 시계, 안경, 헤드셋 등과 같이 사용자의 신체의 적어도 일부에 착용 가능하게 마련되는 디바이스라면 무엇이든 적용 가능하다.
사용자의 체질 정보는 예를 들어 선호 식품에 대한 정보, 알레르기 정보 등을 포함할 수 있다. 이러한 사용자의 체질 정보는 일예로 사용자가 사용자 단말(1)을 통해 직접 타이핑함으로써 획득되거나, 혹은 상술한 EMR 서버(미도시)에 기록된 전자의무기록으로부터 획득될 수 있다.
예시적으로, 관리 제어부(130)는 이력 저장부(170)에 착용 의류 이력 데이터를 저장하고자 할 때, 입력 요청 메시지에 대한 사용자 입력이 이루어진 시점에 EMR 서버(미도시) 및/또는 병원 서버(미도시)로부터 획득된 전자의무기록을 분석하여 사용자 개인의 병원 방문 이력 정보가 존재하는지 확인할 수 있다. 이때, 확인 결과 사용자 개인의 병원 방문 이력 정보와 관련하여 감기 발병 여부 관련 정보가 존재하고, 이를 분석한 결과 사용자가 현재 감기에 걸린 상태인 것으로 확인되었다고 하자. 이러한 경우, 관리 제어부(130)는 착용 의류 이력 데이터의 저장시, 일예로 사용자 주변 환경의 온도 측정 값, 입력 시점 날씨 예보 정보, 및 착용 의류의 속성 정보 중 적어도 하나와 체감 온도 정보의 입력 값을 서로 연계한 정보에, 추가적으로 '사용자가 현재 감기에 걸린 상태임'을 나타내는 감기 발병 여부 관련 정보를 함께 연계시킨 정보를 착용 의류 이력 데이터(일예로 제1 착용 의류 이력 데이터)로서 이력 저장부(170)에 저장할 수 있다.
이에 따르면, 예시적으로 이력 저장부(170)에 저장된 착용 의류 이력 데이터(일예로 제1 착용 의류 이력 데이터)는, '사용자가 위치한 사용자 주변 환경의 온도 측정 값에 따르면 현재 사용자 주변의 온도가 19도이고, 현재 사용자가 착용한 착용 의류의 속성 정보에 따르면 사용자가 3mm의 두께를 가진 면 소재의 긴팔 상의와 면 소재의 반바지를 입고 있으며, 입력 시점 날씨 예보 정보에 따르면 사용자 입력이 이루어진 시점에 대응하는 날짜의 날씨 예보 정보는 온도가 20도이며, 사용자 개인의 병원 방문 이력 정보에 따르면 사용자가 현재 감기에 걸린 상태임'을 나타내는 정보 및 이때의 체감 온도 정보의 입력 값으로 '사용자가 체감한 체감 온도 정보는 일예로 5단계에 해당하는 조금 더움'에 해당하는 정보가 서로 연계된 정보일 수 있다.
즉, 이력 저장부(170)에는 일예로 사용자가 감기에 걸리고, 그때의 주변 환경의 온도 측정 값이 몇도이며, 그때의 날씨 예보 정보가 어떠했으며, 그때 착용했던 착용 의류의 속성 정보가 어떠한 경우일 때, 사용자가 상대적으로 체감한(느꼈던) 더움 정도 및/또는 추움 정도에 관한 정보는 어떠했음을 나타내는 정보가 제1 착용 의류 이력 데이터로서 저장될 수 있다.
분석부(미도시)는 이력 저장부(170)에 저장된 제1 착용 의류 이력 데이터와 같은 복수개의 착용 의류 이력 데이터를 분석함으로써 이력 저장부(170)에 저장된 서로 다른 유형의 데이터들(일예로, 사용자 주변 환경의 온도 측정 값, 입력 시점 날씨 예보 정보, 착용 의류의 속성 정보, 체감 온도 정보의 입력 값, 감기 발병 여부 관련 정보를 포함한 5가지 유형의 데이터들) 간의 상관 관계를 나타내는 사용자 체감 특성 정보를 획득할 수 있다.
이후, 생성부(120)는 촬영 모드 감지 시점이 감지되었을 때, 일예로 전자의무기록의 분석 결과 '사용자가 현재 감기에 걸려있는 상태'인 것으로 판단되고 해당 시기 정보에 대응하는 날씨 예보 정보가 획득된 상태인 경우, 분석부(미도시)에 의해 획득된 사용자 체감 특성 정보를 기초로 하여 '촬영 모드 감지 시점에 대응하는 날짜에 사용자가 조금 추위를 느낄 것이다'라는 체감 온도 예측 정보를 획득할 수 있다. 이후, 생성부(120)는 획득된 체감 온도 예측 정보를 기반으로 소장 의류 저장부(180)에 기 저장된 복수의 소유 의류에 관한 정보 중 사용자가 추위를 조금 느끼는 상태일 때 입기 가장 적합하다고 판단되는 적어도 하나의 의류를 선택할 수 있다. 이후, 생성부(120)는 선택된 적어도 하나의 의류를 포함한 의류 추천 정보를 생성하고, 생성된 의류 추천 정보가 맞춤 의류 추천 정보로서 화면에 표시되도록 관리 제어부(130)로 제공할 수 있다. 또한, 생성부(120)는 생성된 의류 추천 정보에 해당하는 의류가 착용된 제1 사용자 아바타를 생성하여 제1 저장부(250)에 저장하고, 이를 증강현실 영상의 획득을 위해 사용자 단말(1)의 화면에 표출되는 현실 영상 상에 오버랩하여 표시할 수 있다.
상술한 일예에서는, 생성부(120)가 사용자 개인의 병원 방문 이력 정보, 사용자의 생체정보, 및 사용자의 체질 정보 중 적어도 하나를 더 고려하여 의류 추천 정보를 생성함에 있어서, 예시적으로 사용자 개인의 병원 방문 이력 정보를 고려하여 의류 추천 정보를 생성하는 경우에 대하여 구체적으로 예시하였다. 이는 본원의 이해를 돕기 위한 하나의 예시일 뿐, 이에만 한정되는 것은 아니고, 사용자의 생체정보와 사용자의 체질 정보를 고려하여 의류 추천 정보를 생성하는 과정은, 사용자 개인의 병원 방문 이력 정보를 고려하여 의류 추천 정보를 생성하는 과정과 대비하여 그와 동일하거나 그와 유사한 방식으로 이루어질 수 있다. 따라서, 이하 생략된 내용이라 하더라도, 사용자 개인의 병원 방문 이력 정보를 고려한 의류 추천 정보의 생성 과정에 대한 설명은, 고려 대상만 다를 뿐 사용자의 생체정보를 고려한 의류 추천 정보의 생성 과정 및 사용자의 체질 정보를 고려한 의류 추천 정보의 생성 과정에 대한 설명에도 동일하게 적용될 수 있다.
소유 의류 관리부(150)는 사용자가 소유한 소유 의류에 관한 정보를 획득하여 소유 의류 저장부(180)에 저장하고 관리할 수 있다.
여기서, 소유 의류라 함은 사용자가 실제 가지고 있는 의류(예를 들어, 옷, 바지, 치마, 원피스, 정장 등)를 의미할 수 있다. 여기서, 소유 의류에 대한 정보는 해당 의류(소유 의류)에 대한 이미지 정보, 소유 의류를 구입한 날짜 정보 및 소유 의류의 속성 정보 중 적어도 하나가 포함될 수 있으며, 이에 한정되는 것은 아니고 각종 정보가 저장될 수 있다.
여기서, 소유 의류에 관한 정보는 일예로 사용자가 사용자 단말(1)을 통해 직접 타이핑함으로써 획득될 수 있다. 다른 일예로, 소유 의류에 관한 정보는 사용자가 사용자 단말(1)의 이미지 센서(미도시)를 통해 소유 의류를 촬영함으로써 획득될 수 있다. 또 다른 일예로, 소유 의류에 관한 정보는, 사용자가 사용자 단말(1)의 이미지 센서(미도시)를 통해 소유 의류에 대한 이미지 정보를 획득한 경우, 획득된 이미지 정보에 대한 이미지 분석을 통해 획득된 이미지 정보 내 소유 의류와 매칭되는 의류(매칭 의류)를 인터넷(혹은 온라인 쇼핑몰) 상에서 검색하고, 검색된 매칭 의류에 대하여 기록된 정보를 크롤링(수집)함으로써 획득될 수 있다. 다만, 이러한 예들은 본원의 이해를 돕기 위한 예시일 뿐, 이에만 한정되는 것은 아니고, 다양한 방식으로 소유 의류에 관한 정보가 획득될 수 있다.
다시 말해, 일예로 소유 의류에 관한 정보는, 사용자가 직접 타이핑하여 입력하거나, 혹은 사용자가 소유 의류에 대한 품번 정보를 입력하면 그와 매칭되는 정보를 온라인 쇼핑몰 또는 의류 업체 DB와 연동하여 검색함으로써 자동으로 해당 온라인 쇼핑몰 사이트로부터 상세 정보를 추출해 옴으로써 입력될 수 있다. 이러한 소유 의류에 관한 정보에는 소유 의류의 이미지 정보, 제조년도 정보, 구입 날짜 정보, 색상, 컬러, 사이즈 등에 관한 정보가 포함될 수 있다.
소유 의류 관리부(150)는 이력 저장부(170)에 기 저장된 복수의 착용 의류 이력 데이터의 분석을 기반으로 소유 의류 저장부(180)에 저장된 소유 의류(소유 의류들) 중 기 설정된 닳음 조건을 충족하는 닳음 의류를 식별할 수 있다.
여기서, 기 설정된 닳음 조건은, 일예로 소유 의류 저장부(180)에 저장된 소유 의류(들) 중 사용자에 의해 착용 의류로 선택된 횟수가 미리 설정된 횟수 이상인 조건일 수 있다. 미리 설정된 횟수는 예시적으로 80회, 100회 등과 같이 설정될 수 있으며, 이에만 한정되는 것은 아니고 다양하게 설정될 수 있다.
다른 일예로, 기 설정된 닳음 조건은, 소유 의류 저장부(180)에 저장된 소유 의류(들) 중 소유 의류를 구입한 날짜 정보에 해당하는 날짜로부터 미리 설정된 기간이 경과한 조건일 수 있다. 여기서, 소유 의류를 구입한 날짜 정보는 소유 의류 저장부(180)에 저장되는 소유 의류에 관한 정보로부터 식별될 수 있다. 또한, 미리 설정된 기간은 일예로 3년일 수 있으며, 이에만 한정되는 것은 아니고 다양하게 설정될 수 있다.
이에 따르면, 소유 의류 관리부(150)는 소유 의류 저장부(180)에 저장된 소유 의류에 관한 정보 중 일예로 착용 횟수가 80회 이상이거나 혹은 구입한 날짜로부터 3년이 경과한 소유 의류를 기 설정된 닳음 조건을 충족하는 닳음 의류로서 식별할 수 있다.
생성부(120)는 소유 의류 관리부(150)에 의한 닳음 의류의 식별에 응답하여, 식별된 닳음 의류의 대체를 위한 대체 의류 추천 리스트를 생성하여 화면 상에 표시하기 위해 생성된 대체 의류 추천 리스트를 관리 제어부(130)로 제공할 수 있다.
즉, 소유 의류 관리부(150)가 소유 의류 저장부(180)에 저장된 소유 의류에 관한 정보 중 적어도 하나를 닳음 의류로 식별한 경우, 생성부(120)는 닳음 의류의 식별에 응답하여, 식별된 닳음 의류를 다른 의류로 대체할 대체 의류를 추천하기 위한 추천 리스트(즉, 대체 의류 추천 리스트)를 생성할 수 있다. 이후, 생성부(120)는 생성된 대체 의류 추천 리스트를 화면에 표시하기 위해 관리 제어부(130)로 제공할 수 있으며, 관리 제어부(130)는 제공받은 대체 의류 추천 리스트를 화면의 일영역에 표시할 수 있다.
다시 말해, 생성부(120)는, 소유 의류 관리부(150)에 의해 닳음 의류가 식별되면, 식별된 닳음 의류와 관련하여 대체 가능한 대체 의류의 추천을 위한 대체 의류 추천 리스트를 생성하여 제공할 수 있다.
이때, 대체 의류 추천 리스트에 포함된 대체 의류에는, 온라인 쇼핑몰 상에서 판매(거래)되는 의류 중 적어도 하나의 의류가 포함될 수 있다. 특히, 대체 의류 추천 리스트에 포함된 대체 의류에는, 닳음 의류와 동일한 의류인 동일(동종) 대체 의류 및 닳음 의류와 유사 성능을 가진 다른 이종의 의류인 유사 대체 의류(혹은 이종 대체 의류)가 포함될 수 있다.
특히나, 유사 대체 의류로는 대체가 필요하다고 판단된 닳음 의류 대비 후기(평가)가 더 좋거나 가격이 더 낮거나, 품질이 더 좋은 의류가 포함될 수 있다.
이에 따르면, 본 장치(100)는 사용자가 소유하고 있는 소유 의류들 중 기 설정된 닳음 조건을 충족하는 닳음 의류에 대하여, 닳음 의류에 대한 교체가 필요하다고 판단하여 그와 동일하거나 혹은 그와 유사한 성능을 가진 다른 의류를 포함하는 대체 의류 추천 리스트를 제공함으로써, 닳음 의류를 대체할 의류를 결정함에 있어서 사용자가 여러 의류들을 쉽게 비교해 보고 보다 합리적으로 선택할 수 있도록 할 수 있다.
즉, 본 장치(100)는 닳음 의류가 식별된 경우, 식별된 닳음 의류에 대하여 대체(교체)가 필요하다고 판단하여 닳음 의류의 대체를 위한 대체 의류 추천 리스트를 제공할 수 있는데, 이때 닳음 의류와 동일한 의류뿐만 아니라 그와는 동류가 상이하나 성능이 좋은 가성비 좋은 의류를 함께 대체 의류로서 대체 의류 추천 리스트에 포함시켜 제공(추천)할 수 있다. 이러한 본 장치(100)는 사용자로 하여금 닳음 의류의 대체(교체)시 합리적으로 제품 비교/선택이 가능하도록 하고, 보다 용이하고 효율적으로 대체(교체) 및 관리가 이루어지도록 지원할 수 있다.
일정 판단부(160)는, 감지부(110)가 감지한 촬영 모드 감지 시점에 해당하는 날짜에 지인과의 만남과 관련된 기등록 일정 정보(즉, 지인과의 만남 관련 일정 정보)가 존재하는지 판단할 수 있다.
이러한 일정 정보는 일예로 본 장치(100)를 통해 제공되는 일정 관리 메뉴(예를 들어, 캘린더 메뉴)에 기록된 정보를 의미할 수 있다. 일예로, 사용자는 복수의 지인 중 제1 지인과 모레에 만나기로 만남을 약속한 경우, 본 장치(100)를 통해 제공되는 일정 관리 메뉴로 들어가 모레에 해당하는 날짜에 '제1 지인과 오후 3시에 만나기로 함'과 같은 일정 정보를 저장(기록)할 수 있다.
이때, 촬영 모드 감지 시점에 해당하는 날짜에 제1 지인과의 만남과 관련된 기등록 일정 정보가 존재하는 것으로 판단할 수 있다. 생성부(120)는 일정 판단부(160)에 의한 판단 결과 기 등록 일정 정보가 존재하는 경우, 이력 저장부(170)에 기 저장된 복수의 착용 의류 이력 데이터의 분석을 기반으로 하여 과거에 지인(일예로, 제1 지인)의 만남시 착용했던 착용 소장 의류에 대한 지인 통계 정보를 산출하고, 산출된 지인 통계 정보를 기반으로 의류 추천 정보를 재생성할 수 있다.
이에 따르면, 분석부(미도시)는 이력 저장부(170)에 기 저장된 복수의 착용 의류 이력 데이터를 기초로 상관 관계의 분석을 통해 상술한 사용자 체감 특성 정보를 획득할 수 있을 뿐만 아니라, 기 저장된 복수의 착용 의류 이력 데이터를 기초로 통계 분석을 수행함으로써 통계 정보를 생성할 수 있다.
이력 저장부(170)에 대한 착용 의류 이력 데이터의 저장시, 일예로 착용 의류 이력 데이터의 저장이 이루어지는 시점에 대응하는 일정 정보(특히, 지인 정보를 포함한 일정 정보)가 존재하는 경우, 이력 저장부(170)에는 착용 의류 이력 데이터에 일정 정보(특히, 지인 정보를 포함한 일정 정보)가 함께 연계되어 저장될 수 있다.
즉, 상술한 일예에서는 사용자 주변 환경의 온도 측정 값, 입력 시점 날씨 예보 정보 및 착용 의류의 속성 정보 중 적어도 하나와 체감 온도 정보의 입력 값을 서로 연계시켜 하나의 데이터 세트로 구성함으로써 이를 착용 의류 이력 데이터로 이력 저장부(170)에 저장하는 것으로 예시하였으나, 이에 한정되는 것은 아니고, 지인 정보를 포함한 일정 정보가 존재하는 경우에는 일정 정보를 더 연계시킨 착용 의류 이력 데이터를 이력 저장부(170)에 저장할 수 있다.
이를 통해, 분석부(미도시)는 이력 저장부(170)에 저장된 복수의 착용 의류 이력 데이터에 대한 통계 분석을 통해 통계 정보를 생성할 수 있다.
이후, 생성부(120)는, 촬영 모드 감지 시점에 해당하는 특정 날짜에 일예로 제1 지인과 관련된 기등록 일정 정보가 존재하는 것으로 판단된 경우, 분석부(미도시)의 분석(통계 분석)을 통해 생성된 통계 정보를 기반으로 하여, 과거에 제1 지인을 만날 때 착용했었던 착용 소장 의류에 대한 지인 통계 정보를 산출하고, 산출된 지인 통계 정보를 기반으로 의류 추천 정보를 재생성할 수 있다.
이때, 일정 정보(혹은 통계 정보)의 고려 없이, 생성부(120)가 사용자 체감 특성 정보와 날씨 예보 정보를 고려하여 생성한 의류 추천 정보는 제1 의류 추천 정보라 지칭될 수 있다. 반면, 일정 정보(혹은 통계 정보)를 고려하여 생성된 의류 추천 정보는 제1 의류 추천 정보와는 다른 의류 추천 정보로서 제2 의류 추천 정보라 지칭될 수 있다. 즉, 생성부(120)는 일정 정보(혹은 통계 정보)를 고려하여 의류 추천 정보를 제1 의류 추천 정보가 아닌 제2 의류 추천 정보로 재생성할 수 있다.
구체적으로, 사용자 체감 특성 정보와 날씨 예보 정보를 고려하여 생성된 의류 추천 정보는 제1 의류 추천 정보일 수 있다. 생성부(120)는 산출된 지인 통계 정보를 기반으로 하여, 앞서 생성된 제1 의류 추천 정보에 대응하는 소장 의류의 착용 횟수(즉, 제1 의류 추천 정보에 대응하는 소장 의류를 과거에 제1 지인을 만날 때 착용했었던 횟수)가 기 설정된 착용 횟수를 초과하는 것으로 판단되면, 앞서 생성된 의류 추천 정보(제1 의류 추천 정보)를 제1 의류 추천 정보와는 다른 제2 의류 추천 정보로 재생성할 수 있다. 이후, 관리 제어부(130)는 재생성된 제2 의류 추천 정보를 맞춤 의류 추천 정보로서 화면에 표시할 수 있다.
여기서, 기 설정된 착용 횟수는 예시적으로 5회로 설정될 수 있으나, 이에만 한정되는 것은 아니고, 그 횟수는 다양하게 설정될 수 있다.
이에 따르면, 생성부(120)는 제1 의류 추천 정보에 대응하는 소장 의류가, 과거에 특정 지인(제1 지인)을 만났을 때 여러 번(일예로 기 설정된 착용 횟수인 5회 이상) 입었었던 의류인 경우, 제1 의류 추천 정보에 대응하는 소장 의류와는 다른 의류를 포함하는 제2 의류 추천 정보를 생성할 수 있다.
다른 일예로 일정 정보(지인 통계 정보)와는 무관하게, 생성부(120)는 분석부(미도시)의 분석에 의해 획득된 통계 정보를 기반으로 하여, 일예로 제1 의류 추천 정보에 대응하는 소장 의류의 착용 횟수가 미리 설정된 구간 기간 동안 기 설정 횟수 이상으로 판단되면, 의류 추천 정보를 제1 의류 추천 정보가 아닌 제2 의류 추천 정보로 재생성 할 수 있다. 여기서, 미리 설정된 구간 기간은 일예로 의류 추천 정보의 생성이 이루어지는 시점으로부터 일주일 이전 기간, 이주일 이전 기간 등일 수 있으며, 이에 한정되는 것은 아니다. 또한, 기 설정된 횟수는 일예로 3회일 수 있으나, 이에 한정되는 것은 아니다.
이에 따르면, 생성부(120)는 제1 의류 추천 정보에 대응하는 소장 의류가, 근래에 일예로 일주일 동안에 여러 번(일예로, 기 설정된 횟수인 3회 이상) 입었던 의류인 경우, 제1 의류 추천 정보에 대응하는 소장 의류와는 다른 의류를 포함하는 제2 의류 추천 정보를 생성할 수 있다.
이때, 생성부(120)에 의해 생성되는 의류 추천 정보(즉, 제1 의류 추천 정보와 제2 의류 추천 정보를 포함하는 의류 추천 정보)는, 소유 의류 저장부(180)에 저장된 소유 의류(소유 의류들)를 기반으로 생성되는 정보일 수 있다. 즉, 생성부(120)는 사용자가 소유하고 있는 의류(소유 의류)를 기반으로 하여 의류 추천 정보를 생성할 수 있다.
또한, 일예로 관리 제어부(130)는 일정 판단부(160)에 의한 판단 결과, 촬영 모드 감지 시점에 해당하는 날짜에 대하여 지인(일예로 제1 지인)과의 만남과 관련된 기등록 일정 정보가 존재하는 것으로 판단된 경우, 기등록 일정 정보에 포함되어 있는 지인(일예로 제1 지인)에 관한 지인정보(제1 지인정보)를 식별하고, 식별된 지인 정보(제1 지인정보)로부터 제1 지인의 연락처 정보를 추출할 수 있다. 여기서, 지인정보에는 지인의 이름, 연락처, 주소 등이 포함될 수 있으나, 이에만 한정되는 것은 아니고 다양한 정보가 포함될 수 있다. 이후, 관리 제어부(130)는 추출된 제1 지인의 연락처 정보를 기반으로, 사용자와 지인(제1 지인)이 서로 간에 함께 하기로 한 만남 관련 일정 정보(즉, 지인과의 만남과 관련된 기등록 일정 정보)에 관한 일정 알림 메시지를 제공할 수 있다.
이때, 관리 제어부(130)는 일정 알림 메시지를 기등록 일정 정보에 대응하는 날짜(촬영 모드 감지 시점에 해당하는 날짜)로부터 미리 설정된 시간 이전에 제공할 수 있다. 여기서, 미리 설정된 시간은 예시적으로 24시간 전일 수 있으나, 이에만 한정되는 것은 아니다. 또한, 관리 제어부(130)는 일정 알림 메시지를 기등록 일정 정보를 저장한 사용자의 사용자 단말(1)과 기등록 일정 정보와 관련된 지인(제1 지인)의 단말에 함께 제공할 수 있다.
즉, 관리 제어부(130)는 일정 알림 메시지를 제공함에 있어서, 지인과의 만남과 관련된 일정 정보를 기 등록해둔 사용자의 사용자 단말(1)로만 제공하는 것이 아니라, 사용자 단말(1) 및 기등록 일정 정보에 포함된 지인의 연락처 정보에 대응하는 지인의 단말 각각에게 모두 일정 알림 메시지를 제공할 수 있다.
이에 따르면, 본 장치(100)는 사용자와 지인(제1 지인)이 서로 간에 함께 하기로 한 만남 약속에 대한 일정 공지(일정 알림)가, 해당 일정을 자신의 단말에 등록/저장해둔 사용자뿐만 아니라, 해당 일정과 관련된 지인(즉, 제1 지인) 모두에게 함께(동시에) 알려지도록 할 수 있다. 이러한 본 장치(100)는 제1 지인이 사용자와의 만남(만남 약속)에 관한 일정을 별도로 기록하거나 메모해두지 않았다 할지라도, 사용자가 자신의 단말(사용자 단말)에 기 등록해 둔 기등록 일정 정보로 하여금 제1 지인이 만남(만남 약속)에 관한 일정에 대한 알림을 제공받을 수 있도록 할 수 있어, 자신(사용자)뿐만 아니라 만남 약속을 함께 하기로 한 상대방(일예로, 제1 지인)이 해당 일정을 망각하지 않도록 상기시켜, 서로 간에 원활한 만남의 진행이 이루어지도록 도울 수 있다.
즉, 관리 제어부(130)는 사용자 단말(1) 및 지인의 단말 각각에 대하여 일정 알림 메시지를 제공할 수 있다. 이때, 본 장치(100)는 일예로 사용자 단말(1)에 일정 알림 메시지를 제공(사용자 단말의 화면에 일정 알림 메시지를 표시)한 이후, 그에 응답하여 제공된 일정 알림 메시지를 확인하였음을 나타내는 메시지 확인 신호를 사용자 입력(일예로 화면에 대한 터치 입력 등)을 통해 수신할 수 있다.
이때, 관리 제어부(130)는 사용자 단말(1)에 일정 알림 메시지를 제공한 이후, 미리 설정된 시간(일예로 3시간) 내에 메시지 확인 신호가 수신되지 않는 경우(즉, 제공된 일정 알림 메시지에 대하여 사용자의 확인 입력이 이루어지지 않은 경우), 사용자가 제공된 일정 알림 메시지를 확인하지 못한 것으로 인지하여, 일정 알림 메시지의 제공에 대한 알림 제공 유형을 변경시킬 수 있다.
여기서, 알림 제공 유형을 변경시킨다 함은 일예로 일정 알림 메시지의 알림 제공 유형이 현재 진동 알림인 경우, 일정 알림 메시지의 진동 세기를 제1 진동 세기에서 그보다 더 강한 세기의 제2 진동 세기로 변경시키는 것을 의미할 수 있다. 이에 따르면, 관리 제어부(130)는 사용자 단말(1)로 일정 알림 메시지를 1차적으로 제1 진동 세기로 제공한 이후 미리 설정된 시간(일예로 3시간) 내에 메시지 확인 신호가 수신되지 않은 경우, 관리 제어부(130)는 진동 세기를 제1 진동 세기에서 제2 진동 세기로 변경시킨 다음, 변경된 제2 진동 세기를 갖는 일정 알림 메시지를 다시 사용자 단말(1)로 제공(전송)할 수 있다.
다른 일예로, 알림 제공 유형을 변경시킨다 함은 일예로 일정 알림 메시지의 알림 제공 유형이 현재 진동 알림인 경우, 일정 알림 메시지의 알림 제공 종류를 다른 이종의 종류로 변경시키는 것을 의미할 수 있다. 여기서, 알림 제공 종류에는 진동 알림, 소리 알림 및 전화 알림 중 적어도 하나가 포함될 수 있다. 이에 따르면, 관리 제어부(130)는 사용자 단말(1)로 일정 알림 메시지를 1차적으로 진동 알림으로 제공한 이후 미리 설정된 시간(일예로 3시간) 내에 메시지 확인 신호가 수신되지 않은 경우, 관리 제어부(130)는 알림 제공 종류를 진동 알림에서 소리 알림으로 변경시킨 다음, 변경된 소리 알림을 갖는 일정 알림 메시지를 다시 사용자 단말(1)로 제공할 수 있다. 이러한 소리 알림을 갖는 일정 알림 메시지의 제공에 의하면, 그에 응답하여 사용자 단말(1)에서는 스피커부(미도시)를 통해 '일정 알림 메시지가 존재합니다'와 같은 소리 알림이 출력될 수 있다.
만약, 관리 제어부(130)는 사용자 단말(1)로 일정 알림 메시지를 1차적으로 소리 알림으로 제공한 이후 미리 설정된 시간(일예로 3시간) 내에 메시지 확인 신호가 수신되지 않은 경우, 관리 제어부(130)는 알림 제공 종류를 소리 알림에서 전화 알림으로 변경시킨 다음, 변경된 전화 알림을 갖는 일정 알림 메시지를 다시 사용자 단말(1)로 제공할 수 있다. 이러한 전화 알림을 갖는 일정 알림 메시지의 제공에 의하면, 그에 응답하여 사용자 단말(1)에는 ARS와 같은 자동응답 전화 연결이 이루어지고, 이러한 ARS 를 통해 사용자에게 일정 알림 메시지의 제공이 이루어질 수 있다.
이처럼, 본 장치(100)는 일정 알림 메시지를 1차 제공한 이후, 그에 대한 응답(메시지 확인 신호)이 미리 설정된 시간(일예로 3시간) 내에 수신되지 않으면, 알림 제공 유형을 변경시켜 변경된 알림 제공 유형의 방식으로 다시 일정 알림 메시지를 제공함으로써, 사용자가 보다 일정 알림 메시지에 대한 확인을 정확히 인식(확실하게 인지)할 수 있도록 도울 수 있다.
또한 생성부(120)는 의류 추천 정보를 생성함에 있어서, 일예로 기상청 서버(미도시)로부터 획득된 촬영 모드 감지 시점에 대응하는 날씨 예보 정보로부터 밤과 낮의 기온차 정보를 판단하고, 판단된 기온차 정보의 수준(정도)에 따라 서로 다른 의류 추천 정보를 생성할 수 있다. 여기서, 밤과 낮은 통상적으로 정의된 시간대를 의미할 수 있으며, 이에 한정되는 것은 아니다.
예시적으로, 생성부(120)는 촬영 모드 감지 시점에 대응하는 날씨 예보 정보를 기상청 서버(미도시)로부터 획득하고, 획득된 내일에 대응하는 날씨 예보 정보로부터 밤과 낮의 기온차 정보를 판단할 수 있다. 이때, 생성부(120)는 판단된 기온차 정보가 제1 범위에 속하면 제1 의류 추천 정보를 생성하고, 기온차 정보가 제2 범위에 속하면 제2 의류 추천 정보를 생성하며, 기온차 정보가 제3 범위에 속하면 제3 의류 추천 정보를 생성할 수 있다.
여기서, 제1 범위는 일예로 밤과 낮의 기온차 값이 0도 이상 5도 미만으로 나타나는 범위를 의미하고, 제2 범위는 밤과 낮의 기온차 값이 5도 이상 10도 미만으로 나타나는 범위를 의미하며, 제3 범위는 밤과 낮의 기온차 값이 10도 이상으로 나타나는 범위를 의미할 수 있다.
이때, 일예로, 제1 의류 추천 정보는 의류의 두께가 제1 값 미만에 속하는 소장 의류에 관한 정보가 포함되고, 제2 의류 추천 정보는 의류의 두께가 제1 값 이상 제1 값보다 큰 제2 값 미만에 속하는 소장 의류에 관한 정보가 포함되며, 제3 의류 추천 정보는 제2 값 이상에 속하는 소장 의류에 관한 정보가 포함될 수 있다. 여기서, 예시적으로 제1 값은 1mm, 제2 값은 3mm 일 수 있으나, 이에 한정되는 것은 아니다.
이에 따르면, 본 장치(100)는 밤과 낮의 기온차 정보의 수준에 따라 해당 수준에 맞는 맞춤형 의류 추천 정보를 생성하여 사용자에게 제공할 수 있다.
이력 저장부(170)는 상술한 바와 같이 입력 요청 메시지에 대한 사용자 입력시마다, 입력 요청 메시지에 대응하는 착용 의류 이력 데이터를 생성하여 저장할 수 있다. 소유 의류 저장부(180)는 사용자가 소유한 소유 의류에 관한 정보를 저장할 수 있다. 이에 대한 설명은 앞서 자세히 설명했으므로, 이하 구체적인 설명은 생략하기로 한다.
본 장치(100)에서 생성부(120)가 생성하는 의류 추천 정보는, 사용자가 소유한 소유 의류 중 적어도 하나의 소유 의류를 기초로 생성하는 옷차림 정보(코디 정보)와 관련된 의류 추천 정보일 수 있다. 다만, 이에만 한정되는 것은 아니고, 생성부(120)가 생성하는 의류 추천 정보는, 후술하는 온라인 쇼핑몰 상에서 판매, 거래되는 패션 제품(이는 의류, 패션 잡화, 화장품 등을 포함한 각종 패션 관련 상품을 의미함) 중 적어도 하나의 패션 제품을 기초로 생성하는 코디 정보와 관련된 의류 추천 정보일 수 있다.
상술한 바와 같이, 본 장치(100)는 종래의 SNS 제공 기술이 개인정보 노출 우려가 있고 일상을 공유하기 위한 정보를 표현하는 데에 한계가 있는 문제를 해소하고자, 생성된 사용자 아바타를 현실 영상 상에 표시함으로써, 사용자 아바타가 반영된 증강현실 영상의 획득이 이루어지도록 하는 기능을 제공할 수 있다.
또한, 본 장치(100)는, 사용자가 실제 느끼는 체감 온도 정보를 고려하여 생성된 의류 추천 정보를 기반으로, 이를 사용자 단말의 화면에 표시함으로써, 날씨의 온도가 동일한 조건에서 각각의 사용자가 체감하는(느끼는) 상대적인 체감 온도가 각기 다름을 고려하여 사용자 개개인에게 맞춤화된 보다 활용성 높은 맞춤 의류 추천 정보를 제공(추천)하는 기능을 제공할 수 있다. 또한, 본 장치(100)는 사용자가 실제 느끼는 체감 온도 정보를 고려하여 생성된 의류 추천 정보에 해당하는 의류를 사용자 아바타에 적용시키고 이를 증강현실 영상의 획득을 위해 화면에 표시함으로써, 자신을 대체하여 표현하는 사용자 아바타로서, 보다 사용자의 체감 온도 정보 내지 사용자가 실제 느끼는 감정 등이 반영된 사용자 아바타의 적용(표현)을 가능케 할 수 있다. 이러한 본 장치(100)는 사용자 아바타로 하여금 보다 현실감 있는 자신을 표현 가능하게 함에 따라, 개인정보 노출의 위험은 줄이면서도 보다 자신만의 개성의 표출이 강하게 이루어지도록 제공할 수 있다.
뿐만 아니라, 본 장치(100)는 후술하는 시뮬레이션부(190)에 의하면, 온라인 쇼핑몰상에서 판매하는 패션상품(패션 제품)을 구매함에 있어서, 구매자의 상품 구매의 실패율을 줄이고 효과적으로 구매할 수 있도록 하는 패션 스타일링 시뮬레이션 기능을 제공할 수 있다. 즉, 본 장치(100)는, 시뮬레이션부(190)를 제공함으로써, 온라인 쇼핑몰 상에서 본 상품(제품)을 구매하여 실제 받아보았을 때 쇼핑몰 상에서 본 상품의 느낌/크기 등이 실제 상품을 본 느낌/크기 등과 다름에 따라 상품 구매의 만족도가 높지 않고 교환/환불 등이 빈번히 일어나던 문제를 해소할 수 있는 패션 스타일링 시뮬레이션 기능을 제공할 수 있다. 시뮬레이션부(190)에 대한 설명은 도 6을 참조하여 보다 쉽게 이해될 수 있다.
도 6은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치(100)에 포함된 시뮬레이션부(190)를 설명하기 위한 개략적인 블록도이다.
이하 도 6을 참조하여 설명함에 있어서, 도 6에 도시된 본 시스템(1000), 본 장치(100), 사용자 단말(1) 및 네트워크(2)의 구성은, 각각 상술한 도 1에 도시된 본 시스템(1000), 본 장치(100), 제1 사용자 단말(1), 네트워크(2)의 구성과 동일한 구성일 수 있다. 따라서, 이하 생략된 내용이라 하더라도, 도 1을 참조하여 설명된 내용은 도 6을 참조하여 설명된 내용에도 동일하게 적용될 수 있다.
도 6을 참조하면, 본 장치(100)는 상술한 도 1에 도시된 본 장치(100)에 포함된 구성들 이외에, 추가적으로 시뮬레이션부(270)를 포함할 수 있다.
시뮬레이션부(270)는 사용자(제1 사용자)의 신체 특성 정보가 입력된 경우 입력된 신체 특성 정보가 고려된 아바타를 생성하고, 복수의 패션 제품 중 착용 시뮬레이션 적용을 희망하는 착용 희망 패션 제품에 대한 사용자 선택이 이루어지면, 선택된 착용 희망 패션 제품의 착용이 이루어진 제품 착용 아바타의 영상을 생성하여 화면에 표시할 수 있다. 이에 대한 보다 구체적인 설명은 다음과 같다.
사용자 단말(1)은 일예로 상술한 제1 사용자 단말(1)을 의미할 수 있다. 다만, 이에만 한정되는 것은 아니고, 상술한 바와 같이, 사용자 단말(1)에 대하여 설명된 내용은 이하 생략된 내용이라 하더라도 복수의 사용자 단말(1, 1', …) 각각에 대한 설명에도 동일하게 적용될 수 있다.
사용자 단말(1)은 일예로 사용자로부터 사용자의 신체 특성 정보를 입력받을 수 있으며, 입력받은 신체 특성 정보를 시뮬레이션부(270)의 입력부(10)로 제공할 수 있다. 이에 따라, 입력부(10)는 사용자의 신체 특성 정보를 사용자 단말(1)을 통해 사용자로부터 입력받을 수 있다. 이 외에도, 사용자 단말(1)은 시뮬레이션부(270)를 포함한 본 장치(100) 내 각 부의 동작을 제어(원격으로 제어)할 수 있다.
시뮬레이션부(270)는 입력부(10), 아바타 생성부(20), 시뮬레이션 제어부(30), 식별부(40) 및 평가부(50)를 포함할 수 있다.
입력부(10)는 사용자(사용자 단말)로부터 사용자의 신체 특성과 관련된 정보인 신체 특성 정보를 입력받을 수 있다. 입력부(10)는 신체 특성 정보를 사용자 단말(1)을 통해 입력받을 수 있고, 혹은 본 장치(100)에 자체 구비된 화면을 통해 입력받을 수 있다.
여기서, 신체 특성 정보는 일예로 사용자의 체형, 얼굴형 및 피부톤 중 적어도 하나를 포함할 수 있다. 이때, 사용자의 체형에 관한 정보라 함은 사용자의 몸의 모양(형태, 형상)에 관한 정보를 의미할 수 있다. 다만, 이에만 한정되는 것은 아니고, 사용자의 체형에 관한 정보에는 사용자의 키, 몸무게, 발사이즈, 허리 사이즈, 가슴 사이즈 등 사용자의 신체 사이즈에 관한 각종 정보가 포함될 수 있다. 신체 특성 정보는 사용자와 닮은 3차원 아바타(3차원 모델)을 생성하는데 있어서 필요한 모든 정보를 의미할 수 있다.
일예로, 입력부(10)는 사용자의 신체 특성 정보를 사용자 단말(1)을 통해 사용자로부터 타이핑을 통해 직접 입력받을 수 있다.
다른 일예로, 입력부(10)는 사용자의 신체 특성 정보를 사용자 단말(1)로부터 획득된 사용자 촬영 이미지로부터 추출함으로써 입력받을 수 있다. 구체적인 예로, 사용자는 신체 특성 정보를 입력하기 위해, 일예로 사용자 단말(1)의 카메라를 이용해 본인의 신체 특성 정보에 대한 추출이 가능하도록 본인 자신을 촬영할 수 있다. 이때, 본인의 신체 특성 정보에 대한 추출이 가능하도록 촬영한다라 함은, 사용자의 체형(몸의 형태), 얼굴형, 피부톤이 나타나도록 사용자의 전신 부위(혹은 사용자의 신체부위 중 적어도 일부의 신체부위)를 정면, 측면 등에서 촬영하는 것을 의미할 수 있으며, 이에 한정되는 것은 아니다.
사용자 단말(1)을 통해 사용자 본인 자신을 촬영한 이미지인 사용자 촬영 이미지의 획득이 이루어진 경우, 입력부(10)는 획득된 사용자 촬영 이미지에 대한 이미지 분석을 수행하여 사용자 촬영 이미지로부터 신체 특성 정보를 추출할 수 있다. 입력부(10)는 사용자 촬영 이미지로부터 추출된 신체 특성 정보를 사용자의 신체 특성 정보로서 입력받을 수 있다. 여기서, 이미지 분석시에는 기 알려져 있거나 향후 개발되는 다양한 이미지 분석 알고리즘이 적용될 수 있다.
아바타 생성부(20)는 입력부(10)에서 입력받은 신체 특성 정보가 고려된 아바타를 생성할 수 있다.
이때, 아바타 생성부(20)에 의해 생성되는 아바타는, 상술한 아바타 관리부(210)가 생성하는 사용자 아바타와 동일한 아바타일 수 있다. 따라서, 이하 생략된 내용이라 하더라도, 아바타 관리부(210)에 의해 생성된 사용자 아바타에 대하여 설명되는 내용은 아바타 생성부(20)에 의해 생성된 아바타(사용자 아바타)에 대한 설명에도 동일하게 적용될 수 있고, 그 반대로도 적용 가능하다.
아바타 생성부(20)에 의해 생성되는 아바타는, 신체 특성 정보로서 입력받은 사용자의 체형, 얼굴형 및 피부톤 중 적어도 하나를 고려하여 생성된 3차원 아바타일 수 있다. 아바타 생성부(20)에 의해 생성되는 아바타는 바람직하게 입력부(10)에서 입력받은 신체 특성 정보를 모두 반영하여 생성된 3차원 아바타임이 바람직할 수 있다.
아바타 생성부(20)는 신체 특성 정보를 기반으로 하여, 사용자와 상당히 유사한(흡사한) 형상의 아바타를 3차원으로 모델링하여 생성할 수 있다. 아바타 생성부(20)는 사용자 자신을 닮은 체형의 아바타를 생성할 수 있다.
시뮬레이션 제어부(30)는 복수의 패션 제품 중 착용 시뮬레이션 적용을 희망하는 착용 희망 패션 제품에 대한 사용자 선택이 이루어진 경우, 사용자에 의해 선택된 착용 희망 패션 제품의 착용이 이루어진 제품 착용 아바타의 영상을 생성하여 화면에 표시할 수 있다. 여기서, 제품 착용 아바타라 함은, 아바타 생성부(20)에 의해 생성된 아바타 상에 사용자에 의해 선택된 착용 희망 패션 제품의 착용이 이루어진 모습(착용 희망 패션 제품이 입혀진 모습)의 아바타를 의미할 수 있다.
시뮬레이션 제어부(30)는 생성된 제품 착용 아바타의 영상을 일예로 본 장치(100) 자체에 구비된 화면 상에 표시할 수 있으며, 다른 일예로 사용자 단말(1)의 화면 상에 표시할 수 있다.
본원에서 패션 제품이라 함은 일예로 온라인 쇼핑몰 상에서 판매, 거래되는 각종 패션 관련 상품을 의미할 수 있다. 패션 제품에는 일예로 의류, 패션 잡화, 화장품 등이 포함될 수 있다. 의류에는 상의, 하의, 원피스, 속옷 등 다양한 의상들이 포함될 수 있으며, 패션 잡화에는 액세서리(악세사리), 구두, 핸드백, 지갑, 벨트, 모자 등이 포함될 수 있다. 이러한 예는 본원의 이해를 돕기 위한 하나의 예시일 뿐, 이에만 한정되는 것은 아니고, 패션 제품에는 패션, 스타일링, 외모 꾸밈 등과 관련된 각종 물품, 물건 등이 포함(고려)될 수 있다. 본원에서 패션 제품은 패션 아이템, 패션 상품 등으로 달리 지칭될 수 있다.
사용자는 일예로 온라인 쇼핑몰 상에서 판매(거래)되는 패션 제품 중 특정 패션 제품을 구매하기에 앞서, 해당 특정 패션 제품이 자신에게 잘 어울리는지, 자신이 입었을 때의 핏이 어떻게 보여지는지, 품, 기장 등이 어떠한지, 해당 특정 패션 제품을 착용했을 때 조여지는 부분(타이트한 부분)이 없는지 등을 확인(시뮬레이션)하기 위해, 확인(시뮬레이션)을 희망하는 해당 특정 패션 제품을 착용 희망 패션 제품으로서 선택할 수 있다.
즉, 사용자는 온라인 쇼핑몰 상에 판매되는 패션 제품 중 아바타 생성부(20)에서 생성된 아바타에 대하여 착용 시뮬레이션을 수행하길 희망하는 패션 제품을 착용 희망 패션 제품으로서 선택할 수 있다.
일예로, 온라인 쇼핑몰 상에 복수의 패션 제품으로서 제1 패션 제품(일예로 상의-반팔), 제2 패션 제품(일예로 하의-반바지), 제3 패션 제품(일예로 하의-치마) 등이 판매되고 있다고 하자. 그리고 사용자가 제1 패션 제품에 관심이 있어 제1 패션 제품을 자신이 실제 착용했을 때의 모습을 시뮬레이션하고 싶은 경우, 제1 패션 제품이 아바타 생성부(20)에 의해 생성된 아바타에 입혀진 모습의 영상을 보기 위해, 사용자는 제1 패션 제품을 착용 희망 패션 제품으로서 선택할 수 있다.
이러한 경우, 시뮬레이션 제어부(30)는 복수의 패션 제품 중 제1 패션 제품에 대한 사용자 선택(사용자의 선택 입력)에 응답하여, 착용 희망 패션 제품인 제1 패션 제품과 기 생성된 아바타를 서로 합성시킬 수 있으며, 이를 통해 제1 패션 제품의 착용이 이루어진 제품 착용 아바타의 영상을 생성할 수 있다. 이때, 제품 착용 아바타는 아바타 생성부(20)에 의해 생성된 아바타 상에 제1 패션 제품이 입혀진 모습의 아바타를 의미하는 것으로서, 제1 패션 제품의 착용이 이루어진 아바타를 의미할 수 있다.
시뮬레이션 제어부(30)는 생성된 제품 착용 아바타의 영상을 화면에 표시할 수 있다. 사용자는 화면에 표시되는 제품 착용 아바타를 통하여 제1 패션 제품이 실제로 자신이 입었을 때 어떠한 모습으로 보여지는지에 대한 모습을 가상으로 확인해 볼 수 있다.
이후, 시뮬레이션 제어부(30)는 제품 착용 아바타의 자세를 변경시키는 시뮬레이션을 수행할 수 있다. 이때, 제품 착용 아바타의 자세는 일예로 사용자의 실시간 자세 변경 조작 제어에 의해 변경될 수 있으며, 다른 일예로 기 설정된 복수 유형의 변경 자세로 자동으로 변경될 수 있다.
이때, 본원에서 제품 착용 아바타의 자세를 변경시킨다 함은, 정적인 상태로의 자세 변경을 의미할 수 있겠으나, 이에 한정되는 것은 아니고, 동적인 상태로의 자세 변경까지 모두 포함하는 넓은 개념으로 이해됨이 바람직할 수 있다.
예시적으로, 제품 착용 아바타의 기본 자세는 정자세일 수 있으며, 변경된 자세로는 다양한 높이별 의자에 앉은 자세, 맨 바닥에 쭈그린 자세, 걷는 자세, 뛰는 자세 등이 포함될 수 있으며, 뿐만 아니라 걷는 동작, 뛰는 동작, 앉았다 일어서는 것을 반복하는 동작 등이 포함될 수 있다.
시뮬레이션 제어부(30)는 사용자에 의해 선택된 착용 희망 패션 제품의 제품 속성 정보를 고려하여, 제품 착용 아바타의 자세를 변경시킴에 따른 상태 변화가 이루어지는 변화된 착용 희망 패션 제품이 반영된 자세 변경 아바타의 영상을 실시간으로 생성하여 화면에 표시할 수 있다. 즉, 시뮬레이션 제어부(30)는 제품 착용 아바타의 자세 변경에 응답하여, 변화되는 착용 희망 패션 제품의 상태의 변화(일예로, 옷이 늘어나거나, 조이거나, 팽팽해지거나 하는 등의 변화)가 반영된 자세가 변경된 아바타(자세 변경 아바타)의 영상을 실시간으로 화면에 표시할 수 있다.
여기서, 착용 희망 패션 제품의 제품 속성 정보에는 치수, 소재, 신축성, 및 비침 정도 중 적어도 하나에 관한 정보가 포함될 수 있다. 예시적으로 착용 희망 패션 제품이 반팔 상의인 경우, 치수 정보에는 단순히 S, M, L 와 같은 사이즈 정보만 포함되는 것이 아니라, 총기장, 가슴단면, 어깨넓이, 소매길이 등의 정보가 포함될 수 있으며, 이에 한정되는 것은 아니다.
착용 희망 패션 제품의 제품 속성 정보는, 일예로 착용 희망 패션 제품이 판매되는 온라인 쇼핑몰의 홈페이지 상에 개시된 정보의 크롤링(수집)을 통해 획득될 수 있다.
이에 따르면, 시뮬레이션 제어부(30)는 복수의 패션 제품 중 착용 희망 패션 제품에 대한 사용자 선택이 이루어진 경우, 사용자에 의해 선택된 착용 희망 패션 제품에 대한 제품 속성 정보를 크롤링을 통해 획득하고, 이후 획득된 제품 속성 정보를 고려하여 제품 착용 아바타의 자세를 변경시킴에 따라 상태 변화가 이루어지는 착용 희망 패션 제품이 적용된 자세 변경 아바타의 영상을 실시간으로 화면에 표시할 수 있다. 즉, 제품 착용 아바타의 자세 변경에 따라 실시간으로 화면에 표시되는 자세 변경 아바타는, 자세 변경으로 인한 변화된 착용 희망 패션 제품의 상태(형상, 형태 등)가 적용된(반영된) 자세가 변경된 아바타를 의미할 수 있다.
식별부(40)는 화면에 표시되는 자세 변경 아바타 상에서, 변화된(상태 변화가 이루어진) 착용 희망 패션 제품에 의하여 기 설정된 조임 강도값 이상의 조임 강도값이 나타나는 조임 부위의 영역을 식별할 수 있다. 여기서, 조임 강도값이라 함은 조여지는 수준(정도)을 나타내는 값으로서, 타이트함(tightness) 정도값 등으로 달리 지칭될 수 있다.
시뮬레이션 제어부(30)는 식별부(40)에 의해 식별된 조임 부위의 영역을 자세 변경 아바타의 영상 상에 표시할 수 있다.
본원의 일예에서는 시뮬레이션 제어부(30)가 자세 변경 아바타 상에서 식별된 조임 부위의 영역을 자세 변경 아바타 상에 표시하는 것으로 예시하였으나, 이에만 한정되는 것은 아니다. 식별부(40)는 제품 착용 아바타 상에서 조임 부위의 영역을 식별할 수 있으며, 이에 따라 시뮬레이션 제어부(30)는 제품 착용 아바타 상에서 식별된 조임 부위의 영역을 제품 착용 아바타 상에 표시할 수 있다.
시뮬레이션 제어부(30)는 기 설정된 조임 강도값 이상의 조임 강도의 수준(정도)에 따라 자세 변경 아바타의 영상 상에 표시되는 조임 부위의 영역에 대한 표시 형태를 달리할 수 있다. 이때, 시뮬레이션 제어부(30)는 식별부(40)에 의해 자세 변경 아바타 상에서 식별된 조임 부위의 영역들 중 조임 강도의 수준이 높게 나타나는 조임 부위의 영역일수록, 그보다 상대적으로 조임 강도의 수준이 낮게 나타나는 조임 부위의 영역과 대비하여 보다 인식 또는 식별이 용이한 형태로 표시되도록 제어할 수 있다.
달리 말해, 시뮬레이션 제어부(30)는 식별부(40)에 의해 식별된 조임 부위가 제1 조임 부위 및 제2 조임 부위를 포함하되, 제1 조임 부위의 조임 강도값이 제2 조임 부위의 조임 강도값 보다 큰 경우, 자세 변경 아바타의 영상(혹은 제품 착용 아바타 상에서) 제1 조임 부위의 영역이 제2 조임 부위의 영역 대비 보다 인식 또는 식별이 용이한 형태로 표시되도록 제어할 수 있다.
여기서, 조임 부위의 영역을 인식 또는 식별이 용이한 형태로 표시한다는 것은, 해당 조임 부위의 영역의 표시가 시각적으로 강조된 형태, 크기가 확장된 형태, 청각적인 효과를 수반하는 형태 및 동적인 애니메이션 형태 중 적어도 하나로 표시하는 것을 의미할 수 있다. 이는 도 7을 참조하여 보다 쉽게 이해될 수 있다.
도 7은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치(100)의 시뮬레이션부(190) 내 식별부(40)에 의해 식별된 조임 부위의 영역이 화면 상에 표시되는 예를 설명하기 위한 도면이다.
도 7에는 일예로 식별부(40)가 제품 착용 아바타(5) 상에서 조임 부위의 영역을 식별함에 따라, 시뮬레이션 제어부(30)가 식별부(40)에 의해 식별된 조임 부위의 영역을 제품 착용 아바타(5)의 영상 상에 표시한 경우의 예를 나타낸다. 다만, 이에만 한정되는 것은 아니고, 앞서 말한 바와 같이, 시뮬레이션 제어부(30)는 식별부(40)에 의해 식별된 자세 변경 아바타 상에서의 조임 부위의 영역을 자세 변경 아바타 상에 표시할 수 있다.
후술하는 설명에서 조임 부위의 영역 식별 및 표시에 대해 설명함에 있어서, 제품 착용 아바타(5)에 대하여 설명되는 내용은 이하 생략된 내용이라 하더라도 자세 변경 아바타에 대한 설명에도 동일하게 적용될 수 있다.
도 7을 참조하면, 시뮬레이션 제어부(30)는 사용자의 선택이 이루어진 착용 희망 패션 제품의 착용이 이루어진 제품 착용 아바타(5)의 영상을 화면에 표시할 수 있다. 이때, 제품 착용 아바타(5)는 사용자의 신체 특성을 고려하여 생성된 3차원 아바타 상에 사용자가 선택한 착용 희망 패션 제품의 착용이 이루어진 모습을 의미할 수 있다.
사용자가 선택한 착용 희망 패션 제품이 일예로 복수개로서, 상의-나시인 제1 착용 희망 패션 제품(11), 하의-반바지인 제2 착용 희망 패션 제품(12) 및 양말인 제3 착용 희망 패션 제품(13)이 포함된다고 하자. 이러한 경우, 시뮬레이션 제어부(30)는 제1 착용 희망 패션 제품(11) 내지 제3 착용 희망 패션 제품(13)의 착용이 이루어진 아바타(아바타 생성부에서 생성된 아바타)를 제품 착용 아바타(5)로 하여 화면 상에 영상으로 표시할 수 있다.
이때, 식별부(40)는 제품 착용 아바타(5) 상에서, 착용된 착용 희망 패션 제품(11, 12, 13)에 의하여 기 설정된 조임 강도값 이상의 조임 강도값이 나타나는 조임 부위의 영역을 식별할 수 있다. 이때, 식별부(40)에 의하여, 기 설정된 조임 강도값 이상의 조임 강도값이 나타나는 조임 부위의 영역으로서 제1 조임 부위(21)와 제2 조임 부위(22)를 포함한 두 부위가 식별되었다고 하자.
이때, 제1 조임 부위(21)의 조임 강도값이 제2 조임 부위(22)의 조임 강도값보다 높게 나타난 경우, 시뮬레이션 제어부(30)는 화면에 표시되는 제품 착용 아바타(5)의 영상 상에서 제1 조임 부위(21)의 영역이 제2 조임 부위(22)의 영역 대비 보다 인식 또는 식별이 용이한 형태로 표시되도록 할 수 있다.
일예로, 시뮬레이션 제어부(30)는 제1 조임 부위(21)의 영역을 빨간색으로 표시하고, 제2 조임 부위(21)의 영역을 노란색으로 표시할 수 있다. 시뮬레이션 제어부(30)는 일예로 조임 강도값이 가장 큰 값을 기준으로 점차 낮아질수록 빨, 주, 노, 초 파, 남, 보와 같은 색상순으로 표시되도록 할 수 있다. 즉, 가장 높은 조임 강도값으로 나타나는 영역은 빨간색, 가장 낮은 조임 강도값으로 나타나는 영역은 보라색으로 표시할 수 있다.
다른 일예로, 시뮬레이션 제어부(30)는 제1 조임 부위(21)의 영역의 표시 크기를 제2 조임 부위(21)의 영역의 표시 크기보다 더 크게 하여 표시할 수 있다. 또 다른 일예로, 시뮬레이션 제어부(30)는 제1 조임 부위(21)의 영역을 볼딕으로 표시하고 제2 조임 부위(21)의 영역을 볼딕 없이 표시할 수 있다.
또 다른 일예로, 시뮬레이션 제어부(30)는 제1 조임 부위(21)의 영역을 점멸 형태로 표시하는 반면, 제2 조임 부위(21)의 영역을 정적인 형태로 표시할 수 있다. 이처럼, 시뮬레이션 제어부(30)는 제1 조임 부위(21)의 영역을 점멸 형태로 표시(즉, 깜빡깜빡하게 표시)함으로써, 사용자로 하여금 제1 조임 부위(21)의 영역이 제2 조임 부위(22)의 영역 대비 상대적으로 더 많이 조이는 부위임을 직관적으로 인지할 수 있도록 제공할 수 있다.
즉, 시뮬레이션부(270)는 자세 변경 아바타 혹은 제품 착용 아바타(5) 상(혹은 해당 아바타의 영상 상)에서 조임 부위의 영역을 표시함에 있어서, 상대적으로 조임 강도값이 더 높게 나타나는 영역이 그보다 조임 강도값이 낮게 나타나는 영역 대비 인식 또는 식별이 용이한 형태로 표시함으로써, 사용자가 해당 착용 희망 패션 제품을 구매하여 실제로 착용하였을 때 조임이 예상되는 부위(위치)를 미리 직관적으로 인지(확인)할 수 있도록 제공할 수 있다.
이러한 시뮬레이션부(270)는 사용자가 해당 착용 희망 패션 제품을 실제 구매하기에 앞서, 해당 착용 희망 패션 제품을 구매할지 여부에 대한 결정, 해당 착용 희망 패션 제품 대비 다른 사이즈로 바꾸어 구매할지에 대한 결정, 혹은 해당 착용 희망 패션 제품과는 다른 이종의 패션 제품으로 구매할지에 대한 결정이 보다 신속하고 용이하게 이루어지도록 하고, 패션 제품에 대한 구매의 실패 확률을 낮출 수 있다.
또한, 시뮬레이션 제어부(30)는 식별부(40)에 의해 식별된 조임 부위의 영역의 개수가 기 설정된 개수 이상인 것으로 판단되는 경우, 기 설정된 개수 이상으로 조임 부위의 영역이 나타나는 착용 희망 패션 제품보다 한 단계 큰 치수를 갖는 동종 패션 제품의 정보를 추천 패션 제품으로서의 추천을 위해 화면의 일영역에 표시할 수 있다.
여기서, 기 설정된 개수는 일예로 3개일 수 있으나, 이에만 한정되는 것은 아니고, 그 개수는 다양하게 변경 설정(적용)될 수 있다.
본원에서는 동종 패션 제품의 정보의 추천이 이루어지는 화면이 일영역을 설명의 편의상 화면의 제1 영역이라 할 수 있다. 화면의 제1 영역에는 기 설정된 개수 이상의 조임 부위의 영역이 나타난 착용 희망 패션 제품을 기준으로, 그와 동종인 동종 패션 제품의 정보(크기가 더 크거나 크기가 더 작은 동종의 패션 제품의 정보 포함)가 표시될 수 있으며, 이에만 한정되는 것은 아니고 그와 이종인 패션 제품의 정보가 표시될 수도 있다. 즉, 화면의 제1 영역은 동종 패션 제품의 정보를 포함하여 각종 패션 제품 중 사용자에게 추천을 위한 추천 패션 제품이 표시되는 영역을 의미할 수 있다.
달리 말하자면, 본원의 일예에서는 화면의 제1 영역에 추천 패션 제품으로서 착용 희망 패션 제품보다 한 단계 큰 치수를 갖는 동종 패션 제품의 정보가 표시되는 것으로 예시하였으나, 이에만 한정되는 것은 아니고, 제1 영역에는 조임 부위의 영역의 개수가 기 설정된 개수 이상으로 나타난 착용 희망 패션 제품과 관련하여, 그와 종류는 같으나 사이즈가 더 큰 동종의 착용 희망 패션 제품(이는 색상, 모양, 무늬 등이 모두 같고 크기만 다른 동종 착용 희망 패션 제품을 의미함), 그와 종류는 같으나 사이즈가 더 작은 동종의 착용 희망 패션 제품, 그와 종류가 다른 이종의 착용 희망 패션 제품(이는 색상, 모양 및 무늬 중 적어도 하나가 다르거나 종류 자체가 다른 착용 희망 패션 제품을 의미함) 등이 모두 같고 크기만 다른 동종 착용 희망 패션 제품을 의미함) 등이 추천 패션 제품으로서 표시될 수 있다.
일예로 자세 변경 아바타(혹은 제품 착용 아바타)가 복수의 착용 희망 패션 제품을 착용하고 있고, 식별부(40)가 복수의 착용 희망 패션 제품 중 어느 하나의 착용 희망 패션 제품에서 조임 부위의 영역이 기 설정된 개수 이상으로 나타났음을 식별하였다고 하자. 이러한 경우, 시뮬레이션 제어부(30)는 기 설정된 개수 이상의 조임 부위의 영역이 나타난 해당 착용 희망 패션 제품(즉, 어느 하나의 착용 희망 패션 제품)이 사용자에게 작은 것으로 판단(즉, 사용자가 해당 착용 희망 패션 제품을 실제 구매하여 착용하였을 때 작을 수 있을 것이라 판단)하여, 해당 착용 희망 패션 제품보다 한 단계(혹은 두단계 이상) 큰 치수(사이즈)를 갖는 동종의 패션 제품의 정보를 추천 패션 제품으로서 사용자에게 추천하고자 이를 화면의 일영역(제1 영역)에 표시할 수 있다.
이때, 시뮬레이션 제어부(30)는, 착용 희망 패션 제품에 대하여 기 설정된 개수 이상의 조임 부위의 영역이 식별된 경우(일예로, 5개의 조임 부위의 영역이 식별된 경우), 식별된 조임 부위의 영역의 개수, 식별된 조임 부위의 영역 각각에 대한 조임 강도값, 및 식별된 조임 부위의 영역의 위치 중 적어도 하나를 고려하여 착용 희망 패션 제품 대비 몇 단계로 치수 차이가 나는 패션 제품을 추천할 것인지를 결정할 수 있다.
예시적으로, 착용 희망 패션 제품이 M 사이즈이고, 착용 희망 패션 제품에서 식별된 조임 부위의 영역의 개수가 8개 이상인 경우, 시뮬레이션 제어부(30)는 착용 희망 패션 제품 대비 2단계 큰 치수(XL 사이즈)를 갖는 동종의 패션 제품의 정보를 제1 영역에 표시할 수 있다. 착용 희망 패션 제품이 M 사이즈이고, 착용 희망 패션 제품에서 식별된 조임 부위의 영역의 개수가 3개 이상 8개 미만인 경우, 시뮬레이션 제어부(30)는 착용 희망 패션 제품 대비 한단계(1단계) 큰 치수(즉, S 사이즈)를 갖는 동종의 패션 제품의 정보를 제1 영역에 표시할 수 있다.
화면의 제1 영역에 표시되는 동종 패션 제품의 정보는 동종 패션 제품의 이미지일 수 있으며, 이에 한정되는 것은 아니고 동종 패선 제품의 제품 속성 정보 중 적어도 하나가 포함될 수 있다.
상술한 본원의 일예에서는, 식별부(40)가 기 설정된 조임 강도값(이는 기 설정된 조임 강도 상한값이라 달리 지칭될 수 있음) 이상의 조임 강도값이 나타나는 조임 부위의 영역을 식별함에 따라, 그 결과에 따라 시뮬레이션 제어부(30)가 보다 큰 치수의 동종 패션 제품을 추천하는 경우에 대하여 예시하였으나, 이에만 한정되는 것은 아니다. 다른 일예로, 식별부(40)는 기 설정된 조임 강도 하한값 미만에 해당하는 조임 강도값이 나타나는 조임 부위의 영역을 식별하고, 그 결과에 따라 시뮬레이션 제어부(30)는 해당 착용 희망 패션 제품이 사용자에게 너무 큰 것으로 판단하여 착용 희망 패션 제품보다 한 단계(혹은 두단계 이상) 작은 치수의 동종 패션 제품을 추천 패션 제품으로서 화면의 제1 영역에 표시할 수 있다.
시뮬레이션 제어부(30)는, 화면의 제1 영역에 추천 패션 제품으로서 일예로 착용 희망 패션 제품보다 한 단계 큰 치수를 갖는 동종 패션 제품의 정보(일예로 이미지)가 표시된 이후, 표시된 동종 패션 제품의 정보에 대하여 사용자 입력이 이루어진 경우, 사용자 입력에 응답하여 동종 패션 제품의 착용이 이루어진 제품 적용 아바타의 영상을 생성해(재생성해) 화면에 표시할 수 있다.
즉, 시뮬레이션 제어부(30)는 화면의 제1 영역에 추천 패션 제품에 대한 사용자 입력이 이루어진 경우, 그에 응답하여 실시간으로 사용자 입력이 이루어진 추천 패션 제품이 착용된 제품 적용 아바타의 영상을 재생성하여 화면에 표시할 수 있다.
이러한 시뮬레이션부(270)는 제품 착용 아바타를 통하여 사용자가 선택한 패션 제품(사용자가 선택한 착용 희망 패션 제품, 사용자가 선택한 추천 패션 제품)의 착용이 이루어진 아바타의 모습을 실시간으로 보여주되, 이때 패션 제품이 착용된 사용자 체형을 모델링한 아바타 상에서 착용된 패션 제품에 의해 너무 조여지거나 너무 느슨한 부분의 위치를 화면에 표시함으로써, 사용자의 신체 특성을 고려하여 생성된 아바타로 하여금 특정 패션 제품을 실제 착용하였을 때 예상되는 모습을 현실감있게 제공받을 수 있다.
또한, 시뮬레이션부(270)는 제품 착용 아바타의 자세를 변경시켜가며 자세 변경시마다 나타나는 조임 부위의 영역을 실시간으로 표시해 줄 수 있어, 단순히 착용 희망 패션 제품을 정자세로 입었을 때뿐만 아니라 동적으로 움직여 자세를 변경시켰을 때에도 조임이 예상되는 부분 등을 사용자가 직관적으로 인지할 수 있도록 할 수 있어, 해당 착용 희망 패션 제품을 살지에 대한 결정이 보다 결단력 있게 이루어지도록 도울 수 있고 온라인 쇼핑몰에서의 패션 제품의 구매 실패 확률을 효과적으로 줄일 수 있다.
평가부(50)는, 시뮬레이션 제어부(30)에 의해 화면에 표시된 제품 착용 아바타의 영상(혹은 자세 변경 아바타의 영상) 내 제품 착용 아바타에 대하여 스타일링 평가를 수행할 수 있다.
시뮬레이션 제어부(30)는 평가부(50)에 의한 스타일링 평가의 결과에 따라 화면의 일영역에 추천 패션 제품의 정보를 표시할지 여부를 결정할 수 있다. 이때, 스타일링 평가 결과를 기반으로 추천 패션 제품의 정보 표시가 이루어지는 화면의 일영역은 후술하는 설명에서 설명의 편의상 제2 영역이라 지칭될 수 있다.
평가부(50)는 스타일링 평가의 수행시 복수의 평가 항목에 대한 평가 점수를 산출하되, 산출된 평가 점수에 기반하여 복수의 평가 항목 중 평가 점수가 기 설정된 평가 점수를 충족하지 못하는 평가 항목을 점수 미달 평가 항목으로서 식별할 수 있다. 특히, 평가부(50)는 후술하여 설명하는 사용자 아바타 영상에 대한 스타일링 평가 점수를 산출할 수 있으며, 이는 사용자 아바타 영상과 관련하여 복수의 평가 항목에 대한 평가 점수(토탈 평가 점수)를 의미할 수 있다.
이후, 시뮬레이션 제어부(30)는 점수 미달 평가 항목에 대한 식별에 응답하여, 제품 착용 아바타에 착용된 착용 희망 패션 제품 중 점수 미달 평가 항목과 관련된 착용 희망 패션 제품에 대한 다른 패션 제품으로의 대체를 위해 추천 패션 제품의 정보를 화면의 일영역(제2 영역)에 표시할 수 있다.
여기서, 복수의 평가 항목은, 제품 착용 아바타에 착용된 착용 희망 패션 제품들 간의 어울림 정도에 관한 제1 평가 항목 및 제품 착용 아바타의 피부톤과 제품 착용 아바타에 착용된 착용 희망 패션 제품 간의 어울림 정도에 관한 제2 평가 항목을 포함할 수 있다. 다만, 이에만 한정되는 것은 아니고, 복수의 평가 항목에는 디자인(예시적으로, 패션 제품의 무늬나 패턴 등), 색상(컬러) 조합 등과 관련하여, 아바타와 해당 아바타에 착용된 패션 제품 간의 어울림 정도, 패션 제품들 간의 어울림 정도를 평가하는 항목이라면 무엇이든 적용 가능하다.
예시적으로, 제1 평가 항목에 의하면, 제품 착용 아바타에 착용 희망 패션 제품으로서 구두와 상의가 착용되어 있는 경우 구두와 상의가 서로 어울리는지가 평가(서로 어울리는 정도가 평가)될 수 있다. 또한, 제1 평가 항목에 의하면, 일예로 제품 착용 아바타에 상의-면티와 하의-치마가 착용되어 있는 경우 상의와 하의가 서로 어울리는지가 평가될 수 있다.
또한, 제2 평가 항목에 의하면, 일예로 아바타의 피부 톤(일예로 얼굴 피부 색상)과 착용 희망 패션 제품인 상의의 색상이 서로 어울리는지가 평가될 수 있다. 또한, 제2 평가 항목에 의하면, 아바타의 피부 톤이나 얼굴형과 착용 희망 패션 제품의 무늬 패턴(예를 들어, 줄무늬 패턴, 체크 패턴인 경우 등)과 서로 어울리는지가 평가될 수 있다.
평가부(50)는 제품 착용 아바타에 대한 스타일링 평가시 제품 착용 아바타에 대한 평가 점수(즉, 복수의 평가 항목에 대한 평가 점수)를 산출할 수 있는데, 이때 제품 착용 아바타에 대한 평가 점수는 복수의 타 사용자에 의하여 평가된 타인 평가 점수를 고려하여 산출될 수 있다.
일예로, 사용자는 자신이 구매하길 희망하는 패션 제품인 착용 희망 패션 제품이 착용된 아바타(제품 착용 아바타, 자세 변경 아바타)에 대한 전반적인 스타일링을 타 사용자들에게 평가받기 위해(즉, 타 사용자에 의한 스타일링 평가를 받기 위해), 일예로 시뮬레이션 제어부(30)에 의해 생성되어 화면에 표시된 아바타(제품 착용 아바타, 자세 변경 아바타)의 영상에 대한 평가 요청 신호를 시뮬레이션부(270)에 입력할 수 있다. 후술하는 설명에서는 시뮬레이션 제어부(30)에 의해 생성되어 화면에 표시된 아바타(제품 착용 아바타, 자세 변경 아바타)의 영상을 설명의 편의상 사용자에 대응하는 아바타의 영상으로서, 사용자 아바타 영상이라 지칭하기로 한다.
이때, 평가 요청 신호는 화면의 일영역에 마련된 평가 요청 버튼에 대한 사용자 입력이 이루어지는 경우, 평가 요청 버튼에 대한 사용자 입력에 응답하여 시뮬레이션 제어부(30)에 의해 생성된 아바타의 영상(즉, 사용자 아바타 영상)을 소셜 네트워크 서비스(Social Network Services/Sites, SNS) 상에 업로드하는 신호를 의미할 수 있다.
평가 요청 신호에 의하여, 사용자 아바타 영상이 SNS 상에 업로드되면, 해당 영상의 업로드가 이루어진 SNS의 이용자들(즉, 타 사용자들)은 사용자 아바타 영상에 대하여 복수의 평가 항목과 관련된 스타일링 평가를 수행할 수 있다. SNS의 이용자들(즉, 타 사용자들)은 사용자 아바타 영상에 대하여 복수의 평가 항목과 관련하여 평가 점수를 제공할 수(매길 수) 있으며, 이처럼 타 사용자에 의하여 평가된 점수는 타인 평가 점수라 지칭될 수 있다.
평가부(50)는 사용자 아바타 영상에 대하여 타 사용자들에 의해 평가된 적어도 하나의 점수(즉, 적어도 하나의 타인 평가 점수)를 고려하여 사용자 아바타 영상과 관련한 스타일링 평가 점수(즉, 사용자 아바타 영상과 관련하여 복수의 평가 항목에 관한 토탈 평가 점수)를 산출할 수 있다. 이때, 사용자 아바타 영상과 관련된 스타일링 평가 점수는, 일예로 사용자 아바타 영상에 대하여 평가된 타인 평가 점수들의 평균값으로 산출될 수 있으나, 이에만 한정되는 것은 아니다.
평가부(50)는 사용자 아바타 영상과 관련한 스타일링 평가 점수에서 복수의 평가 항목 중 평가 점수가 기 설정된 평가 점수를 충족하지 못하는 평가 항목을 점수 미달 평가 항목으로서 식별할 수 있다. 여기서, 일예로 점수 미달 평가 항목이 제2 평가 항목으로 식별되었다고 하자.
이러한 경우, 시뮬레이션 제어부(30)는 사용자 아바타 영상 내 제품 착용 아바타의 피부톤과 해당 제품 착용 아바타가 착용하고 있는 착용 희망 패션 제품이 서로 어울리지 않는 것으로 판단(즉, 사용자가 구매하길 희망하는 착용 희망 패션 제품이 사용자의 피부톤과 어울리지 않는 것으로 판단)하여, 점수 미달 평가 항목과 관련된 착용 희망 패션 제품에 대한 다른 패션 제품으로의 대체를 위해 화면의 제2 영역에 추천 패션 제품의 정보를 표시할 수 있다. 이때, 화면의 제2 영역에 표시되는 추천 패션 제품은, 점수 미달 평가 항목과 관련된 착용 희망 패션 제품을 대체하기 위한 대체 추천 패션 제품이라 달리 지칭될 수 있다.
또한, 평가부(50)는 사용자 아바타 영상과 관련한 스타일링 평가 점수(즉, 사용자 아바타 영상과 관련하여 복수의 평가 항목에 관한 토탈 평가 점수)를 산출함에 있어서, 타인 평가 점수를 이용하는 것 이외에도, 다른 일예로 학습된 딥러닝 모델을 이용하여 스타일링 평가 점수를 산출할 수 있다. 딥러닝 모델의 종류에 대한 예는 앞서 설명했으므로, 이하 중복되는 설명은 생략하기로 한다.
딥러닝 모델은, 일예로 복수의 사용자의 신체 특성 정보(얼굴형, 피부톤, 사이즈 등)를 입력으로 하고 복수의 사용자의 신체 특성 정보 각각과 매칭되는 패션 제품을 출력값으로 하여 학습하는 학습된 신경망 모델을 의미할 수 있다.
시뮬레이션 제어부(30)는 제2 영역에 표시되는 추천 패션 제품의 정보(대체 추천 패션 제품의 정보)로서, 대체 추천 패션 제품의 이미지, 대체 추천 패션 제품의 리스트 등을 제공(표시)할 수 있다.
이때, 화면의 제2 영역에 표시되는 추천 패션 제품(대체 추천 패션 제품)에 포함된 리스트에는 점수 미달 평가 항목과 관련된 착용 희망 패션 제품과 색상만 다른 동종의 패션 제품 및 점수 미달 평가 항목과 관련된 착용 희망 패션 제품과 유사한 성능(모양, 소재, 신축성, 비침 정도 등)을 가진 다른 이종의 패션 제품이 포함될 수 있다. 이때, 다른 이종의 패션 제품으로는 점수 미달 평가 항목과 관련된 착용 희망 패션 제품과 대비하여 후기(평가)가 더 좋거나, 가격이 더 낮거나, 품질이 더 좋은 패션 제품이 포함될 수 있다.
이에 따르면, 시뮬레이션부(270)는 사용자가 구매 희망하는 패션 제품(착용 희망 패션 제품) 중 평가부(50)에 의하여 사용자에게 어울리지 않는 것으로 평가되는 패션 제품(즉, 점수 미달 평가 항목과 관련된 착용 희망 패션 제품)을 대체할 대체 추천 패션 제품(대체 추천 패션 제품)의 정보(일예로, 리스트)를 제공함에 있어서, 점수 미달 평가 항목과 관련된 착용 희망 패션 제품과 색상만 다른 동종의 패션 제품뿐만 아니라 그와는 종류가 다르나 성능이 좋은 가성비 좋은 패션 제품을 함께 대체 추천 패션 제품의 리스트에 포함시켜 제공(추천)할 수 있다. 이러한 시뮬레이션부(270)는 사용자로 하여금, 점수 미달 평가 항목과 관련된 착용 희망 패션 제품의 대체(교체)시, 합리적으로 제품 비교/선택이 가능하도록 하며, 보다 용이하고 효율적으로 대체/관리가 이루어지도록 지원할 수 있다.
또한, 시뮬레이션 제어부(30)는 제품 착용 아바타의 영상에 포함된 착용 희망 패션 제품의 구매를 위한 구매 버튼을 화면의 일영역에 표시할 수 있다. 이때, 후술하는 설명에서 구매 버튼이 이루어지는 화면의 일영역은 화면의 제3 영역이라 달리 지칭될 수 있다.
시뮬레이션 제어부(30)는 화면의 제3 영역에 표시된 구매 버튼에 대한 사용자 입력이 이루어진 경우, 화면에 표시된 제품 착용 아바타 상에 착용된 착용 희망 패션 제품의 구매를 위한 구매 요청 신호를 전송할 수 있다.
여기서, 구매 요청 신호는, 착용 희망 패션 제품을 판매하는 온라인 쇼핑몰과 연계되어 착용 희망 패션 제품의 자동 결제가 가능(혹은 자동 결제로 인한 자동 배송이 가능)하도록 제공하는 신호이거나 및/또는 착용 희망 패션 제품에 대한 주문 장려를 위해 본 장치(100)와 연계된 사용자 단말(1)의 화면에 메시지 알림을 제공하는 신호일 수 있다.
이러한 시뮬레이션부(270)는 구매 버튼에 대한 사용자 입력에 응답하여 구매 요청 신호를 전송함으로써, 사용자가 구매 희망하는 패션 제품에 대한 착용 시뮬레이션을 본 이후 구매를 원하는 패션 제품들을 동시에 일괄적으로 구매할 수 있도록 제공할 수 있어, 패션 제품에 대한 사용자의 구매 편의성을 향상시킬 수 있다.
또한, 본 시스템(1000)은 본 장치(100)와 연동되는 전방표시장치(3)를 포함할 수 있다. 본 장치(100)와 전방표시장치(3) 간에는 네트워크(2)를 통해 연동(연결)될 수 있으며, 네트워크(2)에 대한 설명은 앞서 설명했으므로, 이하 중복되는 설명은 생략하기로 한다.
시뮬레이션 제어부(30)는 본 장치(100)와 연동되는 전방표시장치(3)의 동작을 제어할 수 있다. 시뮬레이션 제어부(30)는 화면의 일영역(일예로 제4 영역)에 표시된 실감 데이터 제공 버튼에 대한 사용자 입력이 이루어진 것으로 판단되는 경우, 실감 데이터 제공 버튼에 대한 사용자 입력에 응답하여 착용 희망 패션 제품의 제품 속성 정보가 고려된 착용 희망 패션 제품에 대응하는 패션 제품 실감 데이터가 전방표시장치(3)의 전방에 제공되도록 전방표시장치(3)의 동작을 제어할 수 있다.
여기서, 패션 제품 실감 데이터라 함은, 착용 희망 패션 제품의 제품 속성 정보(일예로, 치수, 소재, 신축성, 및 비침 정도 등)를 고려하여 착용 희망 패션 제품을 3차원 입체 영상으로 구현한 데이터(즉, 3차원 입체 영상 데이터)를 의미할 수 있다. 즉, 패션 제품 실감 데이터는 착용 희망 패션 제품의 실물(실제) 크기와 상응하는 크기로 구현되는 착용 희망 패션 제품의 3차원 입체 영상 데이터를 의미할 수 있다. 다시 말하자면, 패션 제품 실감 데이터는, 전방표시장치(3)에 의하여 상공에 조사되는 빔을 통해 보여지는 착용 희망 패션 제품에 대응하는 3차원 패션 제품(3차원 형상의 패션 제품)을 의미할 수 있다.
예시적으로, 착용 희망 패션 제품의 제품 속성 정보로서 해당 착용 희망 패션 제품의 총기장, 가슴단면, 어깨넓이, 및 소매길이에 관한 정보가 크롤링을 통해 획득되어 있다고 하자. 이때, 해당 착용 희망 패션 제품에 대한 패션 제품 실감 데이터의 제공을 위한 사용자 입력이 이루어지면(즉, 실감 데이터 제공 버튼에 대한 사용자 입력이 이루어지면), 시뮬레이션 제어부(30)는 전방표시장치(3)를 통해 전방에 패션 제품 실감 데이터가 제공되도록 전방표시장치(3)의 동작을 제어할 수 있다. 이때, 제공되는 패션 제품 실감 데이터는 착용 희망 패션 제품의 총기장, 가슴단면, 어깨넓이, 및 소매길이에 관한 정보를 기반으로 해당 치수에 맞추어 착용 희망 패션 제품을 3차원 입체 영상으로 영상화한 데이터일 수 있다.
시뮬레이션 제어부(30)는 네트워크(2)를 통해 전방표시장치(3)와 연동(연결)되어 전방표시장치(3)의 동작을 제어할 수 있다. 전방표시장치(Head Up Display, HUD)(3)는 빔(beam) 조사를 통해 전방표시장치(3)의 전방에(혹은 전방의 공중에, 전방의 상공에) 패션 제품 실감 데이터를 제공할 수 있다.
전방표시장치(3)는 시뮬레이션 제어부(30)의 제어에 의해, 패션 제품 실감 데이터를 전방표시장치(3)의 전방에 제공할 수 있다. 전방표시장치(3)는 빔(beam)을 통해 전방표시장치(3)의 전방에 초점이 맺히도록 할 수 있으며, 이로부터 해당 초점에 대응하는 위치에 패션 제품 실감 데이터에 대응하는 영상(이미지)이 표시되도록 할 수 있다.
다시 말해, 실감 데이터 제공 버튼에 대한 사용자 입력이 이루어지면, 전방표시장치(3)는 시뮬레이션 제어부(30)의 제어에 응답하여 전방표시장치(3)의 전방에 빔을 통해 상을 뿌림으로써 패션 제품 실감 데이터를 전방표시장치(3) 전방의 상공 상에 제공할 수 있다.
도 8은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치(100)와 연동되는 전방표시장치(3)에 의해 제공되는 패션 제품 실감 데이터의 일예를 나타낸 도면이다.
도 8을 참조하면, 시뮬레이션 제어부(30)는 실감 데이터 제공 버튼에 대한 사용자 입력에 응답하여, 실감 데이터 제공 버튼과 관련된 착용 희망 패션 제품에 대응하는 패션 제품 실감 데이터가 전방표시장치(3)의 전방 상공에 제공되도록 전방표시장치(3)의 동작을 제어할 수 있다.
일반적으로 패션 제품을 판매, 거래하고 있는 온라인 쇼핑몰 상에서는, 패션 제품의 크기를 나타내는 정보(일예로, 총기장, 가슴단면, 어깨넓이, 및 소매길이 등)의 표시를 단순히 수치 값(몇 cm, 몇 mm 등)으로만 표시하고 있다. 그렇게 때문에, 사용자는 온라인 쇼핑몰 상에서 판매되는 패션 제품을 실제로 받아보았을 때 그 크기가 어느정도 되는지를 쉽게 가늠(판단)하는 데에 어려움이 있다.
즉, 종래에는 온라인 쇼핑몰 상에 표시된 수치 값을 토대로만 사용자가 해당 패션 제품의 크기를 가늠할 수 있었기 때문에, 실제로 실물 패션 제품을 받아보았을 때 자신(사용자 자신)이 예상했던 패션 제품의 크기보다 실제 해당 패션 제품의 크기가 더 크거나 혹은 더 작은 경우가 빈번히 존재하였으며, 이러한 경우 사용자가 다시 다른 치수의 패션 제품으로 교환하거나 환불해야 하는 불편함이 따른다.
이에, 시뮬레이션부(270)는 패션 제품 실감 데이터의 실제 크기와 상응하는 크기를 갖는 3차원 입체 영상인 패션 제품 실감 데이터를 전방표시장치(3)를 통해 사용자에게 제공할 수 있다. 이러한 시뮬레이션부(270)는 사용자가 구매를 희망하는 패션 제품(착용 희망 패션 제품)을 구매/결제하기에 앞서, 패션 제품 실감 데이터를 제공받음으로써 구매를 희망하는 패션 제품(착용 희망 패션 제품)의 실물 크기(실제 크기)를 직관적으로 인지하여 체감해볼 수 있도록 제공할 수 있다.
특히나, 시뮬레이션 제어부(30)는 전방표시장치(3)를 통해 제공되는 패션 제품 실감 데이터가 사용자의 신체 상에 투영되도록 전방표시장치(3)의 이동을 제어할 수 있다. 이를 위해, 도면에 도시하지는 않았으나, 본 시스템(1000)은 시뮬레이션부(270)와 네트워크를 통해 연결되는 이미지 센서(미도시)와 이동 제어 부재(미도시)를 포함할 수 있다.
여기서, 이미지 센서(미도시)는 패션 제품 실감 데이터의 투영 대상이 되는 사용자의 신체 영상을 획득하는 센서를 의미할 수 있다. 이미지 센서(미도시)는 카메라, 영상 촬영 센서 등으로 달리 표현될 수 있다. 이미지 센서(미도시)는 일예로 사용자 단말(1)에 마련된 이미지 센서, 전방표시장치(3)에 마련된 이미지 센서 및 시뮬레이션부(270)에 자체 마련된 이미지 센서 중 적어도 하나일 수 있으며, 이에 한정되는 것은 아니다.
이동 제어 부재(미도시)는 전방표시장치(3)와 결합되고, 좌/우/상/하/전/후에 대한 전방표시장치(3)의 이동 동작을 제어할 수 있다. 이동 제어 부재(미도시)는 전방표시장치(3)의 이동 및 각도의 동작을 제어할 수 있다. 즉, 이동 제어 부재(미도시)는 패션 제품 실감 데이터를 제공하는 전방표시장치(3)의 위치뿐만 아니라 각도를 제어할 수 있다.
일예로, 시뮬레이션 제어부(30)는 이미지 센서(미도시)를 통해 획득된 사용자(패션 제품 실감 데이터의 투영 대상이 되는 사용자)의 신체 영상에 대한 이미지 분석을 통해 사용자의 부분 부위(예를 들어, 머리, 목, 팔, 손목, 상체, 하체, 발목, 발 등의 부위)를 식별할 수 있다. 또한, 시뮬레이션 제어부(30)는 패션 제품 실감 데이터에 대응하는 착용 희망 패션 제품의 분류 유형(예를 들어, 상의인지, 하의인지, 팔찌 등의 액세서리인지, 모자인지 등)을 식별할 수 있다.
이후, 시뮬레이션 제어부(30)는 식별된 착용 희망 패션 제품의 분류 유형과 식별된 사용자의 부분 부위를 기반으로 하여, 착용 희망 패션 제품에 대응하는 패션 제품 실감 데이터가 그에 대응하는 사용자의 신체 부분 부위 상에 투영되도록 이동 제어 부지(미도시)의 동작을 제어함으로써 전방표시장치(3)를 이동시킬 수 있다.
예시적으로, 착용 희망 패션 제품의 분류 유형이 상의인 경우, 시뮬레이션 제어부(30)는 착용 희망 패션 제품에 대응하는 패션 제품 실감 데이터가 이미지 분석을 통해 식별된 사용자의 부분 부위 중 식별된 착용 희망 패션 제품의 분류 유형에 대응하는 신체 부분 부위인 상체(즉, 상의에 대응하는 신체부위인 상체) 상에 투영되도록, 이동 제어 부재(미도시)의 동작 제어를 통해 전방표시장치(3)를 이동시키는 제어를 수행할 수 있다. 즉, 시뮬레이션 제어부(30)는 사용자의 신체 부위 중 상체 상에 착용 희망 패션 제품(상의)에 해당하는 패션 제품 실감 데이터가 오버랩하여 투영되도록 전방표시장치(3)를 이동시킬 수 있으며, 이러한 전방표시장치(3)의 이동을 위해 이동 제어 부재(미도시)의 동작을 제어할 수 있다.
본 장치(100)는 시뮬레이션부(270)를 통해 패션 제품 실감 데이터를 제공함으로써 착용 희망 패션 제품에 대한 구매의 실패 확률을 효과적으로 줄일 수 있다.
이에 따르면, 본 장치(100)는, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치라 지칭될 수 있으며, 이 뿐만 아니라, 본 장치(100)는 의류 추천 정보를 생성함에 따라 의류 추천 장치, 시뮬레이션부(270)에 의하면 패션 스타일링에 대한 시뮬레이션이 가능한 장치임에 따라 패션 스타일링 시뮬레이션 장치 등으로 달리 지칭될 수 있다.
이러한 본 장치(100)는 앞서 말한 바와 같이 사용자 단말(1)에 설치되는 애플리케이션 형태로 구현될 수 있다. 본 장치(100)는 시뮬레이션부(270)에 의해 개개인의 다양성을 존중한 개인화된 패션 플랫폼 어플이라 표현될 수 있다.
시뮬레이션부(270)는 아바타 생성부(20)를 통해 사용자의 신체 특성 정보가 고려된 아바타로서 자신을 닮은 다양한 체형의 아바타를 생성하고, 생성된 아바타 상에 원하는 코디를 시뮬레이션 할 수 있다. 시뮬레이션부(270)에 의하면, 본 장치(100)는 사용자의 사이즈를 고려해 테마 별 스타일 연출을 수행할 수 있다. 시뮬레이션부(270)에 의하면, 본 장치(100)는 일예로 SNS 등을 통해 다양한 패션 관련 소식을 구독, 제안받을 수 있다.
시뮬레이션부(270)에 의하면, 본 장치(100)는 일예로 분류 별로 표시된 아이콘을 통해 연계된 쇼핑몰 사이트(인터넷 쇼핑몰 사이트)로 이동 가능하고, 이동한 쇼핑몰 사이트 상에서 판매되는 패션 제품을 구매 가능하도록 제공할 수 있다. 또한, 시뮬레이션부(270)는 구매 버튼에 대한 사용자 입력에 응답하여, 제품 착용 아바타의 영상에 포함된 착용 희망 패션 제품들의 구매를 위한 구매 요청 신호를 전송할 수 있으며, 이를 통해 해당 착용 희망 패션 제품들의 구매가 보다 손쉽고 간편하게 이루어지도록 제공할 수 있다.
시뮬레이션부(270)는 아바타에 오늘 입은 옷 등의 패션 제품을 적용해 데일리룩을 기록할 수 있도록 할 수 있다. 이를 위해, 도면에 도시하지는 않았으나, 시뮬레이션부(270)는 사용자가 소유한 소장 패션 제품에 관한 정보(소장 패션 제품의 정보)를 획득하여 저장하는 제1 데이터 저장부(미도시) 및 데일리룩을 기록(저장)하는 제2 데이터 저장부(미도시)를 포함할 수 있다.
여기서, 제1 데이터 저장부(미도시)는 일예로 상술한 소유 의류 저장부(180)와 동일한 구성일 수 있다. 따라서, 이하 생략된 내용이라 하더라도 상술한 소유 의류 저장부(180)에 대하여 설명된 내용은 제1 데이터 저장부(미도시)에 대한 설명에도 동일하게 적용될 수 있다.
예시적으로, 사용자는 제1 데이터 저장부(미도시)에 저장된 소장 패션 제품들 중 일예로 외출을 위해 사용자가 실제 착용한 패션 제품에 해당하는 소장 패션 제품을 선택(여기서, 선택 소장 패션 제품에는 일예로 상술한 선택된 착용 의류가 포함될 수 있음)하여 아바타 생성부(20)에서 생성된 아바타에 착용시킨 후, 소장 패션 제품의 착용이 이루어진 제품 착용 아바타를 데일리룩으로 하여 제2 데이터 저장부(미도시)에 기록(저장)할 수 있다.
이처럼, 제2 데이터 저장부(미도시)는 사용자가 외출시 복장 등을 기록한 데일리룩 정보를 저장할 수 있다. 뿐만 아니라, 제2 데이터 저장부(미도시)는 상술한 바와 같이 스타일링 평가의 대상이 되는 제품 착용 아바타의 영상(혹은 자세 변경 아바타의 영상)을 저장할 수 있다.
본 장치(100)는 시뮬레이션부(270)에 의해 다음과 같은 기능들을 가질 수 있다.
본 장치(100)는 제2 데이터 저장부(미도시)에 저장된 데일리룩 정보 및/또는 스타일링 평가의 대상이 되는 제품 착용 아바타의 영상 정보를 일예로 SNS 와 연계해 업로드하고, 업로드된 정보에 대하여 타 사용자의 평가를 받을 수 있다.
또한, 본 장치(100)는 일예로 화면의 일영역(일예로 제5 영역)에 표시되는 '나의 옷장' 아이콘 메뉴에 대한 사용자 입력이 이루어진 경우, 사용자가 구매를 희망하거나 구매한 패션 제품들을 한눈에 모아서 볼 수 있도록 화면에 표시할 수 있다.
또한, 본 장치(100)는 일예로 패션 제품과 관련된 큐알코드(QR 코드)의 획득 및/또는 사용자 단말(1)로 촬영된 패션 제품 이미지의 획득을 기반으로, 획득된 패션 제품에 대한 정보 검색을 수행할 수 있다.
또한, 본 장치(100)는 일예로 액세서리의 경우 사용자의 신체에 적용될 실제 크기를 AR 모형으로 도움 받을 수 있도록 제공할 수 있다. 본 장치(100)는 온라인 쇼핑몰 상에서 판매되는 패션 제품 중 사용자가 구매를 희망하는 패션 제품에 대하여, 그 실제 크기와 상응하는 크기를 갖는 3차원 입체 영상을 제공(즉, 패션 제품 실감 데이터를 제공)함으로써, 사용자가 구매를 희망하는 패션 제품(착용 희망 패션 제품)에 대한 보다 현실감 있는 착용 시뮬레이션을 체감할 수 있도록 제공할 수 있다.
본 장치(100)는 시뮬레이션부(270)를 통하여, 아바타 생성부(20)에 의해 생성되는 아바타에 의하여 사용자의 체형, 얼굴형, 사이즈 등을 개인의 특성에 맞게 다양화할 수 있으므로, 기존의 아바타 어플과는 차별점을 제공할 수 있다.
본 장치(100)는 실제 피팅할 수 없는 온라인 쇼핑몰의 한계를 보완하여, 패션 제품에 대한 코디, 옷 구매 등에 도움을 줄 수 있는 기술을 제공할 수 있다. 본 장치(100)는 옷, 액세서리, 메이크업 요소 등이 포함된 다양한 종류의 패션 제품을 아바타 생성부(20)에 의해 생성된 아바타 상에 코디 가능하도록 제공할 수 있다. 또한, 본 장치(100)는 신상품(신상 패션 제품들)이 누락되지 않게 다양한 테마의 아이템들(패션 제품들)이 정기적으로 업데이트되도록 제공할 수 있다.
또한, 본 장치(100)는 앱 자체적으로 SNS 기능을 가지고 있도록 구현할 수 있다. 이러한 본 장치(100)는 일예로 SNS 상의 다른 사람(타 사용자)이 나의 코디(사용자가 SNS 상에 업로드하여 공유한 코디 정보)를 저장하거나 추천할 수 있도록 하는 기능을 제공할 수 있다. 이때, 본 장치(100)는 타 사용자가 나의 코디를 저장하거나 추천하는 경우, 타 사용자에게 포인트를 제공할 수 있다. 반대로, 사용자가 타 사용자의 코디를 저장하거나 추천하는 경우, 사용자는 본 장치(100)로부터 포인트를 제공받을 수 있다. 이때, 본 장치(100)에 의해 제공되는 포인트는 일예로 SNS 상, 온라인 쇼핑몰 상에서 판매/거래되는 패션 제품에 대한 구매가 가능하도록 마련될 수 있으나, 이에만 한정되는 것은 아니고 기타 다른 보상(일예로 실제 현금으로의 교환 등)으로 활용 가능하도록 마련될 수 있다.
또한, 본 장치(100)는 일예로 어플 공유를 통해 신규 유저(신규 사용자)가 추가될 경우, 어플을 공유한 유저(사용자)에게 포인트를 지급할 수 있다. 또한, 본 장치(100)는 본 장치(100)의 앱을 통해 옷을 구매한 경우에도 옷을 구매한 사용자(유저)에게 포인트를 제공할 수 있다. 또한, 본 장치(100)는 특정 패션 제품에 대한 이벤트 및/또는 홍보를 한 사용자에 대해서도 보상으로서 포인트를 제공할 수 있다.
또한, 본 장치(100)는 사용자가 제공받은 포인트를 모음으로써, 포인트로 하여금 실제 패션 제품을 살 때 할인받을 수 있도록 하거나 실제 패션 제품의 구매가 가능하도록 할 수 있다.
본 장치(100)는 온라인 쇼핑몰 상에서 구매자(패션 제품의 구매를 희망하는 사용자)가 쇼핑한 제품(착용 희망 패션 제품)을 제품 착용 시뮬레이션이 가능하도록 해, 소비자의 구매 실패부담을 효과적으로 덜게 할 수 있다. 또한, 본 장치(100)는 온라인 쇼핑몰이 한번에 몰려 있어 원하는 사이트로 바로 이동해 간편한 구매가 가능하도록 제공할 수 있다. 이러한 본 장치(100)는 소비자(구매자)가 패션 제품을 구매함에 있어서 불편함을 해소하고 보다 편의성(편리성)을 제공할 수 있다.
본 장치(100)는 사용자(구매자)가 온라인 쇼핑몰에서 판매되는 패션 제품을 구매하기 전에, 해당 패션 제품이 착용된 모습(미리 착용 모습)을 시뮬레이션해 패션 제품의 착용 핏을 보다 직관적으로 확인 가능하도록 제공할 수 있다.
본 장치(100)는 사용자(구매자, 소비자)가 구매를 희망하는 패션 제품에 대한 구매를 행함에 있어서, 사용자가 보다 원활하게 구매할 수 있도록 도울 수 있다. 또한, 본 장치(100)는 시뮬레이션부(270)로 하여금 사용자가 패션 제품의 구매 실패율이 적도록 하며(실패율을 줄이며) 쇼핑하도록 도울 수 있다.
본 장치(100)는 시뮬레이션부(270)로 하여금 패션 코디 스타일을 사용자에게 맞춤화한 맞춤 추천이 가능하며, 보다 현실감 있는 제품 착용 시뮬레이션 기능을 제공할 수 있다.
본 장치(100)는 비즈니스 니즈 관점에서 보았을 때, 더 많은 옷을 팔아 쇼핑몰들의 매출을 높여주어 원활한 쇼핑 서비스의 제공이 이루어지도록 제공할 수 있다. 또한, 본 장치(100)는 사용자 니즈 관점에서 보았을 때, 저렴한 가격에 나에게 가장 잘 어울리는 옷을 추천받아 구매할 수 있도록 도울 수 있다.
본 장치(100)는 온라인 쇼핑몰 상에서 판매되는 패션 제품이, 사진과 다르게 실제로는 사용자가 착용했을 때 사이즈가 맞지 않아 교환/환불이 이루어져야 했던 종래의 문제를 해소할 수 있다.
본 장치(100)는 복수의 패션 제품 중 사용자에 의해 선택된 착용 희망 패션 제품이 화장품(예시적으로, 매니큐어, 비비크림, 썬크림 등)인 경우, 아바타 생성부(20)를 통해 생성된 아바타 상에 해당 화장품을 이용한 화장(메이크업)이나 네일 아트 등을 적용시키는 착용 시뮬레이션(제품 착용 시뮬레이션)을 수행할 수 있다.
또한, 본 장치(100)는 일예로 브랜드에서 추구하는 시즌 별 추천 패션 제품을 한 화면 상에 모아 표시되도록 하거나, 또는 각 쇼핑몰에서의 판매율 1위에 해당하는 패션 제품을 한 화면 상에 모아 표시되도록 할 수 있다.
또한, 본 장치(100)는 추천 코디 북 카테고리 기능, 어플 사용자들의 패션 코디 확인 기능, 커뮤니케이션 기능, 유사한 패션 디자인 한눈에 보기 기능, 유사한 패션 제품의 가격대 비교 기능을 제공할 수 있다. 또한, 본 장치(100)는 어플 사용자의 취향에 맞춰 코디를 추천하는 기능, 사용자들과 또는 친구와 패션 코디를 공유하는 기능을 제공할 수 있다.
이때, 본원에서 코디를 추천/공유한다라 함은, 착용 시뮬레이션의 적용에 의하여 착용 희망 패션 제품의 착용이 이루어진 제품 착용 아바타(혹은 자세 변경 아바타)의 영상(모습)을 일예로 SNS 상에 업로드하여 추천하거나 공유하는 등의 행위를 의미할 수 있다.
본 장치(100)는 패션 스타일링 코디 추천 기능, 옷 가격대 조정 가능 기능, 패션스타일 코디 시뮬레이션 기능, 다른 사용자들과의 커뮤니케이션 기능(사용자 간의 커뮤니케이션 기능, 스타일 공유 기능), 비슷한 스타일의 옷 코디 스타일을 한번에 확인할 수 있는 기능, 포인트를 통해 패션 제품의 구매시 할인을 제공받을 수 있는 기능, 이미지 검색 기능(비슷한 패션 제품들의 비교 분석 기능) 등을 제공할 수 있다.
또한, 본 장치(100)에서 아바타 생성부(20)는, 개인마다의 신체 특성 정보(일예로 체형 등)가 고려된 아바타를 생성할 수 있다.
본 장치(100)는 시뮬레이션부(270)에 의한 착용 시뮬레이션(제품 착용 시뮬레이션)을 통하여, 아바타를 통해 보이는 패션 제품의 착용 핏(아바타 착용 핏)과 실제 사용자가 해당 패션 제품을 구매하여 착용했을 때의 착용 핏(실제 착용 핏, 실제 코디한 모습)이 상당히 비슷하게 보이도록 제공할 수 있으며, 이를 통해 온라인 쇼핑몰 상에서의 패션 제품의 구매 실패 확률을 효과적으로 줄일 수 있다.
또한, 본 장치(100)는 SNS와의 연계를 통해 어플 자체가 SNS 기능을 가지도록 제공할 수 있다.
본 장치(100)는 자신이 코디한 패션 제품들(즉, 아바타 생성부에서 생성된 아바타에 착용된 착용 희망 패션 제품들)의 착용 핏을 확인함과 동시에 해당 패션 제품들을 일괄적으로 동시에 구매 가능하도록 제공할 수 있다. 이를 통해, 본 장치(100)는 패션 제품에 대한 구매 편의성을 향상시킬 수 있다.
또한, 본 장치(100)는 추천 패션 제품의 제공을 통해, 자신이 코디한 스타일(패션 제품의 스타일)과 비슷하거나 유사한 스타일의 패션 제품을 추천받을 수 있으며, 이를 통해 패션 제품의 구매/비교 등이 원활히 이루어지도록 제공할 수 있다. 본 장치(100)는 사용자로 하여금 만족스러운 패션 제품의 쇼핑 구매가 이루어지도록 제공할 수 있고, 실패 확률 가능성을 낮출 수 있다.
종래에는 각 온라인 쇼핑몰에서 제공하는 패션 제품들을 사용자가 일일이 가격/성능 등의 비교를 수행해야 했고, 유행하는 코디를 찾아 구매하고 싶어도 가격대가 비싸 부담스러운 경우가 있었으며, 직접 입어 볼 수 없어 패션 제품 구매에 실패하는 등의 문제(불편함)가 존재하였다. 이에 반해, 본 장치(100)는 추천 패션 제품을 제공함으로써, 사용자가 보다 효과적으로 패선 제품 간의 비교를 수행하고, 적정 가격대의 패션 제품 등 사용자가 원하는 최적화된 패션 제품을 효과적으로 검색해 제공받을 수 있도록 할 수 있다.
본 장치(100)는 일예로 타 사용자들에 의하여 어플 혹은 SNS 상에 업로드되는 패션 제품과 관련된 신상 소식, 코디 추천 소식, 추천 유저 등에 대한 정보를 화면에 제공할 수 있다. 또한, 본 장치(100)는 일예로 복수의 패션 제품을 카테고리별(일예로, 상의 하의, 액세서리, 신발, 기타 등)로 분류하여 제공할 수 있으며, 각 카테고리별로 분류된 패션 제품을 해당 패션 제품을 판매하는 온라인 쇼핑몰의 정보와 함께 연계하여 제공할 수 있다.
본 장치(100)의 화면에는 복수의 패션 제품이 표시될 수 있다. 이때, 복수의 패션 제품은 온라인 쇼핑몰 상에서 판매/거래되는 패션 제품을 의미할 수 있다. 본 장치(100)는 일예로 화면의 일영역에 패션 제품의 검색을 위한 검색 창을 표시할 수 있다. 사용자는 화면에 표시된 검색 창에 원하는 패션 제품의 검색을 위한 키워드를 입력할 수 있으며, 본 장치(100)는 복수의 패션 제품 중 입력된 키워드와 매칭되는 패션 제품(매칭 패션 제품)을 화면 상에 표시할 수 있다. 이후, 매칭 패션 제품 중 어느 하나에 대한 선택이 이루어지면, 시뮬레이션 제어부(30)는 화면의 일영역에 표시된 아바타(이는 아바타 생성부에 의해 생성된 아바타를 의미함) 상에 사용자가 선택한 매칭 패션 제품을 적용시킴에 따라 생성된 제품 착용 아바타(즉, 생성된 아바타에 대하여 선택된 매칭 패션 제품의 착용 시뮬레이션이 이루어진 아바타)의 영상을 화면에 표시할 수 있다.
이를 통해, 본 장치(100)는 화면에 표시된 제품 착용 아바타로 하여금, 매칭 패션 제품이 자신의 체형과 유사한 형태로 모델링된 아바타 상에 코디된 모습(매칭 패션 제품의 착용 핏)을 시각적으로 확인 가능하도록 제공할 수 있다. 또한, 본 장치(100)는 이러한 매칭 패션 제품에 대하여 구매를 희망하여 구매 버튼에 대한 사용자 입력이 이루어지면, 해당 매칭 패션 제품을 판매하는 온라인 쇼핑몰로 이동되도록 하거나(즉, 매칭 패션 제품을 판매하는 온라인 쇼핑몰의 화면이 표시되도록 제어하거나) 혹은 해당 매칭 패션 제품의 구매가 가능하도록 하는 구매 청 신호를 전송할 수 있다.
또한, 본 장치(100)는 검색 창에 패션 제품의 검색을 위한 키워드 입력시 해당 키워드와 관련된 검색어들이 함께 보이도록 화면 표시를 제어할 수 있다.
본 장치(100)는 홈 화면에서 내 캐릭터를 확인하는 기능, 캐릭터 생성 후 저장하는 기능, 저장된 완성 캐릭터를 확인하는 기능, 홈 화면에서 아바타를 누를 시 아바타 목록으로 이동하는 기능, 저장된 아바타 목록에서 아바타를 선택하여 삭제하는 기능, 홈 화면에서 아이콘을 선택하면 쇼핑몰의 순위 목록 화면으로 이동하는 기능, 즐겨찾기 버튼을 눌러 내가 찜한 쇼핑몰을 한눈에 확인할 수 있는 표시 기능, 내가 찜한 쇼핑몰을 선택하여 삭제하는 기능, 찜한 쇼핑몰에서 내가 찜한 아이템들(패션 제품들)을 한 화면 상에 확인할 수 있는 기능, 내가 찜한 쇼핑몰에서 장바구니 버튼을 눌러 해당 장바구니에 담은 패션 제품 중 해당 쇼핑몰의 제품들만 확인할 수 있는 기능 등을 포함할 수 있다.
또한, 본 장치(100)는 카메라로 패션 제품을 촬영한 후 촬영한 이미지를 잘라서 패션 제품 검색을 수행하는 기능, 촬영된 이미지와 비슷한 관련 패션 제품들을 검색 결과를 제공하는 기능, 쇼핑시 배너에서 상세하게 쇼핑 조건을 정할 수 있어 더 빠르게 쇼핑 가능하도록 하는 기능, 해당 쇼핑몰의 원하는 패션 제품의 정보를 한눈에 확인 하는 기능, 저장된 나의 아바타에 원하는 패션 제품을 착용시키는 착용 시뮬레이션(착용 제품 시뮬레이션)을 통해 착용 핏을 확인하는 기능, 배송/문의 내역확인 기능, 자주 묻는 질문 등을 확인하는 기능, 로그인 화면 기능 등을 포함할 수 있다. 다만, 상술한 본 장치(100)에 포함되는 각종 기능들은 본원의 이해를 돕기 위한 하나의 예시일 뿐, 이에만 한정되는 것은 아니다.
다시 말해, 본 장치(100)는 실제 피팅 할 수 없는 온라인 쇼핑몰의 한계를 보완해 코디와 옷을 포함한 패션 제품의 구매에 도움을 주고자, 자신을 닮은 다양한 체형의 아바타를 만들어 원하는 코디가 가능하도록 하는 기술에 대하여 제공한다.
본 장치(100)는 온라인 쇼핑몰에서 구매자가 쇼핑한 제품을 제품 착용 시뮬레이션이 가능하도록 해 소비자의 구매 실패 부담을 덜고, 간편하게 구매가 가능하도록 할 수 있으며, 제품 구매전 미리 착용 모습을 시뮬레이션해 핏을 확인할 수 있도록 제공할 수 있다.
본 장치(100)는 분류 별로 표시된 아이콘을 통해 연계 쇼핑몰 사이트로 이동 및 구매가 가능하도록 하고, 아바타에 오늘 입을 옷을 적용해 데일리 룩을 기록하며, 패션 제품(상품)과 관련된 큐알코드 및 이미지 검색이 가능하고, 액세서리의 경우 신체에 적용될 실제 크기를 AR 모형으로 도움 받을 수 있도록 할 수 있다.
본 장치(100)는 사용자의 실제 체형을 고려해 생성된 아바타에 의류 등의 패션 제품을 입힌 이후(착용시킨 이후) 아바타를 의자에 앉히거나 혹은 팔을 들어올리게 하는 등 아바타 자세를 변경시키는 시뮬레이션을 수행할 수 있다. 이때, 본 장치(100)는 시뮬레이션을 통해 타이트함, 쪼임 등이 발생하는 부분의 위치(아바타 상의 위치)를 화면에 표시할 수 있다. 일예로 본 장치(100)는 아바타가 착용한 신발이나 의류 등에서 아바타의 자세를 변경함에 따라 조임이 나타나는 부분의 위치를 표시할 수 있다.
또한, 본 장치(100)는 추가적으로 사용자가 느낄 조임의 강도를 예측한 정보(타이트함의 강도)를 예측한 정보를 함께 제공할 수 있다.
또한, 본 장치(100)는 아바타에 대하여 자세 변경에 따른 패션 제품의 착용 시뮬레이션을 제공함으로써, 일예로 아바타가 의자에 앉도록 자세를 변경하였을 때, 아바타가 의자에 앉은 자세를 취함에 따라 아바타에 착용된 바지의 밑단이 위로 올라가게 되는 예상 모습, 혹은 바지의 허벅지 부분이 쪼이게 되는 예상 모습 등을 사용자가 시각적으로 확인 가능하게 할 수 있다.
또한, 본 장치(100)는 아바타에 대한 패션 제품의 착용시 혹은 자세 변경시, 조임 부분이 여러 군데(여러 영역) 식별된 경우, 그 조임 강도에 따라 화면에 표시되는 조임 부분의 표시 색상을 달리할 수 있다. 또한, 본 장치(100)는 일예로 조임 부분의 수가 기 설정된 개수 이상인 경우, 아바타에 착용된 해당 패션 제품보다 큰 치수의 패션 제품을 추천 패션 제품으로서 추천하기 위해 화면의 일영역에 표시할 수 있다. 이때, 본 장치(100)는 추천 패션 제품 중 어느 하나의 추천 패션 제품에 대한 사용자 선택 입력이 이루어진 경우, 선택된 어느 하나의 추천 패션 제품이 실시간으로 아바타 상에 적용된(착용된) 모습(추천 패션 제품의 착용 샷)을 화면에 표시하여 제공할 수 있다.
또한, 본 장치(100)는 SNS 와의 연계를 통해, 사용자의 피부톤 등을 고려하여 생성된 아바타를 기반으로 하여 사용자가 코디한 패션에 대하여, 다수의 타 사용자들에게 평가 받을 수 있는 기능을 포함할 수 있다.
또한, 본 장치(100)는 개인 맞춤형 기온별 의류 추천 정보를 제공할 수 있다. 본 장치(100)는 큰 일교차와 예측할 수 없는 기온의 변화에도 불구하고, 사용자에게 맞춤화된 의류 추천 정보를 제공할 수 있다. 종래의 의류 추천 기술은 다수의 평균 정보를 이용하는 반면, 본 장치(100)는 개인이 느끼는 추위/더위의 정도가 다름을 고려하여 사용자 맞춤형 의류 추천 정보를 제공할 수 있다.
본 장치(100)는 다수의 평균이 아닌 개인 맞춤형 의류 추천 정보를 제공할 수 있다. 본 장치(100)는 일정한 간격을 둔 실시간 기온 변화를 안내할 수 있고. 실시간 기온 변화에 따른 특정 옷에 대한 추위/더위 정도에 대한 정보를 제공하며, 현재 이용자 본인이 소유하고 있는 옷을 이용하여 의류 추천 정보를 제공할 수 있다. 또한, 본 장치(100)는 커뮤니티를 통해 자신과 추위/더위의 정도가 비슷하게 느끼는 타 사용자들에게 의류 정보를 획득(습득)하고, 획득된 타 사용자들의 의류 정보를 이용하여 의류 추천 정보를 생성하여 제공할 수 있다. 본 장치(100)는 위젯 기능으로 앱에 직접 접속하지 않아도 정보를 습득할 수 있다.
본 장치(100)는 카메라 인식을 통한 소유 의류에 대한 정보를 입력할 수 있으며, 일예로 카메라의 사용이 불가능한 경우에는 직접 타이핑함으로써 입력할 수 있다.
본 장치(100)는 일예로 평균 의류 추천 정보를 우선 제공할 수 있으며, 사용자 본인이 소유한 소유 의류에 대한 정보가 획득되어 저장되어 있는 경우에는 기 저장된 소유 의류에 대한 정보를 토대로 개인 맞춤형 의류 추천 정보를 생성하여 제공할 수 있다.
본 장치(100)는 일예로 충분한 데이터가 쌓이기 전에, 지속적으로 계속해서 추위/더위에 대한 질문(즉, 체감 온도 정보의 입력을 위한 입력 요청 메시지)을 던짐으로써, 사용자에게 제공되는 맞춤 의류 추천 정보의 정확도를 향상시킬 수 있다.
또한, 본 장치(100)는 익명으로만 이루어지는 커뮤니티에서 애꿎은 익명인과 싸우는 것을 방지하기 위해, 익명 별 넘버(식별번호)를 부여할 수 있다. 또한, 본 장치(100)는 쇼핑몰 링크를 제공하여 필요한 의류가 생겼을 때 보다 빠르게 구매 가능하도록 제공할 수 있다.
종래에 의류 추천 기술과 관련하여, 인터넷에 올라오는 기온별 알맞은 옷차림 미지들, 관련 포스팅들이 많으며, 유트브 영상 등에서도 기온에 맞는 옷차림을 찾는 사람들이 많다. 그런데, 이러한 의류 추천 기술들의 경우, 추천해주는 옷이 본인이 갖고 있지 않은 경우가 많으므로, 추천되는 의류 추천 정보를 실제로 활용하는 데에 어려움이 있다.
이에 본 장치(100)는, 개인이 소유하고 있는 의류(소유 의류) 내에서 이들을 활용하여 의류 추천 정보를 제공하고자 한다. 본 장치(100)는 다수의 평균이 아닌 개인에 중점을 둔 개인 맞춤형 의류 추천 정보를 제공할 수 있다. 본 장치(100)는 본인과 비슷한 사용자들과 커뮤니케이션 하는 기능을 제공할 수 있으며, 이를 통해 객관적 정보 외의 주관적 정보도 획득(습득) 가능하고 이들을 종합적으로 고려해 보다 맞춤화된 의류 추천 정보를 제공할 수 있다. 또한, 본 장치(100)는 일예로 GPS 와 데이터 수신이 가능한 상황(환경)에서 언제 어디서든 의류 추천 정보를 제공받을 수 있다.
종래의 의류 추천 기술들은 제작자 본인 기준으로 추천을 해주거나 온도에 따른 평균적인 옷차림(의류 추천 정보)을 추천한다. 이에 반해, 본 장치(100)는 제작자 기준이나 평균이 아닌, 개인 앱 사용자를 기준으로 한 옷차림 추천 정보(의류 추천 정보)를 제공하기 때문에, 사용자들의 이용률을 높일 수 있다.
본 장치(100)는, 소유 의류에 관한 정보의 획득시 카메라 인식 혹은 사진만으로 획득할 수 있다. 또한, 본 장치(100)는 일예로 남/여 외에 남-여가 함께 착용 가능한 공통 의류 추천 정보를 제공할 수 있다. 본 장치(100)는 사용자 단말(1)의 바탕화면에서 볼 수 있는 위젯 기능을 제공할 수 있다. 본 장치(100)는 밤-낮의 기온차를 제공하여 선택한 의류에 대해 사용자가 밤에 어떻게 느낄지에 대한 정보를 제공할 수 있다. 또한, 본 장치(100)는 쇼핑몰과의 연동이 가능하며, 디테일한 옷차림 추천, 의류 정보를 제공할 수 있다. 또한, 본 장치(100)는 온도를 느끼는 것(체감 온도 정보)과 관련해 구체적인 상황 설정을 할 수 있으며, 팝업 알리미 기능, 음성 기능 등을 제공할 수 있다.
본 장치(100)는 현재 날씨를 기반으로 의류 추천 정보를 생성할 수 있다. 본 장치(100)는 의류 추천 정보에 대한 상세 정보(일예로, 의류의 재질, 두께 등)를 제공할 수 있다. 본 장치(100)는 시간대별 날씨에 기반한 의류 추천 정보를 생성할 수 있고, 혹은 주간 날씨와 사용자가 선택한 의류를 기반으로 한 의류 추천 정보를 생성할 수 있다.
본 장치(100)는 기온을 고려한 평균적인 의류 추천 정보(옷차림 추천 정보)를 제공할 수 있다. 또한, 본 장치(100)는 시간대별 의류 추천 정보를 생성하여 제공할 수 있고, 뿐만 아니라 일별(주간정보)을 기초로 의류 추천 정보를 생성하여 제공할 수 있다.
본 장치(100)는 체감 온도 정보의 입력을 위한 입력 요청 메시지에 대한 사용자 입력시, 사용자 입력이 이루어진 시점에 대응하여 획득되는 정보와 관련하여, 날씨 정보(날씨 예보 정보), 미세먼지 정보, 위치 정보, 기온차 정보 등을 획득할 수 있으나, 이에 한정되는 것은 아니다.
본 장치(100)는 일예로 체감 온도 정보의 입력을 위한 입력 요청 메시지를 팝업 형식으로 화면에 표시할 수 있다. 이러한 입력 요청 메시지는 사용자가 현재 추운지, 혹은 더운지를 묻는 질의에 대한 사용자 입력을 요청하는 메시지를 의미할 수 있다. 이러한 입력 요청 메시지에 대한 사용자 입력을 토대로, 본 장치(100)는 사용자가 현재 추운지 혹은 더운지에 관한 정보(체감 온도 정보)를 획득할 수 있다.
또한, 본 장치(100)는 시뮬레이션부(270)를 통하여, 온라인 쇼핑몰상에서 판매하는 패션 제품(패션 상품)의 구매시, 구매자의 패션 상품 구매의 실패율을 줄이고 효과적으로 패션 상품의 구매가 이루어지도록 제공할 수 있다. 또한, 본 장치(100)는 시뮬레이션부(270)로 하여금, 온라인 쇼핑몰 상에서 본 상품(제품)을 구매하여 실제 받아보았을 때 쇼핑몰 상에서 본 상품의 느낌/크기 등이 실제 상품을 본 느낌/크기 등과 다름에 따라 상품 구매의 만족도가 높지 않고 교환/환불 등이 빈번히 일어나던 문제를 해소할 수 있다.
이하에서는 상기에 자세히 설명된 내용을 기반으로, 본원의 동작 흐름을 간단히 살펴보기로 한다.
도 9는 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 방법에 대한 동작 흐름도이다.
도 9에 도시된 증강현실을 이용한 소셜 네트워크 서비스 제공 방법은 앞서 설명된 본 장치(100)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 본 장치(100)에 대하여 설명된 내용은 증강현실을 이용한 소셜 네트워크 서비스 제공 방법에 대한 설명에도 동일하게 적용될 수 있다.
도 9를 참조하면, 단계S11에서 아바타 관리부는, 사용자에 대응하는 사용자 아바타를 생성하여 제1 저장부에 저장할 수 있다.
다음으로, 단계S12에서 화면 제어부는, 촬영 모드인 것으로 감지된 경우, 촬영 대상 영역에 대응하여 사용자 단말의 화면에 표출되는 현실 영상 상에 단계S11에서 생성된 사용자 아바타를 오버랩하여 표시할 수 있다.
다음으로, 단계S13에서 영상 관리부는, 촬영 모드에서 촬영 버튼에 대한 사용자 입력이 이루어진 경우, 현실 영상과 사용자 아바타가 결합된 증강현실 영상을 획득하여 제2 저장부에 저장할 수 있다.
다음으로, 단계S14에서 SNS 관리부는, 단계S13에서 획득된 증강현실 영상을 타 사용자와 공유하기 위한 공유 요청 신호가 사용자로부터 입력된 경우, 공유를 위해 증강현실 영상을 SNS 관계망에 업로드할 수 있다.
상술한 설명에서, 단계 S11 내지 S14는 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.
본원의 일 실시 예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
또한, 전술한 증강현실을 이용한 소셜 네트워크 서비스 제공 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.
전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.
1000: 증강현실을 이용한 소셜 네트워크 서비스 제공 시스템
100: 증강현실을 이용한 소셜 네트워크 서비스 제공 장치
210: 아바타 관리부 220: 화면 제어부
230: 영상 관리부 240: SNS 관리부
250: 제1 저장부 260: 제2 저장부

Claims (12)

  1. 증강현실을 이용한 소셜 네트워크 서비스(SNS, Social Network Services) 제공 장치로서,
    사용자에 대응하는 사용자 아바타를 생성하여 제1 저장부에 저장하는 아바타 관리부;
    촬영 모드인 것으로 감지된 경우, 촬영 대상 영역에 대응하여 사용자 단말의 화면에 표출되는 현실 영상 상에 상기 사용자 아바타를 오버랩하여 표시하는 화면 제어부;
    상기 촬영 모드에서 촬영 버튼에 대한 사용자 입력이 이루어진 경우, 상기 현실 영상과 상기 사용자 아바타가 결합된 증강현실 영상을 획득하여 제2 저장부에 저장하는 영상 관리부; 및
    상기 증강현실 영상을 타 사용자와 공유하기 위한 공유 요청 신호가 사용자로부터 입력된 경우, 공유를 위해 상기 증강현실 영상을 SNS 관계망에 업로드하는 SNS 관리부,
    를 포함하되,
    상기 화면 제어부는,
    상기 사용자 단말의 화면에 상기 현실 영상이 미리 설정된 시간 동안 표출되는 경우, 상기 현실 영상 상에 적어도 하나의 기 선정 추천 위치를 표시하고, 상기 적어도 하나의 기 선정 추천 위치 중 어느 하나의 기 선정 추천 위치에 상기 사용자 아바타를 표시하는 것인,
    증강현실을 이용한 소셜 네트워크 서비스 제공 장치.
  2. 제1항에 있어서,
    상기 사용자는 제1 사용자이고, 상기 제1 사용자의 사용자 아바타는 제1 사용자 아바타이고, 상기 증강현실 영상은 제1 증강현실 영상이며,
    상기 화면 제어부는,
    제2 사용자의 사용자 단말이 상기 촬영 대상 영역과 동일한 촬영 대상 영역의 촬영을 위한 촬영 모드인 것으로 감지되되, 상기 촬영 대상 영역과 관련하여 기 저장된 사용자 아바타로서 상기 제1 사용자 아바타가 존재하는 경우, 상기 제2 사용자의 사용자 단말의 화면에 표출되는 현실 영상 상에 제2 사용자 아바타 및 상기 제1 사용자 아바타를 오버랩하여 표시하는 것인, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.
  3. 제2항에 있어서,
    상기 영상 관리부는,
    상기 현실 영상, 상기 제2 사용자 아바타 및 상기 제1 사용자 아바타가 결합된 증강현실 영상으로서 제2 증강현실 영상을 획득하여 저장하되,
    상기 제1 사용자 아바타와 관련하여 결합 불가 조건이 기 설정되어 있는 경우, 상기 결합 불가 조건을 고려하여 상기 제2 증강현실 영상의 획득을 위한 결합을 수행하는 것인, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.
  4. 제1항에 있어서,
    상기 아바타 관리부는,
    사용자로부터 입력받은 신체 특성 정보를 고려하여 상기 사용자 아바타를 생성하고,
    상기 사용자 아바타는, 상기 신체 특성 정보로서 입력받은 사용자의 체형, 얼굴형, 얼굴 표정 및 피부톤 중 적어도 하나를 고려하여 생성된 3차원 아바타인 것인, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.
  5. 제4항에 있어서,
    상기 아바타 관리부는,
    상기 촬영 모드인 것으로 감지된 경우, 상기 사용자의 생체 정보, 날씨 예보 정보 및 상기 사용자에 의하여 업로드된 업로드 정보를 분석하여 산출된 업로드 정보 분석 결과 중 적어도 하나의 정보를 획득하는 정보 획득부를 포함하고,
    획득된 상기 적어도 하나의 정보에 기초하여, 상기 사용자 아바타의 상태 정보를 업데이트하고, 업데이트된 사용자 아바타를 생성하여 저장하는 것인, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.
  6. 삭제
  7. 제1항에 있어서,
    상기 적어도 하나의 기 선정 추천 위치는,
    상기 화면에 표출되는 상기 현실 영상의 이미지 분석을 통해 식별되는 객체 정보를 고려하여 선정되는 위치이거나 상기 SNS 관계망에 업로드된 복수의 증강현실 영상의 분석을 기반으로 산출되는 사용자 아바타의 표시 위치와 관련된 통계 위치 정보를 고려하여 선정되는 위치인 것인, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.
  8. 제1항에 있어서,
    상기 화면 제어부는,
    상기 사용자 단말의 화면에 상기 현실 영상이 미리 설정된 시간 동안 표출되는 경우, 상기 현실 영상과 관련하여 상기 SNS 관계망에 업로드된 업로드 정보를 분석하여 상기 현실 영상의 주변에 위치한 장소의 방문을 추천하는 추천 방문 장소 관련 정보가 존재하는지 판단하고,
    판단 결과 존재하면, 상기 추천 방문 장소 관련 정보를 포함하는 관리자 아바타를 생성하여 상기 현실 영상 상에 표시하는 것인, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.
  9. 제8항에 있어서,
    상기 화면 제어부는,
    상기 관리자 아바타에 대한 사용자 입력이 이루어진 경우, 상기 사용자 단말의 화면의 일영역에 상기 추천 방문 장소 관련 정보를 팝업 형태로 표시하되,
    상기 추천 방문 장소 관련 정보 내에 복수개의 장소 항목이 포함된 경우, 상기 팝업 형태로 표시되는 상기 추천 방문 장소 관련 정보 내 상기 복수개의 장소 항목의 표시 순위를, 상기 복수개의 장소 항목에 대한 사용자 동작 정보의 수준을 고려하여 갱신하는 것인, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.
  10. 제9항에 있어서,
    상기 사용자 동작 정보의 수준은, 제1 수준, 제2 수준 및 제3 수준을 포함한 복수의 수준으로 구분되고,
    상기 제1 수준에 대응하는 사용자 동작 정보는, 사용자 단말로부터 상기 복수개의 장소 항목 중 적어도 하나의 장소 항목을 선택하는 선택 입력 동작을 수행하는 사용자 동작에 관한 정보이고,
    상기 제2 수준에 대응하는 사용자 동작 정보는, 상기 선택된 적어도 하나의 장소 항목 중 어느 하나의 장소 항목과 관련하여, 상기 어느 하나의 장소 항목에 대응하는 장소까지의 길 안내를 요청하는 길 안내 요청 입력 동작을 수행하는 사용자 동작에 관한 정보이며,
    상기 제3 수준에 대응하는 사용자 동작 정보는, 상기 길 안내 요청 입력 동작에 응답하여 생성된 길 안내 정보를 기반으로, 상기 어느 하나의 장소 항목에 대응하는 장소와 관련된 이미지를 획득하는 장소 이미지 획득 동작을 수행하는 사용자 동작에 관한 정보인 것인, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.
  11. 증강현실을 이용한 소셜 네트워크 서비스 제공 시스템으로서,
    제1항의 증강현실을 이용한 소셜 네트워크 서비스 제공 장치; 및
    상기 증강현실을 이용한 소셜 네트워크 서비스 제공 장치 와 연동되어 상기 증강현실을 이용한 소셜 네트워크 서비스 제공 장치 의 동작 제어를 위한 제어 신호를 사용자로부터 입력받아 제공하는 사용자 단말,
    을 포함하는 증강현실을 이용한 소셜 네트워크 서비스 제공 시스템.
  12. 제1항의 증강현실을 이용한 소셜 네트워크 서비스 제공 장치에 의한 증강현실을 이용한 소셜 네트워크 서비스 제공 방법으로서,
    (a) 사용자에 대응하는 사용자 아바타를 생성하여 제1 저장부에 저장하는 단계;
    (b) 촬영 모드인 것으로 감지된 경우, 촬영 대상 영역 에 대응하여 사용자 단말의 화면에 표출되는 현실 영상 상에 상기 사용자 아바타를 오버랩하여 표시하는 단계;
    (c) 상기 촬영 모드에서 촬영 버튼에 대한 사용자 입력이 이루어진 경우, 상기 현실 영상과 상기 사용자 아바타가 결합된 증강현실 영상을 획득하여 제2 저장부에 저장하는 단계; 및
    (d) 상기 증강현실 영상을 타 사용자와 공유하기 위한 공유 요청 신호가 사용자로부터 입력된 경우, 공유를 위해 상기 증강현실 영상을 SNS 관계망에 업로드하는 단계,
    를 포함하되,
    상기 표시하는 단계는,
    상기 사용자 단말의 화면에 상기 현실 영상이 미리 설정된 시간 동안 표출되는 경우, 상기 현실 영상 상에 적어도 하나의 기 선정 추천 위치를 표시하고, 상기 적어도 하나의 기 선정 추천 위치 중 어느 하나의 기 선정 추천 위치에 상기 사용자 아바타를 표시하는 것인,
    증강현실을 이용한 소셜 네트워크 서비스 제공 방법.
KR1020200090739A 2020-07-22 2020-07-22 증강현실을 이용한 소셜 네트워크 서비스 제공 장치 KR102419056B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200090739A KR102419056B1 (ko) 2020-07-22 2020-07-22 증강현실을 이용한 소셜 네트워크 서비스 제공 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200090739A KR102419056B1 (ko) 2020-07-22 2020-07-22 증강현실을 이용한 소셜 네트워크 서비스 제공 장치

Publications (2)

Publication Number Publication Date
KR20220011906A KR20220011906A (ko) 2022-02-03
KR102419056B1 true KR102419056B1 (ko) 2022-07-07

Family

ID=80268855

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200090739A KR102419056B1 (ko) 2020-07-22 2020-07-22 증강현실을 이용한 소셜 네트워크 서비스 제공 장치

Country Status (1)

Country Link
KR (1) KR102419056B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11855933B2 (en) * 2021-08-20 2023-12-26 Kyndryl, Inc. Enhanced content submissions for support chats

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101672215B1 (ko) * 2010-04-26 2016-11-04 엘지전자 주식회사 휴대 단말기 및 그 동작 방법
KR20150057424A (ko) * 2013-11-19 2015-05-28 한국전자통신연구원 증강현실 아바타 상호작용 방법 및 시스템
KR20170112406A (ko) * 2016-03-31 2017-10-12 한국전자통신연구원 증강 현실 아바타 사진 촬영 장치 및 방법
KR102074370B1 (ko) * 2017-10-26 2020-02-06 한국전자통신연구원 증강 현실 콘텐츠를 제공하는 방법

Also Published As

Publication number Publication date
KR20220011906A (ko) 2022-02-03

Similar Documents

Publication Publication Date Title
US20240289858A1 (en) Methods and systems for virtual fitting rooms or hybrid stores
US11494390B2 (en) Crowd-based scores for hotels from measurements of affective response
US11273378B2 (en) Generating and utilizing digital avatar data for online marketplaces
US11269891B2 (en) Crowd-based scores for experiences from measurements of affective response
US10210544B2 (en) Displaying merchandise with avatars
US10013713B2 (en) Computer implemented methods and systems for generating virtual body models for garment fit visualisation
KR102506356B1 (ko) 코디 추천 장치 및 방법
US20160042402A1 (en) Evaluating digital inventories
WO2015200617A1 (en) Digital avatars in online marketplaces
KR102381566B1 (ko) 패션 스타일링 시뮬레이션 장치 및 방법
US11526931B2 (en) Systems and methods for digital mirror
KR102365896B1 (ko) 의류 추천 장치 및 방법
KR102419056B1 (ko) 증강현실을 이용한 소셜 네트워크 서비스 제공 장치
KR102531374B1 (ko) 인공지능 기반 죽은 반려동물의 가상세계 구현 장치
US11282132B2 (en) Frameworks and methodologies configured to enable generation and utilisation of three-dimensional body scan data
KR102375569B1 (ko) 챌린지 서비스 제공 장치 및 방법
US20230351643A1 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant