KR20220011906A - Apparatus and method device for providing social network services using augmented reality - Google Patents
Apparatus and method device for providing social network services using augmented reality Download PDFInfo
- Publication number
- KR20220011906A KR20220011906A KR1020200090739A KR20200090739A KR20220011906A KR 20220011906 A KR20220011906 A KR 20220011906A KR 1020200090739 A KR1020200090739 A KR 1020200090739A KR 20200090739 A KR20200090739 A KR 20200090739A KR 20220011906 A KR20220011906 A KR 20220011906A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- avatar
- information
- augmented reality
- image
- Prior art date
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 254
- 238000000034 method Methods 0.000 title claims description 38
- 238000003860 storage Methods 0.000 claims abstract description 152
- 230000004044 response Effects 0.000 claims abstract description 56
- 230000009471 action Effects 0.000 claims description 47
- 238000004458 analytical method Methods 0.000 claims description 34
- 230000033001 locomotion Effects 0.000 claims description 28
- 238000010191 image analysis Methods 0.000 claims description 14
- 230000008921 facial expression Effects 0.000 claims description 11
- 238000004088 simulation Methods 0.000 description 124
- 238000011156 evaluation Methods 0.000 description 82
- 238000007726 management method Methods 0.000 description 79
- 230000006870 function Effects 0.000 description 70
- 230000036544 posture Effects 0.000 description 67
- 230000008859 change Effects 0.000 description 45
- 230000001953 sensory effect Effects 0.000 description 30
- 238000001514 detection method Methods 0.000 description 18
- 230000002354 daily effect Effects 0.000 description 15
- 238000009529 body temperature measurement Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 238000013500 data storage Methods 0.000 description 9
- 238000013136 deep learning model Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 9
- 238000012790 confirmation Methods 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 229920000742 Cotton Polymers 0.000 description 4
- 239000002537 cosmetic Substances 0.000 description 4
- 230000009193 crawling Effects 0.000 description 4
- 230000008451 emotion Effects 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000004397 blinking Effects 0.000 description 3
- 230000037237 body shape Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000010219 correlation analysis Methods 0.000 description 3
- 230000002996 emotional effect Effects 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 238000012552 review Methods 0.000 description 3
- 238000007619 statistical method Methods 0.000 description 3
- 230000003416 augmentation Effects 0.000 description 2
- 230000036772 blood pressure Effects 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 210000002683 foot Anatomy 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000003442 weekly effect Effects 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 206010019233 Headaches Diseases 0.000 description 1
- 206010020751 Hypersensitivity Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 208000026935 allergic disease Diseases 0.000 description 1
- 230000007815 allergy Effects 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000006071 cream Substances 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 231100000869 headache Toxicity 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000009545 invasion Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000000475 sunscreen effect Effects 0.000 description 1
- 239000000516 sunscreening agent Substances 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
- G06Q10/109—Time management, e.g. calendars, reminders, meetings or time accounting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0277—Online advertisement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G06Q50/30—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/50—Business processes related to the communications industry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Strategic Management (AREA)
- Human Resources & Organizations (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- Marketing (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- General Health & Medical Sciences (AREA)
- Development Economics (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- Operations Research (AREA)
- Computer Graphics (AREA)
- Data Mining & Analysis (AREA)
- Computer Hardware Design (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Quality & Reliability (AREA)
- General Engineering & Computer Science (AREA)
- Game Theory and Decision Science (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본원은 증강현실을 이용한 소셜 네트워크 서비스 제공 장치에 관한 것이다.The present application relates to an apparatus for providing a social network service using augmented reality.
소셜 네트워크 서비스(Social Networking Service, SNS, Social Media)는 사용자 간의 자유로운 의사소통과 정보 공유, 그리고 인맥 확대 등을 통해 사회적 관계를 생성하고 강화해주는 온라인 플랫폼을 의미한다. SNS에서 가장 중요한 부분은 이 서비스를 통해 사회적 관계망을 생성, 유지, 강화, 확장해 나간다는 점이다. 이러한 관계망을 통해 정보가 공유되고 유통될 때 더욱 의미 있을 수 있다.Social Networking Service (SNS, Social Media) refers to an online platform that creates and strengthens social relationships through free communication, information sharing, and network expansion between users. The most important part of SNS is that it creates, maintains, strengthens, and expands a social network through this service. It can be more meaningful when information is shared and distributed through such a network.
최근 들어 스마트폰 이용자의 증가와 무선인터넷 서비스의 확장과 더불어 SNS의 이용자 또한 급증하고 있다. SNS는 광범위하고 동시에 특정 성향의 집단으로 분류될 수 있는 서비스 이용자들을 데이터베이스에 의해 파악하고 관리할 수 있다는 점에서 마케팅 활용가치가 날로 부상하고 있다.Recently, along with the increase of smartphone users and the expansion of wireless Internet services, the number of users of SNS is also rapidly increasing. The value of using SNS for marketing is emerging day by day in that it can identify and manage service users who can be classified into a broad and specific group at the same time by means of a database.
그러나, 종래의 SNS는 다양한 기능을 제공하나 각종 광고와 개인사생활 문제에 있어서 끊임없이 문제를 일으키고 있다. 또한, 종래의 SNS는 사진 형식, 짧은 영상에 국한된 일상 공유 방법을 사용하기 때문에 정보를 표현하는 데에 한계가 있고, 이는 과시욕이 있는 일부 사람들에게 있어서 그들의 욕구를 충분히 충족시켜주지 못하며, 시간이 지날수록 사용자들이 점점 흥미를 잃어가게 되는 문제가 있다.However, although the conventional SNS provides various functions, it constantly causes problems in various advertisements and personal privacy issues. In addition, the conventional SNS has a limitation in expressing information because it uses a daily sharing method limited to photo format and short video, which does not sufficiently satisfy their needs for some people with a desire to show off, and as time goes by, There is a problem that users gradually lose interest as the number increases.
본원의 배경이 되는 기술은 한국등록특허공보 제10-1652433호에 개시되어 있다.The technology that is the background of the present application is disclosed in Korean Patent Publication No. 10-1652433.
본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 종래의 SNS가 갖는 문제점들(일예로, 각종 광고로 인해 SNS 이용이 불편하고 개인사생활을 침해받는 문제점, 사진 형식, 짧은 영상에 국한된 일상 공유 방법을 사용하여 정보를 표현하는 데에 한계가 있는 문제점, 과시욕이 있는 일부 사람들에게 있어서 그들의 욕구를 충분히 충족시켜주지 못하는 문제점, 흥미 요소가 없이 시간이 지날수록 사용자들이 점점 흥미를 잃어가게 되는 문제점 등)을 해소할 수 있는 증강현실을 이용한 소셜 네트워크 서비스 제공 장치 및 방법을 제공하려는 것을 목적으로 한다.The present application is intended to solve the problems of the prior art described above, and the problems of the conventional SNS (for example, inconvenient to use SNS due to various advertisements and infringing on personal privacy, daily sharing limited to photo formats and short videos) Problems that have limitations in expressing information using methods, problems that do not sufficiently satisfy their needs for some people with a desire to show off, problems that users lose interest in as time goes by without an element of interest, etc. ) for the purpose of providing an apparatus and method for providing a social network service using augmented reality that can solve the problem.
다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problems to be achieved by the embodiments of the present application are not limited to the technical problems described above, and other technical problems may exist.
상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스(SNS, Social Network Services) 제공 장치는, 사용자에 대응하는 사용자 아바타를 생성하여 제1 저장부에 저장하는 아바타 관리부; 촬영 모드인 것으로 감지된 경우, 촬영 대상 영역에 대응하여 사용자 단말의 화면에 표출되는 현실 영상 상에 상기 사용자 아바타를 오버랩하여 표시하는 화면 제어부; 상기 촬영 모드에서 촬영 버튼에 대한 사용자 입력이 이루어진 경우, 상기 현실 영상과 상기 사용자 아바타가 결합된 증강현실 영상을 획득하여 제2 저장부에 저장하는 영상 관리부; 및 상기 증강현실 영상을 타 사용자와 공유하기 위한 공유 요청 신호가 사용자로부터 입력된 경우, 공유를 위해 상기 증강현실 영상을 SNS 관계망에 업로드하는 SNS 관리부를 포함할 수 있다.As a technical means for achieving the above technical problem, the apparatus for providing social network services (SNS, Social Network Services) using augmented reality according to an embodiment of the present application generates a user avatar corresponding to the user and includes a first storage unit Avatar management unit to store in; a screen control unit that overlaps and displays the user avatar on a real image displayed on the screen of the user terminal in response to a photographing target area when it is detected that the photographing mode is in the photographing mode; an image management unit for obtaining an augmented reality image in which the real image and the user avatar are combined and storing the augmented reality image in a second storage unit when a user input is made to the shooting button in the shooting mode; And when a share request signal for sharing the augmented reality image with other users is input from the user, it may include an SNS management unit for uploading the augmented reality image to an SNS relational network for sharing.
또한, 상기 사용자는 제1 사용자이고, 상기 제1 사용자의 사용자 아바타는 제1 사용자 아바타이고, 상기 증강현실 영상은 제1 증강현실 영상이며, 상기 화면 제어부는, 제2 사용자의 사용자 단말이 상기 촬영 대상 영역과 동일한 촬영 대상 영역의 촬영을 위한 촬영 모드인 것으로 감지되되, 상기 촬영 대상 영역과 관련하여 기 저장된 사용자 아바타로서 상기 제1 사용자 아바타가 존재하는 경우, 상기 제2 사용자의 사용자 단말의 화면에 표출되는 현실 영상 상에 제2 사용자 아바타 및 상기 제1 사용자 아바타를 오버랩하여 표시할 수 있다.In addition, the user is a first user, the user avatar of the first user is a first user avatar, the augmented reality image is a first augmented reality image, and the screen controller includes: It is detected that the shooting mode is for shooting the same target region as the target region, and when the first user avatar exists as a user avatar pre-stored in relation to the shooting target region, the image is displayed on the screen of the user terminal of the second user. The second user avatar and the first user avatar may be overlapped and displayed on the displayed real image.
또한, 상기 영상 관리부는, 상기 현실 영상, 상기 제2 사용자 아바타 및 상기 제1 사용자 아바타가 결합된 증강현실 영상으로서 제2 증강현실 영상을 획득하여 저장하되, 상기 제1 사용자 아바타와 관련하여 결합 불가 조건이 기 설정되어 있는 경우, 상기 결합 불가 조건을 고려하여 상기 제2 증강현실 영상의 획득을 위한 결합을 수행할 수 있다.In addition, the image management unit, the real image, the second user avatar and the first user avatar is combined with the augmented reality image as an augmented reality image to obtain and store the second augmented reality image, but cannot be combined in relation to the first user avatar If the condition is preset, combining for obtaining the second augmented reality image may be performed in consideration of the uncombinable condition.
또한, 상기 아바타 관리부는, 사용자로부터 입력받은 신체 특성 정보를 고려하여 상기 사용자 아바타를 생성하고, 상기 사용자 아바타는, 상기 신체 특성 정보로서 입력받은 사용자의 체형, 얼굴형, 얼굴 표정 및 피부톤 중 적어도 하나를 고려하여 생성된 3차원 아바타일 수 있다.The avatar manager may generate the user avatar in consideration of body characteristic information received from the user, and the user avatar may include at least one of a user's body type, face shape, facial expression, and skin tone received as the body characteristic information. It may be a 3D avatar generated in consideration of
또한, 상기 아바타 관리부는, 상기 촬영 모드인 것으로 감지된 경우, 상기 사용자의 생체 정보, 날씨 예보 정보 및 상기 사용자에 의하여 업로드된 업로드 정보를 분석하여 산출된 업로드 정보 분석 결과 중 적어도 하나의 정보를 획득하는 정보 획득부를 포함하고, 획득된 상기 적어도 하나의 정보에 기초하여, 상기 사용자 아바타의 상태 정보를 업데이트하고, 업데이트된 사용자 아바타를 생성하여 저장할 수 있다.In addition, the avatar manager may be configured to obtain at least one of the uploaded information analysis result calculated by analyzing the user's biometric information, the weather forecast information, and the upload information uploaded by the user when it is detected that the shooting mode is in the shooting mode. and an information obtaining unit, configured to update status information of the user avatar based on the at least one obtained information, and to generate and store the updated user avatar.
또한, 상기 화면 제어부는, 상기 사용자 단말의 화면에 상기 현실 영상이 미리 설정된 시간 동안 표출되는 경우, 상기 현실 영상 상에 적어도 하나의 기 선정 추천 위치를 표시하고, 상기 적어도 하나의 기 선정 추천 위치 중 어느 하나의 기 선정 추천 위치에 상기 사용자 아바타를 표시할 수 있다.In addition, when the real image is displayed on the screen of the user terminal for a preset time, the screen control unit displays at least one preselected recommended location on the real image, and among the at least one preselected recommended location The user avatar may be displayed at any one previously selected and recommended location.
또한, 상기 적어도 하나의 기 선정 추천 위치는, 상기 화면에 표출되는 상기 현실 영상의 이미지 분석을 통해 식별되는 객체 정보를 고려하여 선정되는 위치이거나 및/또는 상기 SNS 관계망에 업로드된 복수의 증강현실 영상의 분석을 기반으로 산출되는 사용자 아바타의 표시 위치와 관련된 통계 위치 정보를 고려하여 선정되는 위치일 수 있다.In addition, the at least one preselected recommended location is a location selected in consideration of object information identified through image analysis of the real image displayed on the screen and/or a plurality of augmented reality images uploaded to the SNS relational network It may be a location selected in consideration of statistical location information related to the display location of the user avatar calculated based on the analysis of .
또한, 상기 화면 제어부는, 상기 사용자 단말의 화면에 상기 현실 영상이 미리 설정된 시간 동안 표출되는 경우, 상기 현실 영상과 관련하여 상기 SNS 관계망에 업로드된 업로드 정보를 분석하여 상기 현실 영상의 주변에 위치한 장소의 방문을 추천하는 추천 방문 장소 관련 정보가 존재하는지 판단하고, 판단 결과 존재하면, 상기 추천 방문 장소 관련 정보를 포함하는 관리자 아바타를 생성하여 상기 현실 영상 상에 표시할 수 있다.In addition, when the real image is displayed on the screen of the user terminal for a preset time, the screen controller analyzes the uploaded information uploaded to the SNS relational network in relation to the real image to a place located in the vicinity of the real image It is determined whether there is information related to a recommended place to visit, and if it is determined as a result of the determination, a manager avatar including information related to the recommended place to visit may be generated and displayed on the real image.
또한, 상기 화면 제어부는, 상기 관리자 아바타에 대한 사용자 입력이 이루어진 경우, 상기 사용자 단말의 화면의 일영역에 상기 추천 방문 장소 관련 정보를 팝업 형태로 표시하되, 상기 추천 방문 장소 관련 정보 내에 복수개의 장소 항목이 포함된 경우, 상기 팝업 형태로 표시되는 상기 추천 방문 장소 관련 정보 내 상기 복수개의 장소 항목의 표시 순위를, 상기 복수개의 장소 항목에 대한 사용자 동작 정보의 수준을 고려하여 갱신할 수 있다.In addition, when a user input for the manager avatar is made, the screen control unit displays the recommended visit place related information in a pop-up form on one area of the screen of the user terminal, and includes a plurality of places within the recommended visit place related information. When the item is included, the display order of the plurality of place items in the recommended visit place related information displayed in the pop-up form may be updated in consideration of the level of user action information for the plurality of place items.
또한, 상기 사용자 동작 정보의 수준은, 제1 수준, 제2 수준 및 제3 수준을 포함한 복수의 수준으로 구분되고, 상기 제1 수준에 대응하는 사용자 동작 정보는, 사용자 단말로부터 상기 복수개의 장소 항목 중 적어도 하나의 장소 항목을 선택하는 선택 입력 동작을 수행하는 사용자 동작에 관한 정보이고, 상기 제2 수준에 대응하는 사용자 동작 정보는, 상기 선택된 적어도 하나의 장소 항목 중 어느 하나의 장소 항목과 관련하여, 상기 어느 하나의 장소 항목에 대응하는 장소까지의 길 안내를 요청하는 길 안내 요청 입력 동작을 수행하는 사용자 동작에 관한 정보이며, 상기 제3 수준에 대응하는 사용자 동작 정보는, 상기 길 안내 요청 입력 동작에 응답하여 생성된 길 안내 정보를 기반으로, 상기 어느 하나의 장소 항목에 대응하는 장소와 관련된 이미지를 획득하는 장소 이미지 획득 동작을 수행하는 사용자 동작에 관한 정보일 수 있다.In addition, the level of the user action information is divided into a plurality of levels including a first level, a second level, and a third level, and the user action information corresponding to the first level is obtained from the plurality of place items from the user terminal. information on a user action of performing a selection input operation to select at least one place item from , information about a user action of performing a route guidance request input operation for requesting route guidance to a place corresponding to the one place item, and the user action information corresponding to the third level includes the route guidance request input It may be information about a user action of performing a place image acquisition operation of acquiring an image related to a place corresponding to the one place item based on the route guidance information generated in response to the operation.
한편, 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 시스템은, 상술한 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치; 및 상기 증강현실을 이용한 소셜 네트워크 서비스 제공 장치 와 연동되어 상기 증강현실을 이용한 소셜 네트워크 서비스 제공 장치 의 동작 제어를 위한 제어 신호를 사용자로부터 입력받아 제공하는 사용자 단말을 포함할 수 있다.On the other hand, the social network service providing system using augmented reality according to an embodiment of the present application, the social network service providing apparatus using the augmented reality according to the embodiment of the present application described above; and a user terminal interlocking with the apparatus for providing a social network service using the augmented reality to receive a control signal for controlling an operation of the apparatus for providing a social network service using the augmented reality as input from the user.
또한, 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 방법은, 상술한 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치에 의한 증강현실을 이용한 소셜 네트워크 서비스 제공 방법으로서, (a) 사용자에 대응하는 사용자 아바타를 생성하여 제1 저장부에 저장하는 단계; (b) 촬영 모드인 것으로 감지된 경우, 촬영 대상 영역 에 대응하여 사용자 단말의 화면에 표출되는 현실 영상 상에 상기 사용자 아바타를 오버랩하여 표시하는 단계; (c) 상기 촬영 모드에서 촬영 버튼에 대한 사용자 입력이 이루어진 경우, 상기 현실 영상과 상기 사용자 아바타가 결합된 증강현실 영상을 획득하여 제2 저장부에 저장하는 단계; 및 (d) 상기 증강현실 영상을 타 사용자와 공유하기 위한 공유 요청 신호가 사용자로부터 입력된 경우, 공유를 위해 상기 증강현실 영상을 SNS 관계망에 업로드하는 단계를 포함할 수 있다.In addition, the method of providing a social network service using augmented reality according to an embodiment of the present application is a method of providing a social network service using augmented reality by the apparatus for providing a social network service using augmented reality according to the embodiment of the present application as described above. , (a) generating a user avatar corresponding to the user and storing the generated user avatar in a first storage unit; (b) overlapping and displaying the user avatar on a real image displayed on a screen of a user terminal in response to a shooting target area when it is detected that the shooting mode is in the shooting mode; (c) obtaining an augmented reality image in which the real image and the user avatar are combined and storing the augmented reality image in a second storage unit when a user input is made to the shooting button in the shooting mode; and (d) when a share request signal for sharing the augmented reality image with other users is input from the user, uploading the augmented reality image to an SNS relational network for sharing.
상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary, and should not be construed as limiting the present application. In addition to the exemplary embodiments described above, additional embodiments may exist in the drawings and detailed description.
전술한 본원의 과제 해결 수단에 의하면, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치 및 방법을 제공함으로써, 종래의 SNS가 갖는 문제점들(일예로, 각종 광고로 인해 SNS 이용이 불편하고 개인사생활을 침해받는 문제점, 사진 형식, 짧은 영상에 국한된 일상 공유 방법을 사용하여 정보를 표현하는 데에 한계가 있는 문제점, 과시욕이 있는 일부 사람들에게 있어서 그들의 욕구를 충분히 충족시켜주지 못하는 문제점, 흥미 요소가 없이 시간이 지날수록 사용자들이 점점 흥미를 잃어가게 되는 문제점 등)을 해소할 수 있다.According to the above-described problem solving means of the present application, by providing an apparatus and method for providing a social network service using augmented reality, problems with conventional SNS (eg, inconvenient to use SNS due to various advertisements and invasion of personal privacy) Problems, problems in the form of photos, limitations in expressing information using everyday sharing methods limited to short videos, problems that do not fully satisfy their needs for some people with a desire to show off, problems that pass without an element of interest It is possible to solve the problem that users gradually lose interest, etc.).
다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.However, the effects obtainable herein are not limited to the above-described effects, and other effects may exist.
도 1은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 시스템의 개략적인 구성을 나타낸 블록도이다.
도 2는 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치에서 제2 저장부에 저장되는 제1 증강현실 영상의 일예를 나타낸 도면이다.
도 3은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치에서 제2 저장부에 저장되는 제2 증강현실 영상의 일예를 나타낸 도면이다.
도 4는 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치에서 증강현실 영상의 획득시 고려되는 결합 불가 조건을 설명하기 위한 도면이다.
도 5는 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치에서 아바타 관리부의 구성을 개략적으로 나타낸 도면이다.
도 6은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치에 포함된 시뮬레이션부를 설명하기 위한 개략적인 블록도이다.
도 7은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치의 시뮬레이션부 내 식별부에 의해 식별된 조임 부위의 영역이 화면 상에 표시되는 예를 설명하기 위한 도면이다.
도 8은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치와 연동되는 전방표시장치(3)에 의해 제공되는 패션 제품 실감 데이터의 일예를 나타낸 도면이다.
도 9는 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 방법에 대한 동작 흐름도이다.1 is a block diagram showing a schematic configuration of a system for providing a social network service using augmented reality according to an embodiment of the present application.
2 is a diagram illustrating an example of a first augmented reality image stored in a second storage unit in the apparatus for providing a social network service using augmented reality according to an embodiment of the present application.
3 is a diagram illustrating an example of a second augmented reality image stored in a second storage unit in the apparatus for providing a social network service using augmented reality according to an embodiment of the present application.
4 is a view for explaining a non-combination condition considered when acquiring an augmented reality image in the apparatus for providing a social network service using augmented reality according to an embodiment of the present application.
5 is a diagram schematically illustrating the configuration of an avatar manager in the apparatus for providing a social network service using augmented reality according to an embodiment of the present application.
6 is a schematic block diagram for explaining a simulation unit included in the apparatus for providing a social network service using augmented reality according to an embodiment of the present application.
7 is a view for explaining an example in which the region of the tightening portion identified by the identification unit in the simulation unit of the apparatus for providing a social network service using augmented reality according to an embodiment of the present application is displayed on the screen.
8 is a diagram illustrating an example of sensory data for a fashion product provided by the
9 is an operation flowchart for a method of providing a social network service using augmented reality according to an embodiment of the present application.
아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present application will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art to which the present application pertains can easily carry out. However, the present application may be implemented in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present application in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 "간접적으로 연결"되어 있는 경우도 포함한다. Throughout this specification, when a part is "connected" with another part, it is not only "directly connected" but also "electrically connected" or "indirectly connected" with another element interposed therebetween. "Including cases where
본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout this specification, when a member is positioned “on”, “on”, “on”, “on”, “under”, “under”, or “under” another member, this means that a member is positioned on the other member. It includes not only the case where they are in contact, but also the case where another member exists between two members.
본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout this specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.
도 1은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스(SNS, Social Network Services) 제공 시스템(1000)의 개략적인 구성을 나타낸 블록도이다.1 is a block diagram showing a schematic configuration of a social network service (SNS, Social Network Services) providing
본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스(SNS, Social Network Services) 제공 시스템(1000)은, 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스(SNS, Social Network Services) 제공 장치(100)를 포함할 수 있다.The
이하에서는 설명의 편의상, 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 시스템(1000)을 본 시스템(1000)이라 하고, 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치(100)를 본 장치(100)라 하기로 한다. 또한, 소셜 네트워크 서비스(Social Networking Service, SNS)는 소셜 미디어(Social Media) 등으로 달리 표현될 수 있다.Hereinafter, for convenience of description, the social network
도 1을 참조하면, 본 시스템(1000)은 본 장치(100) 및 복수의 사용자 단말(1, 1', …)을 포함할 수 있다.Referring to FIG. 1 , the
본 장치(100)는, 사용자에 대응하는 사용자 아바타를 생성하여 제1 저장부에 저장하고, 촬영 모드인 것으로 감지된 경우, 촬영 대상 영역에 대응하여 사용자 단말의 화면에 표출되는 현실 영상 상에 사용자 아바타를 오버랩하여 표시하고, 촬영 모드에서 촬영 버튼에 대한 사용자 입력이 이루어진 경우, 현실 영상과 사용자 아바타가 결합된 증강현실 영상 을 획득하여 제2 저장부 에 저장하고, 증강현실 영상을 타 사용자와 공유하기 위한 공유 요청 신호가 사용자로부터 입력된 경우, 공유를 위해 증강현실 영상을 SNS 관계망에 업로드할 수 있다. 본 장치(100)에 대한 구체적인 설명은 후술하여 설명하기로 한다.The
복수의 사용자 단말(1, 1', …)은 제1 사용자의 사용자 단말인 제1 사용자 단말(1), 제2 사용자의 사용자 단말인 제2 사용자 단말(1') 등을 포함할 수 있다. 다만, 이는 본원의 이해를 돕기 위한 하나의 예시일 뿐, 이에만 한정되는 것은 아니고, 본원에서 고려되는 복수의 사용자 단말의 수 등은 다양하게 설정될 수 있다.The plurality of
복수의 사용자 단말(1, 1', …) 각각과 본 장치(100) 간에는 네트워크(2)를 통해 연결될 수 있다. 본 장치(100)는 사용자 단말(1)과 연동(연결)될 수 있다.Each of the plurality of
이하에서는 본원을 설명함에 있어서, 사용자 단말에 대한 설명시 복수의 사용자 단말(1, 1', …) 중 제1 사용자 단말(1)을 기준으로 설명하기로 한다. 즉, 이하에서는 사용자 단말이 제1 사용자 단말(1)인 것으로 가정하여 설명하기로 한다. 이는 본원의 이해를 돕기 위한 하나의 예시일 뿐, 이에만 한정되는 것은 아니고, 사용자 단말(1, 제1 사용자 단말)에 대하여 설명된 내용은 이하 생략된 내용이라 하더라도 복수의 사용자 단말(1, 1', …) 각각에 대한 설명에도 동일하게 적용될 수 있다.Hereinafter, in the description of the present application, the
뿐만 아니라, 본원을 설명함에 있어서, 사용자에 대한 설명시 복수의 사용자 중 제1 사용자를 기준으로 설명하기로 한다. 즉, 이하에서는 사용자가 제1 사용자인 것으로 가정하여 설명하기로 한다. 이는 본원의 이해를 돕기 위한 하나의 예시일 뿐, 이에만 한정되는 것은 아니고, 사용자(제1 사용자)에 대하여 설명된 내용은 이하 생략된 내용이라 하더라도 복수의 사용자 각각에 대한 설명에도 동일하게 적용될 수 있다. In addition, in the description of the present application, the description of the user will be based on the first user among a plurality of users. That is, in the following description, it is assumed that the user is the first user. This is only an example for helping understanding of the present application, and is not limited thereto, and the description of the user (the first user) may be equally applied to the description of each of a plurality of users, even if omitted below. have.
본 장치(100)가 사용자 단말(1, 제1 사용자 단말)과 연동(연결)될 수 있다. 여기서, 본 장치(100)가 사용자 단말(1)과 연동(연결)된다라 함은, 본 장치(100)에 의한 증강현실을 이용한 소셜 네트워크 서비스 제공 방법이 사용자 단말(1)에서 실행 가능한 프로그램 혹은 애플리케이션의 형태로 구현 가능한 경우일 때, 사용자 단말(1)에 설치됨에 따라 사용자 단말(1)에 의해 동작 제어가 가능한 경우(상태)를 의미할 수 있다.The
다른 일예로, 본 장치(100)가 사용자 단말(1)과 연동된다라 함은, 본 장치(100)가 사용자 단말(1)과 별개의 구성으로 마련되는 경우일 때, 본 장치(100)가 사용자 단말(1)과 네트워크(2)를 통해 연결됨에 따라 사용자 단말(1)에 의하여 원격으로 동작 제어가 가능한 경우(상태)를 의미할 수 있다.As another example, when the
달리 말하자면, 본 장치(100)는 일예로 사용자 단말(1)에 포함된 장치의 형태로 마련될 수 있다. 이러한 경우, 본 장치(100)는 사용자 단말(1)에 설치되는 프로그램 또는 애플리케이션의 형태로 구현 가능한 장치일 수 있다. 달리 말해, 본 장치(100)를 통해 제공되는 증강현실을 이용한 소셜 네트워크 서비스 제공 방법은 일예로 프로그램 또는 애플리케이션의 형태로 구현되어 사용자 단말(1)을 통해 제공될 수 있다. 다만, 이에 한정되는 것은 아니고, 다른 일예로 본 장치(100)는 사용자 단말(1)과 데이터 송수신이 가능한 서버 혹은 별도의 장치 형태로 마련될 수 있다.In other words, the
본원에서 고려되는 사용자 단말(즉, 복수의 사용자 단말 각각)은, 일예로 PCS(Personal Communication System), GSM(Global System for Mobile communication), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(WCode Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트패드(SmartPad), 태블릿 PC, 노트북, 웨어러블 디바이스, 데스크탑 PC 등과 같은 모든 종류의 유무선 통신 장치를 포함할 수 있으며, 이에 한정되는 것은 아니다.A user terminal (ie, each of a plurality of user terminals) considered herein is, for example, a Personal Communication System (PCS), a Global System for Mobile communication (GSM), a Personal Digital Cellular (PDC), a Personal Handyphone System (PHS), and a PDA. (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (WCode Division Multiple Access), Wibro (Wireless Broadband Internet) terminal, smartphone, smart phone It may include all types of wired/wireless communication devices such as a smart pad, a tablet PC, a notebook computer, a wearable device, and a desktop PC, but is not limited thereto.
네트워크(2)는 일예로 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, NFC(Near Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등 모든 종류의 유/무선 네트워크가 포함될 수 있으며, 이에 한정된 것은 아니다.The
사용자 단말(1)은 본 장치(100)와 연동되어 본 장치(100)의 동작 제어를 위한 제어 신호를 사용자(제1 사용자)로부터 입력받아 본 장치(100)로 제공할 수 있다. 사용자 단말(1)은 본 장치(100)의 각종 동작을 제어(원격으로 제어)할 수 있다. 이하에서는 본 장치(100)에 대하여 보다 상세히 설명하기로 한다.The
본 장치(100)는 아바타 관리부(210), 화면 제어부(220), 영상 관리부(230), SNS 관리부(240), 제1 저장부(250) 및 제2 저장부(260)를 포함할 수 있다. 아바타 관리부(210)는 정보 획득부(211)를 포함할 수 있다.The
아바타 관리부(210)는 사용자에 대응하는 사용자 아바타를 생성하여 제1 저장부(250)에 저장할 수 있다. 여기서, 사용자는 제1 사용자이고, 제1 사용자의 사용자 아바타는 제1 사용자 아바타일 수 있다.The
이때, 본원의 일예에서는 사용자가 제1 사용자인 것으로 예시하였으나, 이에만 한정되는 것은 아니고 사용자로는 제1 사용자 뿐만 아니라 복수의 사용자 각각이 고려될 수 있다. 즉, 사용자(제1 사용자)에 대하여 설명된 내용은 이하 생략된 내용이라 하더라도 복수의 사용자 각각에 대한 설명에도 동일하게 적용될 수 있다.In this case, in the example of the present application, the user is exemplified as the first user, but the present disclosure is not limited thereto, and not only the first user but also each of a plurality of users may be considered as the user. That is, the description of the user (the first user) may be equally applied to the description of each of the plurality of users, even if omitted below.
아바타 관리부(210)는 사용자(제1 사용자)로부터 입력받은 신체 특성 정보를 고려하여 사용자 아바타(제1 사용자 아바타)를 생성할 수 있다. 아바타 관리부(210)에 의해 생성되는 사용자 아바타(제1 사용자 아바타)는, 신체 특성 정보로서 입력받은 사용자의 체형, 얼굴형, 얼굴 표정 및 피부톤 중 적어도 하나를 고려하여 생성된 3차원 아바타일 수 있다. 즉, 제1 사용자의 신체 특성 정보를 고려하여 생성된 제1 사용자 아바타는, 제1 사용자의 체형, 얼굴형, 얼굴 표정 및 피부톤 중 적어도 하나를 고려하여 생성된 3차원 아바타일 수 있다.The
이때, 사용자 아바타(제1 사용자 아바타)에 대하여 설명된 내용은 이하 생략된 내용이라 하더라도, 복수의 사용자 아바타 각각에 대한 설명에도 동일하게 적용될 수 있다.In this case, the description of the user avatar (the first user avatar) may be equally applied to the description of each of the plurality of user avatars, even if omitted below.
즉, 아바타 관리부(210)는 제1 사용자로부터 입력받은 신체 특성 정보를 고려하여 제1 사용자 아바타를 생성하여 제1 저장부(250)에 저장할 수 있다. 또한, 아바타 관리부(210)는 제2 사용자로부터 입력받은 신체 특성 정보를 고려하여 제2 사용자 아바타를 생성하여 제1 저장부(250)에 저장할 수 있다.That is, the
이때, 본원의 일예에서는, 제1 사용자에 대응하여 생성된 제1 사용자 아바타와 제2 사용자에 대응하여 생성된 제2 사용자 아바타가 모두 하나의 단일 저장부인 제1 저장부(250)에 저장되는 것으로 예시하였으나, 이에만 한정되는 것은 아니다. 다른 일예로, 복수의 사용자 각각에 대응하여 생성된 복수의 사용자 아바타는, 복수의 사용자 각각에 대응하는 수로 마련된 복수개의 서브 저장부 각각에 저장될 수 있다. 즉, 도면에 도시하지는 않았으나, 제1 저장부(250)는 복수개의 서브 저장부로서, 제1 서브 저장부, 제2 서브 저장부 등을 포함할 수 있다. 이때, 제1 서브 저장부는 제1 사용자에 대응하여 마련된 저장부로서, 제1 사용자와 관련하여 생성된 사용자 아바타(제1 사용자 아바타)가 저장될 수 있다. 제2 서브 저장부는 제2 사용자에 대응하여 마련된 저장부로서, 제2 사용자와 관련하여 생성된 사용자 아바타(제2 사용자 아바타)가 저장될 수 있다.In this case, in an example of the present application, both the first user avatar generated in response to the first user and the second user avatar generated in response to the second user are stored in the
뿐만 아니라, 제1 저장부(250)에 대하여 설명된 내용은 후술하여 설명하는 제2 저장부(260)에 대한 설명에도 동일하거나 유사하게 적용될 수 있다. 즉, 제2 저장부(260)는 제1 사용자 단말(1)에 의해 획득된 증강현실 영상(제1 증강현실 영상)과 제2 사용자 단말(1')에 의해 획득된 증강현실 영상(제2 증강현실 영상)을 저장할 수 있다.In addition, the description of the
이때, 본원의 일예에서는, 제1 사용자에 의하여 제1 사용자 단말(1)을 통해 획득된 제1 증강현실 영상과 제2 사용자에 의해 제2 사용자 단말(1')을 통해 획득된 제2 증강현실 영상이 모두 하나의 단일 저장부인 제2 저장부(260)에 저장되는 것으로 예시하였으나, 이에만 한정되는 것은 아니다. 다른 일예로, 복수의 사용자 단말(1, 1', …) 각각을 통해 획득되는 복수의 증강현실 영상은, 복수의 사용자 단말(1, 1', …) 각각에 대응하는 수로 마련된 복수개의 하위 저장부 각각에 저장될 수 있다. 즉, 도면에 도시하지는 않았으나, 제2 저장부(260)는 복수개의 하위 저장부로서, 제1 하위 저장부, 제2 하위 저장부 등을 포함할 수 있다. 이때, 제1 서브 저장부는 제1 사용자 단말(혹은 제1 사용자)에 대응하여 마련된 저장부로서, 제1 사용자 단말을 통해 획득된 제1 증강현실 영상이 저장될 수 있다. 제2 하위 저장부는 제2 사용자 단말(혹은 제2 사용자)에 대응하여 마련된 저장부로서, 제2 사용자 단말을 통해 획득된 제2 증강현실 영상이 저장될 수 있다.At this time, in an example of the present application, the first augmented reality image obtained through the
이처럼, 제1 서브 저장부와 제1 하위 저장부는, 제1 사용자(혹은 제1 사용자 단말)에 대응하여 마련된 저장부로서, 제1 사용자 개인을 위한 제1 사용자 개인용 저장부를 의미할 수 있다. 뿐만 아니라, 제2 서브 저장부와 제2 서브 저장부는 제2 사용자(혹은 제2 사용자 단말)에 대응하여 마련된 저장부로서, 제2 사용자 개인을 위한 제2 사용자 개인용 저장부부를 의미할 수 있다.As such, the first sub storage unit and the first sub storage unit are storage units provided in response to the first user (or the first user terminal), and may mean a first personal storage unit for the first user. In addition, the second sub storage unit and the second sub storage unit are storage units provided in response to the second user (or the second user terminal), and may mean a second personal storage unit for the second user.
화면 제어부(220)는, 촬영 모드인 것으로 감지된 경우, 촬영 대상 영역에 대응하여 사용자 단말(1)의 화면에 표출되는 현실 영상 상에 사용자 아바타(제1 사용자 아바타)를 오버랩하여 표시할 수 있다.The
여기서, 촬영 대상 영역은 제1 사용자 단말(1)의 이미지 센서를 통해 촬영되는 영역(이미지 센서를 통해 촬영 가능한 촬영 영역)을 의미하는 것으로서, 예시적으로, 특정 장소, 객체(사람, 사물 등), 풍경 등과 관련된 촬영 영역을 의미할 수 있다. 다만, 이에만 한정되는 것은 아니고, 촬영 대상 영역은 제1 사용자 단말(1)의 이미지 센서를 통해 촬영 가능한 영역이라면 무엇이든 적용 가능하다.Here, the photographing target area refers to an area photographed through the image sensor of the first user terminal 1 (a photographing area capable of being photographed through the image sensor), and for example, a specific place, object (person, object, etc.) , may mean a photographing area related to a landscape or the like. However, the present invention is not limited thereto, and any area that can be photographed through the image sensor of the
또한, 촬영 모드는 제1 사용자가 제1 사용자 단말(1)의 이미지 센서를 통해 촬영 대상 영역을 촬영하기 위한 모드를 의미할 수 있다. Also, the photographing mode may mean a mode for the first user to photograph the photographing target area through the image sensor of the
화면 제어부(220)는 사용자 단말(1)의 화면에 표출되는 현실 영상 상에 사용자 아바타(제1 사용자 아바타)를 오버랩하여 표시할 때, 일예로 현실 영상 상에서 제1 사용자 아바타를 제1 사용자의 입력에 기반하여 설정되는 사용자 입력 기반 설정 위치에 표시할 수 있다. 이에 따르면, 일예로 제1 사용자는 화면 제어부(220)에 의해 현실 영상 상에 표시되는 제1 사용자 아바타를 제1 사용자 단말(1)의 화면에서 드래그, 터치 등의 입력을 통해 자유롭게 이동(변경)시킴으로써, 현실 영상 상에서의 제1 사용자 아바타의 표시 위치(즉, 현실 영상 상에서 제1 사용자 아바타가 놓여지는 위치, 표시되는 위치)를 설정할 수 있다.When the
예시적으로, 제1 사용자는 제1 사용자 단말(1)의 화면에 표출되는 현실 영상(51) 상에 제1 사용자 아바타의 위치를, 일예로 도 2에 도시된 제1 위치(71), 제2 위치(72), 제3 위치(73) 각각에 대하여 자유롭게 이동시켜 가며 변경/설정할 수 있다. 일예로, 복수의 위치(71, 72, 73) 중 제3 위치(73)에 대하여 제1 사용자 아바타의 표시 위치 설정과 관련된 제1 사용자의 입력이 이루어진 경우, 제1 사용자 입력이 이루어진 제3 위치(73)를 사용자 입력 기반 설정 위치인 것으로 인식하고, 화면 제어부(220)는 사용자 입력 기반 설정 위치인 제3 위치(72)에 제1 사용자 아바타를 표시할 수 있다.Exemplarily, the first user may determine the location of the first user avatar on the
다만, 이에만 한정되는 것은 아니고, 다른 일예로, 화면 제어부(220)는, 사용자 단말(제1 사용자 단말, 1)의 화면에 현실 영상이 미리 설정된 시간(일예로, 3초) 동안 표출되는 경우, 이를 현실 영상 상에 표시될 제1 사용자 아바타의 위치를 추천받기 위한 신호인 것으로 인식(즉, 현실 영상 상에서 제1 사용자 아바타가 표시되기에 가장 적합하다고 판단되는 위치의 추천을 요청하는 아바타 표시 관련 위치 추천 요청 신호인 것으로 인식)하여, 현실 영상 상에 적어도 하나의 기 선정 추천 위치를 표시하고, 현실 영상 상에 표시된 적어도 하나의 기 선정 추천 위치 중 어느 하나의 기 선정 추천 위치에 사용자 아바타(제1 사용자 아바타)를 위치시켜 표시할 수 있다. 여기서, 적어도 하나의 기 선정 추천 위치 중 어느 하나의 기 선정 추천 위치는, 제1 사용자의 입력에 의해 선택되는 위치일 수 있다.However, the present invention is not limited thereto, and as another example, when the
또한, 적어도 하나의 기 선정 추천 위치는, 제1 사용자 단말(1)의 화면에 표출되는 현실 영상(51)의 이미지 분석을 통해 식별되는 객체 정보를 고려하여 선정되는 위치이거나 및/또는 SNS 관계망에 업로드된 복수의 증강현실 영상(즉, 복수 사용자들에 의하여 업로드되어 제2 저장부에 저장된 복수의 증강현실 영상)의 분석을 기반으로 산출되는 사용자 아바타의 표시 위치와 관련된 통계 위치 정보를 고려하여 선정되는 위치일 수 있다.In addition, the at least one preselected recommended location is a location selected in consideration of object information identified through image analysis of the
여기서, 현실 영상(51)의 이미지 분석을 통해 식별되는 객체 정보라 함은, 현실 영상(51) 내 포함된 객체에 관한 정보로서, 이러한 객체 정보에는 일예로 의자, 사람, 동물, 건물의 입구, 조형물, 나무 등이 포함될 수 있으나, 이에만 한정되는 것은 아니다. 이때, 이미지 분석시에는 종래에 공지되었거나 향후 개발되는 다양한 이미지 분석 알고리즘이 적용될 수 있다.Here, the object information identified through image analysis of the
예를 들어, 현실 영상(51)의 이미지 분석을 통해 객체 정보로서 건물의 입구와 의자가 식별된 경우, 적어도 하나의 기 선정 추천 위치는 현실 영상(51) 내 식별된 건물의 입구에 대응하는 제1 위치 및 현실 영상(51) 내 식별된 의자에 대응하는 위치가 포함될 수 있다. 이때, 화면 제어부(220)는 제1 사용자 단말(1)의 화면에 현실 영상(51) 이 미리 설정된 시간 동안 표출되면, 현실 영상(51) 상에 제1 위치와 제2 위치를 표시하고, 이때, 제2 위치에 대한 사용자 입력이 이루어지면, 제1 사용자 아바타를 현실 영상(51) 상의 제2 위치에 표시할 수 있다. 이에 따르면, 화면 제어부(220)는 현실 영상(51)에 포함된 의자를 가리도록, 제1 사용자 아바타를 현실 영상(51) 상에 표시할 수 있다.For example, when the entrance and chair of the building are identified as object information through image analysis of the
이때, 화면 제어부(220)는 필요에 따라 사용자 입력에 의해 선택된 어느 하나의 기 선정 추천 위치에 대응하는 객체의 유형에 따라, 제1 사용자 아바타의 자세를 변경하고, 자세 변경된 제1 사용자 아바타를 사용자 입력에 의해 선택된 어느 하나의 기 선정 추천 위치에 표시할 수 있다. 예시적으로, 제1 위치와 제2 위치를 포함한 복수의 기 선정 추천 위치 중 일예로 제2 위치가 어느 하나의 기 선정 추천 위치로서 사용자(제1 사용자) 입력에 의해 선택되었다고 하자.In this case, the
이러한 경우, 화면 제어부(220)는 사용자 입력에 의해 선택된 어느 하나의 기 선정 추천 위치(제2 위치)에 대응하는 객체가 의자이므로, 제1 사용자 아바타의 자세를, 기본 제1 사용자 아바타의 자세인 차렷 자세에서 제1 사용자 아바타가 의자에 앉아있는 자세인 의자에 앉은 자세로 변경할 수 있다. 이후, 화면 제어부(220)는 자세 변경된 제1 사용자 아바타(즉, 의자에 앉은 자세를 갖는 제1 사용자 아바타)를 현실 영상(51) 상의 제2 위치(의자에 대응하는 위치)에 표시할 수 있다.In this case, the
다른 일예로, 화면 제어부(220)는, 적어도 하나의 기 선정 추천 위치의 선정을 위해, SNS 관계망에 업로드된 복수의 증강현실 영상(즉, 복수 사용자들에 의하여 업로드되어 제2 저장부에 저장된 복수의 증강현실 영상)(특히, 현실 영상(51)과 관련하여 업로드된 현실 영상(51) 관련 복수의 증강현실 영상)을 분석할 수 있으며, 분석을 통해 현실 영상(51) 관련 복수의 증강현실 영상 내에 포함된 사용자 아바타들이 현실 영상(51) 내에서 어느 위치에 나타나는지에 대한 통계 정보(즉, 현실 영상 관련 복수의 증강현실 영상 내 사용자 아바타들이 표시되는 위치에 관한 통계 정보인 통계 위치 정보)를 산출할 수 있다.As another example, the
이때, 복수 사용자에 의해 제2 저장부(260)에 기 저장된 현실 영상(51) 관련 복수의 증강현실 영상 내 사용자 아바타들(이하 전체 사용자 아바타들이라 함)의 위치(표시 위치)를 분석한 결과, 일예로 도 2에 도시된 복수의 위치(71, 72, 73)에 대하여, 전체 사용자 아바타들 중 70%에 해당하는 사용자 아바타들이 제1 위치(71)에 표시되어 있고, 전체 사용자 아바타들 중 20%에 해당하는 사용자 아바타들이 제3 위치(73)에 표시되어 있으며, 전체 사용자 아바타들 중 9%에 해당하는 사용자 아바타들이 제2 위치(72)에 표시되고, 전체 사용자 아바타들 중 1%에 해당하는 사용자 아바타들이 제4 위치(미도시)에 표시되어 있다고 하자.At this time, as a result of analyzing the positions (display positions) of user avatars (hereinafter referred to as all user avatars) in a plurality of augmented reality images related to the
이러한 경우, 화면 제어부(220)는 제1 위치(71)는 70%, 제2 위치(72)는 10%, 제3 위치(73)는 20%, 제4 위치(미도시)는 1%를 포함하는 통계 위치 정보를 산출할 수 있다. 이후, 화면 제어부(220)는 일예로 산출된 통계 위치 정보에 대응하는 복수의 위치(일예로 제1 위치 내지 제4 위치) 중 기 설정된 상위 개수(일예로, 상위 3개)에 속하는 위치로서 제1 위치(71) 내지 제3 위치(73)를 적어도 하나의 기 선정 추천 위치로서 현실 영상(51)에 표시할 수 있다. 이후, 일예로 현실 영상(51) 상에 적어도 하나의 기 선정 추천 위치 중 어느 하나의 기 선정 추천 위치로서 제3 위치(73)에 대한 사용자 입력이 이루어진 경우, 제1 사용자 아바타를 현실 영상(51) 상의 제3 위치(73)에 표시할 수 있다.In this case, the
또 다른 일예로, 화면 제어부(220)는 통계 위치 정보가 산출되면, 산출된 통계 위치 정보에 대응하는 복수의 위치 중 사용자 아바타들이 가장 많이 표시(전체 사용자 아바타들 중 70%에 해당하는 사용자 아바타들이 표시)된 것으로 확인되는 최상위 위치(즉, 현실 영상 관련 복수의 증강현실 영상 내 사용자 아바타들이 표시 위치들 중 사용자 아바타들이 가장 많이 표시된 것으로 확인되는 위치)인 제1 위치(71)를 어느 하나의 기 선정 추천 위치로 결정할 수 있으며, 이후, 결정된 어느 하나의 기 선정 추천 위치인 제1 위치(71)에 제1 사용자 아바타를 표시할 수 있다.As another example, when the statistical location information is calculated, the
화면 제어부(220)에 의해 현실 영상 상에 사용자 아바타가 표시된 이후, 영상 관리부(230)는, 촬영 모드에서 촬영 버튼에 대한 제1 사용자의 사용자 입력이 이루어진 경우, 사용자 입력에 응답하여 현실 영상과 사용자 아바타(제1 사용자 아바타)가 결합된 증강현실 영상을 획득하여 제2 저장부(260)에 저장할 수 있다.After the user avatar is displayed on the real image by the
이때, 촬영 버튼은 일예로 제1 사용자 단말(1)의 화면의 일영역에 터치 입력 방식으로 마련된 것일 수 있고, 또는 제1 사용자 단말(1)에 물리적인 버튼 방식으로 마련된 것일 수 있으며, 이에 한정되는 것은 아니다.In this case, for example, the shooting button may be provided in a touch input method on an area of the screen of the
제1 사용자는, 화면 제어부(220)의 제어에 의하여, 사용자 단말(1)의 화면에 표출되는 현실 영상 상에 사용자 아바타(제1 사용자 아바타)가 오버랩하여 표시된 이후 이를 촬영한 이미지(증강현실 영상)을 획득하고자 하는 경우, 제1 사용자 단말(1)의 촬영 버튼에 대한 입력을 수행할 수 있다. 이처럼, 촬영 버튼에 대한 제1 사용자의 사용자 입력(제1 사용자 입력)이 이루어진 경우, 영상 관리부(230)는 제1 사용자 입력에 응답하여 제1 사용자 단말(1) 상에 표출된 현실 영상과 제1 사용자 아바타가 결합된 증강현실 영상(제1 증강현실 영상)을 획득하여 제2 저장부(260)에 저장(특히, 제2 저장부 내 제1 하위 저장부에 저장)할 수 있다.The first user, under the control of the
제1 사용자 단말(1)을 통해 획득되는 증강현실 영상은, 현실 영상과 제1 사용자 아바타가 결합된 증강현실 영상을 의미하는 것으로서, 이는 제1 증강현실 영상이라 지칭될 수 있다.The augmented reality image obtained through the
제2 저장부(260)에 저장되는 제1 증강현실 영상의 예는 도 2를 참조하여 보다 쉽게 이해될 수 있다.An example of the first augmented reality image stored in the
도 2는 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치(100)에서 제2 저장부(260)에 저장되는 제1 증강현실 영상(53)의 일예를 나타낸 도면이다. 여기서, 제1 증강현실 영상(53)은 제1 사용자 단말(1)을 통해 획득된 증강현실 영상을 의미할 수 있다.2 is a diagram illustrating an example of the first augmented
도 2를 참조하면, 제1 사용자가 제1 사용자 단말(1)을 이용하여 일예로 궁 내 한옥을 촬영 대상 영역으로 하여 촬영을 수행하고자 한다고 하자. 이때, 화면 제어부(220)는 제1 사용자 단말(1)이 촬영 모드인 것으로 감지된 경우, 촬영 대상 영역에 대응하는 현실 영상(51)을 사용자 단말(1)의 화면에 표출시키고, 이와 함께 아바타 관리부(210)에서 생성되어 저장된 제1 사용자에 대응하는 제1 사용자 아바타(52)를 현실 영상(51) 상에 오버랩하여 제1 사용자 단말(1)의 화면에 표시(표출)할 수 있다.Referring to FIG. 2 , it is assumed that a first user intends to take a picture using a hanok in a palace as an example by using the
즉, 화면 제어부(220)는, 제1 사용자 단말(1)이 촬영 모드인 것으로 감지된 경우, 촬영 대상 영역에 대응하여 제1 사용자 단말(1)의 화면에 표출되는 현실 영상(51) 상에 아바타 관리부(210)에 의해 생성된 제1 사용자 아바타(52)를 오버랩하여 제1 사용자 단말(1)의 화면 상에 표시(표출)할 수 있다.That is, when it is detected that the
이후, 촬영 모드에서 촬영 버튼에 대한 제1 사용자의 입력(제1 사용자 입력)이 이루어지면, 영상 관리부(230)는 제1 사용자 단말(1)의 화면에 표출되고 있는 현실 영상(51)과 제1 사용자 아바타(52)가 결합된 증강현실 영상(53, 제1 증강현실 영상)을 제1 사용자 단말(1)로부터 획득하여 제2 저장부(260)(특히, 제2 저장부 내 제1 하위 저장부)에 저장할 수 있다.Thereafter, when the first user's input (first user input) to the shooting button is made in the shooting mode, the
즉, 영상 관리부(230)는 촬영 모드에 대한 제1 사용자의 입력이 이루어지면, 현실 영상(51)에 대하여 제1 사용자 아바타(52)를 결합시킴으로써 제1 증강현실 영상(53)을 생성하고, 생성된 제1 증강현실 영상(53)을 획득하여 제2 저장부(260)에 저장할 수 있다.That is, the
본원에서 제2 저장부(260)에 저장되는 증강현실 영상은, 정적인 상태의 영상(이미지, 사진)을 의미할 수 있으나, 이에만 한정되는 것은 아니고, 이미지, 사진과 같은 정적인 상태의 영상뿐만 아니라 동적인 상태의 영상(동영상 등)을 모두 포함하는 개념으로 이해됨이 바람직하다.Herein, the augmented reality image stored in the
SNS 관리부(240)는 증강현실 영상을 타 사용자와 공유하기 위한 공유 요청 신호가 사용자로부터 입력된 경우, 공유 요청 신호에 대한 사용자 입력에 응답하여 공유를 위해 증강현실 영상을 SNS 관계망에 업로드할 수 있다.When a share request signal for sharing the augmented reality image with other users is input from the user, the
즉, SNS 관리부(240)는 제2 저장부(260)에 저장된 제1 증강현실 영상(53)을 타 사용자에게 공유하기 위한 공유 요청 신호가 제1 사용자로부터 입력된 경우, 공유 요청 신호에 대한 사용자 입력(제1 사용자의 입력)에 응답하여 공유를 위해 제1 증강현실 영상(53)을 SNS 관계망에 업로드할 수 있다.That is, when a share request signal for sharing the first augmented
여기서, SNS 관계망은 본 장치(100)에 의해 제공되는 관계망(네트워크)으로서, 이는 특정한 관심이나 활동을 공유하는 사람들 사이의 관계망(사람들 사이에 형성되는 관계망)을 의미할 수 있다.Here, the SNS relational network is a relational network (network) provided by the
도면에 도시하지는 않았으나, 본 장치(100)는 제어부(미도시)를 포함할 수 있다. 제어부(미도시)는 본 장치(100)에 포함된 각 부의 동작을 제어할 수 있다. Although not shown in the drawings, the
제1 저장부(250)는 상술한 바와 같이 사용자에 대응하여 생성된 사용자 아바타를 저장할 수 있다. 일예로, 제1 저장부(250)는 제1 사용자에 대응하여 생성된 제1 사용자 아바타를 저장할 수 있다.The
제2 저장부(260)는 상술한 바와 같이 사용자 단말로부터 획득된 증강현실 영상을 저장할 수 있다. 일예로, 제2 저장부(260)는 제1 사용자 단말(1)로부터 획득된 제1 증강현실 영상(53)을 저장할 수 있다.The
한편, 제2 저장부(260)에 제1 증강현실 영상(53)이 저장된 이후에, 제2 사용자가 제2 사용자의 사용자 단말(제2 사용자 단말, 1')을 이용하여, 제1 사용자가 촬영했었던 촬영 대상 영역(즉, 제1 증강현실 영상(53)의 획득이 이루어졌던 촬영 대상 영역으로서, 제1 증강현실 영상에 대응하는 촬영 대상 영역을 의미함)과 동일한 촬영 대상 영역(동일 촬영 대상 영역)을 촬영하고자 한다고 하자.On the other hand, after the first augmented
이때, 제2 사용자 단말(1')을 이용해 촬영되는 촬영 대상 영역과 제1 사용자 단말(1)에 의해 촬영되었던 촬영 대상 영역이 서로 동일한 촬영 대상 영역인지에 대한 판단(즉, 제2 사용자 단말이 동일 촬영 대상 영역의 촬영을 위한 촬영 모드인지 여부에 대한 판단)은, 일예로, 제2 저장부(260)에 기 저장된 제1 증강현실 영상(제1 사용자 단말에 의해 촬영되었던 촬영 대상 영역에 대응하는 제1 증강현실 영상)의 제1 위치 방위 정보(즉, 제1 증강현실 영상의 위치 정보와 방위 정보를 포함한 제1 위치 방위 정보)와 제2 사용자 단말(1')의 화면에 표출되는 촬영 대상 영역에 대응하는 현실 영상의 제2 위치 방위 정보(제2 사용자 단말의 화면에 표출되는 현실 영상의 위치 정보와 방위 정보를 포함한 제2 위치 방위 정보) 간의 비교를 통해 이루어질 수 있다.At this time, it is determined whether the photographing target area photographed using the second user terminal 1' and the photographing target area photographed by the
일예로, 화면 제어부(220)는 제1 위치 방위 정보로부터 미리 설정된 오차 범위 영역 내에 제2 위치 방위 정보가 위치하는 경우, 제2 사용자 단말(1')을 이용해 촬영되는 촬영 대상 영역과 제1 사용자 단말(1)에 의해 촬영되었던 촬영 대상 영역이 서로 동일한 촬영 대상 영역인 것으로 판단할 수 있다.For example, when the second location and orientation information is located within a preset error range from the first location and orientation information, the
이에 따르면, 영상 관리부(230)는 증강현실 영상을 제2 저장부(260)에 저장할 때, 증강현실 영상, 증강현실 영상 내 포함된 사용자 아바타, 증강현실 영상이 획득된 위치에 관한 위치 정보, 증강현실 영상이 획득된 방위에 관한 방위 정보, 사용자 아바타에 대하여 기 설정된 후술하는 결합 불가 조건 등이 서로 함께 연계하여 저장할 수 있다.According to this, when the
화면 제어부(220)는, 제2 사용자의 사용자 단말(제2 사용자 단말, 1')이 제1 사용자 단말(1)에 의해 획득되어 제2 저장부(260)에 저장된 제1 증강현실 영상(53)에 대응하는 촬영 대상 영역과 동일한 촬영 대상 영역(동일 촬영 대상 영역)의 촬영을 위한 촬영 모드인 것으로 감지되되, 촬영 대상 영역(동일 촬영 대상 영역)과 관련하여 기 저장된 사용자 아바타로서 제1 사용자 아바타(52)가 존재하는 경우, 제2 사용자의 사용자 단말(1')의 화면에 표출되는 현실 영상 상에 제2 사용자 아바타 및 제1 사용자 아바타를 오버랩하여 표시할 수 있다. 이는 도 3을 참조하여 보다 쉽게 이해될 수 있다.The
도 3은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치(100)에서 제2 저장부(260)에 저장되는 제2 증강현실 영상(63)의 일예를 나타낸 도면이다. 여기서, 제2 증강현실 영상(63)은 제2 사용자 단말(1')을 통해 획득된 증강현실 영상을 의미할 수 있다.3 is a diagram illustrating an example of a second
도 3을 참조하면, 앞서 말한 바와 같이, 제2 저장부(260)에 제1 증강현실 영상(53)이 저장된 이후에, 제2 사용자가 제2 사용자 단말(1')을 이용하여 제1 증강현실 영상(53)에 대응하는 촬영 대상 영역과 동일한 촬영 대상 영역(동일 촬영 대상 영역)을 촬영하고자 한다고 하자.Referring to FIG. 3 , as described above, after the first augmented
이때, 화면 제어부(220)는, 제2 사용자 단말(1')이 촬영 모드인 것으로 감지된 경우, 제2 저장부(260)에 기 저장된 복수의 증강현실 영상 중 촬영 모드에 대응하여 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61)에 대응하는 촬영 대상 영역과 동일한 촬영 대상 영역(동일 촬영 대상 영역)을 대상으로 하는 증강현실 영상이 제2 저장부(260)에 존재하는지 판단할 수 있다. 여기서, 제2 사용자 단말(1')의 화면에 표출되는 현실 영상에 대응하는 촬영 대상 영역과 동일한 촬영 대상 영역을 갖는 제2 저장부(260)에 기저장된 증강현실 영상은 후술하는 설명에서 매칭 증강현실 영상이라 지칭될 수 있으며, 이때, 매칭 증강현실 영상이 일예로 제1 증강현실 영상(53)이라 하자.At this time, when it is detected that the
이러한 경우, 화면 제어부(220)는, 제2 사용자 단말(1')이 촬영 모드일 때, 제2 사용자 단말(1')의 화면에 표출되는 현실 영상에 대응하는 촬영 대상 영역과 동일한 촬영 대상 영역(동일 촬영 대상 영역)을 대상으로 하는 증강현실 영상(즉, 매칭 증강현실 영상인 제1 증강현실 영상)이 제2 저장부(260)에 존재하면, 제2 사용자 단말(1')의 촬영 모드를 제2 저장부(260)에 기 저장된 복수의 증강현실 영상 중 적어도 하나의 증강현실 영상(일예로, 매칭 증강현실 영상인 제1 증강현실 영상)의 촬영 대상 영역과 동일한 촬영 대상 영역(동일 촬영 대상 영역)의 촬영을 위한 촬영 모드인 것으로 인식할 수 있다.In this case, the
이후, 화면 제어부(220)는, 제2 사용자의 사용자 단말(1')이 제2 저장부(260)에 기 저장된 복수의 증강현실 영상 중 적어도 하나의 증강현실 영상(일예로, 매칭 증강현실 영상인 제1 증강현실 영상)의 촬영 대상 영역과 동일한 촬영 대상 영역(동일 촬영 대상 영역)의 촬영을 위한 촬영 모드인 것으로 감지되되, 촬영 대상 영역(동일 촬영 대상 영역)과 관련하여 기 저장된 사용자 아바타로서 제1 사용자 아바타가 존재한다고 하자. 즉, 제2 저장부(260) 내에, 제2 사용자의 단말(1')이 촬영하고자 하는 촬영 대상 영역과 동일한 촬영 대상 영역(동일 촬영 대상 영역)을 촬영함으로써 획득되어 저장된 증강현실 영상(매칭 증강현실 영상)으로서 제1 증강현실 영상(53)이 존재하고, 이러한 제1 증강현실 영상(53)과 관련하여 기 저장된 사용자 아바타로서 제1 사용자 아바타(52)가 존재한다고 하자.Then, the
이러한 경우, 화면 제어부(220)는, 제2 사용자의 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상에 제2 사용자에 대응하여 생성된 사용자 아바타인 제2 사용자 아바타(62)를 오버랩하여 표시할 수 있으며, 이 뿐만 아니라, 더하여 제2 사용자의 사용자 단말(1')의 화면에 표출되는 현실 영상(61)과 관련하여 제2 저장부(260)에 기 저장되어 있던 증강현실 영상(매칭 증강현실 영상인 제1 증강현실 영상) 내 사용자 아바타인 제1 사용자 아바타(52)를 제2 사용자의 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상에 오버랩하여 표시할 수 있다.In this case, the
즉, 화면 제어부(220)는, 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61)과 관련하여, 제2 저장부(260)에 기 저장되어 있던 제1 사용자 아바타(52)와 제2 사용자 아바타(62)를 함께 제2 사용자 단말(1')의 화면 상에 표출되는 현실 영상(61) 상에 오버랩하여 표시할 수 있다.That is, in relation to the
이후, 영상 관리부(230)는, 일예로 제2 사용자 단말(1')의 화면 일영역에 표시된 촬영 버튼에 대한 사용자 입력(제2 사용자의 입력)이 이루어진 경우, 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61), 제2 사용자 아바타(62) 및 제1 사용자 아바타(52)가 모두 결합된 증강현실 영상으로서 제2 증강현실 영상(63)을 제2 사용자 단말(1')로부터 획득하고, 획득된 제2 증강현실 영상(63)을 제2 저장부(260)에 저장(특히, 제2 저장부 내 제2 하위 저장부에 저장)할 수 있다.Thereafter, the
이때, 영상 관리부(230)는 현실 영상(61), 제2 사용자 아바타(62) 및 제1 사용자 아바타(52)가 결합된 제2 증강현실 영상(63)을 획득하여 저장하고자 할 때, 제1 사용자 아바타(52)와 관련하여 결합 불가 조건이 기 설정되어 있는 경우, 결합 불가 조건을 고려하여 제2 증강현실 영상(63)의 획득을 위한 결합을 수행할 수 있다. 영상 관리부(230)는 결합 불가 조건을 고려하여 제2 증강현실 영상(63)의 획득을 위한 결합의 수행 및/또는 제2 증강현실 영상(63)의 획득 여부를 결정할 수 있다.At this time, the
즉, 영상 관리부(230)는 촬영 모드에 대한 제2 사용자의 입력이 이루어지면, 현실 영상(61)에 대하여 제2 사용자 아바타(62)와 제1 사용자 아바타(52)를 결합시킴으로써 제2 증강현실 영상(63)을 생성하고, 생성된 제2 증강현실 영상(63)을 획득하여 제2 저장부(260)에 저장할 수 있다.That is, when the second user's input for the shooting mode is made, the
이때, 영상 관리부(230)는, 제2 증강현실 영상(63)의 획득을 위해 현실 영상(61)에 제2 사용자 아바타(62)와 제1 사용자 아바타(52)를 결합시키고자 할 때, 제1 사용자 아바타(52)와 관련하여 결합 불가 조건이 기 설정되어 있는 경우, 결합 불가 조건을 고려하여 제2 증강현실 영상(63)의 획득을 위한 결합을 수행할 수 있다.At this time, the
즉, 영상 관리부(230)는 제2 사용자 단말(1')을 통해 제2 증강현실 영상(63)을 획득함에 있어서, 제2 저장부(260)에 기 저장된 기저장 사용자 아바타(일예로 제1 사용자 아바타)와 현재의 촬영 모드인 것으로 감지된 사용자 단말에 대응하는 현재 사용자 아바타(일예로, 제2 사용자 아바타)를 포함한 복수의 사용자 아바타를 현실 영상에 결합시킨 제2 증강현실 영상(63)을 획득하고자 하는 경우, 기저장 사용자 아바타와 관련해 결합 불가 조건이 기 설정되어 있으면, 결합 불가 조건을 고려하여 제2 증강현실 영상(63)의 획득을 위한 결합(현실 영상에 대한 복수의 사용자 아바타의 결합)을 수행할 수 있다. 이는 도 4를 참조하여 보다 쉽게 이해될 수 있다.That is, when the
도 4는 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치(100)에서 증강현실 영상의 획득시 고려되는 결합 불가 조건을 설명하기 위한 도면이다.4 is a view for explaining a non-combination condition considered when acquiring an augmented reality image in the
도 4를 참조하면, 영상 관리부(230)는, 제2 증강현실 영상(63)의 획득을 위해 현실 영상(61)에 제2 사용자 아바타(62)와 제1 사용자 아바타(52)를 결합시키고자 할 때, 제1 사용자 아바타(52)와 관련하여 결합 불가 조건이 기 설정되어 있는 경우, 제1 사용자 아바타(52)와 관련하여 설정되어 있는 결합 불가 조건을 고려하여 제2 증강현실 영상(63)의 획득을 위한 결합을 수행할 수 있다.Referring to FIG. 4 , the
즉, 영상 관리부(230)는, 제1 사용자 아바타(52)와 관련하여 기 설정되어 있는 결합 불가 조건을 고려하여, 현실 영상(61)에 제2 사용자 아바타(62)와 제1 사용자 아바타(52)를 결합시킴으로써 제2 증강현실 영상(63)을 획득하여 제2 저장부(260)에 저장할 수 있다.That is, the
여기서, 결합 불가 조건은 제1 조건 및 제2 조건을 포함할 수 있다. 제1 조건은 현실 영상(61) 상에 오버랩하여 표시되는 제1 사용자 아바타(52)와 제2 사용자 아바타(62) 간에 적어도 일부의 중첩 영역(s)이 존재하는 경우, 전후방향에 대한 사용자 아바타의 위치와 관련하여 설정된 조건을 의미할 수 있다. 제2 조건은 현실 영상(61) 상에 오버랩하여 표시되는 제1 사용자 아바타(52)와 제2 사용자 아바타(62) 간에 적어도 일부의 중첩 영역(s)이 존재하는 경우, 중첩 영역(s)에 대응하는 사용자 아바타의 신체 부위와 관련하여 설정된 조건을 의미할 수 있다.Here, the non-binding condition may include a first condition and a second condition. The first condition is that when there is at least a partial overlapping area s between the
구체적으로, 제1 조건은, 현실 영상(61) 상에 오버랩하여 표시되는 제1 사용자 아바타(52)와 제2 사용자 아바타(62) 간에 적어도 일부의 중첩 영역(s)이 존재하는 경우, 제2 사용자 아바타(62)가 제1 사용자 아바타(52)보다 전방에 위치하는 조건을 의미할 수 있다.Specifically, the first condition is that when there is at least a partial overlapping area s between the
예시적으로, 제2 증강현실 영상(63)의 획득을 위해 촬영 버튼에 대한 제2 사용자의 입력이 이루어졌을 때(제2 사용자의 입력이 이루어진 시점에), 제2 사용자 단말(1')의 화면 상에 표출된 현실 영상(61) 상에 제1 사용자 아바타(52)와 제2 사용자 아바타(62)가 서로 간에 적어도 일부의 중첩 영역(s)을 가지도록 표시되어 있되, 제2 사용자 아바타(62)의 중첩된 영역이 제1 사용자 아바타(52)의 중첩된 영역보다 전방에 위치하도록 표시되어 있다고 하자(즉, 제1 사용자 아바타의 중첩된 영역이 제2 사용자 아바타의 중첩된 영역에 의해 가려져있다고 하자). 이때, 제1 사용자 아바타(52)에 제1 조건에 관한 결합 불가 조건이 기 설정되어 있는 경우, 영상 관리부(230)는 제2 사용자 아바타(62)의 중첩된 영역이 제1 사용자 아바타(52)의 중첩된 영역보다 전방에 위치하고 있음에 따라 제1 조건에 의해 결합이 불가하다고 판단(즉, 제1 조건에 관한 결합 불가 조건을 충족하고 있다고 판단)하여, 결과적으로 촬영 버튼에 대한 제2 사용자의 입력이 이루어진 경우, 제2 사용자의 입력에 응답하여 제2 증강현실 영상(63)의 획득이 이루어지지 않도록 할 수 있다(즉, 제2 증강현실 영상이 미획득되도록 할 수 있다).Exemplarily, when the second user's input to the capture button is made to obtain the second augmented reality image 63 (at the time when the second user's input is made), the second user terminal 1' On the
만약, 제2 사용자 아바타(62)의 중첩된 영역이 제1 사용자 아바타(52)의 중첩된 영역보다 후방에 위치하도록 표시되어 있다고 하자(즉, 제2 사용자 아바타의 중첩된 영역이 제1 사용자 아바타의 중첩된 영역에 의해 가려져있다고 하자). 이때, 제1 사용자 아바타(52)에 제1 조건에 관한 결합 불가 조건이 기 설정되어 있는 경우, 영상 관리부(230)는 제2 사용자 아바타(62)의 중첩된 영역이 제1 사용자 아바타(52)의 중첩된 영역보다 후방에 위치하고 있음에 따라 제1 조건에 관한 결합 불가 조건을 충족하고 있지 않다(미충족하고 있다)고 판단하여, 결과적으로 촬영 버튼에 대한 제2 사용자의 입력이 이루어진 경우, 제2 사용자의 입력에 응답하여 제2 증강현실 영상(63)을 획득하여 제2 저장부(260)에 저장할 수 있다.If it is assumed that the overlapping area of the
이에 따르면, 제1 사용자 아바타에 제1 조건에 관한 결합 불가 조건이 설정되어 있다라 함은, 타 사용자(일예로 제2 사용자)가 제1 사용자 자신의 아바타(제1 사용자 아바타)가 포함된 증강현실 영상을 획득 가능하도록 허용함에 있어서, 타 사용자의 아바타(일예로 제2 사용자 아바타)가 제1 사용자 아바타보다 앞에 위치하여 제1 사용자 아바타의 적어도 일부의 영역이 타 사용자의 아바타(제2 사용자 아바타)에 의해 가려진 경우에 한해서는 타 사용자가 제1 사용자 아바타가 포함된 증강현실 영상을 획득하지 못하도록 제한하는 설정을 의미할 수 있다.According to this, the fact that the first user avatar is set with the uncombinable condition related to the first condition means that another user (eg, the second user) is augmented with the first user's own avatar (the first user avatar). In allowing a real image to be acquired, the avatar of the other user (eg, the second user avatar) is positioned in front of the first user avatar so that at least a portion of the first user avatar is the avatar of the other user (the second user avatar). ) may mean a setting that restricts other users from acquiring the augmented reality image including the first user avatar.
타 사용자(일예로, 제2 사용자 등)가 제1 사용자 아바타가 포함된 증강현실 영상을 획득하고자 할 때, 제1 사용자가 자신의 아바타(제1 사용자 아바타)가 타 사용자의 아바타(일예로 제2 사용자 아바타 등)에 의해 가려지는 것 없이 제1 사용자 아바타의 형상(형태)이 온전히 증강현실 영상에서 맨 앞에 표시되길 희망하는 경우, 제1 사용자는 제1 사용자 아바타에 대하여 제1 조건에 관한 결합 불가 조건을 설정할 수 있다. 즉, 제1 사용자는 자신의 아바타(제1 사용자 아바타)를 포함한 증강현실 영상을 타 사용자들이 획득 가능하도록 함에 있어서, 타 사용자들이 획득하는 증강현실 영상 내에서 제1 사용자 아바타를 맨 앞에 보이고 싶어하는 경우에, 제1 사용자 아바타에 대하여 제1 조건에 관한 결합 불가 조건을 설정할 수 있다.When another user (eg, a second user, etc.) wants to acquire an augmented reality image including a first user avatar, the first user's avatar (the first user avatar) is the avatar of another user (eg, the first user avatar) 2 When it is desired that the shape (shape) of the first user avatar is completely displayed in the front of the augmented reality image without being obscured by the user avatar, etc.) You can set an impossible condition. That is, when the first user wants other users to obtain an augmented reality image including his/her avatar (the first user avatar), he/she wants to show the first user avatar in front of the augmented reality images acquired by other users. In this case, a non-combination condition related to the first condition may be set for the first user avatar.
한편, 제2 조건은, 현실 영상(61) 상에 오버랩하여 표시되는 제1 사용자 아바타(52)와 제2 사용자 아바타(62) 간에 적어도 일부의 중첩 영역(s)이 존재하되, 중첩 영역(s)의 크기가 미리 설정된 크기 이하의 크기를 가지며 제2 사용자 아바타(62)가 제1 사용자 아바타(52)보다 전방에 위치하는 경우, 중첩 영역(s)에 대응하는 제2 사용자 아바타(62)의 신체 부위가 기 설정된 신체 부위에 해당하는 조건을 의미할 수 있다.On the other hand, the second condition is that at least a partial overlapping area (s) exists between the
여기서, 기 설정된 신체 부위는 예시적으로 입술 부위, 손 부위 등일 수 있으나, 이에만 한정되는 것은 아니고, 이는 사용자 입력에 의해 설정될 수 있다.Here, the preset body part may be, for example, a lip part, a hand part, etc., but is not limited thereto, and may be set by a user input.
예시적으로, 제2 증강현실 영상(63)의 획득을 위해 촬영 버튼에 대한 제2 사용자의 입력이 이루어졌을 때(제2 사용자의 입력이 이루어진 시점에), 제2 사용자 단말(1')의 화면 상에 표출된 현실 영상(61) 상에 제1 사용자 아바타(52)와 제2 사용자 아바타(62)가 서로 간에 적어도 일부의 중첩 영역(s)을 가지도록 표시되어 있되, 중첩 영역(s)의 크기가 미리 설정된 크기 이하의 크기를 가지며, 제2 사용자 아바타(62)의 중첩된 영역이 제1 사용자 아바타(52)의 중첩된 영역보다 전방에 위치하도록 표시되어 있다고 하자(즉, 제1 사용자 아바타의 중첩된 영역이 제2 사용자 아바타의 중첩된 영역에 의해 가려져있다고 하자).Exemplarily, when the second user's input to the capture button is made to obtain the second augmented reality image 63 (at the time when the second user's input is made), the second user terminal 1' On the
이때, 영상 관리부(230)는 미리 설정된 크기 이하의 크기를 갖는 중첩 영역(s)에 대응하는 제2 사용자 아바타(62)의 신체 부위(즉, 제2 사용자 아바타의 중첩된 영역의 신체 부위)가 기 설정된 신체 부위에 해당하는지 판단할 수 있다. 이때, 영상 관리부(230)는 중첩 영역(s)에 대응하는 제2 사용자 아바타(62)의 신체 부위(즉, 제2 사용자 아바타의 중첩된 영역의 신체 부위)가 기 설정된 신체 부위로서 일예로 입술 부위에 해당하는 경우, 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상에 제1 사용자 아바타(52)와 제2 사용자 아바타(62)가 서로 간에 제1 사용자 아바타(52)에 대하여 기 설정된 제2 조건에 관한 결합 불가 조건을 충족하는 상태로 표시(위치, 배치)되어 있다고 판단할 수 있다.In this case, the
이처럼, 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상에 표시된 제1 사용자 아바타(52)와 제2 사용자 아바타(62) 간의 중첩 영역(s)의 형태가 제2 조건에 관한 결합 불가 조건을 충족하는 형태인 경우(즉, 제2 사용자 아바타에서 입술 부위에 해당하는 부분만이 제1 사용자 아바타와 중첩된 상태로 제1 사용자 아바타보다 전방에 위치하도록 표시된 형태인 경우), 영상 관리부(230)는 획득하고자 하는 제2 증강현실 영상(63)이 제2 조건에 관한 결합 불가 조건을 충족하고 있다고 판단하여, 결과적으로 촬영 버튼에 대한 제2 사용자의 입력이 이루어진 경우, 제2 사용자의 입력에 응답하여 제2 증강현실 영상(63)의 획득이 이루어지지 않도록 할 수 있다(즉, 제2 증강현실 영상이 미획득되도록 할 수 있다.As such, the shape of the overlapping region s between the
만약, 제2 사용자 아바타(62)와 제1 사용자 아바타(52) 간의 중첩된 중첩 영역(s)의 크기가 미리 설정된 크기를 초과하는 크기를 가지되, 제2 사용자 아바타(62)가 제1 사용자 아바타(52)보다 전방에 위치하는 경우 혹은 후방에 위치하는 경우, 영상 관리부(230)는 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상의 제1 사용자 아바타(52)와 제2 사용자 아바타(62)가 서로 간에, 제1 사용자 아바타(52)에 대하여 기 설정된 제2 조건에 관한 결합 불가 조건을 충족하고 있지 않다(미충족하고 있다)고 판단하여, 결과적으로 촬영 버튼에 대한 제2 사용자의 입력이 이루어진 경우, 제2 사용자의 입력에 응답하여 제2 증강현실 영상(63)을 획득하여 제2 저장부(260)에 저장할 수 있다.If the size of the overlapping area s between the
이에 따르면, 제1 사용자 아바타(52)에 제2 조건에 관한 결합 불가 조건이 설정되어 있다라 함은, 타 사용자(일예로 제2 사용자)가 제1 사용자 자신의 아바타(제1 사용자 아바타)가 포함된 증강현실 영상을 획득 가능하도록 허용함에 있어서, 타 사용자의 아바타(일예로 제2 사용자 아바타) 중 기 설정된 신체 부위(일예로 입술 부위, 손 부위)에 해당하는 영역만이 제1 사용자 아바타보다 앞에 위치하는 경우에 한해서는 타 사용자가 제1 사용자 아바타가 포함된 증강현실 영상을 획득하지 못하도록 제한하는 설정을 의미할 수 있다.According to this, when the
타 사용자(일예로, 제2 사용자 등)가 제1 사용자 아바타가 포함된 증강현실 영상을 획득하고자 할 때, 제1 사용자 아바타를 희롱하는 행위나 제스처를 이용한 도발 행위 등과 같은 불쾌감 유발 행위(즉, 제1 사용자 아바타와 관련해 불쾌감을 유발하는 행위)가 포함된 증강현실 영상의 획득이 이루어지지 않게 하고자 하는 경우, 제1 사용자는 제1 사용자 아바타에 대하여 제2 조건에 관한 결합 불가 조건을 설정할 수 있다. 즉, 제1 사용자는 자신의 아바타(제1 사용자 아바타)를 포함한 증강현실 영상을 타 사용자들이 획득 가능하도록 함에 있어서, 제1 사용자 아바타와 관련해 희롱이나 도발 등의 불쾌감 유발 행위 없이 건전한 상태의 제1 사용자 아바타가 포함된 증강현실 영상의 획득이 이루어질 수 있도록 희망하는 경우에, 제1 사용자 아바타에 대하여 제2 조건에 관한 결합 불가 조건을 설정할 수 있다.When another user (for example, a second user, etc.) tries to acquire an augmented reality image including the first user avatar, an act of harassing the first user avatar or a provocative act using a gesture (i.e., In the case of preventing the acquisition of an augmented reality image including an action that causes discomfort in relation to the first user avatar), the first user may set a non-combination condition related to the second condition with respect to the first user avatar. . That is, when the first user enables other users to acquire an augmented reality image including his/her avatar (the first user avatar), the first user is in a healthy state without any unpleasant behavior such as harassment or provocation in relation to the first user avatar. When it is desired to obtain an augmented reality image including the user avatar, a non-combination condition related to the second condition may be set for the first user avatar.
일예로, 아바타 관리부(210)는 제1 사용자에 대응하는 제1 사용자 아바타를 생성하여 제1 저장부(250)에 저장할 수 있으며, 이때 제1 사용자로부터 결합 불가 조건 관련 설정 정보를 입력받은 경우, 제1 사용자로부터 입력받은 결합 불가 조건 관련 설정 정보를 제1 사용자 아바타와 연계하여 제1 저장부(250)에 저장할 수 있다. 이러한 결합 불가 조건 관련 설정 정보에는 제1 조건의 충족 여부를 판단하는 제1 조건 설정 정보 및 제2 조건의 충족 여부를 판단하는 제2 조건 설정 정보가 포함될 수 있다.As an example, the
만약, 제1 사용자 아바타와 관련하여 결합 불가 조건 관련 설정 정보가 존재하지 않는 경우(즉, 제1 사용자 아바타와 관련하여 결합 불가 조건이 기 설정되어 있지 않은 경우)에는, 제1 사용자 아바타와 타 사용자의 아바타 간에 어떠한 제약 없이 두 사용자 아바타 간에 결합이 이루어질 수 있다.If, in relation to the first user avatar, there is no setting information related to the non-combination condition (that is, when the non-combination condition is not previously set in relation to the first user avatar), the first user avatar and the other users A combination can be made between two user avatars without any restrictions between the avatars of .
또한, 앞서 말한 바와 같이, 화면 제어부(220)는, 제2 사용자의 사용자 단말(제2 사용자 단말, 1')이 제1 사용자 단말(1)에 의해 획득되어 제2 저장부(260)에 저장된 제1 증강현실 영상(53)에 대응하는 촬영 대상 영역과 동일한 촬영 대상 영역(동일 촬영 대상 영역)의 촬영을 위한 촬영 모드인 것으로 감지되되, 촬영 대상 영역(동일 촬영 대상 영역)과 관련하여 기 저장된 사용자 아바타로서 제1 사용자 아바타(52)가 존재하는 경우, 제2 사용자의 사용자 단말(1')의 화면에 표출되는 현실 영상 상에 제2 사용자 아바타 및 제1 사용자 아바타를 오버랩하여 표시할 수 있다.In addition, as described above, the
이때, 화면 제어부(220)는, 제2 사용자 단말(1')의 화면에 표출되는 현실 영상 상에 제1 사용자 아바타의 표시시, 제1 사용자 아바타에 대하여 기 설정된 공개 범위 설정 정보를 기반으로 제1 사용자 아바타의 표시 여부를 결정할 수 있다.In this case, when the first user avatar is displayed on the real image displayed on the screen of the
여기서, 기 설정된 공개 범위 설정 정보는, 제1 사용자 이외의 타 사용자들의 단말에 대하여 제1 사용자 아바타의 표시를 허용하는 범위를 설정한 정보를 의미할 수 있다. 이러한 공개 범위 설정 정보에는 모두 공개, 친구 공개, 비공개를 포함한 3가지 유형의 설정 정보가 포함될 수 있다. 이러한 공개 범위 설정 정보는 사용자 입력에 의하여 설정될 수 있다. 일예로 제1 사용자 아바타에 대한 공개 범위 설정 정보는 제1 사용자 입력에 의하여 설정될 수 있다.Here, the preset disclosure range setting information may refer to information that sets a range allowing the display of the first user avatar to terminals of other users other than the first user. All of the public scope setting information may include three types of setting information including public, friend public, and private. Such public range setting information may be set by a user input. For example, the disclosure range setting information for the first user avatar may be set by a first user input.
예를 들면, 제2 사용자의 단말(1')이 동일 촬영 대상 영역의 촬영을 위한 촬영 모드인 것으로 감지되되, 동일 촬영 대상 영역과 관련하여 기 저장된 사용자 아바타로서 제1 사용자 아바타가 존재한다고 하자. 이때, 화면 제어부(220)는 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상에 제2 사용자 아바타(62)와 제1 사용자 아바타(52)를 표시하기 이전에, 제1 사용자 아바타(52)에 대한 공개 범위 설정 정보가 존재하는지 확인할 수 있다.For example, suppose that the second user's terminal 1' is detected to be in a shooting mode for shooting the same shooting target area, but a first user avatar exists as a pre-stored user avatar in relation to the same shooting target area. In this case, the
이때, 제1 사용자 아바타에 기 설정된 공개 범위 설정 정보로서 '비공개'인 정보가 존재하면, 화면 제어부(220)는 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상에 제2 사용자 아바타(62)만 표시할 수 있다.At this time, if 'private' information exists as preset disclosure range setting information in the first user avatar, the
다른 일예로, 제1 사용자 아바타에 기 설정된 공개 범위 설정 정보로서 '친구 공개'인 정보가 존재하면, 화면 제어부(220)는 제1 사용자 아바타(52)에 대응하는 사용자인 제1 사용자와 제2 사용자 아바타(62)에 대응하는 제2 사용자가 본 장치(100) 내에서 서로 간에 친구 맺음 상태인지 확인하고, 확인 결과 친구 맺음 상태가 맞으면 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상에 제2 사용자 아바타(62)와 제1 사용자 아바타(52)를 함께 표시할 수 있다. 반면, 확인 결과 친구 맺음 상태가 아니면, 화면 제어부(220)는 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상에 제2 사용자 아바타(62)만 표시하고, 제1 사용자 아바타(52)는 표시되지 않도록 할 수 있다.As another example, when the information 'friend public' exists as preset disclosure range setting information in the first user avatar, the
또 다른 일예로, 제1 사용자 아바타에 기 설정된 공개 범위 설정 정보로서 '모두 공개'인 정보가 존재하면, 화면 제어부(220)는 제1 사용자 아바타(52)에 대응하는 사용자인 제1 사용자와 제2 사용자 아바타(62)에 대응하는 제2 사용자가 본 장치(100) 내에서 서로 간에 친구 맺음 상태인지와 관계없이, 제2 사용자 단말(1')의 화면에 표출되는 현실 영상(61) 상에 제2 사용자 아바타(62)와 제1 사용자 아바타(52)를 모두 표시할 수 있다.As another example, if 'public all' information exists as preset disclosure range setting information in the first user avatar, the
일예로, 제1 사용자가 연예인이고, 제1 사용자 아바타(52)에 대하여 기 설정된 공개 범위 설정 정보를 '모두 공개'인 것으로 설정해 두고, 제2 사용자가 제1 사용자의 팬이라고 하자. 이러한 경우, 제2 사용자는 본 장치(100)를 통하여 증강현실 영상으로서 현실 영상(61) 상에 제1 사용자 아바타(52)와 제2 사용자 아바타(62)가 결합된 제2 증강현실 영상(63)을 획득하여 제2 저장부(260)에 저장할 수 있다. 이에 따르면, 증강현실 영상의 획득을 위해 사용자 단말의 화면에 표시되는 사용자 아바타들이 각각의 사용자들의 신체 특성 정보를 고려하여 생성된 3차원 아바타임에 따라, 제2 사용자는 촬영 대상 영역에서 실제로 제1 사용자를 만나 제1 사용자와 함께 사진을 찍지 않았음에도 불구하고, 본 장치(100)를 통해 제공되는 제2 증강현실 영상(63)으로 하여금 제2 사용자가 마치 촬영 대상 영역에서 제1 사용자와 함께 사진을 찍은 것과 같은 느낌을 받을 수 있도록 제공할 수 있다.As an example, it is assumed that the first user is a celebrity, preset public range setting information for the
한편, 아바타 관리부(210)는 정보 획득부(211)를 포함할 수 있다. 정보 획득부(211)는 제1 사용자의 사용자 단말(제1 사용자 단말, 1)이 촬영 모드인 것으로 감지된 경우, 촬영 모드인 것으로 감지된 시점인 촬영 모드 감지 시점에 대응하는 사용자(제1 사용자)의 생체 정보, 촬영 모드 감지 시점에 대응하는 날씨 예보 정보 및 사용자(제1 사용자)에 의하여 업로드된 업로드 정보를 분석하여 산출된 업로드 정보 분석 결과 정보 중 적어도 하나의 정보를 획득할 수 있다.Meanwhile, the
이때, 사용자(제1 사용자)의 생체 정보는 사용자의 혈압, 체온, 맥박, 호흡수, 심전도 신호 등이 포함될 수 있으나, 이에만 한정되는 것은 아니다. 사용자의 생체 정보는 일예로 사용자(제1 사용자)의 신체 일부에 착용 가능하고, 본 장치(100)와 네트워크(2)를 통해 유/무선으로 연결되는 웨어러블 디바이스로부터 획득될 수 있다. 이때, 웨어러블 디바이스는 사용자의 신체 일부로서 일예로 손목, 머리, 목 등에 착용 가능한 형태의 디바이스를 의미할 수 있다. 이러한 웨어러블 디바이스는 일예로 스마트 워치 등이 포함될 수 있으나, 이에 한정되는 것은 아니고, 사용자의 신체 일부에 착용 가능한 형태의 것이라면 어떠한 형태로든 적용 가능하다.In this case, the biometric information of the user (the first user) may include, but is not limited to, the user's blood pressure, body temperature, pulse, respiration rate, ECG signal, and the like. The user's biometric information may be, for example, wearable on a body part of the user (the first user), and may be obtained from a wearable device connected to the
날씨 예보 정보는, 본 장치(100)와 네트워크(2)를 통해 연결되는 일예로 기상청 서버(미도시)로부터 획득될 수 있다.The weather forecast information may be obtained from a server (not shown) of the Korea Meteorological Administration, for example, connected to the
정보 획득부(211)가 획득하는 업로드 정보 분석 결과는, 일예로 사용자(제1 사용자)가 SNS 관계망에 업로드한 적어도 하나의 업로드 정보를 분석함으로써 산출된 정보일 수 있다. 이때, 업로드 정보 분석 결과는 일예로 사용자(제1 사용자)의 감정 상태와 관련하여 분석된 정보(즉 감정 상태 관련 분석 정보)를 의미할 수 있으나, 이에 한정되는 것은 아니다. 여기서, 감정 상태라 함은, 기쁨 상태, 슬픈 상태, 우울한 상태 등이 포함될 수 있으나, 이에 한정되는 것은 아니다. The upload information analysis result obtained by the
또한, 업로드 정보 분석 결과는, 일예로 촬영 모드 감지 시점에 대응하는 날짜에 기 업로드된 업로드 정보를 분석함으로써 산출된 정보일 수 있으나, 이에 한정되는 것은 아니고, 사용자에 의해 미리 설정된 기간 내(예를 들어, 촬영 모드 감지 시점에 대응하는 날짜로부터 3일 이전에 해당하는 기간)에 기 업로드된 업로드 정보를 분석함으로써 산출된 정보일 수 있다.In addition, the upload information analysis result, for example, may be information calculated by analyzing previously uploaded upload information on a date corresponding to the detection time of the shooting mode, but is not limited thereto, and within a period preset by the user (eg, For example, it may be information calculated by analyzing previously uploaded upload information (a period corresponding to three days before the date corresponding to the detection time of the shooting mode).
이때, 업로드 정보 분석 결과의 산출시 고려되는 업로드 정보에는 블로그, 포스팅, 게시물 등과 관련하여 업로드된 각종 정보가 포함될 수 있으며, 블로그, 포스팅, 게시물 등과 관련된 게시글(내용)이 포함할 수 있다. 또한, 업로드 정보에는 사용자 단말(제1 사용자 단말) 내에 송수신된 메시지 정보가 포함될 수 있으며, 이에 한정되는 것은 아니다.In this case, the upload information considered when calculating the upload information analysis result may include various types of information uploaded in relation to blogs, postings, and posts, and may include postings (contents) related to blogs, postings, posts, and the like. In addition, the upload information may include message information transmitted and received in the user terminal (the first user terminal), but is not limited thereto.
아바타 관리부(210)는, 정보 획득부(211)에 의해 획득된 적어도 하나의 정보에 기초하여, 아바타 관리부(210)에 의해 생성된 사용자 아바타(즉, 신체 특성 정보를 고려하여 생성된 제1 사용자 아바타)의 상태 정보를 업데이트하고, 업데이트된 사용자 아바타(업데이트된 제1 사용자 아바타)를 생성하여 제1 저장부(250)에 저장할 수 있다. 이후, 화면 제어부(220)는, 제1 사용자 단말(1)이 촬영 모드인 것으로 감지된 경우, 업데이트된 사용자 아바타(업데이트된 제1 사용자 아바타)에 기초하여, 제1 사용자 단말(1)의 화면에 표출되는 현실 영상 상에 업데이트된 사용자 아바타(업데이트된 제1 사용자 아바타)를 표시할 수 있다.The
여기서, 사용자 아바타(제1 사용자 아바타)의 상태 정보는, 사용자 아바타의 얼굴 표정, 자세(동작), 멘트 및 착용 의류(사용자 아바타에 착용된 의류인 착용 의류) 중 적어도 하나를 포함할 수 있다.Here, the state information of the user avatar (the first user avatar) may include at least one of a facial expression, a posture (action), a comment, and wearable clothes (wearing clothes that are clothes worn on the user avatar) of the user avatar.
사용자 아바타(제1 사용자 아바타)의 상태 정보는, 정보 획득부(211)에 의해 획득된 적어도 하나의 정보에 기초하여 자동으로 The state information of the user avatar (the first user avatar) is automatically obtained based on at least one piece of information acquired by the
예시적으로, 아바타 관리부(210)는 제1 사용자의 신체 특성 정보를 고려하여 제1 사용자 아바타(이는 기본 제1 사용자 아바타라 지칭될 수 있음)를 생성할 수 있다. 이때, 정보 획득부(211)에서 획득된 적어도 하나의 정보를 분석한 결과, 예시적으로 촬영 모드 감지 시점에 대응하여 획득된 사용자의 생체 정보가 정상 수준의 범위에 속하는 것으로 판단되고, 날씨 예보 정보가 맑은 날씨에 해당하며, 촬영 모드 감지 시점에 대응하는 날짜에 기 업로드된 업로드 정보를 분석하였더니 업로드 정보 분석 결과가 기쁨 상태인 것으로 분석된 경우, 이들을 종합적으로 분석한 결과를 토대로 아바타 관리부(210)는 촬영 모드 감지 시점에 대응하여 예측된 사용자의 현재 상태로서 기쁨 상태인 것으로 판단할 수 있다.For example, the
즉, 아바타 관리부(210)는 촬영 모드인 것으로 감지된 시점에 대응하여 정보 획득부(211)가 획득한 적어도 하나의 정보에 기초하여(적어도 하나의 정보를 종합적으로 분석함으로써), 사용자(제1 사용자)의 현재 상태(촬영 모드 감지 시점에 대응하는 사용자의 현 상태)를 예측한 정보인 예측된 사용자의 현재 상태 정보를 판단할 수 있다. 이후, 아바타 관리부(210)는 예측된 사용자의 현재 상태가 기쁨 상태인 것으로 판단됨에 따라, 일예로 앞서 신체 특성 정보를 고려하여 생성된 제1 사용자 아바타(기본 제1 사용자 아바타)의 상태 정보로서 얼굴 표정을 업데이트 할 수 있다That is, the
일예로, 기본 제1 사용자 아바타의 얼굴 표정은 무표정일 수 있고, 업데이트된 제1 사용자 아바타의 얼굴 표정은 웃는 얼굴 표정일 수 있다. 아바타 관리부(210)는 업데이트된 제1 사용자 아바타를 생성하여 제1 저장부(250)에 저장할 수 있다. 혹은 아바타 관리부(210)는 제1 저장부(250)에 기 저장된 제1 사용자 아바타(기본 제1 사용자 아바타)를 업데이트된 제1 사용자 아바타로 변경할 수 있다. 뿐만 아니라, 아바타 관리부(210)가 업데이트된 제1 사용자 아바타를 생성하여 제1 저장부(250)에 저장하는 동시에, 화면 제어부(220)는 촬영 모드 감지에 응답하여 제1 사용자 단말(1)의 화면에 표출되는 현실 영상 상에 업데이트된 제1 사용자 아바타를 표시할 수 있다.For example, the basic facial expression of the first user avatar may be an expressionless expression, and the updated facial expression of the first user avatar may be a smiling facial expression. The
이때, 촬영 모드에서 촬영 버튼에 대한 제1 사용자의 입력이 이루어지면, 영상 관리부(230)는 증강현실 영상으로서, 현실 영상과 업데이트된 제1 사용자 아바타가 결합된 증간현실 영상을 획득하여 제2 저장부(260)에 저장할 수 있다.At this time, when the first user's input to the shooting button is made in the shooting mode, the
이처럼, 본 장치(100)는 촬영 모드 감지 시점에 대응하여 획득된 사용자의 생체 정보, 날씨 예보 정보, 업로드 정보 분석 결과 등의 분석을 토대로, 촬영 모드 감지 시점에 대응하는 사용자의 현재 상태를 예측(예측된 사용자의 현재 상태 정보를 판단)하고, 예측된 사용자의 현재 상태를 반영하여 앞서 신체 특성 정보를 고려하여 생성된 제1 사용자 아바타(기본 제1 사용자 아바타)의 상태 정보(얼굴 표정, 자세, 착용 의류, 멘트 등)을 업데이트하여 업데이트된 제1 사용자 아바타를 화면에 표시함으로써, 증강현실 영상의 획득시에, 사용자의 현재 상태의 반영이 이루어진 업데이트된 제1 사용자 아바타가 포함된 증강현실 영상의 획득이 이루어지도록 제공할 수 있다.As such, the
이러한 본 장치(100)는 사용자의 현재 상태(기분 등)이 반영된 아바타(업데이트된 제1 사용자 아바타)가 반영된 증강현실 영상의 획득을 통해, 보다 사용자가 현재 느끼는 감정이 반영된 증감현실 영상을 타 사용자와 공유 가능하도록 제공할 수 있다.This
즉, 본 장치(100)는 제1 사용자의 실제 모습이 아닌 그를 대신하여 표현되는 사용자 아바타(제1 사용자 아바타)가 획득되는 증강현실 영상 내에 포함되도록 하며(특히나, 사용자의 현재 느끼는 감정이 반영된 업데이트된 사용자 아바타가 증강현실 영상에 포함되도록 하며), 이렇게 획득된 증강현실 영상을 타인과 공유 가능하게 할 수 있다. 이러한 본 장치(100)는, 종래의 SNS가 갖는 문제들(일예로, 개인사생활의 노출 우려가 있고, 사진 형식, 짧은 영상에 국한된 일상 공유 방법을 사용하기 때문에 정보를 표현하는 데에 한계가 있으며, 과시욕이 있는 일부 사람들에게 있어서 그들의 욕구를 충분히 충족시켜주지 못하고, 시간이 지날수록 사용자들이 점점 흥미를 잃어가게 되는 문제 등)을 해소할 수 있다.That is, the
즉, 이러한 본 장치(100)는 업데이트된 제1 사용자 아바타가 포함된 증강현실 영상의 공유가 가능하도록 제공함으로써, 제1 사용자가 자신의 실제 모습을 노출시키지 않으면서(개인 사생활 노출을 줄이면서) 자신과 닮도록 생성된 제1 사용자 아바타의 노출을 통해 간접적으로 자신을 표현할 수 있으며, 이를 통해 제1 사용자 자신의 일상과 감정을 부담없이 적극적으로 타인과 공유 가능하게 할 수 있다.That is, the
또한, 화면 제어부(220)는, 사용자 단말(제1 사용자 단말)의 화면에 현실 영상(51)이 미리 설정된 시간(일예로 3초) 동안 표출되는 경우, 현실 영상(51)과 관련하여 SNS 관계망에 업로드된 업로드 정보를 분석하여, 현실 영상(51)과 관련해 현실 영상(51)의 주변에 위치한 장소의 방문을 추천하는 추천 방문 장소 관련 정보가 존재하는지 판단할 수 있다. 여기서, 업로드 정보로는, 앞서 말한 바와 같이 로그, 포스팅, 게시물 등과 관련하여 업로드된 각종 정보가 포함될 수 있으며, 블로그, 포스팅, 게시물 등과 관련된 게시글(내용)이 포함할 수 있다. 또한, 업로드 정보에는 사용자 단말(제1 사용자 단말) 내에 송수신된 메시지 정보가 포함될 수 있으며, 이에 한정되는 것은 아니다.In addition, the
이때, 판단 결과 존재하면(즉, 현실 영상(51)의 주변에 위치한 장소의 방문을 추천하는 추천 방문 장소 관련 정보가 존재하면), 화면 제어부(220)는 추천 방문 장소 관련 정보를 포함하는 관리자 아바타를 생성하여 현실 영상(51) 상에 표시할 수 있다. 즉, 화면 제어부(220)는 현실 영상(51) 상에 제1 사용자 아바타를 표시할 수 있는데, 이때 현실 영상(51)과 관련하여 추천 방문 장소 관련 정보가 존재하는 것으로 판단되면, 현실 영상(51) 상에 제1 사용자 아바타를 표시하는 것 외에 추가적으로 관리자 아바타를 더 표시할 수 있다.In this case, if there is as a result of the determination (that is, if there is information related to a recommended place to visit that recommends visiting a place located in the vicinity of the real image 51), the
이때, 화면 제어부(220)는, 제1 사용자 단말(1)의 화면에 표출되는 현실 영상(51) 상에 표시된 관리자 아바타에 대한 사용자 입력(제1 사용자의 입력)이 이루어진 경우, 사용자 단말(1)의 화면 일영역에 관리자 아바타에 포함된 추천 방문 장소 관련 정보를 일예로 팝업 형태로 표시할 수 있다.At this time, the
여기서, 화면 제어부(220)는, 추천 방문 장소 관련 정보 내에 복수개의 장소 항목이 포함된 경우, 팝업 형태로 표시되는 추천 방문 장소 관련 정보 내 복수개의 장소 항목의 표시 순위를, 복수의 사용자 단말(1, 1’, …)에 의해 이루어지는 복수개의 장소 항목에 대한 사용자 동작 정보의 수준(레벨)을 고려하여 갱신할 수 있다. 이하에서, 수준은 레벨 등으로 달리 표현될 수 있다.Here, when a plurality of place items are included in the recommended visit place related information, the
일예로, 추천 방문 장소 관련 정보 내에 4개의 장소의 추천을 위한 정보가 포함되어 있는 경우, 복수개의 장소 항목은 4개의 장소 중 제1 장소의 방문을 추천하는 제1 장소 항목, 제2 장소의 방문을 추천하는 제2 장소 항목, 제3 장소의 방문을 추천하는 제3 장소 항목 및 제4 장소의 방문을 추천하는 제4 장소 항목이 포함될 수 있다.For example, when information for recommending four places is included in the recommended visiting place-related information, the plurality of place items includes a first place item recommending visiting a first place among the four places, and a visit of a second place. A second place item recommending , a third place item recommending visiting a third place, and a fourth place item recommending visiting a fourth place may be included.
또한, 추천 방문 장소 관련 정보 내 포함되는 복수개의 장소 항목에는, 일예로 유명 관광지의 장소, 유명 관광지의 관광 코스 정보, 도심 내 방문할 만한 랜드마크(예를 들어, 박물관, 미술관 등) 장소, 맛집 장소 등과 같이 다양한 유형의 장소(혹은 코스)에 관한 정보가 포함될 수 있다.In addition, a plurality of place items included in the recommended place-related information include, for example, places of famous tourist destinations, tourist course information of famous tourist destinations, landmarks (eg, museums, art galleries, etc.) places to visit in the city, places to eat, and restaurants. Information about various types of places (or courses), such as places, may be included.
또한, 장소 항목에는 해당 장소에 관한 정보로서, 명칭, 주소, 경로 안내 정보, 위치가 표시된 지도 정보, 이용 요금 정보, 이용 시간 정보 등이 포함될 수 있으며, 이에 한정되는 것은 아니다. In addition, the place item is information about the corresponding place, and may include, but is not limited to, name, address, route guide information, map information showing a location, usage fee information, usage time information, and the like.
복수개의 장소 항목의 표시 순위의 갱신시 고려되는 사용자 동작 정보의 수준(레벨)은, 제1 수준, 제2 수준 및 제3 수준을 포함한 복수의 수준으로 구분될 수 있다. 이때, 이하 사용자 동작 정보의 수준을 설명함에 있어서, 사용자 단말은 복수의 사용자 단말(1, 1’, …) 중 어느 하나의 사용자 단말을 의미할 수 있다.Levels (levels) of user motion information considered when updating the display order of a plurality of place items may be divided into a plurality of levels including a first level, a second level, and a third level. In this case, in describing the level of user motion information below, the user terminal may refer to any one user terminal among the plurality of
제1 수준에 대응하는 사용자 동작 정보는, 사용자 단말로부터 복수개의 장소 항목 중 적어도 하나의 장소 항목을 선택하는 선택 입력 동작을 수행하는 사용자 동작에 관한 정보를 의미할 수 있다. 제2 수준에 대응하는 사용자 동작 정보는, 사용자 단말에 의해 선택된 적어도 하나의 장소 항목(즉, 선택 입력 동작이 이루어진 적어도 하나의 장소 항목) 중 어느 하나의 장소 항목과 관련하여, 어느 하나의 장소 항목에 대응하는 장소까지의 길 안내를 요청하는 길 안내 요청 입력 동작을 수행하는 사용자 동작에 관한 정보를 의미할 수 있다. 제3 수준에 대응하는 사용자 동작 정보는, 길 안내 요청 입력 동작에 응답하여 생성된 어느 하나의 장소 항목에 대응하는 장소까지의 길 안내 정보를 기반으로, 사용자가 어느 하나의 장소 항목에 대응하는 장소를 실제 방문함에 따라 어느 하나의 장소 항목에 대응하는 장소와 관련된 이미지를 획득하는 장소 이미지 획득 동작을 수행하는 사용자 동작에 관한 정보를 의미할 수 있다.The user action information corresponding to the first level may mean information about a user action of performing a selection input operation of selecting at least one place item from among a plurality of place items from the user terminal. The user action information corresponding to the second level may include any one place item in relation to any one place item among at least one place item selected by the user terminal (ie, at least one place item to which a selection input operation was made). It may mean information about a user action of performing a route guidance request input operation for requesting route guidance to a place corresponding to . The user motion information corresponding to the third level is a place where the user corresponds to any one place item, based on the route guidance information to a place corresponding to any one place item generated in response to a way guidance request input operation. It may mean information about a user operation of performing a place image acquisition operation of acquiring an image related to a place corresponding to any one place item as the user actually visits .
화면 제어부(220)는 복수개의 장소 항목에 대하여 이루어진 사용자 동작 정보의 수준에 따라 각기 다른 점수를 부여할 수 있으며, 부여된 점수를 기반으로 팝업 형태로 표시되는 추천 방문 장소 관련 정보 내 복수개의 장소 항목의 표시 순위(랭킹)를 갱신할 수 있다.The
일예로, 화면 제어부(220)는 제1 수준에 대응하는 사용자 동작 정보가 이루어진 장소 항목에는 제1 점수를 부여하고, 제2 수준에 대응하는 사용자 동작 정보가 이루어진 장소 항목에는 제2 점수를 부여하며, 제3 수준에 대응하는 사용자 동작 정보가 이루어진 장소 항목에는 제3 점수를 부여할 수 있다. 이때, 제2 점수는 제1 점수보다 높게 설정되고, 제3 점수는 제2 점수보다 높게 설정될 수 있다. For example, the
이때, 화면 제어부(220)는 제3 점수의 부여시, 장소 이미지 획득 동작을 기반으로 획득된 장소와 관련된 이미지의 위치 정보(제1 위치)와 길 안내 요청 입력 동작이 이루어진 장소와 관련된 위치 정보(제2 위치)를 비교하고, 비교 결과 제1 위치가 제2 위치로부터 기 설정된 반경 이내에 속하는 것으로 판단(검증)되면, 사용자가 길 안내 요청 입력 동작이 이루어진 장소에 실제로 방문한 것으로 판단하여 제3 점수를 부여할 수 있다. 만약, 비교 결과 제1 위치가 제2 위치로부터 기 설정된 반경 이내에 속하지 않으면, 사용자가 길 안내 요청 입력 동작이 이루어진 장소에 실제로 방문하지 않은 것으로 판단하여 제3 점수를 부여하지 않을 수 있다.At this time, when the third score is given, the
예를 들면, 제1 사용자 단말(1)의 화면에 표시된 관리자 아바타에 대한 제1 사용자의 입력이 이루어진 경우, 제1 사용자 단말(1)의 화면의 일영역에는 복수의 장소 항목으로서 4개의 장소 항목을 포함한 추천 방문 장소 관련 정보를 팝업 형태로 표시할 수 있다.For example, when the first user inputs to the manager avatar displayed on the screen of the
이때, 4개의 장소 항목 중 제1 장소 항목에 대하여, 과거에 복수의 사용자 중 제3 사용자와 제4 사용자가 제1 장소 항목을 선택한 선택 입력 동작을 수행한 적 있다고 하자. 이러한 경우, 제3 사용자의 사용자 단말(제3 사용자 단말)에 의해 이루어진 제1 장소 항목에 대한 사용자 동작 정보의 수준이 제1 수준임에 따라, 제1 장소 항목에는 제3 사용자 단말에 의해 제1 점수가 부여될 수 있다. 마찬가지로, 제4 사용자의 사용자 단말(제4 사용자 단말)에 의해 이루어진 제1 장소 항목에 대한 사용자 동작 정보의 수준이 제1 수준임에 따라, 제1 장소 항목에는 제4 사용자 단말에 의해 제1 점수가 부여될 수 있다.In this case, it is assumed that, with respect to the first place item among the four place items, a selection input operation of selecting the first place item by a third user and a fourth user among a plurality of users has been performed in the past. In this case, as the level of user action information for the first place item made by the user terminal (third user terminal) of the third user is the first level, the first place item has a first score by the third user terminal can be given. Similarly, as the level of user action information for the first place item made by the user terminal of the fourth user (the fourth user terminal) is the first level, the first place item has a first score by the fourth user terminal can be given
만약, 제1 장소 항목에 대하여, 과거에 제3 사용자가 제1 장소 항목을 선택한 선택 입력 동작을 수행한 이후에, 제1 장소 항목에 해당하는 장소까지의 길 안내를 요청하는 길 안내 요청 입력 동작을 수행한 적 있다고 하자. 이러한 경우, 제3 사용자 단말에 의해 이루어진 제1 장소 항목에 대한 사용자 동작 정보의 수준이 제2 수준임에 따라, 제1 장소 항목에는 제3 사용자 단말에 의해 제1 점수보다 높은 제2 점수가 부여될 수 있다.If, with respect to the first place item, after the third user performs a selection input operation of selecting the first place item in the past, a navigation request input operation for requesting directions to a place corresponding to the first place item Let's say you've done In this case, as the level of user action information for the first place item made by the third user terminal is the second level, the first place item will be given a second score higher than the first score by the third user terminal. can
또한, 일예로 제3 사용자가 제1 장소 항목에 해당하는 장소(즉 제1 장소)까지의 길 안내를 요청하는 길 안내 요청 입력 동작을 수행한 이후, 길 안내 요청 입력 동작에 응답하여 제공되는 제1 장소까지의 길 안내 정보를 기반으로 실제로 제1 장소에 방문하였다고 하자. 이후, 제3 사용자가 실제 방문한 제1 장소를 기념하기 위하여, 제1 장소와 관련된 이미지를 제3 사용자 단말의 이미지 센서를 통해 획득하였다고 하자(즉, 제3 사용자가 제1 장소와 관련된 이미지를 획득하는 장소 이미지 획득 동작을 수행하였다고 하자). 이러한 경우, 제3 사용자 단말에 의해 이루어진 제1 장소 항목에 대한 사용자 동작 정보의 수준이 제3 수준임에 따라, 제1 장소 항목에는 제3 사용자 단말에 의해 제2 점수보다 높은 제3 점수가 부여될 수 있다.In addition, as an example, after the third user performs a route guidance request input operation for requesting route guidance to a place (ie, the first place) corresponding to the first place item, the third user provided in response to the route guidance request input operation Assume that you have actually visited the first place based on the route guidance information to the first place. Thereafter, in order to commemorate the first place that the third user actually visited, it is assumed that the image related to the first place is acquired through the image sensor of the third user terminal (that is, the third user acquires the image related to the first place) Let's say we have performed a place image acquisition operation). In this case, as the level of user action information for the first place item made by the third user terminal is the third level, the first place item will be given a third score higher than the second score by the third user terminal. can
이처럼, 화면 제어부(220)는, 복수개의 장소 항목에 대하여, 복수의 사용자(혹은 복수의 사용자 단말)에 의해 이루어진 복수 사용자들에 의한 사용자 동작 정보의 수준을 고려하여 그에 따라 점수를 부여하고, 부여된 점수를 기반으로 하여 복수개의 장소 항목의 순위(랭킹)를 갱신할 수 있다. 이후, 화면 제어부(220)는, 갱신된 순위(랭킹)가 반영된 복수개의 장소 항목이 포함된 추천 방문 장소 관련 정보를 팝업 형태로 사용자 단말(제1 사용자 단말)의 화면에 표시할 수 있다.As such, the
즉, 화면 제어부(220)는 복수의 사용자들에 의한 사용자 동작 정보의 수준을 고려하여 추천 방문 장소 관련 정보 내 복수개의 장소 항목의 표시 순위를 갱신할 수 있다.That is, the
이러한 본 장치(100)는, 특정 장소(특정 장소 목록)에 대한 사용자의 관심이 실제 행동으로 옮겨지기까지의 온라인 상의 행동과 오프라인 상의 행동이 모두 고려된 사용자의 일련의 행동(사용자 동작 정보)을 복수의 수준(레벨)으로 구분하고, 각 동작 수준별로 각기 다른 가중치를 부여하여 복수의 추천 방문 장소에 대한 랭크 갱신을 수행함으로써, 추천 장소 랭크의 신뢰성을 확보하면서 해당 추천 방문 장소의 방문 가치에 대한 신뢰성을 부여할 수 있다.This
즉, 본 장치(100)는, 팝업 형태로 제공된 복수개의 장소 항목과 관련하여, 복수개의 장소 항목 중 선택 입력 동작이 이루어진 장소 항목에는 제1 점수를 부여(부가)하고, 선택 입력 동작이 이루어진 장소 항목 중 특정 장소 항목에 대응하는 장소에 방문하고자 길 안내를 요청하는 사용자의 동작 행동인 길 안내 요청 입력 동작이 이루어진 장소 항목에는 제1 점수보다 높은 제2 점수를 부여하며, 길 안내를 요청받은 장소 항목 중 사용자가 길 안내 요청 장소 항목에 대응하는 장소에 실제 방문을 수행하고 나아가 사용자 단말을 통해 길 안내 요청 장소 항목에 대응하는 장소에서의 이미지 획득까지 수행하는 사용자의 동작 행동인 장소 이미지 획득 동작이 이루어진 장소 항목에는 제2 점수보다 높은 제3 점수를 부여함으로써, 복수개의 장소 항목의 순위(표시 순위, 랭크)를 사용자 동작 정보의 수준을 고려해 갱신할 수 있다.That is, in relation to a plurality of place items provided in a pop-up form, the
이러한 본 장치(100)는, 촬영 대상 영역(혹은 현실 영상)의 주변에 위치한 특정 장소의 방문을 추천하기 위한, 복수개의 장소 항목을 포함한 추천 방문 장소 관련 정보를 제공함에 있어서, 복수개의 장소 항목 중 보다 선호되는 장소 항목이 우선적으로 표출되거나 추천되도록 함에 있어서, 특정 장소 항목에 대한 사용자의 관심에 따른 동작(행동)으로서, 온라인 상에서 보이는 관심 동작에서부터 실제 오프라인 상에서 보이는 관심 동작으로 옮겨지기까지의 일련의 동작(즉, 장소 항목을 선택하는 제1 동작 → 선택한 장소 항목에 대한 길 안내를 요청하는 제2 동작 → 길 안내 요청이 이루어진 장소 항목에 대한 장소를 실제 방문함과 더불어 토대로 해당 장소의 이미지까지를 획득하는 제3 동작)을 동작 단계(레벨, 수준)별로 구분하여 각 동작 수준에 따라 각기 다른 가중치를 부여함(특히, 동작 레벨이 높아질수록 더 높은 점수의 가중치를 부여함)으로써, 사용자 동작 정보별로 서로 각기 다른 가중치의 부여를 통해 추천되는 복수개의 장소 항목에 대한 랭크 갱신이 이루어지도록 할 수 있습니다.The
이러한 본 장치(100)는, 사용자 동작 정보의 수준에 따라 부여되는 점수의 가중치를 달리함으로써, 복수개의 장소 항목에 대한 순위(랭크) 조작을 방지하고 순위 산정의 신뢰성을 확보할 수 있다. 또한, 본 장치(100)는 해당 장소 항목에 대응하는 장소의 방문 가치에 대한 신뢰성을 부여하고, 이를 통해 방문객을 유치할 수 있어 해당 지역(장소)의 홍보와 활성화를 적극 유도할 수 있다. 또한, 본 장치(100)는 복수개의 장소 항목 중 선택된 길 안내 요청 장소 항목에 대한 길 안내 정보를 제공함에 따라, 해당 장소의 주소나 명칭을 입력하지 않고도 장소 항목의 선택에 기반한 길 안내 요청을 토대로 해당 장소 항목에 해당하는 장소까지의 경로 안내가 가능하여, 온라인 상에서 활동하는 사용자를 오프라인 상의 실제 장소로 찾아오는 방문객으로 유도할 수 있다.The
이러한 본 장치(100)는 사람들에게 있어서 타인에게 보여줄 수 있는 또 다른 공간을 제공하고, 증강현실(AR)을 이용하여 현실에서 구현하기 힘들거나 한계가 있는 부분을 가상에서 구현 가능하도록 제공할 수 있다. 또한, 본 장치(100)는 기존의 가볍게 쓸 수 있는 SNS의 요소를 포함할 수 있다.This
종래의 공지된 SNS 는 사진 형식, 짧은 영상에 국한된 일상 공유 방법을 사용 중이다. 이는 정보를 표현하는 데에 한계가 있고, 개인정보 노출 등의 위험 등이 따르는 문제가 있다.The conventionally known SNS uses a daily sharing method limited to a photo format and a short video. This has limitations in expressing information, and there is a problem with risks such as exposure of personal information.
이에 반해, 본 장치(100)는 과거에 아바타 꾸미기 등의 유행했던 방법들을 최근 사용되기 시작한 AR기능에 도입시켜 좀더 세분화되고 새로운 방식의 SNS 제공 기술에 대하여 제안한다. 본 장치(100)는, 본 장치(100)를 통해 제공되는 어플을 사용하는 사용자들에게 있어서, 사용자 본인이 간 장소에 대한 영상 확득시 본인의 아바타(사용자 아바타)를 화면 상에 표출시켜 본인의 아바타가 포함된 증강현실 영상(사진, 동영상 등)을 획득할 수 있도록 할 수 있다. 또한, 본 장치(100)는 사용자가 특정 장소에 방문하여 해당 방문 장소에 대한 증강현실 영상을 획득하였을 때, 증강현실 영상의 획득이 이루어진 해당 장소에 사용자 아바타가 남겨지도록 하는 기록 방식을 채택한다.On the other hand, the
이러한 본 장치(100)는, 사용자들에게 개인정보 노출의 두려움을 줄이면서 더욱 적극적인 일상 공유가 가능해지도록 제공할 수(도울 수) 있다. 또한, 본 장치(100)는, 종래의 SNS 대비 생성되는 사용자 아바타로 하여금 더욱 다양한 자기 개성 표출이 가능하다.This
본 장치(100)는 현재 존재하지 않는 새로운 방식의 SNS 서비스 제공 기술을 제공할 수 있다. 본 장치(100)는 SNS의 본질적 이유인 과시욕을 좀더 본격적으로 채워줄 수 있는 효과를 제공할 수 있다. 또한, 본 장치(100)는 더욱 즐거운 방식으로 사용자가 추억을 보관할 수 있도록 도울 수 있다.The
또한, 본 장치(100)에 의한 SNS 서비스 제공 기술은 사용자가 방문한 장소에서 증강현실 영상 획득이 이루어진 경우, 증강현실 영상의 획득이 이루어진 해당 장소에 사용자 아바타가 남겨지도록 하는 개념임에 따라, 이는 예상치 못한 돌발 상황(일예로, 희롱, 제스처를 사용한 도발 등)으로 인해 좀 더 민감해진 다툼상황이 발생할 가능성의 문제가 있을 수 있다. 이에, 본 장치(100)는, 사용자 아바타에 대하여 기 설정된 결합 불가 조건을 고려하여 사용자 아바타와 현실 영상 간의 결합 수행 및/또는 사용자 아바타가 포함된 증강현실 영상의 획득 여부의 결정을 수행함으로써, 상술한 돌발 상황으로 인한 다툼 상황의 발생 가능성을 해소할 수 있다.In addition, since the SNS service providing technology by the
페이스북 등과 같은 종래의 SNS 기술은, 다양한 기능을 제공하나 각종 광고와 개인사생활 문제에 있어 끊임없이 문제를 일으키고 있다. 또한, 종래의 SNS 기술은 표현 방법에 있어서 영상, 사진이라는 명확한 한계가 존재하여 간혹 일부 사람들의 더 많은 욕구를 충족시켜주지 못하는 경우가 존재한다.Conventional SNS technology, such as Facebook, provides various functions, but constantly causes problems in various advertisements and personal privacy issues. In addition, there are cases in which the conventional SNS technology cannot satisfy more needs of some people because there are clear limitations such as images and photos in expression methods.
이에 본 장치(100)는 증강현실로 가상의 현실을 제공한다는 개념을 기초로 하는 어플로서 사용자에게 제공될 수 있다. Accordingly, the
본 장치(100)는, 일예로 개인 프로필 관리 설정 기능, 개인 타임라인 기능, 사진 및 동영상 업로드 기능, 친구에 대한 팔로우/팔로잉 기능, 사용자 아바타 관리 기능, 사용자 아바타의 장식 아이템(일예로 의류, 액세서리 등)에 대한 판매/거래/제작 기능, AR 사진(즉, 증강현실 영상) 획득 기능, 아바타로 원거리 친구와 사진찍기 기능(일예로, 제2 사용자가 제2 사용자 아바타 외에 타 사용자인 제1 사용자 아바타가 함께 포함된 증강현실 영상을 획득하는 기능), 타 사용자와의 소통 기능(커뮤니케이션 기능, 댓글 기능, 공감 기능), 업로드하는 주제에 맞춘 랜덤 친구 추천 기능 등을 제공할 수 있으며, 이에 한정되는 것은 아니고, 다양한 기능이 포함될 수 있다.The
본 장치(100)는 AR을 사용한 SNS 어플리케이션을 제공할 수 있다. 본 장치(100)는 SNS 어플리케이션에 AR을 적용하여 사용자가 사용자 단말을 이용하여 촬영한 사진에 사용자가 설정한 아바타를 포함하여 촬영 가능하도록 제공할 수 있다.The
또한, 본 장치(100)는 GPS 등 사용자 위치에 기반하여 사용자가 방문한 장소에 방문 기록을 남겨서, 다른 사용자가 방문하였을 때 사용자의 아바타를 다른 사용자의 단말에 표시되도록 제공할 수 있다. 또한, 본 장치(100)는 사용자의 아바타를 이용하여 원거리에 있는 다른 사용자와 사진을 찍을 수 있도록 제공할 수 있다. 또한, 본 장치(100)는 개인 프로필 관리, 타임라인, 사진 및 동영상 업로드, 아바타 관리 및 꾸미는 기능 및 소통기능을 제공할 수 있다.In addition, the
또한, 본 장치(100)는, 사진, 동영상 촬영 시 영상 내 사물, 환경 등 객체를 인식하고 인식된 사물, 환경 등의 객체와 사용자의 아바타(사용자 아바타)가 상호작용할 수 있도록 제공할 수 있다. 즉, 본 장치(100)는 인식된 객체에 따라 사용자 아바타의 자세, 표정 등을 변경할 수 있다.In addition, the
또한, 본 장치(100)는, 사용자의 생체신호, SNS 블로그 등 포스팅 내용, 날씨, 사용자 단말 내 메시지 등과 연계하여 화면에 표시되는 사용자 아바타의 동작(자세), 표정, 멘트 등을 다양하게 변경할 수 있으며, 사진, 동영상 등의 촬영시 촬영이 이루어지는 장소(방문 장소)에 해당하는 위치에 사용자 아바타가 남겨 기록(제2 저장부에 증강현실 영상의 저장시 사용자 아바타를 함께 연계햐여 저장함으로써, 사용자 아바타의 위치를 기록할 수 있음)할 수 있다.In addition, the
또한, 본 장치(100)는 아바타를 포함한 영상으로 하여금, 일예로 아바타를 사용한 영상통화, 아바타를 활용한 게임 등을 가능케 할 수 있다.Also, the
또한, 본 장치(100)는 사용자 아바타의 생성시 사용자의 선택/설정으로 생성할 수 있다. 뿐만 아니라, 본 장치(100)는 사용자 아바타의 생성시 일예로 사용자의 사진(혹은 동영상)을 수신하면, 수신된 사진에 대한 이미지 분석을 통해 수신된 사진 내 사용자의 특징(표정이나 피부톤, 얼굴형 등)을 추출할 수 있다. 이후, 본 장치(100)는 추출된 사용자의 특징과 일예로 사용자로부터 기 입력받은 사용자의 취미, 나이, 성별 등에 관한 정보를 함께 고려하여 사용자의 신체 특성 정보를 획득할 수 있으며, 획득된 신체 특성 정보가 반영된 사용자 아바타를 생성할 수 있다.In addition, the
또한, 본 장치(100)는, 사용자 아바타 외의 관리자 아바타를 생성하여 표시할 수 있다. 본 장치(100)는 관리자 아바타를 이용하여 유명 관광지 관광 코스, 도심 내 방문할 만한 랜드마크(박물관, 미술관 등)에 관한 정보를 제공할 수 있으며, 뿐만 아니라 추천 방문 장소에 관한 정보와 관련하여 사용자가 확인할 수 있는 추천 경로를 생성하여 제공할 수 있다.Also, the
또한, 본 장치(100)는, 홍보를 제공하고자 하는 상품(제품)이나 서비스 공급자의 아바타를 활용하여 자신의 매장 인근 위치에 아바타를 위치시켜 기록할 수 있으며, 기록된 해당 아바타를 통하여 매장 접근 정보, 상품 및 서비스 정보 등을 제공하는 기능을 제공할 수 있다.In addition, the
한편, 본 장치(100)에서 아바타 관리부(210)는, 사용자(제1 사용자)에 대응하는 사용자 아바타(제1 사용자 아바타)를 생성함에 있어서, 제1 사용자 아바타에 적용되는 의류 추천 정보를 생성하고, 생성된 의류 추천 정보에 해당하는 의류의 착용이 이루어진 제1 사용자 아바타를 생성하여 제1 저장부(250)에 저장할 수 있다. 아바타 관리부(210)는, 사용자 단말(1)이 증강현실 영상의 획득을 위해 촬영 모드인 것으로 감지되면, 촬영 모드 감지에 응답하여 생성된 의류 추천 정보에 해당하는 의류의 착용이 이루어진 제1 사용자 아바타를 생성하고, 생성된 제1 사용자 아바타가 현실 영사 상에 표시되도록 화면 제어부(220)로 제공할 수 있다. 이에 대한 보다 구체적인 설명은 도 5를 참조하여 보다 쉽게 이해될 수 있다.Meanwhile, in the
도 5는 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치(100)에서 아바타 관리부(210)의 구성을 개략적으로 나타낸 도면이다.5 is a diagram schematically showing the configuration of the
도 5를 참조하면, 아바타 관리부(210)는 감지부(110), 생성부(120), 관리 제어부(130), 위치 판단부(140), 소유 의류 관리부(150), 일정 판단부(160), 이력 저장부(170) 및 소유 의류 저장부(180)를 포함할 수 있다.Referring to FIG. 5 , the
감지부(110)는, 사용자 단말(1)이 촬영 대상 영역에 대응하는 증강현실 영상을 획득하기 위한 촬영 모드(촬영 모드 상태)의 감지가 이루어진 시점을 감지할 수 있다. 즉, 감지부(110)는 촬영 모드 감지 시점을 감지, 식별, 인식할 수 있다.The
생성부(120)는 감지부(110)에 의해 감지된 촬영 모드 감지 시점에 응답하여, 이력 저장부(170)에 기 저장된 복수의 착용 의류 이력 데이터의 분석을 통해 획득된 사용자 체감 특성 정보와 촬영 모드 감지 시점에 대응하는 날씨 예보 정보를 고려 하여, 촬영 모드 감지 시점에 대응하는 의류 추천 정보를 생성할 수 있다. The generating
여기서, 이력 저장부(170)에 저장된 착용 의류 이력 데이터는, 후술하는 입력 요청 메시지(체감 온도 정보의 입력을 위한 입력 요청 메시지)에 대한 사용자 입력(이는 후술하는 설명에서, 설명의 편의상 제1 질의 관련 사용자 입력이라 지칭하기로 한다)이 이루어진 경우에, 체감 온도 정보의 입력 값이 사용자 주변 환경의 온도 측정 값, 입력 시점 날씨 예보 정보 및 착용 의류의 속성 정보 중 적어도 하나와 서로 연계되어 한 세트로 구성되어 저장되는 데이터를 의미할 수 있다. 이에 대한 보다 자세한 설명은 후술하여 설명하기로 한다.Here, the worn clothing history data stored in the
도면에 도시하지는 않았으나, 아바타 관리부(210)는 분석부(미도시)를 포함할 수 있다. 분석부(미도시)는 이력 저장부(170)에 기 저장된 복수의 착용 의류 이력 데이터를 분석하여 사용자 체감 특성 정보를 제공할 수 있다.Although not shown in the drawing, the
이때, 사용자 체감 특성 정보는, 사용자 주변 환경의 온도 측정 값, 입력 시점 날씨 예보 정보 및 착용 의류의 속성 정보 중 적어도 하나와 체감 온도 정보의 입력 값 간의 상관 관계 정보(상관성, 관련성)를 분석한 정보를 의미할 수 있다. 여기서, 체감 온도 정보는 사용자가 상대적으로 체감하는(느끼는) 더움 정도 및/또는 추움 정도에 관한 정보를 의미할 수 있다. 따라서, 사용자 체감 특성 정보라 함은 주변 환경의 온도 측정 값, 날씨 예보 정보 및 착용 의류의 속성 정보 중 적어도 하나와 사용자에 의해 입력받은 체감 온도 정보의 입력 값 간의 상관 관계를 분석한 정보(상관 관계 정보)를 의미할 수 있다. 즉, 사용자 체감 특성 정보는 사용자의 체감 온도 정보와 관련된 상관 관계 정보를 의미할 수 있다. In this case, the user's sensible characteristic information is information obtained by analyzing correlation information (correlation, relevance) between at least one of a temperature measurement value of the user's surrounding environment, weather forecast information at the time of input, and attribute information of worn clothes and an input value of sensible temperature information. can mean Here, the sensible temperature information may refer to information about a degree of heat and/or a degree of cold that the user relatively senses (feels). Therefore, the user's sensible characteristic information refers to information obtained by analyzing the correlation between at least one of a temperature measurement value of the surrounding environment, weather forecast information, and attribute information of worn clothes, and an input value of sensible temperature information received by the user (correlation relationship). information) can be That is, the user's sensible characteristic information may mean correlation information related to the user's sensible temperature information.
분석부(미도시)는 상관 관계 정보의 분석시 분석 알고리즘으로서 종래에 기 공지되거나 향후 개발되는 다양한 상관성 분석 알고리즘을 이용할 수 있으며, 이에 한정되는 것은 아니다.The analysis unit (not shown) may use various correlation analysis algorithms previously known or developed in the future as an analysis algorithm when analyzing correlation information, but is not limited thereto.
일예로, 분석부(미도시)는 이력 저장부(170)에 기 저장된 복수의 착용 의류 이력 데이터를 기반으로, 기 저장된 복수의 착용 의류 이력 데이터를 딥러닝 모델로 학습 시킴으로써, 학습된 딥러닝 모델을 이용해 사용자 체감 특성 정보를 획득할 수 있다.As an example, the analysis unit (not shown) learns a plurality of pre-stored worn clothing history data as a deep learning model based on a plurality of pre-stored worn clothing history data in the
이때, 딥러닝 모델은 복수의 착용 의류 이력 데이터에서 사용자 주변 환경의 온도 측정 값, 입력 시점 날씨 예보 정보 및 착용 의류의 속성 정보 중 적어도 하나를 입력값으로 하고, 입력값 각각과 매칭되는 착용 의류 이력 데이터 내 체감 온도 정보의 입력 값을 출력값으로 하도록 학습된 모델일 수 있다. 이러한 기 학습된 딥러닝 모델을 이용하여 사용자 체감 특성 정보(착용 의류 이력 데이터로서 저장된 각 데이터들 간의 상관 관계 정보)가 획득될 수 있다.In this case, the deep learning model uses at least one of a temperature measurement value of the user's surrounding environment, weather forecast information at the time of input, and attribute information of the worn clothes as an input value from a plurality of worn clothes history data, and wears clothes history matching each of the input values. It may be a model trained to use the input value of the sensible temperature information in the data as an output value. By using such a pre-learned deep learning model, user sensible characteristic information (correlation information between each data stored as wearable clothing history data) may be obtained.
여기서, 딥러닝 모델은 인공지능(AI) 알고리즘 모델, 기계학습(머신러닝) 모델, 신경망 모델(인공 신경망 모델), 뉴로 퍼지 모델 등을 의미할 수 있다. 또한, 딥러닝 모델은 예시적으로 컨볼루션 신경망(Convolution Neural Network, CNN, 합성곱 신경망), 순환신경망(RNN, Recurrent Neural Network), 딥 신경망(Deep Neural Network) 등 종래에 이미 공지되었거나 향후 개발되는 다양한 신경망 모델이 적용될 수 있다.Here, the deep learning model may mean an artificial intelligence (AI) algorithm model, a machine learning (machine learning) model, a neural network model (an artificial neural network model), a neurofuzzy model, and the like. In addition, the deep learning model is exemplarily a convolutional neural network (CNN, convolutional neural network), a recurrent neural network (RNN), a deep neural network, etc. that have been previously known or developed in the future. Various neural network models can be applied.
본원에서 고려되는 날씨 예보 정보는 일예로 본 장치(100)와 네트워크(2)를 통해 연결되는 기상청 서버(미도시)로부터 획득될 수 있다. 기상청 서버(미도시)는 날씨 예보 정보를 포함하여 날씨와 관련된 각종 정보를 제공할 수 있다.The weather forecast information considered herein may be obtained, for example, from a meteorological agency server (not shown) connected to the
생성부(120)는 분석부(미도시)의 분석에 의해 제공되는 사용자 체감 특성 정보(사용자의 체감 온도 정보와 관련된 상관 관계 정보)와 기상청 서버(미도시)로부터 획득된 촬영 모드 감지 시점에 대응하는 날씨 예보 정보를 고려해, 촬영 모드 감지 시점에 대응하는 의류 추천 정보를 생성할 수 있다.The generating
생성부(120)는 생성된 의류 추천 정보를 일예로 사용자에게 맞춤화된 맞춤 의류 추천 정보로서 사용자 단말의 화면에 표시할 수 있다. 또한, 생성부(120)는 생성된 의류 추천 정보를 아바타 관리부(210)에 의해 생성된 사용자 아바타(제1 사용자 아바타)에 착용시킴으로써, 생성된 의류 추천 정보에 대응하는 의류의 착용이 이루어진 제1 사용자 아바타(즉, 의류 착용 제1 사용자 아바타)를 생성할 수 있으며, 이를 제1 저장부(250)에 저장할 수 있다. 뿐만 아니라, 촬영 모드 감지 시점에 대한 응답으로서 화면 제어부(220)가, 생성부(120)에 의해 생성된 의류 추천 정보에 대응하는 의류의 착용이 이루어진 제1 사용자 아바타(즉, 의류 착용 제1 사용자 아바타)를 화면에 표시할 수 있도록, 생성부(120)는 의류 착용 제1 사용자 아바타를 화면 제어부(220)로 전달할 수 있다. 이후, 화면 제어부(220)는 아바타 관리부(210)에 의해 생성된 의류 착용 제1 사용자 아바타를 사용자 단말(1)의 화면에 표출되는 현실 영상 상에 오버랩하여 표시할 수 있다.The
생성부(120)에 의해 생성되는 의류 추천 정보는 촬영 모드 감지 시점에 사용자 단말(1)의 화면에 표출되는 사용자 아바타가 착용할 의류(옷차림, 코디)를 추천하는 정보를 의미할 수 있다.The clothing recommendation information generated by the
본원의 일예에서는 생성부(120)에 의해 생성되는 의류 추천 정보가 사용자 아바타에 착용되는(입혀지는) 의류를 추천하는 정보를 의미하는 것으로 예시하였으나, 이에만 한정되는 것은 아니다. 다른 일예로, 생성부(120)에 의해 생성되는 의류 추천 정보는 촬영 모드 감지 시점에 해당하는 시기(날짜)에 사용자가 실제로 입기에 적합한(적절한) 의류(옷차림, 코디)를 추천하는 정보를 의미할 수 있다. 즉, 의류 추천 정보는 사용자가 실제 착용을 추천하는 맞춤 의류 추천 정보를 의미할 수 있다.In an example of the present disclosure, the clothing recommendation information generated by the
관리 제어부(130)는 후술하는 소유 의류 저장부(180)에 저장된 사용자가 실제 소유한 소유 의류에 관한 정보 중 일부 소유 의류를 착용 의류로서 선택한 경우, 미리 설정된 시간 주기 마다 사용자 단말(1)의 화면의 일영역에 체감 온도 정보의 입력을 위한 입력 요청 메시지를 표시할 수 있다. 특히, 관리 제어부(130)는 사용자가 소유 의류 저장부(180)에 저장된 소유 의류에 관한 정보 중 일부 소유 의류를 착용 의류로서 선택하고 선택된 착용 의류에 대응하는 실물 의류를 실제 착용한 후 외부 활동을 수행하는 경우에, 외부 활동의 수행 중 미리 설정된 시간 주기 마다 입력 요청 메시지를 화면의 일영역에 표시할 수 있다.The
여기서, 외부 활동이라 함은 외출을 하는 등 의류를 입고 돌아다니는 행위를 의미할 수 있다. 또한, 미리 설정된 시간 주기는 일예로 2시간, 3시간 등으로 설정될 수 있으나, 이에만 한정되는 것은 아니다. 본원의 일예에서는 미리 설정된 시간 주기가 시간 단위로 설정되는 것으로 예시하였으나, 이는 본원의 이해를 돕기 위한 하나의 예시일 뿐 이에만 한정되는 것은 아니고, 초 단위, 일(day) 단위 등 다양한 단위로 설정될 수 있다.Here, the term "outside activity" may mean an act of walking around wearing clothes, such as going out. In addition, the preset time period may be set to, for example, 2 hours or 3 hours, but is not limited thereto. In an example of the present application, it is illustrated that the preset time period is set in units of time, but this is only an example for helping understanding of the present application and is not limited thereto, and is set in various units such as units of seconds, units of days, etc. can be
관리 제어부(130)는 체감 온도 정보의 입력을 위한 입력 요청 메시지를 화면에 표시할 수 있다. 여기서, 체감 온도 정보는 사용자 주변 환경의 온도 측정 값과 대비하여 사용자가 상대적으로 체감하는(느끼는) 더움 정도 및/또는 추움 정도에 관한 정보에 관한 정보를 의미할 수 있다.The
날씨의 온도가 동일한 조건이라 할지라도, 해당 온도에서 사용자 각각이 체감하는(느끼는) 상대적인 체감 온도는 각기 다르게 느끼게 된다. 예를 들어 현재의 날씨 온도가 22도라고 하자. 이때, 제1 사용자가 추위를 많이 타는 체질이고 두꺼운 긴팔 상의/긴 하의를 입고 있는 상태인 경우에는 체감 온도로서 따듯하다고(적정 온도라고) 느낄 수 있다. 다른 일예로, 제2 사용자가 추위를 많이 타는 체질이고 반팔 상의(면티)/반팔 하의를 입고 있는 상태인 경우에는 체감 온도로서 춥다고 느낄 수 있다. 또 다른 일예로, 제3 사용자가 더위를 많이 타는 체질이고 반팔 상의/반팔 하의를 입고 있는 상태인 경우에는 체감 온도로서 덥다고 느낄 수 있다.Even if the weather temperature is the same, the relative sensible temperature felt (feeled) by each user at the corresponding temperature is different. For example, let's say the current weather temperature is 22 degrees. At this time, if the first user has a constitution that is prone to cold and is wearing a thick long-sleeved top/long bottom, he/she may feel warm as a sensible temperature (appropriate temperature). As another example, when the second user has a constitution that is prone to cold and is wearing a short-sleeved top (cotton tee)/short-sleeved bottoms, he or she may feel cold as a sensible temperature. As another example, if the third user has a constitution that burns a lot of heat and is wearing a short-sleeved top/short-sleeved bottom, he or she may feel hot as a sensible temperature.
이처럼, 사용자가 지닌 본래의 체질이나 주변 환경/상황 등에 따라 각각의 사용자가 느끼는 체감 온도는 각기 다를 수 있다. 그런데, 종래의 의류 추천 기술은 일반적으로 특정 기온에 대한 평균적인 의류(옷차림, 코디) 추천 정보를 제공하기 때문에, 이러한 평균 의류 추천 정보는 일부 사용자에게 있어서 만족스럽지 않은 정보로 취급될 수 있다.As such, the sensible temperature felt by each user may be different depending on the user's original constitution or surrounding environment/situation. However, since the conventional clothing recommendation technology generally provides average clothing (dressing, coordination) recommendation information for a specific temperature, the average clothing recommendation information may be treated as unsatisfactory information for some users.
따라서, 본 장치(100)는 사용자가 느끼는 체감 온도 정보를 토대로 사용자에게 최적화된 맞춤 의류 추천 정보를 제공하고자, 체감 온도 정보를 획득하기 위해 미리 설정된 시간 주기마다 입력 요청 메시지를 화면에 표시할 수 있다.Accordingly, the
또한, 본 장치(100)는 사용자가 느끼는 체감 온도 정보를 토대로 생성되는 의류 추천 정보(맞춤 의류 추천 정보)에 해당하는 의류를 제1 사용자 아바타에 적용시켜 화면에 표출시킴으로써, 획득되는 증강현실 영상 내 포함되는 제1 사용자 아바타로서, 보다 사용자의 현재 상태, 체감 온도 정보에 대한 사용자의 현재 느낌이 반영된 제1 사용자 아바타의 적용이 이루어지도록 제공할 수 있다. 이러한 본 장치(100)는 제1 사용자 아바타로 하여금 실제 사용자와 상당히 유사한 느낌을 갖는 아바타를 제공할 수 있다. In addition, the
입력 요청 메시지는 사용자가 현재 추운지, 혹은 더운지를 묻는 질의에 대한 사용자 입력(즉, 제1 질의 관련 사용자 입력)을 요청하는 메시지를 의미할 수 있다.The input request message may mean a message for requesting a user input (ie, a user input related to the first query) for a query asking whether the user is currently cold or hot.
입력 요청 메시지는 일예로 '현재 기온에 착용하고 계신 옷은 어떤가요?'라는 질의와 함께 '춥다', '덥다', '적당하다' 와 같은 선택지가 포함된 메시지일 수 있다. 본원의 일예에서는 체감 온도 정보의 입력을 위한 선택지가 일예로 3가지(춥다, 덥다, 적당하다)인 것으로 예시하였으나, 이에만 한정되는 것은 아니다. The input request message may be, for example, a message including options such as 'cold', 'hot', and 'suitable' along with a query of 'what are the clothes you are wearing at the current temperature?' In an example of the present application, three options for input of sensible temperature information have been exemplified as an example (cold, hot, suitable), but is not limited thereto.
일예로, 체감 온도 정보의 입력을 위한 선택지는 10단계로 구분되고, 이때 단계가 낮을수록 추움이 강함을 의미하고, 단계가 높을수록 더움이 강함을 의미할 수 있다. 즉, 1단계는 매우 추움, 4단계는 조금 추움, 5단계는 적당함, 5단계는 조금 더움, 10단계는 매우 추움 등을 의미할 수 있다.For example, the options for inputting the sensible temperature information are divided into 10 steps, where a lower level may mean stronger coldness, and a higher level may mean stronger heat. That is,
사용자는 화면에 대한 입력 요청 메시지의 표시에 응답하여, 사용자가 현재 시점(즉, 입력 요청 메시지가 표시된 시점)에 느끼는 체감 온도 정보를 입력할 수 있다. 즉, 사용자는 메시지 표시에 응답하여 체감 온도 정보 관련 복수의 선택지 중 어느 하나를 선택할 수 있다.In response to the display of the input request message on the screen, the user may input sensible temperature information that the user feels at a current time point (ie, a time point at which the input request message is displayed). That is, the user may select any one of a plurality of options related to the sensible temperature information in response to the message display.
이후, 입력 요청 메시지에 대한 사용자 입력(제1 질의 관련 사용자 입력)이 이루어진 경우, 관리 제어부(130)는 제1 질의 관련 사용자 입력에 응답하여, 제1 질의 관련 사용자 입력이 이루어진 시점에 대응하는 사용자 주변 환경의 온도 측정 값, 제1 질의 관련 사용자 입력이 이루어진 시점에 대응하는 입력 시점 날씨 예보 정보 및 제1 질의 관련 사용자 입력이 이루어진 시점에 대응하는 착용 의류의 속성 정보 중 적어도 하나를 입력 요청 메시지에 대응하는 체감 온도 정보의 입력 값과 서로 연계하여 착용 의류 이력 데이터로서 이력 저장부(170)에 저장되도록 제어할 수 있다.Thereafter, when a user input (a first query-related user input) for the input request message is made, the
여기서, 제1 질의 관련 사용자 입력이 이루어진 시점이라 함은 화면에 표시된 입력 요청 메시지에 응답하여, 사용자에 의해 체감 온도 정보의 입력이 이루어진 시점(현 시점)을 의미할 수 있다.Here, the time point at which the first query-related user input is made may mean a time point (current time point) at which the sensible temperature information is input by the user in response to the input request message displayed on the screen.
사용자 주변 환경의 온도 측정 값은 제1 질의 관련 사용자 입력이 이루어진 시점에 사용자가 위치한 주변(주변 환경)의 온도를 측정한 값을 의미할 수 있다. 사용자 주변 환경의 온도 측정 값은, 일예로 본 장치(100)에 자체 구비된 온도 측정 센서(미도시), 사용자가 소지한 사용자 단말(1)에 구비된 온도 측정 센서(미도시), 본 장치(100)와 네트워크(2)를 통해 연결되고 사용자가 위치한 공간에 마련(설치)되어 있는 온도 측정 센서 중 적어도 하나를 이용해 획득될 수 있다.The temperature measurement value of the user's surrounding environment may mean a value obtained by measuring the temperature of the surrounding (neighboring environment) where the user is located at the point in time when the user input related to the first query is made. The temperature measurement value of the user's surrounding environment is, for example, a temperature measuring sensor (not shown) provided in the
입력 시점 날씨 예보 정보는 제1 질의 관련 사용자 입력이 이루어진 시점의 날짜에 해당하는 날씨 예보 정보를 의미할 수 있다.The input time weather forecast information may refer to weather forecast information corresponding to the date at which the first query related user input is made.
착용 의류의 속성 정보는 제1 질의 관련 사용자 입력이 이루어진 시점에 사용자가 실제 착용하고 있는 의류(착용 의류)에 대한 속성 정보로서, 착용 의류의 종류(유형), 소재(재질), 두께, 사이즈(치수, 길이), 색상(컬러) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 여기서, 착용 의류의 종류라 함은 예시적으로 반팔인지, 긴팔인지, 치마인지, 아우터인지 등을 구분하는 정보를 의미할 수 있다.The attribute information of the worn clothing is attribute information on the clothing (wearing clothing) that the user is actually wearing at the time when the user input related to the first query is made, and includes the type (type), material (material), thickness, and size ( dimension, length), color (color), and the like, but is not limited thereto. Here, the type of clothing to be worn may mean information for classifying whether it is a short sleeve, a long sleeve, a skirt, an outer, and the like.
체감 온도 정보의 입력 값이라 함은 체감 온도 정보 관련 복수의 선택지 중 사용자에 의해 선택된 어느 하나를 선택지의 값을 의미할 수 있다.The input value of the sensible temperature information may mean a value of any one selected by the user from among a plurality of options related to the sensible temperature information.
이처럼, 관리 제어부(130)는 입력 요청 메시지가 화면에 미리 설정된 시간 주기로 표시될 때마다, 그에 대한 사용자 입력(제1 질의 관련 사용자 입력)에 응답하여 사용자 주변 환경의 온도 측정 값, 입력 시점 날씨 예보 정보 및 착용 의류의 속성 정보 중 적어도 하나를 체감 온도 정보의 입력 값과 서로 연계시켜 착용 의류 이력 데이터로서 생성하여 이력 저장부(170)에 저장할 수 있다. 이때, 착용 의류 이력 데이터에는 후술하는 일정 정보(지인 정보를 포함한 일정 정보)가 존재하는 경우, 일정 정보가 함께 연계되어 저장될 수 있다.As such, whenever an input request message is displayed on the screen at a preset time period, the
이력 저장부(170)에는 미리 설정된 시간 주기마다 제1 질의 관련 사용자 입력에 응답하여 생성된 착용 의류 이력 데이터가 누적하여 저장될 수 있다. 이후, 분석부(미도시)는 이력 저장부(170)에 저장된 복수의 착용 의류 이력 데이터(복수의 누적 착용 의류 이력 데이터)를 분석(특히, 상관 관계의 분석을 수행)하여 사용자 체감 특성 정보를 획득할 수 있다. 이후, 생성부(120)는 획득된 사용자 체감 특성 정보와 날씨 예보 정보를 고려해 촬영 모드 감지 시점에 대응하는 의류 추천 정보를 생성할 수 있다.The
분석부(미도시)에 의한 분석을 통해 상술한 상관 관계 정보인 사용자 체감 특성 정보가 획득됨에 따라, 일예로 생성부(120)는 촬영 모드 감지 시점이 감지되었을 때 기상청 서버(미도시)로부터 획득된 촬영 모드 감지 시점에 대응하는 날씨 예보 정보가 존재하면, 사용자 체감 특성 정보를 기초로 하여 '촬영 모드 감지 시점에 해당하는 날짜에 사용자는 어느 정도의 추위(혹은 더위)를 느낄 것이다'라는 정보를 예측한 체감 온도 예측 정보를 획득하고, 획득된 체감 온도 예측 정보를 기반으로 촬영 모드 감지 시점에 대응하는 의류 추천 정보를 생성할 수 있다.As the user sensible characteristic information, which is the above-described correlation information, is obtained through analysis by an analysis unit (not shown), for example, the
다른 일예로, 촬영 모드 감지 시점이 감지되었을 때 기상청 서버(미도시)로부터 획득된 촬영 모드 감지 시점에 대응하는 날씨 예보 정보와 선택 의류 정보가 존재한다고 하자. 여기서, 선택 의류 정보라 함은 소유 의류 저장부(180)에 저장된 소유 의류 중 사용자가 촬영 모드 감지 시점에 해당하는 날짜에 착용하길 희망하여 선택한 의류 정보를 의미할 수 있다. 이러한 경우, 생성부(120)는 사용자 체감 특성 정보를 기초로 하여 '촬영 모드 감지 시점에 해당하는 날짜에 선택 의류 정보에 해당하는 의류를 실제로 착용하여 입는다면, 사용자는 많이 더워할 것이다(혹은 많이 추워할 것이다)'와 같은 예측된 정보(즉, 체감 온도 예측 정보)를 획득하고, 획득된 체감 온도 예측 정보를 기반으로 촬영 모드 감지 시점에 대응하는 의류 추천 정보를 생성할 수 있다.As another example, it is assumed that, when the sensing time of the shooting mode is sensed, weather forecast information corresponding to the sensing time of the shooting mode obtained from the Meteorological Administration server (not shown) and selected clothing information exist. Here, the selected clothing information may refer to information on clothing that the user desires to wear on a date corresponding to the sensing time of the shooting mode, among the owned clothing stored in the owned
위치 판단부(140)는 위치 측정 센서(미도시)를 통해 획득된 사용자(제1 사용자)의 위치 정보를 기반으로 사용자가 실외에 위치하는지 또는 실내에 위치하는지 판단할 수 있다.The
여기서, 위치 측정 센서(미도시)는 일예로 본 장치(100)에 자체 구비된 위치 측정 센서 및 사용자가 소지한 사용자 단말(1)에 구비된 위치 측정 센서 중 적어도 하나를 의미할 수 있다. 위치 측정 센서(미도시)는 GPS 센서 등으로 달리 지칭될 수 있다.Here, the position measuring sensor (not shown) may mean, for example, at least one of a position measuring sensor provided by the
관리 제어부(130)는 위치 판단부(140)에 의한 위치 판단 결과에 따라, 입력 요청 메시지 표시에 대한 사용자 입력에 응답하여 이력 저장부(170)에 착용 의류 이력 데이터의 저장시, 입력 시점 날씨 예보 정보를 선택적으로 포함시켜 저장할 수 있다. The
일예로, 관리 제어부(130)는 위치 판단 결과 사용자가 실외에 위치하는 것으로 판단된 경우, 이력 저장부(170)에 대한 착용 의류 이력 데이터의 저장시 입력 시점 날씨 예보 정보를 포함시킬 수 있다. 반면, 관리 제어부(130)는 위치 판단 결과 사용자가 실내에 위치하는 것으로 판단된 경우, 이력 저장부(170)에 대한 착용 의류 이력 데이터의 저장시 입력 시점 날씨 예보 정보를 포함시키지 않을 수 있다.For example, when it is determined that the user is located outdoors as a result of the location determination, the
사용자가 실외에 위치할 때에는 사용자가 야외 등에 노출된 상태임에 따라 날씨 예보 정보에 직접적으로 영향받는 상태라 할 수 있을 것이다. 반면, 사용자가 실내에 위치할 때에는, 실내의 경우 구조물로 인해 제한된 공간이 형성되고 해당 공간에서는 에어컨이나 히터 등의 동작이 이루어짐에 따라, 날씨 예보 정보에는 크게 영향받지 않고 오히려 사용자 주변 환경의 온도 측정 값에 더 크게 영향받는 상태라 할 수 있을 것이다.When the user is located outdoors, it can be said that the user is directly affected by the weather forecast information because the user is exposed to the outdoors. On the other hand, when a user is located indoors, a limited space is formed due to a structure indoors, and as an air conditioner or heater is operated in the space, it is not significantly affected by weather forecast information, but rather measures the temperature of the user's surrounding environment. It can be said that the state is greatly affected by the value.
즉, 날씨 예보 정보는 사용자가 실내에 있는 경우보다는 실외에 있을 때 사용자가 체감하는 온도인 체감 온도 정보에 대하여 더 민감하게 반응한다고(영향을 받는다고) 할 수 있을 것이다.That is, it can be said that the weather forecast information responds more sensitively to (influenced by) the sensible temperature information, which is the temperature the user feels when the user is outdoors than when the user is indoors.
따라서, 관리 제어부(130)는 입력 요청 메시지에 대한 사용자 입력에 응답하여 착용 의류 이력 데이터를 이력 저장부(170)에 저장할 때, 사용자가 실외에 위치하는지 혹은 사용자가 실내에 위치하는지에 따라 입력 시점 날씨 예보 정보를 선택적으로 포함시켜 저장할 수 있다. 즉, 관리 제어부(130)는 사용자가 실외에 위치하는 것으로 판단된 경우 입력 시점 날씨 예보 정보를 함께 포함시켜 착용 의류 이력 데이터를 저장하고, 사용자가 실내에 위치하는 경우 입력 시점 날씨 예보 정보를 제외시키고 착용 의류 이력 데이터를 저장할 수 있다. 이러한, 본 장치(100)는 사용자의 체감 온도 정보가 고려된 사용자 체감 특성 정보를 분석하여 획득함에 있어서, 보다 신뢰도 높고 정확한 사용자 체감 특성 정보를 획득할 수 있으므로, 이를 통해 결과적으로 사용자에게 최적으로 맞춤화된 맞춤 의류 추천 정보를 제공할 수 있다.Accordingly, when the
관리 제어부(130)에 의해 화면에 입력 요청 메시지가 표시되는 미리 설정된 시간 주기는, 위치 판단부(140)에 의해 판단된 위치 판단 결과를 기초로 하여 사용자가 실내에 위치하는 경우 대비 사용자가 실외에 위치하는 경우에 더 짧게 설정될 수 있다.The preset time period during which the input request message is displayed on the screen by the
즉, 입력 요청 메시지가 표시되는 미리 설정된 시간 주기는, 일예로 사용자가 실내에 위치하는 경우 제1 주기로 설정되고, 사용자가 실외에 위치하는 경우 제2 주기로 설정될 수 있다. 이때, 제1 주기는 제2 주기보다 더 짧게 설정(더 작은 값으로 설정)될 수 있다. 예시적으로, 제1 주기는 1시간으로 설정될 수 있으며, 제2 주기는 제1 주기보다 긴 2시간으로 설정될 수 있다.That is, the preset time period for displaying the input request message may be set to a first period when the user is located indoors, and may be set to a second period when the user is located outdoors. In this case, the first period may be set shorter (set to a smaller value) than the second period. For example, the first period may be set to 1 hour, and the second period may be set to 2 hours longer than the first period.
이에 따르면, 관리 제어부(130)는 사용자가 실외에 위치하는 것으로 판단된 경우에는 입력 요청 메시지를 1시간 주기 단위로 화면에 표시하고, 사용자가 실내에 위치하는 것으로 판단된 경우에는 입력 요청 메시지를 2시간 주기 단위로 화면에 표시할 수 있다.According to this, when it is determined that the user is located outdoors, the
본 장치(100)에서는, 사용자가 실외에 있는 경우일 때가 실내에 있는 경우일 때 보다 더 활동적일 가능성(움직이고 있을 가능성)(일예로, 걷거나 뛰는 등 움직이고 있을 가능성)이 높다고 보고, 이에 사용자가 체감하는 체감 온도의 변화가 실외일 때가 실내일 때 보다 더 유동적으로 가변될 가능성이 높다고 판단할 수 있다. 따라서, 본 장치(100)는 분석부(미도시)에 의해 분석된 사용자의 위치가 실외인지 혹은 실외인지에 따라 입력 요청 메시지가 표시되는 미리 설정된 시간 주기를 달리함으로써, 사용자가 체감하는 체감 온도의 변화를 보다 실시간으로 반영해 보다 최적화된 맞춤 의류 추천 정보의 제공이 이루어지도록 할 수 있다.In the
생성부(120)는 사용자 체감 특성 정보와 날씨 예보 정보를 고려하여 의류 추천 정보를 생성하는 것 외에도, 사용자 개인의 병원 방문 이력 정보, 사용자의 생체정보, 및 사용자의 체질 정보 중 적어도 하나를 더 고려하여 촬영 모드 감지 시점에 대응하는 의류 추천 정보를 생성할 수 있다.The
여기서, 병원 방문 이력 정보는 예를 들어 감기 발병 여부 관련 정보, 두통 발명 여부 관련 정보 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 병원 방문 이력 정보는 일예로 본 장치(100)와 네트워크(2)를 통해 연결되는 전자의무기록(Electronic Medical Record, EMR)을 기록하는 EMR 서버(미도시) 및/또는 병원 서버(미도시)로부터 획득된 전자의무기록의 분석을 통해 획득될 수 있다.Here, the hospital visit history information may include, for example, information related to whether or not a cold occurs, information related to the invention of a headache, and the like, but is not limited thereto. Hospital visit history information is, for example, from an EMR server (not shown) and/or a hospital server (not shown) that records an Electronic Medical Record (EMR) connected through the
사용자의 생체정보는 예를 들어, 사용자의 혈압, 체온, 심전도 신호 등을 포함하는 사용자의 특성과 관련된 각종 정보를 의미할 수 있다. 이러한 사용자의 생체정보는 예시적으로 본 장치(100)와 네트워크(2)를 통해 연결되고 사용자의 신체 일부에 착용되는 웨어러블 디바이스(미도시)로부터 획득될 수 있다. 여기서, 웨어러블 디바이스(미도시)에는 스마트 워치 등을 포함할 수 있으나, 이에만 한정되는 것은 아니고, 시계, 안경, 헤드셋 등과 같이 사용자의 신체의 적어도 일부에 착용 가능하게 마련되는 디바이스라면 무엇이든 적용 가능하다.The user's biometric information may refer to various types of information related to the user's characteristics including, for example, the user's blood pressure, body temperature, and ECG signal. The user's biometric information may be obtained from, for example, a wearable device (not shown) that is connected to the
사용자의 체질 정보는 예를 들어 선호 식품에 대한 정보, 알레르기 정보 등을 포함할 수 있다. 이러한 사용자의 체질 정보는 일예로 사용자가 사용자 단말(1)을 통해 직접 타이핑함으로써 획득되거나, 혹은 상술한 EMR 서버(미도시)에 기록된 전자의무기록으로부터 획득될 수 있다.The constitutional information of the user may include, for example, information on preferred food, allergy information, and the like. Such constitutional information of the user may be obtained by, for example, the user directly typing through the
예시적으로, 관리 제어부(130)는 이력 저장부(170)에 착용 의류 이력 데이터를 저장하고자 할 때, 입력 요청 메시지에 대한 사용자 입력이 이루어진 시점에 EMR 서버(미도시) 및/또는 병원 서버(미도시)로부터 획득된 전자의무기록을 분석하여 사용자 개인의 병원 방문 이력 정보가 존재하는지 확인할 수 있다. 이때, 확인 결과 사용자 개인의 병원 방문 이력 정보와 관련하여 감기 발병 여부 관련 정보가 존재하고, 이를 분석한 결과 사용자가 현재 감기에 걸린 상태인 것으로 확인되었다고 하자. 이러한 경우, 관리 제어부(130)는 착용 의류 이력 데이터의 저장시, 일예로 사용자 주변 환경의 온도 측정 값, 입력 시점 날씨 예보 정보, 및 착용 의류의 속성 정보 중 적어도 하나와 체감 온도 정보의 입력 값을 서로 연계한 정보에, 추가적으로 '사용자가 현재 감기에 걸린 상태임'을 나타내는 감기 발병 여부 관련 정보를 함께 연계시킨 정보를 착용 의류 이력 데이터(일예로 제1 착용 의류 이력 데이터)로서 이력 저장부(170)에 저장할 수 있다.Exemplarily, when the
이에 따르면, 예시적으로 이력 저장부(170)에 저장된 착용 의류 이력 데이터(일예로 제1 착용 의류 이력 데이터)는, '사용자가 위치한 사용자 주변 환경의 온도 측정 값에 따르면 현재 사용자 주변의 온도가 19도이고, 현재 사용자가 착용한 착용 의류의 속성 정보에 따르면 사용자가 3mm의 두께를 가진 면 소재의 긴팔 상의와 면 소재의 반바지를 입고 있으며, 입력 시점 날씨 예보 정보에 따르면 사용자 입력이 이루어진 시점에 대응하는 날짜의 날씨 예보 정보는 온도가 20도이며, 사용자 개인의 병원 방문 이력 정보에 따르면 사용자가 현재 감기에 걸린 상태임'을 나타내는 정보 및 이때의 체감 온도 정보의 입력 값으로 '사용자가 체감한 체감 온도 정보는 일예로 5단계에 해당하는 조금 더움'에 해당하는 정보가 서로 연계된 정보일 수 있다.According to this, for example, the worn clothing history data (eg, the first worn clothing history data) stored in the
즉, 이력 저장부(170)에는 일예로 사용자가 감기에 걸리고, 그때의 주변 환경의 온도 측정 값이 몇도이며, 그때의 날씨 예보 정보가 어떠했으며, 그때 착용했던 착용 의류의 속성 정보가 어떠한 경우일 때, 사용자가 상대적으로 체감한(느꼈던) 더움 정도 및/또는 추움 정도에 관한 정보는 어떠했음을 나타내는 정보가 제1 착용 의류 이력 데이터로서 저장될 수 있다.That is, in the
분석부(미도시)는 이력 저장부(170)에 저장된 제1 착용 의류 이력 데이터와 같은 복수개의 착용 의류 이력 데이터를 분석함으로써 이력 저장부(170)에 저장된 서로 다른 유형의 데이터들(일예로, 사용자 주변 환경의 온도 측정 값, 입력 시점 날씨 예보 정보, 착용 의류의 속성 정보, 체감 온도 정보의 입력 값, 감기 발병 여부 관련 정보를 포함한 5가지 유형의 데이터들) 간의 상관 관계를 나타내는 사용자 체감 특성 정보를 획득할 수 있다. The analysis unit (not shown) analyzes a plurality of worn clothing history data, such as the first worn clothing history data stored in the
이후, 생성부(120)는 촬영 모드 감지 시점이 감지되었을 때, 일예로 전자의무기록의 분석 결과 '사용자가 현재 감기에 걸려있는 상태'인 것으로 판단되고 해당 시기 정보에 대응하는 날씨 예보 정보가 획득된 상태인 경우, 분석부(미도시)에 의해 획득된 사용자 체감 특성 정보를 기초로 하여 '촬영 모드 감지 시점에 대응하는 날짜에 사용자가 조금 추위를 느낄 것이다'라는 체감 온도 예측 정보를 획득할 수 있다. 이후, 생성부(120)는 획득된 체감 온도 예측 정보를 기반으로 소장 의류 저장부(180)에 기 저장된 복수의 소유 의류에 관한 정보 중 사용자가 추위를 조금 느끼는 상태일 때 입기 가장 적합하다고 판단되는 적어도 하나의 의류를 선택할 수 있다. 이후, 생성부(120)는 선택된 적어도 하나의 의류를 포함한 의류 추천 정보를 생성하고, 생성된 의류 추천 정보가 맞춤 의류 추천 정보로서 화면에 표시되도록 관리 제어부(130)로 제공할 수 있다. 또한, 생성부(120)는 생성된 의류 추천 정보에 해당하는 의류가 착용된 제1 사용자 아바타를 생성하여 제1 저장부(250)에 저장하고, 이를 증강현실 영상의 획득을 위해 사용자 단말(1)의 화면에 표출되는 현실 영상 상에 오버랩하여 표시할 수 있다.Thereafter, when the detection time of the shooting mode is detected, the
상술한 일예에서는, 생성부(120)가 사용자 개인의 병원 방문 이력 정보, 사용자의 생체정보, 및 사용자의 체질 정보 중 적어도 하나를 더 고려하여 의류 추천 정보를 생성함에 있어서, 예시적으로 사용자 개인의 병원 방문 이력 정보를 고려하여 의류 추천 정보를 생성하는 경우에 대하여 구체적으로 예시하였다. 이는 본원의 이해를 돕기 위한 하나의 예시일 뿐, 이에만 한정되는 것은 아니고, 사용자의 생체정보와 사용자의 체질 정보를 고려하여 의류 추천 정보를 생성하는 과정은, 사용자 개인의 병원 방문 이력 정보를 고려하여 의류 추천 정보를 생성하는 과정과 대비하여 그와 동일하거나 그와 유사한 방식으로 이루어질 수 있다. 따라서, 이하 생략된 내용이라 하더라도, 사용자 개인의 병원 방문 이력 정보를 고려한 의류 추천 정보의 생성 과정에 대한 설명은, 고려 대상만 다를 뿐 사용자의 생체정보를 고려한 의류 추천 정보의 생성 과정 및 사용자의 체질 정보를 고려한 의류 추천 정보의 생성 과정에 대한 설명에도 동일하게 적용될 수 있다.In the above-described example, when generating the clothing recommendation information by further considering at least one of the user's personal hospital visit history information, the user's biometric information, and the user's constitution information, the generating
소유 의류 관리부(150)는 사용자가 소유한 소유 의류에 관한 정보를 획득하여 소유 의류 저장부(180)에 저장하고 관리할 수 있다.The owned
여기서, 소유 의류라 함은 사용자가 실제 가지고 있는 의류(예를 들어, 옷, 바지, 치마, 원피스, 정장 등)를 의미할 수 있다. 여기서, 소유 의류에 대한 정보는 해당 의류(소유 의류)에 대한 이미지 정보, 소유 의류를 구입한 날짜 정보 및 소유 의류의 속성 정보 중 적어도 하나가 포함될 수 있으며, 이에 한정되는 것은 아니고 각종 정보가 저장될 수 있다.Here, the owned clothes may mean clothes that the user actually owns (eg, clothes, pants, skirts, dresses, suits, etc.). Here, the information on the owned clothing may include at least one of image information on the corresponding clothing (owned clothing), purchase date information of the owned clothing, and attribute information of the owned clothing, but is not limited thereto. can
여기서, 소유 의류에 관한 정보는 일예로 사용자가 사용자 단말(1)을 통해 직접 타이핑함으로써 획득될 수 있다. 다른 일예로, 소유 의류에 관한 정보는 사용자가 사용자 단말(1)의 이미지 센서(미도시)를 통해 소유 의류를 촬영함으로써 획득될 수 있다. 또 다른 일예로, 소유 의류에 관한 정보는, 사용자가 사용자 단말(1)의 이미지 센서(미도시)를 통해 소유 의류에 대한 이미지 정보를 획득한 경우, 획득된 이미지 정보에 대한 이미지 분석을 통해 획득된 이미지 정보 내 소유 의류와 매칭되는 의류(매칭 의류)를 인터넷(혹은 온라인 쇼핑몰) 상에서 검색하고, 검색된 매칭 의류에 대하여 기록된 정보를 크롤링(수집)함으로써 획득될 수 있다. 다만, 이러한 예들은 본원의 이해를 돕기 위한 예시일 뿐, 이에만 한정되는 것은 아니고, 다양한 방식으로 소유 의류에 관한 정보가 획득될 수 있다.Here, the information on the owned clothing may be obtained by, for example, a user directly typing through the
다시 말해, 일예로 소유 의류에 관한 정보는, 사용자가 직접 타이핑하여 입력하거나, 혹은 사용자가 소유 의류에 대한 품번 정보를 입력하면 그와 매칭되는 정보를 온라인 쇼핑몰 또는 의류 업체 DB와 연동하여 검색함으로써 자동으로 해당 온라인 쇼핑몰 사이트로부터 상세 정보를 추출해 옴으로써 입력될 수 있다. 이러한 소유 의류에 관한 정보에는 소유 의류의 이미지 정보, 제조년도 정보, 구입 날짜 정보, 색상, 컬러, 사이즈 등에 관한 정보가 포함될 수 있다.In other words, as an example, information on owned clothing is automatically entered by a user directly typing or when a user inputs part number information about owned clothing, matching information is searched for by linking with an online shopping mall or clothing company DB. can be input by extracting detailed information from the corresponding online shopping mall site. The information on the owned clothing may include image information of the owned clothing, manufacturing year information, purchase date information, color, color, size, and the like information.
소유 의류 관리부(150)는 이력 저장부(170)에 기 저장된 복수의 착용 의류 이력 데이터의 분석을 기반으로 소유 의류 저장부(180)에 저장된 소유 의류(소유 의류들) 중 기 설정된 닳음 조건을 충족하는 닳음 의류를 식별할 수 있다.The owned
여기서, 기 설정된 닳음 조건은, 일예로 소유 의류 저장부(180)에 저장된 소유 의류(들) 중 사용자에 의해 착용 의류로 선택된 횟수가 미리 설정된 횟수 이상인 조건일 수 있다. 미리 설정된 횟수는 예시적으로 80회, 100회 등과 같이 설정될 수 있으며, 이에만 한정되는 것은 아니고 다양하게 설정될 수 있다.Here, the preset wear-out condition may be, for example, a condition in which the number of times the number of times the user selects the clothes to be worn among the owned clothes(s) stored in the owned
다른 일예로, 기 설정된 닳음 조건은, 소유 의류 저장부(180)에 저장된 소유 의류(들) 중 소유 의류를 구입한 날짜 정보에 해당하는 날짜로부터 미리 설정된 기간이 경과한 조건일 수 있다. 여기서, 소유 의류를 구입한 날짜 정보는 소유 의류 저장부(180)에 저장되는 소유 의류에 관한 정보로부터 식별될 수 있다. 또한, 미리 설정된 기간은 일예로 3년일 수 있으며, 이에만 한정되는 것은 아니고 다양하게 설정될 수 있다.As another example, the preset wear-out condition may be a condition in which a preset period has elapsed from a date corresponding to information on the purchase date of the owned clothing among the owned clothing(s) stored in the owned
이에 따르면, 소유 의류 관리부(150)는 소유 의류 저장부(180)에 저장된 소유 의류에 관한 정보 중 일예로 착용 횟수가 80회 이상이거나 혹은 구입한 날짜로부터 3년이 경과한 소유 의류를 기 설정된 닳음 조건을 충족하는 닳음 의류로서 식별할 수 있다.According to this, the owned
생성부(120)는 소유 의류 관리부(150)에 의한 닳음 의류의 식별에 응답하여, 식별된 닳음 의류의 대체를 위한 대체 의류 추천 리스트를 생성하여 화면 상에 표시하기 위해 생성된 대체 의류 추천 리스트를 관리 제어부(130)로 제공할 수 있다.The
즉, 소유 의류 관리부(150)가 소유 의류 저장부(180)에 저장된 소유 의류에 관한 정보 중 적어도 하나를 닳음 의류로 식별한 경우, 생성부(120)는 닳음 의류의 식별에 응답하여, 식별된 닳음 의류를 다른 의류로 대체할 대체 의류를 추천하기 위한 추천 리스트(즉, 대체 의류 추천 리스트)를 생성할 수 있다. 이후, 생성부(120)는 생성된 대체 의류 추천 리스트를 화면에 표시하기 위해 관리 제어부(130)로 제공할 수 있으며, 관리 제어부(130)는 제공받은 대체 의류 추천 리스트를 화면의 일영역에 표시할 수 있다.That is, when the owned
다시 말해, 생성부(120)는, 소유 의류 관리부(150)에 의해 닳음 의류가 식별되면, 식별된 닳음 의류와 관련하여 대체 가능한 대체 의류의 추천을 위한 대체 의류 추천 리스트를 생성하여 제공할 수 있다.In other words, when worn clothing is identified by the owned
이때, 대체 의류 추천 리스트에 포함된 대체 의류에는, 온라인 쇼핑몰 상에서 판매(거래)되는 의류 중 적어도 하나의 의류가 포함될 수 있다. 특히, 대체 의류 추천 리스트에 포함된 대체 의류에는, 닳음 의류와 동일한 의류인 동일(동종) 대체 의류 및 닳음 의류와 유사 성능을 가진 다른 이종의 의류인 유사 대체 의류(혹은 이종 대체 의류)가 포함될 수 있다.In this case, the replacement clothing included in the replacement clothing recommendation list may include at least one piece of clothing sold (traded) on the online shopping mall. In particular, the replacement clothing included in the replacement clothing recommendation list may include the same (same) replacement clothing, which is the same clothing as the worn-out clothing, and similar replacement clothing (or dissimilar replacement clothing), which is a different type of clothing with similar performance to the worn-out clothing. have.
특히나, 유사 대체 의류로는 대체가 필요하다고 판단된 닳음 의류 대비 후기(평가)가 더 좋거나 가격이 더 낮거나, 품질이 더 좋은 의류가 포함될 수 있다.In particular, similar replacement clothing may include clothing with better reviews (evaluation), lower price, or higher quality compared to worn out clothing determined to be replaced.
이에 따르면, 본 장치(100)는 사용자가 소유하고 있는 소유 의류들 중 기 설정된 닳음 조건을 충족하는 닳음 의류에 대하여, 닳음 의류에 대한 교체가 필요하다고 판단하여 그와 동일하거나 혹은 그와 유사한 성능을 가진 다른 의류를 포함하는 대체 의류 추천 리스트를 제공함으로써, 닳음 의류를 대체할 의류를 결정함에 있어서 사용자가 여러 의류들을 쉽게 비교해 보고 보다 합리적으로 선택할 수 있도록 할 수 있다.According to this, the
즉, 본 장치(100)는 닳음 의류가 식별된 경우, 식별된 닳음 의류에 대하여 대체(교체)가 필요하다고 판단하여 닳음 의류의 대체를 위한 대체 의류 추천 리스트를 제공할 수 있는데, 이때 닳음 의류와 동일한 의류뿐만 아니라 그와는 동류가 상이하나 성능이 좋은 가성비 좋은 의류를 함께 대체 의류로서 대체 의류 추천 리스트에 포함시켜 제공(추천)할 수 있다. 이러한 본 장치(100)는 사용자로 하여금 닳음 의류의 대체(교체)시 합리적으로 제품 비교/선택이 가능하도록 하고, 보다 용이하고 효율적으로 대체(교체) 및 관리가 이루어지도록 지원할 수 있다.That is, when worn clothing is identified, the
일정 판단부(160)는, 감지부(110)가 감지한 촬영 모드 감지 시점에 해당하는 날짜에 지인과의 만남과 관련된 기등록 일정 정보(즉, 지인과의 만남 관련 일정 정보)가 존재하는지 판단할 수 있다.The
이러한 일정 정보는 일예로 본 장치(100)를 통해 제공되는 일정 관리 메뉴(예를 들어, 캘린더 메뉴)에 기록된 정보를 의미할 수 있다. 일예로, 사용자는 복수의 지인 중 제1 지인과 모레에 만나기로 만남을 약속한 경우, 본 장치(100)를 통해 제공되는 일정 관리 메뉴로 들어가 모레에 해당하는 날짜에 '제1 지인과 오후 3시에 만나기로 함'과 같은 일정 정보를 저장(기록)할 수 있다.Such schedule information may refer to, for example, information recorded in a schedule management menu (eg, a calendar menu) provided through the
이때, 촬영 모드 감지 시점에 해당하는 날짜에 제1 지인과의 만남과 관련된 기등록 일정 정보가 존재하는 것으로 판단할 수 있다. 생성부(120)는 일정 판단부(160)에 의한 판단 결과 기 등록 일정 정보가 존재하는 경우, 이력 저장부(170)에 기 저장된 복수의 착용 의류 이력 데이터의 분석을 기반으로 하여 과거에 지인(일예로, 제1 지인)의 만남시 착용했던 착용 소장 의류에 대한 지인 통계 정보를 산출하고, 산출된 지인 통계 정보를 기반으로 의류 추천 정보를 재생성할 수 있다.In this case, it may be determined that pre-registration schedule information related to the meeting with the first acquaintance exists on the date corresponding to the time of sensing the shooting mode. As a result of determination by the
이에 따르면, 분석부(미도시)는 이력 저장부(170)에 기 저장된 복수의 착용 의류 이력 데이터를 기초로 상관 관계의 분석을 통해 상술한 사용자 체감 특성 정보를 획득할 수 있을 뿐만 아니라, 기 저장된 복수의 착용 의류 이력 데이터를 기초로 통계 분석을 수행함으로써 통계 정보를 생성할 수 있다.According to this, the analysis unit (not shown) can acquire the above-described user's sensible characteristic information through correlation analysis based on a plurality of pre-stored worn clothing history data in the
이력 저장부(170)에 대한 착용 의류 이력 데이터의 저장시, 일예로 착용 의류 이력 데이터의 저장이 이루어지는 시점에 대응하는 일정 정보(특히, 지인 정보를 포함한 일정 정보)가 존재하는 경우, 이력 저장부(170)에는 착용 의류 이력 데이터에 일정 정보(특히, 지인 정보를 포함한 일정 정보)가 함께 연계되어 저장될 수 있다.When storing the worn clothing history data in the
즉, 상술한 일예에서는 사용자 주변 환경의 온도 측정 값, 입력 시점 날씨 예보 정보 및 착용 의류의 속성 정보 중 적어도 하나와 체감 온도 정보의 입력 값을 서로 연계시켜 하나의 데이터 세트로 구성함으로써 이를 착용 의류 이력 데이터로 이력 저장부(170)에 저장하는 것으로 예시하였으나, 이에 한정되는 것은 아니고, 지인 정보를 포함한 일정 정보가 존재하는 경우에는 일정 정보를 더 연계시킨 착용 의류 이력 데이터를 이력 저장부(170)에 저장할 수 있다.That is, in the above-described example, at least one of the temperature measurement value of the user's surrounding environment, the weather forecast information at the time of input, and the attribute information of the worn clothing and the input value of the sensible temperature information are linked to each other to form a single data set, and the worn clothing history Although it has been exemplified as storing data in the
이를 통해, 분석부(미도시)는 이력 저장부(170)에 저장된 복수의 착용 의류 이력 데이터에 대한 통계 분석을 통해 통계 정보를 생성할 수 있다.Through this, the analysis unit (not shown) may generate statistical information through statistical analysis of a plurality of worn clothing history data stored in the
이후, 생성부(120)는, 촬영 모드 감지 시점에 해당하는 특정 날짜에 일예로 제1 지인과 관련된 기등록 일정 정보가 존재하는 것으로 판단된 경우, 분석부(미도시)의 분석(통계 분석)을 통해 생성된 통계 정보를 기반으로 하여, 과거에 제1 지인을 만날 때 착용했었던 착용 소장 의류에 대한 지인 통계 정보를 산출하고, 산출된 지인 통계 정보를 기반으로 의류 추천 정보를 재생성할 수 있다.Thereafter, when it is determined that, for example, pre-registered schedule information related to the first acquaintance exists on a specific date corresponding to the sensing time of the shooting mode, the generating
이때, 일정 정보(혹은 통계 정보)의 고려 없이, 생성부(120)가 사용자 체감 특성 정보와 날씨 예보 정보를 고려하여 생성한 의류 추천 정보는 제1 의류 추천 정보라 지칭될 수 있다. 반면, 일정 정보(혹은 통계 정보)를 고려하여 생성된 의류 추천 정보는 제1 의류 추천 정보와는 다른 의류 추천 정보로서 제2 의류 추천 정보라 지칭될 수 있다. 즉, 생성부(120)는 일정 정보(혹은 통계 정보)를 고려하여 의류 추천 정보를 제1 의류 추천 정보가 아닌 제2 의류 추천 정보로 재생성할 수 있다.In this case, the clothing recommendation information generated by the
구체적으로, 사용자 체감 특성 정보와 날씨 예보 정보를 고려하여 생성된 의류 추천 정보는 제1 의류 추천 정보일 수 있다. 생성부(120)는 산출된 지인 통계 정보를 기반으로 하여, 앞서 생성된 제1 의류 추천 정보에 대응하는 소장 의류의 착용 횟수(즉, 제1 의류 추천 정보에 대응하는 소장 의류를 과거에 제1 지인을 만날 때 착용했었던 횟수)가 기 설정된 착용 횟수를 초과하는 것으로 판단되면, 앞서 생성된 의류 추천 정보(제1 의류 추천 정보)를 제1 의류 추천 정보와는 다른 제2 의류 추천 정보로 재생성할 수 있다. 이후, 관리 제어부(130)는 재생성된 제2 의류 추천 정보를 맞춤 의류 추천 정보로서 화면에 표시할 수 있다.Specifically, the clothing recommendation information generated in consideration of the user's sensible characteristic information and the weather forecast information may be the first clothing recommendation information. Based on the calculated acquaintance statistical information, the
여기서, 기 설정된 착용 횟수는 예시적으로 5회로 설정될 수 있으나, 이에만 한정되는 것은 아니고, 그 횟수는 다양하게 설정될 수 있다.Here, the preset number of wearing may be exemplarily set to 5, but is not limited thereto, and the number of times may be variously set.
이에 따르면, 생성부(120)는 제1 의류 추천 정보에 대응하는 소장 의류가, 과거에 특정 지인(제1 지인)을 만났을 때 여러 번(일예로 기 설정된 착용 횟수인 5회 이상) 입었었던 의류인 경우, 제1 의류 추천 정보에 대응하는 소장 의류와는 다른 의류를 포함하는 제2 의류 추천 정보를 생성할 수 있다.According to this, the
다른 일예로 일정 정보(지인 통계 정보)와는 무관하게, 생성부(120)는 분석부(미도시)의 분석에 의해 획득된 통계 정보를 기반으로 하여, 일예로 제1 의류 추천 정보에 대응하는 소장 의류의 착용 횟수가 미리 설정된 구간 기간 동안 기 설정 횟수 이상으로 판단되면, 의류 추천 정보를 제1 의류 추천 정보가 아닌 제2 의류 추천 정보로 재생성 할 수 있다. 여기서, 미리 설정된 구간 기간은 일예로 의류 추천 정보의 생성이 이루어지는 시점으로부터 일주일 이전 기간, 이주일 이전 기간 등일 수 있으며, 이에 한정되는 것은 아니다. 또한, 기 설정된 횟수는 일예로 3회일 수 있으나, 이에 한정되는 것은 아니다.In another example, regardless of schedule information (statistical information of acquaintances), the
이에 따르면, 생성부(120)는 제1 의류 추천 정보에 대응하는 소장 의류가, 근래에 일예로 일주일 동안에 여러 번(일예로, 기 설정된 횟수인 3회 이상) 입었던 의류인 경우, 제1 의류 추천 정보에 대응하는 소장 의류와는 다른 의류를 포함하는 제2 의류 추천 정보를 생성할 수 있다.Accordingly, when the collectible clothing corresponding to the first clothing recommendation information is clothing that has been recently worn multiple times (eg, three or more times a preset number of times) in a week, for example, the
이때, 생성부(120)에 의해 생성되는 의류 추천 정보(즉, 제1 의류 추천 정보와 제2 의류 추천 정보를 포함하는 의류 추천 정보)는, 소유 의류 저장부(180)에 저장된 소유 의류(소유 의류들)를 기반으로 생성되는 정보일 수 있다. 즉, 생성부(120)는 사용자가 소유하고 있는 의류(소유 의류)를 기반으로 하여 의류 추천 정보를 생성할 수 있다.In this case, the clothing recommendation information generated by the generator 120 (that is, clothing recommendation information including the first clothing recommendation information and the second clothing recommendation information) is stored in the owned
또한, 일예로 관리 제어부(130)는 일정 판단부(160)에 의한 판단 결과, 촬영 모드 감지 시점에 해당하는 날짜에 대하여 지인(일예로 제1 지인)과의 만남과 관련된 기등록 일정 정보가 존재하는 것으로 판단된 경우, 기등록 일정 정보에 포함되어 있는 지인(일예로 제1 지인)에 관한 지인정보(제1 지인정보)를 식별하고, 식별된 지인 정보(제1 지인정보)로부터 제1 지인의 연락처 정보를 추출할 수 있다. 여기서, 지인정보에는 지인의 이름, 연락처, 주소 등이 포함될 수 있으나, 이에만 한정되는 것은 아니고 다양한 정보가 포함될 수 있다. 이후, 관리 제어부(130)는 추출된 제1 지인의 연락처 정보를 기반으로, 사용자와 지인(제1 지인)이 서로 간에 함께 하기로 한 만남 관련 일정 정보(즉, 지인과의 만남과 관련된 기등록 일정 정보)에 관한 일정 알림 메시지를 제공할 수 있다.In addition, as an example, the
이때, 관리 제어부(130)는 일정 알림 메시지를 기등록 일정 정보에 대응하는 날짜(촬영 모드 감지 시점에 해당하는 날짜)로부터 미리 설정된 시간 이전에 제공할 수 있다. 여기서, 미리 설정된 시간은 예시적으로 24시간 전일 수 있으나, 이에만 한정되는 것은 아니다. 또한, 관리 제어부(130)는 일정 알림 메시지를 기등록 일정 정보를 저장한 사용자의 사용자 단말(1)과 기등록 일정 정보와 관련된 지인(제1 지인)의 단말에 함께 제공할 수 있다.In this case, the
즉, 관리 제어부(130)는 일정 알림 메시지를 제공함에 있어서, 지인과의 만남과 관련된 일정 정보를 기 등록해둔 사용자의 사용자 단말(1)로만 제공하는 것이 아니라, 사용자 단말(1) 및 기등록 일정 정보에 포함된 지인의 연락처 정보에 대응하는 지인의 단말 각각에게 모두 일정 알림 메시지를 제공할 수 있다.That is, in providing the schedule notification message, the
이에 따르면, 본 장치(100)는 사용자와 지인(제1 지인)이 서로 간에 함께 하기로 한 만남 약속에 대한 일정 공지(일정 알림)가, 해당 일정을 자신의 단말에 등록/저장해둔 사용자뿐만 아니라, 해당 일정과 관련된 지인(즉, 제1 지인) 모두에게 함께(동시에) 알려지도록 할 수 있다. 이러한 본 장치(100)는 제1 지인이 사용자와의 만남(만남 약속)에 관한 일정을 별도로 기록하거나 메모해두지 않았다 할지라도, 사용자가 자신의 단말(사용자 단말)에 기 등록해 둔 기등록 일정 정보로 하여금 제1 지인이 만남(만남 약속)에 관한 일정에 대한 알림을 제공받을 수 있도록 할 수 있어, 자신(사용자)뿐만 아니라 만남 약속을 함께 하기로 한 상대방(일예로, 제1 지인)이 해당 일정을 망각하지 않도록 상기시켜, 서로 간에 원활한 만남의 진행이 이루어지도록 도울 수 있다.According to this, the
즉, 관리 제어부(130)는 사용자 단말(1) 및 지인의 단말 각각에 대하여 일정 알림 메시지를 제공할 수 있다. 이때, 본 장치(100)는 일예로 사용자 단말(1)에 일정 알림 메시지를 제공(사용자 단말의 화면에 일정 알림 메시지를 표시)한 이후, 그에 응답하여 제공된 일정 알림 메시지를 확인하였음을 나타내는 메시지 확인 신호를 사용자 입력(일예로 화면에 대한 터치 입력 등)을 통해 수신할 수 있다.That is, the
이때, 관리 제어부(130)는 사용자 단말(1)에 일정 알림 메시지를 제공한 이후, 미리 설정된 시간(일예로 3시간) 내에 메시지 확인 신호가 수신되지 않는 경우(즉, 제공된 일정 알림 메시지에 대하여 사용자의 확인 입력이 이루어지지 않은 경우), 사용자가 제공된 일정 알림 메시지를 확인하지 못한 것으로 인지하여, 일정 알림 메시지의 제공에 대한 알림 제공 유형을 변경시킬 수 있다.In this case, the
여기서, 알림 제공 유형을 변경시킨다 함은 일예로 일정 알림 메시지의 알림 제공 유형이 현재 진동 알림인 경우, 일정 알림 메시지의 진동 세기를 제1 진동 세기에서 그보다 더 강한 세기의 제2 진동 세기로 변경시키는 것을 의미할 수 있다. 이에 따르면, 관리 제어부(130)는 사용자 단말(1)로 일정 알림 메시지를 1차적으로 제1 진동 세기로 제공한 이후 미리 설정된 시간(일예로 3시간) 내에 메시지 확인 신호가 수신되지 않은 경우, 관리 제어부(130)는 진동 세기를 제1 진동 세기에서 제2 진동 세기로 변경시킨 다음, 변경된 제2 진동 세기를 갖는 일정 알림 메시지를 다시 사용자 단말(1)로 제공(전송)할 수 있다.Here, changing the notification providing type means, for example, when the notification providing type of the schedule notification message is the current vibration notification, changing the vibration strength of the schedule notification message from the first vibration strength to the second vibration strength stronger than that can mean that According to this, the
다른 일예로, 알림 제공 유형을 변경시킨다 함은 일예로 일정 알림 메시지의 알림 제공 유형이 현재 진동 알림인 경우, 일정 알림 메시지의 알림 제공 종류를 다른 이종의 종류로 변경시키는 것을 의미할 수 있다. 여기서, 알림 제공 종류에는 진동 알림, 소리 알림 및 전화 알림 중 적어도 하나가 포함될 수 있다. 이에 따르면, 관리 제어부(130)는 사용자 단말(1)로 일정 알림 메시지를 1차적으로 진동 알림으로 제공한 이후 미리 설정된 시간(일예로 3시간) 내에 메시지 확인 신호가 수신되지 않은 경우, 관리 제어부(130)는 알림 제공 종류를 진동 알림에서 소리 알림으로 변경시킨 다음, 변경된 소리 알림을 갖는 일정 알림 메시지를 다시 사용자 단말(1)로 제공할 수 있다. 이러한 소리 알림을 갖는 일정 알림 메시지의 제공에 의하면, 그에 응답하여 사용자 단말(1)에서는 스피커부(미도시)를 통해 '일정 알림 메시지가 존재합니다'와 같은 소리 알림이 출력될 수 있다.As another example, changing the notification providing type may mean changing the notification providing type of the schedule notification message to a different type when, for example, the notification providing type of the schedule notification message is a current vibration notification. Here, the notification providing type may include at least one of a vibration notification, a sound notification, and a phone notification. According to this, if the
만약, 관리 제어부(130)는 사용자 단말(1)로 일정 알림 메시지를 1차적으로 소리 알림으로 제공한 이후 미리 설정된 시간(일예로 3시간) 내에 메시지 확인 신호가 수신되지 않은 경우, 관리 제어부(130)는 알림 제공 종류를 소리 알림에서 전화 알림으로 변경시킨 다음, 변경된 전화 알림을 갖는 일정 알림 메시지를 다시 사용자 단말(1)로 제공할 수 있다. 이러한 전화 알림을 갖는 일정 알림 메시지의 제공에 의하면, 그에 응답하여 사용자 단말(1)에는 ARS와 같은 자동응답 전화 연결이 이루어지고, 이러한 ARS 를 통해 사용자에게 일정 알림 메시지의 제공이 이루어질 수 있다.If the
이처럼, 본 장치(100)는 일정 알림 메시지를 1차 제공한 이후, 그에 대한 응답(메시지 확인 신호)이 미리 설정된 시간(일예로 3시간) 내에 수신되지 않으면, 알림 제공 유형을 변경시켜 변경된 알림 제공 유형의 방식으로 다시 일정 알림 메시지를 제공함으로써, 사용자가 보다 일정 알림 메시지에 대한 확인을 정확히 인식(확실하게 인지)할 수 있도록 도울 수 있다.As such, the
또한 생성부(120)는 의류 추천 정보를 생성함에 있어서, 일예로 기상청 서버(미도시)로부터 획득된 촬영 모드 감지 시점에 대응하는 날씨 예보 정보로부터 밤과 낮의 기온차 정보를 판단하고, 판단된 기온차 정보의 수준(정도)에 따라 서로 다른 의류 추천 정보를 생성할 수 있다. 여기서, 밤과 낮은 통상적으로 정의된 시간대를 의미할 수 있으며, 이에 한정되는 것은 아니다.In addition, in generating the clothing recommendation information, the
예시적으로, 생성부(120)는 촬영 모드 감지 시점에 대응하는 날씨 예보 정보를 기상청 서버(미도시)로부터 획득하고, 획득된 내일에 대응하는 날씨 예보 정보로부터 밤과 낮의 기온차 정보를 판단할 수 있다. 이때, 생성부(120)는 판단된 기온차 정보가 제1 범위에 속하면 제1 의류 추천 정보를 생성하고, 기온차 정보가 제2 범위에 속하면 제2 의류 추천 정보를 생성하며, 기온차 정보가 제3 범위에 속하면 제3 의류 추천 정보를 생성할 수 있다.Illustratively, the generating
여기서, 제1 범위는 일예로 밤과 낮의 기온차 값이 0도 이상 5도 미만으로 나타나는 범위를 의미하고, 제2 범위는 밤과 낮의 기온차 값이 5도 이상 10도 미만으로 나타나는 범위를 의미하며, 제3 범위는 밤과 낮의 기온차 값이 10도 이상으로 나타나는 범위를 의미할 수 있다.Here, the first range means, for example, a range in which the temperature difference between night and day is 0 degrees or more and less than 5 degrees, and the second range means a range in which the temperature difference between night and day is 5 degrees or more and less than 10 degrees. and, the third range may mean a range in which the temperature difference between night and day is 10 degrees or more.
이때, 일예로, 제1 의류 추천 정보는 의류의 두께가 제1 값 미만에 속하는 소장 의류에 관한 정보가 포함되고, 제2 의류 추천 정보는 의류의 두께가 제1 값 이상 제1 값보다 큰 제2 값 미만에 속하는 소장 의류에 관한 정보가 포함되며, 제3 의류 추천 정보는 제2 값 이상에 속하는 소장 의류에 관한 정보가 포함될 수 있다. 여기서, 예시적으로 제1 값은 1mm, 제2 값은 3mm 일 수 있으나, 이에 한정되는 것은 아니다.In this case, as an example, the first clothing recommendation information includes information on collectible clothing for which the thickness of the clothing is less than the first value, and the second clothing recommendation information includes the first clothing recommendation information for which the thickness of the clothing is greater than or equal to the first value and greater than the first value. Information on collectible clothing belonging to a value less than 2 may be included, and the third clothing recommendation information may include information about collectible clothing belonging to a value greater than or equal to the second value. Here, for example, the first value may be 1 mm and the second value may be 3 mm, but is not limited thereto.
이에 따르면, 본 장치(100)는 밤과 낮의 기온차 정보의 수준에 따라 해당 수준에 맞는 맞춤형 의류 추천 정보를 생성하여 사용자에게 제공할 수 있다.According to this, the
이력 저장부(170)는 상술한 바와 같이 입력 요청 메시지에 대한 사용자 입력시마다, 입력 요청 메시지에 대응하는 착용 의류 이력 데이터를 생성하여 저장할 수 있다. 소유 의류 저장부(180)는 사용자가 소유한 소유 의류에 관한 정보를 저장할 수 있다. 이에 대한 설명은 앞서 자세히 설명했으므로, 이하 구체적인 설명은 생략하기로 한다.As described above, whenever a user inputs an input request message, the
본 장치(100)에서 생성부(120)가 생성하는 의류 추천 정보는, 사용자가 소유한 소유 의류 중 적어도 하나의 소유 의류를 기초로 생성하는 옷차림 정보(코디 정보)와 관련된 의류 추천 정보일 수 있다. 다만, 이에만 한정되는 것은 아니고, 생성부(120)가 생성하는 의류 추천 정보는, 후술하는 온라인 쇼핑몰 상에서 판매, 거래되는 패션 제품(이는 의류, 패션 잡화, 화장품 등을 포함한 각종 패션 관련 상품을 의미함) 중 적어도 하나의 패션 제품을 기초로 생성하는 코디 정보와 관련된 의류 추천 정보일 수 있다.The clothing recommendation information generated by the
상술한 바와 같이, 본 장치(100)는 종래의 SNS 제공 기술이 개인정보 노출 우려가 있고 일상을 공유하기 위한 정보를 표현하는 데에 한계가 있는 문제를 해소하고자, 생성된 사용자 아바타를 현실 영상 상에 표시함으로써, 사용자 아바타가 반영된 증강현실 영상의 획득이 이루어지도록 하는 기능을 제공할 수 있다.As described above, in order to solve the problem that the conventional SNS providing technology has a risk of personal information exposure and a limitation in expressing information for sharing daily life, the
또한, 본 장치(100)는, 사용자가 실제 느끼는 체감 온도 정보를 고려하여 생성된 의류 추천 정보를 기반으로, 이를 사용자 단말의 화면에 표시함으로써, 날씨의 온도가 동일한 조건에서 각각의 사용자가 체감하는(느끼는) 상대적인 체감 온도가 각기 다름을 고려하여 사용자 개개인에게 맞춤화된 보다 활용성 높은 맞춤 의류 추천 정보를 제공(추천)하는 기능을 제공할 수 있다. 또한, 본 장치(100)는 사용자가 실제 느끼는 체감 온도 정보를 고려하여 생성된 의류 추천 정보에 해당하는 의류를 사용자 아바타에 적용시키고 이를 증강현실 영상의 획득을 위해 화면에 표시함으로써, 자신을 대체하여 표현하는 사용자 아바타로서, 보다 사용자의 체감 온도 정보 내지 사용자가 실제 느끼는 감정 등이 반영된 사용자 아바타의 적용(표현)을 가능케 할 수 있다. 이러한 본 장치(100)는 사용자 아바타로 하여금 보다 현실감 있는 자신을 표현 가능하게 함에 따라, 개인정보 노출의 위험은 줄이면서도 보다 자신만의 개성의 표출이 강하게 이루어지도록 제공할 수 있다.In addition, the
뿐만 아니라, 본 장치(100)는 후술하는 시뮬레이션부(190)에 의하면, 온라인 쇼핑몰상에서 판매하는 패션상품(패션 제품)을 구매함에 있어서, 구매자의 상품 구매의 실패율을 줄이고 효과적으로 구매할 수 있도록 하는 패션 스타일링 시뮬레이션 기능을 제공할 수 있다. 즉, 본 장치(100)는, 시뮬레이션부(190)를 제공함으로써, 온라인 쇼핑몰 상에서 본 상품(제품)을 구매하여 실제 받아보았을 때 쇼핑몰 상에서 본 상품의 느낌/크기 등이 실제 상품을 본 느낌/크기 등과 다름에 따라 상품 구매의 만족도가 높지 않고 교환/환불 등이 빈번히 일어나던 문제를 해소할 수 있는 패션 스타일링 시뮬레이션 기능을 제공할 수 있다. 시뮬레이션부(190)에 대한 설명은 도 6을 참조하여 보다 쉽게 이해될 수 있다.In addition, according to the simulation unit 190, which will be described later, the
도 6은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치(100)에 포함된 시뮬레이션부(190)를 설명하기 위한 개략적인 블록도이다.
6 is a schematic block diagram for explaining the simulation unit 190 included in the
이하 도 6을 참조하여 설명함에 있어서, 도 6에 도시된 본 시스템(1000), 본 장치(100), 사용자 단말(1) 및 네트워크(2)의 구성은, 각각 상술한 도 1에 도시된 본 시스템(1000), 본 장치(100), 제1 사용자 단말(1), 네트워크(2)의 구성과 동일한 구성일 수 있다. 따라서, 이하 생략된 내용이라 하더라도, 도 1을 참조하여 설명된 내용은 도 6을 참조하여 설명된 내용에도 동일하게 적용될 수 있다.Hereinafter, in the description with reference to FIG. 6, the configuration of the
도 6을 참조하면, 본 장치(100)는 상술한 도 1에 도시된 본 장치(100)에 포함된 구성들 이외에, 추가적으로 시뮬레이션부(270)를 포함할 수 있다. Referring to FIG. 6 , the
시뮬레이션부(270)는 사용자(제1 사용자)의 신체 특성 정보가 입력된 경우 입력된 신체 특성 정보가 고려된 아바타를 생성하고, 복수의 패션 제품 중 착용 시뮬레이션 적용을 희망하는 착용 희망 패션 제품에 대한 사용자 선택이 이루어지면, 선택된 착용 희망 패션 제품의 착용이 이루어진 제품 착용 아바타의 영상을 생성하여 화면에 표시할 수 있다. 이에 대한 보다 구체적인 설명은 다음과 같다.The
사용자 단말(1)은 일예로 상술한 제1 사용자 단말(1)을 의미할 수 있다. 다만, 이에만 한정되는 것은 아니고, 상술한 바와 같이, 사용자 단말(1)에 대하여 설명된 내용은 이하 생략된 내용이라 하더라도 복수의 사용자 단말(1, 1', …) 각각에 대한 설명에도 동일하게 적용될 수 있다.The
사용자 단말(1)은 일예로 사용자로부터 사용자의 신체 특성 정보를 입력받을 수 있으며, 입력받은 신체 특성 정보를 시뮬레이션부(270)의 입력부(10)로 제공할 수 있다. 이에 따라, 입력부(10)는 사용자의 신체 특성 정보를 사용자 단말(1)을 통해 사용자로부터 입력받을 수 있다. 이 외에도, 사용자 단말(1)은 시뮬레이션부(270)를 포함한 본 장치(100) 내 각 부의 동작을 제어(원격으로 제어)할 수 있다.The
시뮬레이션부(270)는 입력부(10), 아바타 생성부(20), 시뮬레이션 제어부(30), 식별부(40) 및 평가부(50)를 포함할 수 있다.The
입력부(10)는 사용자(사용자 단말)로부터 사용자의 신체 특성과 관련된 정보인 신체 특성 정보를 입력받을 수 있다. 입력부(10)는 신체 특성 정보를 사용자 단말(1)을 통해 입력받을 수 있고, 혹은 본 장치(100)에 자체 구비된 화면을 통해 입력받을 수 있다.The
여기서, 신체 특성 정보는 일예로 사용자의 체형, 얼굴형 및 피부톤 중 적어도 하나를 포함할 수 있다. 이때, 사용자의 체형에 관한 정보라 함은 사용자의 몸의 모양(형태, 형상)에 관한 정보를 의미할 수 있다. 다만, 이에만 한정되는 것은 아니고, 사용자의 체형에 관한 정보에는 사용자의 키, 몸무게, 발사이즈, 허리 사이즈, 가슴 사이즈 등 사용자의 신체 사이즈에 관한 각종 정보가 포함될 수 있다. 신체 특성 정보는 사용자와 닮은 3차원 아바타(3차원 모델)을 생성하는데 있어서 필요한 모든 정보를 의미할 수 있다. Here, the body characteristic information may include, for example, at least one of the user's body type, face shape, and skin tone. In this case, the information about the user's body type may mean information about the shape (shape, shape) of the user's body. However, the present invention is not limited thereto, and the information about the user's body type may include various types of information about the user's body size, such as the user's height, weight, foot size, waist size, and chest size. The body characteristic information may refer to all information necessary for generating a 3D avatar (3D model) resembling a user.
일예로, 입력부(10)는 사용자의 신체 특성 정보를 사용자 단말(1)을 통해 사용자로부터 타이핑을 통해 직접 입력받을 수 있다.For example, the
다른 일예로, 입력부(10)는 사용자의 신체 특성 정보를 사용자 단말(1)로부터 획득된 사용자 촬영 이미지로부터 추출함으로써 입력받을 수 있다. 구체적인 예로, 사용자는 신체 특성 정보를 입력하기 위해, 일예로 사용자 단말(1)의 카메라를 이용해 본인의 신체 특성 정보에 대한 추출이 가능하도록 본인 자신을 촬영할 수 있다. 이때, 본인의 신체 특성 정보에 대한 추출이 가능하도록 촬영한다라 함은, 사용자의 체형(몸의 형태), 얼굴형, 피부톤이 나타나도록 사용자의 전신 부위(혹은 사용자의 신체부위 중 적어도 일부의 신체부위)를 정면, 측면 등에서 촬영하는 것을 의미할 수 있으며, 이에 한정되는 것은 아니다. As another example, the
사용자 단말(1)을 통해 사용자 본인 자신을 촬영한 이미지인 사용자 촬영 이미지의 획득이 이루어진 경우, 입력부(10)는 획득된 사용자 촬영 이미지에 대한 이미지 분석을 수행하여 사용자 촬영 이미지로부터 신체 특성 정보를 추출할 수 있다. 입력부(10)는 사용자 촬영 이미지로부터 추출된 신체 특성 정보를 사용자의 신체 특성 정보로서 입력받을 수 있다. 여기서, 이미지 분석시에는 기 알려져 있거나 향후 개발되는 다양한 이미지 분석 알고리즘이 적용될 수 있다.When a user-captured image, which is an image taken by the user himself/herself, is acquired through the
아바타 생성부(20)는 입력부(10)에서 입력받은 신체 특성 정보가 고려된 아바타를 생성할 수 있다.The avatar generator 20 may generate an avatar in consideration of the body characteristic information received from the
이때, 아바타 생성부(20)에 의해 생성되는 아바타는, 상술한 아바타 관리부(210)가 생성하는 사용자 아바타와 동일한 아바타일 수 있다. 따라서, 이하 생략된 내용이라 하더라도, 아바타 관리부(210)에 의해 생성된 사용자 아바타에 대하여 설명되는 내용은 아바타 생성부(20)에 의해 생성된 아바타(사용자 아바타)에 대한 설명에도 동일하게 적용될 수 있고, 그 반대로도 적용 가능하다.In this case, the avatar generated by the avatar generating unit 20 may be the same avatar as the user avatar generated by the above-described
아바타 생성부(20)에 의해 생성되는 아바타는, 신체 특성 정보로서 입력받은 사용자의 체형, 얼굴형 및 피부톤 중 적어도 하나를 고려하여 생성된 3차원 아바타일 수 있다. 아바타 생성부(20)에 의해 생성되는 아바타는 바람직하게 입력부(10)에서 입력받은 신체 특성 정보를 모두 반영하여 생성된 3차원 아바타임이 바람직할 수 있다.The avatar generated by the avatar generator 20 may be a three-dimensional avatar generated in consideration of at least one of a user's body type, face shape, and skin tone received as body characteristic information. The avatar generated by the avatar generating unit 20 may preferably be a 3D avatar generated by reflecting all body characteristic information received from the
아바타 생성부(20)는 신체 특성 정보를 기반으로 하여, 사용자와 상당히 유사한(흡사한) 형상의 아바타를 3차원으로 모델링하여 생성할 수 있다. 아바타 생성부(20)는 사용자 자신을 닮은 체형의 아바타를 생성할 수 있다.The avatar generator 20 may model and generate an avatar having a shape very similar to (similar to) a user's in three dimensions, based on the body characteristic information. The avatar generator 20 may generate an avatar having a body shape resembling the user himself/herself.
시뮬레이션 제어부(30)는 복수의 패션 제품 중 착용 시뮬레이션 적용을 희망하는 착용 희망 패션 제품에 대한 사용자 선택이 이루어진 경우, 사용자에 의해 선택된 착용 희망 패션 제품의 착용이 이루어진 제품 착용 아바타의 영상을 생성하여 화면에 표시할 수 있다. 여기서, 제품 착용 아바타라 함은, 아바타 생성부(20)에 의해 생성된 아바타 상에 사용자에 의해 선택된 착용 희망 패션 제품의 착용이 이루어진 모습(착용 희망 패션 제품이 입혀진 모습)의 아바타를 의미할 수 있다.The
시뮬레이션 제어부(30)는 생성된 제품 착용 아바타의 영상을 일예로 본 장치(100) 자체에 구비된 화면 상에 표시할 수 있으며, 다른 일예로 사용자 단말(1)의 화면 상에 표시할 수 있다.The
본원에서 패션 제품이라 함은 일예로 온라인 쇼핑몰 상에서 판매, 거래되는 각종 패션 관련 상품을 의미할 수 있다. 패션 제품에는 일예로 의류, 패션 잡화, 화장품 등이 포함될 수 있다. 의류에는 상의, 하의, 원피스, 속옷 등 다양한 의상들이 포함될 수 있으며, 패션 잡화에는 액세서리(악세사리), 구두, 핸드백, 지갑, 벨트, 모자 등이 포함될 수 있다. 이러한 예는 본원의 이해를 돕기 위한 하나의 예시일 뿐, 이에만 한정되는 것은 아니고, 패션 제품에는 패션, 스타일링, 외모 꾸밈 등과 관련된 각종 물품, 물건 등이 포함(고려)될 수 있다. 본원에서 패션 제품은 패션 아이템, 패션 상품 등으로 달리 지칭될 수 있다.As used herein, the term “fashion product” may refer to, for example, various fashion-related products sold and traded on an online shopping mall. Fashion products may include, for example, clothing, fashion accessories, cosmetics, and the like. Clothing may include various clothes such as tops, bottoms, dresses, and underwear, and fashion miscellaneous goods may include accessories (accessories), shoes, handbags, wallets, belts, hats, and the like. This example is only one example for helping understanding of the present application, and is not limited thereto, and the fashion product may include (consider) various articles, articles, etc. related to fashion, styling, appearance decoration, and the like. In the present specification, a fashion product may be referred to as a fashion item, a fashion product, or the like.
사용자는 일예로 온라인 쇼핑몰 상에서 판매(거래)되는 패션 제품 중 특정 패션 제품을 구매하기에 앞서, 해당 특정 패션 제품이 자신에게 잘 어울리는지, 자신이 입었을 때의 핏이 어떻게 보여지는지, 품, 기장 등이 어떠한지, 해당 특정 패션 제품을 착용했을 때 조여지는 부분(타이트한 부분)이 없는지 등을 확인(시뮬레이션)하기 위해, 확인(시뮬레이션)을 희망하는 해당 특정 패션 제품을 착용 희망 패션 제품으로서 선택할 수 있다.For example, before purchasing a specific fashion product among fashion products sold (traded) on an online shopping mall, the user may check whether the specific fashion product suits him well, how the fit looks when he wears it, width, length, etc. In order to confirm (simulation) whether the specific fashion product is tightened (tight part) when the specific fashion product is worn, the specific fashion product desired to be confirmed (simulated) may be selected as the desired fashion product to be worn.
즉, 사용자는 온라인 쇼핑몰 상에 판매되는 패션 제품 중 아바타 생성부(20)에서 생성된 아바타에 대하여 착용 시뮬레이션을 수행하길 희망하는 패션 제품을 착용 희망 패션 제품으로서 선택할 수 있다.That is, the user may select, as the desired fashion product, a fashion product that the user desires to perform a wearing simulation on the avatar generated by the avatar generating unit 20 among fashion products sold on the online shopping mall.
일예로, 온라인 쇼핑몰 상에 복수의 패션 제품으로서 제1 패션 제품(일예로 상의-반팔), 제2 패션 제품(일예로 하의-반바지), 제3 패션 제품(일예로 하의-치마) 등이 판매되고 있다고 하자. 그리고 사용자가 제1 패션 제품에 관심이 있어 제1 패션 제품을 자신이 실제 착용했을 때의 모습을 시뮬레이션하고 싶은 경우, 제1 패션 제품이 아바타 생성부(20)에 의해 생성된 아바타에 입혀진 모습의 영상을 보기 위해, 사용자는 제1 패션 제품을 착용 희망 패션 제품으로서 선택할 수 있다.For example, a first fashion product (eg, top-short sleeve), a second fashion product (eg, bottom-shorts), and a third fashion product (eg, bottom-skirt) are sold on the online shopping mall as a plurality of fashion products. let's say it's happening In addition, if the user is interested in the first fashion product and wants to simulate the appearance when the user actually wears the first fashion product, the image of the first fashion product applied to the avatar generated by the avatar generating unit 20 is To view the image, the user may select the first fashion product as a desired fashion product to be worn.
이러한 경우, 시뮬레이션 제어부(30)는 복수의 패션 제품 중 제1 패션 제품에 대한 사용자 선택(사용자의 선택 입력)에 응답하여, 착용 희망 패션 제품인 제1 패션 제품과 기 생성된 아바타를 서로 합성시킬 수 있으며, 이를 통해 제1 패션 제품의 착용이 이루어진 제품 착용 아바타의 영상을 생성할 수 있다. 이때, 제품 착용 아바타는 아바타 생성부(20)에 의해 생성된 아바타 상에 제1 패션 제품이 입혀진 모습의 아바타를 의미하는 것으로서, 제1 패션 제품의 착용이 이루어진 아바타를 의미할 수 있다.In this case, in response to a user selection (user selection input) for a first fashion product among a plurality of fashion products, the
시뮬레이션 제어부(30)는 생성된 제품 착용 아바타의 영상을 화면에 표시할 수 있다. 사용자는 화면에 표시되는 제품 착용 아바타를 통하여 제1 패션 제품이 실제로 자신이 입었을 때 어떠한 모습으로 보여지는지에 대한 모습을 가상으로 확인해 볼 수 있다.The
이후, 시뮬레이션 제어부(30)는 제품 착용 아바타의 자세를 변경시키는 시뮬레이션을 수행할 수 있다. 이때, 제품 착용 아바타의 자세는 일예로 사용자의 실시간 자세 변경 조작 제어에 의해 변경될 수 있으며, 다른 일예로 기 설정된 복수 유형의 변경 자세로 자동으로 변경될 수 있다.Thereafter, the
이때, 본원에서 제품 착용 아바타의 자세를 변경시킨다 함은, 정적인 상태로의 자세 변경을 의미할 수 있겠으나, 이에 한정되는 것은 아니고, 동적인 상태로의 자세 변경까지 모두 포함하는 넓은 개념으로 이해됨이 바람직할 수 있다.In this case, changing the posture of the product wearing avatar may mean changing the posture to a static state, but is not limited thereto, and is understood as a broad concept including all posture changes to a dynamic state. It may be desirable to be
예시적으로, 제품 착용 아바타의 기본 자세는 정자세일 수 있으며, 변경된 자세로는 다양한 높이별 의자에 앉은 자세, 맨 바닥에 쭈그린 자세, 걷는 자세, 뛰는 자세 등이 포함될 수 있으며, 뿐만 아니라 걷는 동작, 뛰는 동작, 앉았다 일어서는 것을 반복하는 동작 등이 포함될 수 있다.Illustratively, the basic posture of the product wearing avatar may be an upright posture, and the changed posture may include a sitting posture on a chair at various heights, a squatting posture, a walking posture, a running posture, and the like, as well as a walking posture. , jumping, and repeating sitting and standing.
시뮬레이션 제어부(30)는 사용자에 의해 선택된 착용 희망 패션 제품의 제품 속성 정보를 고려하여, 제품 착용 아바타의 자세를 변경시킴에 따른 상태 변화가 이루어지는 변화된 착용 희망 패션 제품이 반영된 자세 변경 아바타의 영상을 실시간으로 생성하여 화면에 표시할 수 있다. 즉, 시뮬레이션 제어부(30)는 제품 착용 아바타의 자세 변경에 응답하여, 변화되는 착용 희망 패션 제품의 상태의 변화(일예로, 옷이 늘어나거나, 조이거나, 팽팽해지거나 하는 등의 변화)가 반영된 자세가 변경된 아바타(자세 변경 아바타)의 영상을 실시간으로 화면에 표시할 수 있다.The
여기서, 착용 희망 패션 제품의 제품 속성 정보에는 치수, 소재, 신축성, 및 비침 정도 중 적어도 하나에 관한 정보가 포함될 수 있다. 예시적으로 착용 희망 패션 제품이 반팔 상의인 경우, 치수 정보에는 단순히 S, M, L 와 같은 사이즈 정보만 포함되는 것이 아니라, 총기장, 가슴단면, 어깨넓이, 소매길이 등의 정보가 포함될 수 있으며, 이에 한정되는 것은 아니다.Here, the product attribute information of the desired fashion product to be worn may include information on at least one of dimensions, material, elasticity, and see-through level. For example, if the desired fashion product is a short-sleeved top, the size information may include not only size information such as S, M, L, but also information such as gun length, chest section, shoulder width, and sleeve length. , but is not limited thereto.
착용 희망 패션 제품의 제품 속성 정보는, 일예로 착용 희망 패션 제품이 판매되는 온라인 쇼핑몰의 홈페이지 상에 개시된 정보의 크롤링(수집)을 통해 획득될 수 있다.Product attribute information of the desired fashion product to be worn may be obtained, for example, by crawling (collecting) information disclosed on the homepage of an online shopping mall where the desired fashion product to be worn is sold.
이에 따르면, 시뮬레이션 제어부(30)는 복수의 패션 제품 중 착용 희망 패션 제품에 대한 사용자 선택이 이루어진 경우, 사용자에 의해 선택된 착용 희망 패션 제품에 대한 제품 속성 정보를 크롤링을 통해 획득하고, 이후 획득된 제품 속성 정보를 고려하여 제품 착용 아바타의 자세를 변경시킴에 따라 상태 변화가 이루어지는 착용 희망 패션 제품이 적용된 자세 변경 아바타의 영상을 실시간으로 화면에 표시할 수 있다. 즉, 제품 착용 아바타의 자세 변경에 따라 실시간으로 화면에 표시되는 자세 변경 아바타는, 자세 변경으로 인한 변화된 착용 희망 패션 제품의 상태(형상, 형태 등)가 적용된(반영된) 자세가 변경된 아바타를 의미할 수 있다.According to this, when a user selects a desired fashion product from among a plurality of fashion products, the
식별부(40)는 화면에 표시되는 자세 변경 아바타 상에서, 변화된(상태 변화가 이루어진) 착용 희망 패션 제품에 의하여 기 설정된 조임 강도값 이상의 조임 강도값이 나타나는 조임 부위의 영역을 식별할 수 있다. 여기서, 조임 강도값이라 함은 조여지는 수준(정도)을 나타내는 값으로서, 타이트함(tightness) 정도값 등으로 달리 지칭될 수 있다.The
시뮬레이션 제어부(30)는 식별부(40)에 의해 식별된 조임 부위의 영역을 자세 변경 아바타의 영상 상에 표시할 수 있다.The
본원의 일예에서는 시뮬레이션 제어부(30)가 자세 변경 아바타 상에서 식별된 조임 부위의 영역을 자세 변경 아바타 상에 표시하는 것으로 예시하였으나, 이에만 한정되는 것은 아니다. 식별부(40)는 제품 착용 아바타 상에서 조임 부위의 영역을 식별할 수 있으며, 이에 따라 시뮬레이션 제어부(30)는 제품 착용 아바타 상에서 식별된 조임 부위의 영역을 제품 착용 아바타 상에 표시할 수 있다.In the example of the present disclosure, the
시뮬레이션 제어부(30)는 기 설정된 조임 강도값 이상의 조임 강도의 수준(정도)에 따라 자세 변경 아바타의 영상 상에 표시되는 조임 부위의 영역에 대한 표시 형태를 달리할 수 있다. 이때, 시뮬레이션 제어부(30)는 식별부(40)에 의해 자세 변경 아바타 상에서 식별된 조임 부위의 영역들 중 조임 강도의 수준이 높게 나타나는 조임 부위의 영역일수록, 그보다 상대적으로 조임 강도의 수준이 낮게 나타나는 조임 부위의 영역과 대비하여 보다 인식 또는 식별이 용이한 형태로 표시되도록 제어할 수 있다.The
달리 말해, 시뮬레이션 제어부(30)는 식별부(40)에 의해 식별된 조임 부위가 제1 조임 부위 및 제2 조임 부위를 포함하되, 제1 조임 부위의 조임 강도값이 제2 조임 부위의 조임 강도값 보다 큰 경우, 자세 변경 아바타의 영상(혹은 제품 착용 아바타 상에서) 제1 조임 부위의 영역이 제2 조임 부위의 영역 대비 보다 인식 또는 식별이 용이한 형태로 표시되도록 제어할 수 있다.In other words, in the
여기서, 조임 부위의 영역을 인식 또는 식별이 용이한 형태로 표시한다는 것은, 해당 조임 부위의 영역의 표시가 시각적으로 강조된 형태, 크기가 확장된 형태, 청각적인 효과를 수반하는 형태 및 동적인 애니메이션 형태 중 적어도 하나로 표시하는 것을 의미할 수 있다. 이는 도 7을 참조하여 보다 쉽게 이해될 수 있다.Here, displaying the region of the tightening portion in a form that is easy to recognize or identify means that the display of the region of the tightening portion is visually emphasized, expanded in size, accompanied by an auditory effect, and a dynamic animation form It may mean displaying at least one of This can be more easily understood with reference to FIG. 7 .
도 7은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치(100)의 시뮬레이션부(190) 내 식별부(40)에 의해 식별된 조임 부위의 영역이 화면 상에 표시되는 예를 설명하기 위한 도면이다.7 is an example in which the region of the tightening portion identified by the
도 7에는 일예로 식별부(40)가 제품 착용 아바타(5) 상에서 조임 부위의 영역을 식별함에 따라, 시뮬레이션 제어부(30)가 식별부(40)에 의해 식별된 조임 부위의 영역을 제품 착용 아바타(5)의 영상 상에 표시한 경우의 예를 나타낸다. 다만, 이에만 한정되는 것은 아니고, 앞서 말한 바와 같이, 시뮬레이션 제어부(30)는 식별부(40)에 의해 식별된 자세 변경 아바타 상에서의 조임 부위의 영역을 자세 변경 아바타 상에 표시할 수 있다.In FIG. 7 , as an example, as the
후술하는 설명에서 조임 부위의 영역 식별 및 표시에 대해 설명함에 있어서, 제품 착용 아바타(5)에 대하여 설명되는 내용은 이하 생략된 내용이라 하더라도 자세 변경 아바타에 대한 설명에도 동일하게 적용될 수 있다. In the description of the region identification and display of the tightening portion in the description to be described later, the description of the
도 7을 참조하면, 시뮬레이션 제어부(30)는 사용자의 선택이 이루어진 착용 희망 패션 제품의 착용이 이루어진 제품 착용 아바타(5)의 영상을 화면에 표시할 수 있다. 이때, 제품 착용 아바타(5)는 사용자의 신체 특성을 고려하여 생성된 3차원 아바타 상에 사용자가 선택한 착용 희망 패션 제품의 착용이 이루어진 모습을 의미할 수 있다.Referring to FIG. 7 , the
사용자가 선택한 착용 희망 패션 제품이 일예로 복수개로서, 상의-나시인 제1 착용 희망 패션 제품(11), 하의-반바지인 제2 착용 희망 패션 제품(12) 및 양말인 제3 착용 희망 패션 제품(13)이 포함된다고 하자. 이러한 경우, 시뮬레이션 제어부(30)는 제1 착용 희망 패션 제품(11) 내지 제3 착용 희망 패션 제품(13)의 착용이 이루어진 아바타(아바타 생성부에서 생성된 아바타)를 제품 착용 아바타(5)로 하여 화면 상에 영상으로 표시할 수 있다.A plurality of desired fashion products selected by the user include, for example, a first desired
이때, 식별부(40)는 제품 착용 아바타(5) 상에서, 착용된 착용 희망 패션 제품(11, 12, 13)에 의하여 기 설정된 조임 강도값 이상의 조임 강도값이 나타나는 조임 부위의 영역을 식별할 수 있다. 이때, 식별부(40)에 의하여, 기 설정된 조임 강도값 이상의 조임 강도값이 나타나는 조임 부위의 영역으로서 제1 조임 부위(21)와 제2 조임 부위(22)를 포함한 두 부위가 식별되었다고 하자.In this case, the
이때, 제1 조임 부위(21)의 조임 강도값이 제2 조임 부위(22)의 조임 강도값보다 높게 나타난 경우, 시뮬레이션 제어부(30)는 화면에 표시되는 제품 착용 아바타(5)의 영상 상에서 제1 조임 부위(21)의 영역이 제2 조임 부위(22)의 영역 대비 보다 인식 또는 식별이 용이한 형태로 표시되도록 할 수 있다.At this time, when the tightening strength value of the
일예로, 시뮬레이션 제어부(30)는 제1 조임 부위(21)의 영역을 빨간색으로 표시하고, 제2 조임 부위(21)의 영역을 노란색으로 표시할 수 있다. 시뮬레이션 제어부(30)는 일예로 조임 강도값이 가장 큰 값을 기준으로 점차 낮아질수록 빨, 주, 노, 초 파, 남, 보와 같은 색상순으로 표시되도록 할 수 있다. 즉, 가장 높은 조임 강도값으로 나타나는 영역은 빨간색, 가장 낮은 조임 강도값으로 나타나는 영역은 보라색으로 표시할 수 있다.For example, the
다른 일예로, 시뮬레이션 제어부(30)는 제1 조임 부위(21)의 영역의 표시 크기를 제2 조임 부위(21)의 영역의 표시 크기보다 더 크게 하여 표시할 수 있다. 또 다른 일예로, 시뮬레이션 제어부(30)는 제1 조임 부위(21)의 영역을 볼딕으로 표시하고 제2 조임 부위(21)의 영역을 볼딕 없이 표시할 수 있다. As another example, the
또 다른 일예로, 시뮬레이션 제어부(30)는 제1 조임 부위(21)의 영역을 점멸 형태로 표시하는 반면, 제2 조임 부위(21)의 영역을 정적인 형태로 표시할 수 있다. 이처럼, 시뮬레이션 제어부(30)는 제1 조임 부위(21)의 영역을 점멸 형태로 표시(즉, 깜빡깜빡하게 표시)함으로써, 사용자로 하여금 제1 조임 부위(21)의 영역이 제2 조임 부위(22)의 영역 대비 상대적으로 더 많이 조이는 부위임을 직관적으로 인지할 수 있도록 제공할 수 있다.As another example, the
즉, 시뮬레이션부(270)는 자세 변경 아바타 혹은 제품 착용 아바타(5) 상(혹은 해당 아바타의 영상 상)에서 조임 부위의 영역을 표시함에 있어서, 상대적으로 조임 강도값이 더 높게 나타나는 영역이 그보다 조임 강도값이 낮게 나타나는 영역 대비 인식 또는 식별이 용이한 형태로 표시함으로써, 사용자가 해당 착용 희망 패션 제품을 구매하여 실제로 착용하였을 때 조임이 예상되는 부위(위치)를 미리 직관적으로 인지(확인)할 수 있도록 제공할 수 있다.That is, when the
이러한 시뮬레이션부(270)는 사용자가 해당 착용 희망 패션 제품을 실제 구매하기에 앞서, 해당 착용 희망 패션 제품을 구매할지 여부에 대한 결정, 해당 착용 희망 패션 제품 대비 다른 사이즈로 바꾸어 구매할지에 대한 결정, 혹은 해당 착용 희망 패션 제품과는 다른 이종의 패션 제품으로 구매할지에 대한 결정이 보다 신속하고 용이하게 이루어지도록 하고, 패션 제품에 대한 구매의 실패 확률을 낮출 수 있다.The
또한, 시뮬레이션 제어부(30)는 식별부(40)에 의해 식별된 조임 부위의 영역의 개수가 기 설정된 개수 이상인 것으로 판단되는 경우, 기 설정된 개수 이상으로 조임 부위의 영역이 나타나는 착용 희망 패션 제품보다 한 단계 큰 치수를 갖는 동종 패션 제품의 정보를 추천 패션 제품으로서의 추천을 위해 화면의 일영역에 표시할 수 있다.In addition, when it is determined that the number of regions of the tightening portion identified by the
여기서, 기 설정된 개수는 일예로 3개일 수 있으나, 이에만 한정되는 것은 아니고, 그 개수는 다양하게 변경 설정(적용)될 수 있다.Here, the preset number may be, for example, three, but is not limited thereto, and the number may be variously changed and set (applied).
본원에서는 동종 패션 제품의 정보의 추천이 이루어지는 화면이 일영역을 설명의 편의상 화면의 제1 영역이라 할 수 있다. 화면의 제1 영역에는 기 설정된 개수 이상의 조임 부위의 영역이 나타난 착용 희망 패션 제품을 기준으로, 그와 동종인 동종 패션 제품의 정보(크기가 더 크거나 크기가 더 작은 동종의 패션 제품의 정보 포함)가 표시될 수 있으며, 이에만 한정되는 것은 아니고 그와 이종인 패션 제품의 정보가 표시될 수도 있다. 즉, 화면의 제1 영역은 동종 패션 제품의 정보를 포함하여 각종 패션 제품 중 사용자에게 추천을 위한 추천 패션 제품이 표시되는 영역을 의미할 수 있다.In the present application, a region of the screen on which information of the same type of fashion product is recommended may be referred to as the first region of the screen for convenience of explanation. In the first area of the screen, information on the same type of fashion product (including information on the same type of fashion product with a larger or smaller size) may be displayed, but the present invention is not limited thereto, and information on fashion products different from the same may be displayed. That is, the first area of the screen may mean an area in which a recommended fashion product for recommendation to a user is displayed among various fashion products including information on the same type of fashion product.
달리 말하자면, 본원의 일예에서는 화면의 제1 영역에 추천 패션 제품으로서 착용 희망 패션 제품보다 한 단계 큰 치수를 갖는 동종 패션 제품의 정보가 표시되는 것으로 예시하였으나, 이에만 한정되는 것은 아니고, 제1 영역에는 조임 부위의 영역의 개수가 기 설정된 개수 이상으로 나타난 착용 희망 패션 제품과 관련하여, 그와 종류는 같으나 사이즈가 더 큰 동종의 착용 희망 패션 제품(이는 색상, 모양, 무늬 등이 모두 같고 크기만 다른 동종 착용 희망 패션 제품을 의미함), 그와 종류는 같으나 사이즈가 더 작은 동종의 착용 희망 패션 제품, 그와 종류가 다른 이종의 착용 희망 패션 제품(이는 색상, 모양 및 무늬 중 적어도 하나가 다르거나 종류 자체가 다른 착용 희망 패션 제품을 의미함) 등이 모두 같고 크기만 다른 동종 착용 희망 패션 제품을 의미함) 등이 추천 패션 제품으로서 표시될 수 있다.In other words, in an example of the present application, information of the same type of fashion product having a dimension larger than that of the desired fashion product to be worn as a recommended fashion product is displayed in the first area of the screen, but the present disclosure is not limited thereto, and the first area is not limited thereto. Regarding the desired fashion product to be worn, in which the number of areas of the tightening area is more than the preset number, the desired fashion product to be worn is of the same type but larger in size (which is the same in color, shape, pattern, etc. It means a different type of desired fashion product), a similar type but smaller in size, and a different type of desired fashion product (this means that at least one of a different color, shape and pattern) b) may be displayed as recommended fashion products.
일예로 자세 변경 아바타(혹은 제품 착용 아바타)가 복수의 착용 희망 패션 제품을 착용하고 있고, 식별부(40)가 복수의 착용 희망 패션 제품 중 어느 하나의 착용 희망 패션 제품에서 조임 부위의 영역이 기 설정된 개수 이상으로 나타났음을 식별하였다고 하자. 이러한 경우, 시뮬레이션 제어부(30)는 기 설정된 개수 이상의 조임 부위의 영역이 나타난 해당 착용 희망 패션 제품(즉, 어느 하나의 착용 희망 패션 제품)이 사용자에게 작은 것으로 판단(즉, 사용자가 해당 착용 희망 패션 제품을 실제 구매하여 착용하였을 때 작을 수 있을 것이라 판단)하여, 해당 착용 희망 패션 제품보다 한 단계(혹은 두단계 이상) 큰 치수(사이즈)를 갖는 동종의 패션 제품의 정보를 추천 패션 제품으로서 사용자에게 추천하고자 이를 화면의 일영역(제1 영역)에 표시할 수 있다.For example, the posture change avatar (or the product wearing avatar) is wearing a plurality of desired fashion products, and the
이때, 시뮬레이션 제어부(30)는, 착용 희망 패션 제품에 대하여 기 설정된 개수 이상의 조임 부위의 영역이 식별된 경우(일예로, 5개의 조임 부위의 영역이 식별된 경우), 식별된 조임 부위의 영역의 개수, 식별된 조임 부위의 영역 각각에 대한 조임 강도값, 및 식별된 조임 부위의 영역의 위치 중 적어도 하나를 고려하여 착용 희망 패션 제품 대비 몇 단계로 치수 차이가 나는 패션 제품을 추천할 것인지를 결정할 수 있다.At this time, the
예시적으로, 착용 희망 패션 제품이 M 사이즈이고, 착용 희망 패션 제품에서 식별된 조임 부위의 영역의 개수가 8개 이상인 경우, 시뮬레이션 제어부(30)는 착용 희망 패션 제품 대비 2단계 큰 치수(XL 사이즈)를 갖는 동종의 패션 제품의 정보를 제1 영역에 표시할 수 있다. 착용 희망 패션 제품이 M 사이즈이고, 착용 희망 패션 제품에서 식별된 조임 부위의 영역의 개수가 3개 이상 8개 미만인 경우, 시뮬레이션 제어부(30)는 착용 희망 패션 제품 대비 한단계(1단계) 큰 치수(즉, S 사이즈)를 갖는 동종의 패션 제품의 정보를 제1 영역에 표시할 수 있다.Exemplarily, when the desired fashion product to be worn is size M, and the number of regions of the tightened portion identified in the desired fashion product to be worn is 8 or more, the
화면의 제1 영역에 표시되는 동종 패션 제품의 정보는 동종 패션 제품의 이미지일 수 있으며, 이에 한정되는 것은 아니고 동종 패선 제품의 제품 속성 정보 중 적어도 하나가 포함될 수 있다.The information of the same type of fashion product displayed on the first area of the screen may be an image of the same type of fashion product, but is not limited thereto, and may include at least one of product attribute information of the same type of fashion product.
상술한 본원의 일예에서는, 식별부(40)가 기 설정된 조임 강도값(이는 기 설정된 조임 강도 상한값이라 달리 지칭될 수 있음) 이상의 조임 강도값이 나타나는 조임 부위의 영역을 식별함에 따라, 그 결과에 따라 시뮬레이션 제어부(30)가 보다 큰 치수의 동종 패션 제품을 추천하는 경우에 대하여 예시하였으나, 이에만 한정되는 것은 아니다. 다른 일예로, 식별부(40)는 기 설정된 조임 강도 하한값 미만에 해당하는 조임 강도값이 나타나는 조임 부위의 영역을 식별하고, 그 결과에 따라 시뮬레이션 제어부(30)는 해당 착용 희망 패션 제품이 사용자에게 너무 큰 것으로 판단하여 착용 희망 패션 제품보다 한 단계(혹은 두단계 이상) 작은 치수의 동종 패션 제품을 추천 패션 제품으로서 화면의 제1 영역에 표시할 수 있다.In the above-described example of the present application, as the
시뮬레이션 제어부(30)는, 화면의 제1 영역에 추천 패션 제품으로서 일예로 착용 희망 패션 제품보다 한 단계 큰 치수를 갖는 동종 패션 제품의 정보(일예로 이미지)가 표시된 이후, 표시된 동종 패션 제품의 정보에 대하여 사용자 입력이 이루어진 경우, 사용자 입력에 응답하여 동종 패션 제품의 착용이 이루어진 제품 적용 아바타의 영상을 생성해(재생성해) 화면에 표시할 수 있다.The
즉, 시뮬레이션 제어부(30)는 화면의 제1 영역에 추천 패션 제품에 대한 사용자 입력이 이루어진 경우, 그에 응답하여 실시간으로 사용자 입력이 이루어진 추천 패션 제품이 착용된 제품 적용 아바타의 영상을 재생성하여 화면에 표시할 수 있다.That is, when a user input for a recommended fashion product is made in the first area of the screen, the
이러한 시뮬레이션부(270)는 제품 착용 아바타를 통하여 사용자가 선택한 패션 제품(사용자가 선택한 착용 희망 패션 제품, 사용자가 선택한 추천 패션 제품)의 착용이 이루어진 아바타의 모습을 실시간으로 보여주되, 이때 패션 제품이 착용된 사용자 체형을 모델링한 아바타 상에서 착용된 패션 제품에 의해 너무 조여지거나 너무 느슨한 부분의 위치를 화면에 표시함으로써, 사용자의 신체 특성을 고려하여 생성된 아바타로 하여금 특정 패션 제품을 실제 착용하였을 때 예상되는 모습을 현실감있게 제공받을 수 있다.The
또한, 시뮬레이션부(270)는 제품 착용 아바타의 자세를 변경시켜가며 자세 변경시마다 나타나는 조임 부위의 영역을 실시간으로 표시해 줄 수 있어, 단순히 착용 희망 패션 제품을 정자세로 입었을 때뿐만 아니라 동적으로 움직여 자세를 변경시켰을 때에도 조임이 예상되는 부분 등을 사용자가 직관적으로 인지할 수 있도록 할 수 있어, 해당 착용 희망 패션 제품을 살지에 대한 결정이 보다 결단력 있게 이루어지도록 도울 수 있고 온라인 쇼핑몰에서의 패션 제품의 구매 실패 확률을 효과적으로 줄일 수 있다.In addition, the
평가부(50)는, 시뮬레이션 제어부(30)에 의해 화면에 표시된 제품 착용 아바타의 영상(혹은 자세 변경 아바타의 영상) 내 제품 착용 아바타에 대하여 스타일링 평가를 수행할 수 있다.The
시뮬레이션 제어부(30)는 평가부(50)에 의한 스타일링 평가의 결과에 따라 화면의 일영역에 추천 패션 제품의 정보를 표시할지 여부를 결정할 수 있다. 이때, 스타일링 평가 결과를 기반으로 추천 패션 제품의 정보 표시가 이루어지는 화면의 일영역은 후술하는 설명에서 설명의 편의상 제2 영역이라 지칭될 수 있다.The
평가부(50)는 스타일링 평가의 수행시 복수의 평가 항목에 대한 평가 점수를 산출하되, 산출된 평가 점수에 기반하여 복수의 평가 항목 중 평가 점수가 기 설정된 평가 점수를 충족하지 못하는 평가 항목을 점수 미달 평가 항목으로서 식별할 수 있다. 특히, 평가부(50)는 후술하여 설명하는 사용자 아바타 영상에 대한 스타일링 평가 점수를 산출할 수 있으며, 이는 사용자 아바타 영상과 관련하여 복수의 평가 항목에 대한 평가 점수(토탈 평가 점수)를 의미할 수 있다.The
이후, 시뮬레이션 제어부(30)는 점수 미달 평가 항목에 대한 식별에 응답하여, 제품 착용 아바타에 착용된 착용 희망 패션 제품 중 점수 미달 평가 항목과 관련된 착용 희망 패션 제품에 대한 다른 패션 제품으로의 대체를 위해 추천 패션 제품의 정보를 화면의 일영역(제2 영역)에 표시할 수 있다.Thereafter, the
여기서, 복수의 평가 항목은, 제품 착용 아바타에 착용된 착용 희망 패션 제품들 간의 어울림 정도에 관한 제1 평가 항목 및 제품 착용 아바타의 피부톤과 제품 착용 아바타에 착용된 착용 희망 패션 제품 간의 어울림 정도에 관한 제2 평가 항목을 포함할 수 있다. 다만, 이에만 한정되는 것은 아니고, 복수의 평가 항목에는 디자인(예시적으로, 패션 제품의 무늬나 패턴 등), 색상(컬러) 조합 등과 관련하여, 아바타와 해당 아바타에 착용된 패션 제품 간의 어울림 정도, 패션 제품들 간의 어울림 정도를 평가하는 항목이라면 무엇이든 적용 가능하다.Here, the plurality of evaluation items include a first evaluation item regarding the degree of matching between desired fashion products worn on the product wearing avatar and a matching degree between the skin tone of the product wearing avatar and the desired fashion product worn on the product wearing avatar. A second evaluation item may be included. However, the present invention is not limited thereto, and the plurality of evaluation items includes the degree of matching between the avatar and the fashion product worn on the avatar in relation to design (eg, a pattern or pattern of a fashion product), color (color) combination, etc. , any item that evaluates the degree of harmony between fashion products is applicable.
예시적으로, 제1 평가 항목에 의하면, 제품 착용 아바타에 착용 희망 패션 제품으로서 구두와 상의가 착용되어 있는 경우 구두와 상의가 서로 어울리는지가 평가(서로 어울리는 정도가 평가)될 수 있다. 또한, 제1 평가 항목에 의하면, 일예로 제품 착용 아바타에 상의-면티와 하의-치마가 착용되어 있는 경우 상의와 하의가 서로 어울리는지가 평가될 수 있다.For example, according to the first evaluation item, when shoes and a top are worn as a desired fashion product to be worn on the product wearing avatar, whether the shoes and the top match each other (the degree of matching with each other is evaluated) may be evaluated. Also, according to the first evaluation item, when, for example, a top-cotton tee and a bottom-skirt are worn on the product wearing avatar, whether the top and bottom match each other may be evaluated.
또한, 제2 평가 항목에 의하면, 일예로 아바타의 피부 톤(일예로 얼굴 피부 색상)과 착용 희망 패션 제품인 상의의 색상이 서로 어울리는지가 평가될 수 있다. 또한, 제2 평가 항목에 의하면, 아바타의 피부 톤이나 얼굴형과 착용 희망 패션 제품의 무늬 패턴(예를 들어, 줄무늬 패턴, 체크 패턴인 경우 등)과 서로 어울리는지가 평가될 수 있다.Also, according to the second evaluation item, as an example, whether the skin tone of the avatar (eg, the skin color of the face) and the color of the top, which is a desired fashion product, match each other may be evaluated. In addition, according to the second evaluation item, it may be evaluated whether the skin tone or face shape of the avatar and the pattern pattern of the desired fashion product to be worn (for example, a stripe pattern or a check pattern) match each other.
평가부(50)는 제품 착용 아바타에 대한 스타일링 평가시 제품 착용 아바타에 대한 평가 점수(즉, 복수의 평가 항목에 대한 평가 점수)를 산출할 수 있는데, 이때 제품 착용 아바타에 대한 평가 점수는 복수의 타 사용자에 의하여 평가된 타인 평가 점수를 고려하여 산출될 수 있다.The
일예로, 사용자는 자신이 구매하길 희망하는 패션 제품인 착용 희망 패션 제품이 착용된 아바타(제품 착용 아바타, 자세 변경 아바타)에 대한 전반적인 스타일링을 타 사용자들에게 평가받기 위해(즉, 타 사용자에 의한 스타일링 평가를 받기 위해), 일예로 시뮬레이션 제어부(30)에 의해 생성되어 화면에 표시된 아바타(제품 착용 아바타, 자세 변경 아바타)의 영상에 대한 평가 요청 신호를 시뮬레이션부(270)에 입력할 수 있다. 후술하는 설명에서는 시뮬레이션 제어부(30)에 의해 생성되어 화면에 표시된 아바타(제품 착용 아바타, 자세 변경 아바타)의 영상을 설명의 편의상 사용자에 대응하는 아바타의 영상으로서, 사용자 아바타 영상이라 지칭하기로 한다.For example, in order for the user to evaluate the overall styling of the avatar (product wearing avatar, posture change avatar) in which the desired fashion product is worn, which is a fashion product that the user wants to purchase, in order to be evaluated by other users (ie, styling by other users). In order to receive evaluation), for example, an evaluation request signal for an image of an avatar (product wearing avatar, posture change avatar) generated by the
이때, 평가 요청 신호는 화면의 일영역에 마련된 평가 요청 버튼에 대한 사용자 입력이 이루어지는 경우, 평가 요청 버튼에 대한 사용자 입력에 응답하여 시뮬레이션 제어부(30)에 의해 생성된 아바타의 영상(즉, 사용자 아바타 영상)을 소셜 네트워크 서비스(Social Network Services/Sites, SNS) 상에 업로드하는 신호를 의미할 수 있다.In this case, the evaluation request signal is an avatar image (ie, user avatar) generated by the
평가 요청 신호에 의하여, 사용자 아바타 영상이 SNS 상에 업로드되면, 해당 영상의 업로드가 이루어진 SNS의 이용자들(즉, 타 사용자들)은 사용자 아바타 영상에 대하여 복수의 평가 항목과 관련된 스타일링 평가를 수행할 수 있다. SNS의 이용자들(즉, 타 사용자들)은 사용자 아바타 영상에 대하여 복수의 평가 항목과 관련하여 평가 점수를 제공할 수(매길 수) 있으며, 이처럼 타 사용자에 의하여 평가된 점수는 타인 평가 점수라 지칭될 수 있다.When the user avatar image is uploaded to the SNS according to the evaluation request signal, users of the SNS (ie, other users) to which the image has been uploaded may perform styling evaluation related to a plurality of evaluation items on the user avatar image. can Users of the SNS (ie, other users) may provide (or rate) an evaluation score in relation to a plurality of evaluation items for the user avatar image, and the score evaluated by other users is referred to as the evaluation score of others. can be
평가부(50)는 사용자 아바타 영상에 대하여 타 사용자들에 의해 평가된 적어도 하나의 점수(즉, 적어도 하나의 타인 평가 점수)를 고려하여 사용자 아바타 영상과 관련한 스타일링 평가 점수(즉, 사용자 아바타 영상과 관련하여 복수의 평가 항목에 관한 토탈 평가 점수)를 산출할 수 있다. 이때, 사용자 아바타 영상과 관련된 스타일링 평가 점수는, 일예로 사용자 아바타 영상에 대하여 평가된 타인 평가 점수들의 평균값으로 산출될 수 있으나, 이에만 한정되는 것은 아니다.The
평가부(50)는 사용자 아바타 영상과 관련한 스타일링 평가 점수에서 복수의 평가 항목 중 평가 점수가 기 설정된 평가 점수를 충족하지 못하는 평가 항목을 점수 미달 평가 항목으로서 식별할 수 있다. 여기서, 일예로 점수 미달 평가 항목이 제2 평가 항목으로 식별되었다고 하자.The
이러한 경우, 시뮬레이션 제어부(30)는 사용자 아바타 영상 내 제품 착용 아바타의 피부톤과 해당 제품 착용 아바타가 착용하고 있는 착용 희망 패션 제품이 서로 어울리지 않는 것으로 판단(즉, 사용자가 구매하길 희망하는 착용 희망 패션 제품이 사용자의 피부톤과 어울리지 않는 것으로 판단)하여, 점수 미달 평가 항목과 관련된 착용 희망 패션 제품에 대한 다른 패션 제품으로의 대체를 위해 화면의 제2 영역에 추천 패션 제품의 정보를 표시할 수 있다. 이때, 화면의 제2 영역에 표시되는 추천 패션 제품은, 점수 미달 평가 항목과 관련된 착용 희망 패션 제품을 대체하기 위한 대체 추천 패션 제품이라 달리 지칭될 수 있다.In this case, the
또한, 평가부(50)는 사용자 아바타 영상과 관련한 스타일링 평가 점수(즉, 사용자 아바타 영상과 관련하여 복수의 평가 항목에 관한 토탈 평가 점수)를 산출함에 있어서, 타인 평가 점수를 이용하는 것 이외에도, 다른 일예로 학습된 딥러닝 모델을 이용하여 스타일링 평가 점수를 산출할 수 있다. 딥러닝 모델의 종류에 대한 예는 앞서 설명했으므로, 이하 중복되는 설명은 생략하기로 한다.In addition, the
딥러닝 모델은, 일예로 복수의 사용자의 신체 특성 정보(얼굴형, 피부톤, 사이즈 등)를 입력으로 하고 복수의 사용자의 신체 특성 정보 각각과 매칭되는 패션 제품을 출력값으로 하여 학습하는 학습된 신경망 모델을 의미할 수 있다.The deep learning model, for example, is a learned neural network model that learns by inputting body characteristic information (face shape, skin tone, size, etc.) of a plurality of users and using fashion products matching each of the body characteristic information of a plurality of users as an output value can mean
시뮬레이션 제어부(30)는 제2 영역에 표시되는 추천 패션 제품의 정보(대체 추천 패션 제품의 정보)로서, 대체 추천 패션 제품의 이미지, 대체 추천 패션 제품의 리스트 등을 제공(표시)할 수 있다.The
이때, 화면의 제2 영역에 표시되는 추천 패션 제품(대체 추천 패션 제품)에 포함된 리스트에는 점수 미달 평가 항목과 관련된 착용 희망 패션 제품과 색상만 다른 동종의 패션 제품 및 점수 미달 평가 항목과 관련된 착용 희망 패션 제품과 유사한 성능(모양, 소재, 신축성, 비침 정도 등)을 가진 다른 이종의 패션 제품이 포함될 수 있다. 이때, 다른 이종의 패션 제품으로는 점수 미달 평가 항목과 관련된 착용 희망 패션 제품과 대비하여 후기(평가)가 더 좋거나, 가격이 더 낮거나, 품질이 더 좋은 패션 제품이 포함될 수 있다.At this time, in the list included in the recommended fashion products (recommended alternative fashion products) displayed on the second area of the screen, fashion products of the same type that differ only in color from the desired fashion product related to the under-scoring evaluation item and wearing related to the under-scoring evaluation item Other heterogeneous fashion products with similar performance (shape, material, elasticity, see-through, etc.) to the desired fashion product may be included. In this case, the different types of fashion products may include fashion products with better reviews (evaluation), lower prices, or higher quality compared to the desired fashion products related to the low-scoring evaluation item.
이에 따르면, 시뮬레이션부(270)는 사용자가 구매 희망하는 패션 제품(착용 희망 패션 제품) 중 평가부(50)에 의하여 사용자에게 어울리지 않는 것으로 평가되는 패션 제품(즉, 점수 미달 평가 항목과 관련된 착용 희망 패션 제품)을 대체할 대체 추천 패션 제품(대체 추천 패션 제품)의 정보(일예로, 리스트)를 제공함에 있어서, 점수 미달 평가 항목과 관련된 착용 희망 패션 제품과 색상만 다른 동종의 패션 제품뿐만 아니라 그와는 종류가 다르나 성능이 좋은 가성비 좋은 패션 제품을 함께 대체 추천 패션 제품의 리스트에 포함시켜 제공(추천)할 수 있다. 이러한 시뮬레이션부(270)는 사용자로 하여금, 점수 미달 평가 항목과 관련된 착용 희망 패션 제품의 대체(교체)시, 합리적으로 제품 비교/선택이 가능하도록 하며, 보다 용이하고 효율적으로 대체/관리가 이루어지도록 지원할 수 있다.According to this, the
또한, 시뮬레이션 제어부(30)는 제품 착용 아바타의 영상에 포함된 착용 희망 패션 제품의 구매를 위한 구매 버튼을 화면의 일영역에 표시할 수 있다. 이때, 후술하는 설명에서 구매 버튼이 이루어지는 화면의 일영역은 화면의 제3 영역이라 달리 지칭될 수 있다.Also, the
시뮬레이션 제어부(30)는 화면의 제3 영역에 표시된 구매 버튼에 대한 사용자 입력이 이루어진 경우, 화면에 표시된 제품 착용 아바타 상에 착용된 착용 희망 패션 제품의 구매를 위한 구매 요청 신호를 전송할 수 있다.When a user input is made to the purchase button displayed on the third area of the screen, the
여기서, 구매 요청 신호는, 착용 희망 패션 제품을 판매하는 온라인 쇼핑몰과 연계되어 착용 희망 패션 제품의 자동 결제가 가능(혹은 자동 결제로 인한 자동 배송이 가능)하도록 제공하는 신호이거나 및/또는 착용 희망 패션 제품에 대한 주문 장려를 위해 본 장치(100)와 연계된 사용자 단말(1)의 화면에 메시지 알림을 제공하는 신호일 수 있다.Here, the purchase request signal is a signal provided to enable automatic payment of the desired fashion product to be worn (or automatic delivery through automatic payment is possible) in connection with an online shopping mall that sells the desired fashion product to be worn and/or the desired fashion to be worn It may be a signal for providing a message notification on the screen of the
이러한 시뮬레이션부(270)는 구매 버튼에 대한 사용자 입력에 응답하여 구매 요청 신호를 전송함으로써, 사용자가 구매 희망하는 패션 제품에 대한 착용 시뮬레이션을 본 이후 구매를 원하는 패션 제품들을 동시에 일괄적으로 구매할 수 있도록 제공할 수 있어, 패션 제품에 대한 사용자의 구매 편의성을 향상시킬 수 있다.The
또한, 본 시스템(1000)은 본 장치(100)와 연동되는 전방표시장치(3)를 포함할 수 있다. 본 장치(100)와 전방표시장치(3) 간에는 네트워크(2)를 통해 연동(연결)될 수 있으며, 네트워크(2)에 대한 설명은 앞서 설명했으므로, 이하 중복되는 설명은 생략하기로 한다.In addition, the
시뮬레이션 제어부(30)는 본 장치(100)와 연동되는 전방표시장치(3)의 동작을 제어할 수 있다. 시뮬레이션 제어부(30)는 화면의 일영역(일예로 제4 영역)에 표시된 실감 데이터 제공 버튼에 대한 사용자 입력이 이루어진 것으로 판단되는 경우, 실감 데이터 제공 버튼에 대한 사용자 입력에 응답하여 착용 희망 패션 제품의 제품 속성 정보가 고려된 착용 희망 패션 제품에 대응하는 패션 제품 실감 데이터가 전방표시장치(3)의 전방에 제공되도록 전방표시장치(3)의 동작을 제어할 수 있다.The
여기서, 패션 제품 실감 데이터라 함은, 착용 희망 패션 제품의 제품 속성 정보(일예로, 치수, 소재, 신축성, 및 비침 정도 등)를 고려하여 착용 희망 패션 제품을 3차원 입체 영상으로 구현한 데이터(즉, 3차원 입체 영상 데이터)를 의미할 수 있다. 즉, 패션 제품 실감 데이터는 착용 희망 패션 제품의 실물(실제) 크기와 상응하는 크기로 구현되는 착용 희망 패션 제품의 3차원 입체 영상 데이터를 의미할 수 있다. 다시 말하자면, 패션 제품 실감 데이터는, 전방표시장치(3)에 의하여 상공에 조사되는 빔을 통해 보여지는 착용 희망 패션 제품에 대응하는 3차원 패션 제품(3차원 형상의 패션 제품)을 의미할 수 있다.Here, the fashion product realization data refers to data that implements a desired fashion product as a three-dimensional image ( That is, it may mean 3D stereoscopic image data). That is, the sensory data of the fashion product may mean 3D stereoscopic image data of the desired fashion product to be worn, which is implemented in a size corresponding to the actual (actual) size of the desired fashion product. In other words, the fashion product sensory data may mean a three-dimensional fashion product (fashion product of a three-dimensional shape) corresponding to a desired fashion product to be worn shown through a beam irradiated into the sky by the
예시적으로, 착용 희망 패션 제품의 제품 속성 정보로서 해당 착용 희망 패션 제품의 총기장, 가슴단면, 어깨넓이, 및 소매길이에 관한 정보가 크롤링을 통해 획득되어 있다고 하자. 이때, 해당 착용 희망 패션 제품에 대한 패션 제품 실감 데이터의 제공을 위한 사용자 입력이 이루어지면(즉, 실감 데이터 제공 버튼에 대한 사용자 입력이 이루어지면), 시뮬레이션 제어부(30)는 전방표시장치(3)를 통해 전방에 패션 제품 실감 데이터가 제공되도록 전방표시장치(3)의 동작을 제어할 수 있다. 이때, 제공되는 패션 제품 실감 데이터는 착용 희망 패션 제품의 총기장, 가슴단면, 어깨넓이, 및 소매길이에 관한 정보를 기반으로 해당 치수에 맞추어 착용 희망 패션 제품을 3차원 입체 영상으로 영상화한 데이터일 수 있다.For example, it is assumed that information on the total length, chest section, shoulder width, and sleeve length of the desired fashion product to be worn is obtained through crawling as product attribute information of the desired fashion product to be worn. At this time, when a user input for providing the sensory data of the fashion product for the desired fashion product to be worn is made (that is, when a user input is made for the sensory data providing button), the
시뮬레이션 제어부(30)는 네트워크(2)를 통해 전방표시장치(3)와 연동(연결)되어 전방표시장치(3)의 동작을 제어할 수 있다. 전방표시장치(Head Up Display, HUD)(3)는 빔(beam) 조사를 통해 전방표시장치(3)의 전방에(혹은 전방의 공중에, 전방의 상공에) 패션 제품 실감 데이터를 제공할 수 있다.The
전방표시장치(3)는 시뮬레이션 제어부(30)의 제어에 의해, 패션 제품 실감 데이터를 전방표시장치(3)의 전방에 제공할 수 있다. 전방표시장치(3)는 빔(beam)을 통해 전방표시장치(3)의 전방에 초점이 맺히도록 할 수 있으며, 이로부터 해당 초점에 대응하는 위치에 패션 제품 실감 데이터에 대응하는 영상(이미지)이 표시되도록 할 수 있다.The
다시 말해, 실감 데이터 제공 버튼에 대한 사용자 입력이 이루어지면, 전방표시장치(3)는 시뮬레이션 제어부(30)의 제어에 응답하여 전방표시장치(3)의 전방에 빔을 통해 상을 뿌림으로써 패션 제품 실감 데이터를 전방표시장치(3) 전방의 상공 상에 제공할 수 있다.In other words, when a user input to the sensory data providing button is made, the
도 8은 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 장치(100)와 연동되는 전방표시장치(3)에 의해 제공되는 패션 제품 실감 데이터의 일예를 나타낸 도면이다.8 is a diagram illustrating an example of sensory data for a fashion product provided by the
도 8을 참조하면, 시뮬레이션 제어부(30)는 실감 데이터 제공 버튼에 대한 사용자 입력에 응답하여, 실감 데이터 제공 버튼과 관련된 착용 희망 패션 제품에 대응하는 패션 제품 실감 데이터가 전방표시장치(3)의 전방 상공에 제공되도록 전방표시장치(3)의 동작을 제어할 수 있다.Referring to FIG. 8 , in response to a user input for the sensory data providing button, the
일반적으로 패션 제품을 판매, 거래하고 있는 온라인 쇼핑몰 상에서는, 패션 제품의 크기를 나타내는 정보(일예로, 총기장, 가슴단면, 어깨넓이, 및 소매길이 등)의 표시를 단순히 수치 값(몇 cm, 몇 mm 등)으로만 표시하고 있다. 그렇게 때문에, 사용자는 온라인 쇼핑몰 상에서 판매되는 패션 제품을 실제로 받아보았을 때 그 크기가 어느정도 되는지를 쉽게 가늠(판단)하는 데에 어려움이 있다.In general, in online shopping malls that sell and trade fashion products, the display of information indicating the size of fashion products (eg, gun length, chest section, shoulder width, and sleeve length, etc.) mm, etc.). For this reason, it is difficult for the user to easily estimate (judgment) what the size of the fashion product sold on the online shopping mall is when actually receiving it.
즉, 종래에는 온라인 쇼핑몰 상에 표시된 수치 값을 토대로만 사용자가 해당 패션 제품의 크기를 가늠할 수 있었기 때문에, 실제로 실물 패션 제품을 받아보았을 때 자신(사용자 자신)이 예상했던 패션 제품의 크기보다 실제 해당 패션 제품의 크기가 더 크거나 혹은 더 작은 경우가 빈번히 존재하였으며, 이러한 경우 사용자가 다시 다른 치수의 패션 제품으로 교환하거나 환불해야 하는 불편함이 따른다.That is, in the prior art, because the user could estimate the size of the corresponding fashion product only based on the numerical value displayed on the online shopping mall, when the actual fashion product was actually received, the actual size of the fashion product was greater than the size of the fashion product expected by the user (the user himself). There have been frequent cases where the size of the fashion product is larger or smaller, and in this case, the user has to exchange or refund the fashion product with a different size again.
이에, 시뮬레이션부(270)는 패션 제품 실감 데이터의 실제 크기와 상응하는 크기를 갖는 3차원 입체 영상인 패션 제품 실감 데이터를 전방표시장치(3)를 통해 사용자에게 제공할 수 있다. 이러한 시뮬레이션부(270)는 사용자가 구매를 희망하는 패션 제품(착용 희망 패션 제품)을 구매/결제하기에 앞서, 패션 제품 실감 데이터를 제공받음으로써 구매를 희망하는 패션 제품(착용 희망 패션 제품)의 실물 크기(실제 크기)를 직관적으로 인지하여 체감해볼 수 있도록 제공할 수 있다.Accordingly, the
특히나, 시뮬레이션 제어부(30)는 전방표시장치(3)를 통해 제공되는 패션 제품 실감 데이터가 사용자의 신체 상에 투영되도록 전방표시장치(3)의 이동을 제어할 수 있다. 이를 위해, 도면에 도시하지는 않았으나, 본 시스템(1000)은 시뮬레이션부(270)와 네트워크를 통해 연결되는 이미지 센서(미도시)와 이동 제어 부재(미도시)를 포함할 수 있다.In particular, the
여기서, 이미지 센서(미도시)는 패션 제품 실감 데이터의 투영 대상이 되는 사용자의 신체 영상을 획득하는 센서를 의미할 수 있다. 이미지 센서(미도시)는 카메라, 영상 촬영 센서 등으로 달리 표현될 수 있다. 이미지 센서(미도시)는 일예로 사용자 단말(1)에 마련된 이미지 센서, 전방표시장치(3)에 마련된 이미지 센서 및 시뮬레이션부(270)에 자체 마련된 이미지 센서 중 적어도 하나일 수 있으며, 이에 한정되는 것은 아니다.Here, the image sensor (not shown) may mean a sensor that acquires a body image of a user who is a target of projection of sensory data of a fashion product. The image sensor (not shown) may be expressed differently as a camera, an image capturing sensor, or the like. The image sensor (not shown) may be, for example, at least one of an image sensor provided in the
이동 제어 부재(미도시)는 전방표시장치(3)와 결합되고, 좌/우/상/하/전/후에 대한 전방표시장치(3)의 이동 동작을 제어할 수 있다. 이동 제어 부재(미도시)는 전방표시장치(3)의 이동 및 각도의 동작을 제어할 수 있다. 즉, 이동 제어 부재(미도시)는 패션 제품 실감 데이터를 제공하는 전방표시장치(3)의 위치뿐만 아니라 각도를 제어할 수 있다.A movement control member (not shown) may be coupled to the
일예로, 시뮬레이션 제어부(30)는 이미지 센서(미도시)를 통해 획득된 사용자(패션 제품 실감 데이터의 투영 대상이 되는 사용자)의 신체 영상에 대한 이미지 분석을 통해 사용자의 부분 부위(예를 들어, 머리, 목, 팔, 손목, 상체, 하체, 발목, 발 등의 부위)를 식별할 수 있다. 또한, 시뮬레이션 제어부(30)는 패션 제품 실감 데이터에 대응하는 착용 희망 패션 제품의 분류 유형(예를 들어, 상의인지, 하의인지, 팔찌 등의 액세서리인지, 모자인지 등)을 식별할 수 있다.As an example, the
이후, 시뮬레이션 제어부(30)는 식별된 착용 희망 패션 제품의 분류 유형과 식별된 사용자의 부분 부위를 기반으로 하여, 착용 희망 패션 제품에 대응하는 패션 제품 실감 데이터가 그에 대응하는 사용자의 신체 부분 부위 상에 투영되도록 이동 제어 부지(미도시)의 동작을 제어함으로써 전방표시장치(3)를 이동시킬 수 있다.Thereafter, the
예시적으로, 착용 희망 패션 제품의 분류 유형이 상의인 경우, 시뮬레이션 제어부(30)는 착용 희망 패션 제품에 대응하는 패션 제품 실감 데이터가 이미지 분석을 통해 식별된 사용자의 부분 부위 중 식별된 착용 희망 패션 제품의 분류 유형에 대응하는 신체 부분 부위인 상체(즉, 상의에 대응하는 신체부위인 상체) 상에 투영되도록, 이동 제어 부재(미도시)의 동작 제어를 통해 전방표시장치(3)를 이동시키는 제어를 수행할 수 있다. 즉, 시뮬레이션 제어부(30)는 사용자의 신체 부위 중 상체 상에 착용 희망 패션 제품(상의)에 해당하는 패션 제품 실감 데이터가 오버랩하여 투영되도록 전방표시장치(3)를 이동시킬 수 있으며, 이러한 전방표시장치(3)의 이동을 위해 이동 제어 부재(미도시)의 동작을 제어할 수 있다.Exemplarily, when the classification type of the desired fashion product to be worn is upper, the
본 장치(100)는 시뮬레이션부(270)를 통해 패션 제품 실감 데이터를 제공함으로써 착용 희망 패션 제품에 대한 구매의 실패 확률을 효과적으로 줄일 수 있다.The
이에 따르면, 본 장치(100)는, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치라 지칭될 수 있으며, 이 뿐만 아니라, 본 장치(100)는 의류 추천 정보를 생성함에 따라 의류 추천 장치, 시뮬레이션부(270)에 의하면 패션 스타일링에 대한 시뮬레이션이 가능한 장치임에 따라 패션 스타일링 시뮬레이션 장치 등으로 달리 지칭될 수 있다.Accordingly, the
이러한 본 장치(100)는 앞서 말한 바와 같이 사용자 단말(1)에 설치되는 애플리케이션 형태로 구현될 수 있다. 본 장치(100)는 시뮬레이션부(270)에 의해 개개인의 다양성을 존중한 개인화된 패션 플랫폼 어플이라 표현될 수 있다.This
시뮬레이션부(270)는 아바타 생성부(20)를 통해 사용자의 신체 특성 정보가 고려된 아바타로서 자신을 닮은 다양한 체형의 아바타를 생성하고, 생성된 아바타 상에 원하는 코디를 시뮬레이션 할 수 있다. 시뮬레이션부(270)에 의하면, 본 장치(100)는 사용자의 사이즈를 고려해 테마 별 스타일 연출을 수행할 수 있다. 시뮬레이션부(270)에 의하면, 본 장치(100)는 일예로 SNS 등을 통해 다양한 패션 관련 소식을 구독, 제안받을 수 있다.The
시뮬레이션부(270)에 의하면, 본 장치(100)는 일예로 분류 별로 표시된 아이콘을 통해 연계된 쇼핑몰 사이트(인터넷 쇼핑몰 사이트)로 이동 가능하고, 이동한 쇼핑몰 사이트 상에서 판매되는 패션 제품을 구매 가능하도록 제공할 수 있다. 또한, 시뮬레이션부(270)는 구매 버튼에 대한 사용자 입력에 응답하여, 제품 착용 아바타의 영상에 포함된 착용 희망 패션 제품들의 구매를 위한 구매 요청 신호를 전송할 수 있으며, 이를 통해 해당 착용 희망 패션 제품들의 구매가 보다 손쉽고 간편하게 이루어지도록 제공할 수 있다.According to the
시뮬레이션부(270)는 아바타에 오늘 입은 옷 등의 패션 제품을 적용해 데일리룩을 기록할 수 있도록 할 수 있다. 이를 위해, 도면에 도시하지는 않았으나, 시뮬레이션부(270)는 사용자가 소유한 소장 패션 제품에 관한 정보(소장 패션 제품의 정보)를 획득하여 저장하는 제1 데이터 저장부(미도시) 및 데일리룩을 기록(저장)하는 제2 데이터 저장부(미도시)를 포함할 수 있다. The
여기서, 제1 데이터 저장부(미도시)는 일예로 상술한 소유 의류 저장부(180)와 동일한 구성일 수 있다. 따라서, 이하 생략된 내용이라 하더라도 상술한 소유 의류 저장부(180)에 대하여 설명된 내용은 제1 데이터 저장부(미도시)에 대한 설명에도 동일하게 적용될 수 있다.Here, the first data storage unit (not shown) may have the same configuration as, for example, the owned
예시적으로, 사용자는 제1 데이터 저장부(미도시)에 저장된 소장 패션 제품들 중 일예로 외출을 위해 사용자가 실제 착용한 패션 제품에 해당하는 소장 패션 제품을 선택(여기서, 선택 소장 패션 제품에는 일예로 상술한 선택된 착용 의류가 포함될 수 있음)하여 아바타 생성부(20)에서 생성된 아바타에 착용시킨 후, 소장 패션 제품의 착용이 이루어진 제품 착용 아바타를 데일리룩으로 하여 제2 데이터 저장부(미도시)에 기록(저장)할 수 있다.Illustratively, the user selects a collectible fashion product corresponding to a fashion product actually worn by the user for going out as an example among the collectible fashion products stored in the first data storage unit (not shown) (herein, the selected collectible fashion product includes As an example, the above-described selected clothing to be worn may be included) and worn on the avatar generated by the avatar generating unit 20, and then the second data storage unit (not shown) using the product wearing avatar on which the collectible fashion product is worn as a daily look. time) can be recorded (stored).
이처럼, 제2 데이터 저장부(미도시)는 사용자가 외출시 복장 등을 기록한 데일리룩 정보를 저장할 수 있다. 뿐만 아니라, 제2 데이터 저장부(미도시)는 상술한 바와 같이 스타일링 평가의 대상이 되는 제품 착용 아바타의 영상(혹은 자세 변경 아바타의 영상)을 저장할 수 있다.As such, the second data storage unit (not shown) may store daily look information in which the user records clothes and the like when going out. In addition, the second data storage unit (not shown) may store an image (or an image of the posture change avatar) of the product wearing avatar, which is the subject of styling evaluation, as described above.
본 장치(100)는 시뮬레이션부(270)에 의해 다음과 같은 기능들을 가질 수 있다.The
본 장치(100)는 제2 데이터 저장부(미도시)에 저장된 데일리룩 정보 및/또는 스타일링 평가의 대상이 되는 제품 착용 아바타의 영상 정보를 일예로 SNS 와 연계해 업로드하고, 업로드된 정보에 대하여 타 사용자의 평가를 받을 수 있다.The
또한, 본 장치(100)는 일예로 화면의 일영역(일예로 제5 영역)에 표시되는 '나의 옷장' 아이콘 메뉴에 대한 사용자 입력이 이루어진 경우, 사용자가 구매를 희망하거나 구매한 패션 제품들을 한눈에 모아서 볼 수 있도록 화면에 표시할 수 있다.Also, when a user input is made to the 'My Closet' icon menu displayed on one area (eg, the fifth area) of the screen for example, the
또한, 본 장치(100)는 일예로 패션 제품과 관련된 큐알코드(QR 코드)의 획득 및/또는 사용자 단말(1)로 촬영된 패션 제품 이미지의 획득을 기반으로, 획득된 패션 제품에 대한 정보 검색을 수행할 수 있다. In addition, the
또한, 본 장치(100)는 일예로 액세서리의 경우 사용자의 신체에 적용될 실제 크기를 AR 모형으로 도움 받을 수 있도록 제공할 수 있다. 본 장치(100)는 온라인 쇼핑몰 상에서 판매되는 패션 제품 중 사용자가 구매를 희망하는 패션 제품에 대하여, 그 실제 크기와 상응하는 크기를 갖는 3차원 입체 영상을 제공(즉, 패션 제품 실감 데이터를 제공)함으로써, 사용자가 구매를 희망하는 패션 제품(착용 희망 패션 제품)에 대한 보다 현실감 있는 착용 시뮬레이션을 체감할 수 있도록 제공할 수 있다.Also, in the case of an accessory, the
본 장치(100)는 시뮬레이션부(270)를 통하여, 아바타 생성부(20)에 의해 생성되는 아바타에 의하여 사용자의 체형, 얼굴형, 사이즈 등을 개인의 특성에 맞게 다양화할 수 있으므로, 기존의 아바타 어플과는 차별점을 제공할 수 있다.The
본 장치(100)는 실제 피팅할 수 없는 온라인 쇼핑몰의 한계를 보완하여, 패션 제품에 대한 코디, 옷 구매 등에 도움을 줄 수 있는 기술을 제공할 수 있다. 본 장치(100)는 옷, 액세서리, 메이크업 요소 등이 포함된 다양한 종류의 패션 제품을 아바타 생성부(20)에 의해 생성된 아바타 상에 코디 가능하도록 제공할 수 있다. 또한, 본 장치(100)는 신상품(신상 패션 제품들)이 누락되지 않게 다양한 테마의 아이템들(패션 제품들)이 정기적으로 업데이트되도록 제공할 수 있다.The
또한, 본 장치(100)는 앱 자체적으로 SNS 기능을 가지고 있도록 구현할 수 있다. 이러한 본 장치(100)는 일예로 SNS 상의 다른 사람(타 사용자)이 나의 코디(사용자가 SNS 상에 업로드하여 공유한 코디 정보)를 저장하거나 추천할 수 있도록 하는 기능을 제공할 수 있다. 이때, 본 장치(100)는 타 사용자가 나의 코디를 저장하거나 추천하는 경우, 타 사용자에게 포인트를 제공할 수 있다. 반대로, 사용자가 타 사용자의 코디를 저장하거나 추천하는 경우, 사용자는 본 장치(100)로부터 포인트를 제공받을 수 있다. 이때, 본 장치(100)에 의해 제공되는 포인트는 일예로 SNS 상, 온라인 쇼핑몰 상에서 판매/거래되는 패션 제품에 대한 구매가 가능하도록 마련될 수 있으나, 이에만 한정되는 것은 아니고 기타 다른 보상(일예로 실제 현금으로의 교환 등)으로 활용 가능하도록 마련될 수 있다.In addition, the
또한, 본 장치(100)는 일예로 어플 공유를 통해 신규 유저(신규 사용자)가 추가될 경우, 어플을 공유한 유저(사용자)에게 포인트를 지급할 수 있다. 또한, 본 장치(100)는 본 장치(100)의 앱을 통해 옷을 구매한 경우에도 옷을 구매한 사용자(유저)에게 포인트를 제공할 수 있다. 또한, 본 장치(100)는 특정 패션 제품에 대한 이벤트 및/또는 홍보를 한 사용자에 대해서도 보상으로서 포인트를 제공할 수 있다.Also, when a new user (new user) is added through sharing the application, for example, the
또한, 본 장치(100)는 사용자가 제공받은 포인트를 모음으로써, 포인트로 하여금 실제 패션 제품을 살 때 할인받을 수 있도록 하거나 실제 패션 제품의 구매가 가능하도록 할 수 있다.Also, by collecting points provided by the user, the
본 장치(100)는 온라인 쇼핑몰 상에서 구매자(패션 제품의 구매를 희망하는 사용자)가 쇼핑한 제품(착용 희망 패션 제품)을 제품 착용 시뮬레이션이 가능하도록 해, 소비자의 구매 실패부담을 효과적으로 덜게 할 수 있다. 또한, 본 장치(100)는 온라인 쇼핑몰이 한번에 몰려 있어 원하는 사이트로 바로 이동해 간편한 구매가 가능하도록 제공할 수 있다. 이러한 본 장치(100)는 소비자(구매자)가 패션 제품을 구매함에 있어서 불편함을 해소하고 보다 편의성(편리성)을 제공할 수 있다.The
본 장치(100)는 사용자(구매자)가 온라인 쇼핑몰에서 판매되는 패션 제품을 구매하기 전에, 해당 패션 제품이 착용된 모습(미리 착용 모습)을 시뮬레이션해 패션 제품의 착용 핏을 보다 직관적으로 확인 가능하도록 제공할 수 있다.The
본 장치(100)는 사용자(구매자, 소비자)가 구매를 희망하는 패션 제품에 대한 구매를 행함에 있어서, 사용자가 보다 원활하게 구매할 수 있도록 도울 수 있다. 또한, 본 장치(100)는 시뮬레이션부(270)로 하여금 사용자가 패션 제품의 구매 실패율이 적도록 하며(실패율을 줄이며) 쇼핑하도록 도울 수 있다.The
본 장치(100)는 시뮬레이션부(270)로 하여금 패션 코디 스타일을 사용자에게 맞춤화한 맞춤 추천이 가능하며, 보다 현실감 있는 제품 착용 시뮬레이션 기능을 제공할 수 있다.The
본 장치(100)는 비즈니스 니즈 관점에서 보았을 때, 더 많은 옷을 팔아 쇼핑몰들의 매출을 높여주어 원활한 쇼핑 서비스의 제공이 이루어지도록 제공할 수 있다. 또한, 본 장치(100)는 사용자 니즈 관점에서 보았을 때, 저렴한 가격에 나에게 가장 잘 어울리는 옷을 추천받아 구매할 수 있도록 도울 수 있다.From a business need point of view, the
본 장치(100)는 온라인 쇼핑몰 상에서 판매되는 패션 제품이, 사진과 다르게 실제로는 사용자가 착용했을 때 사이즈가 맞지 않아 교환/환불이 이루어져야 했던 종래의 문제를 해소할 수 있다.The
본 장치(100)는 복수의 패션 제품 중 사용자에 의해 선택된 착용 희망 패션 제품이 화장품(예시적으로, 매니큐어, 비비크림, 썬크림 등)인 경우, 아바타 생성부(20)를 통해 생성된 아바타 상에 해당 화장품을 이용한 화장(메이크업)이나 네일 아트 등을 적용시키는 착용 시뮬레이션(제품 착용 시뮬레이션)을 수행할 수 있다.When the desired fashion product selected by the user from among the plurality of fashion products is cosmetics (eg, nail polish, BB cream, sunscreen, etc.), the
또한, 본 장치(100)는 일예로 브랜드에서 추구하는 시즌 별 추천 패션 제품을 한 화면 상에 모아 표시되도록 하거나, 또는 각 쇼핑몰에서의 판매율 1위에 해당하는 패션 제품을 한 화면 상에 모아 표시되도록 할 수 있다.In addition, the
또한, 본 장치(100)는 추천 코디 북 카테고리 기능, 어플 사용자들의 패션 코디 확인 기능, 커뮤니케이션 기능, 유사한 패션 디자인 한눈에 보기 기능, 유사한 패션 제품의 가격대 비교 기능을 제공할 수 있다. 또한, 본 장치(100)는 어플 사용자의 취향에 맞춰 코디를 추천하는 기능, 사용자들과 또는 친구와 패션 코디를 공유하는 기능을 제공할 수 있다.Also, the
이때, 본원에서 코디를 추천/공유한다라 함은, 착용 시뮬레이션의 적용에 의하여 착용 희망 패션 제품의 착용이 이루어진 제품 착용 아바타(혹은 자세 변경 아바타)의 영상(모습)을 일예로 SNS 상에 업로드하여 추천하거나 공유하는 등의 행위를 의미할 수 있다.At this time, to recommend/share a coordinator here means uploading an image (shape) of a product wearing avatar (or posture change avatar) in which a desired fashion product is worn by application of a wearing simulation, as an example, to SNS. It can mean an action such as recommending or sharing.
본 장치(100)는 패션 스타일링 코디 추천 기능, 옷 가격대 조정 가능 기능, 패션스타일 코디 시뮬레이션 기능, 다른 사용자들과의 커뮤니케이션 기능(사용자 간의 커뮤니케이션 기능, 스타일 공유 기능), 비슷한 스타일의 옷 코디 스타일을 한번에 확인할 수 있는 기능, 포인트를 통해 패션 제품의 구매시 할인을 제공받을 수 있는 기능, 이미지 검색 기능(비슷한 패션 제품들의 비교 분석 기능) 등을 제공할 수 있다.The
또한, 본 장치(100)에서 아바타 생성부(20)는, 개인마다의 신체 특성 정보(일예로 체형 등)가 고려된 아바타를 생성할 수 있다.Also, in the
본 장치(100)는 시뮬레이션부(270)에 의한 착용 시뮬레이션(제품 착용 시뮬레이션)을 통하여, 아바타를 통해 보이는 패션 제품의 착용 핏(아바타 착용 핏)과 실제 사용자가 해당 패션 제품을 구매하여 착용했을 때의 착용 핏(실제 착용 핏, 실제 코디한 모습)이 상당히 비슷하게 보이도록 제공할 수 있으며, 이를 통해 온라인 쇼핑몰 상에서의 패션 제품의 구매 실패 확률을 효과적으로 줄일 수 있다.The
또한, 본 장치(100)는 SNS와의 연계를 통해 어플 자체가 SNS 기능을 가지도록 제공할 수 있다.In addition, the
본 장치(100)는 자신이 코디한 패션 제품들(즉, 아바타 생성부에서 생성된 아바타에 착용된 착용 희망 패션 제품들)의 착용 핏을 확인함과 동시에 해당 패션 제품들을 일괄적으로 동시에 구매 가능하도록 제공할 수 있다. 이를 통해, 본 장치(100)는 패션 제품에 대한 구매 편의성을 향상시킬 수 있다.The
또한, 본 장치(100)는 추천 패션 제품의 제공을 통해, 자신이 코디한 스타일(패션 제품의 스타일)과 비슷하거나 유사한 스타일의 패션 제품을 추천받을 수 있으며, 이를 통해 패션 제품의 구매/비교 등이 원활히 이루어지도록 제공할 수 있다. 본 장치(100)는 사용자로 하여금 만족스러운 패션 제품의 쇼핑 구매가 이루어지도록 제공할 수 있고, 실패 확률 가능성을 낮출 수 있다.In addition, the
종래에는 각 온라인 쇼핑몰에서 제공하는 패션 제품들을 사용자가 일일이 가격/성능 등의 비교를 수행해야 했고, 유행하는 코디를 찾아 구매하고 싶어도 가격대가 비싸 부담스러운 경우가 있었으며, 직접 입어 볼 수 없어 패션 제품 구매에 실패하는 등의 문제(불편함)가 존재하였다. 이에 반해, 본 장치(100)는 추천 패션 제품을 제공함으로써, 사용자가 보다 효과적으로 패선 제품 간의 비교를 수행하고, 적정 가격대의 패션 제품 등 사용자가 원하는 최적화된 패션 제품을 효과적으로 검색해 제공받을 수 있도록 할 수 있다.In the past, users had to compare the price/performance of the fashion products provided by each online shopping mall individually. There were problems (inconvenient) such as failure to In contrast, by providing recommended fashion products, the
본 장치(100)는 일예로 타 사용자들에 의하여 어플 혹은 SNS 상에 업로드되는 패션 제품과 관련된 신상 소식, 코디 추천 소식, 추천 유저 등에 대한 정보를 화면에 제공할 수 있다. 또한, 본 장치(100)는 일예로 복수의 패션 제품을 카테고리별(일예로, 상의 하의, 액세서리, 신발, 기타 등)로 분류하여 제공할 수 있으며, 각 카테고리별로 분류된 패션 제품을 해당 패션 제품을 판매하는 온라인 쇼핑몰의 정보와 함께 연계하여 제공할 수 있다.The
본 장치(100)의 화면에는 복수의 패션 제품이 표시될 수 있다. 이때, 복수의 패션 제품은 온라인 쇼핑몰 상에서 판매/거래되는 패션 제품을 의미할 수 있다. 본 장치(100)는 일예로 화면의 일영역에 패션 제품의 검색을 위한 검색 창을 표시할 수 있다. 사용자는 화면에 표시된 검색 창에 원하는 패션 제품의 검색을 위한 키워드를 입력할 수 있으며, 본 장치(100)는 복수의 패션 제품 중 입력된 키워드와 매칭되는 패션 제품(매칭 패션 제품)을 화면 상에 표시할 수 있다. 이후, 매칭 패션 제품 중 어느 하나에 대한 선택이 이루어지면, 시뮬레이션 제어부(30)는 화면의 일영역에 표시된 아바타(이는 아바타 생성부에 의해 생성된 아바타를 의미함) 상에 사용자가 선택한 매칭 패션 제품을 적용시킴에 따라 생성된 제품 착용 아바타(즉, 생성된 아바타에 대하여 선택된 매칭 패션 제품의 착용 시뮬레이션이 이루어진 아바타)의 영상을 화면에 표시할 수 있다.A plurality of fashion products may be displayed on the screen of the
이를 통해, 본 장치(100)는 화면에 표시된 제품 착용 아바타로 하여금, 매칭 패션 제품이 자신의 체형과 유사한 형태로 모델링된 아바타 상에 코디된 모습(매칭 패션 제품의 착용 핏)을 시각적으로 확인 가능하도록 제공할 수 있다. 또한, 본 장치(100)는 이러한 매칭 패션 제품에 대하여 구매를 희망하여 구매 버튼에 대한 사용자 입력이 이루어지면, 해당 매칭 패션 제품을 판매하는 온라인 쇼핑몰로 이동되도록 하거나(즉, 매칭 패션 제품을 판매하는 온라인 쇼핑몰의 화면이 표시되도록 제어하거나) 혹은 해당 매칭 패션 제품의 구매가 가능하도록 하는 구매 청 신호를 전송할 수 있다.Through this, the
또한, 본 장치(100)는 검색 창에 패션 제품의 검색을 위한 키워드 입력시 해당 키워드와 관련된 검색어들이 함께 보이도록 화면 표시를 제어할 수 있다.Also, when a keyword for searching for a fashion product is input in the search window, the
본 장치(100)는 홈 화면에서 내 캐릭터를 확인하는 기능, 캐릭터 생성 후 저장하는 기능, 저장된 완성 캐릭터를 확인하는 기능, 홈 화면에서 아바타를 누를 시 아바타 목록으로 이동하는 기능, 저장된 아바타 목록에서 아바타를 선택하여 삭제하는 기능, 홈 화면에서 아이콘을 선택하면 쇼핑몰의 순위 목록 화면으로 이동하는 기능, 즐겨찾기 버튼을 눌러 내가 찜한 쇼핑몰을 한눈에 확인할 수 있는 표시 기능, 내가 찜한 쇼핑몰을 선택하여 삭제하는 기능, 찜한 쇼핑몰에서 내가 찜한 아이템들(패션 제품들)을 한 화면 상에 확인할 수 있는 기능, 내가 찜한 쇼핑몰에서 장바구니 버튼을 눌러 해당 장바구니에 담은 패션 제품 중 해당 쇼핑몰의 제품들만 확인할 수 있는 기능 등을 포함할 수 있다.The
또한, 본 장치(100)는 카메라로 패션 제품을 촬영한 후 촬영한 이미지를 잘라서 패션 제품 검색을 수행하는 기능, 촬영된 이미지와 비슷한 관련 패션 제품들을 검색 결과를 제공하는 기능, 쇼핑시 배너에서 상세하게 쇼핑 조건을 정할 수 있어 더 빠르게 쇼핑 가능하도록 하는 기능, 해당 쇼핑몰의 원하는 패션 제품의 정보를 한눈에 확인 하는 기능, 저장된 나의 아바타에 원하는 패션 제품을 착용시키는 착용 시뮬레이션(착용 제품 시뮬레이션)을 통해 착용 핏을 확인하는 기능, 배송/문의 내역확인 기능, 자주 묻는 질문 등을 확인하는 기능, 로그인 화면 기능 등을 포함할 수 있다. 다만, 상술한 본 장치(100)에 포함되는 각종 기능들은 본원의 이해를 돕기 위한 하나의 예시일 뿐, 이에만 한정되는 것은 아니다. In addition, the
다시 말해, 본 장치(100)는 실제 피팅 할 수 없는 온라인 쇼핑몰의 한계를 보완해 코디와 옷을 포함한 패션 제품의 구매에 도움을 주고자, 자신을 닮은 다양한 체형의 아바타를 만들어 원하는 코디가 가능하도록 하는 기술에 대하여 제공한다.In other words, the
본 장치(100)는 온라인 쇼핑몰에서 구매자가 쇼핑한 제품을 제품 착용 시뮬레이션이 가능하도록 해 소비자의 구매 실패 부담을 덜고, 간편하게 구매가 가능하도록 할 수 있으며, 제품 구매전 미리 착용 모습을 시뮬레이션해 핏을 확인할 수 있도록 제공할 수 있다.The
본 장치(100)는 분류 별로 표시된 아이콘을 통해 연계 쇼핑몰 사이트로 이동 및 구매가 가능하도록 하고, 아바타에 오늘 입을 옷을 적용해 데일리 룩을 기록하며, 패션 제품(상품)과 관련된 큐알코드 및 이미지 검색이 가능하고, 액세서리의 경우 신체에 적용될 실제 크기를 AR 모형으로 도움 받을 수 있도록 할 수 있다.The
본 장치(100)는 사용자의 실제 체형을 고려해 생성된 아바타에 의류 등의 패션 제품을 입힌 이후(착용시킨 이후) 아바타를 의자에 앉히거나 혹은 팔을 들어올리게 하는 등 아바타 자세를 변경시키는 시뮬레이션을 수행할 수 있다. 이때, 본 장치(100)는 시뮬레이션을 통해 타이트함, 쪼임 등이 발생하는 부분의 위치(아바타 상의 위치)를 화면에 표시할 수 있다. 일예로 본 장치(100)는 아바타가 착용한 신발이나 의류 등에서 아바타의 자세를 변경함에 따라 조임이 나타나는 부분의 위치를 표시할 수 있다.The
또한, 본 장치(100)는 추가적으로 사용자가 느낄 조임의 강도를 예측한 정보(타이트함의 강도)를 예측한 정보를 함께 제공할 수 있다. In addition, the
또한, 본 장치(100)는 아바타에 대하여 자세 변경에 따른 패션 제품의 착용 시뮬레이션을 제공함으로써, 일예로 아바타가 의자에 앉도록 자세를 변경하였을 때, 아바타가 의자에 앉은 자세를 취함에 따라 아바타에 착용된 바지의 밑단이 위로 올라가게 되는 예상 모습, 혹은 바지의 허벅지 부분이 쪼이게 되는 예상 모습 등을 사용자가 시각적으로 확인 가능하게 할 수 있다.In addition, the
또한, 본 장치(100)는 아바타에 대한 패션 제품의 착용시 혹은 자세 변경시, 조임 부분이 여러 군데(여러 영역) 식별된 경우, 그 조임 강도에 따라 화면에 표시되는 조임 부분의 표시 색상을 달리할 수 있다. 또한, 본 장치(100)는 일예로 조임 부분의 수가 기 설정된 개수 이상인 경우, 아바타에 착용된 해당 패션 제품보다 큰 치수의 패션 제품을 추천 패션 제품으로서 추천하기 위해 화면의 일영역에 표시할 수 있다. 이때, 본 장치(100)는 추천 패션 제품 중 어느 하나의 추천 패션 제품에 대한 사용자 선택 입력이 이루어진 경우, 선택된 어느 하나의 추천 패션 제품이 실시간으로 아바타 상에 적용된(착용된) 모습(추천 패션 제품의 착용 샷)을 화면에 표시하여 제공할 수 있다.Also, when the
또한, 본 장치(100)는 SNS 와의 연계를 통해, 사용자의 피부톤 등을 고려하여 생성된 아바타를 기반으로 하여 사용자가 코디한 패션에 대하여, 다수의 타 사용자들에게 평가 받을 수 있는 기능을 포함할 수 있다. In addition, the
또한, 본 장치(100)는 개인 맞춤형 기온별 의류 추천 정보를 제공할 수 있다. 본 장치(100)는 큰 일교차와 예측할 수 없는 기온의 변화에도 불구하고, 사용자에게 맞춤화된 의류 추천 정보를 제공할 수 있다. 종래의 의류 추천 기술은 다수의 평균 정보를 이용하는 반면, 본 장치(100)는 개인이 느끼는 추위/더위의 정도가 다름을 고려하여 사용자 맞춤형 의류 추천 정보를 제공할 수 있다.In addition, the
본 장치(100)는 다수의 평균이 아닌 개인 맞춤형 의류 추천 정보를 제공할 수 있다. 본 장치(100)는 일정한 간격을 둔 실시간 기온 변화를 안내할 수 있고. 실시간 기온 변화에 따른 특정 옷에 대한 추위/더위 정도에 대한 정보를 제공하며, 현재 이용자 본인이 소유하고 있는 옷을 이용하여 의류 추천 정보를 제공할 수 있다. 또한, 본 장치(100)는 커뮤니티를 통해 자신과 추위/더위의 정도가 비슷하게 느끼는 타 사용자들에게 의류 정보를 획득(습득)하고, 획득된 타 사용자들의 의류 정보를 이용하여 의류 추천 정보를 생성하여 제공할 수 있다. 본 장치(100)는 위젯 기능으로 앱에 직접 접속하지 않아도 정보를 습득할 수 있다.The
본 장치(100)는 카메라 인식을 통한 소유 의류에 대한 정보를 입력할 수 있으며, 일예로 카메라의 사용이 불가능한 경우에는 직접 타이핑함으로써 입력할 수 있다.The
본 장치(100)는 일예로 평균 의류 추천 정보를 우선 제공할 수 있으며, 사용자 본인이 소유한 소유 의류에 대한 정보가 획득되어 저장되어 있는 경우에는 기 저장된 소유 의류에 대한 정보를 토대로 개인 맞춤형 의류 추천 정보를 생성하여 제공할 수 있다.As an example, the
본 장치(100)는 일예로 충분한 데이터가 쌓이기 전에, 지속적으로 계속해서 추위/더위에 대한 질문(즉, 체감 온도 정보의 입력을 위한 입력 요청 메시지)을 던짐으로써, 사용자에게 제공되는 맞춤 의류 추천 정보의 정확도를 향상시킬 수 있다.For example, the
또한, 본 장치(100)는 익명으로만 이루어지는 커뮤니티에서 애꿎은 익명인과 싸우는 것을 방지하기 위해, 익명 별 넘버(식별번호)를 부여할 수 있다. 또한, 본 장치(100)는 쇼핑몰 링크를 제공하여 필요한 의류가 생겼을 때 보다 빠르게 구매 가능하도록 제공할 수 있다.In addition, the
종래에 의류 추천 기술과 관련하여, 인터넷에 올라오는 기온별 알맞은 옷차림 미지들, 관련 포스팅들이 많으며, 유트브 영상 등에서도 기온에 맞는 옷차림을 찾는 사람들이 많다. 그런데, 이러한 의류 추천 기술들의 경우, 추천해주는 옷이 본인이 갖고 있지 않은 경우가 많으므로, 추천되는 의류 추천 정보를 실제로 활용하는 데에 어려움이 있다.Conventionally, in relation to clothing recommendation technology, there are many unknowns and related posts on clothing suitable for each temperature that are uploaded to the Internet, and there are many people looking for clothing suitable for the temperature in YouTube videos and the like. However, in the case of such clothing recommendation techniques, since the recommended clothing is often not owned by the person, it is difficult to actually use the recommended clothing recommendation information.
이에 본 장치(100)는, 개인이 소유하고 있는 의류(소유 의류) 내에서 이들을 활용하여 의류 추천 정보를 제공하고자 한다. 본 장치(100)는 다수의 평균이 아닌 개인에 중점을 둔 개인 맞춤형 의류 추천 정보를 제공할 수 있다. 본 장치(100)는 본인과 비슷한 사용자들과 커뮤니케이션 하는 기능을 제공할 수 있으며, 이를 통해 객관적 정보 외의 주관적 정보도 획득(습득) 가능하고 이들을 종합적으로 고려해 보다 맞춤화된 의류 추천 정보를 제공할 수 있다. 또한, 본 장치(100)는 일예로 GPS 와 데이터 수신이 가능한 상황(환경)에서 언제 어디서든 의류 추천 정보를 제공받을 수 있다.Accordingly, the
종래의 의류 추천 기술들은 제작자 본인 기준으로 추천을 해주거나 온도에 따른 평균적인 옷차림(의류 추천 정보)을 추천한다. 이에 반해, 본 장치(100)는 제작자 기준이나 평균이 아닌, 개인 앱 사용자를 기준으로 한 옷차림 추천 정보(의류 추천 정보)를 제공하기 때문에, 사용자들의 이용률을 높일 수 있다.Conventional clothing recommendation technologies recommend based on the manufacturer's own standards or average clothing (clothing recommendation information) according to temperature. On the other hand, since the
본 장치(100)는, 소유 의류에 관한 정보의 획득시 카메라 인식 혹은 사진만으로 획득할 수 있다. 또한, 본 장치(100)는 일예로 남/여 외에 남-여가 함께 착용 가능한 공통 의류 추천 정보를 제공할 수 있다. 본 장치(100)는 사용자 단말(1)의 바탕화면에서 볼 수 있는 위젯 기능을 제공할 수 있다. 본 장치(100)는 밤-낮의 기온차를 제공하여 선택한 의류에 대해 사용자가 밤에 어떻게 느낄지에 대한 정보를 제공할 수 있다. 또한, 본 장치(100)는 쇼핑몰과의 연동이 가능하며, 디테일한 옷차림 추천, 의류 정보를 제공할 수 있다. 또한, 본 장치(100)는 온도를 느끼는 것(체감 온도 정보)과 관련해 구체적인 상황 설정을 할 수 있으며, 팝업 알리미 기능, 음성 기능 등을 제공할 수 있다.The
본 장치(100)는 현재 날씨를 기반으로 의류 추천 정보를 생성할 수 있다. 본 장치(100)는 의류 추천 정보에 대한 상세 정보(일예로, 의류의 재질, 두께 등)를 제공할 수 있다. 본 장치(100)는 시간대별 날씨에 기반한 의류 추천 정보를 생성할 수 있고, 혹은 주간 날씨와 사용자가 선택한 의류를 기반으로 한 의류 추천 정보를 생성할 수 있다.The
본 장치(100)는 기온을 고려한 평균적인 의류 추천 정보(옷차림 추천 정보)를 제공할 수 있다. 또한, 본 장치(100)는 시간대별 의류 추천 정보를 생성하여 제공할 수 있고, 뿐만 아니라 일별(주간정보)을 기초로 의류 추천 정보를 생성하여 제공할 수 있다. The
본 장치(100)는 체감 온도 정보의 입력을 위한 입력 요청 메시지에 대한 사용자 입력시, 사용자 입력이 이루어진 시점에 대응하여 획득되는 정보와 관련하여, 날씨 정보(날씨 예보 정보), 미세먼지 정보, 위치 정보, 기온차 정보 등을 획득할 수 있으나, 이에 한정되는 것은 아니다. When a user inputs an input request message for input of sensible temperature information, the
본 장치(100)는 일예로 체감 온도 정보의 입력을 위한 입력 요청 메시지를 팝업 형식으로 화면에 표시할 수 있다. 이러한 입력 요청 메시지는 사용자가 현재 추운지, 혹은 더운지를 묻는 질의에 대한 사용자 입력을 요청하는 메시지를 의미할 수 있다. 이러한 입력 요청 메시지에 대한 사용자 입력을 토대로, 본 장치(100)는 사용자가 현재 추운지 혹은 더운지에 관한 정보(체감 온도 정보)를 획득할 수 있다.The
또한, 본 장치(100)는 시뮬레이션부(270)를 통하여, 온라인 쇼핑몰상에서 판매하는 패션 제품(패션 상품)의 구매시, 구매자의 패션 상품 구매의 실패율을 줄이고 효과적으로 패션 상품의 구매가 이루어지도록 제공할 수 있다. 또한, 본 장치(100)는 시뮬레이션부(270)로 하여금, 온라인 쇼핑몰 상에서 본 상품(제품)을 구매하여 실제 받아보았을 때 쇼핑몰 상에서 본 상품의 느낌/크기 등이 실제 상품을 본 느낌/크기 등과 다름에 따라 상품 구매의 만족도가 높지 않고 교환/환불 등이 빈번히 일어나던 문제를 해소할 수 있다.In addition, the
이하에서는 상기에 자세히 설명된 내용을 기반으로, 본원의 동작 흐름을 간단히 살펴보기로 한다.Hereinafter, an operation flow of the present application will be briefly reviewed based on the details described above.
도 9는 본원의 일 실시예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 방법에 대한 동작 흐름도이다.9 is an operation flowchart of a method for providing a social network service using augmented reality according to an embodiment of the present application.
도 9에 도시된 증강현실을 이용한 소셜 네트워크 서비스 제공 방법은 앞서 설명된 본 장치(100)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 본 장치(100)에 대하여 설명된 내용은 증강현실을 이용한 소셜 네트워크 서비스 제공 방법에 대한 설명에도 동일하게 적용될 수 있다.The method of providing a social network service using augmented reality shown in FIG. 9 may be performed by the
도 9를 참조하면, 단계S11에서 아바타 관리부는, 사용자에 대응하는 사용자 아바타를 생성하여 제1 저장부에 저장할 수 있다.Referring to FIG. 9 , in step S11 , the avatar manager may generate a user avatar corresponding to the user and store the generated user avatar in the first storage unit.
다음으로, 단계S12에서 화면 제어부는, 촬영 모드인 것으로 감지된 경우, 촬영 대상 영역에 대응하여 사용자 단말의 화면에 표출되는 현실 영상 상에 단계S11에서 생성된 사용자 아바타를 오버랩하여 표시할 수 있다.Next, in step S12, when it is detected that the shooting mode is in the shooting mode, the screen controller may overlap and display the user avatar generated in step S11 on the real image displayed on the screen of the user terminal corresponding to the shooting target area.
다음으로, 단계S13에서 영상 관리부는, 촬영 모드에서 촬영 버튼에 대한 사용자 입력이 이루어진 경우, 현실 영상과 사용자 아바타가 결합된 증강현실 영상을 획득하여 제2 저장부에 저장할 수 있다.Next, in step S13 , when a user input is made to the shooting button in the shooting mode, the image management unit may acquire an augmented reality image in which a real image and a user avatar are combined and store the acquired augmented reality image in the second storage unit.
다음으로, 단계S14에서 SNS 관리부는, 단계S13에서 획득된 증강현실 영상을 타 사용자와 공유하기 위한 공유 요청 신호가 사용자로부터 입력된 경우, 공유를 위해 증강현실 영상을 SNS 관계망에 업로드할 수 있다.Next, in step S14, when a sharing request signal for sharing the augmented reality image obtained in step S13 with other users is input from the user, the SNS management unit may upload the augmented reality image to the SNS relational network for sharing.
상술한 설명에서, 단계 S11 내지 S14는 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S11 to S14 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present application. In addition, some steps may be omitted if necessary, and the order between steps may be changed.
본원의 일 실시 예에 따른 증강현실을 이용한 소셜 네트워크 서비스 제공 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The social network service providing method using augmented reality according to an embodiment of the present application may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
또한, 전술한 증강현실을 이용한 소셜 네트워크 서비스 제공 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.In addition, the above-described method for providing a social network service using augmented reality may be implemented in the form of a computer program or application executed by a computer stored in a recording medium.
전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present application is for illustration, and those of ordinary skill in the art to which the present application pertains will understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present application. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may be implemented in a combined form.
본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present application.
1000: 증강현실을 이용한 소셜 네트워크 서비스 제공 시스템
100: 증강현실을 이용한 소셜 네트워크 서비스 제공 장치
210: 아바타 관리부
220: 화면 제어부
230: 영상 관리부
240: SNS 관리부
250: 제1 저장부
260: 제2 저장부1000: Social network service providing system using augmented reality
100: device for providing social network service using augmented reality
210: avatar management unit 220: screen control unit
230: video management unit 240: SNS management unit
250: first storage unit 260: second storage unit
Claims (12)
사용자에 대응하는 사용자 아바타를 생성하여 제1 저장부에 저장하는 아바타 관리부;
촬영 모드인 것으로 감지된 경우, 촬영 대상 영역에 대응하여 사용자 단말의 화면에 표출되는 현실 영상 상에 상기 사용자 아바타를 오버랩하여 표시하는 화면 제어부;
상기 촬영 모드에서 촬영 버튼에 대한 사용자 입력이 이루어진 경우, 상기 현실 영상과 상기 사용자 아바타가 결합된 증강현실 영상을 획득하여 제2 저장부에 저장하는 영상 관리부; 및
상기 증강현실 영상을 타 사용자와 공유하기 위한 공유 요청 신호가 사용자로부터 입력된 경우, 공유를 위해 상기 증강현실 영상을 SNS 관계망에 업로드하는 SNS 관리부,
를 포함하는 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.As a social network service (SNS, Social Network Services) providing device using augmented reality,
an avatar management unit generating a user avatar corresponding to the user and storing the generated user avatar in the first storage unit;
a screen control unit that overlaps and displays the user avatar on a real image displayed on the screen of the user terminal in response to a photographing target area when it is detected that the photographing mode is in;
an image management unit for obtaining an augmented reality image in which the real image and the user avatar are combined and storing the augmented reality image in a second storage unit when a user input is made to the shooting button in the shooting mode; and
When a share request signal for sharing the augmented reality image with other users is input from the user, an SNS management unit for uploading the augmented reality image to an SNS relational network for sharing;
A social network service providing device using augmented reality comprising a.
상기 사용자는 제1 사용자이고, 상기 제1 사용자의 사용자 아바타는 제1 사용자 아바타이고, 상기 증강현실 영상은 제1 증강현실 영상이며,
상기 화면 제어부는,
제2 사용자의 사용자 단말이 상기 촬영 대상 영역과 동일한 촬영 대상 영역의 촬영을 위한 촬영 모드인 것으로 감지되되, 상기 촬영 대상 영역과 관련하여 기 저장된 사용자 아바타로서 상기 제1 사용자 아바타가 존재하는 경우, 상기 제2 사용자의 사용자 단말의 화면에 표출되는 현실 영상 상에 제2 사용자 아바타 및 상기 제1 사용자 아바타를 오버랩하여 표시하는 것인, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.According to claim 1,
the user is a first user, the user avatar of the first user is a first user avatar, the augmented reality image is a first augmented reality image,
The screen control unit,
If it is detected that the user terminal of the second user is in a photographing mode for photographing the same photographing target area as the photographing target area, and the first user avatar exists as a pre-stored user avatar in relation to the photographing target area, the An apparatus for providing a social network service using augmented reality to overlap and display a second user avatar and the first user avatar on a real image displayed on a screen of a user terminal of a second user.
상기 영상 관리부는,
상기 현실 영상, 상기 제2 사용자 아바타 및 상기 제1 사용자 아바타가 결합된 증강현실 영상으로서 제2 증강현실 영상을 획득하여 저장하되,
상기 제1 사용자 아바타와 관련하여 결합 불가 조건이 기 설정되어 있는 경우, 상기 결합 불가 조건을 고려하여 상기 제2 증강현실 영상의 획득을 위한 결합을 수행하는 것인, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.3. The method of claim 2,
The video management unit,
Obtaining and storing a second augmented reality image as an augmented reality image in which the real image, the second user avatar, and the first user avatar are combined,
When a non-combination condition is previously set in relation to the first user avatar, combining for obtaining the second augmented reality image is performed in consideration of the uncombinable condition, providing a social network service using augmented reality Device.
상기 아바타 관리부는,
사용자로부터 입력받은 신체 특성 정보를 고려하여 상기 사용자 아바타를 생성하고,
상기 사용자 아바타는, 상기 신체 특성 정보로서 입력받은 사용자의 체형, 얼굴형, 얼굴 표정 및 피부톤 중 적어도 하나를 고려하여 생성된 3차원 아바타인 것인, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.According to claim 1,
The avatar management unit,
generating the user avatar in consideration of body characteristic information input from the user;
The user avatar is a three-dimensional avatar generated in consideration of at least one of a user's body type, face shape, facial expression, and skin tone received as the body characteristic information, the apparatus for providing a social network service using augmented reality.
상기 아바타 관리부는,
상기 촬영 모드인 것으로 감지된 경우, 상기 사용자의 생체 정보, 날씨 예보 정보 및 상기 사용자에 의하여 업로드된 업로드 정보를 분석하여 산출된 업로드 정보 분석 결과 중 적어도 하나의 정보를 획득하는 정보 획득부를 포함하고,
획득된 상기 적어도 하나의 정보에 기초하여, 상기 사용자 아바타의 상태 정보를 업데이트하고, 업데이트된 사용자 아바타를 생성하여 저장하는 것인, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.5. The method of claim 4,
The avatar management unit,
and an information acquisition unit configured to acquire at least one of the upload information analysis result calculated by analyzing the user's biometric information, weather forecast information, and upload information uploaded by the user when it is detected that the shooting mode is in the shooting mode,
The apparatus for providing a social network service using augmented reality, which updates status information of the user avatar based on the at least one obtained information, and generates and stores the updated user avatar.
상기 화면 제어부는,
상기 사용자 단말의 화면에 상기 현실 영상이 미리 설정된 시간 동안 표출되는 경우, 상기 현실 영상 상에 적어도 하나의 기 선정 추천 위치를 표시하고, 상기 적어도 하나의 기 선정 추천 위치 중 어느 하나의 기 선정 추천 위치에 상기 사용자 아바타를 표시하는 것인, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.According to claim 1,
The screen control unit,
When the real image is displayed on the screen of the user terminal for a preset time, at least one preset recommended position is displayed on the real image, and any one preset recommended position from among the at least one preset recommended position Displaying the user avatar on the social network service providing device using augmented reality.
상기 적어도 하나의 기 선정 추천 위치는,
상기 화면에 표출되는 상기 현실 영상의 이미지 분석을 통해 식별되는 객체 정보를 고려하여 선정되는 위치이거나 및/또는 상기 SNS 관계망에 업로드된 복수의 증강현실 영상의 분석을 기반으로 산출되는 사용자 아바타의 표시 위치와 관련된 통계 위치 정보를 고려하여 선정되는 위치인 것인, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.7. The method of claim 6,
The at least one previously selected recommended location is,
A position selected in consideration of object information identified through image analysis of the real image displayed on the screen and/or a display position of a user avatar calculated based on analysis of a plurality of augmented reality images uploaded to the SNS relational network A device for providing a social network service using augmented reality, which is a location that is selected in consideration of related statistical location information.
상기 화면 제어부는,
상기 사용자 단말의 화면에 상기 현실 영상이 미리 설정된 시간 동안 표출되는 경우, 상기 현실 영상과 관련하여 상기 SNS 관계망에 업로드된 업로드 정보를 분석하여 상기 현실 영상의 주변에 위치한 장소의 방문을 추천하는 추천 방문 장소 관련 정보가 존재하는지 판단하고,
판단 결과 존재하면, 상기 추천 방문 장소 관련 정보를 포함하는 관리자 아바타를 생성하여 상기 현실 영상 상에 표시하는 것인, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.According to claim 1,
The screen control unit,
When the real image is displayed on the screen of the user terminal for a preset time, by analyzing the uploaded information uploaded to the SNS relational network in relation to the real image in relation to the real image, a recommended visit to recommend a visit to a place located in the vicinity of the real image to determine whether location-related information exists,
If it exists as a result of the determination, a social network service providing apparatus using augmented reality to generate a manager avatar including information related to the recommended visit place and display the generated manager avatar on the real image.
상기 화면 제어부는,
상기 관리자 아바타에 대한 사용자 입력이 이루어진 경우, 상기 사용자 단말의 화면의 일영역에 상기 추천 방문 장소 관련 정보를 팝업 형태로 표시하되,
상기 추천 방문 장소 관련 정보 내에 복수개의 장소 항목이 포함된 경우, 상기 팝업 형태로 표시되는 상기 추천 방문 장소 관련 정보 내 상기 복수개의 장소 항목의 표시 순위를, 상기 복수개의 장소 항목에 대한 사용자 동작 정보의 수준을 고려하여 갱신하는 것인, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.9. The method of claim 8,
The screen control unit,
When a user input for the manager avatar is made, the information related to the recommended visit place is displayed in a pop-up form on one area of the screen of the user terminal,
When a plurality of place items are included in the recommended visit place-related information, the display order of the plurality of place items in the recommended visit place-related information displayed in the pop-up form is determined according to the user action information for the plurality of place items. A social network service providing device using augmented reality, which is updated in consideration of the level.
상기 사용자 동작 정보의 수준은, 제1 수준, 제2 수준 및 제3 수준을 포함한 복수의 수준으로 구분되고,
상기 제1 수준에 대응하는 사용자 동작 정보는, 사용자 단말로부터 상기 복수개의 장소 항목 중 적어도 하나의 장소 항목을 선택하는 선택 입력 동작을 수행하는 사용자 동작에 관한 정보이고,
상기 제2 수준에 대응하는 사용자 동작 정보는, 상기 선택된 적어도 하나의 장소 항목 중 어느 하나의 장소 항목과 관련하여, 상기 어느 하나의 장소 항목에 대응하는 장소까지의 길 안내를 요청하는 길 안내 요청 입력 동작을 수행하는 사용자 동작에 관한 정보이며,
상기 제3 수준에 대응하는 사용자 동작 정보는, 상기 길 안내 요청 입력 동작에 응답하여 생성된 길 안내 정보를 기반으로, 상기 어느 하나의 장소 항목에 대응하는 장소와 관련된 이미지를 획득하는 장소 이미지 획득 동작을 수행하는 사용자 동작에 관한 정보인 것인, 증강현실을 이용한 소셜 네트워크 서비스 제공 장치.10. The method of claim 9,
The level of the user motion information is divided into a plurality of levels including a first level, a second level, and a third level,
The user action information corresponding to the first level is information about a user action of performing a selection input operation of selecting at least one place item from among the plurality of place items from a user terminal,
The user action information corresponding to the second level includes a route guidance request input for requesting a route guidance to a place corresponding to the one place item in relation to any one place item among the selected at least one place item Information about the user's action to perform the action,
The user action information corresponding to the third level is a place image acquisition operation of acquiring an image related to a place corresponding to the one place item based on the route guidance information generated in response to the route guidance request input operation A device for providing a social network service using augmented reality, which is information about a user's action to perform.
제1항의 증강현실을 이용한 소셜 네트워크 서비스 제공 장치; 및
상기 증강현실을 이용한 소셜 네트워크 서비스 제공 장치 와 연동되어 상기 증강현실을 이용한 소셜 네트워크 서비스 제공 장치 의 동작 제어를 위한 제어 신호를 사용자로부터 입력받아 제공하는 사용자 단말,
을 포함하는 증강현실을 이용한 소셜 네트워크 서비스 제공 시스템.As a social network service providing system using augmented reality,
A social network service providing apparatus using the augmented reality of claim 1; and
a user terminal interlocking with the apparatus for providing a social network service using the augmented reality to receive a control signal for controlling the operation of the apparatus for providing a social network service using the augmented reality as input from the user;
A system for providing social network services using augmented reality, including a.
(a) 사용자에 대응하는 사용자 아바타를 생성하여 제1 저장부에 저장하는 단계;
(b) 촬영 모드인 것으로 감지된 경우, 촬영 대상 영역 에 대응하여 사용자 단말의 화면에 표출되는 현실 영상 상에 상기 사용자 아바타를 오버랩하여 표시하는 단계;
(c) 상기 촬영 모드에서 촬영 버튼에 대한 사용자 입력이 이루어진 경우, 상기 현실 영상과 상기 사용자 아바타가 결합된 증강현실 영상을 획득하여 제2 저장부에 저장하는 단계; 및
(d) 상기 증강현실 영상을 타 사용자와 공유하기 위한 공유 요청 신호가 사용자로부터 입력된 경우, 공유를 위해 상기 증강현실 영상을 SNS 관계망에 업로드하는 단계,
를 포함하는 증강현실을 이용한 소셜 네트워크 서비스 제공 방법.As a method of providing a social network service using augmented reality by the apparatus for providing a social network service using the augmented reality of claim 1,
(a) generating a user avatar corresponding to the user and storing it in a first storage unit;
(b) overlapping and displaying the user avatar on a real image displayed on a screen of a user terminal in response to a shooting target area when it is detected that the shooting mode is in the shooting mode;
(c) when a user input is made to the shooting button in the shooting mode, acquiring an augmented reality image in which the real image and the user avatar are combined and storing the augmented reality image in a second storage unit; and
(d) when a share request signal for sharing the augmented reality image with other users is input from the user, uploading the augmented reality image to an SNS relational network for sharing;
A method of providing a social network service using augmented reality comprising a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200090739A KR102419056B1 (en) | 2020-07-22 | 2020-07-22 | Apparatus and method device for providing social network services using augmented reality |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200090739A KR102419056B1 (en) | 2020-07-22 | 2020-07-22 | Apparatus and method device for providing social network services using augmented reality |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220011906A true KR20220011906A (en) | 2022-02-03 |
KR102419056B1 KR102419056B1 (en) | 2022-07-07 |
Family
ID=80268855
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200090739A KR102419056B1 (en) | 2020-07-22 | 2020-07-22 | Apparatus and method device for providing social network services using augmented reality |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102419056B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230057821A1 (en) * | 2021-08-20 | 2023-02-23 | Kyndryl, Inc. | Enhanced content submissions for support chats |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110119127A (en) * | 2010-04-26 | 2011-11-02 | 엘지전자 주식회사 | Mobile terminal and operation method thereof |
KR20150057424A (en) * | 2013-11-19 | 2015-05-28 | 한국전자통신연구원 | A system and method for interaction with augmented reality avatar |
KR20170112406A (en) * | 2016-03-31 | 2017-10-12 | 한국전자통신연구원 | Apparatus and method for taking a picture with avatar in augmented reality |
KR20190046559A (en) * | 2017-10-26 | 2019-05-07 | 한국전자통신연구원 | Method for providing augmented reality contents |
-
2020
- 2020-07-22 KR KR1020200090739A patent/KR102419056B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110119127A (en) * | 2010-04-26 | 2011-11-02 | 엘지전자 주식회사 | Mobile terminal and operation method thereof |
KR20150057424A (en) * | 2013-11-19 | 2015-05-28 | 한국전자통신연구원 | A system and method for interaction with augmented reality avatar |
KR20170112406A (en) * | 2016-03-31 | 2017-10-12 | 한국전자통신연구원 | Apparatus and method for taking a picture with avatar in augmented reality |
KR20190046559A (en) * | 2017-10-26 | 2019-05-07 | 한국전자통신연구원 | Method for providing augmented reality contents |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230057821A1 (en) * | 2021-08-20 | 2023-02-23 | Kyndryl, Inc. | Enhanced content submissions for support chats |
US11855933B2 (en) * | 2021-08-20 | 2023-12-26 | Kyndryl, Inc. | Enhanced content submissions for support chats |
Also Published As
Publication number | Publication date |
---|---|
KR102419056B1 (en) | 2022-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240289858A1 (en) | Methods and systems for virtual fitting rooms or hybrid stores | |
US11494390B2 (en) | Crowd-based scores for hotels from measurements of affective response | |
US11273378B2 (en) | Generating and utilizing digital avatar data for online marketplaces | |
US10210544B2 (en) | Displaying merchandise with avatars | |
US10417825B2 (en) | Interactive cubicle and method for determining a body shape | |
US10013713B2 (en) | Computer implemented methods and systems for generating virtual body models for garment fit visualisation | |
US20160170996A1 (en) | Crowd-based scores for experiences from measurements of affective response | |
KR102506356B1 (en) | Apparatus and method for recommending of fashion coordination | |
US20160042402A1 (en) | Evaluating digital inventories | |
KR20160144305A (en) | Method and apparatus for providing content | |
WO2015200617A1 (en) | Digital avatars in online marketplaces | |
KR102381566B1 (en) | Simulation apparatus and method for fashion styling | |
US11526931B2 (en) | Systems and methods for digital mirror | |
KR102365896B1 (en) | Apparatus and method for recommending clothing | |
KR102419056B1 (en) | Apparatus and method device for providing social network services using augmented reality | |
KR102531374B1 (en) | Artificial intelligence-based virtual world realization device for dead companion animals | |
US20170345089A1 (en) | Frameworks and methodologies configured to enable generation and utilisation of three-dimensional body scan data | |
KR102375569B1 (en) | Apparatus and method for providing challenge service | |
US20230351643A1 (en) | Information processing device, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |