KR20220166764A - 사용자의 유형 및 사용자와 관련된 정보를 기초로 증강현실을 이용하여 상품을 추천하는 방법 및 장치 - Google Patents

사용자의 유형 및 사용자와 관련된 정보를 기초로 증강현실을 이용하여 상품을 추천하는 방법 및 장치 Download PDF

Info

Publication number
KR20220166764A
KR20220166764A KR1020220164374A KR20220164374A KR20220166764A KR 20220166764 A KR20220166764 A KR 20220166764A KR 1020220164374 A KR1020220164374 A KR 1020220164374A KR 20220164374 A KR20220164374 A KR 20220164374A KR 20220166764 A KR20220166764 A KR 20220166764A
Authority
KR
South Korea
Prior art keywords
information
user
store
location
image
Prior art date
Application number
KR1020220164374A
Other languages
English (en)
Inventor
차재승
차민승
이상헌
정윤중
김선휘
구연수
강채원
남유진
Original Assignee
주식회사 윗유
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 윗유 filed Critical 주식회사 윗유
Publication of KR20220166764A publication Critical patent/KR20220166764A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0639Item locations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • General Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Computer Graphics (AREA)
  • Remote Sensing (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Medical Informatics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

실시예들은 사용자의 유형 및 상기 사용자와 관련된 정보를 기초로 증강현실을 이용하여 상품을 추천하는 방법 및 장치를 제시한다. 사용자의 유형 및 상기 사용자와 관련된 정보를 기초로 증강현실을 이용하여 제1 장치가 상품을 추천하는 방법은, GNSS(global navigation satellite system)로부터 수신된 상기 제1 장치의 위치 정보 및 상기 제1 장치에 구비된 카메라에 의해 획득된 영상 정보에 기반하여 상기 제1 장치의 위치를 결정하는 단계; 상기 영상 정보에 포함된 하나 이상의 객체를 인식하고, 상기 하나 이상의 객체의 위치를 분석하는 단계; 상기 제1 장치의 위치 및 상기 하나 이상의 객체에 매칭되는 복수의 유형 테스트 정보를 상기 영상 정보에 중첩한 제1 증강현실 영상을 출력하는 단계; 상기 복수의 유형 테스트 정보를 기초로 선택된 값에 기반하여 상기 사용자의 유형을 결정하는 단계; 상기 사용자의 유형 및 상기 사용자와 관련된 정보에 기반하여 뉴럴 네트워크를 이용하여 상점 및 상기 상점과 관련된 상품을 결정하는 단계; 상기 하나 이상의 객체의 위치에 기반하여 상기 상점으로 이동하는 상기 상점과 관련된 가상 캐릭터를 상기 영상 정보에 중첩한 제2 증강현실 영상을 출력하는 단계 및 상기 영상 정보에 포함된 사전 설정된 상기 상점과 관련된 마커에 기반하여, 가상 공간과 가상 상품을 상기 영상 정보에 중첩한 제3 증강현실 영상을 출력하는 단계를 포함할 수 있다. 예를 들어, 상기 가상 캐릭터에 대한 외형 정보 및 음성 정보는 상기 사용자의 유형 및 상기 사용자와 관련된 정보에 기반하여 결정될 수 있다. 예를 들어, 상기 상점 내에서 상기 상점과 관련된 상품이 진열된 위치에 상기 가상 캐릭터가 도달한 것에 기반하여, 상기 가상 캐릭터에 대한 디스플레이가 종료될 수 있다. 예를 들어, 상기 사용자와 관련된 정보는 상기 제1 장치에 입력된 상기 사용자의 개인 정보, 상기 제1 장치에 입력된 사용자의 생체 정보, 상기 제1 장치에 저장된 검색 기록 정보 및 상기 제1 장치에 저장된 구매 이력 정보를 포함할 수 있다.

Description

사용자의 유형 및 사용자와 관련된 정보를 기초로 증강현실을 이용하여 상품을 추천하는 방법 및 장치 {METHOD AND APPARATUS FOR RECOMMENDING PRODUCTS USING AUGMENTED REALITY BASED ON USER TYPE AND USER-RELATED INFORMATION}
본 개시의 실시예들은 사용자의 유형 및 사용자와 관련된 정보를 기초로 상품을 추천하는 기술에 관한 것으로, 사용자의 유형 및 사용자와 관련된 정보를 기초로 증강현실을 이용하여 상품을 추천하는 기술에 대한 것이다.
통신 기술의 발달에 따라 스마트폰과 HMD(head mounted display)를 이용한 증강현실(augmented reality) 구현이 보편화되고 있다. 여기서, 증강현실은 실체현실 상의 객체에 실시간으로 가상현실 데이터를 표시함으로써, 사용자가 증강된 가상정보와 상호작용함으로써 작업의 효율성을 향상시키는 기술을 지칭한다.
증강현실을 구현할 때, 가상현실 데이터를 표시할 객체를 결정하는 방법이 필요할 수 있다. 예를 들어, 실제현실에 마커를 표시한 후, 상기 마커를 인식하여 마커 상에 가상현실 데이터를 표시하는 마커 방식과, 실체현실 상의 객체를 직접 인식하여 가상현실 데이터를 표시하는 마커리스(markerless) 방식이 존재한다. 이때, 마커 방식은 마커를 별도로 표시해야 하는 불편함이 있고, 마커리스 방식만으로는 객체 인식이 불명확하다.
또한, 사용자에게 상품을 추천하기 위해 사용자의 신상 정보를 이용할 때, 사용자의 신상 정보만으로 사용자가 원하는 상품을 추천하기 어려울 수 있다. 그리고, 해당 상품을 제공하는 상점의 위치를 사용자에게 안내하는 경우, 현재 사용자의 위치를 실제현실 상의 객체만으로 정확하게 파악하기 어려울 수 있다.
따라서, 마커 방식과 마커리스 방식을 사용하여 증강현실을 구현함으로써, 사용자의 몰입감을 증가시킬 필요가 있으며, 현재 사용자의 위치를 보다 명확하게 파악하여 추천 상품이 진열된 상점을 안내할 필요가 있다. 이때, 사용자에 대한 신상 정보 이외에 사용자의 유형까지 고려하여 추천 상품을 뉴럴 네트워크(neural network)를 이용하여 결정하고, 증강현실을 이용하여 사용자의 유형을 결정하는 과정과 상기 상점을 찾아가는 과정에서 사용자가 보다 흥미를 갖게 할 필요가 있다.
본 개시의 실시예들은, 사용자의 유형 및 사용자와 관련된 정보를 기초로 증강현실을 이용하여 상품을 추천하는 방법 및 장치를 제공할 수 있다.
실시예들에서 이루고자 하는 기술적 과제들은 이상에서 언급한 사항들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 이하 설명할 다양한 실시예들로부터 당해 기술분야에서 통상의 지식을 가진 자에 의해 고려될 수 있다.
일 실시예에 따른 사용자의 유형 및 상기 사용자와 관련된 정보를 기초로 증강현실을 이용하여 제1 장치가 상품을 추천하는 방법은, GNSS(global navigation satellite system)로부터 수신된 상기 제1 장치의 위치 정보 및 상기 제1 장치에 구비된 카메라에 의해 획득된 영상 정보에 기반하여 상기 제1 장치의 위치를 결정하는 단계; 상기 영상 정보에 포함된 하나 이상의 객체를 인식하고, 상기 하나 이상의 객체의 위치를 분석하는 단계; 상기 제1 장치의 위치 및 상기 하나 이상의 객체에 매칭되는 복수의 유형 테스트 정보를 상기 영상 정보에 중첩한 제1 증강현실 영상을 출력하는 단계; 상기 복수의 유형 테스트 정보를 기초로 선택된 값에 기반하여 상기 사용자의 유형을 결정하는 단계; 상기 사용자의 유형 및 상기 사용자와 관련된 정보에 기반하여 뉴럴 네트워크를 이용하여 상점 및 상기 상점과 관련된 상품을 결정하는 단계; 상기 하나 이상의 객체의 위치에 기반하여 상기 상점으로 이동하는 상기 상점과 관련된 가상 캐릭터를 상기 영상 정보에 중첩한 제2 증강현실 영상을 출력하는 단계 및 상기 영상 정보에 포함된 사전 설정된 상기 상점과 관련된 마커에 기반하여, 가상 공간과 가상 상품을 상기 영상 정보에 중첩한 제3 증강현실 영상을 출력하는 단계를 포함할 수 있다. 예를 들어, 상기 가상 캐릭터에 대한 외형 정보 및 음성 정보는 상기 사용자의 유형 및 상기 사용자와 관련된 정보에 기반하여 결정될 수 있다. 예를 들어, 상기 상점 내에서 상기 상점과 관련된 상품이 진열된 위치에 상기 가상 캐릭터가 도달한 것에 기반하여, 상기 가상 캐릭터에 대한 디스플레이가 종료될 수 있다. 예를 들어, 상기 사용자와 관련된 정보는 상기 제1 장치에 입력된 상기 사용자의 개인 정보, 상기 제1 장치에 입력된 사용자의 생체 정보, 상기 제1 장치에 저장된 검색 기록 정보 및 상기 제1 장치에 저장된 구매 이력 정보를 포함할 수 있다.
일 실시예에 따라, 상기 GNSS로부터 수신한 위치 정보에 기반하여 상기 제1 장치가 위치한 장소가 결정될 수 있다. 예를 들어, 상기 하나 이상의 객체에 대해 특징점이 검출되고, 상기 장소와 관련된 이미지 정보 및 상기 특징점의 좌표에 대한 변화에 기반하여 상기 장소 내 상기 제1 장치의 위치가 결정될 수 있다.
예를 들어, 상기 하나 이상의 객체에 대한 특징점은 사전 저장된 복수의 영상 정보를 기반으로 인식 모델에 의해 학습될 수 있다. 예를 들어, 상기 사전 저장된 복수의 영상 정보로부터 획득된 3차원 모델링 정보 및 상기 하나 이상의 객체에 대한 특징점에 기반하여 상기 하나 이상의 객체가 인식되고, 및 상기 하나 이상의 객체의 위치가 결정될 수 있다.
예를 들어, 상기 뉴럴 네트워크는 입력 레이어, 하나 이상의 히든 레이어 및 출력 레이어를 포함할 수 있다.
예를 들어, 상기 3차원 모델링 정보 및 정답 특징점으로 구성된 각각의 학습 데이터는 상기 뉴럴 네트워크의 상기 입력 레이어에 입력되고, 상기 하나 이상의 히든 레이어 및 출력 레이어를 통과하여 출력 벡터를 출력하고, 상기 출력 벡터는 상기 출력 레이어에 연결된 손실함수 레이어에 입력되고, 상기 손실함수 레이어는 상기 출력 벡터와 각각의 학습 데이터에 대한 정답 벡터를 비교하는 손실 함수를 이용하여 손실값을 출력하고, 상기 뉴럴 네트워크의 파라미터는 상기 손실값이 작아지는 방향으로 학습되는 것에 따라, 상기 인식 모델이 상기 뉴럴 네트워크를 통해 생성될 수 있다.
일 실시예에 따라, 상기 상점은 상기 제1 장치의 위치로부터 임계 범위 내에 위치한 가장 근접한 상점이고, 상기 임계 범위는 사전 설정된 초기 거리 내에 상기 상점이 존재하지 않는 것에 기반하여 사전 설정된 값만큼 증가된 범위일 수 있다.
예를 들어, 상기 사전 설정된 초기 거리는 아래 수학식에 의해 설정될 수 있다.
Figure pat00001
예를 들어, 상기 수학식에서, d는 상기 사전 설정된 초기 거리이고, k는 상기 제1 장치에 입력된 상기 사용자의 평균 걸음 수, g는 상기 사용자의 유형과 관련된 점수, s는 상기 상품의 검색 횟수, n은 상기 상품의 구매 횟수, w는 상기 제1 장치에 입력된 상기 사용자의 몸무게이고, a는 상기 제1 장치에 입력된 상기 사용자의 나이인,
일 실시예에 따른 사용자의 유형 및 상기 사용자와 관련된 정보를 기초로 증강현실을 이용하여 상품을 추천하는 제1 장치는, 하나 이상의 메모리; 및 상기 하나 이상의 메모리와 하나 이상의 기능 모듈을 연결하는 하나 이상의 프로세서를 포함하는 제어부; 및 디스플레이 모듈, 센서 모듈, 오디오 모듈, 카메라 모듈 및 통신 모듈을 포함하는 상기 하나 이상의 기능 모듈을 포함할 수 있다. 예를 들어, 상기 하나 이상의 프로세서는: 상기 통신 모듈을 통해 GNSS(global navigation satellite system)로부터 수신된 상기 제1 장치의 위치 정보 및 상기 카메라 모듈에 의해 획득된 영상 정보에 기반하여 상기 제1 장치의 위치를 결정하고, 상기 영상 정보에 포함된 하나 이상의 객체를 인식하고, 상기 하나 이상의 객체의 위치를 분석하고, 상기 제1 장치의 위치 및 상기 하나 이상의 객체에 매칭되는 복수의 유형 테스트 정보를 상기 영상 정보에 중첩한 제1 증강현실 영상을 상기 디스플레이 모듈 및 상기 오디오 모듈을 통해 출력하고, 상기 복수의 유형 테스트 정보를 기초로 선택된 값에 기반하여 상기 사용자의 유형을 결정하고, 상기 사용자의 유형 및 상기 사용자와 관련된 정보에 기반하여 뉴럴 네트워크를 이용하여 상점 및 상기 상점과 관련된 상품을 결정하되, 상기 하나 이상의 객체의 위치에 기반하여 상기 상점으로 이동하는 상기 상점과 관련된 가상 캐릭터를 상기 영상 정보에 중첩한 제2 증강현실 영상을 상기 디스플레이 모듈 및 상기 오디오 모듈을 통해 출력하고, 상기 영상 정보에 포함된 사전 설정된 상기 상점과 관련된 마커에 기반하여, 가상 공간과 가상 상품을 상기 영상 정보에 중첩한 제3 증강현실 영상을 상기 디스플레이 모듈 및 상기 오디오 모듈을 통해 출력할 수 있다. 예를 들어, 상기 가상 캐릭터에 대한 외형 정보 및 음성 정보는 상기 사용자의 유형 및 상기 사용자와 관련된 정보에 기반하여 결정될 수 있다. 예를 들어, 상기 상점 내에서 상기 상점과 관련된 상품이 진열된 위치에 상기 가상 캐릭터가 도달한 것에 기반하여, 상기 가상 캐릭터에 대한 출력이 종료될 수 있다. 예를 들어, 상기 사용자와 관련된 정보는 상기 제1 장치에 입력된 상기 사용자의 개인 정보, 상기 제1 장치에 입력된 사용자의 생체 정보, 상기 제1 장치에 저장된 검색 기록 정보 및 상기 제1 장치에 저장된 구매 이력 정보를 포함할 수 있다.
부가적으로, 일 실시예에 따라, 상기 사용자의 걸음수가 임계 값을 초과하면, 상기 제1 장치에 의해 상품과 관련된 할인 정보가 디스플레이될 수 있고, 상기 가상 캐릭터의 색상이 변경될 수 있다. 여기서, 상품과 관련된 할인 정보는 제1 장치에 의해 결정된 상품의 구매 가격을 할인할 수 있는 정보일 수 있다.
예를 들어, 상기 임계 값은 하기 수학식에 의해 결정될 수 있다.
Figure pat00002
상기 수학식에서, Kth는 임계 값이고, w는 사용자의 몸무게, h는 사용자의 키, gk는 사용자의 유형에서 감정형에 대한 점수와 인식형에 대한 점수의 합, a는 사용자의 나이에 따른 가중치일 수 있다. 여기서, 감정형에 대한 점수는 100점에서 상술한 사고형에 대한 점수를 뺀 값일 수 있고, 인식형에 대한 점수는 100점에서 상술한 판단형에 대한 점수를 뺀 값일 수 있다. 예를 들어, 가중치는 10대에서 30대는 0.25, 40대에서 60대는 0.15, 70대에서 80대는 0.1로 사전 설정될 수 있다.
부가적으로, 일 실시예에 따라, 제1 장치는 제2 장치 및 제3 장치에게 연결을 요청하는 메시지를 전송할 수 있다. 제1 장치는 제2 장치 및 제3 장치로부터 연결을 수락하는 메시지를 수신할 수 있다. 예를 들어, 연결을 요청하는 메시지는 제1 장치의 식별 정보, 제1 장치의 위치 정보 및 제1 장치의 능력 정보를 포함할 수 있다. 여기서, 식별 정보는 장치를 식별하기 위한 정보일 수 있고, 능력 정보는 장치의 성능에 대한 정보 및 장치의 통신 상태에 대한 정보를 포함할 수 있다. 예를 들어, 장치의 성능에 대한 정보는 상기 장치의 사양에 대한 정보 또는 상기 장치에서 실행 중인 사전 설정된 프로그램에 대한 fps(frames per second) 값을 포함할 수 있다. 예를 들어, 장치의 통신 상태에 대한 정보는 RSRP(reference signal received power) 또는 RSSI(received signal strength indicator)와 같은 통신 상태를 나타내는 값을 포함할 수 있다. 예를 들어, 제3 장치로부터 수신한 연결을 수락하는 메시지는 제3 장치의 식별 정보, 제3 장치의 위치 정보 및 제3 장치의 능력 정보를 포함할 수 있다.
예를 들어, 제1 장치는 제2 장치 및 제3 장치와 연결을 확립할 수 있다. 예를 들어, 제1 장치는 제2 장치의 위치 정보 및 제3 장치의 위치 정보에 기반하여 상기 제1 장치와 제2 장치 및 제3 장치 사이의 각각의 거리를 결정할 수 있다.
또는, 예를 들어, 제3 장치의 능력 정보에 대한 값이 사전 설정된 능력 정보에 대한 값보다 작은 경우, 제1 장치는 상기 연결을 수락하는 메시지를 수신함에도 불구하고, 제3 장치와 연결을 확립하지 않을 수 있다.
예를 들어, 제3 장치의 능력 정보에 대한 값은 하기 수학식에 의해 결정될 수 있다.
Figure pat00003
상기 수학식에서, C는 장치의 능력 정보에 대한 값이고, RSSI는 상기 장치로부터 측정된 RSSI(received signal strength indicator) 값이고, fps는 상기 장치로부터 측정된 fps(frames per second) 값일 수 있다. 여기서, RSSI는 장치가 수신한 신호 강도의 세기일 수 있다. 예를 들어, RSSI는 음의 dB값으로 측정될 수 있다. 이때, RSSI의 절대 값이 작을수록 수신 강도가 강하므로, 해당 장치의 통신 상태가 양호하다고 간주할 수 있다. 여기서, fps는 1초 동안 영상에서 보여지는 프레임 수일 수 있다. 예를 들어, 상기 fps 값은 장치에 의해 실행된 사전 설정된 프로그램의 화면에 대한 fps 값일 수 있다.
예를 들어, 상기 사전 설정된 능력 정보에 대한 값은 하기 수학식에 의해 설정될 수 있다.
Figure pat00004
상기 수학식에서, Cth는 사전 설정된 능력 정보에 대한 값이고, n은 사전 설정된 시간 간격으로 측정된 횟수일 수 있다. Ri는 상기 장치로부터 측정된 i번째 RSSI 값이고, Fi는 상기 장치로부터 측정된 i번째 fps 값일 수 있다. 예를 들어, 상기 fps 값은 장치에 의해 실행된 사전 설정된 프로그램의 화면에 대한 fps 값일 수 있다.
실시예들에 따르면, 사용자의 유형을 결정하는 증강현실 구현은 마커리스 방식을 이용하고, 가상 상품을 표시하는 증강현실 구현은 마커 방식을 이용함으로써, 객체 인식을 보다 안정적으로 수행하고, 사용자의 몰입감을 증가시킬 수 있다.
실시예들에 따르면, GNSS(global navigation satellite system)로부터 수신한 위치 정보와 촬영된 영상 정보에 기반하여 현재 사용자가 사용하는 장치의 위치를 정확하게 결정하고, 사용자에 대한 신상 정보 이외에 사용자의 유형까지 고려하여 추천 상품을 뉴럴 네트워크를 이용하여 결정함으로써, 사용자에게 가장 가까운 위치에 있는 상점과 보다 적합한 상품을 제공할 수 있다.
실시예들로부터 얻을 수 있는 효과들은 이상에서 언급된 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 이하의 상세한 설명을 기반으로 당해 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다.
실시예들에 대한 이해를 돕기 위해 상세한 설명의 일부로 포함된, 첨부 도면은 다양한 실시예들을 제공하고, 상세한 설명과 함께 다양한 실시예들의 기술적 특징을 설명한다.
도 1은 일 실시예에 따른 전자 장치의 구성을 나타내는 도면이다.
도 2는 일 실시예에 따른 프로그램의 구성을 나타내는 도면이다.
도 3은 일 실시예에 따른 사용자의 유형 및 사용자와 관련된 정보를 기초로 증강현실을 이용하여 제1 장치가 상품을 추천하는 방법을 나타낸다.
도 4는 일 실시예에 따른 사용자의 유형 및 사용자와 관련된 정보를 기초로 증강현실을 이용하여 상품을 추천하는 제1 장치의 블록도를 나타낸다.
도 5는 일 실시예에 따른 유형 테스트 정보를 중첩한 제1 증강현실 영상에 대한 예를 나타낸다.
도 6은 일 실시예에 따른 상점과 관련된 가상 캐릭터를 중첩한 제2 증강현실 영상에 대한 예를 나타낸다.
도 7은 일 실시예에 따른 가상 공간과 가상 상품을 중첩한 제3 증강현실 영상에 대한 예를 나타낸다.
도 8은 일 실시예에 따른 상점 및 상기 상점과 관련된 상품을 추천하기 위해 학습된 뉴럴 네트워크의 예를 나타낸다.
도 9는 일 실시예에 따른 상점과 관련된 가상 캐릭터를 중첩한 제2 증강현실 영상을 결정하는 흐름도이다.
도 10은 일 실시예에 따른 제1 장치가 주변의 장치들에 대한 정보를 서버에 전송하는 동작을 나타낸 신호 교환도이다.
도 11은 일 실시예에 따른 제1 장치가 주변의 장치들과 연결된 화면을 나타낸다.
이하의 실시예들은 실시예들의 구성요소들과 특징들을 소정 형태로 결합한 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려될 수 있다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 다양한 실시예들을 구성할 수도 있다. 다양한 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다.
도면에 대한 설명에서, 다양한 실시예들의 요지를 흐릴 수 있는 절차 또는 단계 등은 기술하지 않았으며, 당해 기술분야에서 통상의 지식을 가진 자의 수준에서 이해할 수 있을 정도의 절차 또는 단계는 또한 기술하지 아니하였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함(comprising 또는 including)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일(a 또는 an)", "하나(one)", "그(the)" 및 유사 관련어는 다양한 실시예들을 기술하는 문맥에 있어서(특히, 이하의 청구항의 문맥에서) 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.
이하, 다양한 실시예들에 따른 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 다양한 실시예들의 예시적인 실시형태를 설명하고자 하는 것이며, 유일한 실시형태를 나타내고자 하는 것이 아니다.
또한, 다양한 실시예들에서 사용되는 특정(特定) 용어들은 다양한 실시예들의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 다양한 실시예들의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.
도 1은 일 실시예에 따른 전자 장치의 구성을 나타내는 도면이다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다. 전자 장치(101)는 클라이언트, 단말기 또는 피어로 지칭될 수도 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
서버(108)는 전자 장치(101)가 접속되며, 접속된 전자 장치(101)로 서비스를 제공할 수 있다. 또한, 서버(108)는 회원 가입 절차를 진행하여 그에 따라 회원으로 가입된 사용자의 각종 정보를 저장하여 관리하고, 서비스에 관련된 각종 구매 및 결제 기능을 제공할 수도 있다. 또한, 서버(108)는, 사용자 간에 서비스를 공유할 수 있도록, 복수의 전자 장치(101) 각각에서 실행되는 서비스 애플리케이션의 실행 데이터를 실시간으로 공유할 수도 있다. 이러한 서버(108)는 하드웨어적으로는 통상적인 웹 서버(Web Server) 또는 왑 서버(WAP Server)와 동일한 구성을 가질 수 있다. 그러나, 소프트웨어적으로는, C, C++, Java, Visual Basic, Visual C 등 여하한 언어를 통하여 구현되어 여러 가지 기능을 하는 프로그램 모듈(Module)을 포함할 수 있다. 또한, 서버(108)는 일반적으로 인터넷과 같은 개방형 컴퓨터 네트워크를 통하여 불특정 다수 클라이언트 및/또는 다른 서버와 연결되어 있고, 클라이언트 또는 다른 서버의 작업수행 요청을 접수하고 그에 대한 작업 결과를 도출하여 제공하는 컴퓨터 시스템 및 그를 위하여 설치되어 있는 컴퓨터 소프트웨어(서버 프로그램)를 뜻하는 것이다. 또한, 서버(108)는, 전술한 서버 프로그램 이외에도, 서버(108) 상에서 동작하는 일련의 응용 프로그램(Application Program)과 경우에 따라서는 내부 또는 외부에 구축되어 있는 각종 데이터베이스(DB: Database, 이하 "DB"라 칭함)를 포함하는 넓은 개념으로 이해되어야 할 것이다. 따라서, 서버(108)는, 회원 가입 정보와, 게임에 대한 각종 정보 및 데이터를 분류하여 DB에 저장시키고 관리하는데, 이러한 DB는 서버(108)의 내부 또는 외부에 구현될 수 있다. 또한, 서버(108)는, 일반적인 서버용 하드웨어에 도스(DOS), 윈도우(windows), 리눅스(Linux), 유닉스(UNIX), 매킨토시(Macintosh) 등의 운영체제에 따라 다양하게 제공되고 있는 서버 프로그램을 이용하여 구현될 수 있으며, 대표적인 것으로는 윈도우 환경에서 사용되는 웹사이트(Website), IIS(Internet Information Server)와 유닉스환경에서 사용되는 CERN, NCSA, APPACH등이 이용될 수 있다. 또한, 서버(108)는, 서비스의 사용자 인증이나 서비스와 관련된 구매 결제를 위한 인증 시스템 및 결제 시스템과 연동할 수도 있다.
제1 네트워크(198) 및 제2 네트워크(199)는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조 또는 서버(108)와 전자 장치들(101, 104)을 연결하는 망(Network)을 의미한다. 제1 네트워크(198) 및 제2 네트워크(199)는 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 3G, 4G, LTE, 5G, Wi-Fi 등이 포함되나 이에 한정되지는 않는다. 제1 네트워크(198) 및 제2 네트워크(199)는 LAN, WAN 등의 폐쇄형 제1 네트워크(198) 및 제2 네트워크(199)일 수도 있으나, 인터넷(Internet)과 같은 개방형인 것이 바람직하다. 인터넷은 TCP/IP 프로토콜 및 그 상위계층에 존재하는 여러 서비스, 즉 HTTP(HyperText Transfer Protocol), Telnet, FTP(File Transfer Protocol), DNS(Domain Name System), SMTP(Simple Mail Transfer Protocol), SNMP(Simple Network Management Protocol), NFS(Network File Service), NIS(Network Information Service)를 제공하는 전 세계적인 개방형 컴퓨터 제1 네트워크(198) 및 제2 네트워크(199) 구조를 의미한다.
데이터베이스는 데이터베이스 관리 프로그램(DBMS)을 이용하여 컴퓨터 시스템의 저장공간(하드디스크 또는 메모리)에 구현된 일반적인 데이터구조를 가질 수 가질 수 있다. 데이터베이스는 데이터의 검색(추출), 삭제, 편집, 추가 등을 자유롭게 행할 수 있는 데이터 저장형태를 가질 수 있다. 데이터베이스는 오라클(Oracle), 인포믹스(Infomix), 사이베이스(Sybase), DB2와 같은 관계형 데이타베이스 관리 시스템(RDBMS)이나, 겜스톤(Gemston), 오리온(Orion), O2 등과 같은 객체 지향 데이타베이스 관리 시스템(OODBMS) 및 엑셀론(Excelon), 타미노(Tamino), 세카이주(Sekaiju) 등의 XML 전용 데이터베이스(XML Native Database)를 이용하여 본 개시의 일 실시예의 목적에 맞게 구현될 수 있고, 자신의 기능을 달성하기 위하여 적당한 필드(Field) 또는 엘리먼트들을 가질 수 있다.
도 2는 일 실시예에 따른 프로그램의 구성을 나타내는 도면이다.
도 2은 다양한 실시예에 따른 프로그램(140)을 예시하는 블록도(200)이다. 일실시예에 따르면, 프로그램(140)은 전자 장치(101)의 하나 이상의 리소스들을 제어하기 위한 운영 체제(142), 미들웨어(144), 또는 상기 운영 체제(142)에서 실행 가능한 어플리케이션(146)을 포함할 수 있다. 운영 체제(142)는, 예를 들면, AndroidTM, iOSTM, WindowsTM, SymbianTM, TizenTM, 또는 BadaTM를 포함할 수 있다. 프로그램(140) 중 적어도 일부 프로그램은, 예를 들면, 제조 시에 전자 장치(101)에 프리로드되거나, 또는 사용자에 의해 사용 시 외부 전자 장치(예: 전자 장치(102 또는 104), 또는 서버(108))로부터 다운로드되거나 갱신 될 수 있다. 프로그램(140)의 전부 또는 일부는 뉴럴 네트워크를 포함할 수 있다.
운영 체제(142)는 전자 장치(101)의 하나 이상의 시스템 리소스들(예: 프로세스, 메모리, 또는 전원)의 관리(예: 할당 또는 회수)를 제어할 수 있다. 운영 체제(142)는, 추가적으로 또는 대체적으로, 전자 장치(101)의 다른 하드웨어 디바이스, 예를 들면, 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 구동하기 위한 하나 이상의 드라이버 프로그램들을 포함할 수 있다.
미들웨어(144)는 전자 장치(101)의 하나 이상의 리소스들로부터 제공되는 기능 또는 정보가 어플리케이션(146)에 의해 사용될 수 있도록 다양한 기능들을 어플리케이션(146)으로 제공할 수 있다. 미들웨어(144)는, 예를 들면, 어플리케이션 매니저(201), 윈도우 매니저(203), 멀티미디어 매니저(205), 리소스 매니저(207), 파워 매니저(209), 데이터베이스 매니저(211), 패키지 매니저(213), 커넥티비티 매니저(215), 노티피케이션 매니저(217), 로케이션 매니저(219), 그래픽 매니저(221), 시큐리티 매니저(223), 통화 매니저(225), 또는 음성 인식 매니저(227)를 포함할 수 있다.
어플리케이션 매니저(201)는, 예를 들면, 어플리케이션(146)의 생명 주기를 관리할 수 있다. 윈도우 매니저(203)는, 예를 들면, 화면에서 사용되는 하나 이상의 GUI 자원들을 관리할 수 있다. 멀티미디어 매니저(205)는, 예를 들면, 미디어 파일들의 재생에 필요한 하나 이상의 포맷들을 파악하고, 그 중 선택된 해당하는 포맷에 맞는 코덱을 이용하여 상기 미디어 파일들 중 해당하는 미디어 파일의 인코딩 또는 디코딩을 수행할 수 있다. 리소스 매니저(207)는, 예를 들면, 어플리케이션(146)의 소스 코드 또는 메모리(130)의 메모리의 공간을 관리할 수 있다. 파워 매니저(209)는, 예를 들면, 배터리(189)의 용량, 온도 또는 전원을 관리하고, 이 중 해당 정보를 이용하여 전자 장치(101)의 동작에 필요한 관련 정보를 결정 또는 제공할 수 있다. 일실시예에 따르면, 파워 매니저(209)는 전자 장치(101)의 바이오스(BIOS: basic input/output system)(미도시)와 연동할 수 있다.
데이터베이스 매니저(211)는, 예를 들면, 어플리케이션(146)에 의해 사용될 데이터베이스를 생성, 검색, 또는 변경할 수 있다. 패키지 매니저(213)는, 예를 들면, 패키지 파일의 형태로 배포되는 어플리케이션의 설치 또는 갱신을 관리할 수 있다. 커넥티비티 매니저(215)는, 예를 들면, 전자 장치(101)와 외부 전자 장치 간의 무선 연결 또는 직접 연결을 관리할 수 있다. 노티피케이션 매니저(217)는, 예를 들면, 지정된 이벤트(예: 착신 통화, 메시지, 또는 알람)의 발생을 사용자에게 알리기 위한 기능을 제공할 수 있다. 로케이션 매니저(219)는, 예를 들면, 전자 장치(101)의 위치 정보를 관리할 수 있다. 그래픽 매니저(221)는, 예를 들면, 사용자에게 제공될 하나 이상의 그래픽 효과들 또는 이와 관련된 사용자 인터페이스를 관리할 수 있다.
시큐리티 매니저(223)는, 예를 들면, 시스템 보안 또는 사용자 인증을 제공할 수 있다. 통화(telephony) 매니저(225)는, 예를 들면, 전자 장치(101)에 의해 제공되는 음성 통화 기능 또는 영상 통화 기능을 관리할 수 있다. 음성 인식 매니저(227)는, 예를 들면, 사용자의 음성 데이터를 서버(108)로 전송하고, 그 음성 데이터에 적어도 일부 기반하여 전자 장치(101)에서 수행될 기능에 대응하는 명령어(command), 또는 그 음성 데이터에 적어도 일부 기반하여 변환된 문자 데이터를 서버(108)로부터 수신할 수 있다. 일 실시예에 따르면, 미들웨어(244)는 동적으로 기존의 구성요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다. 일 실시예에 따르면, 미들웨어(144)의 적어도 일부는 운영 체제(142)의 일부로 포함되거나, 또는 운영 체제(142)와는 다른 별도의 소프트웨어로 구현될 수 있다.
어플리케이션(146)은, 예를 들면, 홈(251), 다이얼러(253), SMS/MMS(255), IM(instant message)(257), 브라우저(259), 카메라(261), 알람(263), 컨택트(265), 음성 인식(267), 이메일(269), 달력(271), 미디어 플레이어(273), 앨범(275), 와치(277), 헬스(279)(예: 운동량 또는 혈당과 같은 생체 정보를 측정), 또는 환경 정보(281)(예: 기압, 습도, 또는 온도 정보 측정) 어플리케이션을 포함할 수 있다. 일실시예에 따르면, 어플리케이션(146)은 전자 장치(101)와 외부 전자 장치 사이의 정보 교환을 지원할 수 있는 정보 교환 어플리케이션(미도시)을 더 포함할 수 있다. 정보 교환 어플리케이션은, 예를 들면, 외부 전자 장치로 지정된 정보 (예: 통화, 메시지, 또는 알람)를 전달하도록 설정된 노티피케이션 릴레이 어플리케이션, 또는 외부 전자 장치를 관리하도록 설정된 장치 관리 어플리케이션을 포함할 수 있다. 노티피케이션 릴레이 어플리케이션은, 예를 들면, 전자 장치(101)의 다른 어플리케이션(예: 이메일 어플리케이션(269))에서 발생된 지정된 이벤트(예: 메일 수신)에 대응하는 알림 정보를 외부 전자 장치로 전달할 수 있다. 추가적으로 또는 대체적으로, 노티피케이션 릴레이 어플리케이션은 외부 전자 장치로부터 알림 정보를 수신하여 전자 장치(101)의 사용자에게 제공할 수 있다.
장치 관리 어플리케이션은, 예를 들면, 전자 장치(101)와 통신하는 외부 전자 장치 또는 그 일부 구성 요소(예: 외부 전자장치의 디스플레이 모듈 또는 카메라 모듈)의 전원(예: 턴-온 또는 턴-오프) 또는 기능(예: 밝기, 해상도, 또는 포커스)을 제어할 수 있다. 장치 관리 어플리케이션은, 추가적으로 또는 대체적으로, 외부 전자 장치에서 동작하는 어플리케이션의 설치, 삭제, 또는 갱신을 지원할 수 있다.
본 명세서에 걸쳐, 뉴럴 네트워크(neural network), 신경망 네트워크, 네트워크 함수는, 동일한 의미로 사용될 수 있다. 뉴럴 네트워크는, 일반적으로 "노드"라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있다. 이러한 "노드"들은, "뉴런(neuron)"들로 지칭될 수도 있다. 뉴럴 네트워크는, 적어도 둘 이상의 노드들을 포함하여 구성된다. 뉴럴 네트워크들을 구성하는 노드(또는 뉴런)들은 하나 이상의 "링크"에 의해 상호 연결될 수 있다.
뉴럴 네트워크 내에서, 링크를 통해 연결된 둘 이상의 노드들은 상대적으로 입력 노드 및 출력 노드의 관계를 형성할 수 있다. 입력 노드 및 출력 노드의 개념은 상대적인 것으로서, 하나의 노드에 대하여 출력 노드 관계에 있는 임의의 노드는 다른 노드와의 관계에서 입력 노드 관계에 있을 수 있으며, 그 역도 성립할 수 있다. 전술한 바와 같이, 입력 노드 대 출력 노드 관계는 링크를 중심으로 생성될 수 있다. 하나의 입력 노드에 하나 이상의 출력 노드가 링크를 통해 연결될 수 있으며, 그 역도 성립할 수 있다.
하나의 링크를 통해 연결된 입력 노드 및 출력 노드 관계에서, 출력 노드는 입력 노드에 입력된 데이터에 기초하여 그 값이 결정될 수 있다. 여기서, 입력 노드와 출력 노드를 상호 연결하는 노드는 가중치를 가질 수 있다. 가중치는 가변적일 수 있으며, 뉴럴 네트워크가 원하는 기능을 수행하기 위해, 사용자 또는 알고리즘에 의해 가변될 수 있다. 예를 들어, 하나의 출력 노드에 하나 이상의 입력 노드가 각각의 링크에 의해 상호 연결된 경우, 출력 노드는 상기 출력 노드와 연결된 입력 노드들에 입력된 값들 및 각각의 입력 노드들에 대응하는 링크에 설정된 가중치에 기초하여 출력 노드 값을 결정할 수 있다.
전술한 바와 같이, 뉴럴 네트워크는, 둘 이상의 노드들이 하나 이상의 링크를 통해 상호연결 되어 뉴럴 네트워크 내에서 입력 노드 및 출력 노드 관계를 형성한다. 뉴럴 네트워크 내에서 노드들과 링크들의 개수 및 노드들과 링크들 사이의 연관관계, 링크들 각각에 부여된 가중치의 값에 따라, 신경망 네트워크의 특성이 결정될 수 있다. 예를 들어, 동일한 개수의 노드 및 링크들이 존재하고, 링크들 사이의 가중치 값이 상이한 두 신경망 네트워크가 존재하는 경우, 두 개의 신경망 네트워크들은 서로 상이한 것으로 인식될 수 있다.
도 3은 일 실시예에 따른 사용자의 유형 및 사용자와 관련된 정보를 기초로 증강현실을 이용하여 제1 장치가 상품을 추천하는 방법을 나타낸다. 도 3의 일 실시예는 본 개시의 다양한 실시예들과 결합될 수 있다.
도 3을 참조하면, 단계 S301에서, 제1 장치는 GNSS(global navigation satellite system)로부터 수신된 상기 제1 장치의 위치 정보 및 상기 제1 장치에 구비된 카메라에 의해 획득된 영상 정보에 기반하여 상기 제1 장치의 위치를 결정할 수 있다.
여기서, GNSS는 인공위성을 이용한 위치측정 시스템일 수 있다. 예를 들어, 제1 장치는 GNSS로부터 수신한 위치 정보(예를 들어, 위도, 경도, 고도)를 기반으로 상기 제1 장치가 위치한 장소를 결정하고, 상기 제1 장치에 구비된 카메라에 의해 획득된 영상 정보에 기반하여 상기 장소에서 상기 제1 장치의 위치를 결정할 수 있다.
예를 들어, 제1 장치는 상기 GNSS로부터 수신한 위치 정보에 기반하여 상기 제1 장치가 위치한 장소를 결정하고, 상기 하나 이상의 객체에 대해 특징점을 검출하고, 상기 제1 장치가 장소와 관련된 이미지 정보 및 상기 특징점의 좌표에 대한 변화에 기반하여 상기 장소 내 상기 제1 장치의 위치를 결정할 수 있다. 예를 들어, 제1 장치가 위치한 장소가 지하철역인 경우, 상기 제1 장치는 상기 GNSS로부터 수신한 위치 정보에 기반하여 상기 제1 장치의 장소를 지하철역으로 결정하고, 상기 영상 정보에 포함된 하나 이상의 객체(지하철 의자, 지하철 손잡이 등)에 대한 특징점을 추출하고, 상기 지하철역과 관련된 이미지 정보 및 상기 특징점에 기반하여 상기 장소 내 상기 제1 장치의 위치를 결정할 수 있다. 여기서, 예를 들어, 상기 장소와 관련된 이미지 정보는 상기 제1 장치에 사전 저장된 정보일 수 있다. 또는, 예를 들어, 제1 장치는 상기 장소와 관련된 이미지 정보를 서버 또는 네트워크에 요청하고, 상기 장소와 관련된 이미지 정보를 수신할 수 있다.
단계 S302에서, 제1 장치는 상기 영상 정보에 포함된 하나 이상의 객체를 인식하고, 상기 하나 이상의 객체의 위치를 분석할 수 있다.
예를 들어, 상기 하나 이상의 객체를 인식하고 위치를 분석하기 위한, 상기 하나 이상의 객체에 대한 특징점은 사전 저장된 복수의 영상 정보를 기반으로 인식 모델에 의해 학습될 수 있다. 예를 들어, 상기 특징점은 복수 개일 수 있다.
예를 들어, 상기 사전 저장된 복수의 영상 정보로부터 획득된 3차원 모델링 정보 및 상기 하나 이상의 객체에 대한 특징점에 기반하여 상기 하나 이상의 객체가 인식될 수 있고, 상기 하나 이상의 객체의 위치가 결정될 수 있다. 여기서, 3차원 모델링은 좌표 값을 통해 3차원의 형상을 구현하는 방식일 수 있다. 예를 들어, 3차원 모델링 정보는 x축 좌표 값, y축 좌표 값, z축 좌표 값에 대한 정보를 포함할 수 있다.
예를 들어, 상기 뉴럴 네트워크는 입력 레이어, 하나 이상의 히든 레이어 및 출력 레이어를 포함할 수 있다. 예를 들어, 상기 3차원 모델링 정보 및 정답 특징점으로 구성된 각각의 학습 데이터는 상기 뉴럴 네트워크의 상기 입력 레이어에 입력되고, 상기 하나 이상의 히든 레이어 및 출력 레이어를 통과하여 출력 벡터를 출력하고, 상기 출력 벡터는 상기 출력 레이어에 연결된 손실함수 레이어에 입력되고, 상기 손실함수 레이어는 상기 출력 벡터와 각각의 학습 데이터에 대한 정답 벡터를 비교하는 손실 함수를 이용하여 손실값을 출력하고, 상기 뉴럴 네트워크의 파라미터는 상기 손실값이 작아지는 방향으로 학습되는 것에 따라, 상기 인식 모델이 상기 뉴럴 네트워크를 통해 생성될 수 있다.
부가적으로, 예를 들어, 제1 장치는 하나 이상의 센서를 통해 상기 제1 장치의 회전, 이동 거리를 계산할 수 있고, 상기 영상 정보의 특징점을 3차원 좌표와 매칭시킨 입력 데이터를 기반으로 투영 행렬을 결정할 수 있다. 예를 들어, 제1 장치는 실제 공간과 검출된 특징점을 매칭한 후 3차원 구조를 파악함으로써, 다양한 특징 정보를 포함하는 맵을 생성할 수 있다. 예를 들어, 상기 하나 이상의 센서는 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서 또는 온도 센서 중 적어도 하나를 포함할 수 있다.
단계 S303에서, 제1 장치는 상기 제1 장치의 위치 및 상기 하나 이상의 객체에 매칭되는 복수의 유형 테스트 정보를 상기 영상 정보에 중첩한 제1 증강현실 영상을 출력할 수 있다.
여기서, 유형 테스트 정보는 사용자의 유형을 판단하기 위한 복수의 텍스트 정보, 복수의 음향 정보 및 복수의 이미지 정보를 포함할 수 있다. 예를 들어, 사용자의 유형은 마이어스-브릭스 유형을 포함할 수 있다. 예를 들어, 복수의 유형 테스트 정보는 사용자의 마이어스-브릭스 유형(Myers-Briggs-Type Indicator)을 판단하기 위한 복수의 질문 텍스트 정보와 복수의 정답 텍스트 정보, 복수의 음향 정보 및 복수의 이미지 정보를 포함할 수 있다. 예를 들어, 복수의 유형 테스트 정보는 상기 제1 장치에 사전 저장될 수 있다.
여기서, 제1 증강현실 영상은 상기 제1 장치에 구비된 카메라를 통해 촬영되는 영상에 사용자의 유형을 판단하기 위한 텍스트 및/또는 이미지를 중첩한 영상일 수 있다. 또한, 제1 증강현실 영상이 출력되는 경우, 상기 복수의 음향 정보에 기반하여 제1 음향도 함께 출력될 수 있다.
예를 들어, 제1 장치가 횡단 보도에 위치한 경우, 상기 제1 장치에 구비된 카메라에 의해 획득된 영상 정보에 기반하여 상기 제1 장치는 상기 영상 정보에 포함된 제1 객체(예: 횡단 보도)를 인식하고, 상기 제1 객체(예: 횡단 보도)의 위치를 결정할 수 있다. 그리고, 제1 장치는 상기 제1 객체(예: 횡단 보도)에 매칭되는 복수의 유형 테스트 정보를 결정하고, 상기 제1 객체(예: 횡단 보도)의 위치에 기반하여 상기 복수의 유형 테스트 정보를 상기 영상 정보에 중첩시킴으로써, 제1 증강현실 영상을 생성할 수 있다. 또한, 상기 제1 객체에 매칭되는 복수의 유형 테스트 정보에 대응하는 정답 텍스트가 결정된 후, 제1 장치는 상기 카메라에 의해 획득된 영상 정보에 포함된 제2 객체(예: 신호등)을 인식하고, 상기 제2 객체(예: 신호등)의 위치를 결정할 수 있다. 이후, 제1 장치는 상기 제2 객체(예: 신호등)에 매칭되는 복수의 유형 테스트 정보를 결정하고, 상기 제2 객체(예: 신호등)의 위치에 기반하여 복수의 유형 테스트 정보를 상기 영상 정보에 중첩시킴으로써 제1 증강현실 영상을 변경시킬 수 있다.
단계 S304에서, 제1 장치는 상기 복수의 유형 테스트 정보를 기초로 선택된 값에 기반하여 상기 사용자의 유형을 결정할 수 있다. 예를 들어, 상기 복수의 유형 테스트 정보는 외향성(extroversion) 및 내향성(introversion)을 테스트하기 위한 제1 텍스트 및 제1 이미지 정보, 직관성(intuition) 및 감각성(sensing)을 테스트하기 위한 제2 텍스트 및 제2 이미지 정보, 사고형(thinking) 및 감정형(feeling)을 테스트하기 위한 제3 텍스트 및 제3 이미지 정보와 판단형(judging) 및 인식형(perceiving)을 테스트하기 위한 제4 텍스트 및 제4 이미지 정보를 포함할 수 있다.
부가적으로, 일 실시예에 따라, 제1 장치는 상기 복수의 유형 테스트 정보 각각에 대응하는 정답 텍스트에 매칭된 점수를 합산함으로써, 사용자의 유형을 결정할 수 있다. 예를 들어, 상기 복수의 유형 테스트 정보 각각에 대응하는 정답 텍스트에 매칭된 점수의 합산 값은 0점에서 100점 사이의 값일 수 있다. 예를 들어, 상기 제1 텍스트 및 제1 이미지 정보에 대응하는 정답 텍스트에 매칭된 점수는 사용자의 외향성에 대한 수치를 나타내고, 상기 외향성에 대한 수치가 사전 설정된 제1 임계 점수보다 낮으면 내향성으로 결정될 수 있다. 예를 들어, 상기 제2 텍스트 및 제2 이미지 정보에 대응하는 정답 텍스트에 매칭된 점수는 사용자의 직관성에 대한 수치를 나타내고, 상기 직관성에 대한 수치가 사전 설정된 제2 임계 점수보다 낮으면 감각성으로 결정될 수 있다. 예를 들어, 상기 제3 텍스트 및 제3 이미지 정보에 대응하는 정답 텍스트에 매칭된 점수는 사용자의 사고형에 대한 수치를 나타내고, 상기 사고형에 대한 수치가 낮으면 사전 설정된 제3 임계 점수보다 감정형으로 결정될 수 있다. 예를 들어, 상기 제4 텍스트 및 제4 이미지 정보에 대응하는 정답 텍스트에 매칭된 점수는 사용자의 판단형에 대한 수치를 나타내고, 상기 판단형에 대한 수치가 사전 설정된 제4 임계 점수보다 낮으면 인식형으로 결정될 수 있다. 여기서, 각 유형에 대해 사전 설정된 임계 점수는 50점으로 설정될 수 있다. 또한, 예를 들어, 상기 각각의 유형에 대한 점수 값이 저장되어, 각각의 유형에 대한 신뢰도를 결정할 수 있다.
예를 들어, 상기 제1 텍스트 및 제1 이미지 정보에 대응하는 정답 텍스트에 매칭된 점수의 합산이 72점이고, 상기 제2 텍스트 및 제2 이미지 정보에 대응하는 정답 텍스트에 매칭된 점수의 합산이 61점이고, 상기 제3 텍스트 및 제3 이미지 정보에 대응하는 정답 텍스트에 매칭된 점수의 합산이 47점이고, 상기 제4 텍스트 및 제4 이미지 정보에 대응하는 정답 텍스트에 매칭된 점수의 합산이 50점인 경우, 제1 장치는 상기 사용자의 유형을 외향성, 직관성, 감정형 및 판단형으로 결정할 수 있다. 이처럼, 상기 사용자의 유형은 16가지의 유형으로 결정될 수 있다.
단계 S305에서, 제1 장치는 상기 사용자의 유형 및 상기 사용자와 관련된 정보에 기반하여 뉴럴 네트워크를 이용하여 상점 및 상기 상점과 관련된 상품을 결정할 수 있다.
여기서, 사용자와 관련된 정보는 상기 제1 장치의 사용자에 대한 정보일 수 있다. 예를 들어, 상기 사용자와 관련된 정보는 사전 입력되거나 네트워크를 통해 수신될 수 있다. 예를 들어, 상기 사용자와 관련된 정보는 상기 제1 장치에 입력된 상기 사용자의 개인 정보, 상기 제1 장치에 입력된 사용자의 생체 정보, 상기 제1 장치에 저장된 검색 기록 정보 및 상기 제1 장치에 저장된 구매 이력 정보를 포함할 수 있다. 예를 들어, 개인 정보는 사용자의 성별, 사용자의 나이, 사용자의 주소 및 사용자의 식별 번호를 포함할 수 있다. 예를 들어, 생체 정보는 사용자의 심박수, 사용자의 수면시간, 사용자의 산소포화도 및 사용자의 걸음수를 포함할 수 있다. 예를 들어, 검색 기록 정보는 검색한 웹 사이트에 대한 정보, 검색한 상품에 대한 정보, 특정 텍스트를 검색한 횟수에 대한 정보 및 검색 시간에 대한 정보를 포함할 수 있다. 예를 들어, 구매 이력 정보는 사용자가 구매한 상품에 대한 정보, 구매 시간에 대한 정보 및 사용자가 방문한 상점에 대한 정보를 포함할 수 있다.
예를 들어, 상점 및 상기 상점과 관련된 상품이 결정되면, 제1 장치는 상기 상점의 위치 및 상기 상점과 관련된 상품의 위치를 결정할 수 있다. 예를 들어, 상기 상점의 위치 및 상기 상점과 관련된 상품의 위치는 제1 장치에 사전 저장되거나, 서버에 대한 요청을 통해 서버로부터 수신될 수 있다.
예를 들어, 상기 상점은 상기 제1 장치의 위치로부터 임계 범위 내에 위치한 가장 근접한 상점일 수 있다. 예를 들어, 상기 임계 범위는 상기 사용자의 유형 및 상기 사용자와 관련된 정보에 기반하여 설정될 수 있다. 예를 들어, 상기 임계 범위는 사전 설정된 초기 거리 내에 상기 상점이 존재하지 않는 것에 기반하여 사전 설정된 값만큼 증가된 범위일 수 있다.
예를 들어, 상기 사전 설정된 초기 거리는 아래 수학식 1에 의해 설정될 수 있다.
Figure pat00005
상기 수학식 1에서, d는 상기 사전 설정된 초기 거리이고, k는 상기 제1 장치에 입력된 상기 사용자의 평균 걸음 수, g는 상기 사용자의 유형과 관련된 점수, s는 상기 상품의 검색 횟수, n은 상기 상품의 구매 횟수, w는 상기 제1 장치에 입력된 상기 사용자의 몸무게이고, a는 상기 제1 장치에 입력된 상기 사용자의 나이일 수 있다. 여기서, 상기 사용자의 유형과 관련된 점수는 외향형, 직관성 또는 인식형 중 적어도 둘에 대한 점수를 합산한 점수일 수 있다. 이를 통해, 사용자의 유형과 사용자와 관련된 정보를 고려하여 상기 사전 설정된 초기 거리를 설정함으로써, 상기 사용자가 이동할 가능성이 높은 거리에 위치한 상점을 결정할 수 있다.
부가적으로, 예를 들어, 복수의 사용자의 유형에 대한 정보 및 복수의 사용자와 관련된 정보에 대해 뉴럴 네트워크를 이용한 다양한 클러스터링 방식을 통해, 복수의 사용자가 방문한 상점들과 복수의 사용자가 구매한 상품들이 사용자의 유형과 사용자의 성별 및 사용자의 나이에 따라 복수 개의 클러스터로 분류될 수 있다. 따라서, 복수 개의 클러스터는 각각의 유형에 대한 각 나이대 별 성별에 따른 상점들과 구매 상품들의 리스트를 포함할 수 있다. 예를 들어, 상기 복수 개의 클러스터에 대한 정보는 사전 설정되거나 네트워크로부터 수신될 수 있다.
그리고, 예를 들어, 상기 복수 개의 클러스터에 대한 정보, 사용자의 유형, 사용자와 관련된 정보 및 정답 상점 및 상품으로 구성된 각각의 학습 데이터를 통해 상기 뉴럴 네트워크가 학습될 수 있다.
따라서, 제1 장치는 사용자의 유형에 대한 정보 및 사용자와 관련된 정보에 기초하여 학습된 뉴럴 네트워크를 통해 상품을 예측함으로써, 사용자와 관련된 정보만으로 사용자에게 상품을 추천하는 것보다 사용자에게 더 필요한 상품을 제공할 수 있다. 또한, 제1 장치는 GNSS로부터 수신한 위치 정보와 영상 정보에 포함된 객체에 대한 특징점을 통해 제1 장치의 위치를 보다 정확하게 결정함으로써, 상기 제1 장치의 위치에서 가장 가까운 상점을 정확하게 결정할 수 있다.
단계 S306에서, 제1 장치는 상기 하나 이상의 객체의 위치에 기반하여 상기 상점으로 이동하는 상기 상점과 관련된 가상 캐릭터를 상기 영상 정보에 중첩한 제2 증강현실 영상을 출력할 수 있다.
여기서, 제2 증강현실 영상은 상기 제1 장치에 구비된 카메라를 통해 촬영되는 영상에 상기 상점과 관련된 가상 캐릭터에 대한 이미지를 중첩한 영상일 수 있다.
예를 들어, 상기 가상 캐릭터에 대한 외형 정보 및 음성 정보는 상기 사용자의 유형 및 상기 사용자와 관련된 정보에 기반하여 결정될 수 있다. 예를 들어, 상기 상점과 관련된 가상 캐릭터에 대한 이미지는 상기 가상 캐릭터에 대한 외형 정보에 기반하여 결정될 수 있다. 여기서, 외형 정보는 가상 캐릭터의 각 몸체부위에 대한 크기와 색상, 가상 캐릭터의 얼굴부위 각각에 대한 크기와 색상 및 가상 캐릭터의 몸체와 얼굴의 비율을 포함할 수 있다. 예를 들어, 제2 증강현실 영상이 출력되는 경우, 음성 정보에 기반하여 제2 음향도 함께 출력될 수 있다. 여기서, 음성 정보는 가상 캐릭터에 대한 목소리의 크기, 높낮이 및 속도를 포함할 수 있다.
예를 들어, 제1 장치가 제1 장소(예: 카페)에 위치한 경우, 제1 장치는 상기 영상 정보에 포함된 제1 객체(예: 의자)를 인식하고, 상기 제1 장소(예: 카페) 내 상기 제1 객체(예: 의자)의 위치를 결정할 수 있다. 그리고, 상기 상점과 관련된 캐릭터가 결정되면, 제1 장치는 상기 제1 객체와 관련된 동작(예: 의자에 앉는 동작)을 수행하는 상기 가상 캐릭터를 상기 카메라에 의해 촬영된 영상에 중첩시켜 제2 증강현실 영상을 출력할 수 있다. 예를 들어, 하나 이상의 객체와 관련된 동작은 상기 상점과 관련된 캐릭터와 매칭되어 상기 제1 장치에 사전 저장될 수 있다.
또한, 예를 들어, 상기 제1 장치의 위치와 상기 상점의 위치에 기반하여 상기 상점과 관련된 가상 캐릭터가 현재 제1 장치의 위치로부터 상기 상점의 위치를 안내하는 이미지를 상기 카메라에 의해 촬영된 영상에 중첩시켜 제2 증강현실 영상을 출력할 수 있다. 이때, 예를 들어, 상술한 바와 같이, 상기 제1 장치에 구비된 하나 이상의 센서를 통해 영상 정보에서 검출된 특징점을 실제 공간과 매칭하여 3차원 구조를 파악함으로써, 다양한 특징 정보를 포함하는 맵을 생성할 수 있고, 상기 생성된 맵을 기반으로 현재 제1 장치의 위치로부터 상기 상점의 위치를 안내하는 이미지를 생성할 수 있다.
예를 들어, 상기 상점 내에서 상기 상점과 관련된 상품이 진열된 위치에 상기 가상 캐릭터가 도달한 것에 기반하여, 상기 제2 증강현실 영상에서 상기 가상 캐릭터에 대한 디스플레이가 종료될 수 있다.
따라서, 사용자의 유형 및 사용자와 관련된 정보에 기반하여 사용자마다 상이한 가상 캐릭터가 생성될 수 있고, 영상 정보에 포함된 객체를 뉴럴 네트워크를 통해 인식하고 그 위치를 결정함으로써, 상기 가상 캐릭터를 보다 자연스럽게 중첩시킬 수 있다. 이를 통해, 제1 장치는 사용자에게 몰입감을 줄 수 있는 증강현실을 구현할 수 있다.
단계 S307에서, 제1 장치는 상기 영상 정보에 포함된 사전 설정된 상기 상점과 관련된 마커에 기반하여, 가상 공간과 가상 상품을 상기 영상 정보에 중첩한 제3 증강현실 영상을 출력할 수 있다.
일 실시예에 따라, 제1 장치가 상기 가상 공간으로부터 사전 설정된 거리 이내에 위치하면, 제3 증강현실 영상에 상기 가상 상품과 관련된 정보를 출력할 수 있다. 또한, 제3 증강현실 영상이 출력되는 경우, 상기 가상 상품과 관련된 정보에 포함된 음향 정보에 기반하여 제3 음향도 함께 출력될 수 있다. 예를 들어, 상기 가상 상품과 관련된 정보는 상기 가상 상품의 광고에 대한 텍스트 정보, 음향 정보 및/또는 이미지 정보, 상기 가상 상품의 구매 방법에 대한 텍스트 정보, 음향 정보 및/또는 이미지 정보를 포함할 수 있다.
여기서, 마커는 명암의 대비를 기반으로 특징점들을 추출하는 이미지일 수 있다. 예를 들어, 제1 장치가 상기 마커를 인식하면, 상기 마커를 통해 기준 좌표를 결정하고, 기준 좌표 상에 가상 공간을 생성하여 카메라에 의해 촬영되는 영상에 중첩시켜 출력할 수 있다. 예를 들어, 상기 사전 설정된 상기 상점과 관련된 마커는 상기 상점의 로고 또는 상기 상점의 대표 이미지일 수 있다. 즉, 상기 상점의 로고 또는 상기 상점의 대표 이미지가 마커로 동작하도록 제1 장치에 대해 사전에 설정될 수 있다.
예를 들어, 가상 공간은 가상 상품을 진열시키기 위한 가상의 공간일 수 있다. 예를 들어, 가상 상품은 상기 결정된 상품과 관련된 가상의 상품으로, 실제 현실에는 존재하지 않는 가상에만 존재하는 상품일 수 있다. 예를 들어, 가상 공간과 가상 상품은 상기 사전 설정된 상기 상점과 관련된 마커에 기반하여 결정될 수 있다. 예를 들어, 가상 공간에 대한 정보 및 가상 상품에 대한 정보는 제1 장치에 사전 저장되거나 네트워크로부터 수신될 수 있다.
여기서, 제3 증강현실 영상은 상기 제1 장치에 구비된 카메라를 통해 촬영되는 영상에 상기 가상 공간 및 상기 가상 상품에 대한 이미지를 중첩한 영상일 수 있다. 예를 들어, 상기 상품이 신발로 결정된 경우, 상기 가상 공간은 상기 상품을 진열하기 위한 진열대를 포함하는 공간일 수 있고, 상기 가상 상품은 신발일 수 있다. 즉, 상기 영상 정보에 포함된 사전 설정된 상기 상점과 관련된 마커가 인식되면, 제1 장치는 상기 사전 설정된 상기 상점과 관련된 마커에 의해 설정된 좌표 상에 가상의 신발 진열대 공간과 가상의 신발을 상기 영상 정보에 중첩한 제3 증강현실 영상을 출력할 수 있다. 그리고, 상기 사용자가 상기 가상의 신발에 가까워지면, 상기 가상의 신발에 대한 정보를 상기 제3 증강현실 영상을 통해 출력할 수 있다.
따라서, 사용자의 유형을 결정하는 증강현실 구현은 영상 정보에 포함된 객체 인식을 뉴럴 네트워크를 통한 마커리스 방식을 이용하고, 가상 공간 및 가상 상품을 표시하는 증강현실 구현은 마커 방식을 이용함으로써, 객체 인식을 보다 안정적으로 수행하고, 사용자의 몰입감을 증가시킬 수 있다.
도 4는 일 실시예에 따른 사용자의 유형 및 사용자와 관련된 정보를 기초로 증강현실을 이용하여 상품을 추천하는 제1 장치의 블록도를 나타낸다. 도 4의 일 실시예는 본 개시의 다양한 실시예들과 결합될 수 있다.
도 4를 참조하면, 제1 장치는 제어부(410), 입력 모듈(420), 센서 모듈(430), 통신 모듈(440), 카메라 모듈(450), 디스플레이 모듈(460) 및 오디오 모듈(470)을 포함할 수 있다. 또한, 제어부(410)는 위치 결정부(411), 객체 분석부(412), 유형 판단부(413), 상품 결정부(414), 가상 캐릭터 생성부(415), 가상 공간 생성부(416), 가상 상품 생성부(417), 영상 처리부(418) 및 메모리(419)를 포함할 수 있다.
예를 들어, 제어부(410)는 입력 모듈(420), 센서 모듈(430), 통신 모듈(440), 카메라 모듈(450), 디스플레이 모듈(460) 및 오디오 모듈(470)과 메모리(419)를 연결하는 하나 이상의 프로세서를 포함할 수 있다.
예를 들어, 제어부(410)는 하나 이상의 프로세서를 통해, 소프트웨어를 실행하여 프로세서에 연결된 제1 장치의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 예를 들어, 데이터 처리 또는 연산의 적어도 일부로서, 하나 이상의 프로세서는 다른 구성요소로부터 수신된 명령 또는 데이터를 메모리(419)에 저장하고, 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 메모리(419)에 저장할 수 있다. 예를 들어, 하나 이상의 프로세서는 도 1의 프로세서(120)를 포함할 수 있다. 예를 들어, 메모리(419)는, 제1 장치의 적어도 하나의 구성요소에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다.
입력 모듈(420)은 제1 장치의 구성요소에 사용될 명령 또는 데이터를 제1 장치의 외부(예: 사용자)로부터 수신할 수 있다.
센서 모듈(430)은 제1 장치의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 예를 들어, 센서 모듈(430)은, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
통신 모듈(440)은 제1 장치와 외부 전자 장치(예: 전자 장치 또는 서버) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(440)은 하나 이상의 프로세서와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 예를 들어, 통신 모듈(440)은 무선 통신 모듈(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈 (예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 예를 들어, 통신 모듈(440)은 상기 도 1의 통신 모듈(190)을 포함할 수 있다.
카메라 모듈(450)은 정지 영상 및 동영상을 촬영할 수 있다. 예를 들어, 카메라 모듈(450)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
디스플레이 모듈(460)은 제1 장치의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 예를 들어, 디스플레이 모듈(460)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(470)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있고, 음향 신호를 제1 장치의 외부로 출력할 수 있다.
위치 결정부(411)는 통신 모듈(440)을 통해 GNSS(global navigation satellite system)로부터 수신된 상기 제1 장치의 위치 정보 및 카메라 모듈(450)에 의해 획득된 영상 정보에 기반하여 상기 제1 장치의 위치를 결정할 수 있다. 예를 들어, 위치 결정부(411)는 통신 모듈(440)을 통해 상기 GNSS로부터 수신한 위치 정보에 기반하여 상기 제1 장치가 위치한 장소를 결정하고, 카메라 모듈(450)에 의해 획득된 영상 정보에 포함된 하나 이상의 객체에 대해 특징점을 검출하고, 상기 제1 장치가 장소와 관련된 이미지 정보 및 상기 특징점의 좌표에 대한 변화에 기반하여 상기 장소 내 상기 제1 장치의 위치를 결정할 수 있다.
객체 분석부(412)는 카메라 모듈(450)에 의해 획득된 영상 정보에 포함된 하나 이상의 객체를 인식하고, 상기 하나 이상의 객체의 위치를 분석할 수 있다. 예를 들어, 상기 하나 이상의 객체에 대한 특징점은 사전 저장된 복수의 영상 정보를 기반으로 인식 모델에 의해 학습될 수 있다. 예를 들어, 객체 분석부(412)는 상기 사전 저장된 복수의 영상 정보로부터 획득된 3차원 모델링 정보 및 상기 하나 이상의 객체에 대한 특징점에 기반하여 상기 하나 이상의 객체를 인식할 수 있고, 상기 하나 이상의 객체의 위치를 결정할 수 있다.
유형 판단부(413)는 복수의 유형 테스트 정보를 기초로 선택된 값에 기반하여 사용자의 유형을 결정할 수 있다. 예를 들어, 유형 판단부(413)는 상기 복수의 유형 테스트 정보 각각에 대응하는 정답 텍스트에 매칭된 점수를 합산함으로써, 사용자의 유형을 결정할 수 있다. 예를 들어, 유형 판단부(413)는 결정된 사용자의 유형에 대한 정보를 상품 결정부(414)에게 제공할 수 있다.
상품 결정부(414)는 사용자의 유형 및 상기 사용자와 관련된 정보에 기반하여 뉴럴 네트워크를 이용하여 상점 및 상기 상점과 관련된 상품을 결정할 수 있다. 예를 들어, 상품 결정부(414)는 복수의 사용자의 유형에 대한 정보 및 복수의 사용자와 관련된 정보에 대해 뉴럴 네트워크를 이용한 다양한 클러스터링 방식을 통해, 복수의 사용자가 방문한 상점들과 복수의 사용자가 구매한 상품들을 사용자의 유형과 사용자의 성별 및 사용자의 나이에 따라 복수 개의 클러스터로 분류할 수 있다. 그리고, 상품 결정부(414)는 상기 복수 개의 클러스터에 대한 정보, 사용자의 유형, 사용자와 관련된 정보 및 정답 상점 및 상품으로 구성된 각각의 학습 데이터를 통해 상기 뉴럴 네트워크를 학습시킬 수 있고, 상품 결정부(414)는 제1 장치의 사용자의 유형 및 제1 장치의 사용자와 관련된 정보에 기반하여 상기 뉴럴 네트워크를 통해 상기 제1 장치의 사용자에게 추천하는 상점 및 상품을 결정할 수 있다. 여기서, 예를 들어, 상기 상점은 상기 제1 장치의 위치로부터 임계 범위 내에 위치한 가장 근접한 상점일 수 있다. 예를 들어, 상품 결정부(414)는 상기 임계 범위를 상기 사용자의 유형 및 상기 사용자와 관련된 정보에 기반하여 설정할 수 있다. 예를 들어, 상기 임계 범위는 사전 설정된 초기 거리 내에 상기 상점이 존재하지 않는 것에 기반하여 사전 설정된 값만큼 증가된 범위일 수 있다.
가상 캐릭터 생성부(415)는 상점과 관련된 가상 캐릭터에 대한 외형 정보 및 음성 정보를 상기 사용자의 유형 및 상기 사용자와 관련된 정보에 기반하여 결정할 수 있다. 예를 들어, 가상 캐릭터 생성부(415)는 상기 상점과 관련된 가상 캐릭터에 대한 이미지를 상기 가상 캐릭터에 대한 외형 정보에 기반하여 결정할 수 있다. 또한, 예를 들어, 상점과 관련된 마스코트 또는 캐릭터가 존재하는 경우, 가상 캐릭터 생성부(415)는 상기 상점과 관련된 마스코트 또는 캐릭터를 상점과 관련된 가상 캐릭터로 선택하고, 상기 선택된 마스코트 또는 캐릭터의 외형을 상기 사용자의 유형 및 상기 사용자와 관련된 정보에 기반하여 변경할 수 있다. 예를 들어, 상점과 관련된 마스코트 또는 캐릭터가 존재하지 않는 경우, 가상 캐릭터 생성부(415)는 기본 캐릭터를 상점과 관련된 가상 캐릭터로 선택하고, 상기 기본 캐릭터의 외형을 상기 사용자의 유형 및 상기 사용자와 관련된 정보에 기반하여 변경할 수 있다. 예를 들어, 가상 캐릭터 생성부(415)는 상기 상점과 관련된 가상 캐릭터에 대한 정보를 영상 처리부(418)에게 제공할 수 있다.
또한, 예를 들어, 가상 캐릭터 생성부(415)는 위치 결정부(411)로부터 상기 제1 장치의 위치와 상기 상점의 위치에 대한 정보를 획득할 수 있고, 상기 상점과 관련된 가상 캐릭터가 현재 제1 장치의 위치로부터 상기 상점의 위치를 안내하는 이미지를 생성할 수 있다. 이때, 예를 들어, 가상 캐릭터 생성부(415)는 센서 모듈(430)을 통해 영상 정보에서 검출된 특징점을 실제 공간과 매칭하여 3차원 구조를 파악할 수 있고, 다양한 특징 정보를 포함하는 맵을 생성함으로써, 상기 생성된 맵을 기반으로 현재 제1 장치의 위치로부터 상기 상점의 위치를 상기 상점과 관련된 가상 캐릭터가 안내하는 이미지를 생성할 수 있다.
예를 들어, 가상 캐릭터 생성부(415)는 상기 상점 내에서 상기 상점과 관련된 상품이 진열된 위치에 상기 가상 캐릭터가 도달한 것에 기반하여, 상기 가상 캐릭터에 대한 디스플레이를 종료시키기 위한 명령을 영상 처리부(418)에게 전달할 수 있다.
가상 공간 생성부(416) 및 가상 상품 생성부(417)는 카메라 모듈(450)에 의해 획득된 영상 정보에 포함된 사전 설정된 상기 상점과 관련된 마커에 기반하여, 가상 공간 및 가상 상품을 생성할 수 있다. 예를 들어, 가상 공간 생성부(416) 및 가상 상품 생성부(417)가 상기 마커를 인식하면, 상기 마커를 통해 기준 좌표를 결정하고, 기준 좌표 상에 가상 공간 및 가상 상품을 생성할 수 있다. 그리고, 가상 공간 생성부(416) 및 가상 상품 생성부(417)는 영상 처리부(418)에게 상기 가상 공간 및 가상 상품에 대한 정보를 제공함으로써, 카메라 모듈(450)에 의해 촬영되는 영상에 상기 가상 공간 및 가상 상품을 중첩시켜 출력시킬 수 있다.
예를 들어, 제1 장치가 상기 가상 공간으로부터 사전 설정된 거리 이내에 위치하면, 가상 공간 생성부(416) 및 가상 상품 생성부(417)는 상기 가상 상품과 관련된 정보를 디스플레이 모듈(460)을 통해 출력하는 명령을 영상 처리부(418)에게 전달할 수 있다. 예를 들어, 상기 가상 상품과 관련된 정보는 상기 가상 상품의 광고에 대한 텍스트 정보, 음향 정보 및/또는 이미지 정보, 상기 가상 상품의 구매 방법에 대한 텍스트 정보, 음향 정보 및/또는 이미지 정보를 포함할 수 있다.
영상 처리부(418)는 카메라 모듈(450)에 의해 획득된 영상에 가상의 영상을 중첩한 증강현실 영상을 디스플레이 모듈(460) 및 오디오 모듈(470)을 통해 출력할 수 있다.
예를 들어, 영상 처리부(418)는 유형 판단부(413)으로부터 상기 제1 장치의 위치 및 상기 하나 이상의 객체에 매칭되는 복수의 유형 테스트 정보를 획득할 수 있고, 카메라 모듈(450)에 의해 획득된 영상 정보에 상기 복수의 유형 테스트 정보를 중첩한 제1 증강현실 영상을 디스플레이 모듈(460) 및 오디오 모듈(470)을 통해 출력할 수 있다.
예를 들어, 영상 처리부(418)는 가상 캐릭터 생성부(415)로부터 상점과 관련된 가상 캐릭터에 대한 정보를 획득할 수 있고, 카메라 모듈(450)에 의해 획득된 영상 정보에 상기 상점과 관련된 가상 캐릭터에 대한 정보를 중첩한 제2 증강현실 영상을 디스플레이 모듈(460) 및 오디오 모듈(470)을 통해 출력할 수 있다.
예를 들어, 영상 처리부(418)는 가상 공간 생성부(416) 및 가상 상품 생성부(417)로부터 가상 공간 및 가상 상품에 대한 정보를 획득할 수 있고, 카메라 모듈(450)에 의해 획득된 영상 정보에 상기 가상 공간 및 가상 상품에 대한 정보를 중첩한 제3 증강현실 영상을 디스플레이 모듈(460) 및 오디오 모듈(470)을 통해 출력할 수 있다.
예를 들어, 메모리(419)는, 하나 이상의 프로세서의 처리 및 제어를 위한 프로그램을 저장할 수 있다. 예를 들어, 메모리(419)는 사용자에 의해 입력된 정보 또는 네트워크를 통해 다른 장치로부터 수신된 정보를 저장할 수 있다. 또한, 메모리(419)는 하나 이상의 프로세서에서 획득된 데이터를 저장할 수 있다. 메모리(419)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
도 4에 도시된 제1 장치의 구성은 하나의 일 예로 필수 구성 요소인 것은 아니다. 도 4에 도시된 구성 요소보다 많은 구성 요소에 의해 제1 장치가 구현될 수도 있고, 도 4에 도시된 구성 요소보다 적은 구성 요소에 의해 제1 장치가 구현될 수도 있다.
도 5는 일 실시예에 따른 유형 테스트 정보를 중첩한 제1 증강현실 영상에 대한 예를 나타낸다. 도 5의 일 실시예는 본 개시의 다양한 실시예들과 결합될 수 있다.
도 5를 참조하면, 제1 장치는 상기 제1 장치에 구비된 카메라에 의해 촬영된 제1 영상(510)을 디스플레이할 수 있다. 예를 들어, 제1 영상(510)은 지하철 승강장을 촬영한 영상이고, 제1 영상(510)은 스크린 도어 윗부분의 지하철역 안내판(511), 안전선 화살표(512), 승강장 내 의자(513) 및 승객(514)과 같은 복수의 객체를 포함할 수 있다.
예를 들어, 제1 장치는 제1 영상(510)에 포함된 스크린 도어 윗부분의 지하철역 안내판(511), 안전선 화살표(512), 승강장 내 의자(513) 및 승객(514)을 인식하고, 스크린 도어 윗부분의 지하철역 안내판(511), 안전선 화살표(512), 승강장 내 의자(513) 및 승객(514)의 위치를 분석할 수 있다. 예를 들어, 제1 장치는 스크린 도어 윗부분의 지하철역 안내판(511), 안전선 화살표(512), 승강장 내 의자(513) 및 승객(514)에 대한 특징점들을 상술한 인식 모델을 통해 검출할 수 있고, 제1 장치는 검출된 특징점들에 기반하여 제1 영상(510)에 포함된 복수의 객체들을 인식하고 위치를 분석할 수 있다.
또한, 예를 들어, 제1 장치는 GNSS로부터 수신한 위치 정보에 기반하여 상기 제1 장치의 장소를 지하철 승강장으로 결정하고, 검출된 특징점들에 기반하여 상기 장소 내 상기 제1 장치의 위치를 결정할 수 있다.
이후, 제1 장치는 상기 제1 장치의 위치 및 상기 복수의 객체들에 매칭되는 복수의 유형 테스트 정보를 제1 영상(510)에 중첩한 제1 증강현실 영상(520)을 출력할 수 있다.
예를 들어, 제1 장치는 승객(514)과 매칭되는 복수의 유형 테스트 정보를 선택할 수 있고, 제1 장치는 제1 영상(510) 내 설정된 위치에 유형 테스트를 위한 텍스트 및 이미지를 중첩시킴으로써, 제1 증강현실 영상(520)을 출력할 수 있다. 예를 들어, 설정된 위치는 제1 영상(510) 내 복수의 객체에 대한 위치 및 제1 장치의 위치에 기반하여 결정될 수 있다.
예를 들어, 제1 증강현실 영상(520)에 출력된 유형 테스트(521)는 승객(514)과 관련된 질문(522), 질문(522)에 대응하는 복수의 정답 텍스트(523) 및 이미지를 포함할 수 있다. 이후, 제1 장치에 대한 입력을 통해 복수의 정답 텍스트(523) 중 어느 하나가 선택되면, 제1 장치는 선택된 정답 텍스트(523)에 매칭되는 점수 값을 저장하고, 유형 테스트(521)를 스크린 도어 윗부분의 지하철역 안내판(511), 안전선 화살표(512), 승강장 내 의자(513) 또는 승객(514) 중 어느 하나와 매칭되는 다른 유형 테스트로 변경시켜 제1 증강현실 영상(520)에 출력시킬 수 있다. 즉, 제1 영상(510)에 승객(514)이 시간이 경과하여도 계속 포함된 경우, 제1 장치는 승객(514)과 관련된 복수의 유형 테스트만으로 사용자의 유형을 결정할 수 있다. 또는, 제1 영상(510)에 승객(514)이 시간이 경과하여 포함되지 않은 경우, 제1 장치는 승객(514)이 아닌 다른 객체와 관련된 유형 테스트로 변경하여 사용자의 유형을 결정할 수 있다.
예를 들어, 제1 장치는 상기 복수의 유형 테스트 정보 각각에서 선택된 정답 텍스트에 매칭된 점수를 합산함으로써, 사용자의 유형을 결정할 수 있다. 또한, 제1 장치는 제1 장치의 이동에 따라 새롭게 포함되는 객체들도 인식하고 위치를 분석함으로써, 다른 객체와 관련된 복수의 유형 테스트 정보를 기반으로 사용자의 유형을 결정할 수 있다.
도 6은 일 실시예에 따른 상점과 관련된 가상 캐릭터를 중첩한 제2 증강현실 영상에 대한 예를 나타낸다. 도 6의 일 실시예는 본 개시의 다양한 실시예들과 결합될 수 있다.
도 6을 참조하면, 제1 장치는 상기 제1 장치에 구비된 카메라에 의해 촬영된 제2 영상(610)을 디스플레이할 수 있다. 예를 들어, 제2 영상(610)은 횡단보도를 포함한 도로를 촬영한 영상(610)이다. 제2 영상(610)은 신호등(611), 횡단 보도(612), 차량 진입 방지용 봉(613)과 같은 복수의 객체를 포함할 수 있다.
예를 들어, 제1 장치는 제2 영상(610)에 포함된 신호등(611), 횡단 보도(612), 차량 진입 방지용 봉(613)을 인식하고, 신호등(611), 횡단 보도(612), 차량 진입 방지용 봉(613)의 위치를 분석할 수 있다. 예를 들어, 제1 장치는 신호등(611), 횡단 보도(612), 차량 진입 방지용 봉(613)에 대한 특징점들을 상술한 인식 모델을 통해 검출할 수 있고, 제1 장치는 검출된 특징점들에 기반하여 제2 영상(610)에 포함된 복수의 객체들을 인식하고 위치를 분석할 수 있다.
또한, 예를 들어, 제1 장치는 GNSS로부터 수신한 위치 정보에 기반하여 상기 제1 장치의 장소를 도로로 결정하고, 검출된 특징점들에 기반하여 상기 장소 내 상기 제1 장치의 위치를 결정할 수 있다.
제1 장치는 복수의 객체에 대한 위치에 기반하여 상점으로 이동하는 상기 상점과 관련된 가상 캐릭터(621)를 제2 영상(610)에 중첩한 제2 증강현실 영상(620)을 출력할 수 있다.
예를 들어, 제1 장치는 상점과 관련된 가상 캐릭터에 대한 외형 정보 및 음성 정보를 상기 사용자의 유형 및 상기 사용자와 관련된 정보에 기반하여 결정할 수 있다. 예를 들어, 상점과 관련된 마스코트 또는 캐릭터가 존재하는 경우, 제1 장치는 상기 상점과 관련된 마스코트 또는 캐릭터를 상점과 관련된 가상 캐릭터로 선택하고, 상기 선택된 마스코트 또는 캐릭터의 외형을 상기 사용자의 유형 및 상기 사용자와 관련된 정보에 기반하여 변경할 수 있다. 또는, 예를 들어, 상점과 관련된 마스코트 또는 캐릭터가 존재하지 않는 경우, 제1 장치는 기본 캐릭터를 상점과 관련된 가상 캐릭터로 선택하고, 상기 기본 캐릭터의 외형을 상기 사용자의 유형 및 상기 사용자와 관련된 정보에 기반하여 변경할 수 있다.
또한, 예를 들어, 제1 장치는 상기 제1 장치의 위치와 상기 상점의 위치에 대한 정보를 획득할 수 있고, 상점과 관련된 가상 캐릭터(621)가 현재 제1 장치의 위치로부터 상기 상점의 위치를 안내하는 이미지(622)를 생성할 수 있다. 이때, 예를 들어, 제1 장치는 센서 모듈을 통해 복수의 영상 정보에서 검출된 특징점을 실제 공간과 매칭하여 3차원 구조를 파악할 수 있고, 다양한 특징 정보를 포함하는 맵을 생성함으로써, 상기 생성된 맵을 기반으로 현재 제1 장치의 위치로부터 상기 상점의 위치를 상기 상점과 관련된 가상 캐릭터(621)가 안내하는 이미지(622)를 생성할 수 있다.
도 7은 일 실시예에 따른 가상 공간과 가상 상품을 중첩한 제3 증강현실 영상에 대한 예를 나타낸다. 도 7의 일 실시예는 본 개시의 다양한 실시예들과 결합될 수 있다.
도 7을 참조하면, 제1 장치는 상기 제1 장치에 구비된 카메라에 의해 촬영된 제3 영상(710)을 디스플레이할 수 있다. 예를 들어, 제3 영상(710)은 상점 내부를 촬영한 영상(710)이다. 제3 영상(710)은 상품 진열대(711), 마커(712) 및 추천 상품(713)과 같은 복수의 객체를 포함할 수 있다. 또한, 예를 들어, 제3 영상(710)은 상기 상점과 관련된 가상 캐릭터(714)가 중첩된 제2 증강현실 영상을 포함할 수 있다.
예를 들어, 제1 장치는 제3 영상(710)에 포함된 상품 진열대(711), 마커(712) 및 추천 상품(713)을 인식하고, 상품 진열대(711), 마커(712) 및 추천 상품(713)를 분석할 수 있다. 예를 들어, 제1 장치는 상품 진열대(711), 마커(712) 및 추천 상품(713)에 대한 특징점들을 상술한 인식 모델을 통해 검출할 수 있고, 제1 장치는 검출된 특징점들에 기반하여 제3 영상(710)에 포함된 상품 진열대(711), 마커(712) 및 추천 상품(713)을 인식하고 위치를 분석할 수 있다. 또한, 예를 들어, 제1 장치는 검출된 특징점들에 기반하여 상기 장소 내 상기 제1 장치의 위치를 결정할 수 있다.
예를 들어, 제1 장치는 상기 상점 내에서 추천 상품(713)이 진열된 위치에 상기 가상 캐릭터(714)가 도달한 것에 기반하여, 상기 가상 캐릭터(714)에 대한 디스플레이를 종료시킬 수 있다. 즉, 제1 장치는 상기 상점 내에서 추천 상품(713)이 진열된 위치에 상기 가상 캐릭터(714)가 도달한 것에 기반하여, 상기 가상 캐릭터(714)를 제3 영상(710)에 중첩시켜 출력하지 않을 수 있다.
제1 장치는 제3 영상(710)에 포함된 마커(712)에 기반하여, 가상 공간(721)과 가상 상품(722)을 기준 좌표에 중첩한 제3 증강현실 영상(720)을 출력할 수 있다. 예를 들어, 제1 장치가 마커(712)를 인식하면, 제1 장치는 상기 마커(712)를 통해 기준 좌표를 결정하고, 기준 좌표 상에 가상 공간(721)을 생성하여 제3 영상(710)에 중첩시켜 출력할 수 있다. 예를 들어, 마커(712)는 상기 상점의 로고 또는 상기 상점의 대표 이미지일 수 있다. 즉, 상기 상점의 로고 또는 상기 상점의 대표 이미지가 마커로 동작하도록 제1 장치에 대해 사전에 설정될 수 있다.
예를 들어, 제1 장치가 가상 공간(721)으로부터 사전 설정된 거리 이내에 위치하면, 제1 장치는 제3 증강현실 영상(720)에 상기 가상 상품과 관련된 정보(723)를 출력할 수 있다. 예를 들어, 상기 가상 상품의 광고에 대한 텍스트 정보, 음향 정보 및/또는 이미지 정보, 상기 가상 상품의 구매 방법에 대한 텍스트 정보, 음향 정보 및/또는 이미지 정보를 포함할 수 있다.
도 8은 일 실시예에 따른 상점 및 상기 상점과 관련된 상품을 추천하기 위해 학습된 뉴럴 네트워크의 예를 나타낸다. 도 8의 일 실시예는 본 개시의 다양한 실시예들과 결합될 수 있다.
도 8을 참조하면, 제1 장치는 복수의 사용자의 유형에 대한 정보 및 복수의 사용자와 관련된 정보를 획득할 수 있고, 상기 획득된 복수의 사용자의 유형에 대한 정보 및 복수의 사용자와 관련된 정보를 데이터 전처리 레이어(811)에 입력할 수 있다. 이후, 데이터 전처리 레이어(811)는, 복수의 사용자의 유형에 대한 정보 및 복수의 사용자와 관련된 정보에 다양한 클러스터링 방식을 적용함으로써, 복수의 사용자가 방문한 상점들과 복수의 사용자가 구매한 상품들을 사용자의 유형과 사용자의 성별 및 사용자의 나이에 따라 복수 개의 클러스터로 분류할 수 있다. 예를 들어, 데이터 전처리 레이어(811)는 복수의 사용자의 유형에 대한 정보 및 복수의 사용자와 관련된 정보에 기반하여 외향성, 직관성, 감정형 및 판단형에 해당하는 30대 남성이 방문한 상점들과 상품들을 하나의 클러스터로 분류할 수 있다. 이와 같이, 데이터 전처리 레이어(811)는 복수 개의 클러스터에 대한 정보를 생성할 수 있다. 예를 들어, 상기 복수 개의 클러스터에 대한 정보는 입력된 복수의 사용자의 유형에 대한 정보 및 복수의 사용자와 관련된 정보로부터 각 유형에 대한 성별 및 나이에 따라 분류된 상점들 및 상품들에 대한 정보를 포함할 수 있다. 예를 들어, 제1 장치의 사용자에 대한 상품을 결정하기 이전에, 제1 장치는 데이터 전처리 레이어(811)를 통해 각 유형에 대한 성별 및 나이에 따라 분류된 상점들 및 상품들에 대한 정보를 사전 생성할 수 있다.
뉴럴 네트워크는 상기 복수 개의 클러스터에 대한 정보, 사용자의 유형, 사용자와 관련된 정보 및 정답 상점 및 상품으로 구성된 각각의 학습 데이터를 통해 학습될 수 있다. 예를 들어, 제1 장치는 상기 뉴럴 네트워크를 이용하여 상기 사용자의 유형 및 상기 사용자와 관련된 정보에 따라 상점 및 상기 상점과 관련된 상품을 결정할 수 있다.
예를 들어, 상기 뉴럴 네트워크는 입력 레이어(812), 하나 이상의 히든 레이어(813) 및 출력 레이어(814)를 포함할 수 있다. 예를 들어, 상기 복수 개의 클러스터에 대한 정보, 사용자의 유형, 사용자와 관련된 정보 및 정답 상점 및 상품으로 구성된 각각의 학습 데이터는 상기 뉴럴 네트워크의 상기 입력 레이어(812)에 입력되고, 상기 하나 이상의 히든 레이어(813) 및 출력 레이어(814)를 통과하여 출력 벡터를 출력하고, 상기 출력 벡터는 상기 출력 레이어(814)에 연결된 손실함수 레이어에 입력되고, 상기 손실함수 레이어는 상기 출력 벡터와 각각의 학습 데이터에 대한 정답 벡터를 비교하는 손실 함수를 이용하여 손실값을 출력하고, 상기 뉴럴 네트워크의 파라미터는 상기 손실값이 작아지는 방향으로 학습될 수 있다.
도 9는 일 실시예에 따른 상점과 관련된 가상 캐릭터를 중첩한 제2 증강현실 영상을 결정하는 흐름도이다. 도 9의 일 실시예는 본 개시의 다양한 실시예들과 결합될 수 있다.
도 9를 참조하면, 단계 S901에서, 제1 장치는 상점과 관련된 캐릭터가 존재하는지 여부를 결정할 수 있다. 예를 들어, 제1 장치는 사용자의 유형 및 상기 사용자와 관련된 정보에 기반하여 뉴럴 네트워크를 이용하여 상점 및 상기 상점과 관련된 상품을 결정하고, 상기 상점과 관련된 캐릭터가 존재하는지 여부를 결정할 수 있다. 예를 들어, 상점과 관련된 캐릭터가 캐릭터에 대한 정보에 포함되는 경우, 제1 장치는 상점과 관련된 캐릭터가 존재하는 것으로 결정할 수 있다. 예를 들어, 캐릭터에 대한 정보는 제1 장치에 대해 사전 설정되거나, 네트워크로부터 수신될 수 있다.
단계 S902에서, 상점과 관련된 캐릭터가 존재하는 경우, 제1 장치는 상기 상점과 관련된 캐릭터를 가상 캐릭터로 선택할 수 있다.
단계 S903에서, 상점과 관련된 캐릭터가 존재하지 않는 경우, 제1 장치는 사용자의 유형에 기반하여 기본 가상 캐릭터를 결정할 수 있다.
예를 들어, 상점과 관련된 캐릭터가 존재하지 않는 경우, 제1 장치는 복수의 가상 캐릭터들 중에서 상기 사용자의 유형에 대응하는 가상 캐릭터를 기본 가상 캐릭터로 결정할 수 있다.
또는, 예를 들어, 제1 장치는 사용자의 유형에 대한 점수를 기반으로 기본 가상 캐릭터를 결정할 수 있다. 예를 들어, 제1 장치는 외향성에 대한 점수 범위에 매칭되는 눈의 모양, 직관성에 대한 점수 범위에 매칭되는 복장, 사고형에 대한 점수 범위에 매칭되는 성별 및 판단형에 대한 점수 범위에 매칭되는 악세서리에 따라 기본 가상 캐릭터를 결정할 수 있다. 여기서, 점수 범위는 10점 단위로, 10개의 범위를 포함할 수 있다. 예를 들어, 각 유형의 점수 범위에 매칭되는 외형 정보는 제1 장치에 사전 설정되거나, 네트워크로부터 수신될 수 있다.
부가적으로, 예를 들어, 제1 장치는 사용자의 유형 및 사용자와 관련된 정보에 기반하여 상기 상점과 관련된 가상 캐릭터의 음성 정보를 결정할 수 있다. 예를 들어, 가상 캐릭터에 대한 목소리의 크기는 상기 사용자의 유형에서 외향성에 대한 점수에 기반하여 결정될 수 있다. 예를 들어, 상기 사용자의 유형에서 외향성에 대한 점수가 클수록, 가상 캐릭터에 대한 목소리의 진폭이 크게 결정될 수 있다. 예를 들어, 가상 캐릭터에 대한 목소리의 높낮이는 상기 사용자의 유형에서 감정형에 대한 점수에 기반하여 결정될 수 있다. 예를 들어, 상기 사용자의 유형에서 감정형에 대한 점수가 클수록, 가상 캐릭터에 대한 목소리의 진동수가 높게 결정될 수 있다. 예를 들어, 가상 캐릭터의 음성 속도는 상기 사용자의 심박수에 기반하여 결정될 수 있다. 예를 들어, 상기 사용자의 심박수가 클수록, 상기 가상 캐릭터의 음성 속도가 빠르게 결정될 수 있다. 예를 들어, 상기 사용자의 유형에 따라 상기 가상 캐릭터에 대한 목소리의 파형이 상이하게 결정될 수 있다.
단계 S904에서, 제1 장치는 사용자의 심박수에 따라 가상 캐릭터의 크기를 결정할 수 있다. 예를 들어, 사용자의 심박수가 높을수록, 제1 장치는 가상 캐릭터의 크기를 크게 결정할 수 있다. 또는, 사용자의 심박수가 낮을수록, 제1 장치는 가상 캐릭터의 크기를 작게 결정할 수 있다. 여기서, 사용자의 심박수에 대한 정보는 사용자의 생체 정보에 포함될 수 있으며, 제1 장치의 센서 모듈을 통해 상기 사용자의 심박수가 측정될 수 있다.
단계 S905에서, 제1 장치는 사용자의 수면시간에 따라 가상 캐릭터의 눈 크기를 결정할 수 있다. 예를 들어, 사용자의 수면시간이 길수록, 제1 장치는 가상 캐릭터의 눈 크기를 크게 결정할 수 있다. 또는, 사용자의 수면시간이 짧을수록, 제1 장치는 가상 캐릭터의 눈 크기를 작게 결정할 수 있다. 여기서, 사용자의 수면시간에 대한 정보는 사용자의 생체 정보에 포함될 수 있다. 또한, 사용자의 수면시간은 제1 장치의 동작 시간에 기반하여 결정될 수 있다. 예를 들어, 제1 장치가 저녁 11시부터 아침 7시까지 상기 제1 장치의 입력 모듈 및 디스플레이 모듈을 통해 직접적인 입력을 받지 못한 경우, 제1 장치는 사용자의 수면 시간을 8시간으로 결정할 수 있다.
단계 S906에서, 제1 장치는 상기 상점과 상기 제1 장치의 거리가 사전 설정된 범위 이내인지 여부를 결정할 수 있다.
예를 들어, 제1 장치는 GNSS로부터 수신한 위치 정보와 상기 상점의 위치 정보에 기반하여 현재 제1 장치와 상기 상점의 거리를 결정할 수 있다. 그리고, 제1 장치는 상기 거리가 사전 설정된 범위 이내인지 여부를 결정할 수 있다. 예를 들어, 사전 설정된 범위는 제1 장치가 처음 상점을 결정할 때 측정한 상점과 제1 장치의 거리의 10%일 수 있다. 또는 예를 들어, 사전 설정된 범위는 제1 장치가 처음 상점을 결정할 때 측정한 상점과 제1 장치의 거리, 사용자의 유형에 대한 점수 및 사용자와 관련된 정보를 기반으로 결정될 수 있다.
단계 S907에서, 상기 상점과 상기 제1 장치의 거리가 사전 설정된 범위 이내인 경우, 제1 장치는 가상 캐릭터의 크기를 감소시키고, 가상 캐릭터의 주변에 특수 효과를 디스플레이할 수 있다. 즉, 상기 상점과 상기 제1 장치의 거리가 사전 설정된 범위 이내인 경우, 제1 장치는 가상 캐릭터의 크기를 감소시키고, 특수 효과를 디스플레이함으로써, 상기 상점과의 거리가 가깝다는 것을 사용자에게 알릴 수 있다.
단계 S908에서, 제1 장치는 사용자의 걸음수가 임계 값을 초과하는지 여부를 결정할 수 있다. 여기서, 사용자의 걸음수에 대한 정보는 사용자의 생체 정보에 포함될 수 있다. 또한, 사용자의 걸음수는 제1 장치의 센서 모듈을 통해 측정될 수 있다. 여기서, 상기 임계 값은 사용자의 유형 및 사용자와 관련된 정보에 기반하여 결정될 수 있다.
예를 들어, 상기 임계 값은 하기 수학식 2에 의해 결정될 수 있다.
Figure pat00006
상기 수학식 2에서, Kth는 임계 값이고, w는 사용자의 몸무게, h는 사용자의 키, gk는 사용자의 유형에서 감정형에 대한 점수와 인식형에 대한 점수의 합, a는 사용자의 나이에 따른 가중치일 수 있다. 여기서, 감정형에 대한 점수는 100점에서 상술한 사고형에 대한 점수를 뺀 값일 수 있고, 인식형에 대한 점수는 100점에서 상술한 판단형에 대한 점수를 뺀 값일 수 있다. 예를 들어, 가중치는 10대에서 30대는 0.25, 40대에서 60대는 0.15, 70대에서 80대는 0.1로 사전 설정될 수 있다.
단계 S909에서, 사용자의 걸음수가 임계 값을 초과하면, 제1 장치는 상품과 관련된 할인 정보를 디스플레이할 수 있고, 가상 캐릭터의 색상을 변경할 수 있다. 여기서, 상품과 관련된 할인 정보는 제1 장치에 의해 결정된 상품의 구매 가격을 할인할 수 있는 정보일 수 있다. 예를 들어, 상품과 관련된 할인 정보는 제1 장치에 대해 사전 설정될 수 있고, 네트워크로부터 수신될 수 있다. 예를 들어, 사용자의 걸음수가 임계 값을 초과하면, 제1 장치는 가상 캐릭터의 색상을 랜덤하게 선택할 수 있다.
단계 S910에서, 제1 장치는 상기 제1 장치가 사전 설정된 위치에 도달하였는지 여부를 결정할 수 있다. 예를 들어, 제1 장치는 상기 제1 장치가 사전 설정된 위치에 도달한 경우, 상기 가상 캐릭터가 상기 상품에 도달한 것으로 결정할 수 있다. 예를 들어, 사전 설정된 위치는 상기 상점 내 상기 상품이 진열된 위치에서 특정 범위 내에 있는 좌표일 수 있다.
단계 S911에서, 제1 장치가 사전 설정된 위치에 도달한 것에 기반하여, 제1 장치는 가상 캐릭터에 대한 디스플레이를 종료할 수 있다.
상기 도 9의 실시예는 하나의 예이며, 제1 장치는 각각의 판단 과정을 독립적으로 수행할 수 있다. 또는, 예를 들어, 제1 장치는 각각의 판단 과정들을 병렬적으로 수행할 수 있다.
도 10은 일 실시예에 따른 제1 장치가 주변의 장치들에 대한 정보를 서버에 전송하는 동작을 나타낸 신호 교환도이다. 도 11은 일 실시예에 따른 제1 장치가 주변의 장치들과 연결된 화면을 나타낸다. 도 10 및 도 11의 실시예들은 본 개시의 다양한 실시예들과 결합될 수 있다.
도 10을 참조하면, 단계 S1010에서, 제1 장치는 주변의 장치들(제2 장치, 제3 장치 및 제4 장치)에게 연결을 요청하는 메시지를 전송할 수 있다. 예를 들어, 상기 연결을 요청하는 메시지는 근접한 장치들과 통신을 수행하기 위해 근접한 장치들에게 자신을 알리기 위한 메시지일 수 있다. 예를 들어, 연결을 요청하는 메시지는 제1 장치의 식별 정보, 제1 장치의 위치 정보 및 제1 장치의 능력 정보를 포함할 수 있다. 여기서, 식별 정보는 장치를 식별하기 위한 정보일 수 있고, 능력 정보는 장치의 성능에 대한 정보 및 장치의 통신 상태에 대한 정보를 포함할 수 있다. 예를 들어, 장치의 성능에 대한 정보는 상기 장치의 사양에 대한 정보 또는 상기 장치에서 실행 중인 사전 설정된 프로그램에 대한 fps(frames per second) 값을 포함할 수 있다. 예를 들어, 장치의 통신 상태에 대한 정보는 RSRP(reference signal received power) 또는 RSSI(received signal strength indicator)와 같은 통신 상태를 나타내는 값을 포함할 수 있다. 예를 들어, 상기 연결을 요청하는 메시지는 브로드 캐스트 메시지일 수 있다.
단계 S1020에서, 제1 장치는 제2 장치 및 제3 장치로부터 연결을 수락하는 메시지를 수신할 수 있다. 예를 들어, 제2 장치 및 제3 장치는 상기 연결을 요청하는 메시지를 수신하는 것에 기반하여, 제1 장치에게 연결을 수락하는 메시지를 전송할 수 있다. 이때, 주변 장치들로부터 수신한 연결을 수락하는 메시지는 주변 장치의 식별 정보, 주변 장치의 위치 정보 및 주변 장치의 능력 정보를 포함할 수 있다. 예를 들어, 제3 장치로부터 수신한 연결을 수락하는 메시지는 제3 장치의 식별 정보, 제3 장치의 위치 정보 및 제3 장치의 능력 정보를 포함할 수 있다.
단계 S1030에서, 제1 장치는 제2 장치 및 제3 장치와 연결을 확립할 수 있다. 예를 들어, 제1 장치는 제2 장치의 위치 정보 및 제3 장치의 위치 정보에 기반하여 상기 제1 장치와 제2 장치 및 제3 장치 사이의 각각의 거리를 결정할 수 있다. 예를 들어, 제1 장치는 제2 장치 및 제3 장치와 RRC(radio resource control) 연결을 확립할 수 있다. 여기서, RRC 연결은 RRC 계층 사이에서의 무선 연결을 포함할 수 있다. 예를 들어, 상기 연결을 요청하는 메시지는 RRC 연결을 요청하는 메시지를 포함할 수 있다. 예를 들어, 상기 연결을 수락하는 메시지는 RRC 연결을 수락하는 메시지를 포함할 수 있다.
예를 들어, 상기 제3 장치의 능력 정보에 대한 값이 사전 설정된 능력 정보에 대한 값보다 작은 경우, 제1 장치는 상기 연결을 수락하는 메시지를 수신함에도 불구하고, 제3 장치와 연결을 확립하지 않을 수 있다.
예를 들어, 제3 장치의 능력 정보에 대한 값은 하기 수학식 3에 의해 결정될 수 있다.
Figure pat00007
상기 수학식 3에서, C는 장치의 능력 정보에 대한 값이고, RSSI는 상기 장치로부터 측정된 RSSI(received signal strength indicator) 값이고, fps는 상기 장치로부터 측정된 fps(frames per second) 값일 수 있다. 여기서, RSSI는 장치가 수신한 신호 강도의 세기일 수 있다. 예를 들어, RSSI는 음의 dB값으로 측정될 수 있다. 이때, RSSI의 절대 값이 작을수록 수신 강도가 강하므로, 해당 장치의 통신 상태가 양호하다고 간주할 수 있다. 여기서, fps는 1초 동안 영상에서 보여지는 프레임 수일 수 있다. 예를 들어, 상기 fps 값은 장치에 의해 실행된 사전 설정된 프로그램의 화면에 대한 fps 값일 수 있다.
예를 들어, 상기 사전 설정된 능력 정보에 대한 값은 하기 수학식 4에 의해 설정될 수 있다.
Figure pat00008
상기 수학식 4에서, Cth는 사전 설정된 능력 정보에 대한 값이고, n은 사전 설정된 시간 간격으로 측정된 횟수일 수 있다. Ri는 상기 장치로부터 측정된 i번째 RSSI 값이고, Fi는 상기 장치로부터 측정된 i번째 fps 값일 수 있다. 예를 들어, 상기 fps 값은 장치에 의해 실행된 사전 설정된 프로그램의 화면에 대한 fps 값일 수 있다.
도 11을 참조하면, 제1 장치와 제2 장치 및 제3 장치와의 연결이 확립되면, 제1 장치는 제2 장치 및 제3 장치로부터 상기 제2 장치에서 생성된 가상 캐릭터에 대한 정보와 상기 제3 장치에서 생성된 가상 캐릭터에 대한 정보를 수신할 수 있다. 그리고, 제1 장치는 제1 장치에 구비된 카메라를 통해 촬영된 영상에 상기 제2 장치에서 생성된 가상 캐릭터(1112)와 상기 제3 장치에서 생성된 가상 캐릭터(1113)를 중첩한 영상(1110)을 상기 제1 장치의 화면에 출력할 수 있다.
또한, 예를 들어, 상기 제3 장치와의 연결 상태가 불량한 경우, 제1 장치는 상기 제3 장치와의 연결을 해제하면서 상기 제3 장치에서 생성된 가상 캐릭터(1113)를 출력하지 않을 수 있다.
단계 S1040에서, 제1 장치는 연결이 확립된 제2 장치 및 제3 장치에 대한 정보를 서버에게 전송할 수 있다. 예를 들어, 제1 장치는 제1 장치의 식별 정보, 제1 장치의 위치 정보 및 제1 장치의 능력 정보와 함께 상기 제2 장치 및 제3 장치의 식별 정보, 상기 제2 장치 및 제3 장치의 위치 정보 및 상기 제2 장치 및 제3 장치의 능력 정보를 서버에게 전송할 수 있다.
단계 S1050에서, 제1 장치는 서버로부터 보상 메시지를 수신할 수 있다. 예를 들어, 상기 제1 장치와 연결된 장치가 두 개 이상인 것에 기반하여, 서버는 상기 보상 메시지를 상기 제1 장치에게 전송될 수 있다. 예를 들어, 상기 보상 메시지는 상품과 관련된 추가 할인 정보 및 구매와 관련된 마일리지 정보를 포함할 수 있다. 이후, 제1 장치는 상기 상품과 관련된 추가 할인 정보 및 구매와 관련된 마일리지 정보를 상기 제1 장치에 구비된 디스플레이 모듈에 디스플레이함으로써, 제1 장치의 사용자에게 추가적인 할인에 대한 정보와 구매 시 획득할 수 있는 마일리지에 대한 정보를 제공할 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (12)

  1. 사용자의 유형 및 상기 사용자와 관련된 정보를 기초로 증강현실을 이용하여 제1 장치가 상품을 추천하는 방법에 있어서,
    GNSS(global navigation satellite system)로부터 수신된 상기 제1 장치의 위치 정보 및 상기 제1 장치에 구비된 카메라에 의해 획득된 영상 정보에 기반하여 상기 제1 장치의 위치를 결정하는 단계;
    상기 영상 정보에 포함된 하나 이상의 객체를 인식하고, 상기 하나 이상의 객체의 위치를 분석하는 단계;
    상기 제1 장치의 위치 및 상기 하나 이상의 객체에 매칭되는 복수의 유형 테스트 정보를 상기 영상 정보에 중첩한 제1 증강현실 영상을 출력하는 단계;
    상기 복수의 유형 테스트 정보를 기초로 선택된 값에 기반하여 상기 사용자의 유형을 결정하는 단계;
    상기 사용자의 유형 및 상기 사용자와 관련된 정보에 기반하여 뉴럴 네트워크를 이용하여 상점 및 상기 상점과 관련된 상품을 결정하는 단계;
    상기 하나 이상의 객체의 위치에 기반하여 상기 상점으로 이동하는 상기 상점과 관련된 가상 캐릭터를 상기 영상 정보에 중첩한 제2 증강현실 영상을 출력하는 단계; 및
    상기 영상 정보에 포함된 사전 설정된 상기 상점과 관련된 마커에 기반하여, 가상 공간과 가상 상품을 상기 영상 정보에 중첩한 제3 증강현실 영상을 출력하는 단계를 포함하되,
    상기 가상 캐릭터에 대한 외형 정보 및 음성 정보는 상기 사용자의 유형 및 상기 사용자와 관련된 정보에 기반하여 결정되고,
    상기 상점 내에서 상기 상점과 관련된 상품이 진열된 위치에 상기 가상 캐릭터가 도달한 것에 기반하여, 상기 가상 캐릭터에 대한 디스플레이가 종료되고,
    상기 사용자와 관련된 정보는 상기 제1 장치에 입력된 상기 사용자의 개인 정보, 상기 제1 장치에 입력된 사용자의 생체 정보, 상기 제1 장치에 저장된 검색 기록 정보 및 상기 제1 장치에 저장된 구매 이력 정보를 포함하는,
    방법.
  2. 제 1항에 있어서,
    상기 GNSS로부터 수신한 위치 정보에 기반하여 상기 제1 장치가 위치한 장소가 결정되고,
    상기 하나 이상의 객체에 대해 특징점이 검출되고,
    상기 장소와 관련된 이미지 정보 및 상기 특징점의 좌표에 대한 변화에 기반하여 상기 장소 내 상기 제1 장치의 위치가 결정되는,
    방법.
  3. 제 2항에 있어서,
    상기 하나 이상의 객체에 대한 특징점은 사전 저장된 복수의 영상 정보를 기반으로 인식 모델에 의해 학습되고,
    상기 사전 저장된 복수의 영상 정보로부터 획득된 3차원 모델링 정보 및 상기 하나 이상의 객체에 대한 특징점에 기반하여 상기 하나 이상의 객체가 인식되고, 및 상기 하나 이상의 객체의 위치가 결정되는,
    상기 뉴럴 네트워크는 입력 레이어, 하나 이상의 히든 레이어 및 출력 레이어를 포함하고,
    상기 3차원 모델링 정보 및 정답 특징점으로 구성된 각각의 학습 데이터는 상기 뉴럴 네트워크의 상기 입력 레이어에 입력되고, 상기 하나 이상의 히든 레이어 및 출력 레이어를 통과하여 출력 벡터를 출력하고, 상기 출력 벡터는 상기 출력 레이어에 연결된 손실함수 레이어에 입력되고, 상기 손실함수 레이어는 상기 출력 벡터와 각각의 학습 데이터에 대한 정답 벡터를 비교하는 손실 함수를 이용하여 손실값을 출력하고, 상기 뉴럴 네트워크의 파라미터는 상기 손실값이 작아지는 방향으로 학습되는 것에 따라, 상기 인식 모델이 상기 뉴럴 네트워크를 통해 생성되는,
    방법.
  4. 제 1항에 있어서,
    상기 상점은 상기 제1 장치의 위치로부터 임계 범위 내에 위치한 가장 근접한 상점이고,
    상기 임계 범위는 사전 설정된 초기 거리 내에 상기 상점이 존재하지 않는 것에 기반하여 사전 설정된 값만큼 증가된 범위인,
    방법.
  5. 제 4항에 있어서,
    상기 사전 설정된 초기 거리는 아래 수학식에 의해 설정되고,
    Figure pat00009

    상기 수학식에서, d는 상기 사전 설정된 초기 거리이고, k는 상기 제1 장치에 입력된 상기 사용자의 평균 걸음 수, g는 상기 사용자의 유형과 관련된 점수, s는 상기 상품의 검색 횟수, n은 상기 상품의 구매 횟수, w는 상기 제1 장치에 입력된 상기 사용자의 몸무게이고, a는 상기 제1 장치에 입력된 상기 사용자의 나이인,
    방법.
  6. 사용자의 유형 및 상기 사용자와 관련된 정보를 기초로 증강현실을 이용하여 상품을 추천하는 제1 장치에 있어서,
    하나 이상의 메모리; 및 상기 하나 이상의 메모리와 하나 이상의 기능 모듈을 연결하는 하나 이상의 프로세서를 포함하는 제어부; 및
    디스플레이 모듈, 센서 모듈, 오디오 모듈, 카메라 모듈 및 통신 모듈을 포함하는 상기 하나 이상의 기능 모듈을 포함하되,
    상기 하나 이상의 프로세서는:
    상기 통신 모듈을 통해 GNSS(global navigation satellite system)로부터 수신된 상기 제1 장치의 위치 정보 및 상기 카메라 모듈에 의해 획득된 영상 정보에 기반하여 상기 제1 장치의 위치를 결정하고,
    상기 영상 정보에 포함된 하나 이상의 객체를 인식하고, 상기 하나 이상의 객체의 위치를 분석하고,
    상기 제1 장치의 위치 및 상기 하나 이상의 객체에 매칭되는 복수의 유형 테스트 정보를 상기 영상 정보에 중첩한 제1 증강현실 영상을 상기 디스플레이 모듈 및 상기 오디오 모듈을 통해 출력하고,
    상기 복수의 유형 테스트 정보를 기초로 선택된 값에 기반하여 상기 사용자의 유형을 결정하고,
    상기 사용자의 유형 및 상기 사용자와 관련된 정보에 기반하여 뉴럴 네트워크를 이용하여 상점 및 상기 상점과 관련된 상품을 결정하되,
    상기 하나 이상의 객체의 위치에 기반하여 상기 상점으로 이동하는 상기 상점과 관련된 가상 캐릭터를 상기 영상 정보에 중첩한 제2 증강현실 영상을 상기 디스플레이 모듈 및 상기 오디오 모듈을 통해 출력하고,
    상기 영상 정보에 포함된 사전 설정된 상기 상점과 관련된 마커에 기반하여, 가상 공간과 가상 상품을 상기 영상 정보에 중첩한 제3 증강현실 영상을 상기 디스플레이 모듈 및 상기 오디오 모듈을 통해 출력하고,
    상기 가상 캐릭터에 대한 외형 정보 및 음성 정보는 상기 사용자의 유형 및 상기 사용자와 관련된 정보에 기반하여 결정되고,
    상기 상점 내에서 상기 상점과 관련된 상품이 진열된 위치에 상기 가상 캐릭터가 도달한 것에 기반하여, 상기 가상 캐릭터에 대한 출력이 종료되고,
    상기 사용자와 관련된 정보는 상기 제1 장치에 입력된 상기 사용자의 개인 정보, 상기 제1 장치에 입력된 사용자의 생체 정보, 상기 제1 장치에 저장된 검색 기록 정보 및 상기 제1 장치에 저장된 구매 이력 정보를 포함하는,
    제1 장치.
  7. 제 6항에 있어서,
    상기 GNSS로부터 수신한 위치 정보에 기반하여 상기 제1 장치가 위치한 장소가 결정되고,
    상기 하나 이상의 객체에 대해 특징점이 검출되고,
    상기 장소와 관련된 이미지 정보 및 상기 특징점의 좌표에 대한 변화에 기반하여 상기 장소 내 상기 제1 장치의 위치가 결정되는,
    제1 장치.
  8. 제 7항에 있어서,
    상기 하나 이상의 객체에 대한 특징점은 사전 저장된 복수의 영상 정보를 기반으로 인식 모델에 의해 학습되고,
    상기 사전 저장된 복수의 영상 정보로부터 획득된 3차원 모델링 정보 및 상기 하나 이상의 객체에 대한 특징점에 기반하여 상기 하나 이상의 객체가 인식되고, 및 상기 하나 이상의 객체의 위치가 결정되는,
    상기 뉴럴 네트워크는 입력 레이어, 하나 이상의 히든 레이어 및 출력 레이어를 포함하고,
    상기 3차원 모델링 정보 및 정답 특징점으로 구성된 각각의 학습 데이터는 상기 뉴럴 네트워크의 상기 입력 레이어에 입력되고, 상기 하나 이상의 히든 레이어 및 출력 레이어를 통과하여 출력 벡터를 출력하고, 상기 출력 벡터는 상기 출력 레이어에 연결된 손실함수 레이어에 입력되고, 상기 손실함수 레이어는 상기 출력 벡터와 각각의 학습 데이터에 대한 정답 벡터를 비교하는 손실 함수를 이용하여 손실값을 출력하고, 상기 뉴럴 네트워크의 파라미터는 상기 손실값이 작아지는 방향으로 학습되는 것에 따라, 상기 인식 모델이 상기 뉴럴 네트워크를 통해 생성되는,
    제1 장치.
  9. 제 6항에 있어서,
    상기 상점은 상기 제1 장치의 위치로부터 임계 범위 내에 위치한 가장 근접한 상점이고,
    상기 임계 범위는 사전 설정된 초기 거리 내에 상기 상점이 존재하지 않는 것에 기반하여 사전 설정된 값만큼 증가된 범위인,
    제1 장치.
  10. 제 9항에 있어서,
    상기 사전 설정된 초기 거리는 아래 수학식에 의해 설정되고,
    Figure pat00010

    상기 수학식에서, d는 상기 사전 설정된 초기 거리이고, k는 상기 제1 장치에 입력된 상기 사용자의 평균 걸음 수, g는 상기 사용자의 유형과 관련된 점수, s는 상기 상품의 검색 횟수, n은 상기 상품의 구매 횟수, w는 상기 제1 장치에 입력된 상기 사용자의 몸무게이고, a는 상기 제1 장치에 입력된 상기 사용자의 나이인,
    제1 장치.
  11. 하드웨어와 결합되어 제6항의 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.
  12. 하드웨어와 결합되어 제6항의 방법을 실행시키기는 컴퓨터 프로그램이 저장된 컴퓨터 판독 가능한 기록매체.
KR1020220164374A 2022-05-12 2022-11-30 사용자의 유형 및 사용자와 관련된 정보를 기초로 증강현실을 이용하여 상품을 추천하는 방법 및 장치 KR20220166764A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR20220058446 2022-05-12
KR1020220058446 2022-05-12
KR1020220058711 2022-05-13
KR20220058711 2022-05-13
KR1020220059737A KR102474122B1 (ko) 2022-05-12 2022-05-16 사용자의 유형 및 사용자와 관련된 정보를 기초로 증강현실을 이용하여 상품을 추천하는 방법 및 장치

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020220059737A Division KR102474122B1 (ko) 2022-05-12 2022-05-16 사용자의 유형 및 사용자와 관련된 정보를 기초로 증강현실을 이용하여 상품을 추천하는 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20220166764A true KR20220166764A (ko) 2022-12-19

Family

ID=84407297

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020220059737A KR102474122B1 (ko) 2022-05-12 2022-05-16 사용자의 유형 및 사용자와 관련된 정보를 기초로 증강현실을 이용하여 상품을 추천하는 방법 및 장치
KR1020220164356A KR20220167259A (ko) 2022-05-12 2022-11-30 사용자의 유형 및 사용자와 관련된 정보를 기초로 증강현실을 이용하여 상품을 추천하는 방법 및 장치
KR1020220164374A KR20220166764A (ko) 2022-05-12 2022-11-30 사용자의 유형 및 사용자와 관련된 정보를 기초로 증강현실을 이용하여 상품을 추천하는 방법 및 장치

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020220059737A KR102474122B1 (ko) 2022-05-12 2022-05-16 사용자의 유형 및 사용자와 관련된 정보를 기초로 증강현실을 이용하여 상품을 추천하는 방법 및 장치
KR1020220164356A KR20220167259A (ko) 2022-05-12 2022-11-30 사용자의 유형 및 사용자와 관련된 정보를 기초로 증강현실을 이용하여 상품을 추천하는 방법 및 장치

Country Status (1)

Country Link
KR (3) KR102474122B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102617577B1 (ko) * 2023-01-20 2023-12-27 (주)코딩앤플레이 지능형 캐릭터 생성 시스템의 제어 방법

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150075532A (ko) * 2013-12-26 2015-07-06 한국전자통신연구원 증강 현실 제공 장치 및 방법
KR101597223B1 (ko) * 2015-05-22 2016-03-07 김명락 사용자의 요구정보와 이동정보를 기반으로 사용자와 매장을 중개하는 방법, 장치 및 컴퓨터 판독가능 기록매체
KR20180002944A (ko) * 2016-06-29 2018-01-09 한밭대학교 산학협력단 개인 선호별 최적의 상품 제안을 위한 빅데이터 추천시스템 및 추천방법
CN107016452A (zh) * 2016-11-30 2017-08-04 阿里巴巴集团控股有限公司 基于增强现实的线下交互方法及装置
KR101992424B1 (ko) * 2018-02-06 2019-06-24 (주)페르소나시스템 증강현실용 인공지능 캐릭터의 제작 장치 및 이를 이용한 서비스 시스템
KR20200071865A (ko) * 2018-12-05 2020-06-22 중앙대학교 산학협력단 차원 축소에 기반한 영상 객체 인식 시스템 및 방법

Also Published As

Publication number Publication date
KR102474122B1 (ko) 2022-12-06
KR20220167259A (ko) 2022-12-20

Similar Documents

Publication Publication Date Title
KR102467890B1 (ko) 뉴럴 네트워크를 이용하여 서버가 도면과 관련된 물품에 대한 정보를 제공하는 방법 및 장치
KR102408462B1 (ko) 뉴럴 네트워크를 이용한 의상 추천 방법 및 장치
KR102360727B1 (ko) 뉴럴 네트워크를 이용한 차량 추천 방법 및 장치
KR102474122B1 (ko) 사용자의 유형 및 사용자와 관련된 정보를 기초로 증강현실을 이용하여 상품을 추천하는 방법 및 장치
KR102484291B1 (ko) 뉴럴 네트워크를 이용하여 서버가 구직자 리스트를 단말에게 제공하는 방법 및 장치
KR102476292B1 (ko) 인공지능을 이용하여 차량의 페달 박스 촬영 영상 데이터를 가공하는 블랙박스 관리 시스템
KR102553169B1 (ko) 브랜드의 개선을 위한 솔루션을 제공하는 방법 및 장치
KR102479512B1 (ko) 성과 지향 교육 방법, 그 방법을 수행하는 서버 및 단말기
KR102433654B1 (ko) 뉴럴 네트워크를 이용하여 서버가 색상 이미지에 기반한 심리 상태와 관련된 정보를 단말에게 제공하는 방법 및 장치
KR102468206B1 (ko) 뉴럴 네트워크를 이용한 크리에이팅 보조 방법, 그 방법을 수행하는 서버 및 단말기
KR20230168097A (ko) 웹툰의 장르 값에 기반하여 웹툰의 유사도를 결정하는 방법 및 장치
KR102562282B1 (ko) 성향 기반 매칭 방법 및 장치
KR102487754B1 (ko) 뉴럴 네트워크를 이용하여 서버가 마케팅 비용에 대한 정보를 단말에게 제공하는 방법 및 장치
KR102554242B1 (ko) 뉴럴 네트워크를 이용하여 서버가 이벤트와 관련된 메시지를 단말에게 제공하는 방법 및 장치
KR102497016B1 (ko) 농산물 추천 방법 및 장치
KR102465106B1 (ko) 뉴럴 네트워크를 이용한 주식 종목 분석 방법 및 장치
KR102486525B1 (ko) 뉴럴 네트워크를 이용한 nft 발행 방법 및 장치
KR102493490B1 (ko) 인공 지능을 이용한 데이터 크롤링 시스템
KR102564511B1 (ko) 사용자 커스터마이징 기반의 메뉴판 인터페이스 제공 장치 및 방법
KR102590839B1 (ko) 뉴럴 네트워크 기반의 컨텍스트 분석을 통한 진로 상담 컨텐츠 제공 시스템
KR102513048B1 (ko) 뉴럴 네트워크를 이용하여 지원 사업과 관련된 리포트 정보 및 지원 사업과 관련된 진행 정보를 기반으로 진단 정보를 멘토 단말에게 전송하는 방법 및 장치
KR102485428B1 (ko) 뉴럴 네트워크를 이용하여 사용자와 관련된 기업 리스트를 단말에게 제공하는 방법 및 장치
KR102607631B1 (ko) 인공지능 기반의 농축산물 직거래 플랫폼 서비스 제공 방법 및 시스템
KR102563678B1 (ko) 학습된 뉴럴 네트워크를 이용하여 맞춤형 학습 서비스를 제공하는 서버 및 동작 방법
KR102585090B1 (ko) 뉴럴 네트워크를 이용하여 웹툰과 연동된 게임을 사용자 단말에게 제공하는 방법 및 장치

Legal Events

Date Code Title Description
A107 Divisional application of patent