KR20170082779A - 서비스를 제공하기 위한 방법 및 그 전자 장치 - Google Patents

서비스를 제공하기 위한 방법 및 그 전자 장치 Download PDF

Info

Publication number
KR20170082779A
KR20170082779A KR1020160001970A KR20160001970A KR20170082779A KR 20170082779 A KR20170082779 A KR 20170082779A KR 1020160001970 A KR1020160001970 A KR 1020160001970A KR 20160001970 A KR20160001970 A KR 20160001970A KR 20170082779 A KR20170082779 A KR 20170082779A
Authority
KR
South Korea
Prior art keywords
user
electronic device
information
server
identification information
Prior art date
Application number
KR1020160001970A
Other languages
English (en)
Other versions
KR102321354B1 (ko
Inventor
한지연
송희준
고준호
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160001970A priority Critical patent/KR102321354B1/ko
Priority to PCT/KR2016/011756 priority patent/WO2017119578A1/en
Priority to US15/335,018 priority patent/US10257843B2/en
Publication of KR20170082779A publication Critical patent/KR20170082779A/ko
Application granted granted Critical
Publication of KR102321354B1 publication Critical patent/KR102321354B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/70Services for machine-to-machine communication [M2M] or machine type communication [MTC]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W72/00Local resource management
    • H04W72/50Allocation or scheduling criteria for wireless resources
    • H04W72/54Allocation or scheduling criteria for wireless resources based on quality criteria
    • H04W72/542Allocation or scheduling criteria for wireless resources based on quality criteria using measured or perceived quality
    • H04L67/18
    • H04L67/20
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • User Interface Of Digital Computer (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)

Abstract

다양한 실시 예들에 따른 디지털 미디어 기기(digital media device)는, 제어부와, 상기 제어부와 동작적으로 결합되는 통신부와, 상기 제어부와 동작적으로 결합되는 센서를 포함할 수 있고, 상기 제어부는, 이벤트가 발생한 경우, 객체(object)의 식별 정보를 수신하도록 구성될 수 있고, 상기 객체와 일정 반경 내에 있는 사용자의 상태 정보를 획득하도록 구성될 수 있으며, 상기 상태 정보에 기반하여 상기 객체에 대한 반응 정보를 생성하도록 구성될 수 있다.

Description

서비스를 제공하기 위한 방법 및 그 전자 장치{METHOD FOR PROVIDING SERVICE AND ELECTRONIC DEVICE THEREOF}
아래의 실시 예들은, 통신을 이용하여 서비스를 제공하는 전자 장치 및 그의 동작 방법에 관한 것이다.
최근 디지털 기술의 발달과 함께 이동통신 단말기, 스마트 폰(smart phone), 테블릿(tablet) PC(Personal Computer), PDA(Personal Digital Assistant), 전자수첩, 노트북(notebook), LFD(large format display), 디지털 간판(digital signage), DID(digital information display), 미러 디스플레이(mirror display), 또는 스마트워치(smart watch), 스마트 밴드(smart band), 스마트 옷 등을 포함하는 웨어러블 디바이스(wearable device) 등과 같은 다양한 유형의 전자 장치가 널리 사용되고 있다. 상기 전자 장치는, 다른 장치들의 기능까지 아우르는 모바일 컨버전스(mobile convergence) 단계에 이르고 있다. 예를 들어, 전자 장치는 음성통화 및 영상통화 등과 같은 통화 기능, SMS(Short Message Service)/MMS(Multimedia Message Service) 및 전자 메일(e-mail) 등과 같은 메시지 송수신 기능, 전자수첩 기능, 촬영 기능, 방송 재생 기능, 동영상 재생 기능, 음악 재생 기능, 인터넷 기능, 메신저 기능, 게임 기능, 또는 소셜 네트워크 서비스(SNS, Social Networking Service) 기능 등을 제공할 수 있다.
통신 기술의 발달로, 객체에 대한 사용자의 피드백을 실시간으로 반영할 수 있는 서비스가 요구되고 있다.
다양한 실시 예들에 따른 전자 장치 및 그의 동작 방법은, 사용자의 상태 정보에 기반하여 객체에 대한 피드백을 제공할 수 있다.
다양한 실시 예들에 따른 디지털 미디어 기기(digital media device)의 동작 방법은, 이벤트가 발생한 경우, 객체의 식별 정보를 상기 다른 전자 장치로부터 수신하는 단계와, 상기 객체와 일정 반경 내에 있는 사용자의 상태 정보를 획득하는 단계와, 상기 상태 정보에 기반하여 상기 객체에 대한 반응 정보를 생성하는 단계를 포함할 수 있다.
다양한 실시 예들에 따른 디지털 미디어 기기는, 제어부와, 상기 제어부와 동작적으로 결합되는 통신부와, 상기 제어부와 동작적으로 결합되는 센서를 포함할 수 있고, 상기 제어부는, 이벤트가 발생한 경우, 객체의 식별 정보를 수신하도록 구성될 수 있고, 상기 객체와 일정 반경 내에 있는 사용자의 상태 정보를 획득하도록 구성될 수 있고, 상기 상태 정보에 기반하여 상기 객체에 대한 반응 정보를 생성하도록 구성될 수 있다.
다양한 실시 예들에 따른 전자 장치 및 그의 동작 방법은, 통신을 이용하여 사용자에게 효율적으로 객체에 대한 서비스를 제공할 수 있다.
본 개시에 대한 보다 완전한 이해를 위해 첨부된 도면을 참고하여 다음의 상세한 설명이 이뤄진다. 도면에서 동일한 참조번호는 동일한 구성요소를 나타낸다.
도 1은 다양한 실시 예들에 따른 네트워크 환경을 도시한다.
도 2는 다양한 실시 예들에 따른 전자 장치의 기능적 블록 구성을 도시한다.
도 3은 다양한 실시 예들에 따른 서버의 기능적 블록 구성을 도시한다.
도 4는 다양한 실시 예들에 따른 사용자 장치의 기능적 블록 구성을 도시한다.
도 5는 다양한 실시 예들에 따른 다른 전자 장치의 기능적 블록 구성을 도시한다.
도 6은 다양한 실시 예들에 따른 전자 장치의 동작을 도시한 흐름도이다.
도 7은 다양한 실시 예들에 따른 전자 장치의 다른 동작을 도시한 흐름도이다.
도 8은 다양한 실시 예들에 따른 전자 장치의 또 다른 동작을 도시한 흐름도이다.
도 9a는 다양한 실시 예들에 따른 매장에 진입하는 사용자 장치의 동작을 도시한 흐름도이다.
도 9b는 다양한 실시 예들에 따른 사용자 장치의 매장 진입을 알리는 서버의 동작을 도시한 흐름도이다.
도 9c는 다양한 실시 예들에 따른 매장 진입 절차의 신호 흐름을 도시한다.
도 10a는 다양한 실시 예들에 따른 사용자와 객체의 근접 여부를 판정하는 전자 장치의 동작을 도시한 흐름도이다.
도 10b는 다양한 실시 예들에 따른 전자 장치가 근접한 객체와 사용자를 인지하는 절차의 신호 흐름을 도시한다.
도 11a는 다양한 실시 예들에 따른 객체의 상태 변화를 검출하는 다른 전자 장치의 동작을 도시한 흐름도이다.
도 11b는 다양한 실시 예들에 따른 객체의 식별 정보를 전달하는 서버의 동작을 도시한 흐름도이다.
도 11c는 다양한 실시 예들에 따른 객체의 상태 변화를 검출하는 신호 흐름을 도시한다.
도 12는 다양한 실시 예들에 따른 사용자와 객체의 근접 여부를 판정하는 전자 장치의 다른 동작을 도시한 흐름도이다.
도 13a는 다양한 실시 예들에 따른 객체에 대한 정보를 생성하는 전자 장치의 동작을 도시한 흐름도이다.
도 13b는 다양한 실시 예들에 따른 객체에 대한 정보의 생성 절차의 신호 흐름을 도시한다.
도 13c는 다양한 실시 예들에 따른 사용자의 상태 정보에 기반하여 객체에 대한 정보를 생성하는 전자 장치의 동작을 도시한 흐름도이다.
도 13d는 다양한 실시 예들에 따른 사용자의 상태 정보에 기반하여 객체에 대한 정보를 생성하는 전자 장치의 다른 동작을 도시한 흐름도이다.
도 13e는 다양한 실시 예들에 따른 사용자의 상태 정보에 기반하여 객체에 대한 정보를 생성하는 전자 장치의 또 다른 동작을 도시한 흐름도이다.
도 13f는 다양한 실시 예들에 따른 사용자의 상태 정보에 기반하여 객체에 대한 정보를 생성하는 전자 장치의 또 다른 동작을 도시한 흐름도이다.
도 13g는 다양한 실시 예들에 따른 복수의 사용자의 상태 정보에 기반하여 객체에 대한 정보를 생성하는 전자 장치의 동작을 도시한 흐름도이다.
도 14a는 다양한 실시 예들에 따른 메시지를 표시하는 전자 장치의 동작을 도시한 흐름도이다.
도 14b는 다양한 실시 예들에 따른 메시지를 송신하는 전자 장치의 동작을 도시한 흐름도이다.
도 14c는 다양한 실시 예들에 따른 메시지를 수신하여 표시하는 사용자 장치의 동작을 도시한 흐름도이다.
도 15a는 다양한 실시 예들에 따른 객체의 구매 여부에 따른 전자 장치의 동작을 도시한 흐름도이다.
도 15b는 다양한 실시 예들에 따른 피드백을 제공하는 서버의 동작을 도시한 흐름도이다.
도 15c는 다양한 실시 예들에 따른 메시지 송신 절차의 신호 흐름을 도시한다.
도 16은 다양한 실시 예들에 따른 장치들의 신호 흐름을 도시한다.
이하, 첨부된 도면을 참조하여 본 개시의 구체적인 실시 예를 상세히 설명하기로 한다. 본 개시의 실시 예들은 당해 기술 분야에서 통상의 지식을 가진 자에게 본 개시를 더욱 완전하게 설명하기 위하여 제공되는 것이며, 하기 실시 예는 여러 가지 다른 형태로 변형될 수 있으며, 본 개시의 범위가 하기 실시 예에 한정되는 것은 아니다. 오히려 이들 실시 예들은 본 개시를 더욱 충실하고 완전하게 하고, 당업자에게 본 개시의 사상을 완전하게 전달하기 위하여 제공되는 것이다.
명세서 전체에 걸쳐서, 막, 영역 또는 웨이퍼(기판) 등과 같은 하나의 구성요소가 다른 구성요소 "상에", "연결되어", 또는 "커플링되어" 위치한다고 언급할 때는, 상술한 하나의 구성요소가 직접적으로 다른 구성요소 "상에", "연결되어", 또는 "커플링되어" 접촉하거나, 그 사이에 개재되는 또 다른 구성요소들이 존재할 수 있다고 해석될 수 있다. 반면에, 하나의 구성요소가 다른 구성요소 "직접적으로 상에", "직접 연결되어", 또는 "직접 커플링되어" 위치한다고 언급할 때는, 그 사이에 개재되는 다른 구성요소들이 존재하지 않는다고 해석된다. 동일한 부호는 동일한 요소를 지칭한다. 본 문서에서 사용된 바와 같이, 용어 "및/또는"은 해당 열거된 항목 중 어느 하나 및 하나 이상의 모든 조합을 포함한다.
본 개시에서 제1, 제2 등의 용어가 다양한 부재, 부품, 영역, 층들 및/또는 부분들을 설명하기 위하여 사용되지만, 이들 부재, 부품, 영역, 층들 및/또는 부분들은 이들 용어에 의해 한정되어서는 안됨은 자명하다. 이들 용어는 하나의 부재, 부품, 영역, 층 또는 부분을 다른 영역, 층 또는 부분과 구별하기 위하여만 사용된다. 따라서, 이하 상술할 제1 부재, 부품, 영역, 층 또는 부분은 본 개시의 교시로부터 벗어나지 않고서도 제2 부재, 부품, 영역, 층 또는 부분을 지칭할 수 있다.
또한, "상의" 또는 "위의" 및 "하의" 또는 "아래의"와 같은 상대적인 용어들은 도면들에서 도해되는 것처럼 다른 요소들에 대한 어떤 요소들의 관계를 기술하기 위해 여기에서 사용될 수 있다. 상대적 용어들은 도면들에서 묘사되는 방향에 추가하여 구성요소의 다른 방향들을 포함하는 것을 의도한다고 이해될 수 있다. 예를 들어, 도면들에서 구성요소가 뒤집어 진다면(turned over), 다른 요소들의 상부의 면 상에 존재하는 것으로 묘사되는 요소들은 상술한 다른 요소들의 하부의 면 상에 방향을 가지게 된다. 그러므로, 예로써 든 "상의"라는 용어는, 도면의 특정한 방향에 의존하여 "하의" 및 "상의" 방향 모두를 포함할 수 있다. 구성 요소가 다른 방향으로 향한다면(다른 방향에 대하여 90도 회전), 본 명세서에 사용되는 상대적인 설명들은 이에 따라 해석될 수 있다.
본 개시에서 사용된 용어는 특정 실시 예를 설명하기 위하여 사용되며, 본 개시를 제한하기 위한 것이 아니다. 본 명세서에서 사용된 바와 같이, 단수 형태는 문맥상 다른 경우를 분명히 지적하는 것이 아니라면, 복수의 형태를 포함할 수 있다. 또한, 본 개시에서 사용되는 경우 "포함한다(comprise)" 및/또는 "포함하는(comprising)"은 언급한 형상들, 숫자, 단계, 동작, 부재, 요소 및/또는 이들 그룹의 존재를 특정하는 것이며, 하나 이상의 다른 형상, 숫자, 동작, 부재, 요소 및/또는 그룹들의 존재 또는 부가를 배제하는 것이 아니다.
이하, 본 개시의 실시 예들은 본 개시의 이상적인 실시 예들을 개략적으로 도시하는 도면들을 참조하여 설명한다. 도면들에 있어서, 예를 들면, 제조 기술 및/또는 공차(tolerance)에 따라, 도시된 형상의 변형들이 예상될 수 있다. 따라서, 본 개시의 실시 예는 본 문서에 도시된 영역의 특정 형상에 제한된 것으로 해석되어서는 아니 되며, 예를 들면 제조상 초래되는 형상의 변화를 포함하여야 한다. 이하 실시 예들은 하나 또는 복수 개를 조합하여 구성할 수도 있다.
이하에서 설명하는 다양한 실시 예들에 따른 전자 장치(electronic device)는 다양한 구성을 가질 수 있고 여기서는 필요한 구성만을 예시적으로 제시하며, 본 개시의 내용이 이에 한정되는 것은 아님을 밝혀둔다.
산업 기술의 발달에 따라, 다양한 객체들이 사용자에게 제공될 수 있다. 상기 다양한 객체들은 제조사의 입장에서 연구되거나, 개발될 수 있다. 또한, 통신 기술의 발달로, 유무선 통신을 이용한 빅 데이터가 상기 사용자, 상기 제조사 등에게 제공될 수 있다. 다양한 실시 예들에 따른 전자 장치는 유무선 통신을 통한 빅 데이터를 이용하여 사용자에게 객체에 대한 피드백(feedback)을 제공할 수 있다. 상기 전자 장치는 사용자의 상태 정보에 기반하여 제조사 등이 사용자의 요구(needs)를 반영할 수 있도록 제조사 등에게 빅 데이터를 통한 피드백을 제공할 수 있다.
도 1은 다양한 실시 예들에 따른 네트워크 환경을 도시한다.
상기 도 1을 참조하면, 네트워크 환경(100)은 전자 장치(110), 적어도 하나의 다른 전자 장치(115-1 내지 115-3)(설명의 편의를 위해 이하, 다른 전자 장치(115)로 지칭), 사용자 장치(UE, user equipment)(120), 서버(server)(125)를 포함할 수 있다.
상기 네트워크 환경(100)은 사용자에게 객체(object)를 제공할 수 있다. 상기 객체는 상업적 용도를 가질 수 있을 뿐 아니라, 비상업적 용도를 가질 수 있다. 상기 객체는 유체물을 포함할 수 있다. 상기 객체는 유체물에 한하지 않고 자연력(elemental forces)과 같은 무체물도 포함할 수 있다. 상기 유체물은 고정된 형상이 있는 것일 수 있다. 예를 들면, 상기 유체물은 자동차, 스마트 폰, 의류, 강아지 등의 애완동물 등일 수 있다. 상기 무체물은 고정된 형상이 없는 것일 수 있다. 예를 들면, 상기 무체물은 전기, 열, 빛, 향기 등일 수 있다. 상기 객체는 상품을 포함할 수 있다.
상기 네트워크 환경(100)은 상기 네트워크 환경(100)에 포함되는 구성 요소(예를 들면, 상기 전자 장치(110), 상기 다른 전자 장치(115), 상기 사용자 장치(120), 상기 서버(125) 등)를 이용하여 적어도 하나의 사용자(130)(설명의 편의를 위해 이하, 사용자(130)으로 지칭)에게 상기 객체에 대한 정보를 제공할 수 있다. 상기 네트워크 환경(100)은 상기 네트워크 환경(100)에 포함되는 상기 구성 요소를 이용하여 상기 객체에 대한 상기 사용자(130)의 의사를 판단할 목적으로 사용자의 상태 정보를 수집할 수 있다. 상기 네트워크 환경(100)은 상기 사용자(130)에게 상기 객체에 대한 피드백을 제공할 수 있다. 상기 네트워크 환경(100)은 제조사(미도시), 개발자(미도시) 등에게 상기 객체에 대한 피드백을 제공할 수 있다. 상기 피드백은 상기 수집된 사용자의 상태 정보에 기반하여 생성될 수 있다.
상기 전자 장치(110)은 상기 다른 전자 장치(115), 상기 사용자 장치(120), 및 상기 서버(125) 중 적어도 하나와 통신적으로 연결될 수도 있다. 상기 전자 장치(110)은 디지털 미디어 기기(digital media device)로 지칭될 수도 있다. 상기 전자 장치(110)은 상기 다른 전자 장치(115), 상기 사용자 장치(120), 및 상기 서버(125) 중 적어도 하나와 직접 연결될 수도 있다.
상기 전자 장치(110)은 상기 사용자(130)의 상태 정보를 수집할 수 있다. 상기 전자 장치(110)은 상기 전자 장치(110)에 포함된 표시부를 통해 상기 사용자(130)에게 상기 객체에 대한 피드백을 제공할 수 있다. 상기 전자 장치(110)은 상기 다른 전자 장치(115), 상기 사용자 장치(120), 및 상기 서버(125) 중 적어도 하나와 통신할 수 있다. 예를 들면, 상기 전자 장치(110)은 통신 기능을 구비한 LFD(large format display)일 수 있다. 상기 LFD는 디지털 간판(digital signage), 또는 DID(digital information display)일 수 있다. 다른 예를 들면, 상기 전자 장치(110)은 통신 기능을 구비한 미러 디스플레이(mirror display)일 수 있다.
상기 다른 전자 장치(115)는 상기 객체와 관련되는 장치일 수 있다. 상기 다른 전자 장치(115)는 상기 객체에 대응하는 장치일 수 있다. 상기 다른 전자 장치(115)는 상기 객체와 동작적으로 결합될 수 있다. 상기 다른 전자 장치(115)는 상기 객체와 1대1로 매칭될 수 있다. 일부 실시 예에서, 상기 다른 전자 장치(115)는 상기 객체와 n대 1, 1대n으로 매칭될 수 있다. 상기 n은 자연수(natural number)일 수 있으며, 소수(decimal)일 수 있다.
상기 다른 전자 장치(115)는 매장 내의 특정 영역 또는 위치에 고정되어 설치될 수 있다. 일부 실시 예에서, 상기 다른 전자 장치(115)는 이동성(mobility)을 가질 수 있다.
상기 다른 전자 장치(115)는 상기 전자 장치(110)에게 정보(information)를 제공할 수 있다. 예를 들면, 상기 정보는 상기 사용자(130)이 상기 다른 전자 장치(115)에 대응하는 객체를 이용(또는, 착용)하는지 여부, 또는 상기 다른 전자 장치(115)에 대응하는 객체의 상태가 업데이트되는지 여부 등일 수 있다.
상기 다른 전자 장치(115)는 통신 장치일 수 있다. 일부 실시 예에서 상기 다른 전자 장치(115)는 센서(sensor)일 수 있다.
상기 다른 전자 장치(115)는 상기 전자 장치(110)에게 근거리 무선 신호를 송신하는 장치를 포함할 수 있다. 상기 다른 전자 장치(115)는 다양한 형태로 구현될 수 있다. 예를 들면, 상기 다른 전자 장치(115)는 상기 다른 전자 장치(115)와 대응하는 객체에 내장된 형태로 구현될 수 있다. 다른 예를 들면, 상기 다른 전자 장치(115)는 대응하는 객체에 별도로 부착된 형태로 구현될 수 있다.
상기 사용자 장치(120)은 휴대폰(mobile phone), 스마트 폰(smart phone), 개인 정보 단말기(PDA, personal digital assistant), 휴대용 멀티미디어 플레이어(PMP, portable multimedia player), 디지털 카메라(digital camera), 음악 재생기(music player), 휴대용 게임 콘솔(portable game console), 네비게이션(navigation) 시스템, 랩탑 컴퓨터(laptop computer), 웨어러블 장치(wearable device) 등일 수 있다.
상기 사용자 장치(120)은 상기 사용자(130)에 대응하는 장치일 수 있다. 상기 사용자 장치(120)은 상기 사용자(130)과 1대1로 매칭되거나, 1대n, n대1로 매칭될 수 있다. 상기 n은 자연수(natural number)일 수 있으며, 소수(decimal)일 수 있다. 예를 들면, 상기 사용자 장치(120)은 상기 사용자 장치(120)을 소지한 자와 그의 일행과 매칭될 수도 있다.
상기 사용자 장치(120)은 상기 다른 전자 장치(115)와 통신적으로 연결될 수 있다. 예를 들어, 상기 사용자(130)이 상기 사용자 장치(120)을 소지하고 상기 네트워크 환경(100) 또는 상기 매장에 진입하는 경우, 상기 사용자 장치(120)은 상기 다른 전자 장치(115)와 동작적으로 또는 통신적으로 연결될 수 있다.
상기 사용자 장치(120)은 상기 전자 장치(110)에게 대응하는 사용자의 상태 정보를 제공할 수 있다. 상기 사용자 장치(120)은 상기 전자 장치(110)으로부터 상기 사용자와 관련된 객체에 대한 정보를 제공받을 수 있다.
상기 서버(125)는 상기 전자 장치(110), 상기 다른 전자 장치(115), 및 상기 사용자 장치(120) 중 적어도 하나와 통신적으로 연결될 수 있다. 일부 실시 예에서, 상기 서버(125)는 상기 전자 장치(110)과 결합되어 하나의 전자 장치로 구현될 수도 있다.
상기 서버(125)는 상기 네트워크 환경(100) 내에 위치될 수도 있고, 외부에 위치될 수도 있다. 예를 들면, 상기 서버(125)는 매장 내 서버일 수 있다. 다른 예를 들면, 상기 서버(125)는 매장 외부에 위치되는 서버(예: 클라우드(cloud) 서버)일 수 있다.
상기 서버(125)는 빅 데이터(big data)를 저장할 수 있다. 상기 빅 데이터는 디지털 환경에서 생성되는 데이터일 수 있다. 상기 빅 데이터는 다양한 데이터들을 포함할 수 있다. 예를 들면, 상기 빅 데이터는 사용자들의 행동, 위치 정보, 상기 객체에 대한 생각 등에 대한 데이터를 포함할 수 있다.
상기 서버(125)는 상기 서버(125)에 저장된 상기 빅 데이터를 이용하여 상기 전자 장치(110), 상기 다른 전자 장치(115), 상기 사용자 장치(120), 및 상기 사용자(130) 중 적어도 하나에게 정보를 제공할 수 있다. 상기 서버(125)는 상기 전자 장치(110), 상기 다른 전자 장치(115), 상기 사용자 장치(120), 및 상기 사용자(130) 중 적어도 하나로부터 상기 저장된 빅 데이터에 대한 정보를 제공받아, 상기 저장된 빅 데이터를 업데이트할 수 있다.
도 2는 다양한 실시 예들에 따른 전자 장치의 기능적 블록 구성을 도시한다. 상기 블록 구성은 상기 도 1에 도시된 상기 전자 장치(110)에 포함될 수 있다.
상기 도 2를 참조하면, 상기 전자 장치(110)은 통신부(205), 센서(210), 표시부(215), 제어부(220), 및/또는 저장부(225)를 포함할 수 있다.
상기 통신부(205)는 상기 전자 장치(110)과 외부 장치 간의 원거리 통신을 설정할 수 있다. 예를 들면, 어플리케이션의 실행 또는 제어를 위해, 상기 통신부(205)는 WAN (wide area network) 통신 방식을 통해 네트워크에 연결되어 외부 장치와 통신할 수 있다. 예를 들면, 상기 통신부(205)는 LTE (long term evolution), WiMAX (world wide interoperability for microwave access) 규격을 이용하여 다른 장치(예를 들면, 상기 도 1에 도시된 상기 다른 전자 장치(115), 상기 사용자 장치(120), 및 상기 서버(125))들과 통신을 수행할 수 있다. 다른 예를 들면, 상기 통신부(205)는 CDMA (code division multiple access), WCDMA(wideband code division multiple access), OFDM (orthogonal frequency multiple access), FBMC (filter bank multi carrier), NOMA(non orthogonal multiple access), SCMA (sparse code multiple access) 등의 다중 접속 방식을 이용하여 다른 장치들과 통신을 수행할 수 있다.
상기 통신부(205)는 상기 전자 장치(110)과 외부 장치 간의 근접 통신을 설정할 수 있다. 예를 들면, 어플리케이션의 실행 또는 제어를 위해, 상기 통신부(205)는 근접 통신 방식을 통해 외부 장치와 통신할 수 있다. 예를 들면, 상기 통신부(205)는 블루투스(bluetooth), BLE(bluetooth low energy), Wi-Fi 다이렉트(wireless fidelity direct), LTE의 D2D, 인체통신 등의 통신 방식을 통해 다른 장치들과 통신을 수행할 수 있다.
상기 통신부(205)는 복수의 안테나들을 포함할 수 있다. 상기 통신부(205)는 송신기 및/또는 수신기를 포함할 수 있다. 상기 통신부(205)는 소스 인코더(source encoder), 채널 인코더(channel encoder), 및/또는 변조기(modulator) 등을 포함할 수 있다. 상기 통신부(205)는 소스 디코더(source decoder), 채널 디코더(channel decoder), 및/또는 복조기(demodulator) 등을 포함할 수 있다.
상기 센서(210)은 상기 전자 장치(110)의 외부 환경을 센싱할(sensing) 수 있다.
일부 실시 예에서, 상기 센서(210)은 이미지를 센싱하는 이미지 센서(image sensor)일 수 있다. 상기 센서(210)은 생성된 이미지 정보를 상기 제어부(220) 등에게 전송할 수 있다. 다른 일부 실시 예에서, 상기 센서(210)은 신체 정보(biometric information)를 감지하는 바이오 센서일 수 있다. 예를 들면, 상기 센서(210)은 지문, 홍채 패턴, 핏줄 패턴, 심박수, 혈당 등을 감지하고, 감지된 정보에 대응하는 센싱 데이터를 생성할 수 있다. 상기 센서(210)은 상기와 같은 이미지 센서, 바이오 센서에 한정되지 않으며, 다양한 종류의 센서들을 포함할 수 있다. 예를 들면, 상기 센서(210)은 조도 센서, 음향 센서, 가속도 센서, 근접 센서 등과 같은 임의의 센서일 수 있다.
상기 표시부(215)는 데이터 또는 신호를 출력할 수 있다. 예를 들면, 상기 표시부(215)는 상기 센서(210)을 이용하여 센싱된 이미지 데이터를 출력할 수 있다. 다른 예를 들면, 상기 표시부(215)는 상기 제어부(220)에 의해 가공된 영상 신호를 표시할 수 있다. 상기 표시부(215)는 캡쳐(capture) 또는 스틸(still) 이미지를 표시할 수 있고, 동영상 또는 카메라 프리뷰(preview) 이미지를 표시할 수 있다. 상기 표시부(215)는 LCD (liquid crystal display) 또는 OLED (organic light emitting diode)일 수 있다.
상기 표시부(215)는 입출력 장치(미 도시)와 결합되어 일체형 터치 스크린(touch screen)으로 구성될 수도 있다.
상기 표시부(215)는 사용자와 상기 사용자가 소지하거나 착용한 객체를 표시할 수 있다. 이러한 경우, 상기 표시부(215)는 전자 거울 기능을 수행할 수 있다.
상기 제어부(220)은 상기 전자 장치(110)의 전반적인 동작을 제어할 수 있다. 상기 제어부(220)은 인터넷 브라우저, 게임, 동영상 등을 제공하는 어플리케이션들을 실행할 수 있다. 일부 실시 예에서, 상기 제어부(220)은 하나의 프로세서 코어(single core)를 포함하거나, 복수의 프로세서 코어들을 포함할 수 있다. 예를 들면, 상기 제어부(220)은 듀얼 코어(dual-core), 쿼드 코어(quad-core), 헥사 코어(hexa-core) 등의 멀티 코어(multi-core)를 포함할 수 있다. 다른 일부 실시 예에 따라, 상기 제어부(220)은 내부 또는 외부에 위치된 캐시 메모리(cache memory)를 더 포함할 수 있다.
상기 제어부(220)은 상기 전자 장치(110)의 다른 구성 요소들의 명령을 수신할 수 있고, 상기 수신된 명령을 해석할 수 있으며, 상기 해석된 명령에 따라 계산을 수행하거나 데이터를 처리할 수 있다.
상기 제어부(220)은 어플리케이션에서 생성되거나 발생되는 데이터 또는 신호를 처리할 수 있다. 예를 들면, 상기 제어부(220)은 상기 어플리케이션을 위해 상기 저장부(225)에게 데이터 또는 신호를 요청할 수 있다. 상기 제어부(220)은 상기 어플리케이션을 위해 상기 저장부(225)에게 데이터 또는 신호를 기록(또는 저장)하거나 갱신할 수 있다.
상기 제어부(220)은 상기 통신부(205)로부터 수신되는 메시지, 데이터, 또는 신호를 해석할 수 있고, 가공할 수 있다. 상기 제어부(220)은 상기 센서(210)으로부터 수신되는 메시지, 데이터, 또는 신호를 해석할 수 있고, 가공할 수 있다. 상기 제어부(220)은 상기 수신된 메시지, 데이터, 또는 신호에 기반하여 새로운 메시지, 데이터, 또는 신호를 생성할 수 있다. 상기 제어부(220)은 상기 가공되거나 생성된 메시지, 데이터, 또는 신호를 상기 표시부(215)에게 제공할 수 있다.
상기 제어부(220)은 상기 전자 장치(110) 내의 다른 구성 요소들(예를 들면, 상기 통신부(205), 상기 센서(210), 상기 표시부(215), 상기 저장부(225))와 동작적으로 결합될 수 있다.
상기 제어부(220)은 매장이나 네트워크(예를 들면, 상기 도 1에 도시된 상기 네트워크 환경(100))에 진입하는 사용자 장치를 인지할 수 있다. 상기 다른 전자 장치(115)가 매장 입구에 설치된 경우, 상기 사용자 장치(120)은 상기 다른 전자 장치(115)의 식별 정보를 상기 다른 전자 장치(115)로부터 수신할 수 있다. 상기 다른 전자 장치(115)의 식별 정보의 수신에 대응하여, 상기 사용자 장치(120)은 상기 서버(125)에게 상기 사용자 장치(120)의 식별 정보를 송신할 있다. 상기 제어부(220)은 상기 서버(125)로부터 상기 사용자 장치(120)의 식별 정보를 수신할 수 있다. 상기 수신된 상기 사용자 장치(120)의 식별 정보를 통해 상기 제어부(220)은 상기 사용자 장치(120)이 상기 네트워크 환경(100)에 접근하거나 진입하였음을 인지할 수 있다.
상기 제어부(220)은 상기 사용자 장치(120)이 상기 네트워크 환경(100)에 접근하거나 진입하였음을 인지하여, 이후 동작 절차에서 복잡도를 감소시킬 수 있다. 예를 들어, 사용자 또는 상기 사용자 장치(120)의 상태 변화를 검출하는 경우, 상기 제어부(220)은 상기 네트워크 환경(100)에 접근하거나 진입한 사용자 장치들만을 후보군으로 하여 상태 변화를 검출할 수 있다.
상기 제어부(220)은 객체가 상기 전자 장치(110)에 근접하여 위치되는지 여부를 인지할 수 있다.
상기 객체에 대응하는 상기 다른 전자 장치(115)가 통신부를 포함하는 경우, 상기 다른 전자 장치(115)는 지정된(designated) 주기마다 상기 객체의 식별 정보를 송신할 수 있다. 일부 실시 예에서, 상기 객체의 식별 정보는 상기 객체에 대응하는 전자 장치 115에서 송신하는 비콘 신호일 수 있다. 상기 비콘 신호는 분류 ID와 고유 ID를 포함할 수 있다. 예를 들면, 복수의 비콘 신호들 중 하나인 제1 비콘 신호는 '신발'이라는 객체 분류를 지시하는 분류 ID와, 상기 객체 분류의 보다 상세한 정보를 지시(예를 들면, 상기 '신발'을 판매하는 특정 매장을 지시)하는 고유 ID를 포함할 수 있다. 다른 예를 들면, 복수의 비콘 신호들 중 다른 하나인 제2 비콘 신호는 '옷'이라는 객체 분류를 지시하는 분류 ID와 상기 '옷'을 판매하는 특정 매장을 지시하는 고유 ID를 포함할 수 있다.
본 개시에서, 상기 분류 ID는 상위(upper) ID, 1차(primary) ID 등으로 지칭될 수도 있고, 상기 고유 ID는 하위(lower) ID, 2차(secondary) ID 등으로 지칭될 수 있다.
상기 분류 ID는 분류 ID를 포함하는 비콘 신호를 송신하는 비콘 장치가 위치되는 매장에서 판매되는 객체 또는 서비스 종류를 지시할 수 있다. 예를 들면, 상기 분류 ID는 비콘 장치가 위치되는 매장이 음식, 의류, 가전, 공구, 스포츠 용품, 화장품 중 어느 하나를 판매하는 매장이라는 것을 지시할 수 있다. 다른 예를 들면, 상기 분류 ID는 비콘 장치가 위치되는 매장에서 판매되는 객체의 분류를 구체적으로 구분하여 지시할 수 있다. 비콘 장치가 위치되는 매장에서 의류가 판매될 경우, 상기 분류 ID는 비콘 장치가 위치되는 매장이 아웃 도어 외투, 내복, 정장, 속옷, 스포츠 의류 중 어느 하나를 판매하는 매장이라는 것을 지시할 수 있다.
일부 실시 예에서, 동일한 객체 유형을 판매하는 것으로 분류된 매장들에 위치되는 각각의 비콘 장치가 송신하는 비콘 신호는 동일한 분류 ID를 포함할 수 있다. 상기 분류 ID가 지시하는 객체 종류의 범위는 다양하게 설정될 수 있다. 예를 들어, 분류 ID가 음식, 의류, 가전, 공구, 스포츠 용품, 화장품에 해당하는 객체 유형을 지시하도록 설정되는 경우, 동일한 객체 유형(예를 들면, 동일한 객체 유형인 의류에 속하는 정장 매장과 스포츠 의류 매장)의 매장에 위치된 비콘 장치는 동일한 분류 ID를 포함하는 비콘 신호를 송신할 수 있다.
상기 일부 실시 예에서와 달리 다른 일부 실시 예에서, 상기 분류 ID는 동일한 세부적인 객체의 유형을 지시할 수 있다. 예를 들어, 각각의 분류 ID가 세부적인 객체 유형을 지시하도록 설정된 경우, 같은 의류에 속하더라도 정장 매장과 스포츠 의류 매장에 위치된 비콘 장치 각각은 서로 다른 분류 ID가 포함된 비콘 신호를 송신할 수 있다.
상술한 바와 같은 분류 ID의 분배 방식(또는 결정 방식)은 하나의 예시일 뿐, 다양한 분류 ID의 분배 방식이 본 개시에 적용될 수 있다.
상기 고유 ID는 객체를 판매하는 다양한 매장들을 구분하기 위한 기능을 수행할 수 있다. 예를 들어, 백화점 내에 있는 다른 매장이 같은 종류의 객체를 판매하는 경우, 각각 다른 매장에 위치되는 비콘 장치들은 서로 다른 고유 ID를 포함하는 비콘 신호를 송신할 수 있다. 또한, 상기 고유 ID는 상기 분류 ID가 지시하는 객체의 유형을 보다 자세히 분류할 수 있다. 예를 들어, 비콘 신호에 포함된 상기 분류 ID가 객체 유형 '옷'을 지시하는 경우, 상기 비콘 신호에 포함된 상기 고유 ID는 백화점 내에 '옷'을 판매하는 특정 브랜드(예를 들면, 지오지아
Figure pat00001
, 워모
Figure pat00002
, 폴로
Figure pat00003
, 빈폴
Figure pat00004
등)의 매장을 지시할 수 있다. 다른 예를 들어, 비콘 신호에 포함된 상기 분류 ID가 객체 유형 '신발'을 지시하는 경우, 상기 비콘 신호에 포함된 상기 고유 ID는 백화점 내에 '신발'을 판매하는 특정 브랜드(예를 들면, 나이키
Figure pat00005
, 아디다스
Figure pat00006
, 휠라
Figure pat00007
, 리복
Figure pat00008
, 등)의 매장을 지시할 수 있다. 만약 동일한 백화점 내에 같은 유형의 상품을 판매하는 같은 브랜드의 매장이 2개 이상인 경우, 2개 이상의 매장에 각각 위치되는 비콘 장치가 송신하는 비콘 신호는 분류 ID는 서로 동일하나, 고유 ID는 서로 상이할 수 있다. 예를 들어, 동일한 백화점 내에 '나이키
Figure pat00009
매장'이 2개인 경우, 각각의 나이키
Figure pat00010
매장에 위치된 비콘 장치가 송신하는 비콘 신호는 동일한 분류 ID와 서로 상이한 고유 ID를 포함할 수 있다.
상기 전자 장치(110)은 상기 고유 ID를 통해, 상기 고유 ID에 대응하는 특정 매장에서 판매하는 객체에 대한 정보를 얻을 수 있다.
상기 다른 전자 장치(115)가 상기 전자 장치(110)에 근접하여 위치되는 경우, 상기 제어부(220)은 상기 다른 전자 장치(115)로부터 상기 객체의 식별 정보를 수신할 수 있다. 상기 제어부(220)은 상기 수신된 상기 객체의 식별 정보를 통해 상기 객체가 상기 전자 장치(110)에 근접하게 위치되었음을 인지할 수 있다. 상기 객체의 식별 정보는 블루투스, BLE, Wi-Fi direct, LTE의 D2D 통신 방식 등 상기 통신부(205)에서 언급한 다양한 통신 방식들에 의해 상기 제어부(220)에게 수신될 수 있다.
상기 제어부(220)은 상기 센서(210)을 이용하여 상기 객체가 근접하는지 여부를 인지할 수 있다. 상기 제어부(220)은 상기 센서(예를 들어, 카메라 또는 이미지 센서) 210을 통해 상기 객체가 어떤 객체인지 여부를 인지할 수 있다. 상기 객체의 식별 정보를 통해, 상기 제어부(220)은 상기 객체를 보다 쉽게 인지할 수 있다. 예를 들어, 상기 객체에 대응하는 상기 다른 전자 장치(115)가 센서와 통신부를 포함하는 경우, 상기 다른 전자 장치(115)는 상기 객체의 상태 변화를 검출할 수 있다. 상기 다른 전자 장치(115)는 상기 객체의 움직임을 검출할 수 있고, 상기 객체에 대한 사용자의 터치(예를 들면, 핸드 터치(hand touch), 핑거 터치(finger touch))를 검출할 수 있다. 상기 검출된 상기 객체의 상태 변화에 대응하여, 상기 다른 전자 장치(115)는 상기 서버(125)에게 상기 객체의 식별 정보를 송신할 수 있다. 상기 제어부(220)은 상기 서버(125)로부터 상기 객체의 식별 정보를 수신할 수 있다. 상기 객체의 식별 정보를 통해, 상기 제어부(220)은 상기 객체의 상태 변화를 인지할 수 있다. 또한, 상기 객체의 식별 정보를 통해, 상기 제어부(220)은 상태 변화가 검출된 상기 객체를 상기 전자 장치(110)에 접근 가능한 후보군으로 분류할 수 있다. 또한, 상기 객체의 식별 정보를 통해, 상기 제어부(220)은 상태 변화가 검출된 상기 객체를 위해 상기 센서(210) 등을 활성화할 수 있다. 상기 제어부(220)은 상기 활성화된 센서(210)을 이용하여 상기 객체가 어떤 객체인지 여부를 인지할 수 있다. 또한, 상기 제어부(220)은 상기 객체가 접근하는 것을 인지할 수 있다. 예를 들면, 상기 제어부(220)은 상기 센서(210)을 통해 획득된 이미지에 상기 객체가 포함되어 있는지 여부를 판정할 수 있다. 상기 획득된 이미지에 상기 객체가 포함되어 있는 경우, 상기 제어부(220)은 상기 객체가 상기 전자 장치(110)에 근접하여 위치되는지 여부를 인지할 수 있다.
상기 제어부(220)은 사용자가 상기 전자 장치(110)에 근접하여 위치되는지 여부를 인지할 수 있다.
상기 제어부(220)은 지정된 주기마다 상기 전자 장치(110)의 식별 정보를 송신할 수 있다. 상기 사용자에 대응하는(예를 들면, 상기 사용자가 소지하거나 착용한) 상기 사용자 장치(120)이 상기 전자 장치(110)에 근접하여 위치되는 경우, 상기 사용자 장치(120)은 상기 전자 장치(110)의 식별 정보를 수신할 수 있다. 상기 전자 장치(110)의 식별 정보는 블루투스, BLE, Wi-Fi direct, LTE의 D2D 통신 방식 등 상기 통신부(205)에서 언급한 다양한 통신 방식들에 의해 상기 사용자 장치(120)에 수신될 수 있다. 상기 전자 장치(110)의 식별 정보의 수신에 대응하여 상기 사용자 장치(120)은 상기 서버(125)를 통해 상기 전자 장치(110)에게 상기 사용자 장치(120)의 식별 정보를 송신할 수 있다. 일부 실시 예에서, 상기 전자 장치(110)의 식별 정보의 수신에 대응하여 상기 사용자 장치(120)은 직접 상기 전자 장치(110)에게 상기 사용자 장치(120)의 식별 정보를 송신할 수 있다. 상기 제어부(220)은 상기 수신된 사용자 장치(120)의 식별 정보에 기반하여 상기 사용자가 상기 전자 장치(110)에 근접하게 위치되었음을 인지할 수 있다.
상기 제어부(220)은 상기 센서(210)을 이용하여 상기 사용자가 근접하여 위치되는지 여부를 인지할 수 있다. 상기 제어부(220)은 상기 센서(예를 들면, 카메라 또는 이미지 센서) 210을 통해 상기 사용자의 접근을 인지할 수 있다. 상기 사용자 장치(120)의 식별 정보를 통해, 상기 제어부(220)은 상기 사용자를 보다 쉽게 인지할 수 있다. 예를 들어, 매장 입구에 설치된 상기 다른 전자 장치(115)를 통해 상기 제어부(220)이 상기 사용자 장치(120)의 식별 정보를 수신한 경우, 상기 제어부(220)은 상기 센서를 통해 획득된 이미지에 포함된 상기 사용자를 보다 쉽게 인지할 수 있다. 왜냐하면 사용자의 후보군을 상기 사용자 장치(120)의 식별 정보가 수신된 사용자로 한정할 수 있기 때문이다.
상기 제어부(220)은 사용자와 객체가 근접하여 위치되는 경우, 상기 사용자의 상태 정보를 수집할 수 있다. 상기 사용자의 상태 정보는 상기 객체에 대한 상기 사용자의 반응(action)일 수 있다.
예를 들면, 상기 제어부(220)은 상기 센서(210)을 통해 획득된 이미지에서 상기 사용자의 얼굴 영역을 추출할 수 있다. 다른 예를 들면, 상기 제어부(220)은 상기 센서(210)을 통해 획득되는 음성 데이터 중에서 상기 사용자의 음성을 추출할 수 있다. 또 다른 예를 들면, 상기 제어부(220)은 상기 센서(210)을 통해 획득되는 이미지에서 상기 사용자의 형상을 추출할 수 있다. 또 다른 예를 들면, 상기 제어부(220)은 상기 센서(210)을 통해 획득된 이미지의 분석을 통해 상기 사용자의 시선이 특정 부분에 집중되고 있음을 검출할 수 있다. 또 다른 예를 들면, 상기 제어부(220)은 상기 센서(210)을 통해 상기 사용자의 체온 상승을 검출할 수 있다.
상기 제어부(220)은 상기 사용자 장치(120)으로부터 사용자의 상태 정보를 수신할 수 있다. 상기 사용자의 상태 정보는 상기 사용자 장치(120)에 포함된 센서를 통해 획득되는 정보일 수 있다. 상기 사용자의 상태 정보는 상기 객체에 대한 사용자의 감정(emotion) 등을 포함할 수 있다. 상기 객체에 대한 상기 사용자의 감정은 상기 객체에 대한 정보로 표현될 수도 있다. 예를 들어, 상기 사용자가 상기 객체를 착용하거나 소지한 경우, 상기 사용자의 상태 정보는 상기 사용자 장치(120)에 포함된 센서를 통해 검출된 상기 사용자의 심박수일 수 있다. 상기 제어부(220)은 상기 센서(210)을 통해 검출된 사용자의 상태 정보를 획득하고 상기 사용자 장치(120)에 포함된 사용자의 상태 정보를 획득하여 보다 정확하게 상기 객체에 대한 상기 사용자의 감정을 분석할 수 있다.
상기 제어부(220)은 상기 사용자의 상태 정보의 처리(또는 분석)를 위해 상기 서버(125)로부터 데이터를 요청할 수 있다. 상기 데이터는 상기 사용자의 과거 객체 거래 내역을 포함할 수 있다. 상기 데이터는 객체에 대한 상기 사용자의 취향을 포함할 수 있다. 상기 데이터는 상기 사용자의 감정 분석을 위한 정보 등을 포함할 수 있다. 예를 들면, 상기 데이터는 상기 획득된 사용자의 상태 정보를 분석하기 위한 다양한 알고리즘에 필요한 정보 또는 명령어 등을 포함할 수 있다. 상기 사용자의 상태 정보에 대한 데이터 요청에 대응하여, 상기 서버(125)는 상기 전자 장치(110)에게 상기 사용자의 상태 정보에 대한 데이터를 송신할 수 있다. 상기 제어부(220)은 상기 서버(125)로부터 상기 획득된 상기 사용자의 상태 정보에 대한 데이터를 수신할 수 있다.
상기 제어부(220)은 상기 센서(210)을 통해 검출된 상기 사용자의 상태 정보, 상기 사용자 장치(120)을 통해 획득된 상기 사용자의 상태 정보, 및/또는 상기 서버(125)로부터 수신된 상기 사용자의 상태 정보에 대한 데이터에 기반하여 상기 객체에 대한 정보를 생성할 수 있다.
상기 제어부(220)은 상기 검출되거나 추출된 상기 사용자의 얼굴 영역에 기반하여 상기 객체에 대한 정보를 생성할 수 있다. 상기 제어부(220)은 상기 검출된 상기 사용자의 얼굴 영역의 눈 입 등의 모양과 이들의 돌출된 위치를 추출할 수 있다. 상기 제어부(220)은 상기 사용자의 얼굴 영역의 피부의 주름, 표면의 오목/볼록함을 식별할 수 있다. 상기 제어부(220)은 상기 사용자의 얼굴 영역에서 추출된 영역과, 식별된 영역에 기반하여 입, 눈, 눈썹, 턱 주변의 다수의 지표들을 결정할 수 있다. 상기 제어부(220)은 상기 결정된 다수의 지표들을 다양한 기법으로 변환하여 상기 객체에 대한 정보를 생성할 수 있다.
예를 들면, 상기 제어부(220)은 상기 사용자의 얼굴 영역에서 상기 사용자의 표정 등을 식별할 수 있다. 상기 제어부(220)은 상기 식별된 사용자의 표정을 통해, 상기 사용자가 찡그리고 있는지 여부, 상기 객체에 대한 고민이 있는지 여부를 분석할 수 있다. 상기 제어부(220)은 상기 분석 결과에 기반하여 상기 객체에 대한 정보를 생성할 수 있다. 상기 객체에 대한 정보는 상기 사용자의 상기 객체에 대한 선호도(preference), 상기 객체의 특정 부분에 대하여 불만족하고 있는지 여부 등에 대한 정보일 수 있다. 상기 객체에 대한 정보는 상기 사용자의 상기 객체의 구매 여부를 예측하는데 이용될 수 있다. 예를 들면, 상기 제어부(220)은 상기 객체에 대한 정보에 기반하여 상기 표시부(215)에 상기 객체 및 상기 사용자 중 적어도 하나와 관련된 메시지를 표시할 수 있다.
다른 예를 들면, 상기 제어부(220)은 상기 검출되거나 추출된 상기 사용자의 형상을 스켈레톤(skeleton)으로 변환할 수 있다. 상기 제어부(220)은 상기 변환된 스켈레톤의 루트(root) 관절들에 기반하여 상기 변환된 스켈레톤의 관절들의 공간적 분포를 분석할 수 있다. 상기 제어부(220)은 상기 분석된 관절들의 방향, 위치, 움직임에 기반하여 상기 객체에 대한 정보를 생성할 수 있다.
또 다른 예를 들면, 상기 제어부(220)은 상기 검출되거나 추출된 사용자의 음성을 분석할 수 있다. 상기 추출된 음성에서 상기 객체에 대한 부정적인 표현이 포함된 경우, 상기 제어부(220)은 상기 추출된 음성에서 상기 객체에 대한 부정적인 표현 또는 어휘를 추출할 수 있다. 상기 제어부(220)은 상기 부정적인 표현 또는 어휘의 대상이 상기 객체인지 여부를 분석할 수 있다. 상기 부정적인 표현 또는 어휘의 대상이 상기 객체이라고 분석된 경우, 상기 제어부(220)은 상기 객체에 대하여 상기 사용자가 불만족하고 있다는 정보를 포함하여 상기 객체에 대한 정보를 생성할 수 있다.
상기 제어부(220)은 상기 객체에 대한 정보를 상기 서버(125)에게 송신할 수 있다. 상기 제어부(220)은 상기 서버(125)에 상기 사용자와 상기 객체에 대한 정보를 업데이트하기 위하여 상기 서버(125)에게 상기 객체에 대한 정보를 송신할 수 있다. 상기 객체에 대한 정보의 수신에 대응하여, 상기 서버(125)는 상기 객체에 대한 정보를 저장할 수 있다. 상기 서버(125)는 상기 객체에 대한 정보를 정해진 기준에 따라 분류하여 저장할 수 있다.
상기 제어부(220)은 상기 객체에 대한 정보에 기반하여 상기 객체 및 상기 사용자 중 적어도 하나와 관련된 메시지를 표시할 수 있다. 예를 들어, 상기 객체에 대한 정보가 상기 사용자가 상기 객체에 대하여 만족하고 있으나, 상기 객체의 가격에 불만족하고 있다는 정보를 포함하고 있는 경우, 상기 제어부(220)은 상기 객체의 구매를 유도하기 위하여 상기 객체의 구매를 위한 정보(예를 들면, 쿠폰 정보, 티켓(ticket) 정보 등)을 상기 표시부(215)에 표시할 수 있다. 또 다른 예를 들어, 상기 객체에 대한 정보가 상기 객체의 일부 디자인이 상기 사용자에게 부합되는지 않는다는 정보를 포함하는 경우, 상기 제어부(220)은 상기 객체와 유사한 디자인을 가지면서 사용자가 선호할 만한 디자인의 객체에 대한 안내를 상기 표시부(215)에 표시할 수 있다.
상기 제어부(220)은 상기 객체에 대한 정보에 기반하여 상기 객체 및 상기 사용자 중 적어도 하나와 관련된 메시지를 상기 사용자 장치(120)에게 송신할 수 있다. 상기 객체 및 사용자 중 적어도 하나와 관련된 메시지의 수신에 대응하여 상기 사용자 장치(120)은 상기 객체 및 사용자 중 적어도 하나와 관련된 메시지를 표시할 수 있다. 예를 들어, 상기 사용자가 상기 객체를 구매하지 않고 매장에서 이탈하는 경우, 상기 제어부(220)은 다른 객체에 대한 목록들을 포함하는 메시지를 상기 사용자 장치(120)에게 송신할 수 있다.
상기 저장부(225)은 상기 전자 장치(110)을 제어하는 제어 명령어 코드, 제어 데이터, 또는 사용자 데이터를 저장할 수 있다. 상기 저장부(225)은 휘발성 메모리(volatile memory) 또는 불휘발성 메모리(nonvolatile memory) 중 적어도 하나를 포함할 수 있다. 불휘발성 메모리는 ROM(read only memory), PROM(programmable ROM), EPROM(electrically Programmable ROM), EEPROM(electrically erasable ROM), 플래시 메모리, PRAM(phase-change RAM), MRAM(magnetic RAM), RRAM(resistive RAM), FRAM(ferroelectric RAM) 등을 포함할 수 있다. 휘발성 메모리는 DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous DRAM), PRAM(phase-change RAM), MRAM(magnetic RAM), RRAM(resistive RAM), FeRAM(ferroelectric RAM) 등과 같은 다양한 메모리들 중 적어도 하나를 포함할 수 있다.
상기 저장부(225)은 하드 디스크 드라이브(HDD, hard disk drive), 솔리드 스테이트 디스크(SSD, solid state disk), eMMC(embedded multi media card), UFS(universal flash storage)와 같은 불휘발성 매체를 포함할 수 있다. 상기 저장부(225)는 상기 센서(210)을 통해 수집된 센싱(sensing) 정보들을 저장할 수 있다.
도 3은 다양한 실시 예들에 따른 서버의 기능적 블록 구성을 도시한다. 상기 블록 구성은 상기 도 1에 도시된 상기 서버(125)에 포함될 수 있다.
상기 도 3을 참조하면, 상기 서버(125)는 상기 네트워크 환경(100)의 매장 내에 위치될 수 있다. 일부 실시 예에서, 상기 서버(125)는 상기 네트워크 환경(100)의 매장 밖에 위치될 수 있다. 다른 일부 실시 예에서, 상기 서버(125)는 상기 전자 장치(110)와 동작적으로, 또는 물리적으로 결합될 수 있다. 상기 서버(125)는 통신부(305), 제어부(310), 저장부(315)를 포함할 수 있다.
상기 통신부(305)는 상기 서버(125)와 외부 장치 간의 원거리 통신 또는 근거리 통신을 설정할 수 있다. 예를 들면, 상기 통신부(305)는 상기 통신부(205)가 이용하는 통신 규격 또는 다중 접속 방식을 통해 외부 장치와 원거리 통신을 수행할 수 있다. 다른 예를 들면, 상기 통신부(305)는 상기 통신부(205)가 이용하는 근접 통신 방식을 통해 외부 장치와 근접 통신을 수행할 수 있다.
상기 통신부(305)는 상기 통신부(205)와 유사하게 구성될 수 있다.
상기 제어부(310)은 상기 서버(125)의 전반적인 동작을 제어할 수 있다. 일부 실시 예에서, 상기 제어부(310)은 하나의 프로세서 코어(single core)를 포함하거나, 복수의 프로세서 코어들을 포함할 수 있다. 예를 들면, 상기 제어부(310)은 듀얼 코어, 쿼드 코어, 헥사 코어 등의 멀티 코어를 포함할 수 있다. 다른 일부 실시 예에 따라, 상기 제어부(310)은 내부 또는 외부에 위치된 캐시 메모리를 더 포함할 수 있다.
상기 제어부(310)은 상기 서버(125)의 다른 구성 요소들의 명령을 수신할 수 있고, 상기 수신된 명령을 해석할 수 있으며, 상기 해석된 명령에 따라 계산을 수행하거나 데이터를 처리할 수 있다.
상기 제어부(310)은 상기 전자 장치(110)의 요청에 따라 생성되거나 발생되는 데이터 또는 신호를 처리할 수 있다. 예를 들면, 상기 전자 장치(110)의 요청에 대응하기 위하여 상기 제어부(310)은 상기 저장부(315)에게 데이터 또는 신호를 요청할 수 있다. 상기 전자 장치(110)의 요청에 대응하기 위하여 상기 제어부(310)은 상기 저장부(315)에게 데이터 또는 신호를 기록(또는 저장)하거나 갱신할 수 있다.
상기 제어부(310)은 상기 통신부(305)로부터 수신되는 메시지, 데이터, 또는 신호를 해석할 수 있고, 가공할 수 있다. 상기 제어부(310)은 상기 수신된 메시지, 데이터, 또는 신호에 기반하여 새로운 메시지, 데이터, 또는 신호를 생성할 수 있다.
상기 제어부(310)은 상기 전자 장치(110)을 보조하기 위해 다양한 정보들을 수신하거나 송신할 수 있다.
상기 제어부(310)은 매장에 진입하는 상기 사용자 장치(120)으로부터 상기 사용자 장치(120)의 식별 정보를 수신할 수 있다. 상기 사용자 장치(120)의 식별 정보는 어떤 사용자가 상기 매장 내에 진입하는지를 지시하기 위한 정보일 수 있다. 상기 제어부(310)은 상기 전자 장치(110)에게 상기 사용자 장치(120)의 식별 정보를 송신할 수 있다. 상기 사용자 장치(120)의 식별 정보를 송신하는 동작은 상기 전자 장치(110)에게 어떤 사용자가 상기 매장 내에 진입하는지를 지시하기 위한 동작일 수 있다.
상기 제어부(310)은 상기 다른 전자 장치(115)와 근접하게 위치된 상기 사용자 장치(120)으로부터 상기 사용자 장치(120)의 식별 정보를 수신할 수 있다. 상기 사용자 장치(120)의 식별 정보는 어떤 사용자가 상기 전자 장치(110)에 근접하여 위치하는지를 지시하기 위한 정보일 수 있다. 상기 제어부(310)은 상기 전자 장치(110)에게 상기 사용자 장치(120)의 식별 정보를 송신할 수 있다. 상기 사용자 장치(120)의 식별 정보를 송신하는 동작은 상기 전자 장치(110)에게 어떤 사용자가 상기 전자 장치(110)에 근접하여 위치되는지를 지시하기 위한 동작일 수 있다.
상기 제어부(310)은 객체의 상태 변화를 검출한 상기 다른 전자 장치(115)로부터 상기 객체의 식별 정보를 수신할 수 있다. 상기 객체의 식별 정보는 사용자가 어떤 객체에 관심을 가지고 있다는 것, 상기 사용자가 객체를 소지하거나 착용하고 있다는 것, 상기 사용자가 객체를 터치하고 있다는 것을 지시하기 위한 정보일 수 있다. 상기 제어부(310)은 상기 전자 장치(110)에게 상기 객체의 식별 정보를 송신할 수 있다. 상기 객체의 식별 정보를 송신하는 동작은 상기 전자 장치(110)에게 사용자가 상기 객체를 들고 접근할 수 있다는 것을 지시하기 위한 동작일 수 있다.
상기 제어부(310)은 상기 전자 장치(110)으로부터 사용자의 상태 정보와 관련된 데이터에 대한 요청을 수신할 수 있다. 상기 사용자의 상태 정보는 객체와 관련되는 사용자의 반응(action)에 대한 정보일 수 있다. 상기 사용자의 상태 정보와 관련된 데이터는 상기 사용자의 상태 정보에 기반하여 상기 객체에 대한 정보를 생성하기 위해 요구되는 데이터일 수 있다. 예를 들면, 상기 사용자의 상태 정보와 관련된 데이터는 상기 사용자의 과거 구매 이력, 상기 사용자의 성향, 상기 사용자가 과거 매장을 방문하였을 때의 반응 등을 포함할 수 있다. 상기 사용자의 상태 정보와 관련된 데이터는 상기 객체에 대한 정보를 생성하기 위해 필요한 함수, 명령어, 데이터 등의 집합을 포함할 수 있다. 상기 제어부(310)은 상기 전자 장치(110)에게 상기 사용자의 상태 정보와 관련된 데이터를 송신할 수 있다. 상기 사용자의 상태 정보와 관련된 데이터를 송신하는 동작은 상기 전자 장치(110)이 상기 객체에 대한 정보를 생성하는 것을 보조하기 위한 동작일 수 있다.
상기 제어부(310)은 상기 전자 장치(110)으로부터 구매 메시지 또는 비구매 메시지를 수신할 수 있다. 상기 구매 메시지는 사용자가 객체를 구매하였다는 것을 지시하는 메시지일 수 있다. 상기 비구매 메시지는 사용자가 객체를 구매하지 않았다는 것을 지시하는 메시지일 수 있다. 상기 구매 메시지 또는 비구매 메시지를 수신하는 동작은 정해진 기준에 따라 상기 서버(125)에 저장된 자료들을 갱신하기 위한 동작일 수 있다.
상기 제어부(310)은 상기 전자 장치(110)으로부터 수신된 메시지를 정해진 기준에 따라 분류하여 저장할 수 있다. 상기 수신된 메시지는 상기 전자 장치(110) 또는 상기 사용자 장치(120)에 의해 검출된 사용자의 상태 정보를 포함할 수 있다. 상기 수신된 메시지는 사용자가 상기 객체를 구매하였는지 여부에 대한 정보를 포함할 수 있다. 상기 수신된 메시지는 사용자의 구매 성향의 변화 등에 대한 정보를 포함할 수 있다. 상기 제어부(310)은 사용자의 상태 정보의 분석을 위해 상기 메시지를 저장할 수 있다. 상기 제어부(310)은 사용자의 상태 정보의 분석을 위해 상기 메시지를 가공하여 저장할 수도 있다. 상기 제어부(310)은 저장된 정보의 갱신을 위해 상기 메시지를 저장할 수 있다.
상기 제어부(310)은 상기 서버(125)에 저장된 정보에 기반하여 제조사 등에게 피드백 메시지를 송신할 수 있다. 예를 들면, 상기 제어부(310)은 현재 객체에서 사용자가 선호하지 않는 부분을 특정하는 정보를 포함하는 피드백 메시지를 제조사 등에게 송신할 수 있다.
상기 제어부(310)은 상기 서버(125)에 저장된 정보에 기반하여 상기 사용자 장치(120)에게 광고 메시지를 송신할 수 있다. 예를 들어, 사용자가 선호하지 않은 부분에 대한 개선이 이뤄진 경우, 상기 제어부(310)은 상기 개선 사항이 반영된 객체가 출시 예정이거나, 출시되었음을 알리는 광고 메시지를 상기 사용자 장치(120)에게 송신할 수 있다.
상기 저장부(315)는 상기 서버(125)를 제어하는 제어 명령어 코드, 제어 데이터, 또는 사용자 데이터를 저장할 수 있다.
상기 저장부(315)는 상기 저장부(215)와 유사하게 구성될 수 있다.
상기 저장부(315)는 상기 전자 장치(110)의 사용자의 상태 정보 분석, 제조사에 대한 피드백 메시지, 사용자에 대한 광고 메시지를 위한 명령어, 함수, 데이터 등을 저장할 수 있다. 상기 저장부(315)는 사용자의 구매 이력, 사용자의 성향 등의 정보를 저장할 수 있다.
도 4는 다양한 실시 예들에 따른 사용자 장치의 기능적 블록 구성을 도시한다. 상기 블록 구성은 상기 도 1에 도시된 상기 사용자 장치(120)에 포함될 수 있다.
상기 도 4를 참조하면, 상기 사용자 장치(120)은 센서(405), 통신부(410), 표시부(415), 제어부(420), 저장부(425)를 포함할 수 있다.
상기 센서(405)는 상기 사용자 장치(120)의 외부 환경과 상기 사용자 장치(120)을 이용하는 사용자의 상태를 센싱할 수 있다. 상기 센서(405)는 복수의 센서들의 집합일 수 있다.
일부 실시 예에서, 상기 센서(405)는 사용자의 심박수를 센싱하는 센서일 수 있다. 다른 일부 실시 예에서, 상기 센서(405)는 사용자의 혈압 등을 감지하는 센서일 수 있다. 또 다른 일부 실시 예에서, 상기 센서(405)는 사용자의 음성 등을 감지하는 센서일 수 있다.
상기 통신부(410)은 상기 사용자 장치(120)과 외부 장치 간의 원거리 통신 또는 근거리 통신을 설정할 수 있다. 예를 들면, 상기 통신부(410)는 상기 통신부(205)가 이용하는 통신 규격 또는 다중 접속 방식을 통해 외부 장치와 원거리 통신을 수행할 수 있다. 다른 예를 들면, 상기 통신부(410)는 상기 통신부(205)가 이용하는 근접 통신 방식을 통해 외부 장치와 근접 통신을 수행할 수 있다.
상기 통신부(410)는 상기 통신부(205)와 유사하게 구성될 수 있다.
상기 표시부(415)는 데이터 또는 신호를 출력할 수 있다. 예를 들면 상기 표시부(415)는 상기 제어부(420)에 의해 가공된 영상 신호를 표시할 수 있다. 상기 표시부(415)는 캡쳐 또는 스틸 이미지를 표시할 수 있고, 동영상 또는 카메라 프리뷰 이미지를 표시할 수 있다. 상기 표시부(415)는 LCD 또는 OLED일 수 있다.
상기 표시부(415)는 입출력 장치와 결합되어 일체형 터치 스크린으로 구성될 수도 있다.
상기 표시부(415)는 상기 전자 장치(110)으로부터 수신되는 객체에 대한 정보에 기반하여 생성된 객체 및 사용자 중 적어도 하나와 관련된 메시지를 표시할 수 있다. 상기 표시부(415)는 상기 서버(125)로부터 수신되는 광고 메시지 등을 표시할 수도 있다.
상기 제어부(420)은 상기 사용자 장치(120)의 전반적인 동작을 제어할 수 있다. 상기 제어부(420)은 인터넷 브라우저, 게임, 동영상 등을 제공하는 어플리케이션들을 실행할 수 있다. 일부 실시 예에서, 상기 제어부(420)은 하나의 프로세서 코어를 포함하거나, 복수의 프로세서 코어들을 포함할 수 있다. 예를 들면, 상기 제어부(420)은 듀얼 코어, 쿼드 코어, 헥사 코어 등의 멀티 코어를 포함할 수 있다. 다른 일부 실시 예에 따라, 상기 제어부(420)은 내부 또는 외부에 위치된 캐시 메모리를 더 포함할 수 있다.
상기 제어부(420)은 상기 사용자 장치(120)의 다른 구성 요소들의 명령을 수신할 수 있고, 상기 수신된 명령을 해석할 수 있으며, 상기 해석된 명령에 따라 계산을 수행하거나 데이터를 처리할 수 있다.
상기 제어부(420)은 어플리케이션에서 생성되거나 발생되는 데이터 또는 신호를 처리할 수 있다. 예를 들면, 상기 제어부(420)은 상기 어플리케이션을 위해 상기 저장부(425)에게 데이터 또는 신호를 요청할 수 있다. 상기 제어부(420)은 상기 어플리케이션을 위해 상기 저장부(425)에게 데이터 또는 신호를 기록(또는 저장)하거나 갱신할 수 있다.
상기 제어부(420)은 상기 통신부(410)으로부터 수신되는 메시지, 데이터, 또는 신호를 해석할 수 있고, 가공할 수 있다. 상기 제어부(420)은 상기 센서(405)로부터 수신되는 메시지, 데이터, 또는 신호를 해석할 수 있고, 가공할 수 있다. 상기 제어부(420)은 상기 수신된 메시지, 데이터, 또는 신호에 기반하여 새로운 메시지, 데이터, 또는 신호를 생성할 수 있다. 상기 제어부(420)은 상기 가공되거나 생성된 메시지, 데이터, 또는 신호를 상기 표시부(415)에게 제공할 수 있다.
상기 제어부(420)은 상기 사용자 장치(120) 내의 다른 구성 요소들(예를 들면, 상기 센서(405), 상기 통신부(410), 상기 표시부(415), 상기 저장부(425))과 동작적으로 결합될 수 있다.
상기 제어부(420)은 매장 입구에 설치된 상기 다른 전자 장치(115)로부터 상기 다른 전자 장치(115)의 식별 정보를 수신할 수 있다. 상기 사용자 장치(120)은 상기 다른 전자 장치(115)의 식별 정보와 관련되는 어플리케이션을 설치한 장치일 수 있다. 일부 실시 예에서, 상기 사용자 장치(120)은 상기 다른 전자 장치(115)의 식별 정보의 수신에 대응하여 상기 다른 전자 장치(115)의 식별 정보와 관련되는 어플리케이션을 설치할 수도 있다.
상기 다른 전자 장치(115)의 식별 정보의 수신에 대응하여, 상기 제어부(420)은 상기 서버(125)에게 상기 사용자 장치(120)의 식별 정보를 송신할 수 있다. 상기 사용자 장치(120)의 식별 정보를 송신하는 동작은, 상기 서버(125)에게 또는 상기 서버(125)를 통해 상기 전자 장치(110)에게, 상기 사용자 장치(120)이 매장에 진입하였음을 알리기 위한 동작일 수 있다. 상기 사용자 장치(120)의 식별 정보를 송신하는 동작은, 상기 전자 장치(110)이 상기 사용자 장치(120)의 사용자의 상태 정보를 수집하는 것을 인증하는 동작일 수 있다. 예를 들면, 상기 사용자 장치(120)의 사용자는 상기 진입한 매장과 관련된 어플리케이션을 상기 사용자 장치(120)에 설치하는 과정에서 사용자의 상태 정보의 수집에 동의하였을 수 있다. 상기 사용자 장치(120)의 식별 정보를 송신하는 동작은, 상기 전자 장치(110)이 상기 사용자가 접근하는지 여부를 용이하게 판단하도록 하기 위한 동작일 수 있다. 왜냐하면 상기 전자 장치(110)은 매장 내에 진입한 것으로 판단되는 사용자를 대상으로만 사용자의 접근 여부를 판단하면 되기 때문이다.
상기 제어부(420)은 상기 전자 장치(110)으로부터 상기 전자 장치(110)의 식별 정보를 수신할 수 있다. 상기 전자 장치(110)의 식별 정보를 수신하는 동작은, 상기 사용자 장치(120)이 상기 전자 장치(110)에 근접하게 위치되는지 여부를 판정하기 위한 동작일 수 있다. 상기 전자 장치(110)은 지정된 주기마다 상기 전자 장치(110)의 식별 정보를 송신할 수 있다. 상기 사용자 장치(120)이 상기 전자 장치(110)의 커버리지 영역 내에 위치되는 경우(즉, 상기 사용자 장치(120)이 상기 전자 장치(110)에 근접하게 위치되는 경우), 상기 제어부(420)은 상기 전자 장치(110)으로부터 상기 전자 장치(110)의 식별 정보를 수신할 수 있다.
상기 전자 장치(110)의 식별 정보의 수신에 대응하여, 상기 제어부(420)은 상기 서버(125)에게 상기 사용자 장치(120)의 식별 정보를 송신할 수 있다. 일부 실시 예에서, 상기 제어부(420)은 상기 전자 장치(110)에게 직접 상기 사용자 장치(120)의 식별 정보를 송신할 수도 있다. 상기 사용자 장치(120)의 식별 정보를 송신하는 동작은, 상기 전자 장치(110)에게 상기 사용자 장치(120)이 근접하게 위치되어 있음을 알리기 위한 동작일 수 있다 달리 표현하면, 상기 사용자 장치(120)의 식별 정보를 송신하는 동작은, 상기 전자 장치(110)에게 상기 사용자의 접근을 알리는 동작일 수도 있다.
상기 제어부(420)은 상기 센서(405)를 이용하여 상기 사용자 장치(120)의 사용자의 상태 정보를 수집할 수 있다. 일부 실시 예에서, 상기 제어부(420)은 상기 사용자 장치(120)의 식별 정보를 상기 서버(125) 또는 상기 전자 장치(110)에게 송신하는 동작과 함께 상기 센서(405)를 이용하여 상기 사용자 장치(120)의 사용자의 상태 정보를 수집할 수 있다. 다른 일부 실시 예에서, 상기 전자 장치(110)으로부터 상기 사용자의 상태 정보의 수집 요청을 수신한 경우, 상기 제어부(420)은 상기 센서(405)를 이용하여 상기 사용자의 상태 정보를 수집할 수 있다.
예를 들면, 상기 제어부(420)은 상기 센서(405)를 통해 상기 사용자의 심박수를 측정하도록 할 수 있다. 상기 객체를 소지하거나 착용한 사용자가 상기 객체에 만족하는 경우, 상기 사용자의 심박수는 증가할 수 있다. 상기 제어부(420)은 상기 센서(405)를 통해 상기 증가된 사용자의 심박수를 인지할 수 있다. 상기 제어부(420)은 상기 센서(405) 등을 통해 상기 사용자의 심박수를 획득하여 상기 전자 장치(110)의 사용자의 상태 정보 수집을 보조할 수 있다.
다른 예를 들면, 상기 제어부(420)은 상기 센서(405)를 통해 상기 사용자의 음성 데이터를 획득하도록 할 수 있다. 객체를 소지하거나 착용한 사용자의 음성에는 상기 객체에 대한 정보를 포함할 수 있다. 상기 제어부(420)은 상기 센서(405) 등을 통해 상기 사용자의 음성 데이터를 획득하여 상기 전자 장치(110)의 사용자의 상태 정보 수집을 보조할 수 있다.
상기 제어부(420)은 상기 수집된 사용자의 상태 정보를 상기 전자 장치(110)에게 송신하도록 할 수 있다. 상기 제어부(420)은 상기 전자 장치(110)의 사용자의 상태 정보 수집을 보조하기 위해 상기 전자 장치(110)에게 상기 수집된 사용자의 상태 정보를 송신하도록 할 수 있다. 상기 수집된 상기 사용자의 상태 정보를 상기 전자 장치(110)에게 송신하는 동작은, 상기 전자 장치(110)이 보다 정확하게 객체에 대한 정보를 생성하기 위해 필요한 동작일 수 있다. 일부 실시 예에서, 상기 제어부(420)의 상기 사용자의 상태 정보를 수집하는 동작과 상기 수집된 사용자의 상태 정보를 송신하는 동작은 생략될 수도 있다.
상기 제어부(420)은 상기 전자 장치(110)으로부터 객체 또는 사용자와 관련된 정보를 수신하도록 할 수 있다. 상기 객체 또는 사용자와 관련된 정보는 객체에 대한 정보에 기반하여 상기 전자 장치(110)에 의해 생성된 메시지, 음성, 이미지 등을 포함할 수 있다. 상기 객체 또는 사용자와 관련된 정보는 상기 객체와 관련된 할인 쿠폰 정보, 상기 객체의 할인 기간, 상기 객체의 구매자 수 등의 정보를 포함할 수 있다. 상기 객체 또는 사용자와 관련된 메시지는 사용자와 관련된 상기 사용자의 과거 구매 이력, 상기 사용자의 기념일 등의 정보를 포함할 수 있다.
상기 객체 또는 사용자와 관련된 메시지의 수신에 대응하여, 상기 제어부(420)은 상기 표시부(415)에 상기 객체 또는 사용자와 관련된 메시지를 표시할 수 있다. 상기 표시되는 상기 객체 또는 사용자와 관련된 메시지는 텍스트 뿐 아니라, 이미지를 포함할 수도 있다. 상기 표시되는 상기 객체 또는 사용자와 관련된 메시지는 사용자의 구매를 유도하거나, 사용자의 성향을 조사하거나, 사용자에게 새로운 제안을 하기 위한 메시지일 수 있다.
상기 저장부(425)는 상기 사용자 장치(120)을 제어하는 제어 명령어 코드, 제어 데이터, 또는 사용자 데이터를 저장할 수 있다.
상기 저장부(425)는 상기 저장부(215)와 유사하게 구성될 수 있다.
도 5는 다양한 실시 예들에 따른 다른 전자 장치의 기능적 블록 구성을 도시한다. 상기 블록 구성은 상기 도 1에 도시된 상기 다른 전자 장치(115)에 포함될 수 있다.
상기 도 5를 참조하면, 상기 다른 전자 장치(115)는 상기 사용자 장치(120)의 진입 여부(달리 표현하면, 사용자의 진입 여부)를 판정하기 위하여 매장 입구에 고정적으로 설치될 수 있다. 또한, 상기 다른 전자 장치(115)는 상기 매장 내의 객체에 대응될 수 있다. 예를 들어, 상기 객체가 옷인 경우, 상기 다른 전자 장치(115)는 옷걸이에 설치된 장치일 수 있다. 다른 예를 들어, 상기 객체가 전자 제품인 경우, 상기 다른 전자 장치(115)는 상기 전자 제품에 부착된 태그에 삽입된 장치일 수 있다. 또 다른 예를 들면, 상기 다른 전자 장치(115)는 객체가 진열되어 있는 판매대에 설치될 수 있다. 상기 다른 전자 장치(115)는 용도에 따라 이동에 제한이 있는 고정 장치일 수도 있고, 이동성을 가지는 이동성 장치일 수도 있다. 예를 들면, 상기 다른 전자 장치(115)는 고정적으로 설치된 비콘(beacon) 기기일 수도 있고, 이동 성을 가지는 비콘 기기일 수도 있다. 다른 예를 들면, 상기 다른 전자 장치(115)는 고정적으로 설치된 감지 장치(detection device)일 수도 있고, 이동성을 가지는 감지 장치일 수도 있다.
상기 다른 전자 장치(115)는 센서(505), 및/또는 통신부(510)을 포함할 수 있다.
상기 센서(505)는 대응하는 객체의 상태 변화를 센싱할 수 있다. 상기 센서(505)는 복수의 센서들의 집합일 수도 있다. 예를 들면, 상기 센서(505)는 근접 센서 등을 통해 상기 객체에 상기 사용자가 근접하는지 여부를 센싱할 수 있다. 다른 예를 들면, 상기 센서(505)는 자이로 센서, 가속도 센서 등을 통해 사용자의 반응에 따른 상기 객체의 움직임을 센싱할 수 있다. 또 다른 예를 들면, 상기 센서(505)는 근접 센서, 터치 인식 센서 등을 통해 사용자의 터치(손 터치, 손가락 터치 등)를 센싱할 수 있다.
상기 통신부(510)은 상기 다른 전자 장치(115)의 식별 정보를 송신할 수 있다. 상기 다른 전자 장치(115)가 매장 입구 등에 설치된 경우, 상기 통신부(510)은 매장에 진입하는 상기 사용자 장치(120)에게 상기 다른 전자 장치(115)의 식별 정보를 송신할 수 있다. 매장에 진입하는 상기 사용자 장치(120)을 상기 전자 장치(110) 등이 인지하도록 하기 위하여 상기 통신부(510)은 지정된 주기에 따라 상기 다른 전자 장치(115)의 식별 정보를 송신할 수 있다.
상기 통신부(510)은 객체의 식별 정보를 송신할 수 있다. 일부 실시 예에서, 상기 다른 전자 장치(115)가 객체에 대응하도록 설치된 경우, 상기 통신부(510)은 객체의 식별 정보를 상기 전자 장치(110)에게 송신할 수 있다. 상기 객체가 상기 전자 장치(110)에 근접하여 위치된다는 것을 상기 전자장치 110에게 알리기 위하여, 상기 통신부(510)은 지정된 주기에 따라 상기 객체의 식별 정보를 송신할 수 있다. 다른 일부 실시 예에서, 상기 다른 전자 장치(115)가 객체에 대응하여 객체의 진열대에 설치된 경우, 상기 통신부(510)은 대응하는 객체의 상태 변화에 대응하여 상기 객체의 식별 정보를 상기 전자 장치(110)에게 송신할 수 있다. 상기 객체가 상기 전자 장치(110)에 근접하여 위치될 수 있다는 것을 상기 전자 장치(110)에게 알리기 위하여, 상기 통신부(510)은 객체의 상태 변화에 대응하여 상기 객체의 식별 정보를 송신할 수 있다.
상술한 바와 같이, 다양한 실시 예들에 따른 디지털 미디어 기기(digital media device)는, 제어부와, 상기 제어부와 동작적으로 결합되는 통신부와, 상기 제어부와 동작적으로 결합되는 센서를 포함할 수 있고, 상기 제어부는, 이벤트가 발생한 경우, 객체의 식별 정보를 수신하도록 구성될 수 있고, 상기 객체와 대응하는 사용자의 상태 정보를 획득하도록 구성될 수 있고, 상기 상태 정보에 기반하여 상기 객체에 대한 정보를 생성하도록 구성될 수 있다. 상기 이벤트는, 상기 다른 전자 장치, 객체, 적어도 한 명 이상의 사용자, 상기 사용자 장치 중 적어도 하나 이상이 상기 전자 장치(110)의 일정 반경 내에 위치되는 것을 포함할 수 있다. 예를 들면, 상기 이벤트는 상기 객체나 카메라를 통해서 인식되는 것일 수 있다. 다른 예를 들면, 상기 이벤트는 객체와 대응하는 다른 전자 장치나 사용자 장치가 통신 가능한 범위 또는 송신 신호세기에 따라 정해진 범위에 위치되는 것을 포함할 수 있다.
또한, 상기 이벤트는, 상기 객체의 움직임이 검출되는 것을 포함할 수 있다.
또한, 상기 이벤트는, 상기 객체에 대한 상기 사용자의 터치가 검출되는 것을 포함할 수 있다.
또한, 상기 사용자는, 적어도 한 명 이상일 수 있다.
또한, 상기 사용자의 상태 정보는, 상기 사용자의 음성, 얼굴 표정, 심박수, 뇌파, 제스쳐(gesture), 및 모션(motion)에 대한 정보 중 적어도 하나를 포함할 수 있다.
또한, 상기 제어부는, 상기 전자 장치에 포함된 센서를 통해 상기 사용자의 상태 정보를 획득하도록 구성될 수 있다.
또한, 상기 제어부는, 상기 사용자 장치로부터 상기 사용자의 상태 정보를 획득하도록 구성될 수 있고, 상기 사용자의 상태 정보는, 상기 사용자 장치에 포함된 센서를 통해 생성될 수 있다.
또한, 상기 제어부는, 상기 객체에 대한 정보 및 상기 사용자의 상태 정보 중 적어도 하나에 기반하여 상기 객체 및 상기 사용자 중 적어도 하나와 관련된 메시지를 표시하도록 더 구성될 수 있다.
또한, 상기 제어부는, 상기 사용자가 상기 객체를 구매하였는지 여부를 지시하는 구매 정보를 획득하도록 더 구성될 수 있고, 상기 구매 정보에 따라 상기 객체에 대한 정보를 분류하여 저장하도록 더 구성될 수 있다.
또한, 상기 사용자의 상태 정보는 상기 사용자의 음성 신호를 포함할 수 있고, 상기 제어부는, 상기 사용자의 음성 신호를 입력 행렬로 변환하도록 구성되고, 상기 변환된 입력 행렬을 이용하여 상기 사용자의 음성 신호에서 특징 벡터를 추출하도록 구성되고, 상기 특징 벡터를 기준 벡터와 비교하도록 구성되고, 상기 특징 벡터가 상기 기준 벡터와 관련되는 경우, 상기 기준 벡터에 기반하여 상기 사용자의 상기 객체에 대한 감정 상태를 결정하도록 구성되고, 상기 객체에 대한 감정 상태에 기반하여 상기 객체에 대한 정보를 생성하도록 구성될 수 있다.
또한, 상기 사용자의 상태 정보는 상기 사용자의 얼굴에 대한 영상 데이터를 포함할 수 있고, 상기 제어부는, 상기 사용자의 얼굴에 대한 영상 데이터의 변화 패턴과 복수의 기준 패턴들 중 하나가 관련되는 경우, 관련되는 기준 패턴에 대응하는 객체에 대한 사용자의 감정을 결정하도록 구성되고, 상기 결정된 사용자의 감정에 기반하여 상기 객체에 대한 정보를 생성하도록 구성될 수 있다.
또한, 상기 사용자의 상태 정보는, 상기 사용자의 행동에 대한 영상 데이터를 포함할 수 있고, 상기 제어부는, 상기 사용자의 행동에 대한 영상 데이터를 스켈레톤(skeleton)으로 변환하도록 구성되고, 상기 스켈레톤의 변화 패턴과 복수의 기준 패턴들 중 하나가 관련되는 경우, 관련되는 기준 패턴에 대응하는 객체에 대한 사용자의 감정을 결정하도록 구성되고, 상기 결정된 사용자의 감정에 기반하여 상기 객체에 대한 정보를 생성하도록 구성될 수 있다.
또한, 상기 사용자의 상태 정보는 상기 사용자의 음성 신호를 포함할 수 있고, 상기 제어부는 상기 사용자의 음성 신호가 복수의 기준 어휘들 중 적어도 하나를 포함하는 경우, 상기 음성 신호에서 기준 어휘와 일치하는 부분의 전후 부분을 분석하도록 구성되고, 상기 분석된 부분을 통해 사용자의 의사를 식별하도록 구성되고, 상기 식별된 사용자의 의사에 기반하여 상기 객체에 대한 정보를 생성하도록 구성될 수 있다.
도 6은 다양한 실시 예들에 따른 전자 장치의 동작을 도시한 흐름도이다. 상기 동작은 상기 도 1에 도시된 상기 전자 장치(110)에 의해 수행될 수 있다.
상기 도 6을 참조하면, 상기 동작 흐름 600은 601 단계, 602 단계, 및/또는 603 단계의 동작을 포함할 수 있다.
상기 601 단계에서, 상기 전자 장치(110)은 이벤트가 발생한 경우, 상기 다른 전자 장치(115)에 대응하는 객체의 식별 정보를 상기 다른 전자 장치(115)로부터 수신할 수 있다. 상기 다른 전자 장치(115)에 대응하는 객체는 상기 다른 전자 장치(115)과 물리적으로 결합된 객체일 수 있다. 상기 다른 전자 장치(115)에 대응하는 객체는 상기 다른 전자 장치(115)와 동작적으로 또는 통신적으로 연결된 객체일 수 있다.
상기 이벤트는 상기 다른 전자 장치(115)와 상기 사용자 장치(120)이 지정된 영역에 위치되는 것으로 정의될 수 있다. 이러한 경우, 상기 전자 장치(110)은, 상기 다른 전자 장치(115) 및/또는 상기 사용자 장치(120)이 근접 통신을 통해 송신하는 신호를 통해, 상기 다른 전자 장치(115)와 상기 사용자 장치(120)이 지정된 영역에 위치되었음을 인지할 수 있다.
일부 실시 예에서, 상기 이벤트는 상기 객체의 상태 변화가 검출되는 것으로 정의될 수 있다. 상기 객체의 상태 변화는 상기 다른 전자 장치(115)에 포함된 상기 센서(505)에 의해 검출될 수 있다. 예를 들면, 상기 객체의 상태 변화는 사용자에 의하여 상기 객체가 이동되는 것, 상기 객체에 대한 사용자의 터치(예를 들면, 핸드 터치(hand touch), 핑거 터치(finger touch))가 발생되는 것 등을 포함할 수 있다. 상기 객체의 상태 변화가 발생한 경우, 상기 전자 장치(110)은 상태 변화가 검출된 객체의 식별 정보를 상기 다른 전자 장치(115)로부터 직접 수신할 수 있다. 이와 달리, 상기 전자 장치(110)은 상기 서버(125)로부터 상태 변화가 검출된 객체의 정보를 수신할 수도 있다. 상기 검출된 객체의 정보는 상기 다른 전자 장치(115)가 상기 서버(125)에게 송신한 상기 객체의 식별 정보에 기반된 것일 수 있다.
602 단계에서, 상기 전자 장치(110)은 사용자의 상태 정보를 획득할 수 있다. 상기 사용자의 상태 정보는 상기 전자 장치(110)에 포함된 상기 센서(210)을 통해 획득되는 정보일 수 있다. 상기 사용자의 상태 정보는 상기 사용자 장치(120)으로부터 수신되는 정보일 수 있다. 상기 사용자의 상태 정보는 상기 객체에 대한 사용자의 반응을 포함할 수 있다. 예를 들면, 상기 사용자의 상태 정보는 상기 객체의 특정 영역을 사용자가 주시하고 있다는 것, 상기 객체를 착용하고 사용자의 심박수가 빨라졌다는 것, 상기 객체에 대하여 동행자와 긍정적인 대화를 하고 있다는 것, 상기 객체를 소지하고 사용자의 표정이 일그러졌다는 것 등에 대한 정보를 포함할 수 있다.
603 단계에서, 상기 전자 장치(110)은 상기 객체의 식별 정보와 상기 사용자의 상태 정보에 기반하여 객체에 대한 정보를 생성할 수 있다. 상기 객체에 대한 정보는 상기 객체에 대한 사용자의 감정을 포함할 수 있다. 예를 들어, 상기 사용자가 상기 객체를 착용한 후 선호하게 된 경우, 상기 전자 장치(110)은 상기 객체를 상기 사용자가 선호하고 있다는 것을 상기 객체에 대한 정보로 생성할 수 있다. 상기 전자 장치(110)은 상기 객체의 식별 정보를 통해 상기 객체를 구매한 사용자들의 공통점 상기 객체에 대한 할인 정보, 상기 객체의 특징 등을 획득할 수 있다. 상기 전자 장치(110)은 상기 사용자의 상태 정보를 통해 상기 객체에 대한 사용자의 감정 등에 대한 정보를 획득할 수 있다. 상기 전자 장치(110)은 상기 획득된 정보들에 기반하여 상기 객체에 대한 정보를 생성할 수 있다. 상기 객체에 대한 정보는 객체에 대한 반응 정보를 포함할 수 있다. 상기 객체에 대한 반응 정보는 객체의 식별 정보와 사용자의 상태 정보 중 적어도 하나 이상을 활용하여 생성될 수 있다. 상기 객체에 대한 반응 정보는 상기 객체에 대한 사용자의 반응이 구매 의사 또는 비구매 의사 중 어느 의사에 가까운지 여부를 나타내는 정보일 수 있다. 또한, 상기 전자 장치(110)은 식별된 객체에 대한 사용자의 상태 정보 분석에 기반하여 사용자의 의사가 구매 의사 또는 비구매 의사 중 어느 쪽에 더 가까운지 여부를 판단하여 비구매 의사에 가까울 경우, 사용자의 구매를 유도하는 정보를 사용자에게 제공하도록 할 수 있다.
다양한 실시 예들에 따른 상기 전자 장치는 객체의 식별 정보와 사용자의 상태 정보를 통해 객체에 대한 정보를 생성할 수 있다. 상기 객체에 대한 정보는 사용자의 구매를 유도하기 위한 정보일 수 있다. 상기 객체에 대한 정보는 상기 객체의 제조사에게 피드백을 제공하기 위한 정보일 수 있다. 상기 전자 장치는 객체에 대한 정보를 생성하여 사용자 또는 제조사에게 보다 유연한 서비스를 제공할 수 있다. 상기 전자 장치는 객체에 대한 정보를 생성하여 빠르게 변동하는 소비자의 성향에 보다 빠르게 대응하는 서비스를 제공할 수 있다.
도 7은 다양한 실시 예들에 따른 전자 장치의 다른 동작을 도시한 흐름도이다. 상기 동작은 상기 도 1에 도시된 상기 전자 장치(110)에 의해 수행될 수 있다.
상기 도 7을 참조하면, 상기 동작 흐름 700은 701 단계, 702 단계, 703 단계, 704 단계, 705 단계, 706 단계, 및/또는 707 단계를 포함할 수 있다.
상기 701 단계에서, 상기 전자 장치(110)은 매장에 진입하는 상기 사용자 장치(120)의 식별 정보를 획득할 수 있다. 상기 전자 장치(110)은 상기 서버(125)로부터 상기 매장에 진입하는 상기 사용자 장치(120)의 식별 정보를 획득할 수 있다. 일부 실시 예에서, 상기 전자 장치(110)은 상기 사용자 장치(120)로부터 직접 상기 사용자 장치(120)의 식별 정보를 획득할 수도 있다. 상기 사용자 장치(120)의 식별 정보는 상기 사용자 장치(120)의 매장 진입을 알리기 위한 정보일 수 있다. 매장에 진입하는 사용자가 소지한 상기 사용자 장치(120)은 매장 입구에 설치된 상기 다른 전자 장치(115)로부터 상기 다른 전자 장치(115)의 식별 정보를 수신할 수 있다. 상기 다른 전자 장치(115)의 식별 정보의 수신에 대응하여 상기 사용자 장치(120)은 상기 서버(125)에게 상기 사용자 장치(120)의 식별 정보를 송신할 수 있다. 일부 실시 예에서, 상기 사용자 장치(120)은 직접 상기 전자 장치(110)에게 상기 사용자 장치(120)의 식별 정보를 송신할 수도 있다. 상기 전자 장치(110)은 상기 서버로부터 상기 사용자 장치(120)의 식별 정보를 수신하거나, 상기 사용자 장치(120)으로부터 직접 상기 사용자 장치(120)의 식별 정보를 수신할 수 있다.
702 단계에서, 상기 전자 장치(110)은 사용자와 객체가 상기 전자 장치(110)과 근접하여 위치되는지 여부를 판정할 수 있다. 달리 표현하면, 상기 전자 장치(110)은 사용자와 객체가 지정된 영역에 위치되는지 여부를 판정할 수 있다. 상기 지정된 영역은 환경에 따라 변경되는 영역일 수 있다. 상기 전자 장치(110)은 위치된 환경에 따라 적응적으로 상기 지정된 영역의 범위를 제어할 수 있다. 예를 들면, 상기 전자 장치(110)은 송신 전력을 제어하여 상기 지정된 영역의 범위를 제어할 수 있다.
상기 전자 장치(110)은 상기 객체에 대응하는 상기 다른 전자 장치(115)가 송신하는 상기 객체의 식별 정보와 상기 전자 장치(110)이 송신하는 상기 전자 장치(110)의 식별 정보를 통해 상기 사용자와 상기 객체가 인접하여 위치되는지 여부를 판정할 수 있다. 일부 실시 예에서, 상기 전자 장치(110)은 상기 객체에 대응하는 상기 다른 전자 장치(115)로부터 상기 객체의 식별 정보를 수신하는 경우, 상기 객체가 상기 전자 장치(110)에게 근접하여 위치된다고 판정하거나, 지정된 영역 내에 위치된다고 판정할 수 있다. 다른 일부 실시 예에서, 상기 전자 장치(110)은 상기 사용자 장치(120)이 상기 전자 장치(110)의 식별 정보를 수신할 수 있다. 이에 대응하여, 상기 전자 장치(110)은 상기 서버(125)를 통하여 상기 전자 장치(110)에게 상기 사용자 장치(120)의 식별 정보를 송신할 수 있다. 또한, 상기 전자 장치(110)은 직접 상기 전자 장치(110)에게 상기 사용자 장치(120)의 식별 정보를 송신할 수도 있다. 이러한 경우, 상기 전자 장치(110)은 상기 사용자가 상기 전자 장치(110)에게 근접하여 위치된다고 판정하거나, 지정된 영역 내에 위치된다고 판정할 수 있다. 또 다른 일부 실시 예에서, 상기 전자 장치(110)은 상기 전자 장치(110)에 포함된 상기 센서(210)을 통해 획득되는 이미지에 상기 객체가 포함된 경우, 상기 객체가 상기 전자 장치(110)에게 근접하여 위치된다고 판정하거나, 지정된 영역 내에 위치된다고 판정할 수 있다. 또 다른 일부 실시 예에서, 상기 전자 장치(110)은 상기 센서(210)을 통해 획득되는 이미지에 상기 사용자가 포함된 경우, 상기 사용자가 상기 전자 장치(110)에게 근접하여 위치된다고 판정하거나, 지정된 영역 내에 위치된다고 판정할 수 있다.
상기 전자 장치(110)에 접근하는 사용자와 객체가 없는 경우, 상기 전자 장치(110)은 상기 702 단계에서의 동작을 반복적으로 수행할 수 있다.
상기 703 단계에서, 상기 전자 장치(110)은 객체의 식별 정보를 획득할 수 있다. 상기 전자 장치(110)은 상기 다른 전자 장치(115)로부터 상기 다른 전자 장치(115)와 대응하는 객체의 식별 정보를 수신할 수 있다. 일부 실시 예에서, 상기 다른 전자 장치(115)는 인접하게 위치되는 상기 전자 장치(110)의 검색을 위해 지정된 주기마다 상기 객체의 식별 정보를 방송할 수 있다. 상기 전자 장치(110)은 상기 전자 장치(110)의 근처에 위치된 객체가 무엇인지 여부를 확인하기 위해 상기 객체의 식별 정보를 수신할 수 있다.
상기 704 단계에서, 상기 전자 장치(110)은 상기 사용자 장치(120) 또는 상기 서버(125)에게 상기 사용자의 상태 정보와 관련된 데이터를 요청할 수 있다. 일부 실시 예에서, 상기 전자 장치(110)이 상기 서버(125)와 같은 데이터 베이스를 구비한 경우, 상기 704 단계는 생략되거나, 전자 장치 내의 신호 흐름으로 구현될 수 있다. 신뢰성 높은 객체에 대한 정보를 생성하기 위해, 상기 전자 장치(110)은 상기 사용자 장치(120) 또는 상기 서버(125)에게 상기 사용자의 상태 정보와 관련된 데이터를 요청할 수 있다. 상기 데이터를 요청하는 동작은, 상기 사용자의 상태 정보에서 사용자의 상기 객체에 대한 감정을 도출하기 위한 함수, 명령어 등을 호출하는 동작일 수 있다. 상기 데이터를 요청하는 동작은, 상기 사용자의 상태 정보에서 객체에 대하 정보를 도출하기 위해 사용자에 대한 정보 또는 고객들의 객체 선호도에 대한 자료 등을 호출하는 동작일 수 있다
상기 705 단계에서, 상기 전자 장치(110)은 사용자의 상태 정보와 관련된 데이터를 획득할 수 있다. 예를 들면, 상기 전자 장치(110)은 상기 사용자 장치(120) 또는 상기 서버(125)로부터 요청한 데이터를 수신할 수 있다. 상기 사용자 장치(120) 또는 상기 서버(125)는 상기 전자 장치(110)을 보조하기 위해 상기 요청한 데이터를 제공할 수 있다. 일부 실시 예에서, 상기 전자 장치(110)에 포함된 상기 센서(210) 등을 통하여 상기 사용자의 상태 정보를 획득할 수도 있다.
상기 706 단계에서, 상기 전자 장치(110)은 상기 수신된 데이터와 상기 객체의 식별 정보에 기반하여 상기 객체에 대한 정보를 생성할 수 있다. 상기 전자 장치(110)은 상기 객체의 식별 정보를 통해, 상기 객체의 특징, 상기 객체의 구매 이력, 상기 객체의 성질, 상기 객체와 소비자와의 관계 등을 도출할 수 있다. 상기 전자 장치(110)은 상기 수신된 데이터를 통해 상기 객체에 대하여 상기 사용자가 어떤 생각을 가지고 있는지 여부, 상기 사용자의 상기 객체에 대한 선호도 등을 도출할 수 있다. 상기 전자 장치(110)은 상기 도출된 정보, 특징, 선호도 등을 조합하여 상기 객체에 대한 정보를 생성할 수 있다. 상기 객체에 대한 정보는 상기 객체에 대한 상기 사용자의 선호도, 상기 객체에서 상기 사용자가 불만족하고 있는 부분이 있는지 여부 등을 포함할 수 있다.
상기 707 단계에서, 상기 전자 장치(110)은 상기 객체에 대한 정보에 기반하여 상기 객체 및 상기 사용자 중 적어도 하나와 관련된 메시지를 표시할 수 있다. 예를 들면, 상기 객체에 대한 정보가 현재 사용자는 상기 객체의 가격에 불만족하고 있다는 정보를 포함하는 경우, 상기 전자 장치(110)은 상기 객체의 할인 정보 또는 방법 등을 메시지로 표시하거나, 상기 사용자에게 상기 객체의 할인 기간 등을 메시지로 표시하여 상기 사용자의 구매를 유도할 수 있다.
다양한 실시 예들에 따른 상기 전자 장치(110)은 통신 기술과, 센서 기술을 이용하여 적응적으로 사용자에게 객체에 대한 정보를 제공할 수 있다. 상기 전자 장치(110)은 통신 기술과, 센서 기술 등을 이용하여 적응적으로 객체의 구매 등에 도움이 되는 메시지를 상기 사용자에게 표시할 수 있다.
도 8은 다양한 실시 예들에 따른 전자 장치의 또 다른 동작을 도시한 흐름도이다. 상기 동작은 상기 도 1에 도시된 상기 전자 장치(110)에 의해 수행될 수 있다.
상기 도 8을 참조하면, 동작 흐름 800은 801 단계, 802 단계, 803 단계, 804 단계, 805 단계, 806 단계, 및/또는 807 단계의 동작을 포함할 수 있다. 상기 801 단계, 상기 803 단계 내지 상기 807 단계에서의 동작은 상기 701 단계, 상기 703 단계 내지 상기 707 단계에서의 동작에 대응될 수 있다.
상기 802 단계에서, 상기 전자 장치(110)은 이벤트가 발생하였는지 여부를 판정할 수 있다. 일부 실시 예에서, 상기 다른 전자 장치(115)가 대응하는 객체의 상태 변화를 검출한 경우, 상기 전자 장치(110)은 하기의 절차에 따라 이벤트가 발생하였다고 판단할 수 있다. 상기 다른 전자 장치(115)에 대응하는 객체의 상태 변화가 검출되는 경우, 상기 다른 전자 장치(115)는 상기 서버(125)에게 상기 객체의 식별 정보를 송신할 수 있다. 상기 서버(125)는 상기 객체의 식별 정보를 상기 전자 장치(110)에게 송신할 수 있다. 상기 전자 장치(110)은 상기 수신된 객체의 식별 정보를 통해 상기 객체에게 상태 변화가 발생되었다는 사실을 인지할 수 있다.
이벤트가 발생하지 않는 경우, 상기 전자 장치(110)은 상기 802 단계에서의 동작을 반복적으로 수행할 수 있다.
상기 도 8에 도시된 동작 흐름은 상기 다른 전자 장치(115)가 객체의 진열대 등에 고정적으로 설치된 경우의 예시일 수 있다. 상기 다른 전자 장치(115)가 상기 전자 장치(110)에 근접하여 위치될 수 없는 경우, 상기 다른 전자 장치(115)는 상기 다른 전자 장치(115)에 대응하는 객체의 상태 변화를 검출할 수 있다. 고정적으로 설치된 상기 다른 전자 장치(115)는 상기 객체의 식별 정보를 상기 전자 장치(110)에게 제공함으로써, 상기 전자 장치(110)이 상기 객체의 접근을 쉽게 파악할 수 있도록 보조할 수 있다. 상기 전자 장치(110)은 상기 객체의 식별 정보를 이용하여 상기 센서(210) 등을 통해 획득되는 이미지에 상기 객체가 포함되어 있는지 여부를 용이하게 판단할 수 있다.
도 9a는 다양한 실시 예들에 따른 매장에 진입하는 사용자 장치의 동작을 도시한 흐름도이다. 상기 동작은 상기 도 1에 도시된 상기 사용자 장치(120)에 의해 수행될 수 있다.
상기 도 9a를 참조하면, 동작 흐름 900은 901 단계, 및/또는 902 단계의 동작을 포함할 수 있다.
상기 901 단계에서, 상기 사용자 장치(120)은 상기 다른 전자 장치(115)의 식별 정보가 수신되었는지 여부를 판정할 수 있다. 상기 사용자 장치(120)은 상기 매장의 입구에 설치된 상기 다른 전자 장치(115)로부터 상기 다른 전자 장치(115)의 식별 정보를 수신하였는지 여부를 판정할 수 있다. 상기 다른 전자 장치(115)의 식별 정보를 송신하는 상기 다른 전자 장치(115)는 송신 전력을 제어할 수 있다.
상기 902 단계에서, 상기 사용자 장치(120)이 상기 다른 전자 장치(115)의 식별 정보를 수신한 경우, 상기 사용자 장치(120)은 상기 서버(125)에게 상기 사용자 장치(120)의 식별 정보를 송신할 수 있다. 상기 사용자 장치(120)에 미리 설치된 어플리케이션의 자동 실행에 의해, 상기 사용자 장치(120)은 상기 다른 전자 장치(115)의 식별 정보의 수신에 대응하여 상기 사용자 장치(120)의 식별 정보를 상기 서버(125)에게 송신할 수 있다.
상기 사용자 장치(120)이 상기 다른 전자 장치(115)의 식별 정보를 수신하지 않는 경우, 상기 사용자 장치(120)은 상기 901 단계에서의 동작을 반복 수행할 수 있다. 상기 다른 전자 장치(115)의 식별 정보를 수신하지 못한다는 것은 상기 사용자 장치(120)이 상기 매장에 접근하지 않았다는 것을 의미할 수 있다.
도 9b는 다양한 실시 예들에 따른 사용자 장치의 매장 진입을 알리는 서버의 동작을 도시한 흐름도이다. 상기 동작은 상기 도 1에 도시된 상기 서버(125)에 의해 수행될 수 있다.
상기 도 9b를 참조하면, 동작 흐름 910은 911 단계, 및/또는 912 단계의 동작을 포함할 수 있다.
상기 911 단계에서, 상기 서버(125)는 상기 사용자 장치(120)으로부터 상기 사용자 장치(120)의 식별 정보를 수신할 수 있다. 미리 정해진 기준(예를 들면, 어플리케이션을 설치한 상기 사용자 장치(120)과 상기 서버(125) 간의 약속)에 따라, 상기 서버(125)는 수신되는 상기 사용자 장치(120)의 식별 정보가 상기 사용자 장치(120)의 매장 진입을 알리는 정보임을 인지할 수 있다.
상기 912 단계에서, 상기 서버(125)는 상기 사용자 장치(120)의 식별 정보를 상기 전자 장치(110)에게 송신할 수 있다. 상기 전자 장치(110)은 상기 서버(125)로부터 상기 사용자 장치(120)의 식별 정보를 수신할 수 있다. 상기 사용자 장치(120)의 식별 정보는 상기 사용자 장치(120)을 착용하거나 소지한 사용자가 상기 매장에 진입하였음을 알리는 메시지일 수 있다. 상기 전자 장치(110)은 상기 사용자(또는 상기 사용자 장치(120))가 매장에 진입하였음을 인지하여 센서 등의 제어에 대한 복잡도를 감소시킬 수 있다. 상기 사용자 장치(120)의 식별 정보를 수신하는 동작은, 상기 전자 장치(110)이 상기 사용자 장치(120)으로부터 상기 사용자의 상태 정보를 수집하는 것을 묵시적으로 알리는 동작일 수도 있다.
도 9c는 다양한 실시 예들에 따른 매장 진입 절차의 신호 흐름을 도시한다. 상기 신호 흐름은 상기 전자 장치(110), 상기 다른 전자 장치(115), 상기 사용자 장치(120), 상기 서버(125) 등에서 발생될 수 있다.
상기 도 9c를 참조하면, 921 단계에서, 매장 입구에 설치된 상기 다른 전자 장치(115)는 지정된 주기에 따라 상기 다른 전자 장치(115)의 식별 정보를 방송할 수 있다. 상기 다른 전자 장치(115)는 송신 전력을 제어하여 방송 범위를 조절할 수 있다. 상기 사용자 장치(120)이 상기 방송 범위 내에 진입한 경우(예를 들면, 상기 사용자 장치(120)이 상기 매장의 입구에 접근된 경우), 상기 사용자 장치(120)은 상기 다른 전자 장치(115)의 식별 정보를 수신할 수 있다.
922 단계에서, 상기 다른 전자 장치(115)의 식별 정보의 수신에 대응하여 상기 사용자 장치(120)은 상기 서버(125)에게 상기 사용자 장치(120)의 식별 정보를 송신할 수 있다. 상기 사용자 장치(120)의 식별 정보를 송신하는 동작은 상기 사용자 장치(120)에 어플리케이션을 설치하는 과정에서 미리 약속되거나 정의된 동작일 수 있다. 일부 실시 예에 따라, 상기 사용자 장치(120)은 상기 사용자 장치(120)의 식별 정보를 상기 전자 장치(110)에게 직접 송신할 수도 있다. 상기 서버(125)는 상기 사용자 장치(120)으로부터 상기 사용자 장치(120)의 식별 정보를 수신할 수 있다.
923 단계에서, 상기 서버(125)는 상기 사용자 장치(120)의 식별 정보를 상기 전자 장치(110)에게 송신할 수 있다. 상기 전자 장치(110)은 상기 서버(125)로부터 상기 사용자 장치(120)의 식별 정보를 수신할 수 있다. 일부 실시 예에서, 상기 전자 장치(110)은 상기 사용자 장치(120)으로부터 직접 상기 사용자 장치 12의 식별 정보를 수신할 수도 있다. 상기 사용자 장치(120)의 식별 정보의 수신을 통해, 상기 전자 장치(110)은 상기 사용자 장치(120)(또는 사용자)이 매장에 진입했음을 인지할 수 있다. 또한, 상기 전자 장치(110)은 상기 사용자 장치(120)(또는 사용자)이 매장 내에 위치되어 있음을 고려하여 이후의 동작들을 수행할 수 있다.
도 10a는 다양한 실시 예들에 따른 사용자와 객체의 근접 여부를 판정하는 전자 장치의 동작을 도시한 흐름도이다. 상기 동작은 상기 도 1에 도시된 상기 전자 장치(110)에 의해 수행될 수 있다.
상기 도 10a를 참조하면, 동작 흐름 1000은 1001 단계, 1002 단계, 및/또는 1003 단계의 동작을 포함할 수 있다.
상기 1001 단계에서, 상기 전자 장치(110)은 상기 다른 전자 장치(115)로부터 상기 객체의 식별 정보를 수신할 수 있다. 상기 다른 전자 장치(115)는 상기 객체의 식별 정보를 지정된 주기에 따라 방송할 수 있다. 상기 다른 전자 장치(115)는 상기 식별 정보의 송신 전력을 적응적으로 제어할 수 있다. 상기 다른 전자 장치(115)가 상기 전자 장치(110)에 근접하게 된 경우, 상기 전자 장치(110)은 상기 다른 전자 장치(115)로부터 상기 객체의 식별 정보를 수신할 수 있다.
상기 1002 단계에서, 상기 전자 장치(110)은 상기 사용자 장치(120)에게 상기 전자 장치(110)의 식별 정보가 수신되었는지 여부를 판정할 수 있다. 상기 전자 장치(110)은 상기 사용자 장치(120)의 접근 여부를 확인하기 위하여 지정된 주기에 따라 상기 전자 장치(110)의 식별 정보를 방송할 수 있다. 상기 사용자 장치(120)이 상기 전자 장치(110)에 근접하는 경우, 상기 사용자 장치(120)은 상기 전자 장치(110)의 식별 정보를 상기 전자 장치(110)으로부터 수신할 수 있다. 상기 사용자 장치(120)이 상기 전자 장치(110)에 근접하지 않은 경우(달리 표현하면, 상기 사용자가 상기 객체를 들고 상기 전자 장치(110)에 접근하지 않은 경우), 상기 전자 장치(110)은 상기 1002 단계에서의 동작을 반복적으로 수행할 수 있다.
상기 1003 단계에서, 상기 사용자 장치(120)이 상기 전자 장치(110)의 식별 정보를 수신한 경우(상기 사용자 장치(120) 또는 사용자가 상기 전자 장치(110)에 근접하게 된 경우), 상기 전자 장치 110은 상기 서버(125)로부터 상기 사용자 장치(120)의 식별 정보를 수신할 수 있다. 상기 전자 장치(110)의 식별 정보의 수신에 대응하여, 상기 사용자 장치(120)은 상기 서버(125)에게 상기 사용자 장치(120)의 식별 정보를 송신할 수 있다. 상기 사용자 장치(120)의 식별 정보의 수신에 대응하여, 상기 서버(125)는 상기 전자 장치(110)에게 상기 사용자 장치(120)의 식별 정보를 송신할 수 있다. 상기 전자 장치(110)은 상기 사용자 장치(120)의 식별 정보의 수신을 통해, 상기 사용자 장치(120)이 상기 전자 장치(110)에 근접하여 위치되어 있음을 인지할 수 있다. 일부 실시 예에서, 상기 전자 장치(110)은 상기 서버(125)를 거치지 않고 직접적으로 상기 사용자 장치(120)으로부터 상기 사용자 장치(120)의 식별 정보를 수신하여 상기 사용자 장치(120)의 접근을 인지할 수 있다.
도 10b는 다양한 실시 예들에 따른 전자 장치가 근접한 객체와 사용자를 인지하는 절차의 신호 흐름을 도시한다. 상기 신호 흐름은 상기 도 1에 도시된 상기 전자 장치(110), 상기 다른 전자 장치(115), 상기 사용자 장치(120), 상기 서버(125)에서 발생될 수 있다.
상기 도 10b를 참조하면, 1011 단계에서, 상기 다른 전자 장치(115)는 객체의 식별 정보를 방송할 수 있다. 상기 다른 전자 장치(115)(또는 상기 객체)의 접근에 기인하여, 상기 전자 장치(110)은 상기 객체의 식별 정보를 수신할 수 있다.
1012 단계에서, 상기 전자 장치(110)은 상기 객체의 식별 정보의 수신에 대응하여, 상기 전자 장치(110)의 식별 정보를 방송할 수 있다. 상기 사용자 장치(120)(또는 사용자)의 접근에 기인하여, 상기 사용자 장치(120)은 상기 전자 장치(110)의 식별 정보를 수신할 수 있다.
1013 단계에서, 상기 전자 장치(110)의 식별 정보의 수신에 대응하여, 상기 사용자 장치(120)은 상기 사용자 장치(120)의 식별 정보를 상기 서버(125)에게 송신할 수 있다. 상기 서버(125)는 상기 사용자 장치(120)의 식별 정보를 수신할 수 있다.
1014 단계에서, 상기 서버(125)는 상기 사용자 장치(120)의 식별 정보를 상기 전자 장치(110)에게 송신할 수 있다. 상기 전자 장치(110)은 상기 사용자 장치(120)의 식별 정보를 수신할 수 있다. 상기 사용자 장치(120)의 식별 정보의 수신에 기인하여, 상기 전자 장치(110)은 상기 사용자 장치(120)(또는 사용자)이 상기 전자 장치(110)에 근접하게 위치되어 있음을 인지할 수 있다.
상기 사용자 장치(120)이 직접적으로 상기 전자 장치(110)에게 상기 사용자 장치(120)의 식별 정보를 송신하는 경우, 상기 1013 단계 내지 상기 1014 단계의 동작은 생략될 수 있다.
다양한 실시 예들에 따른 전자 장치(110)은 근접 통신 또는 WAN 통신을 통해 객체와 사용자가 상기 전자 장치(110)에 근접하게 위치되는지 여부 또는 접근하는지 여부를 판단할 수 있다. 상기 전자 장치(110)은 사용자와 객체가 근접하는지 여부를 인지하여 상기 객체에 대한 사용자의 감정을 인식할 수 있다. 상기 전자 장치(110)은 상기 인식된 사용자의 감정에 기반하여 상기 객체에 대한 판매 전략을 유동적으로 가져갈 수 있다. 상기 전자 장치(110)은 사용자의 감정에 따라 적응적으로 상기 객체를 판매할 수 있다.
도 11a는 다양한 실시 예들에 따른 객체의 상태 변화를 검출하는 다른 전자 장치의 동작을 도시한 흐름도이다. 상기 동작은 상기 도 1에 도시된 상기 다른 전자 장치(115)에 의해 수행될 수 있다.
상기 도 11a를 참조하면, 동작 흐름 1100은 1101 단계, 및/또는 1102 단계의 동작을 포함할 수 있다.
상기 1101 단계에서, 상기 다른 전자 장치(115)는 상기 센서(505)를 통해 상기 다른 전자 장치(115)에 대응하는 객체의 상태 변화를 검출할 수 있다. 예를 들어, 사용자가 상기 객체를 터치하거나, 상기 객체를 착용하거나, 상기 객체를 소지하고 움직이는 경우, 상기 다른 전자 장치(115)는 상기 센서(505)를 통해 상기 객체의 상태 변화를 검출할 수 있다.
상기 1102 단계에서, 상기 다른 전자 장치(115)는 상기 서버(125)에게 상기 상태 변화가 검출된 객체의 식별 정보를 송신할 수 있다. 상기 서버(125)는 상기 다른 전자 장치(115)으로부터 상기 객체의 식별 정보를 수신할 수 있다. 상기 다른 전자 장치(115)는 상기 서버(125)를 통해 상기 전자 장치(110)에게 상기 객체의 상태 변화가 발생되었음을 알리기 위해 상기 객체의 식별 정보를 송신할 수 있다. 일부 실시 예에서, 상기 1102 단계에 도시된 동작과 달리, 상기 다른 전자 장치(115)는 상기 객체의 식별 정보를 상기 전자 장치(110)에게 직접 송신할 수도 있다.
도 11b는 다양한 실시 예들에 따른 객체의 식별 정보를 전달하는 서버의 동작을 도시한 흐름도이다. 상기 동작은 상기 도 1에 도시된 상기 서버(125)에 의해 수행될 수 있다.
상기 도 11b를 참조하면, 동작 흐름 1110은 1111 단계, 및/또는 1112 단계를 포함할 수 있다.
1111 단계에서, 상기 서버(125)는 상기 다른 전자 장치(115)로부터 객체의 식별 정보를 수신할 수 있다. 상기 서버(125)는 상태 변화가 발생된 객체에 대응하는 상기 다른 전자 장치(115)로부터 객체의 식별 정보를 수신할 수 있다.
1112 단계에서, 상기 서버(125)는 상기 객체의 식별 정보를 상기 전자 장치(110)에게 송신할 수 있다. 상기 전자 장치(110)은 상기 객체의 식별 정보를 수신할 수 있다. 상기 전자 장치(110)은 상기 객체의 식별 정보의 수신을 통해, 상기 전자 장치 110에 접근할 수 있는 객체의 후보군을 필터링할 수 있다. 상기 전자 장치(110)은 상기 필터링을 통해 상기 객체의 접근 여부를 용이하게 판단할 수 있다. 달리 표현하면, 상기 전자 장치(110)은 복잡도에 대한 부담 없이, 상기 객체의 접근 여부를 판단할 수 있다.
도 11c는 다양한 실시 예들에 따른 객체의 상태 변화를 검출하는 신호 흐름을 도시한다. 상기 신호 흐름은 상기 도 1에 도시된 상기 전자 장치(110), 상기 다른 전자 장치(115), 상기 서버(125)에서 발생될 수 있다.
상기 도 11c를 참조하면, 1121 단계에서, 상기 다른 전자 장치(115)는 상기 센서(505)를 통해 객체의 상태 변화를 검출할 수 있다. 예를 들면, 상기 다른 전자 장치(115)는 근접 센서, 자이로 센서, 움직임 감지 센서, 및 광 센서 중 적어도 하나를 통해 상기 객체의 상태 변화를 검출할 수 있다.
1122 단계에서, 상기 다른 전자 장치(115)는 상기 서버(125)에게 상기 객체의 식별 정보를 송신할 수 있다. 상기 서버(125)는 상기 다른 전자 장치(115)로부터 상기 객체의 식별 정보를 수신할 수 있다. 상기 다른 전자 장치(115)와 상기 서버(125)는 유선 통신 또는 무선 통신을 통해 상기와 같은 정보 교환을 수행할 수 있다.
1123 단계에서, 상기 서버(125)는 상기 객체의 식별 정보를 상기 전자 장치(110)에게 송신할 수 있다. 상기 전자 장치(110)은 상기 객체의 식별 정보를 상기 서버(125)로부터 수시할 수 있다.
다양한 실시 예들에 따른 상기 전자 장치(110)은 상기 객체의 상태 변화를 검출하여 상기 사용자의 현재 관심 객체를 인지할 수 있다. 상기 전자 장치(110)은 상기 상태 변화가 검출된 객체에 대한 사용자의 반응을 분석할 수 있다. 상기 전자 장치(110)은 상기 상태 변화가 검출된 객체에 대한 사용자의 구매를 유도하기 위하여 다양한 종류의 메시지를 표시할 수 있다.
도 12는 다양한 실시 예들에 따른 사용자와 객체의 근접 여부를 판정하는 전자 장치의 다른 동작을 도시한 흐름도이다. 상기 동작은 상기 도 1에 도시된 상기 전자 장치(110)에 의해 수행될 수 있다.
상기 도 12를 참조하면, 동작 흐름 1200은 1201 단계, 1202 단계, 및/또는 1203 단계를 포함할 수 있다.
상기 1201 단계에서, 상기 전자 장치(110)은 상기 센서(210)을 통해 피사체에 대한 이미지를 획득할 수 있다. 예를 들면, 상기 센서(210)은 이미지 센서 또는 카메라를 포함할 수 있다. 상기 전자 장치(110)은 사용자와 객체의 접근 여부를 확인하기 위해 지정된 주기에 따라 피사체에 대한 이미지를 획득할 수 있다. 일부 실시 예에서, 상기 전자 장치(110)은 사용자와 객체의 접근 여부를 확인하기 위해 실시간으로 피사체에 대한 이미지를 획득할 수도 있다. 다른 일부 실시 예에서, 상기 객체의 상태 변화가 검출되는 경우, 상기 전자 장치(110)은 상기 사용자와 객체의 접근 여부를 확인하기 위해 실시간으로 피사체에 대한 이미지를 획득할 수도 있다.
상기 1202 단계에서, 상기 전자 장치(110)은 상기 획득된 이미지에 상기 사용자와 상기 객체가 포함되어 있는지 여부를 판정할 수 있다. 예를 들어, 상기 획득된 이미지에 객체만이 포함되어 있는 경우, 상기 전자 장치(110)은 상기 1201 단계에서의 동작을 재차 수행할 수 있다. 이와 달리, 상기 획득된 이미지에 상기 객체 뿐 아니라 상기 사용자도 포함된 경우, 상기 전자 장치(110)은 상기 1203 단계에서의 동작을 수행할 수 있다.
상기 1203 단계에서, 상기 전자 장치(110)은 상기 사용자의 상태 정보의 수집을 개시할 수 있다. 전력 소모의 감소, 복잡도의 감소, 처리율의 향상 등을 위해, 상기 전자 장치(110)은 상기 사용자와 상기 객체가 상기 전자 장치(110)에 근접된 경우 상기 사용자의 상태 정보의 수집을 개시할 수 있다.
도 13a는 다양한 실시 예들에 따른 객체에 대한 정보를 생성하는 전자 장치의 동작을 도시한 흐름도이다. 상기 동작은 상기 도 1에 도시된 상기 전자 장치(110)에 의해 수행될 수 있다.
상기 도 13a를 참조하면, 동작 흐름 1300은 1301 단계, 1302 단계, 1303 단계, 1304 단계, 및/또는 1305 단계의 동작을 포함할 수 있다.
상기 1301 단계에서, 상기 전자 장치(110)은 사용자의 제1 상태 정보를 검출할 수 있다. 상기 제1 상태 정보는 상기 전자 장치(110)에 포함된 상기 센서(210)을 통해 획득되는 정보일 수 있다. 예를 들면, 상기 전자 장치(110)은 상기 센서(210)을 통해 획득된 이미지에서 사용자의 얼굴 영역을 상기 사용자의 제1 상태 정보로서 검출할 수 있다. 다른 예를 들면, 상기 전자 장치(110)은 상기 센서(210)을 통해 획득되는 음성 데이터 중에서 사용자의 음성 데이터를 상기 사용자의 제1 상태 정보로서 검출할 수 있다. 또 다른 예를 들면, 상기 전자 장치(110)은 상기 센서(210)을 통해 획득된 이미지의 분석으로 통해 상기 사용자의 시선이 집중된 부분을 상기 사용자의 제1 상태 정보로서 검출할 수 있다.
상기 1302 단계에서, 상기 전자 장치(110)은 상기 사용자 장치(120)으로부터 사용자의 제2 상태 정보를 수신할 수 있다. 상기 사용자의 제2 상태 정보는 상기 사용자 장치(120)에 포함된 상기 센서(405)를 통해 검출되는 정보일 수 있다. 예를 들면, 상기 사용자 장치(120)은 상기 센서(405)를 통해 검출된 사용자의 심박수를 상기 사용자의 제2 상태 정보로 상기 전자 장치(110)에게 송신할 수 있다. 상기 전자 장치(110)은 상기 사용자의 심박수를 상기 사용자의 제2 상태 정보로 수신할 수 있다. 상기 전자 장치(110)은 상기 사용자의 제2 상태 정보를 객체에 대한 정보를 생성하기 위한 보조 자료로서 이용할 수 있다.
상기 1301 단계에서의 동작 및 상기 1302 단계에서의 동작 중 하나는 일부 실시 예에서 생략될 수 있다. 달리 표현하면, 상기 전자 장치(110)은 상기 사용자의 제1 상태 정보 및 상기 사용자의 제2 상태 정보 중 적어도 하나를 이용하여 객체에 대한 정보를 생성할 수도 있다.
상기 1303 단계에서, 상기 전자 장치(110)은 상기 서버(125)에게 상기 제1 상태 정보 및/또는 상기 제2 상태 정보와 관련되는 데이터를 요청할 수 있다. 상기 데이터는 객체에 대한 정보를 생성하기 위해 필요한 자료, 데이터, 함수, 명령어 등일 수 있다. 상기 전자 장치(110)은 사용자의 객체에 대한 감정 또는 반응을 정확하게 분석하기 위하여 상기 서버(125)에게 데이터를 요청할 수 있다.
상기 1304 단계에서, 상기 전자 장치(110)은 상기 서버(125)로부터 상기 제1 상태 정보 및/또는 상기 제2 상태 정보와 관련되는 데이터를 수신할 수 있다. 상기 데이터는 상기 전자 장치(110)이 상기 1303 단계에서 요청한 데이터일 수 있다. 일부 실시 예에서, 상기 서버(125)는 상기 전자 장치(110)이 요구한 데이터 뿐 아니라, 객체에 대한 정보에 도움이 된다고 생각하는 데이터를 부가하여 상기 전자 장치(110)에게 송신할 수도 있다.
상기 1305 단계에서, 상기 전자 장치(110)은 상기 제1 상태 정보 및/또는 상기 제2 상태 정보와 관련된 데이터에 기반하여 객체에 대한 정보를 생성할 수 있다.
예를 들면, 상기 전자 장치(110)은 상기 검출되거나 추출된 상기 사용자의 얼굴 영역에 기반하여 상기 객체에 대한 정보를 생성할 수 있다. 상기 전자 장치(110)은 상기 검출된 상기 사용자의 얼굴 영역에서 눈, 코, 입 등과 이들의 돌출된 위치를 추출할 수 있다. 또한, 상기 전자 장치(110)은 상기 사용자의 얼굴 영역에서 피부의 주름, 표면의 오목/볼록함을 식별할 수 있다. 상기 전자 장치(110)은 상기 식별되거나 추출된 부분에 기반하여 객체에 대한 정보를 생성할 수 있다.
다른 예를 들면, 상기 전자 장치(110)은 검출되거나 추출된 사용자의 형상을 스켈레톤으로 변환할 수 있다. 상기 전자 장치(110)은 상기 변환된 스켈레톤의 루트 관절들에 기반하여 상기 변환된 스켈레톤의 관절들의 공간적 분포를 분석할 수 있다. 상기 전자 장치(110)은 상기 분석된 관절들의 방향, 위치, 움직임에 기반하여 상기 객체에 대한 정보를 생성할 수 있다.
또 다른 예를 들면, 상기 전자 장치(110)은 검출되거나 추출된 사용자의 음성 데이터를 분석할 수 있다. 상기 검출되거나 추출된 음성 데이터에 부정적인 표현이 포함된 경우, 상기 전자 장치(110)은 상기 부정적인 표현을 추출할 수 있다. 또한, 상기 전자 장치(110)은 상기 부정적인 표현의 전후의 어휘들을 추출할 수 있다. 상기 전자 장치(110)은 상기 추출된 부정적인 표현과 상기 추출된 전후의 어휘와의 관계를 분석하여 상기 객체에 대한 정보를 생성할 수 있다.
다양한 실시 예들에 따른 상기 전자 장치(110)은 사용자의 상태 정보를 분석하여 객체에 대한 정보를 생성할 수 있다. 상기 객체에 대한 정보는 사용자의 객체에 대한 감정 또는 반응을 포함할 수 있다. 상기 생성된 객체에 대한 정보를 통해, 상기 전자 장치(110)은 양질의 서비스를 사용자에게 제공할 수 있다. 상기 생성된 객체에 대한 정보를 통해, 상기 전자 장치(110)은 제조사, 개발사 등에게 유효 적절한 피드백을 제공할 수 있다.
도 13b는 다양한 실시 예들에 따른 객체에 대한 정보의 생성 절차의 신호 흐름을 도시한다. 상기 신호 흐름은 상기 도 1에 도시된 상기 전자 장치(110), 상기 사용자 장치(120), 상기 서버(125)에서 발생될 수 있다.
상기 도 13b를 참조하면, 1311 단계에서, 상기 전자 장치(110)은 상기 센서(210)을 통해 사용자의 제1 상태 정보를 검출할 수 있다. 1312 단계에서, 상기 사용자 장치(120)은 상기 센서(405)를 통해 사용자의 제2 상태 정보를 검출할 수 있다. 상기 1311 단계에서의 동작과 상기 1312 단계에서의 동작은 동시에 수행될 수도 있고, 역순으로 수행될 수도 있다.
1313 단계에서, 상기 사용자 장치(120)은 상기 제2 상태 정보를 상기 전자 장치(110)에게 송신할 수 있다. 상기 전자 장치(110)은 상기 사용자 장치(120)으로부터 상기 제2 상태 정보를 수신할 수 있다. 상기 전자 장치(110)은 상기 1311 단계에서 획득한 상기 제1 상태 정보와 상기 제2 상태 정보를 통합하여 관리할 수 있다.
1314 단계에서, 상기 전자 장치(110)은 상기 제1 상태 정보 및 상기 제2 상태 정보와 관련된 데이터를 상기 서버(125)에게 요청할 수 있다. 일부 실시 예에서, 상기 전자 장치(110)은 상기 제1 상태 정보 및/또는 상기 제2 상태 정보와 관련된 데이터를 상기 서버(125)에게 요청할 수도 있다.
1315 단계에서, 상기 서버(125)는 상기 제1 상태 정보 및 상기 제2 상태 정보와 관련된 데이터를 상기 전자 장치(110)에게 제공할 수 있다. 일부 실시 예에서 상기 서버(125)는 상기 제1 상태 정보 및/또는 상기 제2 상태 정보와 관련된 데이터를 상기 전자 장치(110)에게 제공할 수도 있다.
1316 단계에서, 상기 전자 장치(110)은 상기 제1 상태 정보와 상기 제2 상태 정보와 관련된 데이터에 기반하여 객체에 대한 정보를 생성할 수 있다. 상기 객체에 대한 정보는 상기 객체에 대한 사용자의 반응 또는 감정에 대한 정보를 포함할 수 있다. 상기 객체에 대한 정보에 기반하여 상기 전자 장치(110)은 제조사, 사용자 등에게 다양한 종류의 서비스들을 제공할 수 있다.
도 13c는 다양한 실시 예들에 따른 사용자의 상태 정보에 기반하여 객체에 대한 정보를 생성하는 전자 장치의 동작을 도시한 흐름도이다. 상기 동작은 상기 도 1에 도시된 상기 전자 장치(110)에 의해 수행될 수 있다.
상기 도 13c를 참조하면, 동작 흐름 1320은 1321 단계, 1322 단계, 1323 단계, 1324 단계, 1325 단계, 및/또는 1326 단계를 포함할 수 있다.
상기 1321 단계에서, 상기 전자 장치(110)은 상기 전자 장치(110)에 포함된 상기 센서(210)(예를 들면, 마이크)을 통해 사용자로부터 음성 신호를 획득할 수 있다.
상기 1322 단계에서, 상기 전자 장치(110)은 스펙트로그램(spectrogram)을 이용하여 상기 음성 신호를 입력 행렬로 변환할 수 있다.
상기 전자 장치(110)은 스펙트로그램을 이용하여 상기 음성 신호의 시간축과 주파수축에 따른 변화를 상기 입력 행렬의 각 원소로 지정할 수 있다. 상기 입력 행렬의 각 원소는 음성 신호의 주파수 및 시간에 따른 진폭값이기 때문에, 비음수일 수 있다. 상기 입력 행렬은 주파수축의 주파수 단위에 따라 행을 구분할 수 있고, 시간축의 시간 단위에 따라 열을 구분할 수 있다. 예를 들어, 상기 전자 장치(110)이 주파수축을 512개의 주파수(f1 내지 f512)로 구분하고, 시간축을 200개의 시간(t1 내지 t200)으로 구분하는 경우, 상기 입력 행렬은 512 x 200 행렬로 변환될 수 있다. 예를 들면, 주파수 f3 및 시간 t2에 대응하는 진폭값은 입력 행렬의 3행 2열 원소 V(3, 2)일 수 있다.
상기 1323 단계에서, 상기 전자 장치(110)은 상기 입력 행렬에 대하여 비음수 행렬 인수분해를 수행하여 특징 벡터를 산출할 수 있다. 상기 비음수 행렬 인수분해(NMF, non-negative matrix factorization)는 다변수 데이터(multivariate data)를 분해하는데 유용한 특성을 가질 수 있다. 상기 전자 장치(110)은 업데이트 룰(udate rule)을 적용하여 상기 입력 행렬을 2개의 행렬로 분해할 수 있다. 상기 2개의 행렬은 기초 행렬(basis matrix)와 인코딩 행렬(encoding matrix)일 수 있다.
상기 기초 행렬은 상기 입력 행렬의 특정 정보를 포함할 수 있고, 상기 인코딩 행렬은 인코딩 정보를 포함할 수 있다.
상기 업데이트 룰에서 입력 행렬과 상기 기초 행렬 및 상기 인코딩 행렬 간의 곱에 따라 산출되는 행렬 사이의 유클리디언 거리(euclidean distance)는 증가하지 않는 특징을 가질 수 있다. 상기 전자 장치(110)은 상기 업데이트 룰을 이용하여 계속적인 업데이트를 수행하고, 상기 업데이트 결과와 비용 함수(cost function)를 이용하여 오차를 계산할 수 있다.
상기 기초 행렬은 상기 입력 행렬의 기초 정보를 가질 수 있다. 따라서, 상기 입력 행렬의 성질이 다른 경우, 이에 대응하여 상기 기초 행렬 역시 다른 성질을 가질 수 있다. 상기 입력 행렬이 스펙트로그램을 이용하기 때문에, 상기 기초 행렬은 음성 신호의 주파수에 관련된 정보를 가질 수 있고, 상기 인코딩 행렬은 음성 신호의 시간에 따른 인코딩 정보를 가질 수 있다. 따라서, 상기 기초 행렬은 상기 입력 행렬의 주파수 특징을 지시하는 특징 벡터(characteristic vector)일 수 있다.
입력 행렬이 n x m 행렬이라고 가정하자. 이러한 경우 상기 입력 행렬은 n 차원의 데이터 벡터가 m개 있는 것으로 판단할 수 있다. 예를 들어, 상기 입력 행렬에 대한 예시의 경우, 주파수를 중심으로 512 차원의 데이터 벡터가 시간에 따라 200개 있는 것으로 판단할 수 있다.
행렬 연산을 따를 때, 상기 기초 행렬은 n x r의 차원을 가질 수 있고, 상기 인코딩 행렬은 r x m의 차원을 가질 수 있다. 상기 입력 행렬의 특징은 m이 아닌 n에 있기 때문에, 상기 기초 행렬은 상기 입력 행렬의 특징을 나타낼 수 있다. 상기 r은 정해지지 않은 임의의 자연수로서, 사용자에 의해 설정될 수 있다. 이하, 설명의 편의상 r이 1인 것을 가정하여 설명하지만, 본 개시가 이에 한정되지 않음은 자명하다.
상술한 방법을 이용하여, 상기 전자 장치(110)은 상기 입력 행렬에 대한 특징을 가지는 상기 기초 벡터를 산출하고, 이를 특징 벡터로 결정할 수 있다.
상기 1324 단계에서, 상기 전자 장치(110)은 상기 특징 벡터와 상기 서버(125) 또는 상기 전자 장치(110)에 저장된 감정 모델 데이터베이스에 포함된 모델 벡터를 비교할 수 있다. 상기 모델 벡터는 모델 음성 신호에 대하여 비음수 행렬 인수분해를 수행한 결과로, 상기 감정 모델 데이터베이스에 미리 저장되어 있을 수 있다.
상기 특징 벡터와 상기 모델 벡터를 비교하는 방법은 유클리디언 거리의 제곱을 이용하는 방법일 수 있다. 상기 유클리디언 거리는 저장된 모델 벡터와 새로운 특징 벡터 사이의 차이를 구해 가장 유사한 모델 벡터를 선별하기 위하여 이용될 수 있다. 상기 전자 장치(110)은 상기 유클리디언 거리의 제곱을 이용함으로써, 특징이 있는 부분을 더 크게 하고, 특징이 없는 부분을 더 작게 할 수 있다. 왜냐하면 차이가 작은 값을 제곱할 경우, 제곱에 따라 산출되는 값의 차는 작아지고, 차이가 큰 값을 제곱할 경우, 제곱에 따라 산출되는 값의 차는 커지기 때문이다.
본 개시에서, 특징 벡터와 모델 벡터 사이의 유사성을 찾는 방법으로 유클리디언 거리를 이용하는 방법을 예시하고 있지만, 이는 하나의 실시 예에 불과 하며, 벡터 사이의 유사성을 찾는 다양한 방법들이 본 개시에 적용될 수 있음을 이해해야 할 것이다.
상기 1325 단계에서, 상기 전자 장치(110)은 모델 벡터와 특징 벡터에 기반하여 상기 음성 신호에 내포된 사용자의 감정 상태를 판단할 수 있다. 상기 전자 장치(110)은 상기 모델 벡터와 상기 특징 벡터를 비교하여 가장 유사한 모델 벡터를 선택할 수 있다. 상기 전자 장치(110)은 상기 선택된 모델 벡터가 지시하는 감정 모델을 상기 음성 신호에 내포된 감정 상태로 판단할 수 있다.
상기 1326 단계에서, 상기 전자 장치(110)은 판단된 감정 상태에 기반하여 객체에 대한 정보를 생성할 수 있다. 예를 들어, 상기 판단된 감정 상태가 행복(happiness)인 경우, 상기 전자 장치(110)은 상기 객체를 사용자가 호의적으로 생각하고 있다는 정보를 상기 객체에 대한 정보로 생성할 수 있다.
도 13d는 다양한 실시 예들에 따른 사용자의 상태 정보에 기반하여 객체에 대한 정보를 생성하는 전자 장치의 다른 동작을 도시한 흐름도이다. 상기 동작은 상기 도 1에 도시된 상기 전자 장치(110)에 의해 수행될 수 있다.
상기 도 13d를 참조하면, 동작 흐름 1330은 1331 단계, 1332 단계, 1333 단계, 1334 단계, 1335 단계, 1336 단계, 및/또는 1327 단계를 포함할 수 있다.
상기 1331 단계에서, 상기 전자 장치(110)은 사용자의 감정을 복수의 카테고리들로 분류할 수 있다. 상기 복수의 카테고리들에 대한 정보는 상기 전자 장치(110)의 저장부 또는 상기 서버(125)에 저장되어 있을 수 있다. 예를 들면, 상기 분류되는 복수의 카테고리들은 객체에 대한 기쁨, 객체에 대한 놀람, 객체에 대한 분노, 객체에 대한 공포, 및 객체에 대한 혐오로 구성될 수 있다. 상기 예시는 하나의 예일 뿐이고, 다른 기준에 따라 복수의 감정들을 분류할 수도 있다.
상기 1332 단계에서, 상기 전자 장치(110)은 상기 분류된 카테고리를 이용하여 학습을 위한 기준 프레임을 설정할 수 있다. 상기 전자 장치(110)은 상기 카테고리 별 감정들을 가장 잘 나타내는 피크 포인트(peak point)의 프레임을 기준 프레임으로 지정할 수 있다. 상기 설정된 기준 프레임은 상기 전자 장치(110)의 저장부 또는 상기 서버(125)에 저장되어 있을 수 있다. 상기 기준 프레임을 지정하는 동작은 상기 전자 장치(110)이 분석할 정보를 간소화하기 위한 동작일 수 있다. 상기 전자 장치(110)은 매장에 방문하는 사용자를 통해 기준 프레임을 설정할 수 있다. 일부 실시 예에서, 상기 전자 장치(110)은 상기 기준 프레임을 미리 설정할 수도 있다. 예를 들어, 상기 전자 장치(110)은 객체 A에 대하여 환호하는 사용자의 표정을 포함하는 영상, 객체 B에 대하여 실망하는 사용자의 표정을 포함하는 영상, 객체 C에 대하여 혐오하는 사용자의 표정을 포함하는 영상을 획득할 수 있다. 상기 전자 장치(110)은 상기 획득된 영상들에서 사용자의 감정이 최고조(peak point)에 달할 때의 프레임을 기준 프레임으로 지정할 수 있다.
상기 1333 단계에서, 상기 전자 장치(110)은 상기 기준 프레임에 포함된 복수의 포인트들의 위치 변화 패턴을 학습할 수 있다. 예를 들어, 상기 전자 장치(110)은 지정된 기준 프레임에 포함되어 있는 얼굴 영역 중 복수의 포인트들을 자동으로 지정할 수 있다. 상기 복수의 포인트들은 위치 변화 패턴을 학습하기 위한 기준점일 수 있다. 상기 전자 장치(110)은 상기 기준 프레임에 포함된 복수의 포인트들을 통해 위치 변화 패턴을 학습할 수 있다. 예를 들면, 상기 전자 장치(110)은 기쁨에 대응하는 복수의 포인트들의 위치 변화 패턴, 실망에 대응하는 복수의 포인트들의 위치 변화 패턴 등을 학습할 수 있다.
상기 1334 단계에서, 상기 전자 장치(110)은 획득되는 사용자의 영상 데이터의 변화 패턴과 복수의 학습된 패턴들 중 적어도 하나가 동일한지 여부를 판단할 수 있다. 상기 획득된 사용자의 영상 데이터의 변화 패턴이 복수의 학습된 패턴들 중 하나와 일치하는 경우, 상기 전자 장치(110)은 상기 1335 단계의 동작을 수행할 수 있다. 이와 달리, 상기 획득된 사용자의 영상 데이터의 변화 패턴이 복수의 학습된 패턴들 모두와 일치하지 않는 경우, 상기 전자 장치(110)은 상기 1336 단계의 동작을 수행할 수 있다.
상기 1335 단계에서, 상기 전자 장치(110)은 대응되는 학습된 패턴에 따라 객체에 대한 정보를 생성할 수 있다. 예를 들어, 상기 사용자의 영상 데이터의 변화 패턴이 기쁨으로 판단되는 경우, 상기 전자 장치(110)은 상기 객체를 사용자가 선호한다는 정보를 상기 객체에 대한 정보로서 생성할 수 있다. 다른 예를 들어, 상기 사용자의 영상 데이터의 변화 패턴이 혐오로 판단되는 경우, 상기 전자 장치(110)은 상기 객체를 사용자가 선호하지 않는다는 정보를 상기 객체에 대한 정보로서 생성할 수 있다.
상기 1336 단계에서, 상기 전자 장치(110)은 획득된 사용자의 영상 데이터에 포함된 사용자 표정 변화 패턴과 가장 유사한 학습 패턴을 결정할 수 있다. 예를 들면, 상기 전자 장치(110)은 유클리디언 거리 등을 이용하여 상기 획득된 사용자의 영상 데이터에 포함된 사용자 표전 변화 패턴과 가장 유사한 학습 패턴을 결정할 수 있다.
상기 1337 단계에서, 상기 전자 장치(110)은 상기 결정된 학습 패턴을 이용하여 상기 객체에 대한 정보를 생성할 수 있다. 예를 들어, 상기 결정된 학습 패턴이 선호인 경우, 상기 전자 장치(110)은 상기 객체를 사용자가 선호한다는 정보를 상기 객체에 대한 정보로서 생성할 수 있다. 다른 예를 들어, 상기 결정된 학습 패턴이 혐오인 경우, 상기 전자 장치(110)은 상기 객체를 사용자가 선호하지 않는다는 정보를 상기 객체에 대한 정보로서 생성할 수 있다.
도 13e는 다양한 실시 예들에 따른 사용자의 상태 정보에 기반하여 객체에 대한 정보를 생성하는 전자 장치의 또 다른 동작을 도시한 흐름도이다. 상기 동작은 상기 도 1에 도시된 상기 전자 장치(110)에 의해 수행될 수 있다.
상기 도 13e를 참조하면, 동작 흐름 1340은 1341 단계, 1342 단계, 1343 단계, 1344 단계, 1345 단계, 1346 단계, 1347 단계, 1348 단계, 및/또는 1349 단계를 포함할 수 있다.
상기 1341 단계에서, 상기 전자 장치(110)은 학습을 위해 사용자의 감정을 복수의 카테고리들로 분류할 수 있다. 상기 복수의 카테고리들에 대한 정보는 상기 전자 장치(110)의 저장부 또는 상기 서버(125)에 저장되어 있을 수 있다. 예를 들면, 상기 분류되는 복수의 카테고리들은 객체에 대한 기쁨, 객체에 대한 놀람, 객체에 대한 분노, 객체에 대한 공포, 객체에 대한 혐오로 구성될 수 있다. 상기 예시는 하나의 예일 뿐이고, 다른 기준에 따라 복수의 감정들을 분류할 수도 있다.
상기 1342 단계에서, 상기 전자 장치(110)은 상기 분류된 카테고리를 이용하여 학습을 위한 기준 프레임을 설정할 수 있다. 상기 전자 장치(110)은 상기 카테고리 별 감정들을 가장 잘 나타내는 피크 포인트(peak point)의 프레임을 기준 프레임으로 지정할 수 있다,. 상기 설정된 기준 프레임은 상기 전자 장치(110)의 저장부 또는 상기 서버(125)에 저장되어 있을 수 있다. 상기 기준 프레임을 지정하는 동작은 상기 전자 장치(110)이 분석할 정보를 간소화하기 위한 동작일 수 있다. 상기 전자 장치(110)은 매장에 방문하는 사용자를 통해 기준 프레임을 설정할 수 있다. 일부 실시 예에서, 상기 전자 장치(110)은 상기 기준 프레임을 미리 설정할 수도 있다. 예를 들어, 상기 전자 장치(110)은 객체 A의 특정 부분을 응시하는 사용자의 행동(예: 객체 A의 소매 부분을 응시하는 사용자의 행동)에 대한 영상, 객체 B를 착용하고 불편함을 느끼는 사용자의 행동(예: 객체 B가 사용자에게 작은 옷인 경우, 사용자의 행동)에 대한 영상을 획득할 수 있다. 상기 전자 장치(110)은 상기 획득된 영상들에서 사용자의 행동을 대표할 수 있는 프레임을 기준 프레임으로 지정할 수 있다.
상기 1343 단계에서, 상기 전자 장치(110)은 상기 기준 프레임에 포함된 복수의 포인트들의 위치 변화 패턴을 학습할 수 있다. 예를 들어, 상기 전자 장치(110)은 지정된 기준 프레임에 포함되어 있는 사용자의 신체 영역을 스켈레톤(skeleton)으로 변환할 수 있다. 상기 전자 장치(110)은 상기 변환된 스켈레톤 중 복수의 포인트들을 자동으로 지정할 수 있다. 상기 복수의 포인트들은 위치 변화 패턴을 학습하기 위한 기준점일 수 있다. 예를 들면, 상기 전자 장치(110)은 상기 기준 프레임에 포함된 복수의 포인트들을 통해 위치 변화 패턴을 학습할 수 있다. 예를 들면, 상기 전자 장치(110)은 객체의 특정 부분에 불만족하는 사용자의 행동에 대응하는 복수의 포인트들의 위치 변화 패턴, 객체의 사이즈, 디자인에 불만족하는 사용자의 행동에 대응하는 복수의 포인트들의 위치 변화 패턴 등을 학습할 수 있다.
상기 1344 단계에서, 상기 전자 장치(110)은 획득된 사용자의 영상 데이터를 스켈레톤으로 변환할 수 있다. 상기 스켈레톤으로의 변환 동작은, 획득되는 사용자의 영상 데이터에서 사용자의 행동에 대한 벡터들을 추출하기 위한 동작일 수 있다.
상기 1345 단계에서, 상기 전자 장치(110)은 상기 변환된 스켈레톤에서 복수의 포인트들을 추출할 수 있다. 상기 복수의 포인트들은 위치 변화를 추적하기 위한 기준점일 수 있다. 상기 전자 장치(110)은 상기 변환된 스켈레톤의 관절 부분을 중심으로 복수의 포인트들을 추출할 수 있다.
상기 1346 단계에서, 상기 전자 장치(110)은 상기 추출된 복수의 포인트들이 복수의 학습된 패턴들 중 하나와 동일한지 여부를 판정할 수 있다. 상기 스켈레톤에서 추출된 복수의 포인트들의 변화 패턴이 복수의 학습된 패턴들 중 하나와 일치하는 경우, 상기 전자 장치(110)은 상기 1347 단계의 동작을 수행할 수 있다. 이와 달리, 상기 스켈레톤에서 추출된 복수의 포인트들의 변화 패턴이 복수의 학습된 패턴들 모두와 일치하지 않는 경우, 상기 전자 장치(110)은 상기 1348 단계의 동작을 수행할 수 있다.
상기 1347 단계에서, 상기 전자 장치(110)은 대응되는 학습된 패턴에 따라 객체에 대한 정보를 생성할 수 있다. 예를 들어, 상기 스켈레톤에서 추출된 상기 복수의 포인트들의 변화 패턴이 사이즈가 작다는 사용자의 행동으로 판정된 경우, 상기 전자 장치(110)은 상기 객체의 사이즈에 대하여 사용자가 불만족하고 있다는 정보를 상기 객체에 대한 정보로서 생성할 수 있다.
상기 1348 단계에서, 상기 전자 장치(110)은 상기 스켈레톤에서 추출된 상기 복수의 포인트들의 변화 패턴과 가장 유사한 학습 패턴을 결정할 수 있다. 예를 들면, 상기 전자 장치(110)은 업데이트 룰과 유클리디언 거리 등을 이용하여 상기 스켈레톤에서 추출된 복수의 포인트들의 변화 패턴과 가장 유사한 학습 패턴을 결정할 수 있다.
상기 1349 단계에서, 상기 전자 장치(110)은 상기 결정된 학습 패턴을 이용하여 상기 객체에 대한 정보를 생성할 수 있다. 예를 들어, 상기 결정된 학습 패턴이 객체(예: 의류)의 소매 부분에 대해 사용자가 불만족하는 행동에 대응하는 패턴인 경우, 상기 전자 장치(110)은 상기 객체의 소매 부분에 대해 사용자가 불만족하고 있다는 정보를 상기 객체에 대한 정보로서 생성할 수 있다.
도 13f는 다양한 실시 예들에 따른 사용자의 상태 정보에 기반하여 객체에 대한 정보를 생성하는 전자 장치의 또 다른 동작을 도시한 흐름도이다. 상기 동작은 상기 도 1에 도시된 상기 전자 장치(110)에 의해 수행될 수 있다.
상기 도 13f를 참조하면, 동작 흐름 1350은 1351 단계, 1352 단계, 1353 단계, 1354 단계, 1355 단계, 및/또는 1356 단계를 포함할 수 있다.
상기 1351 단계에서, 상기 전자 장치(110)은 복수의 기준 어휘들을 설정할 수 있다. 상기 복수의 기준 어휘들은 사용자의 음성 신호 중에서 분석을 위한 부분을 필터링(filtering)하기 위한 기준점으로 이용될 수 있다. 예를 들어, 객체가 옷인 경우, 상기 기준 어휘는 허리, 기장 등으로 설정될 수 있다. 다른 예를 들어, 객체가 고가인 경우, 상기 기준 어휘는 가격 등으로 설정될 수 있다. 또 다른 예를 들어, 객체가 스마트폰(smartphone)인 경우, 상기 기준 어휘는 색깔(color), 기능(function) 등일 수 있다.
상기 1352 단계에서, 상기 전자 장치(110)은 사용자의 음성 신호를 획득할 수 있다. 상기 전자 장치(110)은 상기 센서(210) 등을 통해 사용자의 음성 신호를 획득할 수 있다.
상기 1353 단계에서, 상기 전자 장치(110)은 상기 획득된 사용자의 음성 신호가 복수의 기준 어휘들 중 적어도 하나를 포함하는지 여부를 판정할 수 있다. 상기 획득된 사용자의 음성 신호가 복수의 기준 어휘들 중 적어도 하나를 포함하는 경우, 상기 전자 장치(110)은 상기 1354 단계에서의 동작을 수행할 수 있다. 예를 들어, 상기 획득된 사용자의 음성 신호가 "옷을 착용해 보니까 디자인은 마음에 들어. 그런데 내가 볼 땐 허리 부분이 불편한데, 너는 어떻게 생각해"이고, 복수의 기준 어휘들 중에서 "허리"가 포함되어 있는 경우, 상기 전자 장치(110)은 상기 획득된 사용자의 음성 신호에 기준 어휘가 포함되어 있다고 판정할 수 있다. 상기 획득된 사용자의 음성 신호가 복수의 기준 어휘들 모두를 포함하지 않는 경우, 상기 전자 장치(110)은 상기 음성 신호에 대한 분석을 종료할 수 있다.
상기 1354 단계에서, 상기 전자 장치(110)은 상기 기준 어휘와 일치하는 음성 신호의 전후 부분을 분석할 수 있다. 상술한 예시의 경우, 상기 전자 장치(110)은 상기 어휘 "허리"의 전후 부분인 "옷을 착용해 보니까 디자인은 마음에 들어. 그런데 내가 볼 땐" 부분과 "부분이 불편한데, 너는 어떻게 생각해?" 부분의 음성 신호를 분석할 수 있다.
상기 1355 단계에서, 상기 전자 장치(110)은 상기 분석된 음성 신호를 통해 사용자의 의사를 식별할 수 있다. 상술한 예시의 경우, 상기 전자 장치(110)은 사용자가 옷의 디자인에 대하여는 만족하고 있지만, 허리 사이즈에 대하여 불만족하고 있다는 사용자의 의사를 식별할 수 있다.
상기 1356 단계에서, 상기 전자 장치(110)은 상기 식별된 사용자의 의사를 통해 객체에 대한 정보를 생성할 수 있다. 상술한 예시의 경우, 상기 전자 장치(110)은 사용자가 옷의 디자인에 대하여는 만족하고 있지만, 허리 사이즈에 대하여 불만족하고 있다는 정보를 객체에 대한 정보로서 생성할 수 있다. 또한, 상기 전자 장치(110)은 상기 사용자에게 한 치수 큰 사이즈의 옷을 추천하는 정보, 상기 사용자에게 유사한 디자인을 가지면서 허리 사이즈에 여유가 있는 의류를 추천하는 정보 등을 객체에 대한 정보로서 생성할 수 있다.
도 13g는 다양한 실시 예들에 따른 복수의 사용자의 상태 정보에 기반하여 객체에 대한 정보를 생성하는 전자 장치의 동작을 도시한 흐름도이다. 상기 동작은 상기 도 1에 도시된 상기 전자 장치(110)에 의해 수행될 수 있다.
상기 도 13g를 참조하면, 동작 흐름 1360은 1361 단계, 1362 단계, 및/또는 1363 단계를 포함할 수 있다.
상기 1361 단계에서, 상기 전자 장치(110)은 상기 전자 장치(110)에 포함된 상기 센서(210)(예를 들면, 카메라)를 통해 사용자의 영상 데이터를 획득할 수 있다. 상기 전자 장치(110)은 상기 전자 장치(110)에 포함된 상기 센서(210)(예를 들면, 마이크)를 통해 상기 사용자의 음성 데이터를 획득할 수 있다. 상기 전자 장치(110)은 상기 사용자 장치(120)으로부터 상기 사용자의 신체 상태 데이터를 획득할 수 있다. 상기 사용자의 신체 상태 데이터는 상기 사용자 장치(120)에 포함된 상기 센서(405)로부터 획득될 수 있다. 예를 들면, 상기 사용자의 신체 상태 데이터는 상기 사용자의 맥박수, 상기 사용자의 혈압 등에 대한 정보를 포함할 수 있다.
상기 1362 단계에서, 상기 전자 장치(110)은 상기 영상 데이터에 기반하여 제1 객체에 대한 정보를 생성할 수 있다. 상기 영상 데이터는 상기 사용자의 얼굴 정보 및/또는 상기 사용자의 동작 정보를 포함할 수 있다. 예를 들면, 상기 전자 장치(110)은 상기 도 13d 및 상기 도 13e에 예시된 다수의 동작들 중 적어도 하나의 동작들을 이용하여 상기 제1 객체에 대한 정보를 생성할 수 있다.
상기 전자 장치(110)은 상기 음성 데이터에 기반하여 제2 객체에 대한 정보를 생성할 수 있다. 예를 들면, 상기 전자 장치(110)은 상기 도 13c 및 상기 도 13f에 예시된 다수의 동작들 중 적어도 하나의 동작들을 이용하여 상기 제2 객체에 대한 정보를 생성할 수 있다.
상기 전자 장치(110)은 상기 신체 상태 데이터에 기반하여 제3 객체에 대한 정보를 생성할 수 있다.
1363 단계에서, 상기 전자 장치(110)은 상기 제1 객체에 대한 정보 내지 상기 제3 객체에 대한 정보 중 적어도 하나를 조합하여 객체에 대한 정보를 생성할 수 있다. 상기 제1 객체에 대한 정보 내지 상기 제3 객체에 대한 정보의 조합을 통해, 상기 전자 장치(110)은 보다 정확하게 상기 객체에 대한 정보를 생성할 수 있다.
도 14a는 다양한 실시 예들에 따른 메시지를 표시하는 전자 장치의 동작을 도시한 흐름도이다. 상기 동작은 상기 도 1에 도시된 상기 전자 장치(110)에 의해 수행될 수 있다.
상기 도 14a를 참조하면, 동작 흐름 1400은 1401 단계, 및/또는 1402 단계의 동작을 포함할 수 있다.
상기 1401 단계에서, 상기 전자 장치(110)은 객체에 대한 정보에 기반하여 객체 또는 사용자와 관련된 메시지를 생성할 수 있다.
상기 객체에 대한 정보는 고객 정보를 포함할 수 있다. 예를 들면, 상기 고객 정보는 상기 사용자 장치(120)에 대응하는 사용자(예를 들면, 상기 사용자(130))의 나이, 성별 등에 따른 객체 구매 이력, 비구매 이력 등을 포함할 수 있다. 또한, 상기 객체에 대한 정보는 다수 고객 정보를 포함할 수 있다. 상기 다수 고객 정보는 특정 객체에 대한 다수의 고객들의 구매 데이터에 기반하는 정보일 수 있다. 상기 고객 정보 및 다수 고객 정보는 상기 전자 장치(110)의 저장부 또는 상기 서버(125) 내에 저장되어 있을 수 있다.
상기 객체 또는 사용자와 관련된 메시지는 상기 객체의 구매를 유도하는 메시지일 수 있다. 상기 객체 또는 사용자와 관련된 메시지는 상기 사용자에게 적용될 수 있는 혜택, 상기 객체에 대한 할인 정보를 제공하는 메시지일 수 있다.
일부 실시 예에서, 상기 객체 또는 사용자와 관련된 메시지는 하기의 방법에 의해 생성될 수 있다. 상기 전자 장치(110)은 상기 다수 고객 정보와 상기 고객 정보를 이용하여 고객이 특정 객체를 구매할 확률을 산출할 수 있다. 상기 고객이 특정 객체를 구매할 확률은 하기의 수학식 1과 같이 표현할 수 있다.
Figure pat00011
만약, 상기 고객이 상기 특정 객체를 구매하는 사건과, 상기 다수 고객들이 상기 특정 객체를 구매하는 사건이 서로 독립한 사건이라고 가정하면, 상기 수학식 1은 하기의 수학식 2로 표현될 수 있다.
Figure pat00012
상기 특정 객체가 여러 가지 특성을 가지고 있다고, 상기 수학식 2의
Figure pat00013
는 하기의 수학식 3과 같이 표현될 수 있다.
Figure pat00014
상기 수학식 3에서, 상기
Figure pat00015
은 상기 특정 객체가 가지고 있는 여러 가지 특성을 지시하는 것일 수 있다. 상기
Figure pat00016
은 상기 다수 고객 정보에 포함된 정보들의 예시일 수 있다.
상기 수학식 3은 하기의 수학식 4와 같이 표현될 수 있다.
Figure pat00017
상기 수학식 4에 Bayes Rule을 적용할 경우, 상기 수학식 4는 하기의 수학식 5와 같이 표현될 수 있다.
Figure pat00018
상기 수학식 5를 이용하면, 상기
Figure pat00019
는 하기의 수학식 6과 같이 표현될 수 있다.
Figure pat00020
상기 다수 고객 정보에 포함된 정보들(예를 들면, 감정, 동작, 어휘, 연령 등) 각각이 서로 독립이라고 가정하면, 상기 수학식 6은 하기의 수학식 7과 같이 표현될 수 있다.
Figure pat00021
상기 수학식 7의 구성요소 각각(예를 들면,
Figure pat00022
,
Figure pat00023
,
Figure pat00024
등)은 상기 객체에 대한 정보를 통해 산출될 수 있기 때문에, 상기 전자 장치(110)은 상기 수학식 7을 통해,
Figure pat00025
를 산출할 수 있다.
상기 전자 장치(110)은 상기 수학식 3 내지 7의 원리를 이용하여
Figure pat00026
도 산출할 수 있다. 또한, 상기 전자 장치(110)은 상기
Figure pat00027
,
Figure pat00028
, 및 상기 수학식 2를 이용하여 상기 고객이 상기 특정 객체를 구매할 확률(즉,
Figure pat00029
)을 산출할 수 있다.
상기 전자 장치(110)은 수학식 3 내지 7의 원리를 이용하여 상기 고객이 상기 특정 객체를 구매하지 않을 확률(즉,
Figure pat00030
)를 산출할 수 있다.
상기 전자 장치(110)은 상기
Figure pat00031
Figure pat00032
의 비교를 통하여 상기 고객의 상기 특정 객체의 구매 의사를 판정할 수 있다. 예를 들어, 상기
Figure pat00033
가 상기
Figure pat00034
보다 큰 경우, 상기 전자 장치(110)은 상기 고객이 상기 특정 객체를 구매할 의사가 큰 것으로 판정할 수 있다. 다른 예를 들어, 상기
Figure pat00035
가 상기
Figure pat00036
보다 작은 경우, 상기 전자 장치(110)은 상기 고객이 상기 특정 객체를 구매할 의사가 작은 것으로 판정할 수 있다.
상기 전자 장치(110)은 구매 또는 비구매의 원인을 추정할 수도 있다. 예를 들어, 상기 고객이 상기 특정 객체를 구매할 의사가 작은 경우, 상기 전자 장치(110)은
Figure pat00037
중에서 가장 큰 확률의 요소를 검색하여 상기 고객이 상기 객체를 비구매하는 원인으로 추정할 수 있다.
상기 전자 장치(110)은 상기 구매 의사, 비구매 의사, 구매 원인, 비구매 원인을 이용하여 상기 객체 또는 사용자와 관련된 메시지를 생성할 수 있다.
상기 수학식 1 내지 상기 수학식 7을 이용하는 방식은 하나의 실시 예일 뿐, 본 개시의 범위를 벗어나지 않는 한, 다양한 방식들을 이용하여 상기 전자 장치(110)은 상기 객체 또는 사용자와 관련된 메시지를 생성할 수 있다.
상기 1402 단계에서, 상기 전자 장치(110)은 상기 객체 또는 사용자와 관련된 메시지를 상기 표시부(215)에 표시할 수 있다. 상기 1402 단계에서의 동작을 통해, 사용자는 객체에 대한 상기 사용자의 판단 뿐 아니라, 보조 정보를 제공받을 수 있다. 일부 실시 예에서, 상기 표시된 메시지는 사용자를 위한 사용자 인터페이스, 아이콘 등을 포함할 수 있으며, 사용자의 편의를 위한 링크(link) 등을 포함할 수도 있다.
다른 일부 실시 예에서, 상기 전자 장치(110)은 상기 전자 장치(110)에 포함된 스피커 등을 통해 상기 객체 또는 사용자와 관련된 메시지를 상기 사용자가 청취할 수 있도록 할 수도 있다. 상기 전자 장치(110)은, 다양한 방식들을 이용하여 상기 사용자가 상기 객체 또는 사용자와 관련된 메시지를 인지할 수 있도록 할 수 있다.
다양한 실시 예들에 따른 전자 장치는 다양한 메시지들을 표시부에 표시할 수 있다. 상기 다양한 메시지들은 상기 사용자의 객체에 대한 선택에 긍정적인 영향을 줄 수 있다. 상기 다양한 메시지들은 상기 사용자의 선택의 폭을 넓힐 수도 있다. 상기 전자 장치는 상기 다양한 메시지들을 상기 사용자의 객체에 대한 반응 또는 감정에 기반하여 생성할 수 있다. 상기 전자 장치는 사용자의 반응에 따라 적응적으로 객체의 판매를 유도할 수 있다.
도 14b는 다양한 실시 예들에 따른 메시지를 송신하는 전자 장치의 동작을 도시한 흐름도이다. 상기 동작은 상기 도 1에 도시된 상기 전자 장치(110)에 의해 수행될 수 있다.
상기 도 14b를 참조하면, 동작 흐름 1410은 1411 단계, 및/또는 1412 단계의 동작을 포함할 수 있다.
상기 1411 단계에서, 상기 전자 장치(110)은 객체에 대한 정보에 기반하여 객체 또는 사용자와 관련된 메시지를 생성할 수 있다. 상기 1411 단계에서의 동작은 상기 도 14a에 도시된 상기 1401 단계에서의 동작에 대응될 수 있다.
상기 1412 단계에서, 상기 전자 장치(110)은 상기 사용자 장치(120)에게 객체 또는 사용자와 관련된 메시지를 송신할 수 있다. 사용자가 상기 전자 장치(110)으로부터 멀어진 경우, 상기 전자 장치(110)은 상기 객체 또는 사용자와 관련된 메시지를 상기 사용자 장치(120)에 송신할 수 있다. 상기 전자 장치(110)은 상기 사용자의 구매를 유도하기 위해 상기 사용자 장치(120)에게 상기 객체 또는 사용자와 관련된 메시지를 송신할 수 있다.
도 14c는 다양한 실시 예들에 따른 메시지를 수신하여 표시하는 사용자 장치의 동작을 도시한 흐름도이다. 상기 동작은 상기 도 1에 도시된 상기 사용자 장치(120)에 의해 수행될 수 있다.
상기 도 14c를 참조하면, 동작 흐름 1420은 1421 단계, 및/또는 1422 단계의 동작을 포함할 수 있다.
1421 단계에서, 상기 사용자 장치(120)은 상기 전자 장치(110)으로부터 객체 또는 사용자와 관련된 메시지를 수신할 수 있다. 사용자가 상기 전자 장치(110)으로부터 이격된 경우, 상기 사용자 장치(120)은 상기 객체 또는 사용자와 관련된 메시지를 수신할 수 있다.
1422 단계에서, 상기 사용자 장치(120)은 상기 객체 또는 사용자와 관련된 메시지를 상기 표시부(415)에 표시할 수 있다. 상기 표시 동작을 통해, 상기 사용자는 상기 객체에 대한 현재 감정 또는 반응을 변경할 수도 있다.
다양한 실시 예들에 따른 전자 장치(110)은 사용자의 이탈 여부와 관계없이 사용자에게 정보를 제공하여 객체에 대한 지속적인 서비스를 제공할 수 있다.
도 14d는 다양한 실시 예들에 따른 메시지 표시 절차의 신호 흐름을 도시한 다. 상기 신호 흐름은 상기 도 1에 도시된 상기 전자 장치(110), 상기 사용자 장치(120)에서 발생될 수 있다.
상기 도 14d를 참조하면, 1431 단계에서, 상기 전자 장치(110)은 객체 또는 사용자와 관련된 메시지를 생성할 수 있다. 상기 전자 장치(110)은 지속적인 서비스의 제공을 위해, 또는 사용자의 감정의 변경을 위해, 상기 객체 또는 사용자와 관련된 메시지를 생성할 수 있다.
1432 단계에서, 상기 전자 장치(110)은 상기 객체 또는 사용자와 관련된 메시지를 상기 사용자 장치(120)에게 송신할 수 있다. 상기 사용자 장치(120)은 상기 전자 장치(110)으로부터 상기 객체 또는 사용자와 관련된 메시지를 수신할 수 있다.
1433 단계에서, 상기 사용자 장치(120)은 상기 수신된 메시지를 표시할 수 있다. 상기와 같은 표시 동작을 통해 상기 사용자 장치(120)의 사용자는 상기 전자 장치(110)과의 거리에 관계없이 다양한 정보를 제공받을 수 있다.
도 15a는 다양한 실시 예들에 따른 객체의 구매 여부에 따른 전자 장치의 동작을 도시한 흐름도이다. 상기 동작은 상기 도 1에 도시된 상기 전자 장치(110)에 의해 수행될 수 있다.
상기 도 15a를 참조하면, 동작 흐름 1500은 1501 단계, 1502 단계, 1503 단계, 및/또는 1504 단계의 동작을 포함할 수 있다.
상기 1501 단계에서, 상기 전자 장치(110)은 또 다른 전자 장치로부터 사용자의 객체 구매 여부를 지시하는 메시지를 수신할 수 있다. 예를 들어, 사용자가 객체를 구매하지 않고 매장을 이탈한 경우, 상기 전자 장치(110)은 상기 또 다른 전자 장치로부터 사용자가 객체를 구매하지 않았다는 내용을 포함하는 메시지를 수신할 수 있다.
상기 1502 단계에서, 상기 전자 장치(110)은 정해진 규칙에 따라 상기 수신된 메시지를 처리하여 사용자가 객체를 구매하였는지 여부를 분석할 수 있다. 사용자가 객체를 구매한 경우, 상기 전자 장치(110)은 상기 1504 단계에서의 동작을 수행할 수 있다. 이와 달리, 사용자가 객체를 구매하지 않은 경우, 상기 전자 장치(110)은 상기 1503 단계에서의 동작을 수행할 수 있다.
상기 1503 단계에서, 상기 전자 장치(110)은 상기 서버(125)에게 구매 정보를 포함하는 메시지를 송신할 수 있다. 상기 구매 정보를 포함하는 메시지의 송신 동작은 상기 서버(125)에 사용자의 구매 정보를 업데이트하기 위한 동작일 수 있다. 상기 전자 장치(110)은 상기 사용자 장치(120)에게 텍스트 메시지를 송신할 수 있다. 상기 텍스트 메시지는 다양한 종류의 메시지들로 대체될 수 있다. 예를 들어, 상기 도 15의 도시와 달리, 상기 텍스트 메시지는 이미지가 포함된 메시지일 수도 있고, 링크가 포함된 메시지일 수도 있다. 상기 전자 장치(110)은 이후의 객체 구매를 위해 상기 사용자 장치(120)에게 상기 텍스트 메시지를 송신할 수 있다.
상기 1504 단계에서, 상기 전자 장치(110)은 상기 서버(125)에게 비구매 정보를 포함하는 메시지를 송신할 수 있다. 상기 비구매 정보를 포함하는 메시지의 송신 동작은 상기 서버(125)에게 사용자의 구매 정보를 업데이트하기 위한 동작일 수 있다. 상기 전자 장치(110)은 상기 사용자 장치(120)에게 텍스트 메시지를 송신할 수 있다. 상기 텍스트 메시지는 다양한 종류들의 메시지로 대체될 수 있다. 상기 전자 장치(110)은 이후의 객체 구매를 유도하기 위해 상기 사용자 장치(120)에게 상기 텍스트 메시지를 송신할 수 있다.
도 15b는 다양한 실시 예들에 따른 피드백을 제공하는 서버의 동작을 도시한 흐름도이다. 상기 동작은 상기 도 1에 도시된 상기 서버(125)에 의해 수행될 수 있다.
상기 도 15b를 참조하면, 상기 서버(125)는 1511 단계, 1512 단계, 1513 단계, 1514 단계, 1515 단계, 및/또는 1516 단계의 동작을 포함할 수 있다.
상기 1511 단계에서, 상기 서버(125)는 상기 전자 장치(110)으로부터 구매 메시지 또는 비구매 메시지를 수신할 수 있다. 상기 구매 메시지는 사용자가 객체를 구매하였다는 내용을 지시하는 메시지이고, 상기 비구매 메시지는 사용자가 객체를 구매하지 않았다는 내용을 지시하는 메시지일 수 있다.
상기 1512 단계에서, 상기 서버(125)는 정해진 규칙에 따라 수신된 메시지를 분석하여 사용자가 객체를 구매하였는지 여부를 결정할 수 있다. 사용자가 객체를 구매한 경우, 상기 서버(125)는 상기 1515 단계에서의 동작을 수행할 수 있다. 이와 달리, 사용자가 객체를 구매하지 않은 경우, 상기 서버(125)는 상기 1513 단계에서의 동작을 수행할 수 있다.
상기 1513 단계에서, 상기 서버(125)는 정해진 기준에 따라 사용자의 비구매 정보를 분류하여 저장할 수 있다. 예를 들어, 상기 서버(125)는 상기 사용자의 비구매 정보를 날짜 순(또는 시간 순)으로 분류하여 저장할 수도 있고, 객체 별로 분류하여 저장할 수도 있다. 상기 서버(125)는 이후의 데이터 제공에 적합하도록 상기 정보를 분류하여 저장할 수 있다.
상기 1514 단계에서, 상기 서버(125)는 제조사 등에게 피드백을 송신할 수 있다. 상기 서버(125)는 제조사 등에게 사용자의 객체 비구매 사유를 포함하여 전송할 수 있다. 상기 객체 비구매 사유는 사용자에 대한 설문 조사에 기반할 수 있다. 상기 객체 비구매 사유는 사용자의 상태 정보에 기반하여 생성된 객체에 대한 정보에 기반할 수 있다. 제조사 등은 상기 피드백을 활용하여 사용자의 성향, 시대의 추세에 부합하는 객체를 개발할 수 있다.
상기 1516 단계에서, 상기 서버(125)는 상기 사용자 장치(120)에게 광고 메시지를 전송할 수 있다. 상기 서버(125)는 상기 수신된 비구매 메시지 등에 기반하여 상기 광고 메시지를 생성하여 전송할 수 있다. 예를 들면, 상기 서버(125)는 사용자를 위한 할인 혜택 등을 포함하는 광고 메시지를 상기 사용자 장치(120)에게 전송할 수 있다.
상기 1515 단계에서, 상기 서버(125)는 상기 정해진 기준에 따라 분류하여 구매 정보를 저장할 수 있다. 상기 서버(125)는 이후의 정보 제공에 적합하도록 상기 구매 정보를 분류하여 저장할 수 있다.
도 15b에 도시하지 않았지만, 사용자가 객체를 구매한 경우, 상기 서버(125)는 재방문을 유도하거나, 구매에 감사한다는 내용을 포함하는 메시지를 상기 사용자 장치(120)에게 송신할 수 있다.
도 15c는 다양한 실시 예들에 따른 메시지 송신 절차의 신호 흐름을 도시한다. 상기 신호 흐름은 상기 도 1에 도시된 상기 전자 장치(110), 상기 사용자 장치(120), 상기 서버(125), 또 다른 전자 장치 1520에서 발생될 수 있다.
상기 도 15c를 참조하면, 상기 또 다른 전자 장치 1520은 사용자의 매장 이탈을 감지하는 장치 또는 사용자의 매장 이탈을 감지하는 장치와 동작적으로 연결된 장치일 수 있다. 상기 또 다른 전자 장치 1520은 사용자의 객체 구매 여부를 인지할 수 있다.
1521 단계에서, 상기 또 다른 전자 장치 1520은 상기 전자 장치(110)에게 사용자의 객체 구매 여부를 지시하는 메시지를 송신할 수 있다. 상기 전자 장치(110)은 상기 또 다른 전자 장치 1520으로부터 상기 사용자의 객체 구매 여부를 지시하는 메시지를 수신할 수 있다.
1522 단계에서, 상기 전자 장치(110)은 사용자가 객체를 구매하였는지 여부를 분석할 수 있다.
사용자가 객체를 구매한 경우, 1523 단계에서, 상기 전자 장치(110)은 구매 정보를 포함하는 메시지를 상기 서버(125)에게 송신할 수 있다. 또한, 1524 단계에서, 상기 전자 장치(110)은 텍스트 메시지를 상기 사용자 장치(120)에게 송신할 수 있다. 상기 1523 단계에서의 동작과 상기 1524 단계에서의 동작은 동시에 수행될 수도 있고, 역순으로 수행될 수도 있다. 상기 서버(125)는 상기 구매 정보를 포함하는 메시지의 수신에 대응하여, 상기 구매 정보를 저장할 수 있다. 상기 서버(125)는 이후의 데이터 요청에 용이하게 대응할 수 있도록 상기 구매 정보를 분류하여 저장할 수 있다.
사용자가 객체를 비구매한 경우, 1526 단계에서, 상기 전자 장치(110)은 비구매 정보를 포함하는 메시지를 상기 서버(125)에게 송신할 수 있다. 또한, 1527 단계에서, 상기 전자 장치(110)은 텍스트 메시지를 상기 사용자 장치(120)에게 송신할 수 있다. 상기 1526 단계에서의 동작과 상기 1527 단계에서의 동작은 동시에 수행될 수도 있고, 역순으로 수행될 수도 있다. 상기 서버(125)는 이후의 데이터 요청 또는 조회에 용이하게 대응할 수 있도록 상기 비구매 정보를 저장할 수 있다.
1529 단계에서, 상기 서버(125)는 제조사 등에게 피드백을 제공할 수 있다. 상기 피드백은 상기 제조사 등의 객체 개발의 참고 자료 또는 보조 자료가 될 수 있다.
1530 단계에서, 상기 서버(125)는 상기 전자 장치(110)에게 광고 메시지 등을 전송할 수 있다. 정책적으로 상기 매장에 진입하는 복수의 사용자들에게 메시지를 송신할 필요가 있는 경우, 상기 서버(125)는 상기 전자 장치(110)에게 광고 메시지 등을 전송할 수 있다. 이에 대응하여 상기 전자 장치(110)은 매장 내의 복수의 사용자들에게 상기 메시지를 송신할 수 있다.
상술한 바와 같이, 다양한 실시 예들에 따른 전자 장치(110)은 빅데이터를 이용하여 사용자의 구매 의사를 판정할 수 있다. 또한, 상기 전자 장치(110)은 상기 판정된 사용자의 구매 의사에 기반하여 사용자가 객체를 구매하도록 유도하는 메시지를 표시할 수 있다,
도 16은 다양한 실시 예들에 따른 장치들의 신호 흐름을 도시한다. 이러한 신호 흐름은 상기 도 1에 도시된 상기 전자 장치(110), 상기 다른 전자 장치(115)(예를 들면, 상기 다른 전자 장치 #1(115-1), 상기 다른 전자 장치 #2(115-2)), 상기 사용자 장치(120), 상기 서버(125)에서 발생될 수 있다.
상기 도 16을 참조하면, 1610 단계에서, 매장 입구에 설치된 상기 다른 전자 장치 #1(115-1)은 상기 사용자 장치(120)에게 비콘 신호를 송신할 수 있다. 상기 비콘 신호는 상기 매장의 식별 정보 등을 포함할 수 있다. 상기 사용자 장치(120)은 상기 다른 전자 장치 #1(115-1)로부터 상기 비콘 신호를 수신할 수 있다.
1620 단계에서, 상기 사용자 장치(120)은 상기 다른 전자 장치 #1(115-1)의 식별 정보를 상기 서버(125)에게 송신할 수 있다. 상기 서버(125)는 상기 사용자 장치(120)으로부터 상기 다른 전자 장치 #1(115-1)의 식별 정보를 수신할 수 있다.
1630 단계에서, 상기 서버(125)는 상기 사용자 장치(120)의 매장 진입을 상기 전자 장치(110)에게 알릴 수 있다. 일부 실시 예에서, 상기 서버(125)는 상기 사용자 장치(120)에 대응하는 사용자의 정보를 상기 알림과 함께 송신할 수 있다.
1640 단계에서, 상기 다른 전자 장치 #2(115-2)는 상기 전자 장치(110)에게 상기 다른 전자 장치 #2(115-2)에 대응하는 객체의 식별 정보를 송신할 수 있다. 상기 다른 전자 장치 #2(115-2)는 객체의 상태의 변화에 대응하여 상기 객체의 식별 정보를 상기 전자 장치(110)에게 송신할 수 있다.
1650 단계에서, 상기 사용자가 상기 전자 장치(110)에 근접하여 위치하게 되는 경우, 상기 전자 장치(110)은 상기 센서(210)(예: 카메라)를 통해 상기 사용자의 영상 데이터를 획득할 수 있다. 상기 전자 장치(110)은 상기 센서(210)(예: 마이크)를 통해 상기 사용자의 음성 데이터를 획득할 수 있다.
1660 단계에서, 상기 사용자 장치(120)은 상기 전자 장치(110)에게 상기 사용자의 신체 상태 데이터를 송신할 수 있다. 상기 전자 장치(110)은 상기 사용자 장치(120)으로부터 상기 사용자의 신체 상태 데이터를 수신할 수 있다.
상기 1650 단계 내지 상기 1660 단계에서의 동작은 동시에 수행될 수 있고, 순차적으로 수행될 수도 있으며, 역순으로 수행될 수도 있다.
1670 단계에서, 상기 서버(125)는 상기 전자 장치(110)에게 빅데이터를 제공할 수 있다. 상기 빅데이터는 상기 전자 장치(110)이 상기 영상 데이터, 상기 음성 데이터, 상기 신체 상태 데이터에 기반하여 객체에 대한 정보를 생성하는 것을 보조하기 위한 데이터를 포함할 수 있다.
1680 단계에서, 상기 전자 장치(110)은 획득된 데이터에 기반하여 객체에 대한 정보를 생성할 수 있다. 상기 전자 장치(110)은 상기 전자 장치(110)에 포함된 저장부에 미리 저장된 정보를 이용하거나 상기 서버(125)에 저장된 정보를 이용하여 상기 객체에 대한 정보를 생성할 수 있다.
1690 단계에서, 상기 전자 장치(110)은 상기 객체에 대한 정보로부터 기반되는 객체 또는 사용자와 관련된 메시지를 표시할 수 있다. 예를 들면, 상기 전자 장치(110)은 상기 객체 또는 사용자와 관련된 메시지를 상기 전자 장치(110)에 포함된 상기 표시부(215)에 표시할 수 있다. 다른 예를 들면, 상기 전자 장치(110)은 상기 전자 장치(110)에 포함된 스피커를 통해 상기 사용자에게 상기 객체 또는 사용자와 관련된 메시지를 음성으로 제공할 수도 있다.
지금까지의 설명은 본 개시의 기술적 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자라면 본 개시의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
따라서, 본 개시의 실시 예들은 본 개시의 기술적 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 개시의 기술 사상의 범위가 한정되는 것은 아니다. 본 개시의 보호 범위는 하기의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술적 사상은 본 개시의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
본 개시의 청구항 또는 명세서에 기재된 실시 예들에 따른 방법들은 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합의 형태로 구현될(implemented) 수 있다.
소프트웨어로 구현하는 경우, 하나 이상의 프로그램(소프트웨어 모듈)을 저장하는 컴퓨터 판독 가능 저장 매체가 제공될 수 있다. 컴퓨터 판독 가능 저장 매체에 저장되는 하나 이상의 프로그램은, 전자 장치(device) 내의 하나 이상의 프로세서에 의해 실행 가능하도록 구성된다(configured for execution). 하나 이상의 프로그램은, 전자 장치로 하여금 본 개시의 청구항 또는 명세서에 기재된 실시 예들에 따른 방법들을 실행하게 하는 명령어(instructions)를 포함한다.
이러한 프로그램(소프트웨어 모듈, 소프트웨어)은 랜덤 액세스 메모리 (random access memory), 플래시(flash) 메모리를 포함하는 불휘발성(non-volatile) 메모리, 롬(ROM: Read Only Memory), 전기적 삭제가능 프로그램가능 롬(EEPROM: Electrically Erasable Programmable Read Only Memory), 자기 디스크 저장 장치(magnetic disc storage device), 컴팩트 디스크 롬(CD-ROM: Compact Disc-ROM), 디지털 다목적 디스크(DVDs: Digital Versatile Discs) 또는 다른 형태의 광학 저장 장치, 마그네틱 카세트(magnetic cassette)에 저장될 수 있다. 또는, 이들의 일부 또는 전부의 조합으로 구성된 메모리에 저장될 수 있다. 또한, 각각의 구성 메모리는 다수 개 포함될 수도 있다.
또한, 상기 프로그램은 인터넷(Internet), 인트라넷(Intranet), LAN(Local Area Network), WLAN(Wide LAN), 또는 SAN(Storage Area Network)과 같은 통신 네트워크, 또는 이들의 조합으로 구성된 통신 네트워크를 통하여 접근(access)할 수 있는 부착 가능한(attachable) 저장 장치(storage device)에 저장될 수 있다. 이러한 저장 장치는 외부 포트를 통하여 본 개시의 실시 예를 수행하는 장치에 접속할 수 있다. 또한, 통신 네트워크상의 별도의 저장장치가 본 개시의 실시 예를 수행하는 장치에 접속할 수도 있다.
상술한 본 개시의 구체적인 실시 예들에서, 개시에 포함되는 구성 요소는 제시된 구체적인 실시 예에 따라 단수 또는 복수로 표현되었다. 그러나, 단수 또는 복수의 표현은 설명의 편의를 위해 제시한 상황에 적합하게 선택된 것으로서, 본 개시가 단수 또는 복수의 구성 요소에 제한되는 것은 아니며, 복수로 표현된 구성 요소라 하더라도 단수로 구성되거나, 단수로 표현된 구성 요소라 하더라도 복수로 구성될 수 있다.
한편 본 개시의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 개시의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 개시의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.

Claims (20)

  1. 디지털 미디어 기기(digital media device)의 동작 방법에 있어서,
    이벤트가 발생한 경우, 객체(object)의 식별 정보를 수신하는 단계;
    상기 객체와 일정 반경 내에 있는 사용자의 상태 정보를 획득하는 단계; 및
    상기 상태 정보에 기반하여 상기 객체에 대한 반응 정보를 생성하는 단계를 포함하는 방법.
  2. 청구항 1에 있어서, 상기 이벤트는,
    상기 객체 및 상기 사용자가 지정된 영역에 위치되는 것을 포함하는 방법.
  3. 청구항 1에 있어서, 상기 이벤트는,
    상기 객체의 움직임이 검출되는 것을 포함하는 방법.
  4. 청구항 1에 있어서, 상기 이벤트는,
    상기 객체에 대한 상기 사용자의 터치가 검출되는 것을 포함하는 방법.
  5. 청구항 1에 있어서, 상기 사용자의 상태 정보는,
    상기 사용자의 음성, 얼굴 표정, 심박수, 뇌파, 제스쳐(gesture), 및 모션(motion)에 대한 정보 중 적어도 하나를 포함하는 방법.
  6. 청구항 1에 있어서, 상기 사용자의 상태 정보를 획득하는 단계는,
    상기 전자 장치에 포함된 센서를 통해 상기 사용자의 상태 정보를 획득하는 단계를 포함하는 방법.
  7. 청구항 1에 있어서,
    상기 객체에 대한 반응 정보 및 상기 사용자의 상태 정보 중 적어도 하나에 기반하여 상기 객체 및 상기 사용자 중 적어도 하나와 관련된 메시지를 표시하는 단계를 더 포함하는 방법.
  8. 청구항 1에 있어서, 상기 사용자의 상태 정보는,
    상기 사용자의 얼굴에 대한 영상 데이터를 포함하고,
    상기 객체에 대한 반응 정보를 생성하는 단계는,
    상기 사용자의 얼굴에 대한 영상 데이터의 변화 패턴과 복수의 기준 패턴들 중 하나가 관련되는 경우, 관련되는 기준 패턴에 대응하는 객체에 대한 사용자의 감정을 결정하는 단계와,
    상기 결정된 사용자의 감정에 기반하여 상기 객체에 대한 반응 정보를 생성하는 단계를 포함하는 방법.
  9. 청구항 1에 있어서, 상기 사용자의 상태 정보는,
    상기 사용자의 행동(gesture)에 대한 영상 데이터를 포함하고,
    상기 객체에 대한 반응 정보를 생성하는 단계는,
    상기 사용자의 행동에 대한 영상 데이터를 스켈레톤(skeleton)으로 변환하는 단계와,
    상기 스켈레톤의 변화 패턴과 복수의 기준 패턴들 중 하나가 관련되는 경우, 관련되는 기준 패턴에 대응하는 객체에 대한 사용자의 감정을 결정하는 단계와,
    상기 결정된 사용자의 감정에 기반하여 상기 객체에 대한 반응 정보를 생성하는 단계를 포함하는 방법.
  10. 청구항 1에 있어서, 상기 사용자의 상태 정보는,
    상기 사용자의 음성 신호를 포함하고,
    상기 객체에 대한 반응 정보를 생성하는 단계는,
    상기 사용자의 음성 신호가 복수의 기준 어휘들 중 적어도 하나를 포함하는 경우, 상기 음성 신호에서 기준 어휘와 일치하는 부분의 전후 부분을 분석하는 단계와,
    상기 분석된 부분을 통해 사용자의 의사를 식별하는 단계와,
    상기 식별된 사용자의 의사에 기반하여 상기 객체에 대한 반응 정보를 생성하는 단계를 포함하는 방법.
  11. 디지털 미디어 기기(digital media device)에 있어서,
    제어부와,
    상기 제어부와 동작적으로 결합되는 통신부와,
    상기 제어부와 동작적으로 결합되는 센서를 포함하고,
    상기 제어부는,
    이벤트가 발생한 경우, 객체(object)의 식별 정보를 수신하도록 구성되고,
    상기 객체와 일정 반경 내에 있는 사용자의 상태 정보를 획득하도록 구성되고,
    상기 상태 정보에 기반하여 상기 객체에 대한 반응 정보를 생성하도록 구성되는 기기.
  12. 청구항 11에 있어서, 상기 이벤트는,
    상기 객체 및 상기 사용자가 지정된 영역에 위치되는 것을 포함하는 기기.
  13. 청구항 11에 있어서, 상기 이벤트는,
    상기 객체의 움직임이 검출되는 것을 포함하는 기기.
  14. 청구항 11에 있어서, 상기 이벤트는,
    상기 객체에 대한 상기 사용자의 터치가 검출되는 것을 포함하는 기기.
  15. 청구항 15에 있어서, 상기 사용자의 상태 정보는,
    상기 사용자의 음성, 얼굴 표정, 심박수, 뇌파, 제스쳐(gesture), 및 모션(motion)에 대한 정보 중 적어도 하나를 포함하는 기기.
  16. 청구항 11에 있어서, 상기 제어부는,
    상기 전자 장치에 포함된 센서를 통해 상기 사용자의 상태 정보를 획득하도록 구성되는 기기.
  17. 청구항 11에 있어서, 상기 제어부는,
    상기 객체에 대한 반응 정보 및 상기 사용자의 상태 정보 중 적어도 하나에 기반하여 상기 객체 및 상기 사용자 중 적어도 하나와 관련된 메시지를 표시하도록 더 구성되는 기기.
  18. 청구항 11에 있어서, 상기 사용자의 상태 정보는,
    상기 사용자의 얼굴에 대한 영상 데이터를 포함하고,
    상기 제어부는,
    상기 사용자의 얼굴에 대한 영상 데이터의 변화 패턴과 복수의 기준 패턴들 중 하나가 관련되는 경우, 관련되는 기준 패턴에 대응하는 객체에 대한 사용자의 감정을 결정하도록 구성되고,
    상기 결정된 사용자의 감정에 기반하여 상기 객체에 대한 반응 정보를 생성하도록 구성되는 기기.
  19. 청구항 11에 있어서, 상기 사용자의 상태 정보는,
    상기 사용자의 행동(gesture)에 대한 영상 데이터를 포함하고,
    상기 제어부는,
    상기 사용자의 행동에 대한 영상 데이터를 스켈레톤(skeleton)으로 변환하도록 구성되고,
    상기 스켈레톤의 변화 패턴과 복수의 기준 패턴들 중 하나가 관련되는 경우, 관련되는 기준 패턴에 대응하는 객체에 대한 사용자의 감정을 결정하도록 구성되고,
    상기 결정된 사용자의 감정에 기반하여 상기 객체에 대한 반응 정보를 생성하도록 구성되는 기기.
  20. 청구항 11에 있어서, 상기 사용자의 상태 정보는,
    상기 사용자의 음성 신호를 포함하고,
    상기 제어부는,
    상기 사용자의 음성 신호가 복수의 기준 어휘들 중 적어도 하나를 포함하는 경우, 상기 음성 신호에서 기준 어휘와 일치하는 부분의 전후 부분을 분석하도록 구성되고,
    상기 분석된 부분을 통해 사용자의 의사를 식별하도록 구성되고,
    상기 식별된 사용자의 의사에 기반하여 상기 객체에 대한 반응 정보를 생성하도록 구성되는 기기.
KR1020160001970A 2016-01-07 2016-01-07 서비스를 제공하기 위한 방법 및 그 전자 장치 KR102321354B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020160001970A KR102321354B1 (ko) 2016-01-07 2016-01-07 서비스를 제공하기 위한 방법 및 그 전자 장치
PCT/KR2016/011756 WO2017119578A1 (en) 2016-01-07 2016-10-19 Method for providing services and electronic device thereof
US15/335,018 US10257843B2 (en) 2016-01-07 2016-10-26 Method for providing services and electronic device thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160001970A KR102321354B1 (ko) 2016-01-07 2016-01-07 서비스를 제공하기 위한 방법 및 그 전자 장치

Publications (2)

Publication Number Publication Date
KR20170082779A true KR20170082779A (ko) 2017-07-17
KR102321354B1 KR102321354B1 (ko) 2021-11-03

Family

ID=59274255

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160001970A KR102321354B1 (ko) 2016-01-07 2016-01-07 서비스를 제공하기 위한 방법 및 그 전자 장치

Country Status (3)

Country Link
US (1) US10257843B2 (ko)
KR (1) KR102321354B1 (ko)
WO (1) WO2017119578A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210034875A (ko) * 2019-09-23 2021-03-31 에이치엔아이엔씨 (주) 사용자의 상태 정보를 기초로 자동 응답 메시지를 전송하는 모바일 단말 장치 및 그 동작 방법

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3392884A1 (en) * 2017-04-21 2018-10-24 audEERING GmbH A method for automatic affective state inference and an automated affective state inference system
CN111133464A (zh) * 2017-09-27 2020-05-08 乐天株式会社 信息处理装置、信息处理方法、程序以及存储介质
JP6667938B2 (ja) * 2017-09-27 2020-03-18 楽天株式会社 情報処理装置、情報処理方法、プログラム、記憶媒体
US10930032B1 (en) * 2019-08-22 2021-02-23 International Business Machines Corporation Generating concept images of human poses using machine learning models

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101431804B1 (ko) * 2013-03-06 2014-08-19 (주)피엑스디 투명 디스플레이를 이용한 쇼윈도 이미지 표시장치, 표시방법 및 그 기록매체
KR101490505B1 (ko) * 2014-07-08 2015-02-10 주식회사 테라클 관심도 생성 방법 및 장치
KR20150093532A (ko) * 2014-02-07 2015-08-18 주식회사 에스원 정보 관리를 위한 장치 및 방법
KR20150120887A (ko) * 2014-04-18 2015-10-28 (주)하우투메리 위치 기반 고객관리 방법 및 시스템

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040083964A (ko) 2003-03-26 2004-10-06 이원용 인터넷 상거래를 통한 반품 주문에 대한 고객성향분석 시스템
KR20110019210A (ko) * 2009-08-19 2011-02-25 이노바인텍 (주) 휴대형 기기 기반의 상품평 제공 시스템 및 제공 방법
KR101024501B1 (ko) * 2010-09-16 2011-03-31 주식회사 신세계아이앤씨 모바일 장치를 이용한 쇼핑 서비스 제공 시스템 및 그 방법
KR20130040635A (ko) 2011-10-14 2013-04-24 삼성전자주식회사 위치 기반 서비스 제공 방법, 위치 기반 서비스 인터페이스 제공 방법 및 그 장치
EP2801065A4 (en) 2012-01-05 2015-08-05 Visa Int Service Ass APPARATUS, METHODS AND SYSTEMS FOR VISUAL TRANSACTION CAPTURE
US10357183B2 (en) * 2012-02-03 2019-07-23 The Regents Of The University Of Michigan Retained object tag and detection method
KR101317047B1 (ko) * 2012-07-23 2013-10-11 충남대학교산학협력단 얼굴표정을 이용한 감정인식 장치 및 그 제어방법
US20140188626A1 (en) 2012-12-29 2014-07-03 Nokia Corporation Method and apparatus for secure advertising
KR102158208B1 (ko) 2013-07-26 2020-10-23 엘지전자 주식회사 전자기기 및 그것의 제어 방법
JP6468497B2 (ja) * 2013-09-26 2019-02-13 パナソニックIpマネジメント株式会社 情報提供方法
US9489570B2 (en) * 2013-12-31 2016-11-08 Konica Minolta Laboratory U.S.A., Inc. Method and system for emotion and behavior recognition
US9380891B2 (en) * 2014-08-11 2016-07-05 Target Brands, Inc. Over-the-door storage armoire
US9836756B2 (en) * 2015-06-24 2017-12-05 Intel Corporation Emotional engagement detector

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101431804B1 (ko) * 2013-03-06 2014-08-19 (주)피엑스디 투명 디스플레이를 이용한 쇼윈도 이미지 표시장치, 표시방법 및 그 기록매체
KR20150093532A (ko) * 2014-02-07 2015-08-18 주식회사 에스원 정보 관리를 위한 장치 및 방법
KR20150120887A (ko) * 2014-04-18 2015-10-28 (주)하우투메리 위치 기반 고객관리 방법 및 시스템
KR101490505B1 (ko) * 2014-07-08 2015-02-10 주식회사 테라클 관심도 생성 방법 및 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210034875A (ko) * 2019-09-23 2021-03-31 에이치엔아이엔씨 (주) 사용자의 상태 정보를 기초로 자동 응답 메시지를 전송하는 모바일 단말 장치 및 그 동작 방법

Also Published As

Publication number Publication date
WO2017119578A1 (en) 2017-07-13
US20170202002A1 (en) 2017-07-13
KR102321354B1 (ko) 2021-11-03
US10257843B2 (en) 2019-04-09

Similar Documents

Publication Publication Date Title
US11763361B2 (en) Augmented reality systems for facilitating a purchasing process at a merchant location
US10956007B2 (en) Electronic device and method for providing search result thereof
US11282125B2 (en) Systems and methods for transaction-based real time pre-intent recommendations for a sequential purchase
KR102379643B1 (ko) 데이터 메시 플랫폼
US10257843B2 (en) Method for providing services and electronic device thereof
JP2019537120A (ja) 画像解析および予測に基づく視覚検索
US20120229625A1 (en) Providing affinity program information
US20220101420A1 (en) Computer-implemented methods and system for customized interactive image collection based on customer data
US11710166B2 (en) Identifying product items based on surge activity
CN110998507B (zh) 电子装置及其用于提供搜索结果的方法
CN107925673A (zh) 交互式产品评价界面
US20230074212A1 (en) Systems and methods for orienting webpage content based on user attention
US20140156395A1 (en) Shifting marketing messaging according to customer lifestyle changes
US11887134B2 (en) Product performance with location on page analysis
US11244382B1 (en) Computer-implemented method and system for auto-generation of multi-merchant interactive image collection
KR20200107619A (ko) 응대 방법을 제공하는 전자 장치 및 그의 동작 방법
WO2019109580A1 (zh) 商品下单方法和商品下单装置
US10657552B2 (en) Tap proximity
Priyanka Smart Speakers: A New Normal Lifestyle
CN118093902A (zh) 电子装置及其用于提供搜索结果的方法

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant