KR20150131421A - 상황 기반 서비스 지원 기술 - Google Patents

상황 기반 서비스 지원 기술 Download PDF

Info

Publication number
KR20150131421A
KR20150131421A KR1020140057567A KR20140057567A KR20150131421A KR 20150131421 A KR20150131421 A KR 20150131421A KR 1020140057567 A KR1020140057567 A KR 1020140057567A KR 20140057567 A KR20140057567 A KR 20140057567A KR 20150131421 A KR20150131421 A KR 20150131421A
Authority
KR
South Korea
Prior art keywords
user
service
entity
user profile
recommendation
Prior art date
Application number
KR1020140057567A
Other languages
English (en)
Other versions
KR101598601B1 (ko
Inventor
문재원
임태범
김경원
금승우
박종빈
정종진
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020140057567A priority Critical patent/KR101598601B1/ko
Priority to US14/548,601 priority patent/US10152724B2/en
Publication of KR20150131421A publication Critical patent/KR20150131421A/ko
Application granted granted Critical
Publication of KR101598601B1 publication Critical patent/KR101598601B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0269Targeted advertisements based on user profile or attribute

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

상황 기반 서비스 지원 방법은 사용자 단말을 통해 수행된다. 상기 상황 기반 서비스 지원 방법은 적어도 하나의 개체(entity)를 포함할 수 있는 사용자 프로파일의 생성을 지원하는 단계, 상기 적어도 하나의 개체와 연관된 상기 사용자 단말로부터 획득되거나 또는 추론된 사용자 프로파일 특성 정보의 제공을 지원하는 단계 및 상기 적어도 하나의 개체에게 상황 기반 서비스 추천이 요구되면 상기 사용자 프로파일 및 상기 사용자 프로파일 특성 정보를 기초로 생성된 사용자 디스크립션을 요구된 서비스에 대해 상기 적어도 하나의 개체의 상황에 따른 서비스 추천을 수행하는 추천 엔진에 제공하는 것을 허용하는 단계를 포함한다.

Description

상황 기반 서비스 기술{CONTEXT BASED SERVICE TECHNOLOGY}
본 발명은 상황 기반 서비스 기술에 관한 것으로, 보다 상세하게는, 서비스 추천을 위해 사용자 디스크립션을 사용하는 상황 기반 서비스 지원 방법 및 상황 기반 서비스 제공 방법에 관한 것이다.
빅데이터와 같은 정보의 홍수는 빠르고 현명한 선택을 위한 추천 시스템의 필요를 가져온다. 예를 들어, 추천 시스템은 사용자에게 타킷팅된 뉴스 제공 서비스 또는 동영상 제공 서비스에 이용될 수 있다.
이러한 추천 시스템은 서비스 제공자에 따른 독자적인 인터페이스를 통해 구축하므로, 제3의 추천 서비스 제공자에 의한 자유로운 경쟁을 방해할 수 있다. 예를 들어, 추천 시스템이 TV 제작사 또는 TV 프로그램 제공자에 의해 독자적으로 구축된다면 사용자는 제3의 추천 서비스 제공자를 통해 추천 서비스를 받을 수 없고, TV 제작사 또는 TV 프로그램 제공자에 의해 의도된 TV 프로그램의 추천을 받을 수 있다.
한국공개특허 제10-2009-0003375호는 이동통신 단말기의 현재 상황에 적합한 컨텐츠를 재생하는 방법을 개시하고, 이동통신 단말기의 특정 상황을 다른 사용자들과 공유하여, 유사한 경험을 가진 타 사용자들의 추천을 받은 컨텐츠를 다운로드 받아서 재생하는 기술을 포함한다.
한국공개특허 제10-2013-0009922호는 사용자의 상황, 활동, 관심, 감정, 영향을 고려하여, 추천을 제공하기 위한 상황 인지 사용자 감정 소셜 관심 모델링 방법 및 장치를 개시한다.
한국공개특허 제10-2009-0003375호 한국공개특허 제10-2013-0009922호
본 발명의 일 실시예는 서비스 추천을 위해 사용자 디스크립션을 사용하는 상황 기반 서비스 기술을 제공하고자 한다.
본 발명의 일 실시예는 사용자 프로파일 및 사용자 프로파일 특성 정보를 기초로 생성된 사용자 디스크립션을 통해 서비스 추천을 받을 수 있는 상황 기반 서비스 기술을 제공하고자 한다.
본 발명의 일 실시예는 다양한 유형의 개체에 대한 사용자 프로파일을 정의하여 주어진 서비스에 대한 서비스 추천을 수행할 수 있는 상황 기반 서비스 기술을 제공하고자 한다.
본 발명의 일 실시예는 다양한 사용자 프로파일 특성 정보를 정의하여 주어진 서비스에 대한 서비스 추천을 수행할 수 있는 상황 기반 서비스 기술을 제공하고자 한다.
실시예들 중에서, 상황 기반 서비스 지원 방법은 사용자 단말을 통해 수행된다. 상기 상황 기반 서비스 지원 방법은 적어도 하나의 개체(entity)를 포함할 수 있는 사용자 프로파일의 생성을 지원하는 단계, 상기 적어도 하나의 개체와 연관된 상기 사용자 단말로부터 획득되거나 또는 추론된 사용자 프로파일 특성 정보의 제공을 지원하는 단계 및 상기 적어도 하나의 개체에게 상황 기반 서비스 추천이 요구되면 상기 사용자 프로파일 및 상기 사용자 프로파일 특성 정보를 기초로 생성된 사용자 디스크립션을 요구된 서비스에 대해 상기 적어도 하나의 개체의 상황에 따른 서비스 추천을 수행하는 추천 엔진에 제공하는 것을 허용하는 단계를 포함한다.
일 실시예에서, 상기 사용자 프로파일의 생성을 지원하는 단계는 상기 적어도 하나의 개체가 복수의 이종 개체들을 포함하는 경우에는 상기 복수의 이종 개체들 중 일부에 대하여 상기 복수의 이종 개체들에 있는 다른 개체 또는 상기 복수의 이종 개체들 이외의 외부 개체와 연관된 사용자 단말을 통해 해당 사용자 프로파일의 생성을 지원하는 단계를 포함할 수 있다.
일 실시예에서, 상기 사용자 프로파일의 생성을 지원하는 단계는 상기 사용자 프로파일에 복수의 개체들이 포함된 경우에는 상기 복수의 개체들 각각을 정의하는 사용자와 통합 자원 식별자(URI, Uniform Resource Identifier)를 통해 정의된 사용자 레퍼런스를 포함하는 그룹 프로파일을 사용자 프로파일로서 생성하는 것을 기여하는 단계를 포함할 수 있다.
일 실시예에서, 상기 사용자 프로파일 특성 정보의 제공을 지원하는 단계는 상기 적어도 하나의 개체에 대한 특정 영역 상의 액션 히스토리를 나타내는 사용자 사용 히스토리를 제공하는 단계를 포함하고, 상기 액션 히스토리는 콘텐츠 사용 히스토리, 웹사이트 사용 패턴 및 구매 기록 중 적어도 하나를 포함할 수 있다.
일 실시예에서, 상기 사용자 프로파일 특성 정보의 제공을 지원하는 단계는 상기 적어도 하나의 개체의 의한 콘텐츠 소비 정보를 포함하는 사용자 선호도를 제공하는 단계를 포함하고, 상기 콘텐츠 소비 정보는 콘텐츠에 대한 필터링, 검색 또는 열람 기록을 포함할 수 있다.
일 실시예에서, 상기 적어도 하나의 개체의 의한 콘텐츠 소비 정보를 포함하는 사용자 선호도를 제공하는 단계는 특정 서비스에 대한 가중치 또는 우선순위로 표현되는 사용자 선호도 레벨을 제공하는 단계를 더 포함할 수 있다.
일 실시예에서, 상기 사용자 프로파일 특성 정보의 제공을 지원하는 단계는 오디오 재생과 관련된 오디오 프리젠테이션 선호도, 영상 디스플레이와 관련된 디스플레이 프리젠테이션 선호도 또는 그래픽 미디어 표현과 관련된 그래픽 프리젠테이션 선호도를 상기 요구된 서비스에 따라 선택적으로 제공하는 단계를 더 포함할 수 있다.
일 실시예에서, 상기 사용자 프로파일 특성 정보의 제공을 지원하는 단계는 감정 어휘 집합에 포함되고 상기 적어도 하나의 개체에 의하여 직접 입력된 입력 데이터 또는 상기 사용자 단말에 의한 센싱을 통해 추론된 추론 데이터를 기초로 생성된 사용자 감정을 제공하는 단계를 포함할 수 있다.
일 실시예에서, 상기 사용자 프로파일 특성 정보의 제공을 지원하는 단계는 특정 기간 동안에 나타난 상기 적어도 하나의 개체의 사용자 감정 상태(복합적 감정을 표현하는 감정 집합으로 정의될 수 있음)를 포함하는 사용자 감정 그룹을 제공하는 단계를 포함할 수 있다.
일 실시예에서, 상기 사용자 감정 그룹은 상기 사용자 감정 상태를 일으킨 원인을 서술하는 트리거 소스 및 상기 사용자 감정 상태를 생성한 모델리티를 서술하는 감정 검출 소스 중 적어도 하나를 포함하는 사용자 감정 소스를 포함할 수 있다.
일 실시예에서, 상기 사용자 디스크립션에 대한 동적 정보의 자동 갱신을 지원하여 상기 추천 엔진에 제공하는 것을 허용하는 단계를 더 포함할 수 있다.
실시예들 중에서, 상황 기반 서비스 지원 방법은 사용자 단말과 연결될 수 있는 사용자 디스크립션 매니저에서 수행된다. 상기 상황 기반 서비스 지원 방법은 상기 사용자 단말의 지원을 통해 적어도 하나의 개체(entity)를 포함할 수 있는 사용자 프로파일을 생성하는 단계, 상기 적어도 하나의 개체와 연관된 상기 사용자 단말로부터 획득되거나 또는 추론된 사용자 프로파일 특성 정보를 제공하는 단계 및 상기 적어도 하나의 개체에게 상황 기반 서비스 추천이 요구되면 상기 사용자 프로파일 및 상기 사용자 프로파일 특성 정보를 기초로 사용자 디스크립션을 생성하여 요구된 서비스에 대해 상기 적어도 하나의 개체의 상황에 따른 서비스 추천을 수행하는 추천 엔진에 제공하는 단계를 포함한다.
실시예들 중에서, 상황 기반 서비스 제공 방법은 사용자 단말 및 사용자 디스크립션 매니저와 연결될 수 있는 추천 엔진에서 수행된다. 상기 상황 기반 서비스 제공 방법은 상기 적어도 하나의 개체에게 상황 기반 서비스 추천이 요구되면 사용자 프로파일(상기 사용자 단말의 지원을 통해 적어도 하나의 개체를 포함하도록 생성됨) 및 사용자 프로파일 특성 정보(상기 적어도 하나의 개체와 연관된 상기 사용자 단말로부터 획득되거나 또는 추론됨)를 기초로 상기 사용자 디스크립션 매니저에 의하여 생성된 사용자 디스크립션을 수신하는 단계 및 적어도 상기 사용자 디스크립션을 기초로 요구된 서비스에 대해 상기 적어도 하나의 개체의 상황에 따른 서비스 추천을 수행하는 단계를 포함한다.
본 발명의 일 실시예에 따른 상황 기반 서비스 기술은 서비스 추천을 위해 사용자 디스크립션을 사용할 수 있다.
본 발명의 일 실시예에 따른 상황 기반 서비스 기술은 사용자 프로파일 및 사용자 프로파일 특성 정보를 기초로 생성된 사용자 디스크립션을 통해 서비스 추천을 받을 수 있다.
본 발명의 일 실시예에 따른 상황 기반 서비스 기술은 다양한 유형의 개체에 대한 사용자 프로파일을 정의하여 주어진 서비스에 대한 서비스 추천을 수행할 수 있다.
본 발명의 일 실시예에 따른 상황 기반 서비스 기술은 다양한 사용자 프로파일 특성 정보를 정의하여 주어진 서비스에 대한 서비스 추천을 수행할 수 있다.
도 1은 본 발명의 일 실시예에 따른 상황 기반 서비스 시스템을 설명하는 도면이다.
2는 도 1에 있는 추천 엔진을 포함하는 상황 기반 서비스 시스템을 설명하는 흐름도이다.
도 3은 도 1에 있는 상황 데이터베이스를 포함하는 상황 기반 서비스 시스템을 설명하는 흐름도이다.
도 4는 UD 매니저(150a)에 의하여 관리되는 사용자 디스크립션을 예시한다.
본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
“및/또는”의 용어는 하나 이상의 관련 항목으로부터 제시 가능한 모든 조합을 포함하는 것으로 이해되어야 한다. 예를 들어, “제1 항목, 제2 항목 및/또는 제3 항목”의 의미는 제1, 제2 또는 제3 항목뿐만 아니라 제1, 제2 또는 제3 항목들 중 2개 이상으로부터 제시될 수 있는 모든 항목의 조합을 의미한다.
어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
본 발명은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한, 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
도 1은 본 발명의 일 실시예에 따른 상황 기반 서비스 시스템을 설명하는 도면이다.
도 1을 참조하면, 상황 기반 서비스 시스템(100)은 사용자 단말(110), 서비스 엔진(120), 추천 엔진(130), 상황 데이터베이스(140) 및 매니저(150)를 포함한다.
사용자 단말(110)(즉, 서비스 요청자)은 서비스에 대해 서비스 엔진(120)에 추천 서비스를 요청하거나 또는 서비스에 대해 서비스 엔진(120)으로부터 추천 서비스를 제공받는 컴퓨팅 장치에 해당한다. 서비스는 사용자에게 가치를 가져다 주는 임의의 독립적인 가치 부가 동작 및 사용자의 필요에 응답하는 혜택을 제공하는 어플리케이션을 포함할 수 있고, 어플리케이션은 사용자 요청에 응답하는 책임을 지는 개체를 포함할 수 있다. 예를 들어, 사용자 단말(110)은 스마트폰과 같은 모바일 단말, 태블릿 컴퓨터, 노트북 또는 데스크톱 컴퓨터에 해당할 수 있다. 일 실시예에서, 사용자 단말(110)은 서비스의 추천을 위해 사용자 에이전트를 프로세스로 실행시킬 수 있고, 사용자 에이전트를 통해 서비스 엔진(120)과 통신을 수행할 수 있다.
서비스 엔진(120)(즉, 서비스 제공자)은 서비스를 사용자 단말(110)에 제공할 수 있는 컴퓨팅 장치에 해당한다. 일 실시예에서, 서비스 엔진(120)은 추천 엔진(130) 또는 상황 데이터베이스(140)에 제공 가능한 서비스를 알려주고 사용자 단말(110)의 요청을 통해 추천 엔진(130) 또는 상황 데이터베이스(140) 에 의해 결정된 추천 서비스를 사용자 단말(110)에 제공할 수 있다. 예를 들어, 서비스 엔진(120)은 사용자 단말(110), 추천 엔진(130) 또는 상황 데이터베이스(140)와 연동할 수 있는 서버로 구현될 수 있다.
추천 엔진(130)(즉, 서비스 추천자)은 서비스 엔진(120)에서 제공 가능한 서비스 중에서 사용자에게 적절한 추천 서비스를 추천할 수 있는 컴퓨팅 장치에 해당한다. 일 실시예에서, 추천 엔진(130)은 서비스 엔진(120)으로부터 사용자 단말(110)의 요청이 수신되면 상황 기반의 서비스를 추천 서비스로 결정하거나 또는 상황 추론을 통해 결정된 서비스를 추천 서비스로 결정할 수 있다. 예를 들어, 추천 엔진(130)은 서비스 엔진(120) 및 매니저(150)와 연동할 수 있는 서버로 구현될 수 있다.
상황 데이터베이스(140)는 서비스 엔진(120)에서 제공 가능한 서비스 중에서 사용자에게 적절한 추천 서비스에 대해 데이터베이스를 구축한 컴퓨팅 장치에 해당한다. 즉, 상황 데이터베이스(140)는 사용자에 관한 정보(예를 들어, 사용자의 이름 및 연락처) 및 상황에 관한 정보(예를 들어, 사용자 단말(110)의 위치) 중 적어도 하나(이하, 사용자 상황 정보)를 상황 기반의 서비스를 추천 서비스로 추천할 수 있도록 사용자 상황 정보와 추천 서비스를 연관시켜놓은 데이터베이스를 나타낼 수 있다. 일 실시예에서, 상황 데이터베이스(140)는 서비스 엔진(120)으로부터 사용자 단말(110)의 요청이 수신되면 사용자 단말(110)과 연관된 사용자 상황 정보를 통해 추천 서비스를 제공할 수 있다. 예를 들어, 상황 데이터베이스(140)는 서비스 엔진(120) 및 매니저(150)와 연동할 수 있다.
매니저(150)(즉, 디스크립션 제공자)는 UD (User Description) 매니저(150a)와 CD (Context Description) 매니저(150b)를 포함하고, 추천 엔진(130) 또는 상황 데이터베이스(140)에 의한 상황의 결정 또는 추론을 지원할 수 있는 컴퓨팅 장치에 해당한다. 일 실시예에서, 매니저(150)는 사용자 단말(110)에 해당할 수 있다. UD (User Description) 매니저(150a)는 사용자에 관한 정보(예를 들어, 사용자의 이름 및 연락처)를 추천 엔진(130) 또는 상황 데이터베이스(140)에 제공할 수 있고, CD 매니저(150b)는 상황에 관한 정보(예를 들어, 사용자 단말(110)의 위치)를 제공할 수 있다. 여기에서, UD (User Description) 매니저(150a)와 CD (Context Description) 매니저(150b)는 물리적 구분이 아닌 논리적 구분을 통해 분류될 수 있고, 이에 따라 UD (User Description) 매니저(150a)와 CD (Context Description) 매니저(150b)는 동일하거나 또는 다른 컴퓨팅 장치에 구현될 수 있다.
이하, 상황 기반 서비스 시스템(100)에 있는 사용자 단말(110), 서비스 엔진(120), 추천 엔진(130) 및 매니저(150) 간에 사용되는 인터페이스 규약들을 설명한다. 인터페이스 규약들은 사용자 디스크립션, 콘텍스트 디스크립션, 서비스 디스크립션 및 추천 디스크립션을 통해 정의될 수 있다.
사용자 디스크립션(UD, User Description)은 신분, 상호작용, 선호도, 보안 설정과 같은 사용자에 관한 정보를 포함할 수 있는 디스크립션들의 집합 또는 데이터의 집합에 해당할 수 있다. 여기에서, 사용자에 관한 정보는 동적 정보 및 정적 정보 중 적어도 하나를 포함할 수 있다. 일 실시예에서, 사용자 디스크립션은 UD 매니저(150a)에서 정의될 수 있고, UD 매니저(150a)가 추천 엔진(130)에 사용자에 관한 정보를 제공할 때 사용될 수 있는 인터페이스에 해당할 수 있다. 사용자 디스크립션과 관련한 보다 상세한 내용은 <부록>에서 설명한다.
콘텍스트 디스크립션(CD, Context Description)은 사용중인 사용자의 기기, 물리적인 위치, 환경적인 변수(예를 들어, 온도, 습도, 사운드 레벨)와 같은 사용자가 동작하거나 또는 사용자가 위치된 환경적인 상황을 포함하는 디스크립션들의 집합 또는 데이터의 집합에 해당할 수 있다. 일 실시예에서, 콘텍스트 디스크립션은 CD 매니저(150b)에서 정의될 수 있고, CD 매니저(150b)가 추천 엔진(130)에 환경적인 상황을 제공할 때 사용될 수 있는 인터페이스에 해당할 수 있다.
서비스 디스크립션(SD, Service Description)은 최종 사용자 어플리케이션에게 제공된 서비스(또는 서브-서비스들의 집합)에 관한 적절한 정보(예를 들어, 보안 설정을 포함할 수 있음)를 포함하는 디스크립션들의 집합 또는 데이터의 집합에 해당할 수 있다. 일 실시예에서, 서비스 디스크립션은 서비스 엔진(120)에서 정의될 수 있고, 서비스 엔진(120)이 추천 엔진(130)에 의한 추천 서비스를 결정할 때 사용될 수 있는 인터페이스에 해당할 수 있다.
추천 디스크립션(RD, Recommendation Description)은 사용자 단말(110)에게 제공될 추천된 정보 구성요소들의 집합 또는 추천 데이터의 집합에 해당할 수 있고, 이러한 집합은 사용자 디스크립션, 콘텍스트 디스크립션 및 서비스 디스크립션 중 적어도 하나로부터 추출된 서브-집합과 연관된 메타데이터를 포함할 수 있다. 일 실시예에서, 사용자 단말(110) 또는 서비스 엔진(120)은 추천 디스크립션을 가공하여 최종의 추천 서비스를 사용자에게 제공할 수 있다.
예를 들어, 위에서 설명된 사용자 디스크립션은 도 4 를 통해 설명될 수 있다. 도 4는 UD 매니저(150a)에 의하여 관리되는 사용자 디스크립션을 예시한다. 이하, 편의상, 도 4를 우선하여 설명한다.
도 4에서, 사용자 디스크립션(410)은 UD 매니저(150a)에서 생성되고 사용자 프로파일(410) 및 사용자 프로파일 특성 정보(420)를 기초로 생성된다. 또한, 사용자 프로파일(410) 및 사용자 프로파일 특성 정보(420)는 사용자 단말(110)의 지원을 통해 UD 매니저(150a)에서 생성된다.
사용자 프로파일(420)은 적어도 하나의 개체에 대한 프로파일을 포함하고, 적어도 하나의 개체에 연관된 사용자 단말(110)의 지원을 통하여 생성된다. 예를 들어, 사용자 프로파일(420)은 이름, 전화번호, 이메일 주소, 생년월일 및 사용언어를 포함할 수 있다.
일 실시예에서, 사용자 프로파일(420)에서, 적어도 하나의 개체는 복수의 이종 개체들을 포함할 수 있고, 예를 들어, 복수의 이종 개체들은 사람 이외의 동물 및 사물(예를 들어, 관념적 대상)을 포함할 수 있다. 적어도 하나의 개체가 복수의 이종 개체들을 포함하는 경우, 복수의 이종 개체들 중 일부에 대한 프로파일은 다른 개체 또는 외부 개체에 의하여 생성될 수 있다. 즉, 복수의 이종 개체들에 대한 사용자 프로파일(420)은 복수의 이종 개체들에 있는 다른 개체 또는 복수의 이종 개체들 이외의 외부 개체와 연관된 사용자 단말을 통해 생성될 수 있다. 예를 들어, 적어도 하나의 개체가 복수의 이종 개체들에 해당하는 사람1, 사람2, 사람3, 개, 고양이 및 자동차를 포함하는 경우에 사람1, 사람2 및 사람3은 각각의 사용자 단말을 통해 사용자 프로파일이 생성될 수 있다. 반면에 개 및 고양이의 경우에는 해당 동물의 주인 또는 가장 근접해 있는 개체와 연관된 사용자 단말을 통해 사용자 프로파일이 생성될 수 있고 자동차의 경우에는 자동차에 탑승해 있는 사람 또는 자동차와 가장 근접해 있는 개체와 연관된 사용자 단말을 통해 사용자 프로파일이 생성될 수 있다.
일 실시예에서, 사용자 프로파일(420)이 복수의 개체들을 포함하는 경우에는 사용자 프로파일(420)로서 그룹 프로파일이 생성될 수 있고 그룹 프로파일은 사용자 레퍼런스를 포함할 수 있다. 여기에서, 사용자 레퍼런스는 그룹 프로파일에 포함되는 복수의 개체들 각각을 정의하는 사용자와 통합 자원 식별자(URI, Uniform Resource Identifier)를 통해 정의될 수 있고 사용자 레퍼런스는 특정 그룹 프로파일에 속하는 복수의 개체들의 공통되는 특성을 나타낼 수 있다. 예를 들어, 동일한 버스에 탑승해 있는 사용자 a 및 사용자 b에 대하여 그룹 프로파일이 생성되는 경우에 사용자 a 및 사용자 b에 대한 그룹 프로파일은 http://site/ab.bus.group1 으로 생성될 수 있다. 즉, 그룹 프로파일에 해당하는 http://site/ab.bus.group1 는 그룹 프로파일에 속하는 복수의 개체들 및 복수의 개체들이 동일한 버스에 탑승해 있다는 공통되는 특성을 나타내고 해당 그룹 프로파일의 링크는 사용자 a 및 사용자 b에 대한 사용자 프로파일(410) 또는 사용자 a 및 사용자 b를 나타낼 수 있는 식별 가능한 정보를 포함할 수 있다.
사용자 프로파일 특성 정보(430)는 사용자 단말(110)의 지원을 통해 UD 매니저(150a)에서 생성되고 사용자 프로파일(420)에 있는 적어도 하나의 개체와 연관된 사용자 단말로부터 획득되거나 또는 추론되는 정보이다. 사용자 프로파일 특성 정보(430)는 사용 히스토리(431), 사용자 선호도(432), 프리젠테이션 선호도(433), 사용자 감정(434) 및 감정 그룹(435)을 포함할 수 있다.
사용 히스토리(431)는 사용자에 대하여 특정 영역 상의 액션 히스토리를 포함한다. 즉, 사용자가 특정한 영역에 있을 때 어떠한 행동을 취해왔는지에 대한 정보를 포함한다. 일 실시예에서, 사용 히스토리(431)는 콘텐츠 사용 히스토리, 웹사이트 사용 패턴 및 구매 기록 중 적어도 하나를 포함할 수 있다. 콘텐츠 사용 히스토리는 사용자가 어떠한 미디어 콘텐츠를 사용해왔는지에 대한 정보이고, 예를 들어, 콘텐츠 사용 히스토리가 [콘텐츠 분류, 사용횟수]로 표현되는 경우에는 [스포츠 뉴스, 290회], [건강, 500회] 및 [음악, 79회]가 될 수 있다. 웹사이트 사용 패턴은 사용자가 어떠한 웹사이트를 방문해왔는지에 대한 정보이고, 예를 들어, 웹사이트 사용 패턴이 [웹사이트 분류, 사용횟수]로 표현되는 경우에는 [검색 포털 사이트, 790회], [은행 사이트, 36회] 및 [쇼핑몰, 430회]가 될 수 있다. 구매 기록은 사용자가 특정 사이트에서 무엇을 구매해왔는지에 대한 정보이고, 예를 들어, 구매 기록이 [사이트 명, 구매물품, 구매횟수]로 표현되는 경우에는 특정 사이트A에 대하여 [A, 의류, 79회], [A, 도서, 45회] 및 [A, 가전제품, 9회]가 될 수 있다.
사용자 선호도(432)는 콘텐츠 소비정보를 포함한다. 여기에서, 콘텐츠 소비 정보는 콘텐츠에 대한 필터링, 검색 또는 열람 기록을 포함할 수 있다. 또한, 사용자 선호도는 특정 서비스에 대한 가중치 또는 우선순위로 표현되는 사용자 선호도 레벨을 포함할 수 있다. 예를 들어, 사용자 선호도가 [특정 서비스 명, 우선 순위]로 표현되는 경우에는 서비스A, B 및 C에 대한 사용자 선호도는 [서비스A, 2위], [서비스B, 3위] 및 [서비스C, 1위]로 표현될 수 있다.
프리젠테이션 선호도(433)는 오디오 프리젠테이션 선호도, 디스플레이 프리젠테이션 선호도 및 그래픽 프리젠테이션 선호도를 포함하고 사용자 단말(110)로부터 요구된 서비스에 따라 선택적으로 제공된다. 오디오 프리젠테이션 선호도는 오디오 재생과 관련된 선호도이고, 예를 들어, 사용자가 클래식 음악을 선호하는 경우에는 클래식 음악에 적합한 이퀼라이저를 포함하는 오디오 프리젠테이션이 제공 될 수 있다. 디스플레이 프리젠테이션 선호도는 영상 디스플레이와 관련된 선호도이고, 예를 들어, 사용자가 영상이 어둡게 디스플레이 되는 것을 선호하는 경우에는 낮게 설정된 명도를 포함하는 디스플레이 프리젠테이션을 제공할 수 있다. 그래픽 프리젠테이션 선호도는 그래픽 미디어 표현과 관련된 선호도이고, 예를 들어, 3D 영상에 대한 움직임을 포함할 수 있다. 일 실시예에서, 프리젠테이션 선호도(433)는 사용자 단말(110)로부터 요구된 서비스에 따라 오디오, 디스플레이 및 그래픽 프리젠테이션 중 적어도 하나에 해당하는 프리젠테이션 선호도가 제공될 수 있다. 예를 들어, 사용자 단말(110)로부터 음악 감상에 대한 서비스가 요구되는 경우에 프리젠테이션 선호도(433)는 오디오 프리젠테이션이 제공될 수 있고, 다른 예를 들어, 사용자 단말(110)로부터 3D 영화 감상에 대한 서비스가 요구되는 경우에 프리젠테이션 선호도(433)는 오디오, 디스플레이 및 그래픽 프리젠테이션 선호도가 제공될 수 있다.
사용자 감정(434)은 미리 정의된 감정 어휘 집합에 포함되는 감정에 해당하고 사용자에 의하여 직접 입력된 데이터 또는 사용자 단말(110)에 의한 센싱을 통해 추론된 추론 데이터를 기초로 생성된다. 예를 들어, 감정 어휘 집합이 {기쁨, 흥분, 슬픔, 우울, 피곤}인 경우에 사용자는 감정 어휘 집합 중 적어도 하나의 감정을 선택할 수 있고, 또한, 사용자에 부착된 웨어러블 기기를 통해 획득된 체온 및 맥박을 기초로 추론된 데이터를 기초로 감정 어휘 집합에 포함된 감정 중 적어도 하나의 감정이 선택될 수 있다.
감정 그룹(435)은 특정 기간 동안에 나타난 사용자 감정 상태를 포함하고, 여기에서, 사용자 감정 상태는 복합적 감정 집합으로 정의될 수 있다. 감정 그룹(435)은 특정 기간 동안에 나타난 사용자 감정 상태를 포함하므로 특정 기간이 변경됨에 따라 사용자의 감정 상태도 변경될 수 있다. 예를 들어, 감정 그룹(435)은 감정 어휘 집합에 포함되는 감정들로 표현이 안 되는 [기쁘지만 약간 슬프기도 하다] 라는 사용자 감정 상태를 포함할 수 있다. 다른 예를 들어, 7:00~14:00 동안에는 사용자의 감정 상태가 [기쁘지만 약간 슬프기도 하다] 이었지만 15:00~22:00 동안에는 사용자의 감정 상태가 [피곤하지만 뿌듯하다] 로 변경될 수 있고 감정 그룹(435)은 이러한 사용자의 감정 상태의 변화를 포함할 수 있다.
감정 그룹(435)은 트리거 소스 및 감정 검출 소스 중 저거도 하나를 포함하는 사용자 감정 소스를 포함한다. 여기에서, 트리거 소스는 사용자 감정 상태를 일으킨 원인을 서술하는 것이고 감정 검출 소스는 사용자 감정 상태를 생성한 모델리티를 서술하는 것에 해당한다. 예를 들어, 사용자가 음악을 감상하다가 기분이 슬퍼진 경우에 감정 상태는 [슬픔]이 되고 트리거 소스는 [음악감상]이 된다.
사용자 디스크립션(410)은 사용자 단말(110)로부터 상황 기반 서비스 추천이 요구되면 사용자 프로파일(420) 및 사용자 프로파일 특성 정보(430)를 기초로 생성된다. 사용자 디스크립션(410)의 표현은 <부록>에서 보다 상세하게 설명될 수 있다. 일 실시예에서, 사용자 디스크립션(410)에 대한 동적 정보는 자동으로 갱신 될 수 있다. 사용자 디스크립션(410)에 있는 정보는 동적 정보 및 정적 정보로 분류 될 수 있다. 보다 구체적으로, 동적 정보는 변경될 수 있는 정보로서, 예를 들어, 사용자 감정 또는 감정 그룹이 해당할 수 있고, 정적 정보는 변경되지 않는 정보로서, 예를 들어, 사용자 프로파일이 해당할 수 있다. 즉, 사용자 디스크립션(410)에 대한 동적 정보가 변경된 경우에는 UD 매니저(150a)에 의하여 자동으로 갱신될 수 있고 갱신된 정보는 UD 매니저(150a)에 의하여 추천 엔진(130)에 제공될 수 있다.
2는 도 1에 있는 추천 엔진을 포함하는 상황 기반 서비스 시스템을 설명하는 흐름도이다.
도 2는 사용자 단말(110), 서비스 엔진(120), 추천 엔진(130) 및 매니저(150) 각각은 별개의 컴퓨팅 장치로 구현되었다고 가정하였고, 또한, UD 매니저(150a)와 CD 매니저(150b)는 동일한 컴퓨팅 장치로 구현되었다고 가정하였다. 또한, 도 2는 서비스 엔진(120)이 적응형 사용자 인터페이스 제공 서비스에 해당하는 서비스 A(이하, 서비스라 함)를 제공한다고 가정하였다. 이러한 가정들은 단지 실시예에 불과한 것으로, 본 발명에 표현된 특허청구범위를 제한하고자 하는 것은 아니다.
사용자 단말(110)은 적응형 사용자 인터페이스 제공 서비스에 대한 사용자 식별자를 서비스 엔진(120)에 제공한다(단계 S210). 사용자 식별자는 추천 엔진(130)에 의한 추천을 위해 사용될 수 있고, 보편적인 식별자(예를 들어, 전화번호)로 구현될 수 있거나 또는 서비스 엔진(120)에 의하여 독자적으로 정의된 식별자(예를 들어, 서비스 엔진(120)에 의하여 사용되는 로그인 아이디)로 구현될 수 있다. 도 2에서, 사용자 단말(110)은 사용자에게 적절한 적응형 사용자 인터페이스를 추천받고자 할 때 사용자 식별자를 통해 서비스 엔진(120)에 서비스를 요청할 수 있다.
서비스 엔진(120)은 적응형 사용자 인터페이스 제공 서비스를 제공할 수 있다. 이러한 서비스는 기존에 있는 독립적인 가치 부가 동작들 또는 어플리케이션들 중 하나에 해당하거나, 또는 서비스 엔진(120)에 의하여 정의된 복수의 서브-서비스들의 동적인 조합을 통해 생성될 수 있다. 또한, 이러한 서비스는 외부의 다른 서비스 제공자로부터 가져올 수 있는 가치 부가 동작들 또는 어플리케이션들 중 하나에 해당할 수 있다.
서비스 엔진(120)은 사용자 단말(110)로부터 제공된 사용자 식별자와 서비스 디스크립션을 추천 엔진(130)에 제공한다(단계 S220). 서비스 디스크립션은 서비스 엔진(120)에서 제공될 수 있는 서비스와 연관된 의사결정모델을 포함하고, 의사결정모델은 추천 엔진(130)에 의해 사용되고 사용자 타입을 표현하는 의사결정트리와 특정 기준을 통해 분류된 복수의 사용자 타입들을 포함하는 사용자 타입 집합을 포함한다.
추천 엔진(130)은 서비스 엔진(120)으로부터 제공받은 사용자 식별자를 통해 매니저(150)로부터 디스크립션을 수신한다(단계들 S230 및 S240). 보다 구체적으로, 추천 엔진(130)은 사용자 식별자를 매니저(150)에게 전송하고(단계 S230), 매니저(150)는 사용자 식별자를 기초로 데이터베이스를 검색하여 디스크립션을 추천 엔진(130)에 제공한다. 일 실시예에서, 데이터베이스는 물리적 구현의 관점에서 사용자 디스크립션 데이터베이스 및 콘텍스트 디스크립션 데이터베이스를 포함할 수 있다. 일 실시예에서, 매니저(150)는 사용자 식별자가 서비스 엔진(120)에 의해 독자적으로 정의된 경우 서비스 엔진(120)의 구분을 위한 서비스 엔진 식별자와 사용자 식별자를 함께 이용하여 디스크립션을 결정할 수 있다.
추천 엔진(130)은 매니저(150)로부터 제공받은 디스크립션을 기초로 추천 디스크립션을 생성한다(단계 S245). 추천 디스크립션은 서비스 디스크립션에 있는 사용자 타입을 포함하고, 서비스 엔진(120)이 추천 서비스를 결정하는데 사용될 수 있다.
추천 엔진(130)은 사용자 타입이 결정되면 사용자 타입을 포함하는 추천 디스크립션을 서비스 엔진(120)에 제공한다(단계 S250). 추천 디스크립션은 사용자 타입을 포함할 수 있고, 만일 사용자가 복수의 사용자 타입 집합들에 속하면 복수의 해당 사용자 타입들을 포함할 수 있다.
서비스 엔진(120)은 추천 엔진(130)으로부터 제공받은 추천 디스크립션을 통해 추천될 수 있는 추천 서비스를 결정한다(단계 S255). 예를 들어, 추천 디스크립션에 있는 사용자 타입이 [소비 진보적 사용자]와 [20대 여성]으로 결정되면, 서비스 엔진(120)은 사용자의 TV 프로그램 서비스 요청에 대해 가장 최근에 출시된 TV 프로그램들 중 20대 여성이 선호하는 장르에 속한 TV 프로그램을 추천 서비스로 추천할 수 있다.
서비스 엔진(120)은 추천 서비스를 사용자 단말(110)에 제공하여 사용자 단말(110)이 추천 서비스를 활용할지 여부를 결정하도록 지원할 수 있다(단계 S260).
도 3은 도 1에 있는 상황 데이터베이스를 포함하는 상황 기반 서비스 시스템을 설명하는 흐름도이다.
도 3은 사용자 단말(110), 서비스 엔진(120), 상황 데이터베이스(140) 및 매니저(150) 각각은 별개의 컴퓨팅 장치로 구현되었다고 가정하였고, 또한, UD 매니저(150a)와 CD 매니저(150b)는 동일한 컴퓨팅 장치로 구현되었다고 가정하였다. 또한, 도 3은 서비스 엔진(120)이 적응형 사용자 인터페이스 제공 서비스에 해당하는 서비스 A(이하, 서비스라 함)를 제공한다고 가정하였다. 이러한 가정들은 단지 실시예에 불과한 것으로, 본 발명에 표현된 특허청구범위를 제한하고자 하는 것은 아니다. 또한, 도 2와 실질적으로 동일한 부분은 도 2에서 상세히 설명하였으므로 도 3은 이러한 부분을 제외하고 설명한다.
사용자 단말(110)은 적응형 사용자 인터페이스 제공 서비스에 대한 사용자 식별자를 서비스 엔진(120)에 제공하고(단계 S310), 서비스 엔진(120)은 사용자 단말(110)로부터 제공된 사용자 식별자를 상황 데이터베이스(140) 제공한다(단계 S320).
상황 데이터베이스(140)는 서비스 엔진(120)으로부터 제공받은 사용자 식별자를 통해 사용자 식별자와 연관된 디스크립션이 저장되어 있는지 확인하고 상황 데이터베이스(140)에 사용자 식별자와 연관된 디스크립션이 존재하지 않는 경우에는 매니저(150)로부터 디스크립션을 수신한다(단계들 S330 및 S340). 보다 구체적으로, 상황 데이터베이스(140)는 사용자 식별자를 매니저(150)에게 전송하고(단계 S330), 매니저(150)는 사용자 식별자를 기초로 데이터베이스를 검색하여 디스크립션을 상황 데이터베이스(140)에 제공한다(단계 S340). 일 실시예에서, 데이터베이스는 물리적 구현의 관점에서 사용자 디스크립션 데이터베이스 및 콘텍스트 디스크립션 데이터베이스를 포함할 수 있다. 일 실시예에서, 매니저(150)는 사용자 식별자가 서비스 엔진(120)에 의해 독자적으로 정의된 경우 서비스 엔진(120)의 구분을 위한 서비스 엔진 식별자와 사용자 식별자를 함께 이용하여 디스크립션을 결정할 수 있다.
상황 데이터베이스(140)는 매니저(150)로부터 제공받은 디스크립션을 기초로 서비스 A에서 필요로 하는 디스크립션을 선별하고 선별된 디스크립션을 기초로 사용자 식별자, 디스크립션 및 서비스 A에 대한 정보를 연관시켜 저장한다(단계 S345). 상황 데이터베이스(140)에 저장되어 있는 사용자 식별자 및 선별된 디스크립션과 연관된 서비스 A에 대한 정보는 서비스 엔진(120)이 추천 서비스를 결정하는데 사용될 수 있다. 예를 들어, 사용자 단말로부터 영화 감상에 대한 서비스가 요구되었고 사용자 식별자가 [홍길동]이고 사용자 식별자와 연관된 디스크립션이 [20대, 남성, 액션]인 경우에 상황 데이터베이스(140)는 {[홍길동], [20대, 남성, 액션], [액션 영화]}를 저장할 수 있고, {[홍길동], [20대, 남성, 액션], [액션 영화]}의 정보는 서비스 엔진(120)이 추천 영화를 결정하는데 사용될 수 있다.
상황 데이터베이스(140)는 사용자 식별자와 연관된 디스크립션을 통해 얻어진 서비스 A에 대한 정보를 서비스 엔진(120)에 제공하고(단계 S350), 서비스 엔진(120)은 상황 데이터베이스(140)로부터 제공받은 디스크립션과 연관된 서비스 A에 대한 정보를 통해 추천될 수 있는 추천 서비스를 결정한다(단계 S355). 예를 들어, 사용자 단말(110)로부터 영화 감상에 대한 서비스 요구에 대하여 상황 데이터베이스(140)로부터 {[홍길동], [20대, 남성, 액션], [액션 영화]}를 제공받은 경우에 서비스 엔진(120)은 추천 서비스로서 20대 남성이 선호하는 액션 장르의 영화를 결정할 수 있다.
서비스 엔진(120)은 추천 서비스를 사용자 단말(110)에 제공하여 사용자 단말(110)이 추천 서비스를 활용할지 여부를 결정하도록 지원할 수 있다(단계 S360).
상기에서는 본 출원의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 출원을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
<부록 1: 사용자 디스크립션>
사용자 디스크립션(UD, User Description) 사용자 설명
1. Introduction 소개
Mpeg-UD는 사용자 디스크립션(UD, User Description), 콘텍스트 디스크립션(CD, Context Description), 서비스 디스크립션(SD, Service Description) 및 추천 디스크립션(RD, Recommendation Description)과 같은 네 가지 데이터 포맷을 표준화한다. UD는 사용자에 대한 정적 및 동적 정보를 포함할 수 있는 디스크립션들의 집합이다. 요구 사항 문서에서 언급한 바와 같이, 사람뿐만 아니라 장치, 프로세스, 소프트 에이전트, 동물, 산업공정 또는 조직도 사용자일 수 있다. 우리는 UD의 구조와 사용자의 다양한 특성을 설명하는 구성요소들인 몇 가지의 부분집합의 구조를 제안한다.
2. 사용자 디스크립션 도구
2.1. Root Element
UD 요소는 MPEG-UD 형식의 Root Element 역할을 한다. Root Element는 전송된 모든 메시지의 최상위 요소로 사용될 수 있다. Root Element UD 는 사용자에 대한 개별적인 설명을 제공한다. 각각의 개별 설명은 최상위 형식을 사용하는 특정 내용에 대해 설명한다.
2.1.1. Syntax
<element name="UD" type="ud:UserDescriptionType"/>
<complexType name="UserDescriptionType">
<sequence>
<element name="UserID" type="mpeg7:UserIdentifierType"/>
<element name="UserProfile" type="ud:UserProfileType" minOccurs="0"/>
<element name="UsageHistory" type="ud:UsageHistoryType" minOccurs="0"/>
<element name="Preference" type="ud:PreferenceType" minOccurs="0"/>
<element name="Emotion" type="ud:EmotionType" minOccurs="0"/>
<element name="Schedule" type="ud:ScheduleType" minOccurs="0"/>
<element name="Activity" type="ud:ActivityType" minOccurs="0"/>
<element name="Intention" type="ud:IntentionType" minOccurs="0"/>
</sequence>
<attributeGroup ref="ct:commonAttributes"/>
</complexType>
<complexType name="BaseUserType" abstract="true"/>
2.1.2. Semantics
Figure pat00001

2.2. UserProfileType
UserProfileType은 사용자의 추상적인 개념을 나타낸다. 구체적으로, 사용자는 개인, 조직(예를 들어, 회사), 사람의 그룹(예를 들어, 음악 앙상블), 장치 또는 기타 혼합 된 사용자(예를 들어, 고양이와 사람)가 될 수 있다.
2.2.1. Syntax
<complexType name="UserProfileType" abstract="true">
<complexContent>
<extension base="ud:BaseUserType">
<sequence>
<element name="Specialty" type="ud:SpecialtyType" minOccurs="0" maxOccurs="unbounded"/>
</sequence>
</extension>
</complexContent>
</complexType>
2.2.2. Semantics
UserProfileType의 의미
Figure pat00002
2.3. PersonProfileType
PersonProfileType은 사람 개체를 설명한다. PersonProfileType은 인간의 개별 기본 속성들을 설명하는데 사용될 수 있다.
2.3.1. Syntax
<complexType name="PersonProfileType">
<complexContent>
<extension base="ud:UserProfileType">
<sequence>
<element name="PersonInformation" type="mpeg7:PersonType" minOccurs="0"/>
<element name="Birthtime" type="dateTime"/>
<element name="Language" type="ud:LanguageType" minOccurs="0" maxOccurs="unbounded"/>
<element name="Accessibility" type="ud:AccessibilityType" minOccurs="0"/>
<element name="SocialInformation" type="ud:SocialType" minOccurs="0" maxOccurs="unbounded"/>
</sequence>
</extension>
</complexContent>
</complexType>
2.3.2. Semantics
PersonProfileType의 의미
Figure pat00003

2.4. GroupedProfileType
GroupedProfileType은 사용자 집합인 그룹의 기본 특성을 설명하는데 사용될 수 있다.
2.4.1. Syntax
<complexType name="GroupedProfileType">
<complexContent>
<extension base="ud:UserProfileType">
<choice minOccurs="2" maxOccurs="unbounded">
<element name="User" type="ud:UserProfileType"/>
<element name="UserRef" type="anyURI"/>
</choice>
</extension>
</complexContent>
</complexType>
2.4.2. Semantics
Semantics of the GroupedProfileType
Figure pat00004
2.4.3. Example
<ud:UserProfile xsi:type="ud:PersonGroupProfileType">
<ud:BasicInformation>
<mpeg7:Name>GroupOrchestraABC</mpeg7:Name>
</ud:BasicInformation>
<ud:Specialty domain="Playing">
<ud:Name>Piano Trio</ud:Name>
</ud:Specialty>
</ud:UserProfile>
2.5. LanguageType
LanguageType은 사용자가 사용할 수 있는 특정 언어의 특성을 설명하는데 사용 될 수 있다.
2.5.1. Syntax
LanguageType의 의미:
<complexType name="LanguageType">
<sequence>
<element name="Name" type="language"/>
<element name="CompetenceReference" type="ud:LanguageCompetenceReferenceType" minOccurs="0"/>
</sequence>
<attribute name="type">
<simpleType>
<restriction base="string">
<enumeration value="native"/>
<enumeration value="foreign"/>
</restriction>
</simpleType>
</attribute>
<attribute name="LanguageRegion" type="string" use="optional"/>
<attribute name="LanguageAccent" type="string" use="optional"/>
<attribute name="ReadingLevel" use="optional">
<simpleType>
<restriction base="NMTOKEN">
<enumeration value="low"/>
<enumeration value="mid"/>
<enumeration value="high"/>
</restriction>
</simpleType>
</attribute>
<attribute name="WritingLevel" use="optional">
<simpleType>
<restriction base="NMTOKEN">
<enumeration value="low"/>
<enumeration value="mid"/>
<enumeration value="high"/>
</restriction>
</simpleType>
</attribute>
<attribute name="SpeakingLevel" use="optional">
<simpleType>
<restriction base="NMTOKEN">
<enumeration value="low"/>
<enumeration value="mid"/>
<enumeration value="high"/>
</restriction>
</simpleType>
</attribute>
<attribute name="ListeningLevel" use="optional">
<simpleType>
<restriction base="NMTOKEN">
<enumeration value="low"/>
<enumeration value="mid"/>
<enumeration value="high"/>
</restriction>
</simpleType>
</attribute>
</complexType>
2.5.2. Semantics
Figure pat00005
2.6. LanguageCompetenceReferenceType
2.6.1. Syntax
<complexType name="LanguageCompetenceReferenceType">
<sequence>
<element name="CompetenceTestName" type="string"/>
<element name="CompetenceLevel" type="CompetenceLevelType" maxOccurs="unbounded"/>
</sequence>
<attribute name="CompetenceTestURI" type="anyURI" use="optional"/>
<attribute name="CompetenceTestDate" type="date" use="optional"/>
</complexType>
<complexType name="CompetenceLevelType">
<sequence>
<choice>
<element name="FieldScore">
<complexType>
<simpleContent>
<extension base="integer">
<attribute name="maxScore" type="integer" use="optional"/>
</extension>
</simpleContent>
</complexType>
</element>
<element name="FieldLevel" type="string"/>
</choice>
</sequence>
<attribute name="competenceField" type="string" use="optional"/>
</complexType>
2.6.2. Semantics
Figure pat00006
2.7. AccessibilityType
AccessibilityType은 사용자의 결핍의 특성을 설명하는데 사용될 수 있다. 설명은 사용자의 콘텐츠 및 사용자 인터페이스의 환경을 최적화하고 특정 물리적 장애를 가지는 사용자가 갖는 문제들을 위한 특별한 목적을 달성하기 위해 최상의 방법을 제안하는 적응 특정 엔진에 의해 사용될 수 있다.
2.7.1. Syntax
<complexType name="AccessibilityType">
<sequence>
<element name="AuditoryImpairment" type="mpeg21:AuditoryImpairmentType" minOccurs="0"/>
<element name="VisualImpairment" type="mpeg21:VisualImpairmentType" minOccurs="0"/>
<element name="BodyImpairment" type="ud:BodyImpairmentType" minOccurs="0"/>
</sequence>
</complexType>
<complexType name="BodyImpairmentType">
<attribute name="availableFinger" type="integer"/>
<attribute name="arm" type="ud:side"/>
<attribute name="leg" type="ud:side"/>
</complexType>
<simpleType name="side">
<restriction base="NMTOKEN">
<enumeration value="both"/>
<enumeration value="left"/>
<enumeration value="right"/>
</restriction>
</simpleType>
2.7.2. Semantics
AccessibilityType의 의미:
Figure pat00007
2.8. Social Type
2.8.1. Syntax
<xsd:complexType name="SocialType" abstract="true">
<xsd:sequence>
<xsd:element name="SocialCommunity" type="xsd:string"
minOccurs="0"/>
<xsd:element name="Sharing" type="SharingType" minOccurs="0"/>
</xsd:sequence>
</xsd:complexType>
2.8. Semantics
Figure pat00008
2.9. UsageHistoryType
UsageHistoryType은 사용자의 특정 영역에 대한 작업의 역사를 설명한다. 특정 매장에서의 미디어 콘텐츠, 사용자의 이동, 온라인 소셜 네트워크 패턴 및 구매 기록의 사용 내역은 UsageHistory일 수 있습니다.
2.9.1. Syntax
<complexType name="UsageHistoryType">
<complexContent>
<extension base="ud:BaseUserType">
<sequence>
<element name="DetailedUserInteraction" type="ud:DetailedUserInteractionType"/>
</sequence>
</extension>
</complexContent>
</complexType>
<complexType name="DetailedUserInteractionType">
<annotation>
<documentation>The main complex type describing detailed interaction with multimedia items</documentation>
</annotation>
<complexContent>
<extension base="ud:BaseUserType">
<sequence>
<element name="MultimediaExperiences">
<complexType>
<sequence>
<element name="MultimediaExperience" type="ud:MultimediaExperienceType"/>
</sequence>
</complexType>
</element>
</sequence>
</extension>
</complexContent>
</complexType>
2.9.2. Semantics
UsageHistoryType의 의미:
Figure pat00009
2.10. EventType
일반적인 실제 이벤트의 추상적 표현
2.10.1. Syntax
<xs:complexType name="eventType" abstract="true">
<xs:annotation>
<xs:documentation>An abstract representation of a generic real event</xs:documentation>
</xs:annotation>
<xs:attribute name="startTime" type="xs:dateTime"/>
<xs:attribute name="endTime" type="xs:dateTime"/>
<xs:attribute name="coordinates" type="xs:anyURI"/>
</xs:complexType>
2.10.2. Semantics
EventType의 의미:
Figure pat00010
2.11. interactionAtomType
관찰 또는 가공품의 추상적 표현
2.11.1. Syntax
<complexType name="InteractionAtomType">
<annotation>
<documentation>An abstract representation of observables and artefacts</documentation>
</annotation>
<sequence>
<element name="Role" type="anyURI">
<annotation>
<documentation>A piece of metadata that expresses the functionality of an interaction atom (e.g. an observable or an artefact) while in a specific state. For example, if the user adds a text part (artefact) with the intention of annotating an image (observable), then the role of such text will be “annotation”</documentation>
</annotation>
</element>
<element name="MultimediaObject" type="didl:ItemType">
<annotation>
<documentation>Any type of data that can be handled by a device in order to produce multimedia contents, e.g. in video, audio, text formats. The description of a multimedia object may include its low-level characteristics (e.g. the “colour histogram” of a video). A multimedia object can play a role as an observable or as an artefact during a state of a multimedia experience. Multimedia objects comprise the following types of objects:
Text, Image, Video, AudioVisual, Audio, Application
</documentation>
</annotation>
</element>
<sequence minOccurs="0">
<element name="Composition">
<complexType>
<sequence maxOccurs="unbounded">
<element name="Artefact" type="ud:ArtefactType"/>
<element name="Observable" type="ud:ObservableType"/>
</sequence>
</complexType>
</element>
</sequence>
</sequence>
</complexType>
2.11.2. Semantics
interactionAtomType의 의미:
Figure pat00011
2.12. artefactType
특정 멀티미디어 객체는 특정 상태에서 사용자에 의한 관찰을 추가할 수 있다. 인공물은 그/그녀의 멀티미디어 경험의 특정 상태에서 사용자에 의해 적극적으로 생산(예를 들어, 태그,주석,음성)되거나 또는 사용자에 의해 선택된 멀티미디어 개체이다.
2.12.1. Syntax
<complexType name="ArtefactType">
<annotation>
<documentation>A specific multimedia object added to an observable by the user while in a specific state. An artefact is any multimedia object actively generated by a user (e.g. tags, annotations, voice) or selected by the user during a specific state of his/her multimedia experience</documentation>
</annotation>
<complexContent>
<extension base="ud:InteractionAtomType"/>
</complexContent>
</complexType>
2.13. observableType
특정 상태에 있는 동안에 사용자가 사용하기로 결정할 수 있는 특정 멀티미디어 개체는 경험이다. 관찰은 특정 상태(예:그래픽 인터페이스 이미지)에서 사용자에게 보이는 멀티미디어 개체이다.
2.13.1. Syntax
<complexType name="ObservableType">
<annotation>
<documentation>A specific multimedia object that the user may decide to use, while in a specific state, during his/her multimedia experience. An observable is any multimedia object visible to the user in a specific state (e.g. an image in the graphic interface)</documentation>
</annotation>
<complexContent>
<extension base="ud:InteractionAtomType">
<sequence>
<element name="UsageEvent" type="ud:EventType">
<annotation>
<documentation>A specific event which occurs every time the user decides to actually use an observable (e.g. when the user is reading a text, watching a video, ...)</documentation>
</annotation>
</element>
</sequence>
</extension>
</complexContent>
</complexType>
2.13.2. Semantics
Figure pat00012
2.14. multimediaExperienceType
멀티미디어 컨테츠의 특정 수의 주어진 시간 간격 내에서 사용자에 의해 결실을 나타내는 이벤트(상태 및 사용량 이벤트)
2.14.1. Syntax
<complexType name="MultimediaExperienceType">
<annotation>
<documentation>The complex set of events (states and usage events) representing the fruition by the user, within a given time interval, of a certain number of multimedia contents</documentation>
</annotation>
<sequence>
<element name="States">
<complexType>
<sequence>
<element name="State" type="ud:StateType" maxOccurs="unbounded"/>
</sequence>
</complexType>
</element>
</sequence>
</complexType>
2.14.2. Semantics
Figure pat00013
2.15. stateType
멀티미디어 경험의 주어진 상태에서 상호작용 원자의 집합 및 각각의 역할을 식별하는 변수 또는 코디네이터의 세트에 의해 식별된 특정 이벤트
2.15.1. Syntax
<complexType name="StateType">
<annotation>
<documentation>A specific event, identified by a set of “variables” or “coordinates” univocally identifying the set of interaction atoms and their respective roles in a given state of the multimedia experience</documentation>
</annotation>
<complexContent>
<extension base="ud:EventType">
<sequence>
<element name="Artefacts">
<complexType>
<sequence>
<element name="Artefact" type="ud:ArtefactType" maxOccurs="unbounded"/>
</sequence>
</complexType>
</element>
<element name="Observables">
<complexType>
<sequence>
<element name="Observable" type="ud:ObservableType" maxOccurs="unbounded"/>
</sequence>
</complexType>
</element>
<element name="SemanticallyRelatedStates">
<complexType>
<sequence>
<element name="StatesRef">
<simpleType>
<list itemType="anyURI"/>
</simpleType>
</element>
</sequence>
</complexType>
</element>
</sequence>
<attribute name="order" type="nonNegativeInteger"/>
<attribute name="id" type="anyURI"/>
</extension>
</complexContent>
</complexType>
2.15.2. Semantics
Figure pat00014
2.16. PreferenceType
PreferenceType은 다양한 서비스와 관련된 기본 설정을 설명한다. 기본설정은 개체의 집합으로, 개인의 태도로 나타낼 수 있다. PreferenceType은 관심 주제, 프리젠 테이션 스타일에 대한 선호, 감각 효과 환경, 만족도 점수, 서비스 사용 환경, 서비스 제공에 대한 선호, 미디어 환경이 될 수 있다.
2.16.1. Syntax
<complexType name="PreferenceType">
<complexContent>
<extension base="ud:BaseUserType">
<sequence>
<element name="UserPreferences" type="mpeg7:UserPreferencesType" minOccurs="0"/>
<element name="AudioPresentationPreferences" type="mpeg21:AudioPresentationPreferencesType" minOccurs="0"/>
<element name="DisplayPresentationPreferences" type="mpeg21:DisplayPresentationPreferencesType" minOccurs="0"/>
<element name="GraphicsPresentationPreferences" type="mpeg21:GraphicsPresentationPreferencesType" minOccurs="0"/>
<element name="ServicePreference" type="ud:ServicePreferencesType" minOccurs="0" maxOccurs="unbounded"/>
<element name="TranslationPreference" type="ud:TranslationPreferenceType" minOccurs="0"/>
<element name="PreferenceDescription" type="ud:UserDescriptionType"/>
</sequence>
</extension>
</complexContent>
</complexType>
2.16.2. Semantics
PreferenceType의 의미:
Figure pat00015
Figure pat00016
2.17. ServicePreferencesType
ServicePreferencesType은 특정 서비스에 대한 환경 설정의 수준에 대해 설명한다. 모든 사용자는 각각의 다양한 서비스를 자신의 개인 환경에 맞게 설정을 할 수 있다. UD 문서 서비스 추천의 특정 서비스 및 공급자에 대한 기본 설정을 포함할 수 있다.
2.17.1. Syntax
<complexType name="ServicePreferencesType">
<sequence>
<element name="Service" type="anyURI" minOccurs="0"/>
<element name="ServicePriority" type="ct:ZeroToTenOrdinalType" minOccurs="0"/>
</sequence>
<attribute name="preferenceLevel" type="ct:ZeroToOnehundredOrdinalType" use="required"/>
</complexType>
2.17.2. Semantics
ServicePreferencesType의 의미:
Figure pat00017
2.17.3. Examples
<ud:Preference>
<ud:ServicePreference preferenceLevel="95">
<ud:Name>ABC Service</ud:Name>
<ud:Identifier>http://ABC.com</ud:Identifier>
<ud:ProviderIdentifier>ABC Company</ud:ProviderIdentifier>
</ud:ServicePreference>
</ud:Preference>
2.18. TranslationPreferencesType
TranslationPreferencesType은 번역 서비스에 대한 기본 설정을 설명한다.
2.18.1. Syntax
<complexType name="TranslationPreferenceType">
<sequence>
<element name="SourceLanguagePreference" type="language" minOccurs="0"/>
<element name="TargetLanguagePreference" type="language" minOccurs="0"/>
<element name="SpeechStylePreference" type="ud:SpeechStylePreferenceType"/>
<element name="VoiceGenderPreference" type="ud:VoiceGenderType" default="unspecified" minOccurs="0"/>
</sequence>
<attribute name="VoicePitch" type="mpeg7:nonNegativeReal" use="optional"/>
<attribute name="VoiceSpeed" type="mpeg7:nonNegativeReal" use="optional"/>
<attribute name="RequestVariants" type="boolean" use="optional" default="false"/>
</complexType>
2.18.2. Semantics
ServicePreferencesType의 의미:
Figure pat00018
2.19. SpeechStylePreferenceType
2.19.1. Syntax
<simpleType name="SpeechStylePreferenceType">
<restriction base="NMTOKEN">
<enumeration value="formal"/>
<enumeration value="informal"/>
</restriction>
</simpleType>
2.20. VoiceGenderType
2.20.1. Syntax
<simpleType name="VoiceGenderType">
<restriction base="NMTOKEN">
<enumeration value="female"/>
<enumeration value="male"/>
<enumeration value="neuter"/>
<enumeration value="unspecified"/>
</restriction>
</simpleType>
2.21. EmotionType
EmotionType은 사용자의 주관적 개념과 느낌을 전달하는 데 사용할 수 있다. 이는 시간이 지남에 따라 그 변화를 포함하여 사용자의 감정을 설명할 수 있다. 감정을 센서 데이터로부터 사용자 또는 추론 결과의 일부로 직접 입력에 의해 획득될 수 있다.
2.21.1. Syntax
<complexType name="EmotionType">
<complexContent>
<extension base="ud:BaseUserType">
<sequence>
<choice minOccurs="0" maxOccurs="unbounded">
<element name="EmotionGroup" type="ud:EmotionGroupType"/>
<choice>
<element name="DynamicEmotionVocabularySet" type="ud:VocabularySetType">
<unique name="unique-vocabulary">
<selector xpath="ud:vocabulary"/>
<field xpath="@name"/>
</unique>
</element>
<element name="StaticEmotionVocabularySet" type="ct:termReferenceListType"/>
</choice>
</choice>
</sequence>
</extension>
</complexContent>
</complexType>
2.21.2. Semantics
EmotionType의 의미:
Figure pat00019
2.21.3. Examples
<ud:Emotion>
<ud:EmotionGroup triggeredBy="http://www.abc.com/video.mp4" detectedFrom="eyes" emotion-set="#big6">
<ud:PeriodOfOccurrence>
<ct:startTime>2001-12-17T09:30:47Z</ct:startTime>
<ct:endTime>2001-12-17T12:30:47Z</ct:endTime>
</ud:PeriodOfOccurrence>
<ud:EmotionDescription reliability="0.9">
<ud:emotionName>anger</ud:emotionName>
<ud:value>
<ct:ZeroToOneRatio>0.5</ct:ZeroToOneRatio>
</ud:value>
</ud:EmotionDescription>
</ud:EmotionGroup>
<ud:EmotionGroup triggeredBy="http://www.abc.com/happy.mp3" detectedFrom="ears" emotion-set="/EmotionVocabularySet#mpegud-emotion">
<ud:PeriodOfOccurrence>
<ct:startTime>2001-12-19T09:30:47Z</ct:startTime>
<ct:endTime>2001-12-19T10:39:47Z</ct:endTime>
</ud:PeriodOfOccurrence>
<ud:EmotionDescription reliability="0.2">
<ud:emotionName>emotion1</ud:emotionName>
<ud:value>
<ct:ZeroToOneRatio>0.5</ct:ZeroToOneRatio>
</ud:value>
</ud:EmotionDescription>
<ud:EmotionDescription>
<ud:emotionName>emotion2</ud:emotionName>
<ud:value>
<ct:ZeroToOneRatio>0.9</ct:ZeroToOneRatio>
</ud:value>
</ud:EmotionDescription>
</ud:EmotionGroup>
<ud:EmotionVocabularySet id="big6">
<ud:vocabulary name="anger"/>
<ud:vocabulary name="disgust"/>
<ud:vocabulary name="fear"/>
<ud:vocabulary name="happiness"/>
<ud:vocabulary name="sadness"/>
<ud:vocabulary name="surprise"/>
</ud:EmotionVocabularySet>
<ud:EmotionVocabularySet id="mpegud-emotion">
<ud:vocabulary name="emotion1"/>
<ud:vocabulary name="emotion2"/>
<ud:vocabulary name="emotion3"/>
</ud:EmotionVocabularySet>
</ud:Emotion>
<ud:Emotion>
<ud:EmotionVocabularySet id="big6">
<ud:vocabulary name="anger"/>
<ud:vocabulary name="disgust"/>
<ud:vocabulary name="fear"/>
<ud:vocabulary name="happiness"/>
<ud:vocabulary name="sadness"/>
<ud:vocabulary name="surprise"/>
</ud:EmotionVocabularySet>
<ud:EmotionVocabularySet id="pad">
<ud:vocabulary name="pleasure"/>
<ud:vocabulary name="arousal"/>
<ud:vocabulary name="dominance"/>
</ud:EmotionVocabularySet>
<ud:EmotionVocabularySet id="mpegud-emotion">
<ud:vocabulary name="emotion1"/>
<ud:vocabulary name="emotion2"/>
<ud:vocabulary name="emotion3"/>
</ud:EmotionVocabularySet>
</ud:Emotion>
2.22. VocabularySetType
VocabularySetType은 명확한 기준의 세트에 따라 근본적인 어휘를 설명하는 데 사용될 수 있다. 이 어휘가 정말 무엇인지에 대해 논쟁하고, 실제로 특정 정보를 설명할 수 있다. 이러한 이유로, 특별한 도메인을 나타내는 어휘의 완전한 세트가 존재하지 않는다. VocabularySetType은 어휘의 집합 일시적 사용을 설명하기 위해 사용될 수 있다.
2.22.1. Syntax
<complexType name="VocabularySetType">
<sequence>
<element name="vocabulary" maxOccurs="unbounded">
<complexType>
<attribute name="name" type="ct:valueByNominal" use="required"/>
</complexType>
</element>
</sequence>
<attribute name="id" type="ID" use="required"/>
</complexType>
2.22.2. Semantics
VocabularySetType의 의미::
Figure pat00020
2.23. EmotionGroupType
EmotionGroupType은 특정 기간에 따라 사용자의 감정 상태에 대한 자세한 정보를 설명하고 지정하는데 사용할 수 있음. 감정 설정된 속성은 EmotionVocabularySetType 요소에 의해 미리 정의된 글로벌 감정 어휘 세트를 표명함
2.23.1. Syntax
<complexType name="EmotionGroupType">
<sequence>
<element name="PeriodOfOccurrence" type="ct:TimeType"/>
<element name="EmotionDescription" type="ud:EmotionDescriptionType" maxOccurs="unbounded"/>
</sequence>
<attributeGroup ref="ud:EmotionSource"/>
<attribute name="emotion-set" type="anyURI" use="required"/>
</complexType>
<attributeGroup name="EmotionSource">
<attribute name="triggeredBy" type="anyURI"/>
<attribute name="detectedFrom" type="string"/>
</attributeGroup>
<complexType name="EmotionDescriptionType">
<sequence>
<element name="emotionName" type="token"/>
<element name="value" type="ct:normalizedRatioValueType"/>
</sequence>
<attribute name="reliability" type="ct:ZeroToOneRatioType"/>
</complexType>
2.23.2. Semantics
EmotionGroupType의 의미:
Figure pat00021
Figure pat00022
2.24. ScheduleType
ScheduleType은 사용자와 관련된 이벤트에 대한 계획을 나타냅니다. 사회, 종교, 상업 또는 관리 이벤트 정보를 ScheduleType에 의해 설명할 수 있음. ScheduleType은 이러한 유형의 이벤트 시간과 스케줄의 다른 정보의 조합을 설명함
2.24.1. Syntax
<complexType name="ScheduleType">
<complexContent>
<extension base="ud:BaseUserType">
<sequence>
<element name="Event" type="mpeg7:EventType"/>
<element name="SharedUser" type="mpeg7:UserIdentifierType" minOccurs="0" maxOccurs="unbounded"/>
<element name="Time" type="ct:ExtendedTimeType"/>
</sequence>
<attribute name="descriptionMethod" use="optional">
<simpleType>
<restriction base="string">
<enumeration value="byUser"/>
<enumeration value="byMachine"/>
<enumeration value="byLearning"/>
<enumeration value="bySystem"/>
<enumeration value="byOthers"/>
</restriction>
</simpleType>
</attribute>
</extension>
</complexContent>
</complexType>
2.24.2. Semantics
ScheduleType의 의미:
Figure pat00023
2.24.3. Examples
<ud:Schedule descriptionMethod="byLearning">
<ud:Event>Meeting for Conference</ud:Event> <ud:SharedUser>ID_2013710475</ud:SharedUser>
<ud:Time recurrence="daily" numOfRecurrences="10">
<ct:startTime>2013-12-17T09:00:00Z</ct:startTime>
<ct:endTime>2013-12-17T11:00:00Z</ct:endTime>
</ud:Time>
</ud:Schedule>
2.25. ActivityType
ActivityType은 달리기, 걷기, 음주, 시청과 동작 등등에 대해 설명한다.
2.25.1. Syntax
<complexType name="ActivityType">
<complexContent>
<extension base="ud:BaseUserType">
<sequence>
<element name="PeriodOfOccurrence" type="ct:TimeType"/>
<element name="ActivityDescription" maxOccurs="unbounded">
<complexType>
<sequence minOccurs="0">
<element name="MovingSpeed" type="ct:valueByRatio" minOccurs="0"/>
<element name="Velocity" type="ct:valueByRatio"/>
<element name="Orientation" type="ct:valueByRatio"/>
<element name="Location" type="cd:LocationType" minOccurs="0"/>
<element name="PhysicalState" minOccurs="0">
<complexType>
<sequence>
<element name="RespirationRate" type="ct:valueByRatio" minOccurs="0"/>
</sequence>
</complexType>
</element>
</sequence>
</complexType>
</element>
</sequence>
</extension>
</complexContent>
</complexType>
2.25.2. Semantics
ActivityType의 의미:
Figure pat00024
2.25.3. Examples
<ud:Activity>
<ud:PeriodOfOccurrence>
<ct:startTime>2001-12-17T09:30:47Z</ct:startTime>
<ct:duration>P1Y2M3DT10H30M</ct:duration>
</ud:PeriodOfOccurrence>
<ud:ActivityDescription>
<ud:ActivityItem>running</ud:ActivityItem>
<ud:MovingSpeed>35</ud:MovingSpeed>
<ud:PhysicalState>
<ud:Heartbeat>35</ud:Heartbeat>
<ud:ECG>50</ud:ECG>
<ud:RespirationRate>70</ud:RespirationRate>
</ud:PhysicalState>
</ud:ActivityDescription>
</ud:Activity>
2.26. IntentionType
IntentionType은 사용자의 의도를 설명한다.
2.26.1. Syntax
<complexType name="IntentionType">
<sequence>
<element name="IntentionDateTimeType" type="ct:TimeType" minOccurs="0"/>
<element name="IntentionServiceType" type="sd:ServiceDescriptionType" minOccurs="0"/>
</sequence>
<attribute name="type">
<simpleType>
<restriction base="string">
<enumeration value="going to"/>
</restriction>
</simpleType>
</attribute>
</complexType>
2.26.2. Semantics
Figure pat00025

100: 상황 기반 서비스 지원 시스템
110: 사용자 단말 120: 서비스 엔진
130: 추천 엔진 140: 상황 데이터베이스
150: 매니저
410: 사용자 디스크립션 420: 사용자 프로파일
430: 사용자 프로파일 특성 정보

Claims (13)

  1. 사용자 단말을 통해 수행되는 상황 기반 서비스 지원 방법에 있어서,
    적어도 하나의 개체(entity)를 포함할 수 있는 사용자 프로파일의 생성을 지원하는 단계;
    상기 적어도 하나의 개체와 연관된 상기 사용자 단말로부터 획득되거나 또는 추론된 사용자 프로파일 특성 정보의 제공을 지원하는 단계; 및
    상기 적어도 하나의 개체에게 상황 기반 서비스 추천이 요구되면 상기 사용자 프로파일 및 상기 사용자 프로파일 특성 정보를 기초로 생성된 사용자 디스크립션을 요구된 서비스에 대해 상기 적어도 하나의 개체의 상황에 따른 서비스 추천을 수행하는 추천 엔진에 제공하는 것을 허용하는 단계를 포함하는 상황 기반 서비스 지원 방법.
  2. 제1항에 있어서, 상기 사용자 프로파일의 생성을 지원하는 단계는
    상기 적어도 하나의 개체가 복수의 이종 개체들을 포함하는 경우에는 상기 복수의 이종 개체들 중 일부에 대하여 상기 복수의 이종 개체들에 있는 다른 개체 또는 상기 복수의 이종 개체들 이외의 외부 개체와 연관된 사용자 단말을 통해 해당 사용자 프로파일의 생성을 지원하는 단계를 포함하는 것을 특징으로 하는 상황 기반 서비스 지원 방법.
  3. 제1항에 있어서, 상기 사용자 프로파일의 생성을 지원하는 단계는
    상기 사용자 프로파일에 복수의 개체들이 포함된 경우에는 상기 복수의 개체들 각각을 정의하는 사용자와 통합 자원 식별자(URI, Uniform Resource Identifier)를 통해 정의된 사용자 레퍼런스를 포함하는 그룹 프로파일을 사용자 프로파일로서 생성하는 것을 기여하는 단계를 포함하는 것을 특징으로 하는 상황 기반 서비스 지원 방법.
  4. 제1항에 있어서, 상기 사용자 프로파일 특성 정보의 제공을 지원하는 단계는
    상기 적어도 하나의 개체에 대한 특정 영역 상의 액션 히스토리를 나타내는 사용자 사용 히스토리를 제공하는 단계를 포함하고,
    상기 액션 히스토리는 콘텐츠 사용 히스토리, 웹사이트 사용 패턴 및 구매 기록 중 적어도 하나를 포함하는 것을 특징으로 하는 상황 기반 서비스 지원 방법.
  5. 제1항에 있어서, 상기 사용자 프로파일 특성 정보의 제공을 지원하는 단계는
    상기 적어도 하나의 개체의 의한 콘텐츠 소비 정보를 포함하는 사용자 선호도를 제공하는 단계를 포함하고,
    상기 콘텐츠 소비 정보는 콘텐츠에 대한 필터링, 검색 또는 열람 기록을 포함하는 것을 특징으로 하는 상황 기반 서비스 지원 방법.
  6. 제5항에 있어서, 상기 적어도 하나의 개체의 의한 콘텐츠 소비 정보를 포함하는 사용자 선호도를 제공하는 단계는
    특정 서비스에 대한 가중치 또는 우선순위로 표현되는 사용자 선호도 레벨을 제공하는 단계를 더 포함하는 것을 특징으로 하는 상황 기반 서비스 지원 방법.
  7. 제1항에 있어서, 상기 사용자 프로파일 특성 정보의 제공을 지원하는 단계는
    오디오 재생과 관련된 오디오 프리젠테이션 선호도, 영상 디스플레이와 관련된 디스플레이 프리젠테이션 선호도 또는 그래픽 미디어 표현과 관련된 그래픽 프리젠테이션 선호도를 상기 요구된 서비스에 따라 선택적으로 제공하는 단계를 더 포함하는 것을 특징으로 하는 상황 기반 서비스 지원 방법.
  8. 제1항에 있어서, 상기 사용자 프로파일 특성 정보의 제공을 지원하는 단계는
    감정 어휘 집합에 포함되고 상기 적어도 하나의 개체에 의하여 직접 입력된 입력 데이터 또는 상기 사용자 단말에 의한 센싱을 통해 추론된 추론 데이터를 기초로 생성된 사용자 감정을 제공하는 단계를 포함하는 것을 특징으로 하는 상황 기반 서비스 지원 방법.
  9. 제1항에 있어서, 상기 사용자 프로파일 특성 정보의 제공을 지원하는 단계는
    특정 기간 동안에 나타난 상기 적어도 하나의 개체의 사용자 감정 상태(복합적 감정을 표현하는 감정 집합으로 정의될 수 있음)를 포함하는 사용자 감정 그룹을 제공하는 단계를 포함하는 것을 특징으로 하는 상황 기반 서비스 지원 방법.
  10. 제9항에 있어서, 상기 사용자 감정 그룹은
    상기 사용자 감정 상태를 일으킨 원인을 서술하는 트리거 소스 및 상기 사용자 감정 상태를 생성한 모델리티를 서술하는 감정 검출 소스 중 적어도 하나를 포함하는 사용자 감정 소스를 포함하는 것을 특징으로 하는 상황 기반 서비스 지원 방법.
  11. 제1항에 있어서,
    상기 사용자 디스크립션에 대한 동적 정보의 자동 갱신을 지원하여 상기 추천 엔진에 제공하는 것을 허용하는 단계를 더 포함하는 것을 특징으로 하는 상황 기반 서비스 지원 방법.
  12. 사용자 단말과 연결될 수 있는 사용자 디스크립션 매니저에서 수행되는 상황 기반 서비스 지원 방법에 있어서,
    상기 사용자 단말의 지원을 통해 적어도 하나의 개체(entity)를 포함할 수 있는 사용자 프로파일을 생성하는 단계;
    상기 적어도 하나의 개체와 연관된 상기 사용자 단말로부터 획득되거나 또는 추론된 사용자 프로파일 특성 정보를 제공하는 단계; 및
    상기 적어도 하나의 개체에게 상황 기반 서비스 추천이 요구되면 상기 사용자 프로파일 및 상기 사용자 프로파일 특성 정보를 기초로 사용자 디스크립션을 생성하여 요구된 서비스에 대해 상기 적어도 하나의 개체의 상황에 따른 서비스 추천을 수행하는 추천 엔진에 제공하는 단계를 포함하는 상황 기반 서비스 지원 방법.
  13. 사용자 단말 및 사용자 디스크립션 매니저와 연결될 수 있는 추천 엔진에서 수행되는 상황 기반 서비스 제공 방법에 있어서,
    상기 적어도 하나의 개체에게 상황 기반 서비스 추천이 요구되면 사용자 프로파일(상기 사용자 단말의 지원을 통해 적어도 하나의 개체를 포함하도록 생성됨) 및 사용자 프로파일 특성 정보(상기 적어도 하나의 개체와 연관된 상기 사용자 단말로부터 획득되거나 또는 추론됨)를 기초로 상기 사용자 디스크립션 매니저에 의하여 생성된 사용자 디스크립션을 수신하는 단계; 및
    적어도 상기 사용자 디스크립션을 기초로 요구된 서비스에 대해 상기 적어도 하나의 개체의 상황에 따른 서비스 추천을 수행하는 단계를 포함하는 상황 기반 서비스 제공 방법.
KR1020140057567A 2014-05-14 2014-05-14 상황 기반 서비스 지원 기술 KR101598601B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140057567A KR101598601B1 (ko) 2014-05-14 2014-05-14 상황 기반 서비스 지원 기술
US14/548,601 US10152724B2 (en) 2014-05-14 2014-11-20 Technology of assisting context based service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140057567A KR101598601B1 (ko) 2014-05-14 2014-05-14 상황 기반 서비스 지원 기술

Publications (2)

Publication Number Publication Date
KR20150131421A true KR20150131421A (ko) 2015-11-25
KR101598601B1 KR101598601B1 (ko) 2016-03-02

Family

ID=54538886

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140057567A KR101598601B1 (ko) 2014-05-14 2014-05-14 상황 기반 서비스 지원 기술

Country Status (2)

Country Link
US (1) US10152724B2 (ko)
KR (1) KR101598601B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180028939A (ko) * 2016-09-09 2018-03-19 소니 주식회사 감정 상태 검출에 기초하여 전자 디바이스 상에서 추천을 제공하기 위한 시스템 및 방법
KR20190143210A (ko) * 2018-06-20 2019-12-30 주식회사 엘지유플러스 개인 검색 패턴 가이드 제공 장치 및 방법

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101598601B1 (ko) * 2014-05-14 2016-03-02 전자부품연구원 상황 기반 서비스 지원 기술
CN107798037A (zh) * 2017-04-26 2018-03-13 平安科技(深圳)有限公司 用户特征数据的获取方法及服务器
CN109376305A (zh) * 2018-12-04 2019-02-22 山东浪潮通软信息科技有限公司 一种基于用户行为分析的新闻热度排序方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090003375A (ko) 2007-06-05 2009-01-12 에스케이 텔레콤주식회사 이동통신 단말기의 현재 상황에 적합한 컨텐츠를 재생하는방법
KR20120104648A (ko) * 2010-10-26 2012-09-24 주식회사 케이티 개인 맞춤형 컨텐츠 추천 장치 및 그 방법과 그를 이용한 시스템 및 그 방법
KR20120135285A (ko) * 2010-02-25 2012-12-12 콸콤 인코포레이티드 모바일 디바이스 프로파일 애그리게이션
KR20130009922A (ko) 2011-07-15 2013-01-24 삼성전자주식회사 상황 인지 사용자 감정 소셜 관심 모델
JP2013206194A (ja) * 2012-03-28 2013-10-07 Dainippon Printing Co Ltd サーバ装置、プログラム及び通信システム
KR20140006516A (ko) * 2012-07-06 2014-01-16 씨제이씨지브이 주식회사 위치 기반 콘텐츠 추천 서비스 제공 시스템 및 방법

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000022551A1 (en) * 1998-10-13 2000-04-20 Chris Cheah Method and system for controlled distribution of information over a network
US20040220926A1 (en) * 2000-01-03 2004-11-04 Interactual Technologies, Inc., A California Cpr[P Personalization services for entities from multiple sources
US7340438B2 (en) * 2001-05-21 2008-03-04 Nokia Corporation Method and apparatus for managing and enforcing user privacy
KR100438857B1 (ko) * 2001-09-26 2004-07-05 엘지전자 주식회사 사용자 선호도 기반 멀티미디어 검색 시스템
WO2003054654A2 (en) * 2001-12-21 2003-07-03 Nokia Corporation Location-based novelty index value and recommendation system and method
US9374451B2 (en) * 2002-02-04 2016-06-21 Nokia Technologies Oy System and method for multimodal short-cuts to digital services
FR2872985A1 (fr) * 2004-07-12 2006-01-13 France Telecom Procede de traitement de flux diffuses a distance et restitues sur un terminal, systeme, dispositif d'enregistrement et programme d'ordinateur susceptibles d'etre utilises pour sa mise en oeuvre
US20060106780A1 (en) * 2004-10-25 2006-05-18 Ofer Dagan Method for improving user success rates in personals sites
US8199654B2 (en) * 2005-06-21 2012-06-12 Alcatel Lucent Method and apparatus for providing end-to-end high quality services based on performance characterizations of network conditions
US8611676B2 (en) * 2005-07-26 2013-12-17 Sony Corporation Information processing apparatus, feature extraction method, recording media, and program
US7885902B1 (en) * 2006-04-07 2011-02-08 Soulsearch.Com, Inc. Learning-based recommendation system incorporating collaborative filtering and feedback
US20090089107A1 (en) * 2007-09-27 2009-04-02 Robert Lee Angell Method and apparatus for ranking a customer using dynamically generated external data
US8549407B2 (en) * 2007-12-05 2013-10-01 Ebay Inc. Multi-dimensional dynamic visual browsing
US20090158170A1 (en) * 2007-12-14 2009-06-18 Rajesh Narayanan Automatic profile-based avatar generation
KR20090074108A (ko) * 2007-12-28 2009-07-06 주식회사 솔트룩스 상황인지를 통한 컨텐츠 추천방법
EP2245835A2 (en) * 2008-02-08 2010-11-03 Ecrio, Inc. System, method and apparatus for controlling multiple applications and services on a digital electronic device
KR20100048127A (ko) * 2008-10-30 2010-05-11 한국전자통신연구원 사용자 서비스 이용 패턴 모델링 장치 및 방법
US8972325B2 (en) * 2009-07-01 2015-03-03 Oracle International Corporation Role based identity tracker
US20110066507A1 (en) * 2009-09-14 2011-03-17 Envio Networks Inc. Context Enhanced Marketing of Content and Targeted Advertising to Mobile Device Users
KR101628054B1 (ko) * 2009-12-28 2016-06-08 삼성전자주식회사 가상 공간 제공 장치 및 방법
WO2012001232A2 (en) * 2010-06-30 2012-01-05 Nokia Corporation Method and apparatus for in-application purchasing
US8694686B2 (en) * 2010-07-20 2014-04-08 Lg Electronics Inc. User profile based configuration of user experience environment
US20120047077A1 (en) * 2010-08-23 2012-02-23 Scott Humphrey Virtual studio for identifying and developing public talent
US9767221B2 (en) * 2010-10-08 2017-09-19 At&T Intellectual Property I, L.P. User profile and its location in a clustered profile landscape
US20120302270A1 (en) * 2011-05-25 2012-11-29 Nokia Corporation Method and apparatus for providing content providers for recommendation services
US9646313B2 (en) * 2011-12-13 2017-05-09 Microsoft Technology Licensing, Llc Gesture-based tagging to view related content
US20130268373A1 (en) * 2012-04-04 2013-10-10 Linkedln Corporation Methods and systems for presenting personalized advertisements
US9449089B2 (en) * 2012-05-07 2016-09-20 Pixability, Inc. Methods and systems for identifying distribution opportunities
CN104471561B (zh) * 2012-05-14 2019-03-15 诺基亚技术有限公司 确定情境-认知相似度和确定情境-认知推荐的方法和装置
US20150339363A1 (en) * 2012-06-01 2015-11-26 Next Integrative Mind Life Sciences Holding Inc. Method, system and interface to facilitate change of an emotional state of a user and concurrent users
WO2014009400A1 (en) * 2012-07-13 2014-01-16 Telefonica, S.A. A method and a system for generating context-based content recommendations to users
US20140240124A1 (en) * 2013-02-25 2014-08-28 Exmovere Wireless LLC Method and apparatus for monitoring, determining and communicating biometric statuses, emotional states and movement
US9639608B2 (en) * 2013-03-15 2017-05-02 Daniel Freeman Comprehensive user/event matching or recommendations based on awareness of entities, activities, interests, desires, location
US9477973B2 (en) * 2013-06-25 2016-10-25 International Business Machines Visually generated consumer product presentation
US9113229B2 (en) * 2013-09-12 2015-08-18 Verizon Patent And Licensing Inc. Automated content ingestion
US20150100374A1 (en) * 2013-10-09 2015-04-09 Yahoo! Inc. Wearable text personalization
US20150187188A1 (en) * 2013-12-30 2015-07-02 Aliphcom Communications using tactile stimuli on wearable devices
KR101590023B1 (ko) * 2014-03-27 2016-02-18 전자부품연구원 상황 기반 서비스 기술
KR101598601B1 (ko) * 2014-05-14 2016-03-02 전자부품연구원 상황 기반 서비스 지원 기술

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090003375A (ko) 2007-06-05 2009-01-12 에스케이 텔레콤주식회사 이동통신 단말기의 현재 상황에 적합한 컨텐츠를 재생하는방법
KR20120135285A (ko) * 2010-02-25 2012-12-12 콸콤 인코포레이티드 모바일 디바이스 프로파일 애그리게이션
KR20120104648A (ko) * 2010-10-26 2012-09-24 주식회사 케이티 개인 맞춤형 컨텐츠 추천 장치 및 그 방법과 그를 이용한 시스템 및 그 방법
KR20130009922A (ko) 2011-07-15 2013-01-24 삼성전자주식회사 상황 인지 사용자 감정 소셜 관심 모델
JP2013206194A (ja) * 2012-03-28 2013-10-07 Dainippon Printing Co Ltd サーバ装置、プログラム及び通信システム
KR20140006516A (ko) * 2012-07-06 2014-01-16 씨제이씨지브이 주식회사 위치 기반 콘텐츠 추천 서비스 제공 시스템 및 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180028939A (ko) * 2016-09-09 2018-03-19 소니 주식회사 감정 상태 검출에 기초하여 전자 디바이스 상에서 추천을 제공하기 위한 시스템 및 방법
US11049147B2 (en) 2016-09-09 2021-06-29 Sony Corporation System and method for providing recommendation on an electronic device based on emotional state detection
KR20190143210A (ko) * 2018-06-20 2019-12-30 주식회사 엘지유플러스 개인 검색 패턴 가이드 제공 장치 및 방법

Also Published As

Publication number Publication date
US20150332337A1 (en) 2015-11-19
KR101598601B1 (ko) 2016-03-02
US10152724B2 (en) 2018-12-11

Similar Documents

Publication Publication Date Title
US9712587B1 (en) Identifying and rendering content relevant to a user&#39;s current mental state and context
US9706247B2 (en) Synchronized digital content samples
KR102230342B1 (ko) 뉴스피드에서 소셜 네트워킹 시스템 사용자에게 제시하기 위한 컨텐츠 아이템의 선택
CN102460412B (zh) 用于在网络中管理及/或再现因特网多媒体内容的系统及方法
US8244830B2 (en) Linking users into live social networking interactions based on the users&#39; actions relative to similar content
Hracs et al. From selling songs to engineering experiences: exploring the competitive strategies of music streaming platforms
US9595021B2 (en) All media story telling system and method
US9420319B1 (en) Recommendation and purchase options for recommemded products based on associations between a user and consumed digital content
KR101598601B1 (ko) 상황 기반 서비스 지원 기술
US11372514B1 (en) Identifying and rendering content relevant to a user&#39;s current mental state and context
JP6784499B2 (ja) 決定装置、決定方法及び決定プログラム
JP2010170436A (ja) インターネットのウェブページ(デジタルコンテンツ)内の任意のキーワードにレコメンド広告を配信して表示する方法、およびその広告の品質の評価方法、ならびにその品質評価に基づいて課金する方法。
US9658994B2 (en) Rendering supplemental information concerning a scheduled event based on an identified entity in media content
CA2853856A1 (en) Systems and methods for managing a profile of a user accessing electronic content
US20170214963A1 (en) Methods and systems relating to metatags and audiovisual content
US8775321B1 (en) Systems and methods for providing notification of and access to information associated with media content
KR101590023B1 (ko) 상황 기반 서비스 기술
Terlutter et al. Convergence and consumer behavior
Hjorth Locating the visual: A case study of gendered location-based services and camera phone practices in Seoul, South Korea
US9674250B2 (en) Media asset management system
US10755309B2 (en) Delivering content
Xuan et al. Looking Up or Down? The Effects of Camera Angle on Evaluations of Anthropomorphized Products in Advertisements
US9256621B2 (en) Claims-based querying in an online system
Maia et al. Framework for building intelligent mobile social applications
US20240161176A1 (en) Cluster-based dynamic content with multi-dimensional vectors

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190211

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20200115

Year of fee payment: 5