KR102423588B1 - 정보 제공 방법 및 장치 - Google Patents

정보 제공 방법 및 장치 Download PDF

Info

Publication number
KR102423588B1
KR102423588B1 KR1020150187138A KR20150187138A KR102423588B1 KR 102423588 B1 KR102423588 B1 KR 102423588B1 KR 1020150187138 A KR1020150187138 A KR 1020150187138A KR 20150187138 A KR20150187138 A KR 20150187138A KR 102423588 B1 KR102423588 B1 KR 102423588B1
Authority
KR
South Korea
Prior art keywords
user
information
context
user context
access right
Prior art date
Application number
KR1020150187138A
Other languages
English (en)
Other versions
KR20170077341A (ko
Inventor
주재석
허창룡
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020150187138A priority Critical patent/KR102423588B1/ko
Priority to US15/390,869 priority patent/US10419429B2/en
Publication of KR20170077341A publication Critical patent/KR20170077341A/ko
Application granted granted Critical
Publication of KR102423588B1 publication Critical patent/KR102423588B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/02Protecting privacy or anonymity, e.g. protecting personally identifiable information [PII]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/34User authentication involving the use of external additional devices, e.g. dongles or smart cards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/604Tools and structures for managing or administering access control systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/629Protecting access to data via a platform, e.g. using keys or access control rules to features or functions of an application
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/08Access security
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/20Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel
    • H04W4/21Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel for social networking applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2111Location-sensitive, e.g. geographical location, GPS
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/10Network architectures or network communication protocols for network security for controlling access to devices or network resources
    • H04L63/105Multiple levels of security
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/60Context-dependent security
    • H04W12/63Location-dependent; Proximity-dependent

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Bioethics (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Automation & Control Theory (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)

Abstract

본 발명의 다양한 실시 예에 따른 전자 장치는, 통신 모듈 및 프로세서를 포함하고, 프로세서는, 통신 모듈을 통해 제1 사용자 단말 및 제2 사용자 단말 각각으로부터 제1 사용자 및 제2 사용자의 사용자 컨텍스트를 수신하고, 사용자 컨텍스트에 포함된 위치 정보를 이용하여 제1 사용자 및 제2 사용자가 동일한 공간에 존재한 시간을 판단하고, 동일한 공간에 존재한 시간에 기초하여 사용자 컨텍스트의 접근 권한을 설정하고, 제1 사용자로부터 제2 사용자의 사용자 컨텍스트와 관련된 정보가 요청되면 접근 권한에 따라 제1 사용자에게 정보를 제공하도록 설정될 수 있다.

Description

정보 제공 방법 및 장치{INFORMATION PROVIDING METHOD AND DEVICE}
본 발명의 다양한 실시예는 복수의 사용자들에게 공유되어 사용될 수 있는 전자 장치의 정보 제공 방법에 관한 것이다.
전자 기술의 발달에 힘입어 다양한 유형의 전자 제품들이 개발 및 보급되고 있다. 스마트폰, 테블릿 PC 등과 같이 다양한 기능을 가지는 휴대용 전자 장치의 보급이 확대되고 있으며, 가정용 혹은 사무실용 로봇과 같은 다수의 사용자를 대상으로 하는 전자 장치도 개발되고 있다.
사용자들은 상술한 전자 장치들을 이용하여 다양한 서비스를 제공받을 수 있다. 특히, 가정용 로봇과 같은 전자 장치의 경우 가족 구성원들로부터 수신된 사용자 정보를 공유하며 가족 구성원들과 대화할 수 있다.
다수의 사용자를 대상으로 하는 전자 장치(e.g. 가정용/사무용 로봇) 는 다수의 사용자 정보를 수집하거나 관리할 수 있다. 이 경우, 상기 전자 장치에 의해 관리되는 사용자 정보 중 일부는 다른 구성원들에게 공개되기를 원하지 않는 정보가 포함될 수 있다. 본 발명의 다양한 실시 예는 전자 장치가 사용자 정보에 대한 접근 권한을 설정함으로써 구성원들 사이에 사생활을 보호할 수 있는 정보 제공 방법 및 장치를 제공하는 것을 목적으로 한다.
본 발명의 다양한 실시 예에 따른 전자 장치는, 통신 모듈 및 프로세서를 포함하고, 상기 프로세서는, 상기 통신 모듈을 통해 제1 사용자 단말 및 제2 사용자 단말 각각으로부터 제1 사용자 및 제2 사용자의 사용자 컨텍스트(Context) 를 수신하고, 상기 사용자 컨텍스트에 포함된 위치 정보를 이용하여 상기 제1 사용자 및 상기 제2 사용자가 동일한 공간에 존재한 시간을 판단하고, 상기 동일한 공간에 존재한 시간에 기초하여 상기 사용자 컨텍스트의 접근 권한(Access Permission)을 설정하고, 제1 사용자로부터 제2 사용자의 사용자 컨텍스트와 관련된 정보가 요청되면 상기 접근 권한에 따라 상기 제1 사용자에게 정보를 제공하도록 설정될 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치의 정보 제공 방법은, 제1 외부 전자 장치 및 제2 외부 전자 장치 각각으로부터 제1 사용자 및 제2 사용자의 사용자 컨텍스트를 수신하는 동작, 상기 사용자 컨텍스트에 포함된 위치 정보를 이용하여 상기 제1 사용자 및 상기 제2 사용자가 같은 공간에 존재한 시간을 판단하는 동작, 상기 같은 공간에 존재한 시간에 기초하여 상기 사용자 컨텍스트의 접근 권한을 설정하는 동작, 상기 제1 사용자로부터 상기 제2 사용자의 사용자 컨텍스트와 관련된 정보를 요청받는 동작 및 상기 접근 권한에 따라 상기 제1 사용자에게 상기 제2 사용자에게 정보를 제공하는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 컴퓨터 판독 가능 기록매체는, 제1 외부 전자 장치 및 제2 외부 전자 장치 각각으로부터 제1 사용자 및 제2 사용자의 사용자 컨텍스트를 수신하는 동작, 상기 사용자 컨텍스트에 포함된 위치 정보를 이용하여 상기 제1 사용자 및 상기 제2 사용자가 같은 공간에 존재한 시간을 판단하는 동작, 상기 같은 공간에 존재한 시간에 기초하여 상기 사용자 컨텍스트의 접근 권한을 설정하는 동작, 상기 제1 사용자로부터 상기 제2 사용자의 사용자 컨텍스트와 관련된 정보를 요청받는 동작 및 상기 접근 권한에 따라 상기 제1 사용자에게 상기 제2 사용자에게 정보를 제공하는 동작을 포함하는 방법을 수행하는 프로그램이 기록될 수 있다.
본 발명의 다양한 실시 예에 따르면, 사용자의 위치 또는 사용자의 온라인 활동(예: 온라인 게임, 온라인 채팅 등)에 기초하여 사용자 컨텍스트의 접근 권한을 설정함으로써 전자 장치를 이용하는 다수의 사용자들 사이에 사생활을 보호할 수 있다.
도 1은 본 발명의 다양한 실시 예에 따른 정보 제공 시스템의 구성을 나타내는 도면이다.
도 2는 본 발명의 다양한 실시 예에 따른 정보 제공 시스템의 정보 제공 방법을 나타내는 흐름도이다.
도 3은 본 발명의 다양한 실시 예에 따른 전자 장치의 구성을 나타내는 블럭도이다.
도 4는 본 발명의 다양한 실시 예에 따른 사용자 컨텍스트의 예를 나타내는 도면이다.
도 5는 사용자 컨텍스트에 접근 권한을 설정하는 예를 나타내는 도면이다.
도 6은 본 발명의 다양한 실시 예에 따른 제1 사용자 장치의 구성을 나타내는 블럭도이다.
도 7은 본 발명의 다양한 실시 예에 따라 제1 사용자 장치의 프로그램 모듈의 구조를 나타내는 도면이다.
도 8은 본 발명의 다양한 실시 예에 따른 사용자 인터페이스를 나타내는 도면이다.
도 9는 본 발명의 다양한 실시 예에 따른 전자 장치의 정보 제공 방법을 나타내는 흐름도이다.
이하, 본 문서의 다양한 실시예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 문서의 실시예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.
본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.
본 문서에서 사용된 "제 1," "제 2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제 1 사용자 기기와 제 2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 바꾸어 명명될 수 있다.
어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.
본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서에서 사용된 용어들은 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 다른 실시예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시예들을 배제하도록 해석될 수 없다.
이하, 첨부 도면을 참조하여, 다양한 실시예에 따른 전자 장치가 설명된다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 본 발명의 다양한 실시 예에 따른 정보 제공 시스템의 구성을 나타내는 도면이다.
도 1을 참조하면, 정보 제공 시스템(1000)은 전자 장치(100), 제1 사용자 장치(200-1), 제2 사용자 장치(200-2), 클라우드 서버(300)를 포함할 수 있다. 일 실시 예에 따르면, 전자 장치(100), 제1 사용자 장치(200-1), 제2 사용자 장치(200-2), 클라우드 서버(300)는 네트워크(10)를 통해 서로 연결될 수 있다. 예를 들어, 전자 장치(100), 제1 사용자 장치(200-1) 및 제2 사용자 장치(200-2)는 Wi-Fi, 블루투스, NFC(near field communication) 등과 같은 근거리 무선 통신 기술을 통해 연결될 수 있다. 다른 예를 들어, 전자 장치(100), 제1 사용자 장치(200-1), 제2 사용자 장치(200-2), 클라우드 서버(300)는 이동 통신망 또는 인터넷 망을 통해 서로 연결될 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 가정용 로봇일 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 가정에서 가족의 구성원들과 대화를 수행하거나 가족 구성원들에게 필요한 정보를 제공할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 제1 사용자 장치(200-1) 및 제2 사용자 장치(200-2)로부터 사용자 컨텍스트를 수신할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 사용자 컨텍스트를 분석하여 사용자 컨텍스트의 접근 권한을 설정할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 사용자 컨텍스트에 설정된 접근 권한에 따라 정보를 제공할 수 있다.
일 실시 예에 따르면, 제1 사용자 장치(200-1)는 제1 사용자의 사용자 장치일 수 있다. 일 실시 예에 따르면, 제2 사용자 장치(200-2)는 제2 사용자의 사용자 장치일 수 있다. 제1 사용자 장치(200-1) 또는 제2 사용자 장치(200-2)는, 예를 들어, 스마트폰, 웨어러블 장치(예: 스마트 워치 등), 테블릿 PC 등과 같은 휴대용 전자 장치일 수 있다. 제1 사용자 장치(200-1) 또는 제2 사용자 장치(200-2)는, 예를 들어, 가상현실(VR : virtual reality)를 제공하는 HMD(head mount display)일 수 있다.
일 실시 예에 따르면, 제1 사용자 장치(200-1) 및 제2 사용자 장치(200-2)는 각각 제1 사용자 및 제2 사용자의 사용자 컨텍스트를 수집할 수 있다. 일 실시 예에 따르면, 사용자 컨텍스트는 컨텐츠 이용 정보, 통화 이력, 메시지 또는 이메일 송수신 이력, 컨텐츠 생성 정보, 생체 정보, 사용자 활동 정보, 상품 구매 이력, 웹 서핑 이력, 위치 정보, 사용자의 스케줄 및 사용자 단말의 상태 정보 중 적어도 하나를 포함할 수 있다. 컨텐츠 이용 정보는, 예를 들어, 사용자에 의해 재생된 컨텐츠(예: 음악, 비디오, e-book, TV 채널 등)의 종류, 재생 시간, 재생 빈도 및 장르에 대한 정보를 포함할 수 있다. 통화 이력, 메시지 또는 이메일 송수신 이력은 사용자에 의해 수행된 통화 및 송수신 메시지 등의 시간, 빈도, 상대방 연락처 등에 대한 정보를 포함할 수 있다. 컨텐츠 생성 정보는, 예를 들어, 사용자 장치에서 생성된 컨텐츠(예: 사진, 비디오 등)의 생성 시간, 생성 장소, 크기, 공유 패턴(예: SNS 업로드 여부) 등에 대한 정보를 포함할 수 있다. 생체 정보는, 예를 들어, 사용자의 심박수, 건강 관련 정보 등을 포함할 수 있다. 사용자 활동 정보는 사용자의 신체 활동과 관련된 정보로서, 예를 들어, 걷기, 조깅, 수면 등의 신체활동 시간 또는 거리 등에 대한 정보를 포함할 수 있다. 상품 구매 이력은, 예를 들어, 사용자가 결제한 상품의 종류, 결재 수단, 결재 금액, 결제 빈도 등의 정보를 포함할 수 있다. 웹 서핑 이력은, 예를 들어, 사용자가 웹 브라우저 또는 검색 엔진 등을 통해 방문한 웹 페이지에 대한 정보 또는 검색 키워드를 포함할 수 있다. 위치 정보는, 예를 들어, 사용자의 위치, 체류 시간, 지오 펜스, 동선 등의 정보를 포함할 수 있다. 사용자의 스케줄은, 예를 들어, 사용자 단말 장치에 저장된 사용자의 일정에 대한 정보를 포함할 수 있다. 사용자 단말의 상태 정보는, 예를 들어, 어플리케이션 사용 패턴, 사용자 단말과 연결된 주변 장치 정보, 환경 설정 정보 등을 포함할 수 있다. 일 실시 예에 따르면, 사용자 컨텍스트에 포함된 각각의 정보는 시간 정보(예: 타임 스탬프)를 포함할 수 있다.
일 실시 예에 따르면, 제1 사용자 장치(200-1) 및 제2 사용자 장치(200-2)는 네트워크(10)를 통해 전자 장치(100)로 사용자 컨텍스트를 전송할 수 있다. 예를 들어, 제1 사용자 장치(200-1) 및 제2 사용자 장치(200-2)는 전자 장치(100)로 직접 사용자 컨텍스트를 전송하거나 또는 클라우드 서버(300)를 통해 전자 장치(100)로 사용자 컨텍스트를 전송할 수 있다.
일 실시 예에 따르면, 클라우드 서버(300)는 제1 사용자 장치(200-1) 및 제2 사용자 장치(200-2)로부터 사용자 컨텍스트를 수신할 수 있다. 일 실시 예에 따르면, 클라우드 서버(300)는 전자 장치(100)의 요청에 따라 전자 장치(100)로 사용자 컨텍스트를 전송할 수 있다.
도 1을 참조하여 설명한 실시 예에서는 정보 제공 시스템(1000)이 두 개의 사용자 장치(예: 제1 사용자 장치(200-1) 및 제2 사용자 장치(200-2))를 포함하는 것으로 설명하였으나, 다양한 실시 예에 따르면, 정보 제공 시스템(1000)은 세 개 이상의 사용자 장치를 포함할 수 있다.
도 2는 본 발명의 다양한 실시 예에 따른 정보 제공 시스템의 정보 제공 방법을 나타내는 흐름도이다.
도 2를 참조하면, 201 동작에서, 제1 사용자 장치(200-1) 및 제2 사용자 장치(200-2)는 사용자 컨텍스트를 수집할 수 있다. 예를 들어, 제1 사용자 장치(200-1)는 제1 사용자의 사용자 컨텍스트를 수집하고, 제2 사용자 장치(200-2)는 제2 사용자의 사용자 컨텍스트를 수집할 수 있다.
일 실시 예에 따르면, 203 동작에서, 제1 사용자 장치(200-1) 및 제2 사용자 장치(200-2)는 사용자 컨텍스트의 접근 권한을 설정할 수 있다. 일 실시 예에 따르면, 제1 사용자 장치(200-1) 및 제2 사용자 장치(200-2)는 사용자 입력에 따라 사용자 컨텍스트 중 적어도 일부에 대해 접근 권한을 설정할 수 있다. 예를 들어, 사용자는 사용자 컨텍스트 중 생체 정보 및 상품 구매 이력에 대해서는 타 사용자가 접근하지 못하도록 접근 권한을 제한할 수 있다. 일 실시 예에 따르면, 제1 사용자 장치(200-1) 및 제2 사용자 장치(200-2)는 특정 시간에 수집된 사용자 컨텍스트에 대해 접근 권한을 설정할 수 있다. 일 실시 예에 따르면, 사용자로부터 접근 권한을 설정하는 사용자 입력이 수신되지 않으면 203 동작은 생략될 수 있다.
일 실시 예에 따르면, 205 동작에서, 제1 사용자 장치(200-1) 및 제2 사용자 장치(200-2)는 전자 장치(100)로 사용자 컨텍스트를 전송할 수 있다. 일 실시 예에 따르면, 제1 사용자 장치(200-1) 및 제2 사용자 장치(200-2)는 전자 장치(100)와 근거리 무선 통신망(예: 블루투스 통신망)을 통해 연결되면 전자 장치(100)로 사용자 컨텍스트를 전송할 수 있다. 일 실시 예에 따르면, 제1 사용자 장치(200-1) 및 제2 사용자 장치(200-2)는 외부 서버(예: 클라우드 서버(300))를 통해 전자 장치(100)로 사용자 컨텍스트를 전송할 수 있다. 예를 들어, 제1 사용자 장치(200-1) 및 제2 사용자 장치(200-2)는 수집된 사용자 컨텍스트를 지정된 주기로 클라우드 서버(300)로 전송할 수 있다. 전자 장치(100)는 클라우드 서버(300)로 지정된 주기로 제1 사용자 및 제2 사용자의 사용자 컨텍스트를 요청하여 수신할 수 있다.
일 실시 예에 따르면, 207 동작에서, 전자 장치(100)는 사용자 컨텍스트의 접근 권한을 설정할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 사용자 컨텍스트에 포함된 위치 정보를 이용하여 제1 사용자 및 제2 사용자가 동일한 공간에 존재한 시간을 판단할 수 있다. 예를 들어, 전자 장치(100)는 제1 사용자 및 제2 사용자가 지정된 거리 내에 위치하면 서로 동일한 공간에 존재하였다고 판단할 수 있다. 다른 예를 들어, 전자 장치(100)는 제1 사용자 및 제2 사용자가 지정된 장소(예: 집, 회사, 공원 등)에 함께 위치하면 서로 동일한 공간에 존재하였다고 판단할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 제1 사용자 및 제2 사용자가 동일한 공간에 존재한 시간에 대응되는 사용자 컨텍스트는 서로에게 접근을 허용하고, 동일한 공간에 존재하지 않은 시간에 대응되는 사용자 컨텍스트에 대해서는 다른 사용자의 접근을 제한할 수 있다.
일 실시 예에 따르면, 209 동작에서, 전자 장치(100)는 제1 사용자로부터 제2 사용자의 사용자 컨텍스트와 관련된 정보를 요청받을 수 있다. 예를 들어, 제1 사용자는 제2 사용자의 위치 또는 활동 내용 등을 질의할 수 있다.
일 실시 예에 따르면, 211 동작에서, 전자 장치(100)는 요청된 정보에 대해 제1 사용자가 접근 권한이 있는지 판단할 수 있다. 예를 들어, 전자 장치(100)는 제1 사용자의 질의 내용에 응답하기 위해 필요한 정보를 검색하고, 검색된 정보에 설정된 접근 권한을 확인할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 제1 사용자에게 접근 권한이 있다고 판단되면, 213 동작에서, 제1 사용자에게 요청된 정보를 제공할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 제1 사용자에게 접근 권한이 없다고 판단되면, 215 동작에서, 제2 사용자 장치(200-2)로 정보 제공 여부를 질의할 수 있다. 예를 들어, 전자 장치(100)는 제2 사용자가 소지하는 제2 사용자 장치(200-2)로 정보 제공 여부를 질의하는 메시지를 전송할 수 있다. 제2 사용자는 제2 사용자 장치(200-2)를 통해 정보 제공을 허용 또는 거절할 수 있다.
일 실시 예에 따르면, 217 동작에서, 제2 사용자 장치(200-2)는 사용자 입력에 따라 전자 장치(100)로 정보 제공 여부에 대한 응답 메시지를 전송할 수 있다. 예를 들어, 제2 사용자 장치(200-2)는 전자 장치(100)로 정보 제공을 허용하는 응답 메시지를 전송할 수 있다.
일 실시 예에 따르면, 제2 사용자 장치(200-2)로부터 정보 제공을 허용하는 응답이 수신되면 219 동작에서, 전자 장치(100)는 제1 사용자에게 요청된 정보를 제공할 수 있다.
본 발명의 다양한 실시 예에 따르면, 가정용 로봇(예: 전자 장치(100))은 가족 구성원들로부터 수신된 사용자 컨텍스트에 기초하여 정보를 공유하며 가족 구성원들과 커뮤니케이션할 수 있다. 다만, 사용자 컨텍스트에 포함된 정보 중 일부는 다른 가족 구성원들에게 공개되기를 원하지 않는 정보가 포함될 수 있다. 본 발명의 다양한 실시 예는 가족 구성원들의 위치 및 시간을 기준으로 사용자 컨텍스트에 대한 접근 권한을 설정함으로써 가족 구성원들 사이에 사생활을 보호할 수 있다.
도 3은 본 발명의 다양한 실시 예에 따른 전자 장치의 구성을 나타내는 블럭도이다.
도 3을 참조하면, 전자 장치(100)는 통신 모듈(110), 카메라(130), 마이크(140), 디스플레이(150), 스피커(160), 메모리(170) 및 프로세서(180)를 포함할 수 있다.
통신 모듈(110)은 외부 장치(예: 제1 사용자 장치(200-1), 제2 사용자 장치(200-2) 및 클라우드 서버(300))와 통신할 수 있다. 일 실시 예에 따르면, 통신 모듈(110)은 외부 장치로부터 가족 구성원(예: 제1 사용자 및 제2 사용자) 사용자 컨텍스트를 수신할 수 있다. 일 실시 예에 따르면, 통신 모듈(110)은, 셀룰러 모듈, Wi-Fi(wireless-fidelity) 모듈, 블루투스(bluetooth) 모듈, NFC(near field communication), GNSS(global navigation satellite system) 모듈 등을 포함할 수 있다.
일 실시 예에 따르면, 입력 모듈(120)은 사용자 입력을 수신할 수 있다. 일 실시 예에 따르면, 입력 모듈(120)은 가족 구성원(예: 제1 사용자 및 제2 사용자)로부터 가족 구성원의 사용자 컨텍스트와 관련된 정보를 요청받을 수 있다.
일 실시 예에 따르면, 입력 모듈(120)은 터치 패널(121), 음성 인식 센서(123) 및 모션 인식 센서(125)를 포함할 수 있다.
일 실시 예에 따르면, 터치 패널(121)은 사용자의 터치 조작(또는, 펜 조작)을 센싱할 수 있다. 일 실시 예에 따르면, 입력 모듈(130)은 사용자 조작이 패널 상에 직접적으로 접촉할 때뿐만 아니라, 패널에 직접적으로 접촉하지 않으면서 특정 거리 이내에서 입력되는 사용자 조작을 센싱할 수 있다.
일 실시 예에 따르면, 음성 인식 센서(123)는 마이크(140)를 통해 수신되는 사용자 음성을 인식할 수 있다. 일 실시 예에 따르면, 음성 인식 센서(123)는 사용자 음성을 분석하여 사용자를 식별할 수 있다. 예를 들어, 음성 인식 센서(123)는 마이크(140)에 수신된 사용자 음성의 특징(예: 음성의 파형)을 분석하여 가족 구성원 중 누구의 음성인지 판단할 수 있다.
일 실시 예에 따르면, 음성 인식 센서(123)는 사용자 음성을 분석하여 사용자 음성에 포함된 사용자의 의도를 파악할 수 있다. 일 실시 예에 따르면, 음성 인식 센서(123)는 음성 신호를 텍스트로 변환할 수 있다. 예를 들어, 음성 인식 센서(123)는 STT(speech to text) 알고리즘을 이용하여 음성 신호를 텍스트로 변환할 수 있다. 일 실시 예에 따르면, 음성 인식 센서(123)는 텍스트를 분석하여 사용자의 의도(예: 질의 내용)를 파악할 수 있다. 예를 들어, 음성 인식 센서(123)는 텍스트를 이용하여 자연어 이해(natural language understanding : NLU) 및 대화 관리(dialog management : DM)를 수행할 수 있다.
일 실시 예에 따르면, 상술한 음성 인식 과정 중 적어도 일부는 적어도 하나의 외부 서버(예: 음성 인식 서버)에 의해 수행될 수 있다. 예를 들어, 프로세서(180)는 음성 신호를 외부 서버로 전송하고, 외부 서버로부터 음성 신호에 대응되는 텍스트를 수신할 수 있다. 다른 예를 들어, 프로세서(180)는 텍스트를 외부 서버로 전송하고, 외부 서버로부터 텍스트에 포함된 사용자의 의도에 대응되는 정보를 수신할 수 있다.
일 실시 예에 따르면, 모션 인식 센서(125)는 카메라(130)에 의해 촬영되는 사용자의 움직임을 분석하여 사용자의 의도를 파악할 수 있다. 일 실시 예에 따르면, 모션 인식 센서(125)는 카메라(130)에 의해 촬영된 이미지를 이용하여 사용자의 얼굴을 인식할 수 있다. 예를 들어, 모션 인식 센서(123)는 얼굴 인식 알고리즘을 이용하여 이미지에 포함된 얼굴은 분석할 수 있다.
일 실시 예에 따르면, 음성 인식 센서(123) 및 모션 인식 센서(125)는 프로세서(180)와 별도의 구성으로 설명하였으나 음성 인식 센서(123) 및 모션 인식 센서(125)에 의해 수행되는 동작의 일부 또는 전부는 프로세서(180)에 의해 수행될 수 있다.
일 실시 예에 따르면, 카메라(130)는 전자 장치(100)의 주변 환경을 촬영할 수 있다. 예를 들어, 카메라(130)는 사용자 이미지를 촬영할 수 있다. 일 실시 예에 따르면, 카메라(130)는 촬영된 이미지를 모션 인식 센서(125) 또는 프로세서(180)로 전달할 수 있다.
일 실시 예에 따르면, 마이크(140)는 사운드(예: 사용자 음성)를 수신하고, 수신된 사운드를 전기적 신호(또는, 음성 신호)로 변환할 수 있다. 일 실시 예에 따르면, 마이크(140)는 음성 신호를 음성 인식 센서(123) 또는 프로세서(180)로 전달할 수 있다.
일 실시 예에 따르면, 디스플레이(150)는 사용자 인터페이스를 표시할 수 있다. 예를 들어, 디스플레이(150)는 음성 인식 센서(123)에 의해 인식된 사용자의 질의 내용 및 사용자의 질의에 대한 응답을 텍스트로 표시할 수 있다.
일 실시 예에 따르면, 스피커(160)는 사운드를 출력할 수 있다. 예를 들어, 스피커(160)는 사용자의 질의에 대한 응답을 음성으로 변환하여 출력할 수 있다.
일 실시 예에 따르면, 메모리(170)는 제1 사용자 장치(200-1) 및 제2 사용자 장치(200-2)로부터 수신된 사용자 컨텍스트를 저장할 수 있다. 일 실시 예에 따르면, 메모리(170)는 프로세서(180)에 의해 사용자 컨텍스트에 대한 접근 권한이 설정되면 사용자 컨텍스트 및 사용자 컨텍스트에 대한 접근 권한 정보를 함께 저장할 수 있다.
일 실시 예에 따르면, 프로세서(180)는 일 실시 예에 따르면, 프로세서(180)는 전자 장치(100)의 전반적인 동작을 제어할 수 있다. 일 실시 예에 따르면, 프로세서(180)는 통신 모듈(110), 카메라(130), 마이크(140), 디스플레이(150), 스피커(160) 및 메모리(170) 각각을 제어하여 본 발명의 다양한 실시 예에 따라 사용자에게 정보를 제공할 수 있다. 일 실시 예에 따르면, 프로세서(180)는 적어도 하나의 CPU(central processing unit), GPU(graphic processing unit), 메모리 등을 포함하는 SoC(system on chip)으로 구현될 수 있다.
일 실시 예에 따르면, 프로세서(180)는 제1 사용자 장치(200-1) 및 제2 사용자 장치(200-2)로부터 수신된 사용자 컨텍스트를 메모리(170)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(180)는 사용자 컨텍스트를 사용자별로 구분하여 관리할 수 있다.
도 4는 본 발명의 다양한 실시 예에 따른 사용자 컨텍스트의 예를 나타내는 도면이다.
도 4를 참조하면, 위치 정보, 사용자 활동 정보(activity), 컨텐츠 생성 정보(contents creation) 및 컨텐츠 이용 정보(contents consumption)가 시간의 흐름에 따라 정렬되어 있다. 일 실시 예에 따르면, 프로세서(180)는 사용자 컨텍스트에 포함된 시간 정보(예: 타임 스탬프)를 이용하여 특정 시간에 수집된 다양한 종류의 사용자 컨텍스트를 연동시킬 수 있다.
일 실시 예에 따르면, 프로세서(180)는 사용자 컨텍스트를 분석하여 각각의 사용자의 사용자 컨텍스트에 대해 접근 권한을 설정할 수 있다. 프로세서(180)는, 예를 들어, 사용자 본인의 사용자 컨텍스트에 대해서는 항상 접근 가능하도록 설정할 수 있다. 일 실시 예에 따르면, 프로세서(180)는 사용자 컨텍스트에 포함된 위치 정보를 이용하여 제1 사용자 및 제2 사용자가 동일한 공간에 존재한 시간을 판단할 수 있다. 일 실시 예에 따르면, 프로세서(180)는 제1 사용자 및 상기 제2 사용자가 서로 지정된 거리 내에 위치하면 동일한 공간에 존재하였다고 판단할 수 있다. 예를 들어, 제1 사용자 및 제2 사용자가 서로 100m 이내의 거리에 위치하면 동일한 공간에 존재하였다고 판단할 수 있다. 일 실시 예에 따르면, 프로세서(180)는 제1 사용자 및 제2 사용자가 지정된 장소에 함께 위치하면 서로 동일한 공간에 존재하였다고 판단할 수 있다. 예를 들어, 제1 사용자 및 제2 사용자가 함께 특정 시설(예: 박물관, 도서관, 수영장 등)에 위치하면 서로 동일한 공간에 존재하였다고 판단할 수 있다. 다른 예를 들어, 제1 사용자 및 제2 사용자가 랜드마크(예: 서울 타워)로부터 지정된 거리(예: 50m)내에 위치하면 서로 동일한 공간에 존재하였다고 판단할 수 있다.
일 실시 예에 따르면, 프로세서(180)는 제1 사용자 및 제2 사용자가 동일한 공간에 존재한 시간에 기초하여 사용자 컨텍스트의 접근 권한을 설정할 수 있다. 예를 들어, 프로세서(180)는 제1 사용자(또는, 제2 사용자)의 사용자 컨텍스트 중 상기 제1 사용자 및 상기 제2 사용자가 동일한 공간에 존재한 시간에 대응되는 사용자 컨텍스트에 대해 제2 사용자(또는, 제1 사용자)의 접근을 허용하고, 제1 사용자 및 상기 제2 사용자가 동일한 공간에 존재하지 않은 시간에 대응되는 사용자 컨텍스트에 대해 제2 사용자(또는, 제1 사용자)의 접근을 제한할 수 있다.
일 실시 예에 따르면, 프로세서(180)는 제1 사용자 및 제2 사용자가 함께 온라인 활동을 수행한 시간을 판단할 수 있다. 온라인 활동은, 예를 들어, 음성 통화, 영상 통화, SMS(short message service), 이-메일, SNS(social network service), 온라인 게임, 온라인 채팅 또는 가상 현실(VR: virtual reality) 서비스를 포함할 수 있다. 예를 들어, 제1 사용자 및 제2 사용자는 서로 통화를 수행하거나 대화방에서 메시지를 송수신할 수 있다. 또는, 제1 사용자 및 제2 사용자는 서로 연결된 상태에서 동일한 게임을 함께 수행하거나 가상 현실 서비스를 통해 동일한 가상 공간(예: 동일한 가상 공간상의 좌표)에서 가상 현실 서비스를 이용할 수 있다. 일 실시 예에 따르면, 프로세서(180)는 제1 사용자 및 제2 사용자가 함께 수행한 온라인 활동과 관련된 사용자 컨텍스트에 대해 서로 간에 접근 권한을 가지도록 설정할 수 있다.
도 5는 사용자 컨텍스트에 접근 권한을 설정하는 예를 나타내는 도면이다.
도 5를 참조하면 복수의 사용자(예: 제1 사용자, 제2 사용자 및 제3 사용자)의 사용자 컨텍스트가 시간의 흐름에 따라 정렬될 수 있다. 도 5를 참조하면, 프로세서(180)는 제1 시각(t1)부터 제2 시각(t2)까지 제1 사용자 및 제2 사용자가 동일한 공간에 존재하였다고 판단할 수 있다. 프로세서(180)는 제2 시각(t2)부터 제3 시각(t3)까지 제1 사용자, 제2 사용자 및 제3 사용자가 동일한 공간에 존재하였다고 판단할 수 있다. 예를 들어, 프로세서(180)는 제4 시각(t4)부터 제5 시각(t5)까지 제1 사용자 및 제2 사용자가 대화방에서 서로 메시지를 송수신하였다고 판단할 수 있다.
프로세서(180)는, 예를 들어, 제1 사용자의 사용자 컨텍스트 중 제1 시각(t1)부터 제2 시각(t2)에 대응되는 사용자 컨텍스트에 대해 제2 사용자의 접근을 허용하도록 설정할 수 있다. 프로세서(180)는, 예를 들어, 제1 사용자의 사용자 컨텍스트 중 제2 시각(t2)부터 제3 시각(t3)에 대응되는 사용자 컨텍스트에 대해 제2 사용자 및 제3 사용자의 접근을 허용하도록 설정할 수 있다. 프로세서(180)는, 예를 들어, 제2 사용자의 사용자 컨텍스트 중 제1 시각(t1)부터 제3 시각(t2)에 대응되는 사용자 컨텍스트에 대해 제1 사용자의 접근을 허용하도록 설정할 수 있다. 프로세서(180)는, 예를 들어, 제2 사용자의 사용자 컨텍스트 중 제2 시각(t2)부터 제3 시각(t3)에 대응되는 사용자 컨텍스트에 대해 제1 사용자 및 제3 사용자의 접근을 허용하도록 설정할 수 있다. 프로세서(180)는, 예를 들어, 제3 사용자의 사용자 컨텍스트 중 제2 시각(t2)부터 제3 시각(t3)에 대응되는 사용자 컨텍스트에 대해 제1 사용자 및 제2 사용자의 접근을 허용하도록 설정할 수 있다. 프로세서는, 예를 들어, 제1 사용자의 사용자 컨텍스트 중 제4 시각(t2)부터 제5 시각(t3)까지 제2 사용자와 수행한 메시징 송수신과 관련된 사용자 컨텍스트에 대해 제2 사용자의 접근을 허용하도록 설정할 수 있다. 프로세서는, 예를 들어, 제2 사용자의 사용자 컨텍스트 중 제4 시각(t2)부터 제5 시각(t3)까지 제1 사용자와 수행한 메시징 송수신과 관련된 사용자 컨텍스트에 대해 제1 사용자의 접근을 허용하도록 설정할 수 있다.
일 실시 예에 따르면, 제1 전자 장치(200-1) 및 제2 전자 장치(200-2)로부터 수신되는 사용자 컨텍스트 중 적어도 일부는 사용자에 의해 접근 권한이 미리 설정될 수 있다. 예를 들어, 사용자는 사용자 컨텍스트가 전자 장치(100)로 전송되기 전에 특정 시간 또는 특정 사용자 컨텍스트에 대해 접근 권한을 미리 설정할 수 있다. 일 실시 예에 따르면, 사용자에 의해 설정된 접근 권한은 프로세서(180)에 의해 설정되는 접근 권한보다 우선권을 가질 수 있다. 예를 들어, 프로세서(180)는 사용자에 의해 접근 권한이 설정된 사용자 컨텍스트에 대해서는 접근 권한을 변경하거나 재설정할 수 없다.
일 실시 예에 따르면, 프로세서(180)는 제1 사용자로부터 제2 사용자 컨텍스트와 관련된 정보를 요청받을 수 있다. 예를 들어, 제1 사용자는 음성을 통해 전자 장치(100)에 사용자 컨텍스트와 관련된 정보를 요청하거나 질의할 수 있다. 예를 들어, 어머니(제1 사용자)는 전자 장치(100)에게 "어제 저녁에 Michael(제2 사용자)이 박물관에 잘갔다 왔니?" 또는 "Michael(제2 사용자)이 왜 이렇게 집에 안들어 오니?" 와 같이 질의할 수 있다.
일 실시 예에 따르면, 프로세서(180)는 제1 사용자로부터 제2 사용자 컨텍스트와 관련된 정보가 요청되면 제2 사용자의 사용자 컨텍스트에 설정된 접근 권한을 확인할 수 있다. 일 실시 예에 따르면, 프로세서(180)는 음성 인식 센서(123) 또는 모션 인식 센서(125)를 이용하여 정보를 요청한 제1 사용자를 식별할 수 있다. 일 실시 예에 따르면, 프로세서(180)는 제1 사용자의 질의 내용에 응답하기 위해 필요한 정보를 검색하고, 검색된 정보가 제2 사용자의 사용자 컨텍스트와 관련된 경우 제2 사용자의 사용자 컨텍스트에 설정된 접근 권한을 확인할 수 있다. 예를 들어, 프로세서(180)는 "어제 저녁에 Michael(제2 사용자)이 박물관에 잘갔다 왔니?"라는 질문에 대해 저녁 시간에 Michael(제2 사용자)이 방문한 장소 및 방문 시간, 촬영한 사진 등의 사용자 컨텍스트를 검색하고, 검색된 사용자 컨텍스트에 설정된 접근 권한을 확인할 수 있다. 다른 예를 들어, 프로세서(180)는 "Michael이 왜 이렇게 집에 안들어 오니?"라는 질문에 대해 Michael의 현재 위치 및 사용자 활동 정보 등을 검색하고, 검색된 사용자 컨텍스트에 설정된 접근 권한을 확인할 수 있다.
일 실시 예에 따르면, 프로세서(180)는 정보를 요청한 제1 사용자에게 접근 권한이 있다고 판단되면 요청한 정보를 제1 사용자에게 제공할 수 있다. 일 실시 예에 따르면, 프로세서(180)는 제1 사용자에게 접근 권한이 없다고 판단되면 제2 사용자에게 사용자 컨텍스트와 관련된 정보의 제공 여부를 질의할 수 있다. 예를 들어, 프로세서(180)는 통신 모듈(110)을 통해 제2 사용자가 소지하는 제2 사용자 장치(200-2)로 정보 제공 여부를 질의하는 메시지를 전송할 수 있다. 정보 제공 여부를 질의하는 메시지는, 예를 들어, 제1 사용자의 질의 내용 또는 제1 사용자에게 제공하고자 하는 컨텍스트 정보를 포함할 수 있다. 예를 들어, 프로세서(180)는 제2 사용자 장치(200-2)로 "어제 박물관가서 있었던 일 어머니(제1 사용자)에게 말씀드려도 돼?" 또는 "어머니(제1 사용자)에게 지금 뭐하고 있는지 말씀드려도 돼?"와 같이 정보 제공 여부를 질의하는 메시지를 전송할 수 있다. 제2 사용자는 제2 사용자 장치(200-2)를 통해 정보 제공을 허용 또는 거절할 수 있다. 예를 들어, 제2 사용자는 터치 입력 또는 음성으로 정보 제공을 허용 또는 거절할 수 있다. 일 실시 예에 따르면, 프로세서(180)는 제2 사용자 장치(200-2)로부터 수신되는 응답 메시지에 따라 제1 사용자에게 정보를 제공할 수 있다. 예를 들어, 프로세서(180)는 제2 사용자 장치(200-2)로부터 정보 제공을 허용하는 메시지가 수신되면 제1 사용자에게 요청한 정보를 제공할 수 있다. 다른 예를 들어, 프로세서(180)는 제2 사용자 장치(200-2)로부터 정보 제공을 거절하는 메시지가 수신되면 제1 사용자에게 정보를 제공하지 않을 수 있다. 프로세서(180)는, 예를 들어, 정보 제공이 거절되면 디스플레이(150) 또는 스피커(160)를 통해 제1 사용자에게 정보를 제공할 수 없음을 알릴 수 있다.
일 실시 예에 따르면, 프로세서(180)에 의해 수행되는 동작 중 적어도 일부는 외부 서버에서 수행될 수 있다. 예를 들어, 사용자 컨텍스트를 저장하거나, 사용자 컨텍스트를 분석하여 접근 권한을 설정하거나 또는 사용자가 요청한 정보를 검색하고 접근 권한을 확인하는 동작은 외부 서버에 의해 수행될 수 있다.
도 6은 본 발명의 다양한 실시 예에 따른 제1 사용자 장치의 구성을 나타내는 블럭도이다.
도 6을 참조하면, 제1 사용자 장치(200-1)는 통신 모듈(210), 입력 모듈(220), 디스플레이(230), 센서 모듈(240), 메모리(250) 및 프로세서(260)를 포함할 수 있다.
일 실시 예에 따르면, 통신 모듈(210)은 외부 장치(예: 전자 장치(100) 및 클라우드 서버(300))와 통신할 수 있다. 일 실시 예에 따르면, 통신 모듈(210)은 외부 장치로 사용자 컨텍스트를 전송할 수 있다. 일 실시 예에 따르면, 통신 모듈(210)은, 셀룰러 모듈, Wi-Fi(wireless-fidelity) 모듈, 블루투스(bluetooth) 모듈, NFC(near field communication), GNSS(global navigation satellite system) 모듈 등을 포함할 수 있다.
일 실시 예에 따르면, 입력 모듈(220)은 사용자 입력을 수신할 수 있다. 일 실시 예에 따르면, 입력 모듈(220)은 사용자 컨텍스트에 접근 권한을 설정하는 사용자 입력을 수신할 수 있다. 예를 들어, 입력 모듈(220)은 특정 시간 또는 특정 사용자 컨텍스트에 대해 접근 권한을 제한하는 사용자 입력을 수신할 수 있다.
일 실시 예에 따르면, 입력 모듈(220)은 사용자의 터치 조작을 센싱하는 터치 센서 패널, 사용자의 펜 조작을 센싱하는 펜 센서 패널, 사용자의 움직임을 인식하는 모션 인식 센서 또는 사용자의 음성을 인식하는 음성 인식 센서를 포함할 수 있다.
일 실시 예에 따르면, 디스플레이(230)는 사용자 인터페이스를 표시할 수 있다. 예를 들어, 디스플레이(230)는 전자 장치(100)로부터 정보 제공 여부를 질의하는 메시지가 수신되면, 수신된 메시지에 대응되는 내용을 표시할 수 있다.
일 실시 예에 따르면, 센서 모듈(240)은 제1 사용자 장치(200-1) 또는 제1 사용자의 상태(또는, 상황)을 센싱할 수 있다. 일 실시 예에 따르면, 센서 모듈(140)은 가속도 센서, 자이로 센서, 온/습도 센서 또는 생체 센서를 포함할 수 있다.
일 실시 예에 따르면, 메모리(250)는 제1 사용자 장치(200-1)에 설치된 각종 어플리케이션을 저장할 수 있다. 일 실시 예에 따르면, 메모리(250)는 프로세서(260)에 의해 수집된 사용자 컨텍스트를 저장할 수 있다.
일 실시 예에 따르면, 프로세서(260)는 제1 사용자 장치(200-1)의 전반적인 동작을 제어할 수 있다. 일 실시 예에 따르면, 프로세서(260)는 통신 모듈(210), 입력 모듈(220), 디스플레이(230), 센서 모듈(240) 및 메모리(250) 각각을 제어하여 본 발명의 다양한 실시 예에 따라 사용자 컨텍스트를 수집할 수 있다. 일 실시 예에 따르면, 프로세서(260)(예: 어플리케이션 프로세서)는 적어도 하나의 CPU(central processing unit), GPU(graphic processing unit), 메모리 등을 포함하는 SoC(system on chip)으로 구현될 수 있다.
일 실시 예에 따르면, 프로세서(260)는 통신 모듈(210) 또는 센서 모듈(240)로부터 수신되는 정보 또는 어플리케이션의 활동 로그에 기초하여 사용자 컨텍스트를 수집(또는, 생성)할 수 있다.
도 7은 본 발명의 다양한 실시 예에 따라 제1 사용자 장치의 프로그램 모듈의 구조를 나타내는 도면이다.
도 7을 참조하면, 프로세서(260)는 어플리케이션(261)을 실행시킬 수 있다. 어플리케이션(261)은, 예를 들어, 카메라 어플리케이션, 메시지 어플리케이션, 통화 어플리케이션, 웹 브라우저, 결제 어플리케이션, 음악/동영상 재생 어플리케이션 등 제1 사용자 장치(220-1)에 설치될 수 있는 모든 종류의 어플리케이션을 포함할 수 있다. 일 실시 예에 따르면, 어플리케이션(261)의 실행에 따라 어플리케이션(261)의 활동 로그가 생성될 수 있다.
일 실시 예에 따르면, 로그 매니저(263)는 어플리케이션(261)에 의해 생성된 활동 로그를 수집할 수 있다. 일 실시 예에 따르면, 컨텍스트 메니저(265)는 로그 매니저에 의해 수집된 활동 로그, 통신 모듈(210) 또는 센서 모듈(240)로부터 수신되는 정보에 기초하여 사용자 컨텍스트를 생성할 수 있다. 일 실시 예에 따르면, 컨텍스트 매니저(265)는 생성된 사용자 컨텍스트를 메모리(250)에 저장할 수 있다. 일 실시 예에 따르면, 컨텍스트 매니저(265)는 사용자 컨텍스트를 분석하여 사용자의 행동 패턴 등 통계적으로 유의미한 데이터를 산출할 수 있다.
일 실시 예에 따르면, 프로세서(260)는 전자 장치(100)로부터 사용자 컨텍스트가 요청되면 전자 장치(100)로 사용자 컨텍스트를 전송할 수 있다. 예를 들어, 프로세서(260)는 전자 장치(100)와 근거리 무선 통신망을 통해 연결되면, 전자 장치(100)로부터 사용자 컨텍스트를 요청받을 수 있다. 일 실시 예에 따르면, 프로세서(260)는 클라우드 서버(300)로 지정된 주기로 사용자 컨텍스트를 전송할 수 있다.
도 8은 본 발명의 다양한 실시 예에 따른 사용자 인터페이스를 나타내는 도면이다.
도 8의 (a)를 참조하면, 제1 사용자 장치(200-1)(예: 프로세서(260))는 전자 장치(100)로부터 사용자 컨텍스트가 요청되면, 디스플레이(230)에 전자 장치(100)로 사용자 컨텍스트를 전송할지 여부를 질의하는 사용자 인터페이스를 표시할 수 있다. 일 실시 예에 따르면, 프로세서(260)는 사용자 컨텍스트의 전송을 허용하는 사용자 입력이 수신되면 전자 장치(100)로 사용자 컨텍스트를 전송할 수 있다.
일 실시 예에 따르면, 프로세서(260)는 사용자 컨텍스트 중 지정된 시간에 수집된 사용자 컨텍스트를 제외한 나머지 사용자 컨텍스트를 전자 장치(100)로 전송할 수 있다. 도 8의 (b)를 참조하면, 프로세서(260)는 디스플레이(230)에 전송을 제한할 시간을 선택할 수 있는 사용자 인터페이스를 표시할 수 있다. 프로세서(260)는 사용자에 의해 선택된 시간을 제외한 나머지 시간에 수집된 사용자 컨텍스트만을 전자 장치(100)로 전송할 수 있다.
일 실시 예에 따르면, 프로세서(260)는 전자 장치(100)로부터 사용자 컨텍스트와 관련된 정보의 제공 여부를 질의하는 메시지를 수신할 수 있다. 일 실시 예에 따르면, 프로세서(260)는 사용자로부터 정보 제공을 허용 또는 거절하는 사용자 입력이 수신되면 전자 장치(100)로 정보 제공을 허용 또는 거절하는 응답 메시지를 전송할 수 있다.
도 6 내지 도 8을 참조하여 제1 사용자 장치(200-1)에 대해서만 설명하였으나 제1 사용자 장치(200-1)에 관하여 기술된 내용은 제2 사용자 장치(200-1)에도 동일하게 적용될 수 있다.
도 9는 본 발명의 다양한 실시 예에 따른 전자 장치의 정보 제공 방법을 나타내는 흐름도이다.
도 9에 도시된 흐름도는 도 3을 참조하여 설명한 전자 장치(100)에서 처리되는 동작들로 구성될 수 있다. 따라서, 이하에서 생략된 내용이라 하더라도 본 명세서에 포함된 도면들을 참조하여 전자 장치(100)에 관하여 기술된 내용은 도 9에 도시된 흐름도에도 적용될 수 있다.
일 실시 예에 따르면, 910 동작에서, 전자 장치(100)는 제1 사용자 장치(200-1) 및 제2 사용자 장치(200-2)로부터 제1 사용자 및 제2 사용자의 사용자 컨텍스트를 수신할 수 있다. 예를 들어, 전자 장치(100)는 제1 사용자 장치(200-1) 및 제2 사용자 장치(200-2)와 근거리 무선 통신망을 통해 연결되면, 제1 사용자 장치(200-1) 및 제2 사용자 장치(200-2)로 사용자 컨텍스트를 요청하여 수신할 수 있다. 다른 예를 들어, 전자 장치(100)는 클라우드 서버(300)로 지정된 주기로 제1 사용자 및 제2 사용자의 사용자 컨텍스트를 요청하여 수신할 수 있다.
일 실시 예에 따르면, 920 동작에서, 전자 장치(100)는 사용자 컨텍스트에 포함된 위치 정보를 이용하여 제1 사용자 및 제2 사용자가 동일한 공간에 존재한 시간을 판단할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 제1 사용자 및 상기 제2 사용자가 서로 지정된 거리 내에 위치하면 동일한 공간에 존재하였다고 판단할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 제1 사용자 및 제2 사용자가 지정된 장소에 함께 위치하면 서로 동일한 공간에 존재하였다고 판단할 수 있다.
일 실시 예에 따르면, 930 동작에서, 전자 장치(100)는 제1 사용자 및 제2 사용자가 동일한 공간에 존재한 시간에 기초하여 사용자 컨텍스트의 접근 권한을 설정할 수 있다. 예를 들어, 전자 장치(100)는 제1 사용자(또는, 제2 사용자)의 사용자 컨텍스트 중 상기 제1 사용자 및 상기 제2 사용자가 동일한 공간에 존재한 시간에 대응되는 사용자 컨텍스트에 대해 제2 사용자(또는, 제1 사용자)의 접근을 허용하고, 제1 사용자 및 상기 제2 사용자가 동일한 공간에 존재하지 않은 시간에 대응되는 사용자 컨텍스트에 대해 제2 사용자(또는, 제1 사용자)의 접근을 제한할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 제1 사용자 및 제2 사용자가 동일한 공간에 존재한 시간뿐만 아니라, 제1 사용자 및 제2 사용자가 함께 수행한 온라인 활동에 기초하여 사용자 컨텍스트의 접근 권한을 설정할 수 있다. 예를 들어, 전자 장치(100)는 제1 사용자 및 제2 사용자가 함께 수행한 온라인 활동과 관련된 사용자 컨텍스트에 대해 서로 간에 접근 권한을 가지도록 설정할 수 있다.
제1 전자 장치(200-1) 및 제2 전자 장치(200-2)로부터 수신되는 사용자 컨텍스트 중 적어도 일부는 사용자에 의해 접근 권한이 미리 설정될 수 있다. 일 실시 예에 따르면, 사용자에 의해 설정된 접근 권한은 전자 장치(100)에 의해 설정되는 접근 권한보다 우선권을 가질 수 있다.
일 실시 예에 따르면, 940 동작에서, 전자 장치(100)는 제1 사용자로부터 제2 사용자 컨텍스트와 관련된 정보를 요청받을 수 있다.
일 실시 예에 따르면, 950 동작에서, 전자 장치(100)는 제1 사용자로부터 제2 사용자 컨텍스트와 관련된 정보가 요청되면 제2 사용자의 사용자 컨텍스트에 설정된 접근 권한을 확인할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 제1 사용자의 질의 내용에 응답하기 위해 필요한 정보를 검색하고, 검색된 정보가 제2 사용자의 사용자 컨텍스트와 관련된 경우 제2 사용자의 사용자 컨텍스트에 설정된 접근 권한을 확인할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 제1 사용자에게 접근 권한이 있다고 판단되면, 960 동작에서, 요청한 정보를 제1 사용자에게 제공할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 제1 사용자에게 접근 권한이 없다고 판단되면, 970 동작에서, 제2 사용자에게 정보 제공 여부를 질의할 수 있다. 예를 들어, 예를 들어, 전자 장치(100)는 제2 사용자가 소지하는 제2 사용자 장치(200-2)로 정보 제공 여부를 질의하는 메시지를 전송할 수 있다.
일 실시 예에 따르면, 980 동작에서, 전자 장치(100)는 제2 사용자로부터 정보 제공 여부에 대한 응답을 수신할 수 있다. 예를 들어, 전자 장치(100)는 제2 사용자 장치(200-2)로부터 정보 제공 여부에 대한 응답 메시지를 수신할 수 있다.
일 실시 예에 따르면, 990 동작에서, 전자 장치(100)는 응답 결과에 따라 제1 사용자에게 정보를 제공할 수 있다. 예를 들어, 전자 장치(100)는 제2 사용자 장치(200-2)로부터 정보 제공을 허용하는 메시지가 수신되면 제1 사용자에게 요청한 정보를 제공할 수 있다. 다른 예를 들어, 전자 장치(100)는 제2 사용자 장치(200-2)로부터 정보 제공을 거절하는 메시지가 수신되면 제1 사용자에게 정보를 제공하지 않을 수 있다. 전자 장치(100)는, 예를 들어, 정보 제공이 거절되면 디스플레이 또는 스피커를 통해 제1 사용자에게 정보를 제공할 수 없음을 알릴 수 있다.
다양한 실시예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그램 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서(180))에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 메모리(예: 메모리(170))가 될 수 있다.
컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(magnetic media)(예: 자기테이프), 광기록 매체(optical media)(예: CD-ROM(compact disc read only memory), DVD(digital versatile disc), 자기-광 매체(magneto-optical media)(예: 플롭티컬 디스크(floptical disk)), 하드웨어 장치(예: ROM(read only memory), RAM(random access memory), 또는 플래시 메모리 등) 등을 포함할 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 다양한 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
다양한 실시예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 다양한 실시예에 따른 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다. 그리고 본 문서에 개시된 실시예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 문서에서 기재된 기술의 범위를 한정하는 것은 아니다. 따라서, 본 문서의 범위는, 본 문서의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시예를 포함하는 것으로 해석되어야 한다.

Claims (20)

  1. 전자 장치에 있어서,
    통신 모듈; 및
    프로세서;를 포함하고,
    상기 프로세서는,
    상기 통신 모듈을 통해 제1 사용자 단말로부터 제1 사용자의 제1 사용자 컨텍스트를 수신하고,
    상기 통신 모듈을 통해 제2 사용자 단말로부터 제2 사용자의 제2 사용자 컨텍스트를 수신하고,
    상기 제1 사용자 컨텍스트 및 상기 제2 사용자 컨텍스트에 포함된 위치 정보를 이용하여 상기 제1 사용자 및 상기 제2 사용자가 지정된 거리 내에 존재한 시간을 판단하고,
    상기 판단에 기초하여 상기 제1 사용자 컨텍스트 또는 상기 제2 사용자 컨텍스트 중 적어도 일부에 대한 접근 권한을 설정하고,
    상기 제2 사용자 컨텍스트 중 상기 제1 사용자와 상기 제2 사용자가 함께 수행한 온라인 활동과 관련된 일부에 대해 상기 제1 사용자의 접근을 허용하도록 상기 접근 권한을 설정하고,
    상기 제1 사용자와의 대화를 통해, 상기 제2 사용자 컨텍스트와 관련된 정보의 요청을 수신하고,
    상기 요청에 응답하기 위한 상기 제2 사용자 컨텍스트와 관련된 정보를 검색하고,
    상기 검색된 정보에 대한 접근 권한을 검증하고,
    상기 제2 사용자 컨텍스트에 대한 접근 권한이 상기 제1 사용자가 상기 검색된 정보에 접근하는 것을 허용함에 따라 상기 검색된 정보를 상기 제1 사용자에게 제공하도록 설정되고,
    상기 제1 사용자 컨텍스트는 컨텐츠 이용 정보, 통화 이력, 메시지 또는 이메일 송수신 이력, 컨텐츠 생성 정보, 생체 정보, 사용자 활동 정보, 상품 구매 이력, 웹 서핑 이력, 위치 정보, 상기 제1 사용자의 스케줄 또는 상기 제1 사용자의 단말의 상태 정보 중 적어도 하나를 포함하고,
    상기 제2 사용자 컨텍스트는 컨텐츠 이용 정보, 통화 이력, 메시지 또는 이메일 송수신 이력, 컨텐츠 생성 정보, 생체 정보, 사용자 활동 정보, 상품 구매 이력, 웹 서핑 이력, 위치 정보, 상기 제2 사용자의 스케줄 또는 상기 제2 사용자의 단말의 상태 정보 중 적어도 하나를 포함하고,
    상기 제2 사용자 컨텍스트에 포함된 정보 중 일부에 대한 접근 권한은 상기 제2 사용자에 의해 미리 설정된,
    전자 장치.
  2. 제1항에 있어서,
    상기 프로세서는,
    상기 제2 사용자의 상기 제2 사용자 컨텍스트 중 상기 제1 사용자 및 상기 제2 사용자가 상기 지정된 거리 내에 존재한 시간에 대응되는 사용자 컨텍스트에 대해 상기 제1 사용자의 접근을 허용하고,
    상기 제2 사용자의 상기 제2 사용자 컨텍스트 중 상기 제1 사용자 및 상기 제2 사용자가 상기 지정된 거리 밖에 존재한 시간에 대응되는 사용자 컨텍스트에 대해 상기 제1 사용자의 접근을 제한하도록 설정된 전자 장치.
  3. 제1항에 있어서,
    상기 온라인 활동은,
    음성 통화, 영상 통화, SMS(short message service), 이-메일, SNS(social network service), 온라인 게임, 온라인 채팅 또는 가상 현실(VR: virtual reality) 서비스를 포함하는 전자 장치.
  4. 제1항에 있어서,
    상기 프로세서는,
    상기 제1 사용자 단말로부터 접근 권한이 없는 정보가 요청되면 상기 제2 사용자 단말에게 정보의 제공 여부를 질의하고,
    상기 제2 사용자 단말로부터 정보 제공을 허용하는 응답이 수신되면 상기 제1 사용자 단말에게 상기 접근 권한이 없는 정보를 제공하도록 설정된 전자 장치.
  5. 제1항에 있어서,
    상기 프로세서는,
    근거리 무선 통신망을 통해 상기 제1 사용자 단말 및 상기 제2 사용자 단말과 연결되면, 상기 제1 사용자 단말로 상기 제1 사용자 컨텍스트를 요청하고 및 상기 제2 사용자 단말로 상기 제2 사용자 컨텍스트를 요청하도록 설정된 전자 장치.
  6. 전자 장치의 정보 제공 방법에 있어서,
    제1 사용자 단말로부터 제1 사용자의 제1 사용자 컨텍스트를 수신하는 동작;
    제2 사용자 단말로부터 제2 사용자의 제2 사용자 컨텍스트를 수신하는 동작;
    상기 제1 사용자 컨텍스트 및 상기 제2 사용자 컨텍스트에 포함된 위치 정보를 이용하여 상기 제1 사용자 및 상기 제2 사용자가 지정된 거리 내에 존재한 시간을 판단하는 동작;
    상기 판단에 기반하여 상기 제1 사용자 컨텍스트 또는 상기 제2 사용자 컨텍스트 중 적어도 일부에 대한 접근 권한을 설정하는 동작;
    상기 제2 사용자 컨텍스트 중 상기 제1 사용자와 상기 제2 사용자가 함께 수행한 온라인 활동과 관련된 일부에 대해 상기 제1 사용자의 접근을 허용하도록 상기 접근 권한을 설정하는 동작;
    상기 제1 사용자와의 대화를 통해, 상기 제2 사용자 컨텍스트와 관련된 정보의 요청을 수신하는 동작;
    상기 요청에 응답하기 위한 상기 제2 사용자 컨텍스트와 관련된 정보를 검색하는 동작;
    상기 검색된 정보에 대한 접근 권한을 검증하는 동작; 및
    상기 제2 사용자 컨텍스트에 대한 접근 권한이 상기 제1 사용자가 상기 검색된 정보에 접근하는 것을 허용함에 따라, 상기 검색된 정보를 상기 제1 사용자에게 제공하는 동작;을 포함하고,
    상기 제1 사용자 컨텍스트는 컨텐츠 이용 정보, 통화 이력, 메시지 또는 이메일 송수신 이력, 컨텐츠 생성 정보, 생체 정보, 사용자 활동 정보, 상품 구매 이력, 웹 서핑 이력, 위치 정보, 상기 제1 사용자의 스케줄 또는 상기 제1 사용자 단말의 상태 정보 중 적어도 하나를 포함하고,
    상기 제2 사용자 컨텍스트는 컨텐츠 이용 정보, 통화 이력, 메시지 또는 이메일 송수신 이력, 컨텐츠 생성 정보, 생체 정보, 사용자 활동 정보, 상품 구매 이력, 웹 서핑 이력, 위치 정보, 상기 제2 사용자의 스케줄 또는 상기 제2 사용자 단말의 상태 정보 중 적어도 하나를 포함하고,
    상기 제2 사용자 컨텍스트에 포함된 정보 중 일부에 대한 접근 권한은 상기 제2 사용자에 의해 미리 설정되는,
    방법.
  7. 제6항에 있어서,
    상기 사용자 컨텍스트의 접근 권한을 판단하는 동작은,
    상기 제2 사용자의 상기 제2 사용자 컨텍스트 중 상기 제1 사용자 및 상기 제2 사용자가 상기 지정된 거리 내에 존재한 시간에 대응되는 사용자 컨텍스트에 대해 상기 제1 사용자의 접근을 허용하도록 설정하는 동작; 및
    상기 제2 사용자의 상기 제2 사용자 컨텍스트 중 상기 제1 사용자 및 상기 제2 사용자가 상기 지정된 거리 밖에 존재한 시간에 대응되는 사용자 컨텍스트에 대해 상기 제1 사용자의 접근을 제한하도록 설정하는 동작;을 포함하는 방법.
  8. ◈청구항 8은(는) 설정등록료 납부시 포기되었습니다.◈
    제7항에 있어서,
    상기 온라인 활동은,
    음성 통화, 영상 통화, SMS(short message service), 이-메일, SNS(social network service), 온라인 게임, 온라인 채팅 또는 가상 현실(VR: virtual reality) 서비스를 포함하는 방법.
  9. ◈청구항 9은(는) 설정등록료 납부시 포기되었습니다.◈
    제7항에 있어서,
    상기 제1 사용자 단말로부터 접근 권한이 없는 정보가 요청되면 상기 제2 사용자 단말에게 정보의 제공 여부를 질의하는 동작;
    상기 제2 사용자 단말로부터 정보 제공을 허용하는 응답을 수신하는 동작; 및
    상기 제1 사용자 단말에게 상기 접근 권한이 없는 정보를 제공하는 동작;을 더 포함하는 방법.
  10. 제7항에 있어서,
    상기 사용자 컨텍스트를 수신하는 동작은,
    근거리 무선 통신망을 통해 상기 제1 사용자 단말 및 상기 제2 사용자 단말과 연결하는 동작;
    상기 제1 사용자 단말로 상기 제1 사용자 컨텍스트를 요청하는 동작;
    상기 제2 사용자 단말로 상기 제2 사용자 컨텍스트를 요청하는 동작;
    상기 제1 사용자 단말로부터 상기 제1 사용자 컨텍스트를 수신하는 동작; 및
    상기 제2 사용자 단말로부터 상기 제2 사용자의 사용자 컨텍스트를 수신하는 동작;을 더 포함하는 방법.
  11. 제1 사용자 단말로부터 제1 사용자의 제1 사용자 컨텍스트를 수신하는 동작;
    제2 사용자 단말로부터 제2 사용자의 제2 사용자 컨텍스트를 수신하는 동작;
    상기 제1 사용자 컨텍스트 및 상기 제2 사용자 컨텍스트에 포함된 위치 정보를 이용하여 상기 제1 사용자 및 상기 제2 사용자가 지정된 거리 내에 존재한 시간을 판단하는 동작;
    상기 판단에 기초하여 상기 제1 사용자 컨텍스트 또는 상기 제2 사용자 컨텍스트 중 적어도 일부에 대한 접근 권한을 설정하는 동작;
    상기 제2 사용자 컨텍스트 중 상기 제1 사용자와 상기 제2 사용자가 함께 수행한 온라인 활동과 관련된 일부에 대해 상기 제1 사용자의 접근을 허용하도록 상기 접근 권한을 설정하는 동작;
    상기 제1 사용자와의 대화를 통해, 상기 제2 사용자 컨텍스트와 관련된 정보의 요청을 수신하는 동작;
    상기 요청에 응답하기 위한 상기 제2 사용자 컨텍스트와 관련된 정보를 검색하는 동작;
    상기 검색된 정보에 대한 접근 권한을 검증하는 동작; 및
    상기 제2 사용자 컨텍스트에 대한 접근 권한이 상기 제1 사용자가 상기 검색된 정보에 접근하는 것을 허용함에 따라 상기 검색된 정보를 상기 제1 사용자에게 제공하는 동작;을 포함하는 방법을 수행하는 프로그램이 기록되고,
    상기 제1 사용자 컨텍스트는 컨텐츠 이용 정보, 통화 이력, 메시지 또는 이메일 송수신 이력, 컨텐츠 생성 정보, 생체 정보, 사용자 활동 정보, 상품 구매 이력, 웹 서핑 이력, 위치 정보, 상기 제1 사용자의 스케줄 또는 상기 제1 사용자 단말의 상태 정보 중 적어도 하나를 포함하고,
    상기 제2 사용자 컨텍스트는 컨텐츠 이용 정보, 통화 이력, 메시지 또는 이메일 송수신 이력, 컨텐츠 생성 정보, 생체 정보, 사용자 활동 정보, 상품 구매 이력, 웹 서핑 이력, 위치 정보, 상기 제2 사용자의 스케줄 또는 상기 제2 사용자 단말의 상태 정보 중 적어도 하나를 포함하고,
    상기 제2 사용자 컨텍스트에 포함된 정보 중 일부에 대한 접근 권한은 상기 제2 사용자에 의해 미리 설정되는,
    컴퓨터 판독 가능 기록매체.
  12. 제11항에 있어서,
    상기 사용자 컨텍스트의 접근 권한을 판단하는 동작은,
    상기 제2 사용자의 상기 제2 사용자 컨텍스트 중 상기 제1 사용자 및 상기 제2 사용자가 상기 지정된 거리 내에 존재한 시간에 대응되는 사용자 컨텍스트에 대해 상기 제1 사용자의 접근 권한이 있다고 판단하는 동작; 및
    상기 제2 사용자의 상기 제2 사용자 컨텍스트 중 상기 제1 사용자 및 상기 제2 사용자가 상기 지정된 거리 밖에 존재한 시간에 대응되는 사용자 컨텍스트에 대해 상기 제1 사용자의 접근 권한이 없다고 판단하는 동작;을 더 포함하는 방법을 수행하는 프로그램이 기록된,
    컴퓨터 판독 가능 기록매체.
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
KR1020150187138A 2015-12-28 2015-12-28 정보 제공 방법 및 장치 KR102423588B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020150187138A KR102423588B1 (ko) 2015-12-28 2015-12-28 정보 제공 방법 및 장치
US15/390,869 US10419429B2 (en) 2015-12-28 2016-12-27 Information providing method and device for sharing user information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150187138A KR102423588B1 (ko) 2015-12-28 2015-12-28 정보 제공 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20170077341A KR20170077341A (ko) 2017-07-06
KR102423588B1 true KR102423588B1 (ko) 2022-07-22

Family

ID=59086668

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150187138A KR102423588B1 (ko) 2015-12-28 2015-12-28 정보 제공 방법 및 장치

Country Status (2)

Country Link
US (1) US10419429B2 (ko)
KR (1) KR102423588B1 (ko)

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US20120309363A1 (en) 2011-06-03 2012-12-06 Apple Inc. Triggering notifications associated with tasks items that represent tasks to perform
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
EP3809407A1 (en) 2013-02-07 2021-04-21 Apple Inc. Voice trigger for a digital assistant
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
KR102392113B1 (ko) * 2016-01-20 2022-04-29 삼성전자주식회사 전자 장치 및 전자 장치의 음성 명령 처리 방법
USD817374S1 (en) * 2016-05-27 2018-05-08 Hon Hai Precision Industry Co., Ltd. Mobile robot
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
CN117198277A (zh) * 2016-08-12 2023-12-08 奇跃公司 单词流注释
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
US10359993B2 (en) * 2017-01-20 2019-07-23 Essential Products, Inc. Contextual user interface based on environment
US10166465B2 (en) 2017-01-20 2019-01-01 Essential Products, Inc. Contextual user interface based on video game playback
US20180227789A1 (en) * 2017-02-09 2018-08-09 Qualcomm Incorporated Intelligent forwarding of phone activities according to present user context
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US20220230241A1 (en) * 2017-08-08 2022-07-21 Wells Fargo Bank, N.A. Networked system for trader management and methods of use thereof
US10679621B1 (en) * 2018-03-21 2020-06-09 Amazon Technologies, Inc. Speech processing optimizations based on microphone array
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
DK201970511A1 (en) 2019-05-31 2021-02-15 Apple Inc Voice identification in digital assistant systems
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
WO2021056255A1 (en) 2019-09-25 2021-04-01 Apple Inc. Text detection using global geometry estimators
CN111274596B (zh) * 2020-01-23 2023-03-14 百度在线网络技术(北京)有限公司 设备交互方法、权限管理方法、交互设备及用户端
US11038934B1 (en) 2020-05-11 2021-06-15 Apple Inc. Digital assistant hardware abstraction
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090106549A1 (en) * 2007-10-20 2009-04-23 Blackout, Inc. Method and system for extending encrypting file system
US20130286223A1 (en) * 2012-04-25 2013-10-31 Microsoft Corporation Proximity and connection based photo sharing

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100636270B1 (ko) 2005-02-04 2006-10-19 삼성전자주식회사 홈 네트워크 시스템 및 그 제어방법
US9298197B2 (en) 2013-04-19 2016-03-29 Google Inc. Automated adjustment of an HVAC schedule for resource conservation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090106549A1 (en) * 2007-10-20 2009-04-23 Blackout, Inc. Method and system for extending encrypting file system
US20130286223A1 (en) * 2012-04-25 2013-10-31 Microsoft Corporation Proximity and connection based photo sharing

Also Published As

Publication number Publication date
US20170187711A1 (en) 2017-06-29
US10419429B2 (en) 2019-09-17
KR20170077341A (ko) 2017-07-06

Similar Documents

Publication Publication Date Title
KR102423588B1 (ko) 정보 제공 방법 및 장치
KR102404702B1 (ko) 크로스-디바이스 핸드오프
CN107209781B (zh) 使用自然语言的上下文搜索
KR102264613B1 (ko) 메시지 파라미터에 의한 메시지들의 라우팅
US20180300379A1 (en) Method of recommending friends, and server and terminal therefor
US20220051197A1 (en) System and method of providing to-do list of user
US9026941B1 (en) Suggesting activities
EP3092555B1 (en) Audio triggers based on context
KR102436293B1 (ko) 이미지 데이터에 적어도 부분적으로 기초하여 액션을 수행하기 위한 에이전트 결정
US9058563B1 (en) Suggesting activities
TWI630576B (zh) 與近處裝置共用使用者資訊之技術
JP2020522001A (ja) 計算機アシスタントによる遅延応答
JP2019535037A (ja) コンピュータによるエージェントのための合成音声の選択
CN107005801B (zh) 上下文感知的动态组形成
KR20240013273A (ko) 상호작용형 정보 인터페이스
WO2021068764A1 (zh) 信息处理方法和装置
US20190364339A1 (en) Video content deep diving
KR20190031534A (ko) 필터 활동을 통한 오디언스 도출
JP2011040045A (ja) コンピュータ装置間での動的なコンテンツ・プレファレンス及び動作の共有
JP2019528513A (ja) メッセージ基盤の通知を提供するための方法およびシステム
US20150113567A1 (en) Method and apparatus for a context aware remote controller application
US10433105B2 (en) Geographically-driven group communications
KR20160139771A (ko) 전자 장치, 정보 제공 시스템 및 그 정보 제공 방법
US20150172607A1 (en) Providing vicarious tourism sessions
EP3566155A1 (en) Shared experiences

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant