KR101817661B1 - Contextualizing seonsor, service and device data with mobile devices - Google Patents

Contextualizing seonsor, service and device data with mobile devices Download PDF

Info

Publication number
KR101817661B1
KR101817661B1 KR1020167010080A KR20167010080A KR101817661B1 KR 101817661 B1 KR101817661 B1 KR 101817661B1 KR 1020167010080 A KR1020167010080 A KR 1020167010080A KR 20167010080 A KR20167010080 A KR 20167010080A KR 101817661 B1 KR101817661 B1 KR 101817661B1
Authority
KR
South Korea
Prior art keywords
information
user
electronic devices
timeline
service
Prior art date
Application number
KR1020167010080A
Other languages
Korean (ko)
Other versions
KR20160058158A (en
Inventor
프라샨트 지텐드라 데사이
벤자민 앤드류 로트러
데니스 밀로세스키
박은영
골든 크리쉬나
요한 올슨
매그너스 보그
매튜 바이스
웨슬리 윤
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/449,091 external-priority patent/US20150046828A1/en
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of KR20160058158A publication Critical patent/KR20160058158A/en
Application granted granted Critical
Publication of KR101817661B1 publication Critical patent/KR101817661B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0269Targeted advertisements based on user profile or attribute
    • G06Q30/0271Personalized advertisement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • G06F17/30867
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0255Targeted advertisements based on user history
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0267Wireless devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/04Protocols specially adapted for terminals or networks with limited capabilities; specially adapted for terminal portability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • H04L67/125Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks involving control of end-device applications over a network
    • H04L67/22
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/53Network services using third party service providers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/535Tracking the activity of the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/55Push-based network services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Abstract

사용자 데이터 컨텍스트화 및 제시 방법 및 시스템. 서비스 활동 데이터 및 하나 이상의 전자 장치들로부터의 센서 데이터를 포함하는 정보를 수집하는 단계를 포함하는 방법이다. 정보는 수집된 정보와 관련된 시간에 기초하여 조직된다. 잠재 관심사에 대한 컨텐트 정보 및 서비스 정보 중 하나 이상 사용자 컨텍스트 및 사용자 활동 중 하나 이상에 기초하여 하나 이상의 전자 장치들에게 제공된다.Method and system for user data contextualization and presentation. And collecting information including service activity data and sensor data from one or more electronic devices. The information is organized based on the time associated with the collected information. One or more of the content information for the potential interest and the service information, and at least one of the user context and the user activity.

Figure 112016036855312-pct00001
Figure 112016036855312-pct00001

Description

센서, 서비스 및 장치 데이터를 이동형 장치와 컨텍스트화 {CONTEXTUALIZING SEONSOR, SERVICE AND DEVICE DATA WITH MOBILE DEVICES}{CONTEXTUALIZING SEONSOR, SERVICE AND DEVICE DATA WITH MOBILE DEVICES}

하나 이상의 실시 예는 일반적으로 사용자 활동 데이터를 수집하고, 컨텍스트화하고, 제시하는 것과 관련 있고, 특별히 추천 컨텐트 및 서비스와 함께 센서 및 서비스 활동 정보를 수집하고, 정보를 보관하고, 정보를 컨텍스트화하고 조직된 사용자 활동 데이터를 제시하는 것과 관련 있다.One or more embodiments generally involve gathering, contextualizing, and presenting user activity data, collecting sensor and service activity information, in particular with recommended content and services, storing information, contextualizing information And presenting organized user activity data.

이동형 전자 장치(예를 들어, 스마트폰)를 가지고 있는 많은 개인들에게, 사진, 약속, 라이프 이벤트(예를 들어, 걷기, 출석, 출산, 생일, 모임 등)와 같은 정보에 엑세스(access)할 수 있도록 정보는 사용자에 의해 수동으로 입력되고 조직된다.Many individuals who have mobile electronic devices (e.g., smartphones) have access to information such as photos, appointments, life events (e.g. walking, attendance, birth, birthday, The information is manually entered and organized by the user.

본 개시에 따르면, 서비스 활동 데이터 및 하나 이상의 전자 장치들로부터의 센서 데이터를 포함하는 정보를 수집하고, 수집된 정보와 관련된 시간에 기초하여 정보를 조직하고, 사용자 컨텍스트 및 사용자 활동 중 하나 이상에 기초하여 하나 이상의 전자 장치들에게 잠재 관심사에 관한 컨텐트 정보 및 서비스 정보 중 하나 이상을 제공하는 것을 포함하는 사용자 데이터를 컨텍스트화 및 제시하는 방법을 제공한다.According to the present disclosure, there is provided a method for gathering information comprising service activity data and sensor data from one or more electronic devices, organizing information based on time associated with the collected information, and based on one or more of user context and user activity And providing one or more electronic devices with one or more of content information and service information regarding potential interests.

하나 이상의 일반적 실시예들은 사용자 활동 데이터를 수집, 컨텍스트화 및 제시하는 것에 관한 것이다. 일 실시예에서, 서비스 활동 데이터 및 하나 이상의 전자 장치들로부터의 센서 데이터를 포함하는 정보를 수집하는 방법을 포함한다. 정보는 수집된 정보와 관련된 시간에 기초하여 조직될 수 있다. 뿐만 아니라, 사용자 컨텍스트 및 사용자 활동 중 하나 이상에 기초하여 잠재 관심사(potential interest)에 관한 컨텐트 정보 및 서비스 정보 중 하나 이상이 하나 이상의 전자 장치들에게 제시될 수 있다.One or more general embodiments relate to collecting, contextualizing, and presenting user activity data. In one embodiment, the method includes collecting information including service activity data and sensor data from one or more electronic devices. The information can be organized based on the time associated with the collected information. In addition, one or more of the content information and service information regarding the potential interest may be presented to one or more electronic devices based on one or more of the user context and the user activity.

하나 이상의 선택된 필터들에 기초하여 조직된 정보를 필터링하는 방법을 더 포함할 수 있다.The method may further include filtering information organized based on the one or more selected filters.

사용자 컨텍스트는 장소 정보, 움직임 정보 및 사용자 활동 중 하나 이상에 기초하여 결정될 수 있다.The user context may be determined based on one or more of location information, motion information, and user activity.

조직된 정보는 그래픽 타임라인(graphic timeline)상에서 특정 시간순(chronological order)으로 제공될 수 있다.The organized information may be provided in a chronological order on a graphical timeline.

잠재 관심사에 대한 컨텐트 및 서비스들 중 하나 이상을 제공하는 것은, 경보들, 제안들, 이벤트들 및 커뮤니케이션 중 하나 이상을 하나 이상의 전자 장치들에게 제공하는 것을 포함할 수 있다.Providing one or more of the content and services for potential interests may include providing one or more of the electronic devices with one or more of alerts, suggestions, events, and communication.

컨텐트 정보 및 서비스 정보는 하나 이상의 전자 장치들에서의 이용을 위해 사용자 서브스크립(user subscribable) 할 수 있다.The content information and service information may be user subscribable for use in one or more electronic devices.

조직된 정보는 하나 이상의 전자 장치들에게 동적으로 전달될 수 있다.Organized information can be delivered dynamically to one or more electronic devices.

서비스 활동 데이터, 센서 데이터 및 컨텐트는 사용자 액션에 기초하여 플래그 된(flagged) 이벤트로 캡쳐될 수 있다.The service activity data, sensor data, and content may be captured as events that are flagged based on user actions.

사용자 컨텍스트를 결정하기 위해 서비스 활동 데이터 및 하나 이상의 전자 장치들로부터의 센서 데이터가 클라우드 기반 시스템 및 네트워크 시스템 중 하나 이상에 제공될 수 있고, 사용자 컨텍스트가 하나 이상의 전자 장치들상에서 모드 활성화 및 통지 중 하나 이상을 제어하기 위해 하나 이상의 전자 장치들에게 제공될 수 있다.Wherein service activity data and sensor data from one or more electronic devices may be provided to one or more of a cloud based system and a network system to determine a user context and wherein the user context comprises one of mode activation and notification on one or more electronic devices May be provided to one or more electronic devices for controlling the above.

조직된 정보는 연속적으로 제공될 수 있고 타임라인을 통해 수집된 라이프 이벤트 정보를 포함할 수 있고, 라이프 이벤트 정보는 클라우드 기반 시스템, 네트워크 시스템 및 하나 이상의 전자 장치들 중 하나 이상에 저장될 수 있다.Organized information may be provided continuously and may include life event information collected over a timeline, and life event information may be stored in one or more of the cloud-based system, the network system, and one or more electronic devices.

하나 이상의 전자 장치들은 이동형 전자 장치들을 포함하고, 이동형 장치들은 이동형 전화, 웨어러블 계산 장치, 테블릿 장치 및 이동형 계산 장치 중 하나 이상을 포함할 수 있다. 일 실시예에서, 서비스 활동 데이터 및 센서 데이터를 포함하는 정보를 수집하기 위한 활동 모듈을 포함하는 시스템이 제공될 수 있다. 또한, 시스템은 수집된 정보와 관련된 시간에 기초하여 정보를 조직하기 위해 구성된 조직 모듈을 포함할 수 있다. 정보 분석기 모듈은 사용자 컨텍스트 및 사용자 활동 중 하나 이상에 기초하여 하나 이상의 전자 장치들에 잠재 관심사에 대한 컨텐트 정보 및 서비스 정보 중 하나 이상을 제공할 수 있다.The one or more electronic devices include mobile electronic devices, and the mobile devices may include one or more of a mobile phone, a wearable computing device, a tablet device, and a mobile computing device. In one embodiment, a system may be provided that includes an activity module for collecting information, including service activity data and sensor data. The system may also include an organizational module configured to organize information based on the time associated with the collected information. The information analyzer module may provide one or more of the content information and service information for potential interests to one or more electronic devices based on one or more of a user context and a user activity.

조직 모듈은 하나 이상의 선택된 필터들에 기초하여 조직된 정보에 필터링을 제공할 수 있다.The organizational module may provide filtering to information organized based on one or more selected filters.

사용자 컨텍스트는 장소 정보, 이동 정보 및 사용자 활동 중 하나 이상에 기초하여 정보 분석기 모듈에 의해 결정되며, 조직된 정보는 하나 이상의 전자 장치들의 그래픽 타임라인상에서 특정 시간순으로 제시될 수 있다.The user context is determined by the information analyzer module based on at least one of location information, movement information and user activity, and the organized information can be presented in a specific time order on the graphical timeline of one or more electronic devices.

잠재 관심사에 대한 컨텐트 정보 및 서비스 정보 중 하나 이상은 경보들, 제안들, 이벤트들 및 통신 중 하나 이상을 포함할 수 있다.One or more of the content information and service information for a potential interest may include one or more of alerts, suggestions, events, and communications.

컨텐트 정보 및 서비스 정보는 하나 이상의 전자 장치들에서의 이용을 위해 사용자 서브스크립 할 수 있다.The content information and service information may be user subscripted for use in one or more electronic devices.

하나 이상의 전자 장치들은 햅틱 신호를 제공하기 위한 복수의 햅틱 구성요소들을 포함할 수 있다.The one or more electronic devices may include a plurality of haptic components for providing a haptic signal.

하나 이상의 전자 장치들에서의 인식된 사용자 액션 수신에 응답하여, 서비스 활동 데이터, 센서 데이터 및 컨텐트가 플래그 된 이벤트로 캡쳐될 수 있다.In response to receiving a recognized user action at one or more electronic devices, service activity data, sensor data, and content may be captured into the flagged event.

서비스 활동 데이터 및 하나 이상의 전자 장치들로부터의 센서 데이터가 사용자 컨텍스트를 결정하기 위해 클라우드 기반 시스템 및 네트워크 시스템 중 하나 이상에서 실행되는 정보 분석기 모듈에 제공될 수 있고, 사용자 컨텍스트는 하나 이상의 전자 장치들상에서 모드 활성화 및 통지 중 하나 이상을 제어하기 위해 하나 이상의 전자 장치들에게 제공될 수 있다.Service activity data and sensor data from one or more electronic devices may be provided to an information analyzer module running on one or more of a cloud based system and a network system to determine a user context, And may be provided to one or more electronic devices for controlling one or more of mode activation and notification.

조직된 정보가 연속적으로 제시될 수 있고 조직된 정보가 타임라인을 통해 수집된 라이프 이벤트 정보를 포함할 수 있고, 라이프 이벤트 정보가 클라우드 기반 시스템, 네트워크 시스템 및 하나 이상의 전자 장치들 중 하나 이상상에서 저장될 수 있다.Organized information can be presented continuously and organizational information can include life event information collected through a timeline, and life event information can be stored on a cloud-based system, a network system, and on one or more of the one or more electronic devices .

하나 이상의 전자 장치들은 이동형 전자 장치들을 포함할 수 있고, 이동형 전자 장치들은 이동형 전화, 웨어러블 계산 장치, 태블릿 장치 및 이동형 계산 장치 중 하나 이상을 포함할 수 있다.The one or more electronic devices may comprise mobile electronic devices, and the mobile electronic devices may include one or more of a mobile phone, a wearable computing device, a tablet device, and a mobile computing device.

일 실시예에서, 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 비일시적(non-transitory) 기록매체는, 서비스 활동 데이터 및 하나 이상의 전자 장치들로부터의 센서 데이터를 포함하는 정보를 수집하는 것을 포함하는 방법을 수행한다. 정보를 수집된 정보와 관련된 시간에 기초하여 조직될 수 있다. 뿐만 아니라, 사용자 컨텍스트 및 사용자 활동 중 하나 이상에 기초하여 잠재 관심사에 대한 컨텐트 정보 및 서비스 정보 중 하나 이상이 하나 이상의 전자 장치들에게 제공될 수 있다. In one embodiment, a computer-readable non-transitory recording medium having recorded thereon a program for execution on a computer includes means for collecting information comprising service activity data and sensor data from one or more electronic devices . The information can be organized based on the time associated with the collected information. In addition, one or more of the content information and service information for potential interests may be provided to one or more electronic devices based on one or more of user context and user activity.

컴퓨터로 읽을 수 있는 비일시적 기록매체는 하나 이상의 선택된 필터들에 기초하여 조직된 정보를 필터링하는 것을 더 포함할 수 있고, 사용자 컨텍스트는 장소 정보, 이동 정보 및 사용자 활동 중 하나 이상에 기초하여 결정될 수 있다.The computer readable non-volatile recording medium may further comprise filtering information organized based on the one or more selected filters, wherein the user context may be determined based on one or more of location information, movement information, and user activity have.

조직된 정보는 그래픽 타임라인상에서 특정한 시간순으로 제시될 수 있고, 잠재 관심사에 대한 컨텐트 정보 및 서비스 정보 중 하나 이상을 제공하는 것은 경보들, 제안들, 이벤트들 및 커뮤니케이션 중 하나 이상을 하나 이상의 전자 장치들에게 제공하는 것을 포함할 수 있다.Organized information can be presented in a specific time order on the graphical timeline, and providing one or more of the content information and service information for a potential interest can include one or more of alerts, suggestions, events, Lt; / RTI >

컨텐트 정보 및 서비스 정보는 하나 이상의 전자 장치들에서의 이용을 위해 사용자 서브스크립 할 수 있고, 조직된 정보는 하나 이상의 전자 장치들에게 동적으로 전달될 수 있고, 서비스 활동 데이터, 센서 데이터 및 컨텐트는 사용자 액션에 기초하여 플래그 된 이벤트로 캡쳐될 수 있다.The content information and service information may be user subscribed for use in one or more electronic devices, the organized information may be dynamically delivered to one or more electronic devices, the service activity data, sensor data, Can be captured as an event flagged based on an action.

서비스 활동 데이터 및 하나 이상의 전자 장치들로부터의 센서 데이터는 사용자 컨텍스트를 결정하기 위해 클라우드 기반 시스템 및 네트워크 시스템 중 하나 이상에 제공될 수 있고, 하나 이상의 전자 장치들상에서 모드 활성화 및 통지 중 하나 이상을 제어하기 위해 사용자 컨텍스트가 하나 이상의 전자 장치들에게 제공될 수 있다.The service activity data and sensor data from one or more electronic devices may be provided to one or more of the cloud-based system and the network system to determine a user context and may be configured to control one or more of mode activation and notification on one or more electronic devices A user context may be provided to one or more electronic devices.

조직된 정보는 연속적으로 제공될 수 있고 조직된 정보가 타임라인을 통해 수집된 라이프 이벤트 정보를 포함할 수 있고, 라이프 이벤트 정보는 클라우드 기반 시스템, 네트워크 시스템 및 하나 이상의 전자 장치들 중 하나 이상에 저장될 수 있다.Organized information may be provided continuously and organizational information may include life event information collected via a timeline, and life event information may be stored in a cloud-based system, a network system, and one or more of the one or more electronic devices .

하나 이상의 전자 장치들이 이동형 전자 장치들을 포함할 수 있고, 이동형 전자 장치들은 이동형 전화, 웨어러블 계산 장치, 태블릿 장치 및 이동형 계산 장치 중 하나 이상을 포함한다.One or more of the electronic devices may comprise mobile electronic devices, and the mobile electronic devices include one or more of a mobile phone, a wearable computing device, a tablet device, and a mobile computing device.

일 실시예에서, 전자 장치의 디스플레이상에서 디스플레이 되는 GUI(graphical user interface)는 서비스 활동 데이터 및 적어도 하나의 전자 장치로부터 수집된 센서 데이터를 포함하는 정보와 연관된 하나 이상의 타임라인 이벤트들을 포함할 수 있다. GUI는 하나 이상의 타임라인 이벤트들과 연관된 사용자 활동 및 사용자 컨텍스트 중 하나 이상에 기초한 사용자의 잠재 관심사에 대한 선택 가능한 서비스 카테고리들 및 컨텐트 정보 중 하나 이상을 더 포함할 수 있다.In one embodiment, a graphical user interface (GUI) displayed on a display of the electronic device may include one or more timeline events associated with information including service activity data and sensor data collected from the at least one electronic device. The GUI may further include one or more of selectable service categories and content information for the potential interest of the user based on one or more of user activity and user context associated with one or more timeline events.

하나 이상의 타임라인 이벤트들과 연관된 하나 이상의 카테고리들을 디스플레이하기 위해 하나 이상의 아이콘들이 선택될 수 있고, 사용자가 관심 있어 하는 제안된 컨텐트 정보 및 서비스 정보 중 하나 이상을 GUI상에서 제공될 수 있다.One or more icons may be selected to display one or more categories associated with one or more timeline events, and one or more of the proposed content information and service information that the user is interested in may be provided on the GUI.

일 실시예에서, 전자 장치의 디스플레이 아키텍처는 복수의 컨텐트 구성요소들 및 잠재 사용자 관심사에 대한 하나 이상의 컨텐트 구성요소들을 포함하는 타임라인을 포함할 수 있다. 일 실시 예에서, 복수의 시간-기반 구성요소들이 이벤트 정보, 통신 정보 및 컨텍스트 경보 정보 중 하나 이상을 포함하고, 복수의 시간-기반 구성요소들이 특정한 시간순으로 디스플레이 된다. 일 실시예에서, 수신되어 인식된 사용자 액션에 기초한 확장된 정보를 제공하기 위해 복수의 시간-기반 구성요소들은 확장 가능하다.In one embodiment, the display architecture of the electronic device may include a plurality of content components and a timeline that includes one or more content components for potential user interests. In one embodiment, the plurality of time-based components include one or more of event information, communication information, and context alert information, and a plurality of time-based components are displayed in a specific time order. In one embodiment, the plurality of time-based components are extensible to provide extended information based on the received and recognized user actions.

일 실시예에서, 웨어러블 전자 장치는 프로세서, 프로세서와 결합된 메모리, 곡선 모양의 디스플레이 및 하나 이상의 센서들을 포함한다. 일 실시예에서, 컨텍스트 정보를 결정하고, 서비스 활동 데이터 및 페어링된 호스트 전자 장치로부터의 부가 센서 데이터 중 하나 이상으로부터 수신된 부가 정보 및 센서 데이터에 기초하여 결정되는 컨텍스트 정보를 이용하여 잠재 관심사에 대한 컨텐트 정보 및 서비스 정보 중 하나 이상을 웨어러블 전자 장치의 타임라인 모듈에게 제공하는 분석 모듈에게, 센서들은 센서 데이터를 제공한다. 일 실시예에서, 타임라인 모듈은 곡선모양 디스플레이의 타임라인 인터페이스에 관한 컨텐트를 조직한다.In one embodiment, a wearable electronic device includes a processor, a memory coupled with the processor, a curved display, and one or more sensors. In one embodiment, context information is determined and additional information received from one or more of the service activity data and the supplementary sensor data from the paired host electronic device, and context information determined based on the sensor data, To the analysis module, which provides one or more of the content information and service information to the timeline module of the wearable electronic device, the sensors provide sensor data. In one embodiment, the timeline module organizes content related to the timeline interface of the curved display.

하나 이상의 실시 예들의 위와 같은 또는 다른 측면들 및 장점들은, 하나 이상의 실시예들의 원리가 예시로 설명된 도면들과 함께 아래의 상세한 설명을 통해 더 명확해질 것이다.These and other aspects and advantages of one or more embodiments will become more apparent through the following detailed description, taken in conjunction with the accompanying drawings, illustrating by way of example the principles of one or more embodiments.

선호하는 사용 방법에 대한 충분한 이해뿐만 아니라 실기 예들의 장점과 그 본질의 충분히 이해할 수 있도록, 하기의 상세한 설명은 첨부된 도면들과 함께 참조되어야한다. 첨부된 도면들은 다음과 같다.
도 1은 일 실시예에 따른 통신 시스템의 개략도를 도시한다.
도 2는 일 실시예에 따른 서버와 하나 이상의 전자 장치를 포함하는 시스템의 블록 다이어그램 아키텍처(architecture)를 도시한다.
도 3은 일 실시예에 따른 예시적인 시스템 환경(environment)을 도시한다.
도 4는 일 실시예에 따른 기록 보관소 안에 데이터를 조직하는 예시를 도시한다.
도 5는 일 실시예에 따른 예시적인 타임라인 뷰(view) 를 도시한다.
도 6은 일 실시예에 따른 제스처 탐색에 관한 예시적인 명령들을 도시한다.
도 7a-d는 일 실시예에 따른 타임라인 GUI(graphical user interface)상의 이벤트를 확장시키는 것에 관한 예시들을 도시한다.
도 8은 일 실시예에 따른 플래깅(flagging) 이벤트들의 예시를 도시한다.
도 9는 일 실시예에 따른 대시보드(dashboard) 디테일 뷰들의 예시를 도시한다.
도 10은 일 실시예에 따른 서비스 및 장치 관리의 예시를 도시한다.
도 11A-D는 일 실시예에 따른 어플리케이션/서비스 탐색에 관한 서비스 관리의 예시를 도시한다.
도 12A-D는 일 실시예에 따른 어플리케이션/서비스 스트림들에 관한 서비스 관리의 예시를 도시한다.
도 13A-D는 어플리케이션/서비스 사용자 관심에 관한 서비스 관리의 예시를 도시한다.
도 14는 일 실시예에 따른 모드(mode) 감지에 관한 예시적인 개략도이다.
도 15는 일 실시예에 따른 사용자 데이터를 종합/수집하고 디스플레이하는 예시적인 프로세스를 도시한다.
도 16은 일 실시예에 따른 전자 장치를 통한 서비스 관리에 관한 예시적인 프로세스를 도시한다.
도 17은 일 실시예에 따른 예시적인 타임라인 및 슬라이드들을 도시한다.
도 18은 일 실시예에 따른 예시적인 프로세스 정보 아키텍처를 도시한다.
도 19는 일 실시예에 따른 예시적인 액티브 태스크(active tasks)를 도시한다.
도 20은 일 실시예에 따른 입력되는 슬라이드와 액티브 태스크에 관한 타임라인 로직(logic) 예시를 도시한다.
도 21a-b는 일 실시예에 따른 예시적인 상세 타임라인을 도시한다.
도 22a-b 일 실시예에 따른 예시적인 슬라이드 카테고리에 관련된 타임라인 로직의 예시를 도시한다.
도 23은 일 실시예에 따른 타임라인 푸시(push) 알림 슬라이드 카테고리들의 예시들을 도시한다.
도 24는 일 실시예에 따른 타임라인 풀(pull) 알림들의 예시들을 도시한다.
도 25는 일 실시예에 따른 입력되는 슬라이드 라우팅(routing)에 관한 예시적인 프로세스를 도시한다.
도 26은 일 실시예에 따른 예시적인 웨어러블 장치 블록 다이어그램을 도시한다.
도 27은 일 실시예에 따른 예시적인 통지 기능을 도시한다.
도 28은 일 실시예에 따른 타임라인과 상호작용하는 예시적인 입력 제스처를 도시한다.
도 29는 일 실시예에 따른 슬라이드를 생성하는 예시적인 프로세스를 도시한다.
도 30은 일 실시예에 따른 템플릿(template)을 사용한 슬라이드 생성 예시를 도시한다.
도 31은 일 실시예에 따른 화면에 디스플레이된 슬라이드에 기초한 컨텍스트 음성 명령 예시를 도시한다.
도 32는 일 실시예에 따른 웨어러블 장치 및 호스트 장치/스마트 폰에 관한 예시적인 블록 다이어그램을 도시한다.
도 33은 일 실시예에 따른 웨어러블 장치에서 명령을 수신하는 예시적인 프로세스를 도시한다.
도 34는 일 실시예에 따른 이동형/웨어러블 장치의 모션 기반 제스처에 관한 예시적인 프로세스를 도시한다.
도 35는 일 실시예에 따른 햅틱(haptic) 구성요소들을 사용한 예시적인 스마트 경보를 도시한다.
도 36은 일 실시예에 따른 맞춤화 햅틱 패턴 기록에 관한 예시적인 프로세스를 도시한다.
도 37은 일 실시예에 따른 햅틱 기록을 수신하는 웨어러블 장치 흐름도 예시를 도시한다.
도 38은 일 실시예에 따른 햅틱 기록의 예시적인 다이어그램을 도시한다.
도 39는 일 실시예에 따른 햅틱 입력을 기록하기 위한 예시적인 단일 축 힘 센서를 도시한다.
도 40은 일 실시예에 따른 햅틱 입력을 위한 예시적인 터치 스크린을 도시한다.
도 41은 일 실시예에 따른 웨어러블 장치 시스템의 예시적인 블록 다이어그램을 도시한다.
도 42는 일 실시예에 따른 사용자 데이터를 컨텍스트화 및 제시하는 것에 관한 블록 다이어그램 흐름도를 도시한다.
도 43은 하나 이상의 실시 예를 실행하는 컴퓨팅(computing) 시스템을 포함하는 정보 처리 시스템을 도시하는 하이-레벨(High-level) 블록 다이어그램이다.
The following detailed description is to be read in conjunction with the accompanying drawings, in order to provide a thorough understanding of the advantages and the nature of the examples, as well as a full understanding of the preferred methods of use. The accompanying drawings are as follows.
1 shows a schematic diagram of a communication system according to one embodiment.
2 illustrates a block diagram architecture of a system including a server and one or more electronic devices in accordance with one embodiment.
FIG. 3 illustrates an exemplary system environment in accordance with one embodiment.
FIG. 4 illustrates an example of organizing data in an archive according to one embodiment.
FIG. 5 illustrates an exemplary timeline view in accordance with one embodiment.
6 illustrates exemplary instructions for gesture search in accordance with one embodiment.
Figures 7A-D illustrate examples of extending events on a timeline graphical user interface (GUI) according to one embodiment.
FIG. 8 illustrates an example of flagging events according to one embodiment.
Figure 9 illustrates an example of dashboard detail views according to one embodiment.
10 illustrates an example of service and device management according to one embodiment.
11A-D illustrate an example of service management for application / service discovery according to one embodiment.
12A-D illustrate an example of service management for application / service streams in accordance with one embodiment.
13A-D illustrate an example of service management for an application / service user interest.
14 is an exemplary schematic diagram of mode sensing in accordance with one embodiment.
Figure 15 illustrates an exemplary process for aggregating / collecting and displaying user data in accordance with one embodiment.
16 illustrates an exemplary process for service management through an electronic device according to one embodiment.
Figure 17 illustrates an exemplary timeline and slides in accordance with one embodiment.
18 illustrates an exemplary process information architecture in accordance with one embodiment.
FIG. 19 illustrates exemplary active tasks in accordance with one embodiment.
Figure 20 illustrates an example of timeline logic for an input slide and an active task in accordance with one embodiment.
Figures 21A-B illustrate exemplary detail timelines according to one embodiment.
22A-B illustrate examples of timeline logic associated with an exemplary slide category according to one embodiment.
23 illustrates examples of timeline push notification slide categories according to one embodiment.
24 illustrates examples of timeline pull notifications in accordance with one embodiment.
25 illustrates an exemplary process for input slide routing in accordance with one embodiment.
26 illustrates an exemplary wearable device block diagram according to one embodiment.
27 illustrates an exemplary notification function in accordance with one embodiment.
28 illustrates an exemplary input gesture that interacts with a timeline in accordance with one embodiment.
29 illustrates an exemplary process for creating a slide in accordance with one embodiment.
30 shows an example of creating a slide using a template according to an embodiment.
31 illustrates an example of a context voice command based on a slide displayed on a screen according to an embodiment.
32 illustrates an exemplary block diagram of a wearable device and a host device / smartphone, according to one embodiment.
33 illustrates an exemplary process for receiving an instruction in a wearable device in accordance with one embodiment.
34 illustrates an exemplary process for a motion-based gesture of a mobile / wearable device in accordance with one embodiment.
35 illustrates an exemplary smart alert using haptic components in accordance with one embodiment.
Figure 36 illustrates an exemplary process for writing customized haptic patterns in accordance with one embodiment.
37 illustrates an example of a wearable device flow diagram for receiving a haptic recording in accordance with one embodiment.
38 illustrates an exemplary diagram of haptic recording in accordance with one embodiment.
39 illustrates an exemplary single axis force sensor for recording a haptic input in accordance with one embodiment.
40 illustrates an exemplary touch screen for haptic input in accordance with one embodiment.
41 illustrates an exemplary block diagram of a wearable device system in accordance with one embodiment.
42 illustrates a block diagram flow diagram for contextualizing and presenting user data in accordance with one embodiment.
43 is a high-level block diagram illustrating an information processing system including a computing system for performing one or more embodiments.

이어지는 설명은 하나 이상의 실시 예들의 일반적 원리를 설명하는데 목적이 있으며, 이 문서에 주장된 발명 개념으로 한정됨을 의미하지 않는다. 덧붙여, 여기에 설명된 특정 특징들은 다른 설명된 특징들과 각각의 다양하게 가능한 조합과 치환으로, 결합되어 이용될 수 있다. 이 문서에서 특별히 정의되지 않았다면, 모든 용어들은 명세서에서 유추 될 뿐만 아니라 통상의 기술자가 이해할 수 있고/있거나 사전들, 조약들 등에 의해 정의되는 의미들을 포함한 용어들의 가능한 가장 넓은 의미로 주어진다.The following description is intended to illustrate the general principles of one or more embodiments and is not intended to be limited to the inventive concepts claimed in this document. In addition, certain features described herein may be used in combination with other described features and with various possible combinations and permutations. Unless specifically defined in this document, all terms are given in the broadest possible sense of the term, including terms which are understood by ordinary artisans and / or defined by dictionaries, treaties, etc., as well as to the analogy of the specification.

실시예들은 하나 이상의 전자 장치(예를 들어, 스마트 폰들, 웨어러블 장치들, 태블릿 장치들, 카메라들 등 이동형 전자 장치)로부터 센서 및 서비스 활동 정보를 수집하고, 정보를 보관하고, 정보를 컨텍스트화하고, 조직된 사용자 활동 데이터를 추천 컨텐트 정보 및 서비스 정보와 함께 제공하고/보여주는 것과 관련 있다. 일 실시예는, 서비스 활동 데이터 및 하나 이상의 전자 장치로부터의 센서 데이터를 포함하는 정보를 수집하는 방법이다. 위 정보는 수집된 정보와 관련된 시간에 기초하여 조직될 수 있다. 사용자 컨텍스트 및 사용자 활동 중 하나 이상에 기초하여, 잠재적 관심사의 컨텐트 정보 및 서비스 정보 중 하나 이상 이 문서에서 설명된 하나 이상의 전자 장치에 제공 될 수 있다.Embodiments may collect sensor and service activity information from one or more electronic devices (e.g., smart phones, wearable devices, tablet devices, cameras, etc.), store information, contextualize the information , And providing / displaying organized user activity data along with recommendation content information and service information. One embodiment is a method of collecting information comprising service activity data and sensor data from one or more electronic devices. The above information can be organized based on the time associated with the collected information. Based on one or more of the user context and user activity, one or more of the content information and service information of the potential interest may be provided to the one or more electronic devices described in the document.

하나 이상의 실시예들은, 전자 장치들의 환경(ecosystem)으로부터, 다양한 "렌즈들", 필터들 또는 개개인의 특정 관심 영역을 통해 필터 될 수 있는 이벤트 데이터의 타임라인 라이프 로그(life log)로 캡쳐된(captured) 개개인의 "라이프 이벤트들"을 수집하고 조직한다. 일 실시예에서, 캡쳐된 라이프 이벤트들은 범위가 넓고 컨텐트가 풍부하다. 일 실시예에서, 폭넓고 다양한 서비스들(예를 들어, 제 3자 서비스들, 클라우드-기초 서비스들 등)과 개인 환경(ecosystem)에 속한 다른 전자 장치(예를 들어, 스마트 폰, 웨어러블 장치, 태블릿 장치, 스마트 TV 장치, 다른 컴퓨팅 장치들 등과 같은 사용자에 의해 사용되는 전자 장치들)로부터의 라이프 활동 이벤트들이 수집되고 조직된다.One or more embodiments may be implemented in a system that is capable of capturing from the ecosystem of electronic devices into a timeline life log of event data that can be filtered through various "lenses ", filters, captures and organizes individual "life events". In one embodiment, the captured life events are large in scope and rich in content. In one embodiment, a wide variety of services (e.g., third party services, cloud-based services, etc.) and other electronic devices belonging to a personal ecosystem (e.g., smartphones, wearable devices, Electronic devices used by users such as tablet devices, smart TV devices, other computing devices, etc.) are collected and organized.

일 실시예에서, 라이프 데이터(예를 들어, 장치들에서의 사용자 활동, 사용한 장치들로부터의 센서 데이터, 제 3자 서비스, 클라우드-기반 서비스 등)는 서비스 활동(즉, 여행 추천 서비스, 정보제공 서비스, 음식점 추천 서비스, 리뷰 서비스, 금융 서비스, 가이던스 서비스 등의 서비스를 이용하는)뿐만 아니라 이동형 전자 장치(예를 들어, 스마트 폰) 및 웨어러블 전자 장치로부터의 센서 데이터의 조합으로도 캡쳐되며, 사용자의 특정한 관심 영역에 기초하여 자동적 및 동적으로 대시보드(dashboard) GUI로 시각화 될 수 있다. 하나 이상의 실시 예들은, 라이프 이벤트들(예를 들어, 걷기, 운전, 비행, 자전거 타기, 버스, 기차와 같은 교통 수단 등)이 조직될 수 있는 곳 안에서 많은 세트의 모드들을 제공한다. 위 실시 예들은 손에 쥐는 장치로부터의 센서 데이터에만 의존하지 않을 수 있을 뿐만 아니라, 웨어러블 컴패니언(companion) 장치로부터의 센서 정보 또한 활용(leverage) 할 수 있다.      In one embodiment, the life data (e.g., user activity on devices, sensor data from used devices, third party services, cloud-based services, etc.) (E. G., Smart phones) and wearable electronic devices as well as services (e. G., Using services such as e-mail services, restaurant referral services, review services, financial services and guidance services) Can be automatically and dynamically visualized in a dashboard GUI based on a particular area of interest. One or more embodiments provide a large set of modes within which life events (e.g., walking, driving, flying, cycling, buses, trains, etc.) can be organized. The embodiments above may not only rely on sensor data from a handheld device, but may also leverage sensor information from a wearable companion device.

하나 이상의 실시 예들은, 얼마나 다른 종류의 컨텐트가 사용자에게 보여졌고 GUI상의 어느 터치 포인트들(touch points)을 통해 얼마나 다른 종류의 컨텐트가 보여졌는지 관리하는 것을 돕기 위한 컴패니언 어플리케이션의 형태를 취할 수 있는 웨어러블 장치를 동반하도록 하는 주요 서비스에 관한 것이다. 위와 같은 실시 예들은, 서비스(예를 들어, 서비스 활동 데이터) 및 사용자 활동(예를 들어, 센서 데이터, 전자 장치 활동 데이터)을 이용하는 것에 까지 이르는 다양한 서로 다른 라이프 이벤트들을 종합하고, 모드들내의 더 큰 컨텍스트 안에 이벤트들을 위치시키는 전자 장치에 독특한 저니 뷰(journey view)를 제공할 수 있다. 위 실시예들은, 서비스 정보 및 컨텐트 정보/데이터(예를 들어, 텍스트, 사진들, 링크들, 비디오, 오디오 등)를 추가하기 위해 센서 정보를 활용함으로써 다양한 서로 다른 정보를 단일의 뷰로 묶을 수 있다.      One or more embodiments may be implemented as a wearable application that may take the form of a companion application to help manage how different kinds of content are shown to the user and how different kinds of content are viewed through which touch points on the GUI To a main service to accompany the device. These embodiments may be used to synthesize a variety of different life events ranging from using services (e.g., service activity data) and user activity (e.g., sensor data, electronic device activity data) It is possible to provide a unique journey view to an electronic device that places events within a large context. The above embodiments may group various different information into a single view by utilizing sensor information to add service information and content information / data (e.g., text, pictures, links, video, audio, etc.) .

하나 이상의 실시 예들은, 사용자의 실제 활동에 기초한 사용자의 라이프에 대한 통찰을 강조함으로써 사용자들이 스스로에 대해 배울 수 있도록 한다. 일 실시예는 서비스들을 관리하기 위한 센테럴 터치포인트(central touchpoint)와 서비스들이 어떻게 경험되는지를 보여준다. 하나 이상의 실시 예들은, 전자 장치 사용자가 서브스크립 할 수 있는 다양한 타입의 서비스들(예를 들어, 제3자에 의해 제공되고, 클라우드-기반 서비스들에 의해 제공되는 등)과 컨텐트를 제안하는 방법을 제공한다. 일 실시예에서, 사용자들은 다양한 타입의 사용자 입력에 기초하여 예를 들어, 사용자가 어디서 체크인 하는지(장소들, 시설들 등), 그리고 사용자들이 어떤 활동들을 하고 있는지(예를 들어, 다양한 활동 모드들)와 같은 서비스 제안을 볼 수 있다.      One or more embodiments enable users to learn about themselves by emphasizing insights into the user ' s life based on the user ' s actual activity. One embodiment shows a central touchpoint for managing services and how services are experienced. One or more embodiments may be implemented as a method of proposing content with various types of services that an electronic device user may subscribe to (e.g., provided by a third party, provided by cloud-based services, etc.) . In one embodiment, the users can select, for example, where they are checking in (places, facilities, etc.) based on various types of user input, and what activities the users are doing (e.g., ) Can be seen.

도 1은 일 실시예에 따른, 통신 시스템(10)의 개략도를 도시한다. 통신 시스템(10)은 발신 커뮤니케이션 동작(전송 장치 (12))을 개시하는 통신 장치와 통신 네트워크(110)을 포함할 수 있는데, 전송 장치(12)는 통신 네트워크(110) 내에서 다른 통신 장치들과 함께 커뮤니케이션 동작들을 개시하고 수행하기 위해 이용될 수 있다. 예를 들어, 통신 시스템(10)은, 전송 장치(12)로부터 커뮤니케이션 동작을 수신하는 통신 장치(수신 장치 (11))를 포함 할 수 있다. 통신 시스템(10)이 복수의 전송 장치들(12) 및 수신 장치들(11)을 포함할 수 있긴 하지만, 도면의 간소화를 위해 도 1에는 각각 하나씩만 도시되었다.      1 illustrates a schematic diagram of a communication system 10, in accordance with one embodiment. The communication system 10 may include a communication device 110 that initiates an outgoing communication operation 12 (transmission device 12) and a transmission device 12 that communicates within the communication network 110 with other communication devices May be used to initiate and perform communications operations with the base station. For example, the communication system 10 may include a communication device (receiving device 11) that receives a communication operation from the transmitting device 12. [ Although communication system 10 may include a plurality of transmission devices 12 and reception devices 11, only one is shown in FIG. 1 for simplicity of illustration.

통신 네트워크를 생성하기 위해 적합한 전기 회로, 장치, 시스템 또는 이들의 조합(예를 들어, 통신 타워들과 원격통신 서버들을 포함하는 무선 통신 기반 시설)은 통신 네트워크(110)을 생성하기 위해 사용될 수 있다. 통신 네트워크(110)은, 적합한 통신 프로토콜을 사용하는 통신을 제공하는 것이 가능할 수 있을 것이다. 일부 실시예들에서, 통신 네트워크(110)은, 예를 들어 종래의 전화 선로들, 케이블 TV, Wi-Fi(예를 들어, an IEEE 802.11 프로토콜), Bluetooth®, 고주파 시스템(예를 들어, 900MHz, 2.4 GHz, 및 5.6 GHz 통신 시스템들), 적외선, 그 밖의 상대적으로 국부적 무선 통신 프로토콜 또는 이들의 조합을 지원할 수 있다. 일부 실시예들에서, 통신 네트워크(110)은, 무선 및 휴대전화 및 개인 이메일 장치들에서 사용되는 프로토콜들을 지원할 수 있다. 이러한 프로토콜들은, 예를 들어, GSm, GSM plus EDGE, CDMA, quadband, 및 다른 핸드폰 프로토콜들을 포함 할 수 있다. 또 다른 예시에서, 장거리 통신 프로토콜은 Wi-Fi 및 VOIP, LAN, WAN 또는 다른 TCP-IP 기초 통신 프로토콜들을 사용한 발신 또는 수신 전화들의 프로토콜들을 포함할 수 있다. 전송 장치(12)와 수신 장치(11)가 통신 네트워크(110)내에 위치했을 때, 전송 장치(12)와 수신 장치(11)은 통로(13)과 같은 양방향성의 커뮤니케이션 통로를 가로질러, 또는 두 개의 단방향 커뮤니케이션 통로들을 가로질러 통신할 수 있다. 전송 장치(12)와 수신 장치(11) 두 장치 모두 커뮤니케이션 동작을 개시하고, 개시된 커뮤니케이션 동작을 수신하는 것이 가능 할 수 있을 것이다.      A suitable electrical circuit, apparatus, system, or combination thereof (e.g., a wireless communication infrastructure including communication towers and telecommunication servers) for generating a communication network may be used to create the communication network 110 . The communication network 110 may be capable of providing communication using an appropriate communication protocol. In some embodiments, the communication network 110 may be, for example, a conventional telephone line, a cable TV, a Wi-Fi (e.g., an IEEE 802.11 protocol), a Bluetooth®, a high frequency system , 2.4 GHz, and 5.6 GHz communication systems), infrared, or other relatively localized wireless communication protocols, or a combination thereof. In some embodiments, communication network 110 may support protocols used in wireless and cellular telephones and personal e-mail devices. These protocols may include, for example, GSm, GSM plus EDGE, CDMA, quadband, and other mobile phone protocols. In another example, the long-distance communication protocol may include protocols of outgoing or incoming calls using Wi-Fi and VOIP, LAN, WAN or other TCP-IP based communication protocols. When the transmitting device 12 and the receiving device 11 are located in the communication network 110, the transmitting device 12 and the receiving device 11 can communicate either across the bidirectional communication path such as the path 13, Lt; / RTI > communication paths. Both the transmitting apparatus 12 and the receiving apparatus 11 may be able to initiate a communication operation and receive the communication operation initiated.

전송 장치(12)와 수신 장치(11)은 송신과 수신 커뮤니케이션 동작을 위한 적합한 장치를 포함 할 수 있다. 예를 들어, 전송 장치(12)와 수신 장치(11)은 이동형 전화 장치들, TV 시스템, 카메라들, 캠코더들, 오디오 비디오 기능을 갖춘 장치, 테블릿들, 웨어러블 장치들 및 무선으로(무선-인에이블링(enabling) 보조 시스템의 도움과 상관없이) 또는 유선 통로를 통해(예를 들어, 종래의 전화선들을 사용하여) 통신이 가능한 다른 장치들을 포함 할 수 있다. 커뮤니케이션 동작은, 예를 들어 음성 통신(예를 들어, 전화 통화들), 데이터 통신(예를 들어, 이메일들, 문자 메시지들, 미디어 메시지들), 비디오 통신 또는 이들의 조합(예를 들어, 비디오 회의들)과 같은 적합한 형태의 커뮤니케이션을 포함할 수 있다.      The transmitting device 12 and the receiving device 11 may comprise suitable devices for transmitting and receiving communication operations. For example, the transmitting device 12 and the receiving device 11 may be used in various applications such as mobile telephone devices, TV systems, cameras, camcorders, devices with audiovisual functions, tablets, wearable devices, (E. G., With the aid of an enabling auxiliary system) or other devices capable of communicating (e. G. Using conventional telephone lines) via a wired path. The communication operation may be, for example, voice communication (e.g., telephone calls), data communication (e.g., emails, text messages, media messages), video communication, ≪ / RTI > meetings).

도 2는 센서와 서비스 활동 정보를 수집하고 그 정보를 보관하고 그 정보를 컨텍스트화 하고 하나 이상의 전자 장치(120) 및 웨어러블 장치(140)을 사용하여 제안 받은 컨텐트, 서비스들과 함께 조직된 사용자 활동을 제시하기 위한 서비스 또는 어플리케이션을 제공하는데 사용될 수 있는, 시스템(100) 아키텍처의 기능상의 블록 다이어그램을 도시한다. 전송 장치(12)와 수신 장치(11) 모두, 전자 장치(120)의 특징들 및/또는 웨어러블 장치(140)의 특징들, 일부 또는 전부를 포함 할 수 있다. 일 실시예에서, 전자 장치(120)과 웨어러블 장치(140)은 서로 통신할 수 있고, 데이터, 정보, 컨텐트 등을 서로 동기화하고, 상호보완적 또는 유사한 특징들을 제공할 수 있다.      FIG. 2 is a flow chart illustrating a method for collecting sensor and service activity information, storing the information, contextualizing the information, and using the one or more electronic devices 120 and wearable device 140 to < RTI ID = 0.0 > Which may be used to provide a service or application for presenting a message to a user. Both the transmitting device 12 and the receiving device 11 may include some or all of the features of the electronic device 120 and / or the features of the wearable device 140. In one embodiment, the electronic device 120 and the wearable device 140 can communicate with one another and can synchronize data, information, content, etc. with one another and provide complementary or similar features.

일 실시예에서, 전자 장치(120)은, 디스플레이(121), 마이크(122), 오디오 출력(123), 입력 메커니즘(124), 통신 회로(125), 제어 회로(126), 어플리케이션들 1-N(127), 카메라 모듈(128), Bluetooth® 모듈(129), 와이파이 모듈(130)과 1부터 N까지의 센서들(131)(N은 양의 정수), 활동 모듈(132), 조직 모듈(133) 및 다른 적합한 부품들을 구성할 수 있다. 일 실시예에서, 어플리케이션들 1-N(127)은 클라우드 또는 서버(150), 통신 네트워크(110), 등으로부터 제공되고 얻어질 수 있는데, 여기서 N은 1보다 크거나 같은 양의 정수이다. 일 실시예에서, 시스템(100)은 디스플레이(121)증거 및 컨텍스트 정보를 수집하고, 증거 및 컨텍스트 정보에 대해 질문(query)하고, 디스플레이(121)상에서 질문 요청 및 질문에 대한 해답을 제시하기 위한 클라우드-기반 또는 서버-기반의 서브스크립션 서비스와 결합하여 동작하는 상황인지 쿼리 어플리케이션(context aware query application)을 포함한다. 일 실시예에서, 웨어러블 장치(140)은 전자 장치(120)의 부분 또는 모든 특징들, 구성요소들 및 모듈들을 포함할 수 있다.      In one embodiment, the electronic device 120 includes a display 121, a microphone 122, an audio output 123, an input mechanism 124, a communication circuit 125, a control circuit 126, an application 1- N (127), a camera module 128, a Bluetooth® module 129, a Wi-Fi module 130 and sensors 1 through N (N is a positive integer), an activity module 132, RTI ID = 0.0 > 133 < / RTI > and other suitable components. In one embodiment, applications 1-N 127 may be provided and obtained from a cloud or server 150, communications network 110, etc. where N is a positive integer greater than or equal to one. In one embodiment, the system 100 collects evidence and context information of the display 121, queries the evidence and context information, and provides a query request and a solution to the query on the display 121 And context aware query applications that operate in conjunction with cloud-based or server-based subscription services. In one embodiment, the wearable device 140 may include part or all of the features, components, and modules of the electronic device 120.

일 실시예에서, 오디오 출력(123), 디스플레이(121), 입력 메커니즘(124), 통신 회로(125) 및 마이크(122)에 의해 이용되는 모든 어플리케이션들은 제어 회로(126)에 의해 상호 연결되고 관리 될 수 있다. 일 실시예에서, 음악을 다른 튜닝 장치들에게 전송하는 것이 가능한 휴대용 뮤직 플레이어는 전자 장치(120) 및 웨어러블 장치(140)와 결합될 수 있다.       In one embodiment, all applications used by the audio output 123, the display 121, the input mechanism 124, the communication circuit 125 and the microphone 122 are interconnected by the control circuit 126 and managed . In one embodiment, a portable music player that is capable of transmitting music to other tuning devices may be combined with the electronic device 120 and the wearable device 140. [

일 실시예에서, 오디오 출력(123)은 전자 장치(120) 및 웨어러블 장치(140)의 사용자들에게 오디오를 제공해주는 적합한 오디오 구성요소를 포함할 수 있다. 예를 들어, 오디오 출력(123)은 전자 장치(120)에 내장되어 있는 하나 이상의 스피커들(예를 들어, 모노 또는 스테레오 스피커들)을 포함할 수 있다. 일 실시 예들에서는, 오디오 출력(123)은 전자 장치(120) 또는 웨어러블 장치(140)과 원격으로 연결된 오디오 구성요소를 포함할 수 있다. 예를 들어, 오디오 출력(123)은 통신 장치와 유선(예를 들어, 전자 장치(120)/웨어러블 장치(140)과 잭(jack)으로 연결된) 또는 무선(예를 들어, Bluetooth® 헤드폰들 또는 Bluetooth® 헤드셋)으로 연결된 헤드셋, 헤드폰들, 이어폰들을 포함할 수 있다.      In one embodiment, the audio output 123 may include suitable audio components that provide audio to the users of the electronic device 120 and the wearable device 140. For example, the audio output 123 may include one or more speakers (e.g., mono or stereo speakers) embedded in the electronic device 120. In one embodiment, the audio output 123 may include an audio component that is remotely connected to the electronic device 120 or the wearable device 140. For example, the audio output 123 may communicate with a communication device and a wired (e.g., connected to an electronic device 120 / wearable device 140 and jack) or wireless (e.g., A headset, a headset, and an earphone.

일 실시예에서, 디스플레이(121)은 사용자에게 보여지는 디스플레이를 제공하기 위해 적합한 스크린 또는 프로젝션(projection) 시스템을 포함할 수 있다. 예를 들어, 디스플레이(121)은 전자 장치(120) 또는 웨어러블 장치(140)에 포함된 스크린(예를 들어, LCD 스크린)을 포함할 수 있다. 다른 예시로서, 디스플레이(121)은 전자 장치(120) 또는 웨어러블 장치(140)으로부터 떨어진 면에 컨텐트를 디스플레이하기 위한 이동식 디스플레이 또는 프로젝팅(projecting) 시스템을 포함할 수 있다(예를 들어, 비디오 프로젝터). 디스플레이(121)은 제어 회로(126)의 지시하에 컨텐트(예를 들어, 통신 동작에 관한 정보 또는 이용 가능한 미디어 선택들에 관한 정보)를 디스플레이 하기 위해 동작할 수 있다.      In one embodiment, the display 121 may include a suitable screen or projection system to provide a display to the user. For example, the display 121 may include a screen (e.g., an LCD screen) included in the electronic device 120 or the wearable device 140. As another example, the display 121 may include a mobile display or projection system for displaying content on a surface remote from the electronic device 120 or the wearable device 140 (e.g., a video projector ). Display 121 may operate to display content (e.g., information about communication operations or information about available media selections) under the direction of control circuitry 126.

일 실시예에서, 입력 메커니즘(124)는 전자 장치(120) 또는 웨어러블 장치(140)에 사용자 입력들 또는 명령어들을 제공하기 위한 적합한 메커니즘 또는 사용자 인터페이스일 수 있다. 입력 메커니즘(124)는 예를 들어 버튼, 키패드, 다이얼, 클릭휠 또는 터치 스크린과 같이 다양한 형태를 가질 수 있다. 입력 메커니즘(124)는 멀티터치 스크린을 포함할 수 있다.      In one embodiment, the input mechanism 124 may be a suitable mechanism or user interface for providing user inputs or commands to the electronic device 120 or the wearable device 140. The input mechanism 124 may take various forms, such as, for example, a button, a keypad, a dial, a click wheel, or a touch screen. The input mechanism 124 may include a multi-touch screen.

일 실시예에서, 통신 회로(125)는 통신 네트워크들에 엑세스하기 위해, 그리고 전자 장치(120) 또는 웨어러블 장치(140)으로부터 통신 동작과 미디어를 전송하기 위해 동작하는 적합한 통신 회로일 수 있다(예를 들어, 통신 네트워크(110), 도 1). 통신 회로(125)는, 예를 들어, Wi-Fi(예를 들어, 802.11 protocol), Bluetooth®, 고주파 시스템(예를 들어, 900 MHz, 2.4 GHz 및 5.6 GHz 통신 시스템), 적외선, GSM, GSM plus EDGE, CDMA, quandband 및 다른 휴대전화 프로토콜, VOIP, TCP-IP 또는 다른 적합한 프로토콜과 같은 적합한 통신 프로토콜을 사용하는 통신 네트워크에 엑세스하는데 이용될 수 있다.      In one embodiment, communication circuitry 125 may be any suitable communication circuitry for accessing communication networks and for communicating communication operations and media from electronic device 120 or wearable device 140 For example, communication network 110, Figure 1). The communication circuit 125 may be, for example, a Wi-Fi (e.g., 802.11 protocol), Bluetooth, a high frequency system (e.g., 900 MHz, 2.4 GHz and 5.6 GHz communication systems) plus EDGE, CDMA, quandband and other cellular telephone protocols, VOIP, TCP-IP or other suitable protocols.

일 실시 예들에서, 적합한 통신 프로토콜을 사용하여 통신 네트워크를 생성하는데 통신 회로(125)가 이용될 수 있다. 예를 들어, 통신 회로(125)는, 다른 통신 장치에 연결되기 위해 단거리 통신 프로토콜을 사용하는 단거리 통신 네트워크를 생성할 수 있다. 예를 들어, 통신 회로(125)는, 전자 장치(120)과 Bluetooth® 헤드셋을 연결하기 위해 Bluetooth® 프로토콜을 사용하는 로컬 통신 네트워크를 생성하는데 이용될 수 있다.      In one embodiment, the communication circuitry 125 may be used to create a communication network using an appropriate communication protocol. For example, communication circuitry 125 may create a short-range communication network that uses a short-range communication protocol to connect to another communication device. For example, the communication circuitry 125 may be used to create a local communication network using the Bluetooth® protocol to connect the Bluetooth® headset with the electronic device 120.

일 실시예에서, 제어 회로(126)은 전자 장치(120) 또는 웨어러블 장치(140)의 동작(operations) 및 실행을 제어하기 위해 이용될 수 있다. 제어 회로(126)은 예를 들어, 프로세서, 버스(예를 들어, 전자 장치(120) 또는 웨어러블 장치(140)의 다른 구성요소들에 명령어들을 전송하기 위한), 메모리, 저장소, 또는 전자 장치(120) 또는 웨어러블 장치(140)의 동작들을 제어하기 위한 다른 적합한 구성요소를 포함할 수 있다. 일 실시 예들에서, 프로세서는 디스플레이를 드라이브할 수 있고 사용자 인터페이스로부터 입력들을 처리할 수 있다. 메모리와 저장소는 예를 들어, 캐시, 플래시 메모리, ROM 및/또는 RAM/DRAM을 포함할 수 있다. 일 실시 예들에서, 메모리가 펌웨어(예를 들어, 동작 시스템, 사용자 인터페이스 기능 및 프로세서 기능과 같은 장치 어플리케이션들)를 저장하는데 전용될 수 있다. 일 실시 예들에서, 전자 장치(120) 또는 웨어러블 장치(140)가 통신 동작들을 수행하는 다른 장치들에 관련된 정보를 저장하는데 메모리가 이용될 수 있다(예를 들어, 통신 동작들과 관련된 연락 정보를 저장하거나 사용자에 의해 선택된 서로 다른 미디어 종류 및 미디어 아이템들과 관련된 정보를 저장함).      In one embodiment, the control circuitry 126 may be utilized to control operations and execution of the electronic device 120 or the wearable device 140. [ The control circuitry 126 may be implemented as, for example, a processor, a bus (e.g., for transmitting instructions to an electronic device 120 or other components of the wearable device 140), a memory, 120 or other suitable components for controlling the operation of the wearable device 140. [ In one embodiment, the processor can drive the display and process inputs from the user interface. Memory and storage may include, for example, cache, flash memory, ROM and / or RAM / DRAM. In one embodiment, the memory may be dedicated to storing firmware (e.g., device applications such as an operating system, user interface functions, and processor functions). In one embodiment, a memory may be used to store information relating to other devices for which the electronic device 120 or the wearable device 140 performs communication operations (e. G., Contact information associated with communication operations) Store or store information related to different media types and media items selected by the user).

일 실시예에서, 제어 회로(126)은 전자 장치(120) 또는 웨어러블 장치(140)에서 실행되는 하나 이상의 어플리케이션들을 수행하기 위해 이용될 수 있다. 적합한 숫자 또는 종류의 어플리케이션들이 실행 될 수 있다. 아래의 논의에서는 다른 어플리케이션들이 열거되겠지만, 몇몇 또는 모든 어플리케이션들은 하나 이상의 어플리케이션들과 결합될 수 있다는 점이 이해될 수 있을 것이다. 예를 들어, 전자 장치(120) 및 웨어러블 장치(140)은, 자동음성인식(ASR) 어플리케이션, 대화 어플리케이션, 지도 어플리케이션, 미디어 어플리케이션(예를 들어, QuickTime, MobileMusic.app, 또는 MobileVideo.app, YouTube® 등), 소셜 네트워크 어플리케이션(예를 들어, Facebook®, Twitter® 등), 인터넷 검색 어플리케이션 등을 포함할 수 있다. 일 실시 예들에서, 전자 장치(120) 및 웨어러블 장치(140)은, 통신 동작들을 수행하는데 이용될 수 있는 하나 또는 복수의 어플리케이션들을 포함할 수 있다. 예를 들어, 전자 장치(120) 및 웨어러블 장치(140)은 메시지 어플리케이션, 메일 어플리케이션, 음성 메일 어플리케이션, 인스턴트 메시지 어플리케이션(예를 들어, 채팅을 위한), 화상회의 어플리케이션, 팩스 어플리케이션 또는 적합한 통신 동작을 위한 다른 적합한 어플리케이션을 포함 할 수 있다.      In one embodiment, the control circuitry 126 may be utilized to perform one or more applications that are executed in the electronic device 120 or the wearable device 140. Appropriate numbers or types of applications may be executed. It will be appreciated that while the following discussion will list other applications, some or all applications may be combined with one or more applications. For example, the electronic device 120 and the wearable device 140 may be implemented using any one or more of the following technologies: an automatic speech recognition (ASR) application, a chat application, a map application, a media application (e.g., QuickTime, MobileMusic.app, , Etc.), social network applications (e.g., Facebook®, Twitter®, etc.), Internet search applications, and the like. In one embodiment, the electronic device 120 and the wearable device 140 may include one or more applications that may be utilized to perform communications operations. For example, the electronic device 120 and the wearable device 140 may be implemented as a messaging application, a mail application, a voice mail application, an instant messaging application (e.g., for a chat), a video conferencing application, Lt; RTI ID = 0.0 > applications. ≪ / RTI >

일 실시 예에서, 전자 장치(120) 및 웨어러블 장치(140)은 마이크(122)를 포함 할 수 있다. 예를 들어, 통신 동작 중 또는 통신 동작을 설정하는 방편으로 또는 물리적 사용자 인터페이스를 사용하기 위한 대안으로서, 사용자가 음성 제어 및 어플리케이션 1-N 127의 탐색을 위해 오디오(예를 들어, 음성 오디오)를 전송할 수 있게 하기 위해 전자 장치(120) 및 웨어러블 장치(140)는 마이크(122)를 포함할 수 있다. 또한 마이크(122)는 전자 장치(120) 및 웨어러블 장치(140)에 결합될 수 있고, 전자 장치(120) 및 웨어러블 장치(140)과 원격으로도 연결될 수 있다. 예를 들어, 마이크(122)는 유선 헤드폰들과 결합될 수 있고, 마이크(122)는 무선 헤드셋과 결합될 수 있고, 마이크(122)는 원격 통제 장치 등과 결합이 될 수 있다.      In one embodiment, the electronic device 120 and the wearable device 140 may include a microphone 122. As an alternative, for example, during a communication operation or as a means of establishing a communication operation or using a physical user interface, a user may select audio (e.g., voice audio) for voice control and navigation of applications 1-N 127 The electronic device 120 and the wearable device 140 may include a microphone 122 to enable transmission. The microphone 122 may also be coupled to the electronic device 120 and the wearable device 140 and to the electronic device 120 and the wearable device 140 remotely. For example, the microphone 122 may be coupled to wired headphones, the microphone 122 may be coupled to a wireless headset, and the microphone 122 may be coupled to a remote control device or the like.

일 실시예에서, 카메라 모듈(128)은, 정지 및 비디오 이미지들을 캡쳐하기 위한 기능, 편집 기능, 사진들/비디오들 등의 송신, 공유 등을 위한 통신 상호운용성(interopertabililty)을 구성하는 하나 이상의 카메라 장치를 포함할 수 있다.      In one embodiment, the camera module 128 may include one or more cameras (e.g., cameras) that configure interopertabililty for transmission, sharing, and the like, for stopping and capturing video images, editing functions, Device.

일 실시예에서, Bluetooth® 모듈(129)는 프로세스들 및/또는 Bluetooth® 정보를 처리하는 프로그램을 포함하고, 수신기, 전송기, 트랜시버 등을 구성할 수 있다.      In one embodiment, the Bluetooth (R) module 129 includes a program for processing processes and / or Bluetooth (R) information and may configure a receiver, transmitter, transceiver, and the like.

일 실시예에서, 전자 장치(120) 및 웨어러블 장치(140)는, 예를 들어 가속도계, 자이로스코프, 마이크, 온도, 빛, 기압계, 자력계, 컴퍼스, 무선 주파수(RF) 인식 센서 등과 같은 복수의 센서들 1 to N 131를 포함할 수 있다. 일 실시예에서, 복수의 센서들 1 to N 131은 사용자 모듈 132에 정보를 제공한다.      In one embodiment, the electronic device 120 and the wearable device 140 may include a plurality of sensors, such as, for example, an accelerometer, gyroscope, microphone, temperature, light, barometer, magnetometer, compass, Lt; RTI ID = 0.0 > 1 < / RTI > In one embodiment, the plurality of sensors 1 to N 131 provide information to the user module 132.

일 실시예에서, 전자 장치(120) 및 웨어러블 장치(140)는, 통신 동작을 수행하기에 적합한 다른 구성요소를 포함할 수 있다. 예를 들어, 전자 장치(120) 및 웨어러블 장치(140)는, 전력 공급, 포트들 또는 호스트 장치에 연결된 인터페이스들, 부수적 입력 메커니즘(예를 들어, ON/OFF 스위치) 또는 다른 적합한 구성요소를 포함할 수 있다.      In one embodiment, the electronic device 120 and the wearable device 140 may include other components suitable for performing communication operations. For example, electronic device 120 and wearable device 140 may include a power supply, interfaces to ports or host devices, ancillary input mechanisms (e.g., ON / OFF switches), or other suitable components can do.

도 3은 일 실시예에 따른, 예시적인 시스템(300)을 도시한다. 일 실시예에서, 블록(310)은 수집된 데이터를 수집하고 이해하는 것을 보여준다. 블록(320)은 전자 장치(120)(도 2) 및 웨어러블 장치(140)과 같은 전자 장치들에 데이터(예를 들어, 라이프 데이터)가 제시되는 것을 보여준다. 블록(330)은, 수집된 데이터를 라이프허브에 보관하는 것을 보여준다(즉, 클라우드 기반 시스템/서버, 네트워크, 저장 장치 등). 일 실시예에서, 시스템(300)은 어떻게 사용자의 데이터(예를 들어, 라이프 데이터)가 시스템(300)을 통해 진행되는지, 세 가지 관점 즉, 블록 310에서의 수집 및 이해, 블록 320에서의 제시, 그리고 블록 330에서의 보관을 통한 처리과정의 개요를 보여준다.       FIG. 3 illustrates an exemplary system 300, in accordance with one embodiment. In one embodiment, block 310 shows collecting and understanding the collected data. Block 320 shows data (e.g., life data) being presented to electronic devices such as electronic device 120 (FIG. 2) and wearable device 140. Block 330 shows storing collected data in a life hub (i.e., a cloud-based system / server, network, storage device, etc.). In one embodiment, the system 300 is configured to determine how the user's data (e.g., life data) proceeds through the system 300, in three aspects, namely, the collection and understanding at block 310, , And a storage process at block 330.

블록 310에서, 수집 및 이해 프로세스는 사용자 활동, 사용자 장치(들)(예를 들어, 전자 장치(120), 및/또는 웨어러블 장치(140))로부터의 제3자 서비스 정보 및 사용자의 장치 환경(ecosystem)내 다른 장치들로부터 데이터(예를 들어, 라이프 데이터)를 모은다. 일 실시예에서, 전자 장치(120) 및/또는 웨어러블 장치(140)의 활동 모듈(132)(도 2)에서 데이터가 수집될 수 있다. 서비스 활동 정보는, 사용자가 무엇을 보고, 읽고, 검색하고, 시청하는지 등에 관한 정보를 포함 할 수 있다. 예를 들어, 사용자가 여행 서비스(예를 들어, 여행 가이드 서비스/어플리케이션, 여행 추천 서비스, 어플리케이션 등)를 이용한다면, 서비스 활동 정보는 둘러본 호텔들/모텔들, 리뷰한 도시들, 항공편들, 날짜들, 자동차 렌탈 정보 등, 읽은 리뷰들, 입력한 검색 기준(예를 들어, 가격, 평점, 날짜 등), 남긴 코멘트들, 매긴 평점들 등을 포함할 수 있다. 일 실시예에서, 수집 및 분석은 이동형 장치(예를 들어, 전자 장치(120), 웨어러블 장치(140) 등)내의 사용자 페이싱 터치포인트(facing touchpoint)에 의해 관리될 수 있다. 일 실시예에서, 관리는 아래에 설명된 서비스 통합 및 장치 통합을 구성할 수 있다.      At block 310, the gathering and understanding process may include providing third party service information from user activity, user device (s) (e.g., electronic device 120, and / or wearable device 140) (e. g., life data) from other devices in the ecosystem. In one embodiment, data may be collected in the electronic device 120 and / or the activity module 132 (FIG. 2) of the wearable device 140. The service activity information may include information about what the user is viewing, reading, searching, and viewing. For example, if a user uses a travel service (for example, a travel guide service / application, a travel recommendation service, an application, etc.), the service activity information may include information about hotels / motels, Dates, car rental information, read reviews, entered search criteria (e.g., price, rating, date, etc.), comments left over, pricing scores, and the like. In one embodiment, the collection and analysis can be managed by user facing touchpoints in a mobile device (e.g., electronic device 120, wearable device 140, etc.). In one embodiment, management can configure the service integration and device integration described below.

일 실시예에서, 시스템(300)내의 프로세스는 웨어러블 장치들(예를 들어 웨어러블 장치(140)) 또는 이동형 장치들(예를 들어, 전자 장치(120))을 통해 사용자에게 적절한 데이터(예를 들어, 라이프 데이터)를 지능적으로 전달할 수 있다. 이러한 장치들은 다른 장치들과 함께 장치 환경(ecosystem)을 구성한다. 블록(320)에서의 프레젠테이션은 슬라이드들, 카드들, 데이터 또는 컨텐트 시간 기초 요소들, 개체들 등의 형태로서의 그래픽, 문자, 소리, 스피치, 진동, 빛 등을 통하여 다뤄 질 수 있는 통지들, 제안들, 이벤트들, 통신 등의 형태로 수행될 수 있다. 프레젠테이션 형태를 구성하는 데이터는 예를 들어, Bluetooth®, NFC(Near Field Communications), WiFi, 휴대폰, 광대역 등의 통신 인터페이스들의 다양한 방법들을 통해 전달될 수 있다.      In one embodiment, a process in system 300 may provide the user with appropriate data (e. G., Via electronic device 120) via wearable devices (e. G., Wearable device 140) or mobile devices , Life data) can be transmitted intelligently. These devices together with other devices constitute a device environment (ecosystem). The presentation at block 320 may include notifications that may be handled through graphics, text, sound, speech, vibration, light, etc. in the form of slides, cards, data or content time base elements, Events, communications, and the like. Data constituting the presentation form can be communicated through a variety of methods of communication interfaces, such as, for example, Bluetooth (R), Near Field Communications (NFC), WiFi, cellular,

일 실시예에서, 블록 330내의 보관 프로세스는 사용자에게 제시되고 사용자와 상호 작용을 하는 데이터와 제3자 및 사용자 활동들로부터의 데이터를 활용할 수 있다. 일 실시예에서, 프로세스는 데이터를 편집하고 처리할 수 있고, 그 뒤 타임라인 레프레젠테이션(representation)(블록(330)에 도시)에 대시보드를 만들거나 사용자에게 그들의 활동들을 볼 수 있게 해주는 관심 집중 대시보드들을 만들 수 있다. 데이터는 클라우드/서버(150), 전자 장치(120) (및/또는 웨어러블 장치(140)) 또는 임의의 조합으로 보관/저장될 수 있다.      In one embodiment, the archiving process in block 330 may utilize data from third parties and user activities that are presented to the user and interact with the user. In one embodiment, the process can edit and process the data and then create a dashboard in a timeline presentation (shown at block 330) You can create dashboards. The data may be stored / stored in the cloud / server 150, the electronic device 120 (and / or the wearable device 140) or any combination thereof.

도 4는 일 실시예에 따른 데이터를 보관소에 조직해 넣는(400)의 예시를 도시한다. 일 실시예에서, 보관된 타임라인 포맷(420)으로의 데이터 처리는 클라우드(150)내에서, 그리고 전자 장치(120) 및 웨어러블 장치(140)를 벗어나서 일어날 수 있다. 선택적으로, 전자 장치(120)는 데이터를 처리하고 보관소를 생성하거나 전자 장치(120), 웨어러블 장치(140) 및 클라우드(150) 중 하나 이상의 임의의 조합이 데이터를 처리하고 보관소를 생성할 수 있다. 도시된 바와 같이, 데이터는 활동 서비스(410), 전자 장치(120)(예를 들어, 데이터, 컨텐트, 센서 데이터 등) 및 웨어러블 장치(140)(예를 들어, 데이터 컨텐트, 센서 데이터 등)으로부터 수집될 수 있다.      FIG. 4 illustrates an example of organizing 400 data in a repository according to one embodiment. In one embodiment, data processing into the archived timeline format 420 may occur within the cloud 150 and out of the electronic device 120 and the wearable device 140. Optionally, the electronic device 120 may process data and create a repository or any combination of one or more of the electronic device 120, the wearable device 140, and the cloud 150 may process the data and create a repository . As shown, the data may be retrieved from the active service 410, the electronic device 120 (e.g., data, content, sensor data, etc.) and the wearable device 140 (e.g., data content, sensor data, etc.) Can be collected.

도 5는 일 실시예에 따른 예시적인 타임라인 뷰(450) 를 도시한다. 일 실시예에 따르면, 타임라인 뷰(450)은 예시 저널(journal) 또는 아카이브(archive) 타임라인 뷰를 포함한다. 사용자의 저장된 일별 활동은 타임라인(420)상에서 조직될 수 있다. 위에서 설명한 바와 같이, 사용자 라이프 데이터에 대한 통합된 뷰를 제공하는 저장소는 사용자가 실제로 상호작용해온 활동들 또는 장소들로 채워진다. 일 실시예에서, 타임라인(420) 위에 위치한 액션 바(action bar)는, 아래에서 설명 될 홈(home)/타임라인 뷰 또는 구체적 관심 뷰로의 탐색을 제공한다.      FIG. 5 illustrates an exemplary timeline view 450 in accordance with one embodiment. According to one embodiment, the timeline view 450 includes an illustrative journal or archive timeline view. The user ' s stored daily activities may be organized on the timeline 420. As described above, a repository that provides an integrated view of user life data is populated with activities or places that the user has actually interacted with. In one embodiment, an action bar located above the timeline 420 provides navigation to a home / timeline view or a specific interest view, which will be described below.

일 실시예에서, 헤더(header)는, 보여지고 있는 현재 날짜를 가리키고, 사용자에 의해 캡쳐되거나, 또는 사용자 활동 또는 위치에 기초하여 제3자로부터 제공받은 이미지를 구성한다. 일 실시예에서, 컨텍스트는 모드(예를 들어, 걷기)이다. 일 실시예에서, "지금(now)", 또는 로그된(logged) 현재 라이프 이벤트들은 이벤트 제목, 진전 및 소비되거나 캡쳐된 미디어와 같은 추가 정보를 디스플레이하기 위해 확장될 수 있다. 뷰(450)에서 볼 수 있듯이, 일 실시예에서 사용자는 도시를 걸어 다니고 있다.      In one embodiment, the header points to the current date being viewed and is captured by the user, or constitutes the image provided by the third party based on user activity or location. In one embodiment, the context is a mode (e.g., walking). In one embodiment, " now "or logged current life events may be extended to display additional information such as event title, progress and consumed or captured media. As can be seen in view 450, in one embodiment, the user is walking around the city.

일 실시예에서, 과거 이벤트들은 현재 날짜로부터 로그된 이벤트들을 포함한다. 일 실시예에서, 뷰(450)에서 볼 수 있듯이, 사용자는 Ritz Carlton에 있는 동안 2개의 이벤트들과 상호작용한다. 이벤트들 중 어느 하나는 더 구체적인 정보를 보기 위해 선택되고 확장될 수 있다(아래 설명됨). 선택적으로, 장소와 같은 다른 컨텍스트가 사용될 수 있다. 일 실시예에서, 웨어러블 장치(140) 성취 이벤트들은 타임라인에 다른 아이콘 및 부호로 강조되었다. 일 실시예에서, 사용자는 타임라인(420) 정보를 위해 라이프 이벤트들의 이전 날짜로 계속 스크롤을 내릴 수 있다. 선택적으로, 타임라인(420)의 맨 아래에 도달하면, 더 많은 컨텐트가 자동적으로 뷰(450)에 로딩되어 계속 볼 수 있게 해 준다.      In one embodiment, past events include logged events from the current date. In one embodiment, as shown in view 450, the user interacts with two events while in the Ritz Carlton. Either of the events may be selected and expanded to view more specific information (described below). Optionally, other contexts such as a location may be used. In one embodiment, the wearable device 140 achievement events are highlighted with different icons and symbols in the timeline. In one embodiment, the user may continue to scroll to the previous date of the life events for timeline 420 information. Optionally, when the bottom of the timeline 420 is reached, more content is automatically loaded into the view 450 and kept visible.

도 6은 일 실시예에 따른, 제스처 탐색에 관한 예시적인 명령(600)을 도시한다. 도시된 바와 같이, 예시 타임라인(620)의 사용자 페이싱 터치포인트는 사용자로부터 제스처 입력(610) 해석을 통해 탐색될 수 있다. 일 실시예에서, 이러한 입력들은 스크롤링, 관심 영역들간 이동, 확장 등으로 해석 될 수 있다. 일 실시예에서, 복수의 손가락들을 사용하는 핀치 인 또는 아웃과 같은 제스처들은 카테고리 레이어들을 교차하는 탐색을 제공할 수 있다. 일 실시예에서, 일간 디스플레이 화면에서의 핀치(finch) 제스처는 주간 뷰로 변환될 수 있고, 월간 뷰 등으로도 다시 변환될 수 있다. 유사하게, 반대 모션(예를 들어, 줌인을 위한 복수의 손가락 제스처)은 주간 뷰, 월간 뷰 등으로부터 줌인 될 수 있다.      FIG. 6 illustrates an exemplary instruction 600 for gesture search, according to one embodiment. As shown, the user-paced touch point of the example timeline 620 may be searched through the gesture input 610 interpretation from the user. In one embodiment, these inputs may be interpreted as scrolling, movement between regions of interest, expansion, and so on. In one embodiment, gestures such as pinch-in or out using a plurality of fingers can provide a search that crosses category layers. In one embodiment, the finch gesture in the daily display screen can be converted to a weekly view, and can be converted back to a monthly view or the like. Similarly, opposite motions (e.g., multiple finger gestures for zooming in) can be zoomed in from weekly views, monthly views, and the like.

도 7a-d는 일 실시예에서, 타임라인 GUI상에서 이벤트들을 확장(예를 들어, 슬라이드들/시간 기초 구성요소들)하기 위한 710, 711, 712 및 713 각각에 대한 예시들을 도시한다. 일 실시예에서, 710-713 예시들은 보관된 타임라인 상에서의 이벤트들에 대한 디테일들이 어떻게 도시될 수 있는지 보여준다. 일 실시예에서, 이러한 확장들은 기록되고 분석된 센서 데이터, 어플리케이션들/서비스/컨텐트 제안 등과 같은 이벤트와 관련된 추가적 디테일들 보여줄 수 있다. 인식된 입력(예를 들어, 잠깐의 힘, 탭 터치 등)을 수신하거나 타임라인상에서 라이프데이터 이벤트에 관한 사용자 페이싱 터치포인트를 활성화함으로써 이벤트를 확장시켜 자세한 컨텐트를 볼 수 있게 할 수 있다. 일 실시예에서, 예시(710)은 수신 받은 입력 또는 "좋은 아침(good morning)" 이벤트에 대한 활성화 명령을 인식한 결과를 보여준다. 예시(711)에서 좋은 아침 이벤트는 확장된 뷰에서 보여진다. 예시(712)에서 타임라인은 인식된 입력 또는 활성화 명령을 통해 스크롤 다운되고, 수신한 인식된 입력 또는 터치포인트 활성화를 통해 또 다른 이벤트가 확장된다. 예시(713)에서 확장된 이벤트가 디스플레이 된다.      7A-D illustrate examples for 710, 711, 712, and 713, respectively, for extending events (e.g., slides / time based components) on a timeline GUI, in one embodiment. In one embodiment, examples 710-713 show how details for events on the archived timeline can be shown. In one embodiment, these extensions may show additional details related to events such as recorded and analyzed sensor data, applications / services / content suggestions, and the like. The user can extend the event to view detailed content by receiving a recognized input (e.g., a momentary force, tapping touch, etc.) or activating a user-paced touchpoint on the life data event on the timeline. In one embodiment, example 710 shows the result of recognizing an activation command for a received input or "good morning" event. In example 711 a good morning event is shown in the expanded view. At example 712, the timeline is scrolled down through the recognized input or activation command and another event is expanded through the received recognized input or touch point activation. In the example 713, the extended event is displayed.

도 8은 일 실시예에 따른 플래깅(flagging) 이벤트들에 관한 예시(800)를 도시한다. 일 실시예에서, 웨어러블 장치(140)(도 2)은 사용자 액션들 및 제스처들(예를 들어, 밴드를 스퀴즈하는 것)을 미리 결정할 수 있는데, 사용자 입력 액션들 및 제스처들은 수신되어 사용자 플래깅 이벤트에 등록 될 수 있다. 예를 들어, 사용자는 플래깅을 개시할 수 있도록 웨어러블 장치(140)를 스퀴즈(810) 할 수 있다. 일 실시예에서, 플래깅은 다양한 데이터 포인트들을 장소들, 사진들 또는 다른 이미지들, 주변에 있는 친구들 또는 가족, 동일 장소에서 발행한 추가적 이벤트들과 같은 단일 이벤트(820)로 캡쳐한다. 시스템(300)은 활동 중에 찍힌 사진들, 활동 데이터(소비한 시간, 여행한 거리, 걸음 수, 등), 활동 장소 등과 같은 컨텍스트 관계를 통해 데이터 포인트들이 이벤트로 통합될 수 있도록 결정할 수 있다. 일 실시예에서, 플래그 된 이벤트들은 타임라인(420)(도 4)에 보관될 수 있고 하이라이트 된 이벤트들(830)(예를 들어, 특정한 색, 기호, 아이콘, 움직이는 기호/색/아이콘 등을 통해)으로 나타난다.      FIG. 8 illustrates an example 800 of flagging events in accordance with one embodiment. In one embodiment, wearable device 140 (FIG. 2) may predetermine user actions and gestures (e.g., squeezing bands), wherein user input actions and gestures are received and flagged by user Can be registered in the event. For example, the user may squeeze 810 the wearable device 140 to initiate flagging. In one embodiment, flagging captures the various data points into a single event 820, such as places, pictures or other images, friends or family in the vicinity, and additional events issued at the same location. System 300 can determine that data points can be incorporated into events through contextual relationships such as photos taken during the activity, activity data (time spent, distance traveled, number of steps, etc.), activity locations, In one embodiment, the flagged events may be stored in the timeline 420 (FIG. 4) and highlighted events 830 (e.g., specific colors, symbols, icons, moving symbols / colors / ).

도 9는 일 실시예에 따른, 대시보드 디테일 뷰들에 관한 예시(900)를 도시한다. 일 실시예에서, 예시들(910, 911 및 912)는 타임라인(420)(도 4) GUI를 통해 사용자에 의해 탐색 가능한 대시보드의 예시 디테일 뷰들을 보여준다. 대시보드 디테일 뷰는 사용자들이 특정한 관심사에 대한 종합된 정보를 볼 수 있게 해준다. 일 실시예에서, 적합한 아이콘, 링크, 기호 등을 선택함으로써 특정한 관심사가 타임라인(420)상의 사용자 인터페이스로부터 선택될 수 있다. 일 실시예에서, 관심사는 재정, 건강, 이동등을 포함할 수 있다. 사용자는 예시 뷰(910)에 도시된 바와 같이 재정 기호 또는 아이콘을 선택할 수 있다. 일 실시예에서, 다양한 시간대별로 예산을 맞춤화될 수 있다(예를 들어, 일간, 주간, 월간, 맞춤 시간대 등). 일 실시예에서, 대시보드는 그래픽 브레이크다운(breakdown) 또는 지출 내역 또는 재정과 관련된 다른 토픽을 보여줄 수 있다.      FIG. 9 illustrates an example 900 of dashboard detail views, according to one embodiment. In one embodiment, examples 910, 911, and 912 illustrate example detail views of a dashboard that can be navigated by a user through the timeline 420 (FIG. 4) GUI. The Dashboard Detail view allows users to view aggregated information about a particular concern. In one embodiment, a particular interest may be selected from the user interface on the timeline 420 by selecting an appropriate icon, link, symbol, or the like. In one embodiment, concerns may include financial, health, mobility, and the like. The user may select a financial symbol or icon as shown in the example view 910. [ In one embodiment, budgets may be tailored for different time periods (e.g., day, week, month, custom time, etc.). In one embodiment, the dashboard may show graphical breakdowns or other topics related to expenditure history or finances.

일 실시예에서, 예시적인 뷰(912)에서의 건강 대시보드는 사용자가 선택한 건강 아이콘 또는 기호에 기초하여 도시된다. 일 실시예에서, 건강 뷰는 수행된 활동들의 디테일, 다양한 활동들(예를 들어, 걸음수, 이동한 거리, 소요된 시간, 소모한 칼로리, 등)의 척도, 목표를 향한 사용자의 진행도 등을 구성할 수 있다. 다른 실시 예들에서는, 사용자가 방문했었던 가까운 또는 먼 거리 등의 장소들을 보여줄 수 있는 이동 아이콘 또는 기호에 기초하여 이동 디테일이 디스플레이 될 수 있다. 일 실시예에서, 관심 카테고리들은 늘어나거나 맞춤화될 수 있다. 예를 들어, 관심 카테고리들이 등산, 골프, 탐사, 스포츠, 취미 등의 구체적 관심으로 적용됨으로써 관심 카테고리들은 한층 더 나아간 단계로 잘게 쪼개져 디스플레이 또는 구체화 된 데이터를 포함할 수 있다.      In one embodiment, the health dashboard in the exemplary view 912 is shown based on a health icon or symbol selected by the user. In one embodiment, the health view includes details of performed activities, a measure of various activities (e.g., number of steps, distance traveled, time spent, calories consumed, etc.) . ≪ / RTI > In other embodiments, the movement detail may be displayed based on a movement icon or symbol that can show places such as near or far distances that the user has visited. In one embodiment, the categories of interest may be stretched or customized. For example, interest categories may be applied to specific interests such as climbing, golf, exploration, sports, hobbies, etc., so that interest categories may be broken up into further steps to include display or materialized data.

도 10은 일 실시예에 따른, 서비스 및 장치 관리에 대한 예시(1000)을 도시한다. 이 문서 뒤에서 설명되었듯이, 일 실시예에서, 사용자 페이싱 터치포인트는 서비스 및 장치들의 관리를 제공한다. 일 실시예에서, 예시 타임라인(1010)상에서 사이드 바(side bar) 아이콘 또는 기호를 선택면 관리 뷰(1011)은 사용자에 의해 관리 될 수 있는 다른 서비스들과 장치들을 열어 보여준다.      10 illustrates an example 1000 of service and device management, in accordance with one embodiment. As described later in this document, in one embodiment, the user-facing touch point provides for the management of services and devices. In one embodiment, a sidebar icon or symbol on the example timeline 1010 is displayed. Option management view 1011 opens and displays other services and devices that can be managed by the user.

도 11A-D는 일 실시예에 따른, 어플리케이션/서비스 디스커버리(discovery)에 대한 서비스 관리의 예시 뷰들(1110, 1120, 1130 및 1140)을 도시한다. 도시된 예시들은 관련된 어플리케이션들과 서비스들의 디스커버리를 가능케하는 전형적인 실시 예들을 설명한다. 일 실시예에서, 타임라인(420)(도 4) GUI는, 위에서 설명한 가상의 대시보드 스트림들과 결합될 서비스들에 대한 추천을 디스플레이 할 수 있다. 추천은 복수의 카테고리로 분리될 수 있다. 일 실시예에서, 하나의 카테고리는 컨텍스트에 기초한 개인적 추천일 수 있다(예를 들어, 사용자 활동, 기존의 어플리케이션들/서비스들, 장소 등). 또 다른 예시에서, 스트림들에 추가된 카테고리는 가장 인기 있는 어플리케이션들/서비스들이 될 수 있다. 그러나 또 다른 예시에서, 세 번째 카테고리는 새로운 주목할만한 어플리케이션들/서비스들을 포함할 수 있다. 이러한 카테고리들은, 타임라인, 좌표 뷰, 리스트 뷰 등에서 어플리케이션/서비스가 디스플레이 될 방법과 유사한 예시 포맷을 포함하는 다양한 형태들로 어플리케이션을 디스플레이 할 수 있다.      11A-D illustrate exemplary views 1110, 1120, 1130, and 1140 of service management for application / service discovery, in accordance with one embodiment. The illustrated examples illustrate exemplary embodiments that enable discovery of related applications and services. In one embodiment, the timeline 420 (FIG. 4) GUI may display recommendations for services to be combined with the virtual dashboard streams described above. Recommendations can be broken down into multiple categories. In one embodiment, one category may be a personal recommendation based on context (e.g., user activity, existing applications / services, location, etc.). In another example, the categories added to the streams may be the most popular applications / services. In yet another example, the third category may include new noteworthy applications / services. These categories can display the application in various forms including an example format similar to how the application / service will be displayed in the timeline, coordinate view, list view, and so on.

일 실시예에서, 카테고리를 선택하는데 있어 서비스 또는 어플리케이션은 서비스 또는 어플리케이션에 대한 추가 정보와 함께 프리뷰 디테일들을 디스플레이할 수 있다. 일 실시예에서, 만약 어플리케이션 또는 서비스가 이미 설치되어(installed) 있다면, 서비스 관리는 어플리케이션을 가상의 대시보드들과 결합할 수 있다. 일 실시예에서, 예시(1110)은 드로워(drawer)를 열기 위해 타임라인(420) 스페이스 GUI상에서 사용자가 드로워를 터치하는 것을 보여준다. 일 실시예에서, 하나의 섹션은 사용자가 디스커버(Discover), 디스커버 관리자 등과 같은 액션들에 엑세스하는 것에 대비한다. 일 실시예에서, "디스커버"를 탭(tapping)하면 사용자는 새로운 스크린으로 이동하게 된다(예를 들어, 예시 1110에서 예시 1120으로 이동).      In one embodiment, in selecting a category, a service or application may display preview details with additional information about the service or application. In one embodiment, if an application or service is already installed, service management may combine the application with virtual dashboards. In one embodiment, an example 1110 shows a user touching a draw on a timeline 420 space GUI to open a drawer. In one embodiment, one section is prepared for the user to access actions such as Discover, Discover Manager, and the like. In one embodiment, tapping the "cover" causes the user to move to a new screen (e.g., move from the example 1110 to the example 1120).

일 실시예에서, 예시(1120)은, For You, Popular및 What's New와 같은 복수의 카테고리들에 의해 분류 될 수 있는 스트림들에 관한 추천을 포함하는"디스커버"스크린을 보여준다. 일 실시예에서, 사용자들에게 스트림들을 "참고"할 수 있게 해주는 앱스(Apps) 아이콘들/기호들은 저니(journey) 뷰와 유사하게 구성된다. 일 실시예에서, 사용자들은 스트림을 추가하기 위해 오른쪽에 있는"추가하기(Add)"버튼을 탭 할 수 있다. 예시에 나타난 바와 같이, 카테고리들은 위에서 제공된 예시들과 유사한 사용자와 관련 있을 수 있다.      In one embodiment, example 1120 shows a "Discover" screen that includes recommendations for streams that can be classified by a plurality of categories, such as For You, Popular, and What's New. In one embodiment, the Apps icons / symbols that allow users to "see " streams are configured similar to the journey view. In one embodiment, users may tap the "Add" button on the right to add a stream. As shown in the example, the categories may be related to users similar to the examples provided above.

일 실시예에서, 예시(1120)은 직접 탭(tab)으로 이동하거나 탭(tab)들 하나씩 스와이프(swipe) 하기 위해 사용자가 탭(tab)을 탭(tap) 할 수 있는 것을 보여준다. 위에서 설명되었듯이, 카테고리들은 어플리케이션을 다양한 형태로 디스플레이 할 수 있다. 예시(1130)에서, 인기(Popular) 탭은 좌표 포맷 상에 이용 가능한 스트림들을 디스플레이하고, 아이콘 또는 기호가 탭 되었을 때 프리뷰를 제공한다. 예시(1140)에서, What's New 탭은, 짧은 설명과 "추가하기" 버튼을 동반한 각각의 목록 아이템과 함께, 목록 형태로 이용 가능한 서비스들 또는 어플리케이션들을 디스플레이해준다.      In one embodiment, the example 1120 shows that a user can tap a tab to move directly to a tab or to swipe one tab at a time. As described above, categories can display applications in various forms. At example 1130, the Popular tab displays the available streams on a coordinate format and provides a preview when the icon or symbol is tapped. At example 1140, the What's New tab displays a list of available services or applications, along with a short description and respective list items accompanied by a "Add" button.

도 12A-D는 일 실시예에 따른, 어플리케이션/서비스 스트림들에 관한 서비스 관리 예시들(1210, 1220, 1230 및 1240)을 도시한다. 일 실시예에서, 예시들(1210-1240)은 사용자들이 가상의 대시보드 또는 스트림들을 편집할 수 있다는 것을 보여준다. 사용자 페이싱 터치포인트는 가상의 대시보드를 통해 보여지는 어플리케이션들을 활성화 또는 비활성화할지의 옵션을 사용자에게 제공할 수 있다. 터치포인트는 또한 가상의 대시보드 및 장치 환경(ecosystem)내에서의 연관된 장치(예를 들어, 전자 장치(120), 웨어러블 장치(140) 등)상에서 어플리케이션이 어떤 디테일들을 보여줄지 사용자가 선택할 수 있게 해준다.      12A-D illustrate service management examples 1210, 1220, 1230, and 1240 for application / service streams, according to one embodiment. In one embodiment, examples 1210-1240 show that users can edit virtual dashboards or streams. The user-facing touch point may provide the user with the option of enabling or disabling applications viewed through the virtual dashboard. The touch point also allows the user to select which details the application will show on the associated device (e.g., electronic device 120, wearable device 140, etc.) within the virtual dashboard and device environment .

일 실시예에서, 예시(1210)에서 수신 및 인식된 입력 또는 드로워(drawer) 아이콘상에서의 활성화는 수신 및 인식된다. 선택적으로, 드로워 아이콘은 옵션 메뉴를 불러오는 전폭(full-width) 툴바(tool bar)일 수 있다. 예시(1220)에서, 옵션 메뉴는 예를 들어, Edit My stream, Edit My Interests 등과 함께 디스플레이 될 수 있다. 일 실시예에서, 예시(1220)의 Edit My Stream은 수신 및 인식된 액션(예를 들어, 터치포인트 상에서의 일시적 힘, 수신 및 인식된 사용자 입력 등)에 기초하여 선택된다. 예시(1230)(스트림들 스크린)에서 사용자는 스트림들을 편집하기 위한 선택 후에, 서비스들의 과거 목록을 제공받을 수 있다. 일 실시예에서, 사용자는 서비스를 켜거나 끄는 토글(toggle)하기 위해 스위치를 탭할 수 있다. 일 실시예에서, 이 레벨에서 제공되는 특징들/컨텐트는 미리 준비(pre-canned) 될 수 있다. 선택적으로, 목록 아이템에 관한 터치포인트상에서의 수신 및 인식된 입력, 명령 또는 활성화 지시를 수신했을 때 목록 아이템의 디테일들이 디스플레이 될 수 있다(예를 들어, 사용자가 터치포인트 상에서 탭한다). 일 실시예에서, 디스플레이된 아이템들은 각각의 디스플레이된 아이템이 목록(예를 들어 최우선순위 아이템)을 재배열하기 위해 "그랩(grabbed)"및 드래그(dragged) 될 수 있게 해주는 영역을 포함할 수 있다. 예시 1230에서, 그랩가능(grabbable) 영역은 각 아이템의 왼쪽에 위치한다.      In one embodiment, the activation on the input or drawer icon received and recognized in the example 1210 is received and recognized. Optionally, the drawer icon may be a full-width tool bar that loads an option menu. At example 1220, the options menu may be displayed with, for example, Edit My stream, Edit My Interests, and so on. In one embodiment, the Edit My Stream of example 1220 is selected based on received and recognized actions (e.g., temporal forces on the touch point, received and recognized user input, etc.). In example 1230 (streams screen), the user may be provided with a list of services after a selection to edit the streams. In one embodiment, the user may tap the switch to toggle the service on or off. In one embodiment, the features / content provided at this level may be pre-canned. Optionally, details of the list item may be displayed (e.g., the user taps on the touch point) upon receipt of the list item on the touch point and upon receipt of the recognized input, command or activation instruction. In one embodiment, the displayed items may include an area that allows each displayed item to be "grabbed" and dragged to rearrange a list (e.g., a top priority item) . In example 1230, the grabbable area is located to the left of each item.

일 실시예에서, 예시 뷰(1240)은 개개인 스트림의 디테일 뷰를 보여주고 사용자들이 그 스트림을 맞춤화할 수 있게 해준다. 일 실시예에서, 사용자들이 어떤 특징들/컨텐트를 보고 싶어하는지 및 어떤 장치(예를 들어, 전자 장치(120), 웨어러블 140, 도 2)에서 사용자들이 보고 싶어하는지 사용자가 선택할 수 있다. 일 실시예에서, 꺼질 수 없는 특징들/컨텐트는 디스플레이 되지만 동작할 수는 없다.      In one embodiment, example view 1240 shows a detail view of an individual stream and allows users to customize the stream. In one embodiment, the user can select which features / content he / she wants to see and which users want to view in some device (e.g., electronic device 120, wearable 140, FIG. 2). In one embodiment, features / content that can not be turned off are displayed but can not operate.

도면 13A-D는 일 실시예에 따른, 어플리케이션/서비스 사용자 관심들에 관한 서비스 관리의 예시들(1310, 1320, 1330 및 1340)을 보여준다. 하나 이상의 실시 예들은, 타임라인(420)(도 4)상에서의 사용자 관심사에 대한 관리를 제공한다. 일 실시예에서, 사용자들은 목록 카테고리들을 더하고, 지우고, 재배열하고, 수정 등을 할 수 있다. 선택적으로, 사용자들은 또한 관심사의 시각적 대시보드들에 디스플레이 될 것을 맞춤화 할 수 있다(예를 들어, 디테일들과 함께 디스플레이 될 어플리케이션/서비스들). 추가적으로, 설명한 바와 같이 기술된 관리는 교정(calibration)을 위해 사용자 피드백의 일부분을 포함할 수 있다.      13A-D illustrate examples of service management 1310, 1320, 1330, and 1340 for application / service user interests, in accordance with one embodiment. One or more embodiments provide for management of user interests on the timeline 420 (FIG. 4). In one embodiment, users can add, delete, rearrange, modify, etc. list categories. Optionally, users can also customize to be displayed on visual dashboards of interest (e.g., applications / services to be displayed with details). Additionally, the management described as described can include a portion of user feedback for calibration.

일 실시예에서, 예시 1310에서 수신 및 인식된 입력(예를 들어, 일시적 힘, 터치포인트 이동에 작용된 힘 등)은 드로워 아이콘 또는 부호(예를 들어, 수신된 탭 또는 직접적 스와이프)에 적용된다. 선택적으로, 전폭(full-width) 툴바내의 아이콘 또는 부호는 옵션 메뉴를 불러오기 위해 사용될 수 있다. 일 실시예로서, 예시(1320)에서 옵션 메뉴는 Edit My Streams, Edit My Interests 등과 함께 나타난다. 예시적인 일 실시예에서, 예시 1320에서 도시된 바대로 선택 "Edit My Interests" 옵션 메뉴는 수신 및 인식된 입력에 기초하여 선택된다. 일 실시예에서, 예시(1330)에서 관심 목록(이전에 사용자가 처음 이용할 때 선택된)을 포함하는 디스플레이가 나타난다. 일 실시예에서, 관심사는 수신 및 인식된 입력에 기초하여 재배열되고, 삭제되고, 더해질 수 있다. 일 실시예의 예시로서, 사용자는 선호도에 기초하여 관심사를 재배열 할 수 있고, 스와이프하여 관심사를 지울 수 있고, 관심사를 추가하기 위해 "+" 기호를 탭할 수 있다.      In one embodiment, the input (e.g., transient force, force applied to the touch point movement, etc.) received and recognized in the example 1310 is passed to a drawer icon or code (e.g., a received tap or a direct swipe) . Optionally, icons or symbols within the full-width toolbar may be used to invoke the options menu. As an example, in example 1320, the options menu appears with Edit My Streams, Edit My Interests, and so on. In an exemplary embodiment, the selection menu "Edit My Interests" as shown in example 1320 is selected based on the received and recognized input. In one embodiment, a display appears in an example 1330 that includes a list of interests (previously selected when the user first used it). In one embodiment, interests may be rearranged, deleted, and added based on the received and recognized input. As an example of an embodiment, the user can rearrange interests based on preferences, swipe to erase interests, and tap the "+" symbol to add interest.

일 실시예에서, 예시(1340)의 개개인 스트림의 디테일 뷰는 사용자에게 스트림을 맞춤화 할 수 있게 해준다. 일 실시예에서, 사용자는 어떤 장치(예를 들어, 전자 장치(120), 웨어러블 장치(140) 등)에서 사용자들이 보고 싶은 특징들/컨텐트를 선택할 수 있다. 일 실시예에서, 꺼질 수 없는 특징들/컨텐트는 디스플레이 되지만 동작할 수는 없다. 일 실시예에서, 셀렉터(selector)는 회색으로 바뀌거나 특징이 잠겼음을 지시하는 다른 비슷한 디스플레이들일 수 있다.      In one embodiment, the detail view of an individual stream of example 1340 allows the user to customize the stream. In one embodiment, a user may select features / content that the user would like to see in some device (e.g., electronic device 120, wearable device 140, etc.). In one embodiment, features / content that can not be turned off are displayed but can not operate. In one embodiment, the selector may be grayed or other similar displays indicating that the feature is locked.

도 14는 일 실시예에 따른 모드 감지에 관한 예시적인 개략도를 도시한다. 일 실시예에서, 개요는 사용자 모드 감지 시스템(1400)을 보여준다. 일 실시예에서, 시스템은(1400)은 웨어러블 장치(140)(예를 들어, 호스트 장치와 결합된 손목밴드, 예를 들어, 전자 장치(120))을 활용한다. 일 실시예에서, 웨어러블 장치(140)은 탑재된 센서 데이터(1440), 예를 들어, 가속도계, 자이로스코프, 자력계 등을 제공할 수 있다. 일 실시예에서, 데이터는 예를 들어, Bluetooth®, WiFi, NFC, 전화 등의 다양한 통신 인터페이스 방법들로부터 제공될 수 있다. 일 실시예에서, 전자 장치(120)은 웨어러블 장치(140) 데이터와 예를 들어, 시간, 장소(GPS, 전화 삼각 측량, 비콘들(beacons) 또는 다른 비슷한 방법들을 통해), 가속도계, 자이로스코프, 자력계 등의 웨어러블 장치 내부 센서들로부터의 데이터를 종합할 수 있다. 일 실시예에서, 분석될 위 종합된 데이터 모음(1430)은, 클라우드(150)내 컨텍스트 탐색 시스템(1410)에 제공될 수 있다.      14 illustrates an exemplary schematic for mode sensing in accordance with one embodiment. In one embodiment, the overview shows a user mode detection system 1400. In one embodiment, the system 1400 utilizes a wearable device 140 (e.g., a wristband associated with a host device, e.g., electronic device 120). In one embodiment, wearable device 140 may provide sensor data 1440 that is mounted, for example, an accelerometer, gyroscope, magnetometer, and the like. In one embodiment, the data may be provided from various communication interface methods, for example, Bluetooth, WiFi, NFC, telephone, and the like. In one embodiment, the electronic device 120 may include data from the wearable device 140 and, for example, time, location (via GPS, telephone triangulation, beacons or other similar methods), accelerometer, gyroscope, Data from the wearable device internal sensors such as a magnetometer can be synthesized. In one embodiment, the aggregated data set 1430 to be analyzed may be provided to the context search system 1410 in the cloud 150.

일 실시예에서, 컨텍스트 탐색 시스템(1410)은 클라우드(150) 또는 다른 네트워크 내에 위치할 수 있다. 일 실시예에서, 컨텍스트 탐색 시스템(1410)은 통신 인터페이스의 다양한 방법들을 통해 데이터(1430)을 수신할 수 있다. 일 실시예로서, 학습학습(learning) 데이터 세트(1420)과 함께, 또는 학습학습 데이터 세트(1420)으로부터의 데이터가 훈련(train) 된 이후에, 컨텍스트 탐색 시스템(1410)은 수신 받은 데이터를 분석하기 위한 컨텍스트 결정 엔진 알고리즘을 포함할 수 있다. 일 실시예 예시에서, 알고리즘은 사용자 피드백에 맞춤화될 수 있는 머신 학습 알고리즘일 수 있다. 일 실시예에서, 학습 데이터 세트(1420)은, 다양한 소스들로부터 쌓인 다양한 모드들에 관한 초기 일반 데이터를 구성할 수 있다. 새로운 데이터는, 더 나은 모드 결정을 위한 피드백 제공에 대응하여 학습 데이터 세트에 추가될 수 있다. 일 실시예에서, 이후 컨텍스트 탐색 시스템(1410)은, 사용자의 모드를 나타내는 분석된 데이터(1435)의 출력을 발생시킬 수 있고 이를 전자 장치(120)에 되돌려 줄 수 있다.      In one embodiment, the context search system 1410 may be located in the cloud 150 or other network. In one embodiment, the context search system 1410 may receive data 1430 through various methods of communication interfaces. In one embodiment, after the data from the learning learning data set 1420 or from the learning learning data set 1420 is trained, the context search system 1410 analyzes the received data Lt; RTI ID = 0.0 > and / or < / RTI > In one exemplary embodiment, the algorithm may be a machine learning algorithm that may be tailored to user feedback. In one embodiment, the training data set 1420 may constitute initial general data about the various modes stacked from various sources. The new data may be added to the learning data set in response to providing feedback for better mode determination. In one embodiment, the context search system 1410 may then generate an output of analyzed data 1435, which indicates the mode of the user, and return it to the electronic device 120.

일 실시예에서, 스마트 폰은 모드(1445)를 웨어러블 장치(140)에 다시 제공할 수 있거나, 결정된 모드(1445)를 라이프허브 어플리케이션(예를 들어, 활동 모듈(132), 도 2) 또는 라이프 로깅 어플리케이션(예를 들어, 조직 모듈(133))내에서 활용할 수 있거나 심지어 컨텍스트에 기초한 웨어러블 장치(140)에 푸시 된 메시지들을 스로틀(throttle) 하는데 사용할 수 있다. 예시적인 일 실시예에서, 만약 사용자가 운전, 자전거 타기와 같은 활동에 참여한다면, 전자 장치(120)은 모드(1445)를 수신할 수 있고 웨어러블 장치(140)에 보내지는 메시지들을 막거나, 사용자가 방해 받지 않도록 비방해(non-intrusive) 통보를 제공할 수 있다. 일 실시예에서, 이것은 지오펜싱(geofencing)과 같은 또 다른 방법에 의존하는 대신에 사용자 활동을 필수적으로 고려한다. 예시적인 일 실시예에서, 또 다른 예시는 사용자가 뛰고 있다고 감지되면 이동한 거리를 보여주는 자동적으로 활성화되는 보수계(pedometer) 모드를 포함한다.      In one embodiment, the smartphone may provide mode 1445 back to wearable device 140, or may return determined mode 1445 to the life hub application (e.g., activity module 132, FIG. 2) May be utilized within a logging application (e.g., organizational module 133) or may even be used to throttle messages pushed to wearable device 140 based on the context. In an exemplary embodiment, if the user participates in activities such as driving, cycling, the electronic device 120 can receive the mode 1445 and block messages sent to the wearable device 140, May provide non-intrusive notifications so that they are not interrupted. In one embodiment, this essentially considers user activity instead of relying on another method, such as geofencing. In an exemplary embodiment, another example includes a pedometer mode that is automatically activated to show the distance traveled when the user is detected as running.

도 15는 일 실시예에 따른 사용자 데이터를 종합/수집 및 디스플레이하는 예시 프로세스(1550)를 도시한다. 일 실시예에서, 프로세스(1500)는 블록 1501에서 시작한다(예를 들어, 자동으로, 수동으로 등). 블록 1510내의 활동 모듈(132)(도 2)은 제3자 서비스 데이터를 수신한다(예를 들어, 전자 장치(120), 및/또는 웨어러블 장치(140)으로부터). 블록 1530에서, 수집된 데이터는 사용자에게 디스플레이기 되기 위해 하나 이상의 연결된 장치들(예를 들어, 전자 장치(120), 및/또는 웨어러블 장치(140))에게 제공된다. 블록 1540에서 사용자 상호작용 데이터는 활동 모듈(132)에 의해 수신된다.      FIG. 15 illustrates an exemplary process 1550 for aggregating / collecting and displaying user data in accordance with one embodiment. In one embodiment, process 1500 begins at block 1501 (e.g., automatically, manually, etc.). The activity module 132 (Figure 2) in block 1510 receives (e.g., from the electronic device 120, and / or the wearable device 140) third party service data. At block 1530, the collected data is provided to one or more connected devices (e.g., electronic device 120, and / or wearable device 140) to be displayed to a user. At block 1540, the user interaction data is received by the activity module 132.

블록 1550에서 관련된 데이터는 식별되고 관심 카테고리들(예를 들어, 컨텍스트 탐색 시스템(1410), 도 14)과 연관된다. 블록 1560에서 관련 데이터는 이벤트들로 수집된다(예를 들어, 컨텍스트 탐색 시스템(1410) 또는 조직 모듈 133). 블록 1570에서 이벤트들의 가상의 대시보드가 생성되고 역시간순으로 배열된다(예를 들어, 조직 모듈 133에 의해). 블록 1580에서는 연관된 관련 데이터를 포함하는 이벤트들을 활용하여 관심 카테고리의 가상의 대시보드가 생성된다. 일 실시예에서, 블록 1590에서 하나 이상의 가상의 대시보드들은 타임라인(420)(도 4) GUI를 이용하여 디스플레이된다. 블록 1592에서 프로세스 1500은 종료된다.      At block 1550, the associated data is identified and associated with interest categories (e.g., context search system 1410, FIG. 14). At block 1560, the relevant data is collected into events (e.g., context search system 1410 or organizational module 133). At block 1570, a virtual dashboard of events is generated and arranged in reverse chronological order (e.g., by organizational module 133). At block 1580, a virtual dashboard of interest categories is generated utilizing events containing associated related data. In one embodiment, at block 1590, one or more virtual dashboards are displayed using the timeline 420 (FIG. 4) GUI. At block 1592, process 1500 ends.

도 16은 일 실시예에 따른, 전자 장치를 통한 서비스 관리에 관한 예시적인 프로세스를 도시한다. 일 실시예에서, 프로세스(1600)은 시작 블록 1601에서 시작된다. 블록 1610에서 프로세스(1600)이 어플리케이션들을 검색할지에 대해 결정한다. 프로세스(1600)이 어플리케이션들에 대해 검색하는 경우, 프로세스(1600)은 되는 블록 1611로 진행한다. 프로세스(1600)이 어플리케이션들을 검색하지 않는 경우, 프로세스(1600)은 대시보드 어플리케이션들을 편집할지 안할지가 결정되는 블록 1620으로 진행한다. 대시보드 어플리케이션들이 편집되기로 결정되는 경우, 프로세스(1600)은 연관된 어플리케이션들 및 현재 상태 디테일들의 목록이 디스플레이 되는 블록 1621로 진행한다. 대시보드 어플리케이션들을 편집하지 않기로 결정하는 경우, 프로세스(1600)은 관심 카테고리들을 편집할지 안할지가 결정되는 블록 1630으로 진행한다. 관심 카테고리들을 편집하지 않기로 결정한 경우, 프로세스(1600)은 블록 1641로 진행한다.      16 illustrates an exemplary process for service management over an electronic device, in accordance with one embodiment. In one embodiment, the process 1600 begins at a start block 1601. At block 1610, the process 1600 determines whether to search for applications. If process 1600 searches for applications, then process 1600 proceeds to block 1611. If process 1600 does not search for applications, process 1600 proceeds to block 1620 where it is determined whether to edit dashboard applications. If the dashboard applications are determined to be edited, the process 1600 proceeds to block 1621 where a list of associated applications and current state details is displayed. If it is determined not to edit the dashboard applications, the process 1600 proceeds to block 1630 where it is determined whether or not to edit the categories of interest. If it is determined not to edit the categories of interest, the process 1600 proceeds to block 1641.

블록 1611 이후, 프로세스(1600)은 하나 이상의 카테고리들의 사용자 컨텍스트에 기초한 제안들이 디스플레이 되는 블록 1612로 진행한다. 블록 1613에서 가상 대시보드와 연관된 하나 이상의 어플리케이션들에 대한 사용자 선택이 수신된다. 블록 1614에서 하나 이상의 어플리케이션들이 전자 장치(예를 들어, 전자 장치(120), 도 2)로 다운로드 된다. 블록 1615에서 다운로드 어플리케이션은 가상의 대시보드와 연관된다.      After block 1611, the process 1600 proceeds to block 1612 where suggestions based on the user context of one or more categories are displayed. At block 1613, a user selection for one or more applications associated with the virtual dashboard is received. At block 1614, one or more applications are downloaded to an electronic device (e.g., electronic device 120, FIG. 2). At block 1615, the download application is associated with a virtual dashboard.

블록 1622에서, 사용자 변경들이 수신된다. 블록 1623에서, 수신된 입력에 따른 연관된 어플리케이션들은 변경된다.       At block 1622, user changes are received. At block 1623, the associated applications according to the received input are changed.

관심 카테고리들을 편집하기로 결정한 경우면, 블록 1631에서 관심 카테고리들의 목록 및 카테고리 각각과 연관된 어플리케이션들이 디스플레이 된다. 블록 1632에서 카테고리들 및 연관된 어플리케이션들에 관한 사용자 변경이 수신된다. 블록 1633에서, 카테고리들 및/또는 연관된 어플리케이션들은 수신 된 입력에 따라 변경된다.      If it is determined to edit interest categories, at block 1631 a list of interest categories and applications associated with each of the categories are displayed. At block 1632, a user change is received regarding the categories and associated applications. At block 1633, the categories and / or associated applications are changed according to the received input.

프로세스(1600)은, 블록 1633, 블록 1623 또는 블록 1615 이후에 진행하고 블록 1641에서 종료된다.      Process 1600 proceeds after block 1633, block 1623 or block 1615 and ends at block 1641. [

도 17은 일 실시예에 따른, 타임라인 개요(1710) 및 슬라이드들/시간-기반 구성요소들(1730 및 1740)의 예시(1700)을 도시한다. 일 실시예에서, 웨어러블 장치(140)(도 2)는 손목밴드 타입 장치를 포함할 수 있다. 예시적인 일 실시예에서, 손목밴드 장치는 팔찌 모양의 구조를 형성하는 끈을 구성할 수 있다. 예시적인 일 실시예에서, 팔찌 모양 구조는 사용자의 손목에 맞게 원형 또는 타원형 모양일 수 있다.      Figure 17 illustrates an example 1700 of a timeline overview 1710 and slides / time-based components 1730 and 1740, in accordance with one embodiment. In one embodiment, the wearable device 140 (FIG. 2) may include a wrist band type device. In an exemplary embodiment, the wristband device may constitute a strap forming a bracelet-like structure. In an exemplary embodiment, the bracelet-like structure may be circular or oval shaped to fit the wearer's wrist.

일 실시예에서, 웨어러블 장치(140)은 곡선 OLED(organic light emitting diode) 터치스크린 또는 비슷한 타입의 디스플레이 스크린을 포함할 수 있다. 예시적인 일 실시예에서, OLED 스크린은 팔찌 구조의 곡선에 맞혀지기 위해 볼록한 방식으로 휘어질 수 있다. 일 실시예에서, 위에서 설명한 바와 같이 웨어러블 장치(140)은 프로세서, 메모리, 통신 인터페이스, 전력원 등을 더 포함할 수 있다. 선택적으로, 도 42에 설명된 바와 같이 웨어러블 장치는 아래 기술된 구성요소를 포함할 수 있다.      In one embodiment, the wearable device 140 may comprise a curved OLED (organic light emitting diode) touch screen or a similar type of display screen. In an exemplary embodiment, the OLED screen can be bent in a convex manner to fit the curve of the bracelet structure. In one embodiment, as described above, the wearable device 140 may further include a processor, memory, communication interface, power source, and the like. Alternatively, a wearable device, as illustrated in FIG. 42, may include the components described below.

일 실시예에서, 타임라인 개요(1710)은 데이터 사례들(슬라이드들/데이터 또는 시간-기반 구성요소들을 통해 보여지는)을 포함하고 세가지 일반적 카테고리들, 과거(Past), 현재(Now(present)) 및 미래(Future(suggestions))로 배열된다. 과거 사례들은 타임라인 개요(1710)의 왼쪽 측면에서 보여지는 이전 통지들 또는 기록된 이벤트들을 포함할 수 있다. 현재(Now) 사례들은 현재 사용자와 관련된 시간, 날씨 또는 다른 입력 슬라이드들(1730) 또는 제안들(1740)을 포함할 수 있다. 일 실시예에서, 입력 슬라이드들(데이터 또는 컨텐트 시간-기반 구성요소들)(1730)은 현재 라이프 이벤트들(예를 들어, 건강 기록들, 지불 등), 입력 통신들(예를 들어, SMS 문자들, 전화 등), 개인적 알림들(예를 들어, 스포츠 스코어들, 현재 교통, 경찰, 비상 등)일 수 있다. 미래(Future) 사례들은 연관성 있는 도움되는 제안들과 예측들을 포함할 수 있다. 일 실시예에서, 예측들 또는 제안들은 사용자 프로필 또는 사용자의 이전 액션들/선호들에 기초할 수 있다. 일 실시예로, 제안 슬라이드들(1740)은 예정된 장소와 가까운 곳의 쿠폰 제공, 장소 주변에서 곧 있을 활동들, 항공 지연 통지들 등과 같은 추천들을 포함할 수 있다.      In one embodiment, the timeline overview 1710 includes data cases (shown through slides / data or time-based components) and three general categories: Past, Now, ) And Future (suggestions). Past cases may include previous notifications or recorded events shown on the left side of the timeline overview 1710. Now instances may include time, weather, or other input slides 1730 or suggestions 1740 associated with the current user. In one embodiment, the input slides (data or content time-based components) 1730 include current life events (e.g., health records, payment, etc.), input communications Phone, etc.), personal notifications (e.g., sports scores, current traffic, police, emergency, etc.). Future cases may include relevant helpful suggestions and predictions. In one embodiment, the predictions or suggestions may be based on user profiles or previous actions / preferences of the user. In one embodiment, proposed slides 1740 may include recommendations such as coupon provision near the intended place, upcoming activities near the place, flight delay notices, and the like.

일 실시예에서, 아래에서 더 자세하게 설명될, 입력 슬라이드들(1730)은 푸시 또는 풀 통지들의 통제를 받는다. 일 실시예에서, 타임라인 탐색(1720)은 터치 기반 인터페이스(또는 음성 명령들, 움직임, 액션 인식 등)를 통해 제공된다. 다양한 사용자 구동들 또는 제스처들은 탐색 명령들로서 수신되고 해석될 수 있다. 일 실시예의 예시로서, 수평적 제스처 또는 스와이프는 왼쪽 및 오른쪽 수평적으로 탐색하기 위해 사용될 수 있고, 탭은 날짜를 디스플레이하고, 윗방향 또는 수직적 스와이프는 액션 메뉴 등을 불러올 수 있다.      In one embodiment, input slides 1730, which are described in greater detail below, are under the control of push or pull notifications. In one embodiment, timeline search 1720 is provided through a touch-based interface (or voice commands, motion, action recognition, etc.). Various user drives or gestures can be received and interpreted as search commands. As an example of one embodiment, a horizontal gesture or swipe can be used to navigate left and right horizontally, a tab displays a date, and an up or vertical swipe can invoke an action menu or the like.

도 18은 일 실시예에 따른, 예시적인 프로세스 정보 아키텍처(1800)를 도시한다. 일 실시예에서, 예시적인 아키텍처(1800) 는 사용자가 타임라인 탐색(1810)을 통해 경험하는 타임라인의 전형적 정보 아키텍처를 보여준다. 일 실시예에서, 미리 예정된 기간 동안, 또는 엑세서블 뱅크(accessible bank)가 삭제되기 이전에 다른 조건들 하에서 과거(Past) 슬라이드들(데이터 또는 컨텐트 시간-기반 구성요소들)(1811)이 저장될 수 있다. 예시적인 일 실시예에서, 이러한 조건들은 과거 슬라이드들을 저장하는 캐시의 크기를 구성할 수 있다. 일 실시예에서, 현재(Now) 슬라이드들은, 활동적 태스크들과 함께 최근 통지(들) (슬라이드들, 날짜 또는 컨텐트 시간-기반 구성요소들)(1812)와 홈/시간(1813)을 구성한다.      18 illustrates an exemplary process information architecture 1800, according to one embodiment. In one embodiment, exemplary architecture 1800 shows a typical information architecture of a timeline that a user experiences through a timeline search 1810. In one embodiment, Past slides (data or content time-based components) 1811 are stored for a predetermined period of time, or under other conditions before the accessible bank is deleted . In an exemplary embodiment, these conditions may constitute the size of the cache that stores past slides. In one embodiment, Now slides constitute home / time 1813 with recent notification (s) (slides, date or content time-based components) 1812 along with active tasks.

일 실시예에서, 최근의 통지들(1812)는 사용자 입력(1820)(음성 입력(1821), 지급(Payments)(1822), 체크인(Check-Ins)(1823), 터치 제스처들 등)으로부터 수신될 수 있다. 일 실시예에서, 장치 환경(1831) 또는 제3자 서비스들(1832)로부터의 외부 입력(1830)은 호스트 장치로부터 제공된 타임라인 로직(1840)을 통해 수신될 수 있다. 일 실시예에서, 가장 최근의 통지(1812)는 또한 사용자 액션들을 제시하는 타임라인 로직(1840)과 교신하여 데이터를 보낼 수 있다(예를 들어, 통지를 무시하거나 또는 취소하는 것). 일 실시예에서, 최근 통지들(1812)는 사용자가 통지들을 볼 때까지 남아있을 수 있고 그 이후 과거(1811) 스택(stack)으로 옮겨지거나 웨어러블 장치(140)으로부터 제거될 수 있다(도 2).      In one embodiment, recent notifications 1812 are received from user input 1820 (voice input 1821, Payments 1822, Check-Ins 1823, touch gestures, etc.) . In one embodiment, external input 1830 from device environment 1831 or third party services 1832 may be received via timeline logic 1840 provided from the host device. In one embodiment, the most recent notification 1812 may also communicate data (e.g., ignore or cancel a notification) in communication with timeline logic 1840 presenting user actions. In one embodiment, recent notifications 1812 may remain until the user sees notifications and may then be moved to the past 1811 stack or removed from the wearable device 140 (FIG. 2) .

일 실시예에서, 타임라인 로직(1840) 은 가장 최근의 통지 슬라이드(1812)의 왼쪽으로부터 새로운 슬라이드들이 들어오는 대로 새로운 슬라이드들을 삽입할 수 있는데, 예를 들어, 홈(1813)에서 멀리 떨어진 지점으로부터 액티브 태스크들의 우측으로 슬라이들을 삽입할 수 있다. 선택적으로, 입력 슬라이드들이 액티브 태스크들 바로 우측에 위치하는 예외들이 있을 수 있다.      In one embodiment, timeline logic 1840 may insert new slides as new slides arrive from the left of the most recent notification slide 1812, for example, from a point remote from the groove 1813, Slices can be inserted to the right of tasks. Alternatively, there may be exceptions where the input slides are located just to the right of the active tasks.

일 실시예에서, 홈(1813)은 시간(또는 다른 가능한 사용자 설정 가능 정보)을 디스플레이 할 수 있는 디폴트 슬라이드일 수 있다. 일 실시예에서, 다양한 모드들(1850)은, 건강(1851), 알람들(1852), 세팅들(1853) 등과 같은 홈(1813) 슬라이드로부터 엑세스될 수 있다.      In one embodiment, the home 1813 may be a default slide capable of displaying time (or other possible user settable information). In one embodiment, various modes 1850 can be accessed from a home 1813 slide, such as health 1851, alarms 1852, settings 1853, and the like.

일 실시예에서, 위에서 설명된 대로, 제안들(1814)(미래, future) 슬라이드들/시간-기반 구성요소들은 최근 통지들(1812)와 유사한 타임라인 로직(1840)과 상호작용할 수 있다. 일 실시예에서, 제안들 1814는 컨텍스트적이고 시간, 장소, 사용자 관심, 사용자 스케줄/달력 등에 기초할 수 있다.      In one embodiment, proposals 1814 (future, future) slides / time-based components can interact with timeline logic 1840 similar to recent notifications 1812, as described above. In one embodiment, the suggestions 1814 are contextual and may be based on time, location, user interest, user schedule / calendar, and so on.

도 19는 일 실시예에 따른, 예시적인 액티브 태스크들(1900)을 보여준다. 예시적인 일 실시예에서, 두 액티브 태스크들은 각자 분리된 규칙 세트를 갖는 뮤직 리모트(remote)(1910)과 탐색(1920)으로 디스플레이 된다. 일 실시예에서, 액티브 태스크들(1900)은 다른 슬라이드의 카테고리들처럼 타임라인(예를 들어, 타임라인(420), 도 4)으로 사라지지 않는다. 일 실시예에서, 액티브 슬라이드들 태스크가 완료되거나 무시되기 전까지 1900은 쉽게 이용 가능하게 남아있고 홈(1813) 대신에 디스플레이 될 수 있다.      FIG. 19 shows exemplary active tasks 1900, according to one embodiment. In an exemplary embodiment, the two active tasks are displayed with a music remote 1910 and a search 1920, each with a separate set of rules. In one embodiment, active tasks 1900 do not disappear into timelines (e.g., timeline 420, FIG. 4), such as categories of other slides. In one embodiment, 1900 remains readily available and can be displayed instead of groove 1813 until the task of active slides is completed or ignored.

도 20은 일 실시예에 따른 입력 슬라이드들 2030 및 액티브 태스크들(2010)과 함께 타임라인 로직 예시(2000)을 보여준다. 일 실시예에서, 새로운 슬라이드들/시간-기반 구성요소들(2030)은 액티브 태스크 슬라이드들(2010)의 왼쪽으로 들어오고, 새로운 컨텐트에 의해 대체됐을 때 과거 슬라이드들이 되어 타임라인(2020)으로 사라진다. 일 실시예에서, 뮤직 리모트(2040) 액티브 태스크 슬라이드는 헤드폰들이 연결됐을 때 활성화된다. 일 실시예에서, 탐색 2050 슬라이드들은 사용자가 턴-바이-턴(turn-by-turn) 탐색을 요청했을 때 활성화된다. 일 실시예에서, 홈 슬라이드(2060)은 타임라인(2020)에서 영구적으로 고정될 수 있다. 일 실시예에서, 위에서 설명됐듯이 홈 슬라이드(2060)은 액티브 태스크에 의해 일시적으로 가시적 슬라이드로 대체될 수 있다.      20 shows a timeline logic example 2000 with input slides 2030 and active tasks 2010 according to one embodiment. In one embodiment, the new slides / time-based components 2030 enter the left side of the active task slides 2010 and become past slides and disappear into the timeline 2020 when they are replaced by new content . In one embodiment, the music remote 2040 active task slide is activated when the headphones are connected. In one embodiment, the search 2050 slides are activated when the user requests a turn-by-turn search. In one embodiment, the home slide 2060 may be permanently fixed in the timeline 2020. In one embodiment, as described above, the home slide 2060 may be temporarily replaced by a visible slide by an active task.

도 21a 및 21b는 일 실시예에 따른 예시적인 상세 타임라인(2110)을 도시한다. 일 실시예에서, 과거 통지들, 지금/최근 통지들, 입력 통지들 및 제안들을 실행하는 것에 대한 더 자세한 설명이 기술된다. 일 실시예에서, 타임라인(2110)은 슬라이드들/시간-기반 구성요소들과 상호작용하는 UX(user experience)에 기초한 터치 또는 제스처 예시를 보여준다. 일 실시예에서, UX 타임라인(2110)은 웨어러블 장치(140)(도 2) 탐색이 호스트 장치(예를 들어, 전자 장치(120)) 사용 속도를 높이는 특징을 포함할 수 있다. 일 실시예에서, 만약 사용자가 통지로부터 정보의 두 번째 계층(예를 들어, 이벤트 또한 슬라이드/시간기반 구성요소를 확장)까지 탐색한 경우, 페어링된 호스트 장치의 어플리케이션은 더 복잡한 사용자 입력을 위해 대응(corresponding) 스크린으로 오픈될 수 있다.      Figures 21A and 21B illustrate exemplary detail timelines 2110 in accordance with one embodiment. In one embodiment, a more detailed description of executing past notifications, current / recent notifications, input notifications and suggestions is described. In one embodiment, timeline 2110 shows a touch or gesture example based on user experience (UX) interacting with slides / time-based components. In one embodiment, the UX timeline 2110 may include features that increase the speed at which the wearable device 140 (FIG. 2) discovery may use the host device (e.g., electronic device 120). In one embodiment, if the user navigates from the notification to a second layer of information (e.g., an event also extends the slide / time based component), the application of the paired host device may respond to more complex user input can be opened to the corresponding screen.

사용자 액션들(예를 들어, 기호들, 아이콘들 등)의 대표적 용어사전은 도 21A 왼쪽으로부터 두 번째 행에서 보여진다. 일 실시예에서, 이러한 사용자 액션들은 웨어러블 장치(140)의 제한된 입력 상호작용을 용이하게 한다. 일 실시예에서, 최근 슬라이드(2120), 홈 슬라이드(2130) 및 제안 슬라이드들(2140)은 타임라인(2100)상에서 디스플레이 된다.      A representative term dictionary of user actions (e.g., symbols, icons, etc.) is shown in the second row from the left side of Figure 21A. In one embodiment, these user actions facilitate limited input interaction of the wearable device 140. In one embodiment, recent slide 2120, home slide 2130, and suggested slides 2140 are displayed on timeline 2100.

일 실시예에서, 타임라인 UX는 사용자의 선호도를 습득할 수 있는 제안 엔진을 포함 할 수 있다. 일 실시예에서, 제안 엔진은 사용자에 의해 선택된 초기 카테고리들을 통해 최초로 훈련(train)훈련(train)되고, 이후에 사용자의 제안에 대한 액션 또는 사용자가 제공된 제안을 삭제하는 것과 같은 피드백에 기초하여 자체 보정된다. 일 실시예에서, 엔진은 또한 오래된 제안들을 대체하거나, 사용자가 제안을 삭제했을 때 새로운 제안들을 제공할 수 있다.      In one embodiment, the timeline UX may include a suggestion engine that can learn the user's preferences. In one embodiment, the suggestion engine is first trained through the initial categories selected by the user, and then based on the feedback, such as an action on the user's suggestion or a user deletion of the offered offer, Corrected. In one embodiment, the engine may also replace old suggestions or provide new suggestions when the user deletes the suggestions.

도 22a 및 22b는 일 실시예에 따른, 타임라인 로직에 관한 예시적인 슬라이드/시간-기반 구성요소 카테고리들(2200) 를 보여준다. 일 실시예에서, 대표적인 카테고리들은 또한, 얼마나 오랫동안 슬라이드(또는 카드)가 웨어러블 장치(140)(도 2)에 저장될 수 있는지를 나타낸다. 일 실시예에서, 타임라인 슬라이드들(2110)은 이벤트 슬라이드들, 경고 슬라이드들, 통신 슬라이드들, 지금(Now) 슬라이드들(2210), 항상(Always) 슬라이드들(예를 들어, 홈 슬라이드) 및 제안 슬라이드들(2140)을 보여준다.      FIGS. 22A and 22B show exemplary slide / time-based component categories 2200 for timeline logic, according to one embodiment. In one embodiment, representative categories also indicate how long the slide (or card) can be stored in the wearable device 140 (FIG. 2). In one embodiment, timeline slides 2110 include event slides, warning slides, communication slides, Now slides 2210, Always slides (e.g., home slides) Proposed slides 2140 are shown.

도 23에서 일 실시예에 따른 타임라인 푸시 통지 슬라이드 카테고리들(2300)을 예시들을 보여준다. 일 실시예에서, 이벤트들(2310), 커뮤니케이션(2320) 및 컨텍스트 경고들(2330) 카테고리들은 타임라인 로직에 의해 푸시 통지들로 지정된다. 일 실시예에서, 이벤트들(2310)에 관한 슬라이드 지속기간은 미리 정해진 날 수(예를 들어, 이틀), 지정된 최대 슬라이드들 수에 도달 또는 사용자 포기 중 가장 먼저의 것이 된다. 예시적인 일 실시예에서, 커뮤니케이션(2320)에 있어서 전자 장치(120)(도 2)에서 보여지거나 무시 됨, 또는 미리 정해진 날 수(예를 들어, 이틀), 지지(supported) 슬라이드들이 최대 슬라이드들 수에 도달과 같은 응답을 슬라이드들이 받을 때까지 슬라이드들은 타임라인 내에 머무르며, 이것이 슬라이들 지속시간이 된다. 예시적인 일 실시예에서, 컨텍스트 경고들(2330)에서 슬라이드들은 더 이상 관련이 없어질 때까지 머무르며(예를 들어, 사용자가 더 이상 같은 장소에 있지 않거나, 조건들 또는 시간이 변경되었을 때), 슬라이드들의 지속시간이 된다.      23 shows examples of timeline push notification slide categories 2300 according to one embodiment. In one embodiment, the events 2310, communication 2320, and context alerts 2330 categories are assigned to push notifications by timeline logic. In one embodiment, the slide duration for events 2310 is a predetermined number of days (e.g., two days), the maximum number of slides reached, or the earliest of user abandonments. In an exemplary embodiment, the communication 2320 may be viewed or ignored in the electronic device 120 (FIG. 2) or a predetermined number of days (e.g., two days) The slides stay in the timeline until the slides receive a response such as reaching the number, which is the slice duration. In an exemplary embodiment, the slides in the context alerts 2330 remain until they are no longer relevant (e.g., when the user is no longer in the same place, or when conditions or time change) This is the duration of the slides.

도 24는 일 실시예에 따른, 타임라인 풀(pull) 통지들(2400)의 예시들을 도시한다. 일 실시예에서, 제안 슬라이드들(2410)은 풀 통지들로 간주되고 스와이프(예를 들어, 왼쪽으로 스와이프)을 통해 사용자 요청에 제공된다. 일 실시예에서, 사용자는 서비스로부터 제안(2410)을 수신하기 위해 명시적으로 서비스를 서브스크립하지 않아도 된다. 제안들은 시간, 장소 및 사용자 관심에 기초할 수 있다. 일 실시예에서, 초기 사용자 관심 카테고리들은 전자 장치(120) 또는 웨어러블 장치(140)에 위치한 웨어러블 장치들 세팅 앱 내에서 정의될 수 있다(미래 단계에서, 사용자 관심은 사용에 의해 자동으로 조정될 수 있다). 일 실시예에서, 제안들(2410)의 예시들은 장소-기초 쿠폰들, 음식에 관한 인기 있는 추천들, 장소들, 오락과 이벤트들, 제안된 건강 또는 라이프스타일 목표들, 비이동 시간중의 교통 업데이트들, 날씨 예보 또는 계획된 이벤트 등과 같은 나중에 일어날 이벤트들을 포함한다.      FIG. 24 illustrates examples of timeline pull notifications 2400, in accordance with one embodiment. In one embodiment, proposed slides 2410 are considered pool notifications and provided to a user request via a swipe (e.g., swipe left). In one embodiment, the user does not have to explicitly subscript the service to receive the offer 2410 from the service. The suggestions may be based on time, place and user interest. In one embodiment, the initial user interest categories may be defined within the wearable devices setting application located in the electronic device 120 or the wearable device 140 (at a future stage, user interest may be automatically adjusted by use ). In one embodiment, examples of suggestions 2410 include location-based coupons, popular recommendations about places, places, entertainment and events, proposed health or lifestyle goals, traffic during non-travel time Events that will occur later, such as updates, weather forecasts, or planned events.

일 실시예에서, 미리 예정된 제안 수(예를 들어, 예시에서 보여지듯이 세 개)는, 사용자가 제안들을 받고 싶다고 지시하면(예를 들어, 왼쪽으로 스와이프) 미리 로딩 될 수 있다. 일 실시예에서, 추가적인 제안들(2410)(이용 가능할 때)은 만약 사용자가 계속해서 왼쪽으로 스와이프 한다면 그때그때의 상황에 따라 로드 될 수 있다. 일 실시예에서, 제안들(2410)은 사용자가 장소 또는 하루의 특정 시간을 변경할 때 리프레쉬(refresh) 된다. 하나의 예시에서, 영화가 늦은 오후에 제안되는 동안 아침에는 커피숍이 제안될 수 있다.      In one embodiment, a predetermined number of proposals (e.g., three as shown in the example) can be preloaded if the user indicates that they wish to receive suggestions (e.g., swipe left). In one embodiment, additional suggestions 2410 (when available) may be loaded depending on the situation then, if the user continues to swipe left. In one embodiment, suggestions 2410 are refreshed when the user changes location or a particular time of day. In one example, a coffee shop may be offered in the morning while a movie is offered in the late afternoon.

도 25는 일 실시예에 따른, 입력 슬라이드를 라우팅(routing)하는 것에 관한 예시적인 프로세스(2500)의 예시를 도시한다. 일 실시예에서, 프로세스(2500)은 시작 블록 2501에서 시작한다. 블록 2510에서, 타임라인 슬라이드가 페어링된 장치(예를 들어, 전자 장치(120), 도 2)에서 수신된다. 블록 2520에서 타임라인 로직은 수신된 타임라인 슬라이드가 요청 받은 제안인지를 결정한다. 만약 수신된 타임라인 슬라이드가 요청 받은 제안이라면, 프로세스(2500)은 블록 2540으로 진행한다. 블록 2540에서 제안 슬라이드는 타임라인에서 홈 슬라이드 또는 가장 최근 제안 슬라이드 오른쪽에 배열된다.      25 illustrates an example of an exemplary process 2500 for routing input slides, according to one embodiment. In one embodiment, process 2500 begins at start block 2501. At block 2510, a timeline slide is received at the paired device (e.g., electronic device 120, FIG. 2). At block 2520, the timeline logic determines if the received timeline slide is a requested proposal. If the received timeline slide is a requested proposal, process 2500 proceeds to block 2540. [ At block 2540, the proposed slides are arranged on the home slide in the timeline or to the right of the most recent suggested slide.

블록 2550에서 사용자 무시가 발생했는지 또는 슬라이드가 더 이상 관련 있지 않는지가 결정된다. 사용자가 슬라이드를 포기하지 않았거나 슬라이드가 계속 관련 있는 경우, 프로세스(2500)은 블록 2572로 진행한다. 사용자가 슬라이드를 포기하거나 슬라이드가 더 이상 관련 있지 않는 경우, 프로세스(2500)은 슬라이드가 삭제되는 블록 2560으로 진행한다. 프로세스(2500)은 그 다음 블록 2572로 진행하고 프로세스는 종료된다. 블록 2521에서 슬라이드는 타임라인 내에서 홈 슬라이드 또는 액티브 슬라이드 왼쪽에 배열된다. 블록 2522에서 슬라이드가 통지 타입의 슬라이드인지 결정된다. 블록 2530에서 슬라이드에 관한 지속시간이 도달했는지 결정된다. 지속시간에 도달된 경우, 프로세스(2500)은 슬라이드가 삭제되는 블록 2560으로 진행한다. 지속시간에 도달되지 않은 경우, 프로세스(2500)은 슬라이드가 과거(past) 슬라이드들 뱅크(bank)에 위치되는 블록 2531로 진행한다. 프로세스(2500)은 블록 2572로 진행하고 종료된다.      At block 2550, it is determined whether user overrides have occurred or the slides are no longer associated. If the user has not abandoned the slide or if the slide is still relevant, the process 2500 proceeds to block 2572. If the user abandons the slide or if the slide is no longer associated, the process 2500 proceeds to block 2560 where the slide is deleted. Process 2500 then proceeds to block 2572 and the process ends. At block 2521 the slides are arranged in the timeline to the left of the home slide or to the left of the active slide. At block 2522, it is determined whether the slide is a notification type slide. At block 2530, it is determined if the duration for the slide has reached. If the duration has been reached, the process 2500 proceeds to block 2560 where the slide is deleted. If the duration has not been reached, the process 2500 proceeds to block 2531 where the slide is located in the past slides bank. Process 2500 proceeds to block 2572 and ends.

도 26은 일 실시예에 따른, 예시적인 웨어러블 장치(140) 블록 다이어그램을 도시한다. 일 실시예에서, 웨어러블 장치(140)은 프로세서(2610), 메모리(2620), 터치스크린(2630), 통신 인터페이스(2640), 마이크(2665), 타임라인 로직 모듈(2670) 및 선택적 LED(또는 OLED, 등) 모듈(2650) 및 액튜에이터 모듈(2660)을 포함한다. 일 실시예에서, 타임라인 로직 모듈은 제안 모듈(2671), 통지 모듈(2672) 및 사용자 입력 모듈(2673)을 포함한다.      Figure 26 illustrates an exemplary wearable device 140 block diagram, in accordance with one embodiment. In one embodiment, the wearable device 140 includes a processor 2610, a memory 2620, a touch screen 2630, a communication interface 2640, a microphone 2665, a timeline logic module 2670, OLED, etc.) module 2650 and an actuator module 2660. In one embodiment, the timeline logic module includes a suggestion module 2671, a notification module 2672, and a user input module 2673.

일 실시예에서, 웨어러블 장치(140)내 모듈들은 메모리에 저장된 명령어들이고 프로세서(2610)에 의해 실행 가능할 수 있다. 일 실시예에서, 통신 인터페이스(2640)은, Bluetooth® LE, WiFi 등과 같은 다양한 통신 방법들을 통해 호스트 장치에 연결되기 위해 설정될 수 있다. 일 실시예에서, 선택적 LED 모듈(2650)은 단색 또는 다색일 수 있고, 액튜에이터 모듈(2650)은 하나 이상의 액튜에이터들을 포함할 수 있다. 선택적으로, 웨어러블 장치(140)은 선택적 LED 모듈(2650)을 사용하기 위해 설정될 수 있고 액튜에이터 모듈(2660)은 특정하게 프로그램(programmed) 된 디스플레이들 또는 진동들 각각을 통해 불필요한 통지들을 전달하는데 사용될 수 있다.      In one embodiment, the modules in wearable device 140 are instructions stored in memory and may be executable by processor 2610. In one embodiment, communication interface 2640 may be configured to connect to the host device via various communication methods such as Bluetooth LE, WiFi, and the like. In one embodiment, the optional LED module 2650 may be monochrome or multicolored, and the actuator module 2650 may include one or more actuators. Alternatively, the wearable device 140 may be configured to use the optional LED module 2650 and the actuator module 2660 may be used to transmit unnecessary notifications through each of the specifically programmed displays or vibrations .

일 실시예에서, 타임라인 로직 모듈(2670)은 과거(past), 지금(now) 및 제안들(suggestions)에서 어떻게 타임라인 슬라이드들이 조직되는지에 대한 종합적 로직 및 아키텍처를 제어할 수 있다. 타임라인 로직 모듈(2670)은 슬라이드 카테고리들을 통한 사용자 상호작용에 대해 얼마 동안 슬라이드들이 이용 가능한지에 대한 규칙들을 제어함으로써 이를 성취해낼 수 있다. 일 실시예에서, 타임라인 로직 모듈(2670)은, 제안 모듈(2671), 통지 모듈(2672), 또는 사용자 입력 모듈(2673)과 같은 서브모듈들을 포함하거나 포함하지 않을 수 있다.      In one embodiment, timeline logic module 2670 may control the overall logic and architecture of how timeline slides are organized in past, now and suggestions. Timeline logic module 2670 can accomplish this by controlling the rules for how long the slides are available for user interaction through slide categories. In one embodiment, the timeline logic module 2670 may or may not include submodules such as the suggestion module 2671, the notification module 2672, or the user input module 2673.

일 실시예에서, 제안 모듈(2671)은 사용자 선호도, 장소 등과 같은 컨텍스트에 기초한 제안들을 제공할 수 있다. 선택적으로, 제안 모듈(2671)은, 제안된 슬라이드들과 사용자의 상호작용을 통해 사용자의 선호도를 조정하고 습득하는 제안 엔진을 포함할 수 있다. 일 실시예에서, 제안 모듈(2671)은 오래되거나 더 이상 관계없는 제안 슬라이드들을 제거할 수 있고 이들을 새롭고 더 관계된 제안들로 대체할 수 있다.      In one embodiment, the suggestion module 2671 may provide context-based suggestions such as user preferences, location, and the like. Alternatively, the suggestion module 2671 may include a suggestion engine that adjusts and learns the user's preferences through the user's interaction with the proposed slides. In one embodiment, the suggestion module 2671 can remove old or irrelevant suggestion slides and replace them with new, more relevant suggestions.

일 실시예에서, 통지 모듈(2672)는 스로틀링(throttling) 및 통지들의 디스플레이를 제어할 수 있다. 일 실시예에서, 아래 설명되었듯이, 통지 모듈(2672)는 모든 통지들에 관한 일반적 규칙들을 가질 수 있다. 일 실시예에서, 통지 모듈(2672)는 또한 중요한 통지 및 중요하지 않은 통지 두 타입의 통지들을 구별할 수 있다. 예시적인 일 실시예에서, 중요한 통지들은 즉시 디스플레이에 보여질 수 있고 액튜에이터 모듈(2660)으로부터의 진동 및/또는 LED 모듈(2650) 활성과 동반될 수 있다. 일 실시예에서, 스크린은 사용자 선호도에 기초하여 꺼져있을 수 있고 중요 통지는 진동과 LED 활성화를 통해 전달될 수 있다. 일 실시예에서, 중요하지 않은 통지들은 LED 모듈(2650)을 단지 활성화시킬 수 있다. 일 실시예에서, 웨어러블 장치(140)은 도 2에 도시된 웨어러블 장치(140)를 참고로 하여 설명된 다른 모듈을 더 포함할 수 있다.      In one embodiment, the notification module 2672 may control the display of throttling and notifications. In one embodiment, as described below, the notification module 2672 may have general rules for all notifications. In one embodiment, the notification module 2672 may also distinguish between two types of notifications: critical and non-critical. In an exemplary embodiment, important notifications may be immediately visible on the display and may be accompanied by vibration from the actuator module 2660 and / or LED module 2650 activity. In one embodiment, the screen may be off based on user preferences and the critical notifications may be delivered via vibration and LED activation. In one embodiment, the non-critical notifications may only activate the LED module 2650. In one embodiment, the wearable device 140 may further include other modules described with reference to the wearable device 140 shown in Fig.

도 27은 하나의 예시에 따른 예시적인 통지 기능들(2700)을 도시한다. 일 실시예에서, 통지들은 중요한 통지들(2710) 및 중요하지 않은 통지들(2720)을 포함한다. 사용자 입력 모듈(2673)은 터치 스크린(2630)상의 사용자 제스처들, 감지된 사용자 액션들 또는 슬라이드들과 상호작용하는 물리적 버튼들을 인식할 수 있다. 일 실시예 예시에서, 사용자가 새로운 통지에 따라 터치 스크린(2630)을 활성화하면, 그 통지는 터치 스크린(2630)상에서 보여진다. 일 실시예에서, LED 모듈(2650)의 LED는 그 이후 꺼지고, "읽음(read)" 상태를 나타낸다. 일 실시예에서, 통지가 도착했을 때 만약 컨텐트가 웨어러블 장치(140)에서 보여지고 있었다면, 터치 스크린(2630)은 바뀌지 않을 것이지만(방해를 하지 않기 위해), 사용자는 LED 모듈(2650)의 LED 경보로부터 경보를 받을 것이고, 만약 메시지가 중요하다면, 액튜에이터 모듈(2660)으로부터 진동도 함께 받을 것이다. 일 실시예에서, 웨어러블 장치(140) 터치 스크린(2630)은 특정한 수 초의 유휴 시간(예를 들어, 15초 등) 후에 또는 만약 사용자의 팔이 밑으로 내려간다면 또 다른 시간 주기(예를 들어, 5초) 이후에 꺼질 것이다.      FIG. 27 illustrates exemplary notification functions 2700 in accordance with one example. In one embodiment, the notifications include important notifications 2710 and non-critical notifications 2720. [ The user input module 2673 may recognize user gestures on the touch screen 2630, sensed user actions, or physical buttons that interact with the slides. In one example embodiment, if the user activates the touch screen 2630 in accordance with the new notification, the notification is shown on the touch screen 2630. In one embodiment, the LED of the LED module 2650 is subsequently turned off, indicating a "read" state. In one embodiment, when the notification arrives, if the content was being viewed at the wearable device 140, the touch screen 2630 would not change (to avoid disturbing) And if the message is significant, vibration will also be received from the actuator module 2660. [ In one embodiment, the wearable device 140 touch screen 2630 may be activated after a certain number of idle seconds (e.g., 15 seconds) or after another period of time (e.g., 5 seconds).

도 28은 일 실시예에 따른, 타임라인 아키텍처와 상호작용하는 예시적인 입력 제스처들(2800)의 예시를 도시한다. 일 실시예에서, 사용자는 타임라인(2810)상에서 타임라인 및 제안들을 탐색하기 위해 2820을 왼쪽 또는 오른쪽으로 스와이프 할 수 있다. 일 실시예에서, 슬라이드 상에서의 탭 제스처(2825)는 추가적 디테일들(2830)을 보여준다. 일 실시예에서, 또 다른 탭(2825)는 원래의 상태로 되돌아간다. 일 실시예에서, 슬라이드상에서 스와이프 업(swipe up)(2826)은 액션들(2840)을 나타낸다.      28 illustrates an example of exemplary input gestures 2800 that interact with a timeline architecture, in accordance with one embodiment. In one embodiment, the user may swipe 2820 left or right to search for timelines and suggestions on the timeline 2810. In one embodiment, the tap gesture 2825 on the slide shows additional details 2830. [ In one embodiment, another tab 2825 returns to its original state. In one embodiment, a swipe up 2826 on the slide represents actions 2840. [

도 29는 일 실시예에 따른 슬라이드들을 생성하는 것에 관한 예시적 프로세스(2900)를 도시한다. 일 실시예에서, 프로세스(2900)은 스타트 블록 2901에서부터 시작된다. 블록 2910에서 문자, 이미지들 또는 고유의 액션들을 포함하는 제3자 데이터가 수신된다. 블록 2920에서 이미지는 웨어러블 장치(예를 들어, 웨어러블 장치(140), 도 2, 도 26)상에서 디스플레이 되기 위해 준비된다. 블록 2930에서 문자는 지정된 템플릿 (template) 영역에 배열된다. 블록 2940에서 고유의 액션들에 관해 동적(dynamic) 슬라이드가 생성된다. 블록 2950에서, 슬라이드는 웨어러블 장치에 제공된다. 블록 2960에서 상호작용 응답은 사용자로부터 수신된다. 블록 2970에서 사용자 응답은 제3자에게 제공된다. 프로세스(2900)은 종료 블록 2982로 진행한다.      FIG. 29 illustrates an exemplary process 2900 for creating slides in accordance with one embodiment. In one embodiment, the process 2900 begins at a start block 2901. At block 2910, third party data including characters, images or specific actions is received. At block 2920, the image is ready to be displayed on a wearable device (e.g., wearable device 140, Figure 2, Figure 26). At block 2930, the characters are arranged in the designated template area. At block 2940, a dynamic slide is created for the unique actions. At block 2950, the slide is provided to the wearable device. At block 2960, the interaction response is received from the user. At block 2970, the user response is provided to the third party. Process 2900 proceeds to end block 2982.

도 30은 일 실시예에 따른, 템플릿을 사용한 슬라이드 생성(3000)의 예시를 보여준다. 일 실시예에서, 타임라인 슬라이드들은 상호작용 모델에 데이터를 제공한다. 일 실시예에서, 모델은 슬라이드들을 생성하는데 많은 자원을 들이지 않고 사용자들과 상호작용하기 위해 제3자 서비스들을 허용한다. 제3자 서비스들은 외부입력(1830)의 일부로서 데이터를 제공할 수 있다(도 18). 일 실시예에서, 제3자 데이터는 문자, 이미지들, 이미지 포인터들(예를 들어, URLs) 또는 고유의 액션들을 포함할 수 있다. 일 실시예에서, 이러한 제3자 데이터는 제3자 어플리케이션, API 또는 HTTP와 같은 다른 유사한 방법들을 통해 제공될 수 있다. 일 실시예에서, 템플릿을 이용하여 제3자 데이터가 디스플레이 되기 위해 웨어러블 장치(140)상에서 웨어러블 장치(140) (도 2, 도 26) 로직, 호스트 장치(예를 들어, 전자 장치(120))에 의해 또는 클라우드(150)(도 2)내에서 특정한 장치(예를 들어, 스크린 크기 또는 장치 타입에 기초한)에 관한 슬라이드, 카드 또는 다른 적합한 프렌젠테이션 포맷(format)으로 변환될 수 있다.      30 shows an example of a slide creation 3000 using a template, according to one embodiment. In one embodiment, the timeline slides provide data to the interaction model. In one embodiment, the model allows third party services to interact with users without much resources being required to create the slides. Third party services may provide data as part of external input 1830 (Figure 18). In one embodiment, the third party data may include characters, images, image pointers (e.g., URLs), or specific actions. In one embodiment, such third party data may be provided via other similar methods, such as third party applications, APIs or HTTP. In one embodiment, the wearable device 140 (Figs. 2 and 26) logic, host device (e.g., electronic device 120) on the wearable device 140 to display third- Card or other suitable presentation format for a particular device (e.g., based on screen size or device type) within the cloud 150 (FIG. 2).

일 실시예에서, 상호작용 모델(interaction model)에 보내진 데이터는 타겟 장치를 감지할 수 있고 디스플레이에 관한 프레젠테이션 형태(예를 들어, 슬라이드들/카드들, 적합한 면적들 등)를 결정할 수 있다. 일 실시예에서, 이미지는 특징 감지 및 디스플레이에 맞춰진 미리 조정된 디자인 규칙들을 사용한 크로핑(cropping)을 통해 준비될 수 있다. 예를 들어, 디자인 규칙들은 디스플레이의 초점과 연관된 대상(예를 들어, 비행기, 사람 얼굴 등)의 사진의 일부를 제시할 수 있다.      In one embodiment, the data sent to the interaction model can sense the target device and determine the presentation type (e.g., slides / cards, suitable areas, etc.) regarding the display. In one embodiment, the image may be prepared by cropping using pre-adjusted design rules tailored to feature detection and display. For example, the design rules may present a portion of a picture of an object (e.g., an airplane, a human face, etc.) associated with the focus of the display.

일 실시예에서, 템플릿은 지정된 위치들(예를 들어, 미리 조정된 이미지, 문자 영역들, 디자인들 등)을 포함할 수 있다. 엄밀한 의미에서, 이미지는 다양한 영역(예를 들어, 제1 또는 제2 영역)에 제공된 백그라운드 및 적합한 문자에 삽입될 수 있다. 제3자 데이터는 또한 추가 레벨에서 결합된 데이터를 포함할 수 있다. 추가 레벨들은 디테일 또는 액션 슬라이드들을 이용하여 준비될 수 있다. 몇몇 액션들은 모든 슬라이드상에서 포함될 수 있는 디폴트 액션들이다(예를 들어, 제거, 북마크 등). 일 실시예에서, 제3자 서비스에 의해 제공되는 고유한 액션들은 템플릿에 의해 생성된 동적 슬라이드에 위치할 수 있다. 예를 들어, 대표적 슬라이드 도 30에서 보여지는 고유한 액션은 사용자가 비행기를 봤다는데에 대한 표시(indication)일 수 있다. 동적 슬라이드는 디폴트 액션 슬라이드로부터 엑세스 가능하다.      In one embodiment, the template may include designated locations (e.g., pre-adjusted image, text regions, designs, etc.). In a strict sense, an image may be embedded in a background and appropriate characters provided in various areas (e.g., the first or second area). The third party data may also include combined data at an additional level. Additional levels may be prepared using details or action slides. Some actions are default actions that can be included on all slides (eg, remove, bookmark, etc.). In one embodiment, the unique actions provided by the third party service may be located in the dynamic slide created by the template. For example, the unique action shown in representative slide 30 may be an indication that a user has seen an airplane. Dynamic slides are accessible from the default action slides.

일 실시예에서, 준비된 슬라이드는 타임라인 로직 모듈(2670)(도 26)이 디스플레이를 지시하는 웨어러블 장치(140)에 제공될 수 있다. 일 실시예에서, 사용자 응답은 상호작용으로부터 수신 될 수 있다. 결과물들은 제3자 데이터가 최초로 제공될 때와 비슷한 방법들, 예를 들어, 제3자 어플리케이션, API를 통해 또는 HTTP와 같은 다른 방법들을 통해 제3자로 다시 제공될 수 있다.      In one embodiment, the prepared slide may be provided to the wearable device 140 in which the timeline logic module 2670 (Fig. 26) indicates the display. In one embodiment, the user response may be received from an interaction. The results may be provided back to third parties in a manner similar to when third party data is first provided, e.g., via a third party application, an API, or through other methods such as HTTP.

도 31은 일 실시예에 따른, 디스플레이 슬라이드에 기초한 컨텍스트 음성 명령의 예시들(3100)을 도시한다. 일 실시예에서, 웨어러블 장치(140)은 예를 들어, 음성 프롬프트(3130)을 수신하기 위한 슬라이드(3120)으로부터의 긴 누름(press)를 포함하는 제스처(3110)을 사용한다. 이와 같은 누름은 터치스크린 상에서 감지되는 긴 터치 또는 물리적 버튼을 길게 누르는 것일 수 있다. 일 실시예에서, 일반 음성 명령들 3140 및 슬라이드-특정 음성 명령들(3150)은 액션들로 해석된다. 일 실시예에서, 웨어러블 장치(140) (예를 들어, 손목밴드)상에서 음성 명령들과 제스처 상호작용의 조합은 이벤트-기초 아키텍처의 탐색에 사용될 수 있다. 일 실시예의 예시로서, 이러한 음성 명령들 및 제스처 입력들의 조합은 내부 센서들(예를 들어, 가속도계, 자이로스코프 등)을 통해 사용자 입력에 관한 음성 프롬프트(3130)을 동작시키기 위한 특정 제스처들을 등록하는 것을 포함할 수 있다.      31 illustrates examples of contextual voice commands 3100 based on display slides, in accordance with one embodiment. In one embodiment, wearable device 140 uses a gesture 3110 that includes a long press from slide 3120 to receive voice prompt 3130, for example. Such a push may be a long touch sensed on the touch screen or a long press on the physical button. In one embodiment, general voice commands 3140 and slide-specific voice commands 3150 are interpreted as actions. In one embodiment, a combination of voice commands and gesture interaction on a wearable device 140 (e.g., a wristband) may be used to search for an event-based architecture. As an example of one embodiment, the combination of these voice commands and gesture inputs may be used to register specific gestures for operating the voice prompt 3130 on user input via internal sensors (e.g., accelerometer, gyroscope, etc.) ≪ / RTI >

일 실시예에서, 결합된 음성 및 제스처 상호작용은 시각적 프롬프트와 함께 사용자 경험을 개선하기 위한 의견교환 상호작용을 제공한다. 뿐만 아니라, 제한된 제스처/터치 기반 입력은 특정 슬라이드/카드에 관한 검색, 빠른 필터링과 소팅(sorting) 등과 같은 이벤트 기초 시스템상의 액션들을 지원하기 위해 음성 명령들을 상당히 보완한다. 일 실시예에서, 다이어그램은 터치스크린상에 디스플레이 된 슬라이드(예를 들어, 슬라이드 특정 음성 명령들(3150)) 또는 어떤 디스플레이로부터의 일반적 음성 명령들(3140)에 기초한 컨텍스트 음성 명령들의 예시를 설명한다.      In one embodiment, the combined voice and gesture interaction provides a feedback prompt interaction to improve the user experience with visual prompts. In addition, limited gesture / touch based input significantly complements voice commands to support actions on an event based system, such as searching for specific slides / cards, fast filtering and sorting, and the like. In one embodiment, the diagram illustrates an example of context voice commands based on general voice commands 3140 from a slide (e.g., slide specific voice commands 3150) or a display displayed on a touch screen .

예시적인 일 실시예에서, 슬라이드가 디스플레이 될 때 음성 명령 기능을 활성화하기 위해 사용자는 하드(hard) 버튼의 긴 누름(3120) 액튜에이션을 수행할 수 있다. 다른 실시 예에서, 음성 명령 기능은 내장된 센서들을 통한 터치 제스처들 또는 인식된 사용자 모션들을 통해 동작될 수 있다. 예시적인 일 실시예에서, 웨어러블 장치(140)은 손목밴드에 이야기를 하기 위해 이를 들어올리는 동안 사용자가 그들의 손목을 뒤집거나 사용자가 짧은 시퀀스의 급격한 손목 흔듦/움직임을 수행하는 경우 음성 입력을 구성하키기 위해 설정된다.      In an exemplary embodiment, a user may perform a long press 3120 actuation of a hard button to activate the voice command function when the slide is displayed. In another embodiment, the voice command function may be operated through touch gestures through embedded sensors or recognized user motions. In an exemplary embodiment, the wearable device 140 configures the voice input when the user turns their wrists while the user is lifting it up to speak to the wristband or when the user performs a sharp wrist swing / .

일 실시예에서, 웨어러블 장치(140)은 말로 된 명령들을 받아들일 준비가 되었다는 것을 사용자에게 알리기 위해 스크린에 시각적 프롬프트를 디스플레이 한다. 또 다른 예시의 예에서, 웨어러블 장치(140)은 오디오 프롬프트를 제공하기 위해 스피커를 포함할 수 있거나 웨어러블이 베이스(base) 스테이션 또는 도킹(docking) 스테이션에 위치하는 경우, 베이스 스테이션은 오디오 프롬프트를 제공하기 위해 스피커들을 구성할 수 있다. 일 실시예에서, 웨어러블 장치(140)은 사용자가 듣기 모드에 있다는 것을 알리기 위해 햅틱(haptic) 통지(특정 진동 시퀀스와 같은)를 제공할 수 있다.      In one embodiment, the wearable device 140 displays a visual prompt on the screen to inform the user that it is ready to accept the spoken commands. In another example, the wearable device 140 may include a speaker to provide an audio prompt, or if the wearable is located at a base station or a docking station, the base station may provide an audio prompt Speakers can be configured to do so. In one embodiment, wearable device 140 may provide a haptic notification (such as a specific vibration sequence) to signal that the user is in a listening mode.

일 실시예에서, 사용자는 장치에 의해 인식될 수 있는 미리 설정된 목록으로부터 말로 된 명령을 지시한다. 일 실시예에서, 일반 음성 명령들(3140) 예시는 예시(3100)에 도시된다. 일 실시예에서, 명령들은 일반적(따라서 어떤 슬라이드에서든 사용 가능한) 또는 컨텍스트적일 수 있고, 디스플레이된 특정 슬라이드에 적용될 수 있다. 일 실시예에서, 특정 상황에서 일반적 명령(3140)은 현재 디스플레이 되고 있는 슬라이드와 컨텍스트적으로 연관될 수 있다. 예시적인 일 실시예에서, 만약 장소 슬라이드가 디스플레이 된다면 명령 "체크인(check-in)"은 그 장소에 체크인 될 수 있다. 뿐만 아니라, 슬라이드가 많은 목록의 컨텐트를 포함하는 경우, 목록에서 특정 컨텐트를 선택하기 위해 명령이 이용될 수 있다.      In one embodiment, the user indicates a verbal command from a preset list that can be recognized by the device. In one embodiment, an example of generic voice commands 3140 is shown in example 3100. [ In one embodiment, the instructions may be generic (thus usable on any slide) or contextual, and may be applied to a particular slide displayed. In one embodiment, in certain situations, general instructions 3140 may be contextually associated with the slide currently being displayed. In an exemplary embodiment, the command "check-in" can be checked in to the location if the place slide is displayed. In addition, if a slide contains content of a large list, the command may be used to select a particular content from the list.

일 실시예에서, 웨어러블 장치(140)은 설명 또는 더 많은 정보를 요청하는 시스템 응답들을 제공할 수 있고 사용자의 응답을 기다릴 수 있다. 예시적인 일 실시예에서, 이는 웨어러블 장치(140)으로부터 사용자의 명령을 이해하지 못하거나, 명령을 유효하지 않다고/미리 설정되지 않은 명령들이라고 인식하거나, 명령이 추가적 사용자 입력을 요구하는 것 일 수 있다. 일 실시예에서, 일단 전체 명령이 수행할 준비가 된다면 웨어러블 장치(140)은 사용자가 확인하게 한 다음 액션을 수행할 수 있다. 일 실시예에서, 웨어러블 장치(140)은 확인을 요청할 수 있고 그 다음 실행을 위한 명령을 준비할 수 있다.      In one embodiment, wearable device 140 may provide system responses that request a description or more information and may wait for a response from the user. In an exemplary embodiment, it may be that the user does not understand the user's commands from the wearable device 140, recognizes the commands as invalid / non-preset commands, or the command requires additional user input have. In one embodiment, once the entire command is ready to be executed, wearable device 140 may perform the next action that the user has identified. In one embodiment, wearable device 140 may request an acknowledgment and then prepare an instruction for execution.

일 실시예에서, 사용자는 또한 터치스크린을 음성 명령들과 동시에 또는 함께 액튜에이팅하는 것을 통해 웨어러블 장치(140)과 상호작용할 수 있다. 예시적인 일 실시예에서, 사용자는 명령을 검토하기 위해 위아래로 스크롤하는 손가락 스와이프를 사용할 수 있다. 다른 제스처들은 명령들을 클리어(clear) 하거나(예를 들어, 가상의 클리어버튼을 나타내기 위해 스크린을 탭하는 것) 명령들을 수락하기 위해 가상의 확인 버튼을 터칭/태핑(tapping)하는 것으로 사용될 수 있다. 다른 실시예들에서, 물리적 버튼들이 사용될 수 있다. 예시적인 일 실시예에서, 사용자는 물리적 버튼 또는 스위치(예를 들어, 홈 버튼)를 누름(press)함으로서 음성 명령들과 다른 액션들을 무시/클리어 할 수 있다.      In one embodiment, the user may also interact with the wearable device 140 through actuation of the touch screen simultaneously with, or together with, voice commands. In an exemplary embodiment, the user may use a finger swipe to scroll up and down to review the command. Other gestures can be used to either clear the commands or tap / taps the virtual confirmation button to accept commands (e.g., tapping the screen to indicate a virtual clear button) . In other embodiments, physical buttons may be used. In an exemplary embodiment, a user may ignore / clear voice commands and other actions by pressing a physical button or switch (e.g., a home button).

일 실시예에서, 센서들(예를 들어, 자이로스코프, 가속도계 등)을 탑재한 웨어러블 장치(140)은 터치스크린상에서 손가락 제스처들뿐 아니라 모션 제스처들을 등록하기 위해 사용된다. 예시적인 일 실시예에서, 등록된 모션들 또는 제스처들을 사용하는 것은 명령들을 취소 또는 클리어하는데 사용될 수 있다(예를 들어, 웨어러블 장치(140)을 한번 흔드는 것). 다른 실시예 예시들에서, 스크롤하기 위해 손목을 기울이거나, 다음 슬라이드로 이동하기 위해 시계방향으로 손목을 돌리거나 이전 슬라이드로 이동하기 위해 시계반대방향으로 돌리는 탐색이 이용될 수 있다. 일 실시예에서, 슬라이드들의 특정 카테고리들에 의해 인식된 컨텍스트 움직임 제스처들이 있을 수 있다.      In one embodiment, a wearable device 140 with sensors (e.g., gyroscopes, accelerometers, etc.) is used to register motion gestures as well as finger gestures on the touch screen. In an exemplary embodiment, using registered motions or gestures can be used to cancel or clear commands (e.g., swinging the wearable device 140 once). In other embodiments, a wrist can be tilted for scrolling, a wrist clockwise to move to the next slide, or a counterclockwise search to move to the previous slide can be used. In one embodiment, there may be context motion gestures recognized by particular categories of slides.

일 실시예에서, 웨어러블 장치(140)는 어플리케이션과는 대조적으로, 정보를 위한 주요 디스플레이가 카드들 또는 슬라이드들을 포함하는 앱리스(apples) 처리를 이용할 수 있다. 하나 이상의 실시예들에서는 슬라이드 각각을 분석(parse)하지 않고도 사용자가 이벤트에 기초한 시스템 아키텍처를 탐색할 수 있게 해준다. 예시적인 일 실시예에서, 사용자는 특정 슬라이드 (예를 들어, "오늘 아침 6시에 보여줘")를 요청할 수 있고 슬라이드가 스크린에 디스플레이 될 수 있다. 이러한 명령들은 웨어러블 장치(140)에 더 이상 저장되어있지 않은 보관된 슬라이드들을 풀백(pull back)할 수 있다. 일 실시예에서, 어떤 명령들은 디스플레이에 제시될 수 있는 선택들 및 슬라이딩-선택 메커니즘을 통해 탐색될 수 있는 선택들을 제시할 수 있다. 예시적인 일 실시예에서, 음성 명령 "체크인"은 사용자가 하나를 선택해 체크인할 수 있게 하거나 하나를 선택해 체크인을 요청할 수 있게 다양한 장소들을 디스플레이할 수 있다.In one embodiment, the wearable device 140, in contrast to the application, may utilize an apples process in which the primary display for information includes cards or slides. One or more embodiments allow the user to navigate the system architecture based on the event without parsing each of the slides. In an exemplary embodiment, the user may request a particular slide (e.g., "Show at 6 o'clock this morning") and the slide may be displayed on the screen. These commands may pull back archived slides that are no longer stored in the wearable device 140. In one embodiment, certain commands may present choices that can be presented on the display and selections that can be navigated through the sliding-selection mechanism. In one exemplary embodiment, the voice command "check-in" can display various places such that the user can select one and check in or select one to request a check-in.

일 실시예에서, 적절한 이벤트로의 엑세스를 용이하게 해주는 빠른 필터링 및 소팅을 통한 카드-기반 탐색(card-based navigation)에 대한 흥미있는 디스플레이가 사용될 수 있다. 예시적인 일 실시예에서, 명령 "내가 어제 오후 3시에 무엇을 했지"는 지시된 시간쯤에 사용 가능한 카드들 부분집합의 디스플레이를 제공한다. 일 실시예에서, 웨어러블 장치(140)은 부분집합 또는 기준을 구성하는 슬라이드들 수를 나타내는 시각적 통지를 디스플레이 할 수 있다. 부분집합을 구성하는 수가 미리 정해진 한계점을 상회하는 경우 (예를 들어, 10 이상의 많은 카드들), 사용자들이 필터링(filtering) 또는 소팅(sorting)을 더 수행하고 싶어하는지 손목밴드가 사용자에게 프롬프트 할 수 있다. 일 실시예에서, 사용자는 카드들의 부분집합을 탐색하기 위해 터치 입력을 사용할 수 있거나 부분집합을 더 필터 또는 소트하기 위해 음성 명령들을 활용할 수 있다(예를 들어, "관련성에 따라 배열됨", "달성(achievements) 먼저 보여짐" 등).In one embodiment, an interesting display for card-based navigation through fast filtering and sorting that facilitates access to the appropriate events can be used. In one exemplary embodiment, the command "What did I do at 3 pm yesterday" provides a display of a subset of available cards by the indicated time. In one embodiment, wearable device 140 may display a visual notification indicating the number of slides that make up a subset or reference. If the number of constituent subsets exceeds a predetermined limit (for example, a number of cards of 10 or more), the wrist band may prompt the user whether they wish to perform further filtering or sorting have. In one embodiment, the user may use the touch input to search for a subset of cards, or may utilize voice commands to further filter or sort the subset (e.g., "arranged according to relevance "," Achievements first seen "etc.).

일 실시예에서, 또 다른 실시예는 페어링된(paired) 장치(예를 들어, 전자 장치(120), 도 2)상의 제3자 서비스들(third party services)에서 액션들을 수행하는 음성 명령들을 포함할 수 있다. 예시적인 일 실시예에서, 사용자는 페어링된 장치에서 제3자 서비스를 열지 않고도 Yelp®, Facebook® 등과 같은 제3자 어플리케이션들을 통해 반영될 수 있는 장소에 체크인 할 수 있다. 또 다른 실시예 예시는, 위에서 보여진 Twitter® 업데이트, Facebook® 상태 업데이트 등과 같은 소셜 네트워크에 사용자가 상태를 업데이트할 수 있게 해주는 소셜 업데이트 명령을 구성한다.      In one embodiment, another embodiment includes voice commands to perform actions in third party services on a paired device (e.g., electronic device 120, FIG. 2) can do. In an exemplary embodiment, a user can check in to a place that can be reflected through third party applications such as Yelp, Facebook, etc., without opening a third party service on the paired device. Another example embodiment constitutes a social update command that allows a user to update a status on a social network, such as the Twitter® update, Facebook® status update, etc. shown above.

일 실시예에서, 음성 명령(예를 들어, 일반적 음성 명령들(3140) 및 특정 슬라이드 음성 명령들(3150))은 웨어러블 장치(140)과 페어링된 호스트 장치에 의해 진행될 수 있다. 일 실시예에서, 명령들은 호스트 장치에 전달 될 수 있다. 선택적으로, 호스트 장치는 클라우드(150)(도 2)에 명령들을 해석하는데 도움을 주기 위한 명령들을 제공할 수 있다. 일 실시예에서, 예를 들어, "go to" 명령들, 일반적 액션들 등의 몇몇 명령들은 독점적으로 웨어러블 장치(140)에 남겨질 수 있다.      In one embodiment, voice commands (e.g., general voice commands 3140 and specific slide voice commands 3150) may be processed by the host device paired with the wearable device 140. [ In one embodiment, the instructions may be communicated to the host device. Alternatively, the host device may provide instructions to help the cloud 150 (Fig. 2) to interpret the commands. In one embodiment, some commands, such as "go to" commands, general actions, etc., may be left exclusively in wearable device 140.

일 실시예에서, 웨어러블 장치(140)이 주로 호스트 장치를 통해 바깥 장치들 또는 서버들과 상호작용하지만, 몇몇 실시예들에서 웨어러블 장치(140)은 TV, 테블릿들, 헤드폰들 등과 같은 사용자의 장치 환경(ecosystem)내 다른 장치들과 직접 통신 연결을 할 수 있다. 일 실시예에서, 장치들의 다른 예시들은 온도조절장치(예를 들어, Nest), 저울, 카메라, 또는 네트워크내 다른 연결된 장치들을 포함할 수 있다. 일 실시예에서, 이러한 제어는 장치들을 활성화 또는 제어하는 것을 포함하거나 다양한 장치들을 서로 소통할 수 있게 도와줄 수 있다.      In one embodiment, the wearable device 140 interacts with external devices or servers primarily through the host device, although in some embodiments the wearable device 140 may be a user of the user, such as a TV, tablet, You can establish a direct communication connection with other devices in the device environment (ecosystem). In one embodiment, other examples of devices may include a temperature controller (e.g., Nest), a balance, a camera, or other connected devices in the network. In one embodiment, such control may include activating or controlling devices or may assist in communicating the various devices.

일 실시예에서, 웨어러블 장치(140)은 특정 카테고리 또는 특정 슬라이드들 타입에 관한 필터링된 검색과 같은 리스닝(listening)의 특정 조건을 동작시키기 위한 미리 정해진 모션 제스처를 인식할 수 있다. 예를 들어, 장치는 "제안(suggest)"에 관한 수화 모션을 인식할 수 있고 검색을 제안 카테고리 카드들로 제한할 수 있다. 일 실시예에서, 웨어러블 장치(140) 기초 음성 명령은 수면 추적을 위해 마이크를 활용할 수 있다. 또한 이러한 모니터링은 웨어러블 장치(140)을 구성하는 가속도계, 자이로스코프, 광 검출기 등을 포함한 다양한 센서들을 활용할 수 있다. 빛, 소리 및 움직임과 관련된 데이터는 수면 패턴에 대한 다른 디테일들과 함께 사용자가 언제 잠들고 깨어있는지를 결정하는 분석에 있어서 더 정확한 결정을 제공할 수 있다.      In one embodiment, wearable device 140 may recognize a predetermined motion gesture for operating a particular condition of listening, such as a filtered search for a particular category or a particular slide type. For example, the device can recognize the sign language motion about "suggest" and limit the search to proposed category cards. In one embodiment, wearable device 140 based voice commands may utilize a microphone for sleep tracking. In addition, such monitoring may utilize various sensors including an accelerometer, a gyroscope, a photodetector, and the like, which constitute the wearable device 140. Data associated with light, sound, and movement, along with other details about the sleep pattern, can provide a more accurate determination in the analysis that determines when the user is asleep and awake.

도 32는 일 실시예에 따른, 웨어러블 장치(140) 및 호스트 장치(예를 들어, 전자 장치(120))에 관한 예시적인 블록 다이어그램(3200)을 도시한다. 일 실시예에서, 위에서 설며 됐듯이, 음성 명령 모듈(3210)이 탑재된 웨어러블 장치(140)은 터치 디스플레이(2630), 마이크(2665), 센서(4340) 및 통신 모듈(2640) 구성요소들로부터 입력을 전달받기 위해, 그리고 프롬프트/확인에 관한 터치 디스플레이(2630) 또는 호스트 장치(예를 들어, 전자 장치(120))에 명령들을 전달하기 위한 통신 모듈(2640)에 출력을 제공하기 위해 설정될 수 있다. 일 실시예에서, 터치 디스플레이(2630) 또는 센서들(3230) 각각으로부터 터치 또는 모션 입력을 처리하기 위해 음성 명령 모듈(3210)은 제스처 인식 모듈(3220)을 포함할 수 있다.      32 illustrates an exemplary block diagram 3200 for a wearable device 140 and host device (e.g., electronic device 120), according to one embodiment. In one embodiment, the wearable device 140 with the voice command module 3210 mounted thereon is coupled to the touch display 2630, the microphone 2665, the sensor 4340, and the communication module 2640 components To provide an output to communication module 2640 for receiving inputs and for communicating commands to a touch display 2630 for prompting / confirmation or to a host device (e.g., electronic device 120) . In one embodiment, the voice command module 3210 may include a gesture recognition module 3220 to process touch or motion inputs from the touch display 2630 or each of the sensors 3230.

일 실시예에서, 음성 명령 처리 모듈(3240)에 탑재된 호스트 장치(예를 들어, 전자 장치(120))는 실행 명령들을 처리할 수 있고, 통신 모듈들(예를 들어, 통신 모듈(2640) 및 (125))을 통해 웨어러블 장치(140)의 음성 명령 모듈(3210)에 명령어들을 제공할 수 있다. 일 실시예에서, 이러한 음성 명령 처리 모듈(3240)은 웨어러블 장치(140) 또는 사용자가 알기 쉬운 백그라운드 프로그램과 함께 동작하기 위해 프로그래밍 된 컴패니언 어플리케이션을 구성할 수 있다.       In one embodiment, a host device (e.g., electronic device 120) mounted on voice command processing module 3240 can process execution commands and communicate with communication modules (e.g., communication module 2640) And 125) to the voice command module 3210 of the wearable device 140. In one embodiment, this voice command processing module 3240 may configure the companion application programmed to operate with the wearable device 140 or with a user-friendly background program.

일 실시예에서, 호스트 장치(예를 들어, 전자 장치(120))의 음성 명령 처리 모듈(3240)은 단지 웨어러블 장치(140)으로부터 전송된 오디오 또는 음성 데이터를 처리 할 수 있고, 실행을 위해 처리 된 데이터를 명령 지시어(command instructions)의 형태로 웨어러블 장치(140)의 음성 명령 모듈(3210)에게 제공할 수 있다. 일 실시예에서, 음성 명령 처리 모듈(3240)은 웨어러블 장치(140)에서 더 이상 이용 가능하지 않은 카드들을 구별하고 그들을 웨어러블 장치(140)에 처리된 명령과 함께 제공하는 것과 같은 다양한 기능들을 수행할 수 있는 탐색 명령 인식 서브모듈(3250)을 포함할 수 있다.      In one embodiment, the voice command processing module 3240 of the host device (e.g., electronic device 120) may process audio or voice data transmitted from the wearable device 140 only, And provide the data to the voice command module 3210 of the wearable device 140 in the form of command instructions. In one embodiment, the voice command processing module 3240 performs various functions such as distinguishing the cards that are no longer available in the wearable device 140 and providing them with the processed commands to the wearable device 140 Which may include a search command recognition submodule 3250.

도 33은 일 실시예에 따른, 웨어러블 장치상에서(예를 들어, 웨어러블 장치(140), 도 2, 도 26, 도 32) 명령들을 수신하는 예시적인 프로세스(3300)를 보여준다. 일 실시예에서, 프로세스(3300)내 어느 지점에서든, 사용자는 명령들을 리뷰하기 위해 스크롤 하는 터치 스크린과 상호작용할 수 있다. 일 실시예에서, 프로세스(3300)에서의 사용자는 물리적 버튼을 누르거나 특정 취소 터치/모션 제스처를 이용하여 취소할 수 있다. 일 실시예에서, 사용자는 명령이 제시됐을 때 이를 수락하기 위해 스크린을 탭하여 확인(firmation)을 제공할 수 있다.      Figure 33 shows an exemplary process 3300 for receiving instructions on a wearable device (e.g., wearable device 140, Figure 2, Figure 26, Figure 32), in accordance with one embodiment. In one embodiment, at any point within the process 3300, the user may interact with the scrolling touch screen to review the commands. In one embodiment, the user at process 3300 may cancel the physical button or use a specific canceled touch / motion gesture. In one embodiment, the user may tap the screen to provide a firmation to accept when the command is presented.

일 실시예에서, 프로세스(3300)은 시작 블록 3301에서 시작된다. 블록 3310에서 듣기 모드로 들어가기 위한 지시가 웨어러블 장치(예를 들어, 웨어러블 장치(140), 도 2, 26, 32)에 의해 수신된다. 블록 3320에서 웨어러블 장치로부터 음성 명령이 사용자에게 프롬프트 된다. 블록 3330에서 웨어러블 장치는 오디오/음성 명령을 사용자로부터 수신한다. 블록 3340에서 수신된 음성 명령이 유효한지 아닌지에 대해 결정한다. 음성 명령이 유효하지 않다고 결정된 경우, 프로세스(3300)은, 사용자가 웨어러블 장치로부터 수신 된 유효하지 않은 명령을 경고하는 블록 3335로 진행한다.      In one embodiment, process 3300 begins at start block 3301. At block 3310, an instruction to enter the listening mode is received by the wearable device (e.g., wearable device 140, Figures 2, 26, 32). At block 3320, a voice command from the wearable device is prompted to the user. At block 3330, the wearable device receives an audio / voice command from the user. Block 3340 determines whether the voice command received is valid or not. If it is determined that the voice command is not valid, the process 3300 proceeds to block 3335 where the user alerts the user of an invalid command received from the wearable device.

음성 명령이 유효하다고 결정된 경우, 프로세스(3300)은 설명이 필요한지 아닌지가 결정되는 블록 3350으로 진행한다. 수신 된 음성 명령에 관해 음성 명령에 관한 설명이 필요한 경우, 프로세스(3300)은 블록 3355로 진행한다. 블록 3355에서 사용자는 웨어러블 장치로부터 설명을 프롬프트 받는다.      If it is determined that the voice command is valid, the process 3300 proceeds to block 3350 where it is determined whether a description is required or not. If a description of the voice command is needed for the received voice command, the process 3300 proceeds to block 3355. [ At block 3355, the user is prompted for a description from the wearable device.

블록 3356에서 웨어러블 장치는 사용자로부터 다른 음성 명령을 통해 설명을 수신한다. 음성 명령이 필요하지 않는다는 설명이 결정된 경우, 프로세스(3300)은 블록 3360으로 진행한다. 블록 3360에서 웨어러블 장치는 실행 및 확인 요청에 관한 명령을 준비한다. 블록 3370에서 확인이 웨어러블 장치로부터 수신된다. 블록 3380에서 프로세스(3300)은 명령을 실행하고 명령은 실행을 위해 웨어러블 장치로 보내진다. 프로세스(3300)은 그 다음 블록 3392로 진행하고 프로세스는 종료한다.      At block 3356, the wearable device receives a description from the user via another voice command. If a determination is made that the voice command is not needed, the process 3300 proceeds to block 3360. At block 3360, the wearable device prepares an instruction for an execution and confirmation request. At block 3370 an acknowledgment is received from the wearable device. At block 3380, process 3300 executes the command and the command is sent to the wearable device for execution. Process 3300 then proceeds to block 3392 and the process ends.

도 34는 일 실시예에 따른, 이동형/웨어러블 장치에 관한 모션 기초 제스처들에 관한 예시적인 프로세스(3400)를 도시한다. 일 실시예에서, 프로세스(3400)은 웨어러블 장치(예를 들어, 웨어러블 장치(140), 도 2, 26,32)상에서 모션 기초 제스처를 포함하는 명령들을 수신하는데, 이러한 모션 기초 제스처들은 사용자의 팔 움직임에 대응하여 웨어러블 장치(140)의 미리 정해진 이동 또는 움직임을 감지하는 웨어러블 장치(예를 들어, 팔목밴드)를 포함한다. 일 실시예에서, 프로세스(3400)내 어떤 포인트에서든 사용자는 명령들을 검토하기 위해 스크롤 하여 터치 스크린과 상호작용 할 수 있다. 또 다른 실시 예에서, 팔목을 돌리거나 웨어러블 장비를 기울이거나 회전시키는 다른 제스처들과 같은 인식된 모션 제스처들을 통해 스크롤링이 이뤄질 수 있다. 일 실시예에서, 최근에 취소된 명령을 포름프팅하는 것과 같이, 명령이 취소된 지점으로부터 프로세스(3400)을 재시작할 수 있게 하는 다양한 방법들을 통해 사용자는 음성 명령들을 취소할 수 있다. 뿐만 아니라, 디스플레이된 프롬프트 이후에, 음성 명령들 또는 다른 입력들이 미리 정해진 간격의 시간 동안 수신되지 않는 경우(예를 들어, 유휴 기간) 프로세스는 중지되고 자동적으로 취소된다.      34 illustrates an exemplary process 3400 for motion based gestures related to a mobile / wearable device, in accordance with one embodiment. In one embodiment, the process 3400 receives instructions including a motion-based gesture on a wearable device (e.g., wearable device 140, Figure 2, 26, 32) And a wearable device (e.g., a cuff band) that senses a predetermined movement or movement of the wearable device 140 in response to the movement. In one embodiment, at any point within the process 3400, the user can scroll and interact with the touch screen to review commands. In yet another embodiment, scrolling may be accomplished through recognized motion gestures such as turning a cuff or other gestures that tilt or rotate the wearable device. In one embodiment, the user can cancel voice commands through various methods that allow the process 3400 to be restarted from where the command was canceled, such as forcing a recently canceled command. In addition, after the displayed prompt, if voice commands or other inputs are not received for a predetermined period of time (e. G., An idle period), the process is stopped and automatically canceled.

일 실시예에서, 프로세스(3400)은 스타트 블록 3401에서 시작한다. 블록 3410에서 듣기 모드에 들어가기 위한 모션 제스처 지시는 웨어러블 장치에 의해 수신된다. 블록 3411에서 음성 명령에 관한 시각적 프롬프트는 웨어러블 장치 상에서 디스플레이 된다. 블록 3412에서 이벤트 기반 아키텍처(event-based architecture)를 탐색하기 위한 오디오/음성 명령은 웨어러블 장치에 의해 사용자로부터 수신된다. 블록 3413에서 처리를 위해 오디오/음성이 웨어러블 장치(예를 들어, 전자 장치(120))에 제공된다.In one embodiment, the process 3400 begins at a start block 3401. At block 3410, the motion gesture indication for entering the listening mode is received by the wearable device. At block 3411, a visual prompt about the voice command is displayed on the wearable device. At block 3412, an audio / voice command to search for an event-based architecture is received from the user by the wearable device. At block 3413, audio / speech is provided to the wearable device (e.g., electronic device 120) for processing.

블록 3414에서는 처리된 명령이 수신 된다. 블록 3420에서 명령이 유효한지 아닌지에 대해 결정 된다. 음성 명령이 유효하지 않다고 결정된 경우, 프로세스(3400)은 무효한 명령에 대한 시각적 지시가 디스플레이 되는 블록 3415로 진행한다. 블록 3430에서는 수신된 음성 명령에 설명이 필요한지 아닌지에 대해 결정된다. 설명이 요구된다고 결정된 경우, 웨어러블 장치가 사용자들로부터 설명을 위해 프롬프트 되는 블록 3435로 프로세스(3400)이 진행된다.      At block 3414, the processed instruction is received. At block 3420, it is determined whether the command is valid or not. If it is determined that the voice command is not valid, the process 3400 proceeds to block 3415 where a visual indication of the invalid command is displayed. At block 3430, a determination is made as to whether or not a description of the received voice command is required. If the description is determined to be required, process 3400 proceeds to block 3435 where the wearable device is prompted for explanation from the users.

블록 3436에서 음성 설명은 웨어러블 장치에 의해 수신된다. 블록 3437에서 오디오/음성은 웨어러블 장치에 처리를 위해 제공된다. 블록 3438에서 프로세스 명령은 수신된다. 설명이 요구되지 않는다고 결정된 경우, 프로세스(3400)은 선택적 블록 3440으로 진행한다. 선택적 블록 3440에서 명령은 실행을 위해 준비되고 또한 확인을 위한 요청을 위해 준비된다. 선택적 블록 3450에서 확인이 수신 된다. 선택적 블록 3460에서 명령이 실행되거나, 실행을 위해 웨어러블 장치로 보내진다. 이후 프로세스(3400)은 마지막 블록 3472로 진행한다.      In block 3436 the voice description is received by the wearable device. At block 3437, audio / voice is provided for processing the wearable device. At block 3438, a process command is received. If it is determined that no description is required, process 3400 proceeds to optional block 3440. At optional block 3440, the instruction is prepared for execution and is also ready for a request for confirmation. At decision block 3450 a confirmation is received. An instruction is executed at optional block 3460, or sent to the wearable device for execution. The process 3400 then proceeds to the last block 3472.

도 35는 일 실시예에 따른, 햅틱 구성요소들(3540)을 사용한 스마트 경보 웨어러블 장치(3510)의 실시예들(3500)을 도시한다. 일 실시예에서, 햅틱 어레이(array) 또는 복수의 햅틱 구성요소들(3540)은 손목밴드와 같은 웨어러블 장치(3510)안에 내장될 수 있다. 일 실시예에서, 이 어레이는 햅틱 구성요소들(3540)의 밴드 주위 다른 부분들(예를 들어, 부분들(3550), 부분들(3545) 또는 모든 햅틱 구성요소들(3540))을 순환하는 고유한 통지들에 대해 사용자에 의해 맞춤화 될 수 있다. 일 실시예에서, 순환하는 통지(cycled notification)들은 사용자들이 손목 주위로 모션이 움직이는 것을 느낄 수 있는 햅틱 어레이 주위의 채이싱(chasing) 패턴의 하나의 경우로 제시될 수 있다. 일 실시예에서, 웨어러블 장치(3510) 밴드의 다른 부분들은 예를 들어, 손목 주변에서 시계방향 또는 반시계방향과 같은 패턴을 가지고 진동할 수 있다. 다른 패턴들은 밴드의 반대 면들이 동시에 규칙적으로 진동하고(pulse)(예를 들어, 햅틱 부분들(3550)) 그 뒤 다른 햅틱 모터(motor) 구성요소들의 반대 집합이 진동하는(예를 들어, 햅틱 부분들(3545)) 회전 패턴을 포함 할 수 있다. 예시적인 일 실시예에서, 상부 및 하부 부분들이 동시에 진동하고 그 뒤 측면 부분들이 진동하는 것 등일 수 있다. 예시적인 일 실시예에서, 스마트 경보 웨어러블 장치(3510)의 햅틱 구성요소들(3550)은 경보에 대해 진동하는 반대편 측면들을 보여준다. 또 다른 예시적인 실시예에서, 스마트 경보 웨어러블 장치(3510)의 햅틱 구성요소들(3545)는, 밴드 상에서 경보에 대해 진동하는 네 가지 지점들을 보여준다. 일 실시예에서, 스마트 경보 웨어러블 장치(3510)의 햅틱 구성요소들(3540)은 밴드 주위를 회전하며 진동한다.      35 illustrates embodiments 3500 of smart alert wearable device 3510 using haptic components 3540, according to one embodiment. In one embodiment, the haptic array or plurality of haptic components 3540 may be embedded in a wearable device 3510, such as a wristband. In one embodiment, the array is configured to rotate other portions (e.g., portions 3550, portions 3545, or all haptic components 3540) around the bands of the haptic components 3540 And may be customized by the user for unique notifications. In one embodiment, cycled notifications may be presented as one instance of a chasing pattern around a haptic array where users may feel motion around the wrist. In one embodiment, other portions of the wearable device 3510 band may vibrate with a pattern, for example, clockwise or counterclockwise around the wrist. The other patterns are such that the opposite sides of the band are regularly oscillating at the same time (e.g., haptic portions 3550) and then the opposite set of other haptic motor components is vibrated (e.g., Portions 3545) rotation pattern. In an exemplary embodiment, the upper and lower portions may vibrate at the same time, the back side portions thereof may vibrate, and the like. In one exemplary embodiment, the haptic components 3550 of the smart alert wearable device 3510 show opposite sides that vibrate for an alert. In another exemplary embodiment, the haptic components 3545 of the smart alarm wearable device 3510 show four points of vibration on an alarm on a band. In one embodiment, the haptic components 3540 of the smart alarm wearable device 3510 oscillate around the band and vibrate.

일 실시예에서, 햅틱 구성요소들의 펄싱(pulsing)은 사용자가 한번에 밴드 펄스의 일부분만을 느낄 수 있도록 국한시킬 수 있다. 이는, 밴드의 다른 부분들의 진동들을 상쇄시키기 위한 인접한 햅틱 구성요소(3540) 모터들을 사용하여 이루어질 수 있다.      In one embodiment, the pulsing of the haptic components can be limited to allowing the user to feel only a portion of the band pulse at a time. This may be done using adjacent haptic component 3540 motors to offset the vibrations of other parts of the band.

일 실시예에서, 웨어러블 장치는 맞춤화할 수 있는 주기적 통지들뿐만 아니라 특정 펄스들 또는 패턴들이 정해진 의미들을 갖는 햅틱 언어를 포함할 수 있다. 일 실시예에서, 진동 패턴들 또는 펄스들은 웨어러블 장치(3510)의 새로운 상태를 나타내기 위해 사용될 수 있다. 예시적인 일 실시예로서, 중요한 통지들 또는 전화들이 수신될 때, 통지들을 구별할 때 고유의 햅틱 패턴들을 통해 메시지 발신인들 신원을 확인할 때 등이 있다.      In one embodiment, the wearable device may include customizable periodic notifications, as well as haptic languages in which certain pulses or patterns have defined meanings. In one embodiment, vibrational patterns or pulses may be used to indicate the new state of the wearable device 3510. In one exemplary embodiment, when important notices or phones are received, when identifying notifications, identifying message senders' identities through unique haptic patterns, and the like.

일 실시예에서, 웨어러블 장치(3510)은 사용자가 햅틱 어레이의 효과들을 느낄 수 있게끔 더 전도성 있는 재료를 포함할 수 있다. 이러한 재료는 국소적 느낌을 강화하기 위해 더 부드러운 장치일 수 있다. 일 실시예에서, 햅틱 어레이에 의해 발생하는 더 단일화된 진동 느낌 또는 진동들의 혼합을 위해 더 단단한 장치가 사용될 수 있다. 일 실시예에서, 웨어러블 장치(3510)의 내부는 다른 타입의 재질을 갖기 위해(예를 들어, 더 부드러운, 더 단단한, 더 신축성 있는 등) 웨어러블 장치(3520)에 도시된 바와 같이 맞춤화 될 수 있다.      In one embodiment, the wearable device 3510 may include more conductive material so that the user can feel the effects of the haptic array. Such a material may be a softer device to enhance the local feel. In one embodiment, a more rigid device may be used for a more uniform vibration feel or mixture of vibrations caused by the haptic array. In one embodiment, the interior of the wearable device 3510 can be customized as shown in the wearable device 3520 to have other types of material (e.g., softer, harder, more elastic, etc.) .

위에서 설명된바와 같이, 일 실시예에서 햅틱 피드백 어레이는 특정 패턴들로 맞춤화 될 수 있고 프로그램 될 수 있다. 프로그래밍은 물리적 힘 저항 센서 또는 터치 인터페이스를 사용하여 입력을 받을 수 있다. 일 실시예에서, 웨어러블 장치(3510)은 언급된 입력 방법들 중 하나를 사용하여 햅틱 패턴을 개시 또는 기록한다. 또 다른 실시예에서, 웨어러블 장치(3510)은 특정 사람으로부터 손목 움켜쥠과 같은 촉각을 이용한 접촉의 복제(압력, 천천히 감싸는 진동 등을 통해), 비언어적 메시지를 수신하기 위해 설정될 수 있다. 일 실시예에서, 비언어적 메시지는 고유의 진동 또는 패턴일 수 있다. 예시적인 일 실시예에서, 예를 들어, 밴드를 쥐어 특별한 통지를 가족 구성원에게 송신하는 것과 같이 사용자는 프로그램된 고유의 진동을 미리 선택한 수신인에게 보내게끔 그들의 웨어러블 장치(3510)을 쥘 수 있다. 일 실시예에서, 맞춤 진동 패턴은 디스플레이 된 문자 메시지, 이미지 또는 특정 슬라이드와 동반될 수 있다.As described above, in one embodiment, the haptic feedback array can be tailored to specific patterns and can be programmed. Programming can be input using a physical force resistance sensor or a touch interface. In one embodiment, wearable device 3510 initiates or records a haptic pattern using one of the mentioned input methods. In yet another embodiment, the wearable device 3510 may be configured to receive a non-verbal message from a particular person (e.g., via pressure, slowly wrapping vibration, etc.) of a touch using a tactile sense, such as a wrist clasp. In one embodiment, the non-verbal message may be a unique vibration or pattern. In an exemplary embodiment, a user may hold their wearable device 3510 to send a programmed unique vibration to a pre-selected recipient, such as by squeezing a band and sending special notifications to a family member. In one embodiment, the customized vibration pattern may be accompanied by a displayed text message, an image, or a specific slide.

일 실시예에서, 햅틱 패턴 기록을 위한 다양한 방법들이 사용될 수 있다. 일 실시예에서, 배열, 진폭, 위상, 진동 등을 구성하는 다차원 햅틱 패턴이 기록될 수 있다. 일 실시예에서, 패턴의 이러한 구성요소들은 사용자 입력으로부터 따로 기록되거나 해석될 수 있다. 일 실시예에서, 대안적 방법은 터치스크린을 다양한 액튜에이터들에 대응하는 터치 입력 장소들을 포함하는 GUI와 함께 활용할 수 있다. 예시적인 일 실시예에서, 터치 스크린은 x 및 y축을 힘 입력(force input)에 맞춰 햅틱 액튜에이터들의 어레이에 따라 배치할 수 있다. 일 실시예에서, 다차원 패턴 알고리즘 또는 모듈은 사용자 입력을 햅틱 패턴(예를 들어, 배열, 진폭, 위상, 진동 등을 활용하는)에 컴파일하는데 사용될 수 있다. 또 다른 실시예는, 기록 프로그램을 사용하여 웨어러블 장치(3510)으로부터 분리된 장치(예를 들어, 전자 장치(120))상에서 햅틱 패턴 기록을 수행하는 것을 고려할 수 있다. 실시 예에서, 사용자가 노력을 들이지 않고 햅틱 패턴들을 생성하는 것을 돕기 위해 미리 정해진 패턴들이 활용될 수 있거나 프로그램이 지능형 알고리즘을 활용할 수 있다.      In one embodiment, various methods for haptic pattern writing may be used. In one embodiment, a multidimensional haptic pattern constituting the arrangement, amplitude, phase, vibration, etc. may be recorded. In one embodiment, these components of the pattern may be recorded or interpreted separately from the user input. In one embodiment, an alternative method may utilize the touch screen with a GUI that includes touch input locations corresponding to the various actuators. In an exemplary embodiment, the touch screen may position the x and y axes in accordance with an array of haptic actuators in response to a force input. In one embodiment, a multidimensional pattern algorithm or module may be used to compile the user input into a haptic pattern (e.g., utilizing an array, amplitude, phase, vibration, etc.). Still another embodiment may consider performing haptic pattern writing on a device (e.g., electronic device 120) that is separate from wearable device 3510 using a recording program. In an embodiment, predetermined patterns may be utilized or the program may utilize an intelligent algorithm to help the user generate haptic patterns effortlessly.

도 36은 일 실시예에 따른, 맞춤화된 햅틱 패턴을 기록하는 예시적인 프로세스(3600)의 예시를 도시한다. 일 실시예에서, 프로세스(3600)은 외부 장치(예를 들어, 전자 장치(120), 클라우드(150) 등)에서 수행될 수 있고 웨어러블 장치(예를 들어, 웨어러블 장치(140) 또는 3510, 도 2, 26, 32, 35)에 제공될 수 있다. 일 실시예에서, 플로우(flow)는 햅틱 입력 기록 모드의 개시를 나타내는 입력을 수신한다. 일 실시예에서, 개시는 맞춤화된 기록에 관한 입력 명령들을 받아들이기 위한 GUI 또는 다른 UI를 디스플레이하거나 포함할 수 있다. 일 실시예에서, 햅틱 입력에 관한 기록 모드는 미리 설정된 제한 또는 도달된 시간 또는 특정 수 초(예를 들어, 유휴 시간) 동안 어떤 입력도 감지되지 않을 때까지 지속된다. 일 실시예에서, 햅틱 기록은 이후에 진행된다. 처리과정에는 고유의 패턴으로 햅틱 입력을 컴파일하기 위한 알고리즘을 적용하는 것을 포함할 수 있다. 예시적인 일 실시예에서, 알고리즘은 일정 시간 동안의 단일 힘 입력을 진폭, 진동 및 위치(예를 들어, 손목밴드 둘레)의 변화를 포함하는 고유의 패턴으로 변환할 수 있다. 일 실시예에서, 처리과정은 햅틱 입력의 특징을 강화하거나 창의적으로 바꿈으로써 입력을 리치 플레이백(rich play-back) 경험으로 변환하는데 하나 이상의 필터들을 적용하는 것을 포함할 수 있다. 예시적인 일 실시예에서, 필터는 햅틱 샘플을 제거하거나 입력에 페이딩(fading) 효과를 적용할 수 있다. 처리된 기록은 수신인에게 송신되거나 이전될 수 있다. Bluetooth®, WiFi, 핸드폰, HTTP 등과 같은 다양한 커뮤니케이션 인터페이스 방법들을 통해 이전이 완료될 수 있다. 일 실시예에서, 처리된 기록의 송신은 클라우드 백엔드(backend)로 라우팅되고, 전화로 보내진 후, 블르투스를 통해 웨어러블 장치로 라우팅되는 작은 크기의 메시지를 이전하는 것을 포함할 수 있다.      Figure 36 illustrates an example of an exemplary process 3600 for recording a customized haptic pattern, in accordance with one embodiment. In one embodiment, process 3600 may be performed on an external device (e.g., electronic device 120, cloud 150, etc.) and may be executed on a wearable device (e.g., wearable device 140 or 3510, 2, 26, 32, 35). In one embodiment, the flow receives input indicative of initiation of the haptic input recording mode. In one embodiment, the initiation may display or include a GUI or other UI for accepting input commands for customized recording. In one embodiment, the recording mode for the haptic input is continued until no input is detected for a preset limit or time reached or a specified number of seconds (e.g., idle time). In one embodiment, haptic recording proceeds later. The process may involve applying an algorithm to compile the haptic input in a unique pattern. In one exemplary embodiment, the algorithm may convert a single force input for a period of time into a unique pattern that includes variations in amplitude, vibration, and position (e.g., around the wristband). In one embodiment, the processing may include applying one or more filters to transform the input into a rich play-back experience by enhancing or creatively changing the characteristics of the haptic input. In an exemplary embodiment, the filter may remove a haptic sample or apply a fading effect to the input. The processed record may be transmitted or transferred to the recipient. Transfers can be accomplished through a variety of communication interface methods such as Bluetooth®, WiFi, mobile phones, and HTTP. In one embodiment, the transmission of the processed record may involve moving a small size message that is routed to the cloud backend, routed to the phone, and then routed to the wearable device via Bluetooth.

일 실시예에서, 인간과 웨어러블 장치의 상호작용은 3610에 규정되어있다. 블록 3620에서 햅틱 입력의 기록이 개시된다. 블록 3630에서 햅틱 샘플이 기록된다. 블록 3640에서 기록 제한에 다다랐는지 또는 특정 시간(예를 들어, 수 초) 동안 어떤 입력도 수신 되지 않았는지가 결정된다. 기록 제한에 다다르지 않았고 입력이 수신된 경우, 프로세스(3600)은 블록 3630으로 다시 되돌아가서 진행된다. 기록 제한에 다다랐거나 특정 시간 동안 어떤 입력도 수신되지 않은 경우, 프로세스(3600)은 블록 3660으로 진행한다. 블록 3660에서 햅틱 기록이 처리된다. 블록 3670에서 햅틱 기록은 수신인에게 송신된다. 일 실시예에서, 프로세스(3600)은 블록 3610으로 되돌아가 진행되고 반복되며, 아래 보여지는 프로세스로 흘러가거나 종료된다.      In one embodiment, the interaction of a wearable device with a human is defined in 3610. At block 3620, recording of the haptic input is initiated. At block 3630, a haptic sample is recorded. At block 3640, it is determined whether a recording limit has been reached or no input has been received for a particular period of time (e.g., a few seconds). If the recording limit is not reached and an input is received, the process 3600 proceeds back to block 3630 and proceeds. If the recording limit has been reached or no input has been received for a certain time, the process 3600 proceeds to block 3660. [ At block 3660, the haptic recording is processed. At block 3670, the haptic recording is transmitted to the recipient. In one embodiment, the process 3600 proceeds back to block 3610 and repeats and flows to or ends the process shown below.

도 37은 일 실시예에 따른, 햅틱 기록을 수신 받고 재생하는 웨어러블 장치(예를 들어, 웨어러블 장치(140) 또는 3510, 도 2,26, 32, 35)에 관한 예시적인 프로세스(3700)를 도시한다. 일 실시예에서, 입력 기록(3710)은, 웨어러블 장치 상에서 재생될 수 있는지 확인하기 위해, 즉, 적합한 포맷이고, 전송에서 손실과 변질이 없는지 등을 확인하기 위해 블록 3720에서 미리 처리될 수 있다. 일 실시예에서, 사용자가 생성된 기록을 경험할 수 있게 해주는 블록 3730내 웨어러블 장치에서 기록이 재생될 수 있다.      Figure 37 illustrates an exemplary process 3700 for a wearable device (e.g., wearable device 140 or 3510, Figure 2, 26, 32, 35) receiving and playing a haptic record, in accordance with one embodiment do. In one embodiment, the input record 3710 may be preprocessed at block 3720 to verify that it can be played on the wearable device, i.e., in a suitable format, to confirm that there is no loss and alteration in transmission, and so on. In one embodiment, the recording may be played in a wearable device within block 3730 that allows the user to experience the generated recording.

일 실시예에서, 기록, 처리 및 재생은 하나의 장치에서 온전하게 발생할 수 있다. 위 실시 예에서, 송신이 요구되지 않을 수 있다. 일 실시예에서, 또한 블록 3720내 전처리는 생략될 수 있다. 일 실시예에서, 필터링 블록이 사용될 수 있다. 일 실시예에서, 필터링 블록은 신호 장애를 없애기 위해 사용될 수 있다. 다른 필터들은, 간단한 입력을 리치 플레이백(rich play-back) 경험으로 변환시키기 위한 효과들을 독창적으로 더하기 위해 사용될 수 있다. 예시적인 일 실시예에서, 레코딩(recording)이 웨어러블 장치 밴드 주위를 돌 때, 선택적으로 레코딩을 페이드(fade)하거나 레코딩을 강화하는데 필터가 적용될 수 있다.      In one embodiment, the recording, processing and playback can occur entirely in one device. In the above embodiment, transmission may not be required. In one embodiment, preprocessing in block 3720 may also be omitted. In one embodiment, a filtering block may be used. In one embodiment, the filtering block may be used to eliminate signal interference. Other filters can be used to uniquely add effects to transform a simple input into a rich play-back experience. In an exemplary embodiment, a filter may be applied to selectively fade the recording or enhance recording as the recording travels around the wearable device band.

도 38은 일 실시예에 따른, 햅틱 기록의 예시적인 다이어그램(3800)을 도시한다. 일 실시예에서, 예시 다이어그램(3800)은 시간이 흐르는 동안 힘의 대표적 햅틱 기록을 설명한다. 일 실시예에서, 다른 변수들은 맞춤화된 햅틱 패턴을 생성할 수 있게 해주는데 이용될 수 있다. 일 실시예에서, 다이어그램(3800)은 단순화된 햅틱 기록을 보여준다. 햅틱 값은 힘에 단지 종속적일 뿐 아니라 진동수, 진폭과 위치의 복잡한 조합이다. 일 실시예에서, 햅틱 기록은 신호의 특징들을 강화하거나 독창적으로 변화시키기 위해 다른 필터들에 따라 필터 될 수 있다.      38 illustrates an exemplary diagram 3800 of haptic recording, in accordance with one embodiment. In one embodiment, example diagram 3800 illustrates exemplary haptic recording of force over time. In one embodiment, other variables may be used to allow the generation of customized haptic patterns. In one embodiment, diagram 3800 shows a simplified haptic recording. The haptic value is not only dependent on the force, but also is a complex combination of frequency, amplitude and position. In one embodiment, haptic recording can be filtered according to different filters to enhance or uniquely change the characteristics of the signal.

도 39는 일 실시예에 따른, 햅틱 입력(3930) 기록에 관한 웨어러블 장치(3920)(예를 들어, 웨어러블 장치(140) 또는 3510, 도 2, 26, 32, 35와 유사한)의 단일 축 힘 센서(force sensor)(3910)의 실시예(3900)를 도시한다. 일 실시예에서, 햅틱 센서(3910)은 센서상에서 손가락(3940)으로부터의 힘과 같은 단일 타입의 입력을 인식 할 수 있다. 예시적인 일 실시예에서, 단일 햅틱 입력(3930)과 함께 햅틱 기록이 시간에 대한 힘 다이어그램으로 보여질 수 있다(다이어그램(3800), 도 39과 유사).      Figure 39 is a diagrammatic view of a wearable device 3920 (e.g., wearable device 140 or 3510, similar to Figures 2, 26, 32, 35) with respect to haptic input 3930 writing FIG. 39 shows an embodiment 3900 of a force sensor 3910. FIG. In one embodiment, the haptic sensor 3910 can recognize a single type of input, such as a force from the finger 3940, on the sensor. In an exemplary embodiment, the haptic recording with a single haptic input 3930 can be viewed as a force diagram over time (diagram 3800, similar to FIG. 39).

도 40은 일 실시예에 따른 웨어러블 장치(4010)(예를 들어, 웨어러블 장치(140), 도 2, 26, 32, 3510, 도 35, 3920, 도 39와 유사한)에 대한 햅틱 입력에 관한 터치 스크린(4020)의 실시예(4000)를 도시한다. 일 실시예에서, 햅틱 입력들을 인식하기 위한 복수의 방법들이 사용될 수 있다. 예시적인 일 실시예에서, 인식된 햅틱 입력의 단일 타입은 사용자 손가락에 의한 센서상의 힘(4030)일 수 있다. 예시적인 일 실시예에서, 또 다른 타입의 햅틱 입력(4040)은 터치스크린(4020) 및 센서상에서의 힘(4030) 모두를 활용하는 것을 포함할 수 있다. 힘(4030)뿐 아니라 터치스크린(4020)상의 x 및 y 위치가 햅틱 입력으로 인식될 수 있다. 이는, 알고리즘이 자리를 차지하고 햅틱 신호를 구성하는 프리폼 접근법(freeform approaching)을 가능하게 할 수 있다. 예시적인 일 실시예에서, 햅틱 입력의 제3자 타입(4050)은 터치 스크린(4020)상에서 오로지 GUI를 이용하여 수행될 수 있다. 입력 타입은 서로 다른 신호들, 음조들 또는 효과들에 대한 GUI에 의해 디스플레이 되는 사용버튼들 포함할 수 있다. 일 실시예에서, GUI는 추가적인 햅틱 입력 조합들을 위해 버튼들 및 트랙 패드의 혼합을 구성할 수 있다.      Figure 40 illustrates a touch relating to haptic input to a wearable device 4010 (e.g., wearable device 140, Figure 2, 26, 32, 3510, Figure 35, 3920, An embodiment 4000 of screen 4020 is shown. In one embodiment, a plurality of methods for recognizing haptic inputs may be used. In an exemplary embodiment, the single type of recognized haptic input may be force 4030 on the sensor by the user's finger. In an exemplary embodiment, another type of haptic input 4040 may include utilizing both touchscreen 4020 and force 4030 on the sensor. The x and y positions on the touch screen 4020 as well as the force 4030 can be recognized as a haptic input. This allows the algorithm to take up space and make freeform approaching to construct the haptic signal. In an exemplary embodiment, the third party type 4050 of the haptic input may be performed using the GUI solely on the touch screen 4020. The input type may include the use buttons displayed by the GUI for different signals, tonalities or effects. In one embodiment, the GUI may configure a mix of buttons and trackpad for additional haptic input combinations.

도 41은 일 실시예에 따른 웨어러블 장치(140) 시스템(4100)에 관한 예시적인 블록 다이어그램을 도시한다. 일 실시예에서, 터치 스크린(2630), 힘 센서(4110), 및 햅틱 배열(4130)은 위에서 설명된 기능들을 수행할 수 있다. 일 실시예에서, 커뮤니케이션 인터페이스 모듈(2640)은 데이터의 전송 또는 수신을 가능케 하는 다양한 커뮤니케이션 인터페이스 방법들, 예를 들어, Bluetooth®, NFC, WiFi, cellular 등을 통해 다른 장치들과 연결될 수 있다. 일 실시예에서, 햅틱 패턴 모듈(3210)은 개시 및 햅틱 배열(4130)상의 햅틱 입력의 재생과 함께 햅틱 입력의 기록을 제어할 수 있다. 예시적인 일 실시예에서, 햅틱 패턴 모듈(4210)은 또한 위에서 설명된 기록된 입력의 처리를 수행할 수 있다. 일 실시예에서, 햅틱 패턴 모듈(4120)은 햅틱 신호를 독창적으로 구성하기 위한 알고리즘, 즉, 위치 및 힘을 웨어러블 장치(140) 밴드 주위를 도는 햅틱 신호로 바꾸는 알고리즘을 포함할 수 있다. 일 실시예에서, 햅틱 패턴 모듈(4120)은 또한 커뮤니케이션 인터페이스 모듈(2640)을 통해 다른 장치들로 햅틱 패턴들을 전송할 수 있거나 웨어러블 장치(140)상에서 재생하기 위한 햅틱 패턴들을 수신할 수 있다.      41 shows an exemplary block diagram of a wearable device 140 system 4100, according to one embodiment. In one embodiment, touch screen 2630, force sensor 4110, and haptic arrangement 4130 can perform the functions described above. In one embodiment, communication interface module 2640 may be coupled to other devices via various communication interface methods, such as Bluetooth, NFC, WiFi, cellular, etc., to enable transmission or reception of data. In one embodiment, the haptic pattern module 3210 may control the recording of the haptic input with the playback of the haptic input on the start and haptic arrangement 4130. In an exemplary embodiment, the haptic pattern module 4210 may also perform processing of the recorded inputs described above. In one embodiment, the haptic pattern module 4120 may include an algorithm for uniquely configuring the haptic signal, i. E., An algorithm that translates the position and force into a haptic signal around or around the wearable device 140 band. In one embodiment, the haptic pattern module 4120 can also transmit haptic patterns to other devices via the communication interface module 2640 or receive haptic patterns for playback on the wearable device 140.

도 42는 일 실시예에 따른 사용자 데이터를 컨텍스트화하고 제시하는 프로세스 블록 다이어그램(4200)을 도시한다. 일 실시예에서, 블록 4210에서의 프로세스는 서비스 활동 데이터 및 하나 이상의 전자 장치로부터의 센서 데이터를 포함하는 정보를 수집하는 것을 포함한다. 블록 4220은 수집된 정보와 관련된 시간에 기초하여 정보를 조직하는 것을 제공한다. 블록 4230에서 하나 이상의 전자 장치들에 대한 잠재 관심사의 컨텐트 정보 및 서비스 정보 중 하나 이상 사용자 컨텍스트 및 사용자 활동 중 하나 이상에 기초하여 제공된다.      Figure 42 illustrates a process block diagram 4200 for contextualizing and presenting user data in accordance with one embodiment. In one embodiment, the process at block 4210 includes collecting information that includes service activity data and sensor data from one or more electronic devices. Block 4220 provides for organizing the information based on the time associated with the collected information. Is provided based on at least one of user context and user activity of at least one of content information and service information of potential interest for one or more electronic devices at block 4230.

일 실시예에서, 프로세스(4200)은 조직된 정보를 하나 이상의 선택된 필터들에 기초하여 필터링 하는 것을 포함한다. 하나의 예시에서, 사용자 컨텍스트는 장소 정보, 이동 정보 및 사용자 활동 중 하나 이상에 기초하여 결정된다. 조직된 정보는 시각화된 타임라인 상에서 특정 시간순으로 제시 될 수 있다. 예시적인 일 실시예에서, 잠재 관심사에 관한 컨텐트 및 서비스들 중 하나 이상을 제공하는 것은 하나 이상의 전자 장치들에 경보들, 제안들, 이벤트들 및 커뮤니케이션 중 하나 이상을 제공하는 것을 포함한다.      In one embodiment, process 4200 includes filtering organized information based on one or more selected filters. In one example, the user context is determined based on at least one of location information, movement information, and user activity. Organized information can be presented in a specific time order on the visualized timeline. In an exemplary embodiment, providing one or more of the content and services relating to potential interests includes providing one or more of the alerts, suggestions, events, and communications to the one or more electronic devices.

하나의 예시에서, 컨텐트 정보 및 서비스 정보는 하나 이상의 전자 장치들을 이용하여 사용자 서브스크립할 수 있다. 일 실시예에서, 조직된 정보는 하나 이상의 전자 장치들에게 동적으로 전달된다. 일 실시예에서, 서비스 활동 데이터, 센서 데이터 및 컨텐트는 사용자 액션에 기초하여 플래그된 이벤트로 캡쳐될 수 있다. 서비스 활동 데이터 및 하나 이상의 전자 장치들로부터의 센서 데이터는 사용자 컨텍스트를 결정하기 위해 클라우드 기반 시스템 및 네트워크 시스템 중 하나 이상에 제공될 수 있다. 일 실시예에서, 하나 이상의 전자 장치들상에서 모드 활성화 및 통지 중 하나 이상을 제어하기 위해 사용자 컨텍스트가 하나 이상의 전자 장치들에 제공된다.      In one example, the content information and service information may be user subscripted using one or more electronic devices. In one embodiment, the organized information is dynamically delivered to one or more electronic devices. In one embodiment, service activity data, sensor data, and content may be captured as events flagged based on user actions. Service activity data and sensor data from one or more electronic devices may be provided to one or more of a cloud-based system and a network system to determine a user context. In one embodiment, a user context is provided to one or more electronic devices to control one or more of mode activation and notification on one or more electronic devices.

일 실시예에서, 조직된 정보는 연속적으로 제공되고 타임라인을 거쳐 수집된 라이프 이벤트 정보를 포함한다. 라이프 이벤트 정보는 클라우드 기반 시스템, 네트워크 시스템 및 하나 이상의 전자 장치들 중 하나 이상에 저장될 수 있다. 일 실시예에서, 하나 이상의 전자 장치들은 이동형 전자 장치들을 포함하고, 이동형 장치들은 이동형 전화, 웨어러블 계산 장치, 태블릿 장치 및 이동형 계산 장치 중 하나 이상을 구성한다.      In one embodiment, the organized information is continuously provided and includes life event information collected via the timeline. The life event information may be stored in one or more of a cloud-based system, a network system, and one or more electronic devices. In one embodiment, the one or more electronic devices comprise mobile electronic devices, and the mobile devices constitute one or more of a mobile phone, a wearable computing device, a tablet device, and a mobile computing device.

도 43은 하나 이상의 실시 예들을 실행하는 계산 시스템(500)을 포함하는 정보 처리 시스템을 보여주는 하이-레벨(High-level) 블록 다이어그램이다. 시스템(500)은 하나 이상의 프로세서들(511)(예를 들어, ASIC, CPU 등)을 포함하고 전자 디스플레이 장치(512)(그래픽들, 문자, 그리고 다른 데이터를 디스플레이 하기 위한), 메인 메모리(513)(예를 들어, RAM(random access memory, 캐시 장치들, 등), 저장 장치(514)(예를 들어, 하드디스크 드라이브), 이동식(removable) 저장 장치(515)(이동식 저장 드라이브, 이동식 메모리 모듈, 자기 테이프 드라이브, 광학식 디스크 드라이브, 컴퓨터 소프트웨어 및/또는 데이터가 저장돼있는 컴퓨터 판독가능 매체), 사용자 인터페이스 장치(516)(예를 들어, 키보드, 터치 스크린, 키패드, 위치지정 도구), 및 커뮤니케이션 인터페이스(517)(예를 들어, 모뎀, 무선 트랜스시버(Wi-Fi, 휴대폰과 같은), 네트워크 인터페이스(Ethernet card와 같은), 커뮤니케이션 포트, 또는 PCMCIA 슬롯과 카드))를 더 포함할 수 있다.      43 is a high-level block diagram illustrating an information processing system including a computing system 500 that executes one or more embodiments. The system 500 includes one or more processors 511 (e.g., ASIC, CPU, etc.) and includes an electronic display device 512 (for displaying graphics, text, and other data), a main memory 513 (E.g., a random access memory (RAM), cache devices, etc.), a storage device 514 (e.g., a hard disk drive), a removable storage device 515 (E.g., a keyboard, a touch screen, a keypad, a positioning tool), and / or a computer readable medium on which data is stored A communication interface 517 (e.g., a modem, a wireless transceiver (such as Wi-Fi, a cellular phone), a network interface (such as an Ethernet card), a communication port, or a PCMCIA slot and card) .

커뮤니케이션 인터페이스(517)은 인터넷(550), 이동형 전자 장치(551), 서버(552), 네트워크(553) 등을 통해 컴퓨터 시스템 및 외부 장치들 간에 소프트웨어와 데이터 전송을 가능하게 한다. 시스템(500)은 517을 통한 앞서 언급한 장치들/모듈들(511)이 연결된 커뮤니케이션 기반시설(518)(예를 들어, 커뮤니케이션 버스 크로스 바 또는 네트워크)을 더 포함한다.      The communication interface 517 enables software and data transfer between the computer system and external devices via the Internet 550, the mobile electronic device 551, the server 552, the network 553, and the like. The system 500 further includes a communication infrastructure 518 (e.g., a communication bus crossbar or network) to which the aforementioned devices / modules 511 are connected via 517.

커뮤니케이션 인터페이스(517)을 통해 전송된 정보는 신호들을 운반하는 선로 또는 케이블, 광섬유, 전화선, 휴대폰 링크, 무선 주파수(RF) 링크, 및/또는 다른 커뮤니케이션 채널들을 이용해 실행될 수 있는 커뮤니케이션 링크를 통한 전자, 전자기, 전자광학 또는 커뮤니케이션 인터페이스(517)에 의해 전달받을 수 있는 다른 신호들과 같은 신호들의 형태일 수 있다.      The information transmitted via the communication interface 517 may be transmitted over a communication link that may be implemented using a line or cable carrying signals, an optical fiber, a telephone line, a cellular link, a radio frequency (RF) link, and / Electromagnetic, electro-optical or other signals that may be communicated by the communication interface 517. [0050]

이동형 무선 장치(예를 들어, 이동형 전화, 스마트 폰, 태블릿, 이동형 계산 장치, 웨어러블 장치 등)내의 하나 이상의 실시예들을 실행하는데 있어서, 시스템(500)은 카메라(128)(도 2)와 같은 이미지 캡쳐 장치(520), 마이크(122)(도 2)와 같은 오디오 캡쳐 장치(519)를 더 포함한다. 시스템(500)은 MMS 모듈(521), SMS 모듈(522), 이메일 모듈(523) SNI(social network interface) 모듈(524), 오디오/비디오(AV) 플레이어(525), 웹 브라우저(526), 이미지 캡쳐 모듈(527) 등과 같은 어플리케이션 모듈들을 더 포함할 수 있다.      In performing one or more embodiments within a mobile wireless device (e.g., a mobile phone, a smart phone, a tablet, a mobile computing device, a wearable device, etc.), the system 500 may include an image, such as a camera 128 And an audio capture device 519 such as a capture device 520 and a microphone 122 (FIG. 2). The system 500 includes an MMS module 521, an SMS module 522, an email module 523, a social network interface (SNI) module 524, an audio / video (AV) player 525, a web browser 526, An image capture module 527, and the like.

일 실시예에서, 시스템(500)은 (도 3) 및 블록 다이어그램(100)의 구성요소들(도 2)에 관해 설명했던 것과 유사하게 처리되는 타임라인 시스템(300)을 실행할 수 있는 라이프 데이터 모듈(530)을 포함한다. 일 실시예에서, 라이프 데이터 모듈(530)은 시스템(300(도 3), 400(도 4), 1400(도 14), 1800(도 18), 3200(도 32), 3500(도 35), 4100(도 41)), 및 플로우(flow) 다이어그램들(1500(도 15), 1600(도 16), 2500(도 25), 2900(도 29), 3300(도 33), 3400(도 34) 및 3600(도 36))을 실행할 수 있다. 일 실시예에서, 라이프 데이터 모듈(530)은 동작 시스템(529)와 함께 시스템(500)의 메모리 내에 존재하는 실행 가능한 코드로 실행될 수 있다. 또 다른 실시예에서, 라이프 데이터 모듈(530)은 하드웨어, 펌웨어 등에 제공될 수 있다.      In one embodiment, the system 500 includes a life data module 300 that is capable of executing a timeline system 300 that is processed similar to that described with respect to components (Figure 2) of the block diagram 100 (Figure 3) (530). In one embodiment, the life data module 530 is configured to store the lifetime of the system 300 (FIG. 3), 400 (FIG. 4), 1400 (FIG. 14), 1800 (FIG. 18), 3200 (FIG. 41), and flow diagrams 1500 (FIG. 15, 1600, 2500, 2900, 2900, 3300, And 3600 (FIG. 36)). In one embodiment, the life data module 530 may be executed with executable code that resides in the memory of the system 500 with the operating system 529. [ In another embodiment, the life data module 530 may be provided in hardware, firmware, and the like.

통상의 기술자에게 알려졌듯이, 상술한 아키텍처들에 따른, 위에 설명된 앞에서 언급된 예시 아키텍처들은 프로세서에 의해 실행되기 위한 프로그램 명령어들, 소프트웨어 모듈들, 마이크로코드들, 컴퓨터 판독 가능한 매체 상의 컴퓨터 프로그램 제품, 아날로그/로직 회로들, 특정 어플리케이션 집적회로들, 펌웨어, 소비자 전자 장치들, AV 장치들, 유/무선 전송기들, 유/무선 수신기들, 네트워크들, 멀티미디어 장치들 등 다양한 방법들로 실행될 수 있다. 더 나아가, 상술한 아키텍처의 실시 예들은, 전적으로 하드웨어 실시예의 형태, 전적으로 소프트웨어 실시예의 형태 또는 하드웨어 및 소프트웨어 구성요소들을 모두 포함한 실시예의 형태를 가질 수 있다.      As is known to those of ordinary skill in the art, the above-described exemplary architectures described above in accordance with the above described architectures include program instructions for executing by a processor, software modules, microcode, computer program product on a computer readable medium, May be implemented in a variety of ways such as analog / logic circuits, specific application integrated circuits, firmware, consumer electronics, AV devices, wired / wireless transmitters, wired / wireless receivers, networks, multimedia devices, and the like. Further, embodiments of the above-described architectures may take the form of entirely hardware embodiments, entirely in the form of software embodiments, or in the form of embodiments including both hardware and software components.

하나 이상의 실시 예들은 하나 이상의 실시 예들에 따른 흐름도 설명 및/또는 방법들의 블록 다이어그램들, 기구들(시스템들) 및 컴퓨터 프로그램 제품들을 참고로 하여 설명되었다. 설명들/다이어그램들 또는 이들의 조합들과 같은 각각의 블록은 컴퓨터 프로그램 명령어들에 의해 실행될 수 있다. 컴퓨터 프로그램 명령어들이 프로세서에 제공되었을 때 머신(machine)을 생산하는데, 프로세서를 통해 실행되는 이러한 명령어들이 플로우차트 및/또는 블록 다이어그램 내에 개시된 기능들/동작들을 실행하는 방법들을 만든다. 플로우차트/블록 다이어그램들 내 각각의 블록은 하나 이상의 실시 예들에서 실행되는 하드웨어 및/또는 소프트웨어 모듈 또는 로직을 나타낼 수 있다. 대체 가능한 실행에서, 블록들에서 잘 알려진 기능은 도면 등에서 잘 알려진 순서를 동시에 벗어날 수 있다.      One or more embodiments have been described with reference to block diagrams, mechanisms (systems), and computer program products of the flowchart illustrations and / or methods in accordance with one or more embodiments. Each block, such as descriptions / diagrams or combinations thereof, may be executed by computer program instructions. When computer program instructions are provided to a processor, such instructions that are executed through the processor produce ways to execute the functions / operations disclosed in the flowchart and / or block diagram. Each block in the flowchart / block diagrams may represent hardware and / or software modules or logic executed in one or more embodiments. In alternative implementations, well-known functions in blocks may simultaneously deviate from well-known sequences in the drawings and the like.

용어들 "컴퓨터 프로그램 매체", "컴퓨터 사용가능 매체", "컴퓨터 판독 가능 매체", 및 "컴퓨터 프로그램 제품"들은 일반적으로 메인 메모리, 보조 메모리, 삭제 가능한 저장소 드라이브, 하드 디스크 드라이브에 설치된 하드 디스크와 같은 매체를 의미하기 위해 사용된다. 컴퓨터 프로그램 제품들은 소프트웨어에 컴퓨터 시스템을 제공하기 위한 방법들이다. 컴퓨터 판독 가능한 매체는 컴퓨터 시스템이 데이터, 설명들, 메시지들 또는 메시지 패킷들 및 컴퓨터 판독 가능 매체로부터 다른 컴퓨터 판독 가능 정보를 읽을 수 있도록 해준다. 컴퓨터 판독 가능 매체는 예를 들어, 플로피 디스크, ROM, 플래시 메모리, 디스크 드라이브 메모리, CD-ROM 및 다른 영구적 저장소와 같은 비휘발성 메모리를 포함 할 수 있다. 예를 들어, 컴퓨터 시스템들 사이에서 데이터와 컴퓨터 명령어와 같은 정보를 이동시키는데 유용하다. 컴퓨터 프로그램 명령어들은 컴퓨터, 다른 프로그래머블(programmable) 데이터 처리 기구 또는 특정 방식으로 기능하는 다른 장치들을 지시할 수 있는 컴퓨터 판독 가능 매체 내에 저장 될 수 있는데, 예를 들어, 컴퓨터 판독 가능 매체 내에 저장된 명령어들은 흐름도 및/또는 블록 다이어그램 블록 또는 블록들에 명시된 기능/동작을 실행하는 명령어들을 포함하는 제품을 생산한다.       The terms "computer program medium", "computer usable medium", "computer readable medium", and "computer program product" It is used to mean the same medium. Computer program products are methods for providing a computer system with software. Computer readable media allow a computer system to read data, descriptions, messages or message packets and other computer readable information from a computer readable medium. Computer readable media can include, for example, non-volatile memory such as floppy disks, ROM, flash memory, disk drive memory, CD-ROM and other permanent storage. For example, it is useful for moving information, such as data and computer instructions, between computer systems. The computer program instructions may be stored in a computer-readable medium that can direct a computer, other programmable data processing instrument, or other device functioning in a particular manner, for example, instructions stored in the computer- And / or instructions that perform the functions / operations specified in the block diagram block or blocks.

블록 다이어그램 및/또는 흐름도들을 나타내는 컴퓨터 프로그램 명령어들은 컴퓨터, 프로그래머블 데이터 처리 기구 또는 처리 장치들에 실릴 수 있는데 이러한 것들에 실려 일련의 작동들을 야기시켜 컴퓨터 실행 프로세스를 생성하기 위함이다. 컴퓨터 프로그램들(즉, 컴퓨터 제어 로직)은 메인 메모리 및/또는 보조 메모리 내에 저장된다. 또한 컴퓨터 프로그램들은 커뮤니케이션 인터페이스를 통해 수신될 수 있다. 여기에서 논의됐듯이, 이러한 컴퓨터 프로그램들이 실행되었을 때, 컴퓨터 시스템이 실시 예들의 특징들을 수행 할 수 있게 해준다. 특별히, 컴퓨터 프로그램들이 실행되었을 때 컴퓨터 프로그램들은 프로세서 및/또는 멀티코어(multi core) 프로세서가 컴퓨터 시스템의 특징들을 수행할 수 있게 해준다. 이러한 컴퓨터 프로그램들은 컴퓨터 시스템의 제어 장치들을 나타낸다. 컴퓨터 프로그램 제품은 컴퓨터 시스템에 의해 판독 가능한 유형의 저장소 매체 및 하나 이상의 실시예들의 방법을 수행하는데 관한 컴퓨터 시스템에 의한 실행 명령어들을 저장하는 것을 포함한다.       Computer program instructions that represent block diagrams and / or flowcharts may be loaded into a computer, programmable data processing apparatus, or processing devices to cause a series of operations to generate a computer-implemented process. Computer programs (i.e., computer control logic) are stored in main memory and / or auxiliary memory. The computer programs may also be received via a communication interface. As discussed herein, when these computer programs are executed, they enable the computer system to perform the features of the embodiments. In particular, when computer programs are executed, the computer programs enable a processor and / or a multi-core processor to perform the features of the computer system. These computer programs represent control devices of a computer system. The computer program product includes storing executable instructions by a computer system for performing the method of one or more embodiments and a type of storage medium readable by a computer system.

실시 예들이 앞에서 언급한 특정한 설명들을 참고하여 설명되었더라도, 다른 설명들도 가능하다. 그러므로 첨부된 청구항들의 의미 및 범위는 이 문서에 포함된 선호되는 설명들의 상세한 설명으로 제한되어서는 안 된다.Although the embodiments have been described with reference to the specific embodiments set forth above, other descriptions are possible. Therefore, the meaning and scope of the appended claims should not be limited to the detailed description of the preferred descriptions contained herein.

Claims (33)

서비스 활동 데이터 및 하나 이상의 전자 장치들로부터의 센서 데이터를 포함하는 정보를 수집하는 단계;
상기 수집된 정보와 관련된 시간에 기초하여 상기 수집된 정보를 조직하는 단계; 및
사용자 컨텍스트 및 사용자 활동 중 하나 이상에 기초하여 잠재 관심사(potential interest)에 대한 컨텐트 정보 및 서비스 정보 중 하나 이상을 상기 하나 이상의 전자 장치들에게 제공하는 단계를 포함하고,
상기 제공하는 단계는, 상기 컨텐트 정보 및 상기 서비스 정보 중 하나 이상을 과거 카테고리, 현재 카테고리 및 미래 카테고리 중 하나의 카테고리로 구분하여 제공하고,
상기 조직된 정보는 상기 하나 이상의 전자 장치들의 스크린의 제 1 축을 따라 그래픽 타임라인 상에서 특정 시간 순으로 제시되는 단계를 포함하되, 상기 잠재 관심사는 상기 그래픽 타임라인 각각에 대응되는 재정, 건강, 및 이동을 포함하며 상기 하나 이상의 전자 장치들의 상기 스크린의 제 2 축을 따라 배열되고, 상기 재정, 건강 및 이동 중 하나의 잠재 관심사가 선택되는 경우 상기 그래픽 타임라인에 대응되는 상기 선택된 잠재 관심사 정보를 디스플레이하는 것을 특징으로 하는,
사용자 데이터 컨텍스트화 및 제시 방법.
Collecting information including service activity data and sensor data from one or more electronic devices;
Organizing the collected information based on a time associated with the collected information; And
Providing one or more of the electronic devices with at least one of content information and service information for a potential interest based on at least one of a user context and a user activity,
Wherein the providing step divides one or more of the content information and the service information into one of a past category, a current category, and a future category,
Wherein the organized information is presented in a specific time order on a graphical timeline along a first axis of the screen of the one or more electronic devices, wherein the potential interest includes financial, health, and moving And displaying the selected potential interest information corresponding to the graphical timeline when one of the financial, health, and moving potential interests is selected, arranged along a second axis of the screen of the one or more electronic devices Features,
User data contextualization and presentation methods.
제 1항에 있어서,
상기 조직된 정보를 하나 이상의 선택된 필터들에 기초하여 필터링하는 단계를 더 포함하는 것을 특징으로 하는 방법.
The method according to claim 1,
≪ / RTI > further comprising filtering the organized information based on the one or more selected filters.
제 2항에 있어서,
상기 사용자 컨텍스트는 장소 정보, 움직임 정보 및 사용자 활동 중 하나 이상에 기초하여 결정되는 단계를 포함하는 것을 특징으로 하는 방법.
3. The method of claim 2,
Wherein the user context is determined based on at least one of location information, motion information, and user activity.
삭제delete 제 3항에 있어서,
잠재 관심사에 대한 컨텐트 및 서비스들 중 하나 이상을 제공하는 것은, 경보들, 제안들, 이벤트들 및 커뮤니케이션 중 하나 이상을 상기 하나 이상의 전자 장치들에게 제공하는 것을 포함하는 것을 특징으로 하는 방법.
The method of claim 3,
Providing one or more of the content and services for potential interests comprises providing one or more of the electronic devices with one or more of alerts, suggestions, events, and communications.
제 5항에 있어서,
상기 컨텐트 정보 및 상기 서비스 정보는 상기 하나 이상의 전자 장치들에서의 이용을 위해 사용자 서브스크립(user subscribable) 할 수 있는 것을 특징으로 하는 방법.
6. The method of claim 5,
Wherein the content information and the service information are user subscribable for use in the one or more electronic devices.
삭제delete 제 1항에 있어서,
상기 서비스 활동 데이터, 상기 센서 데이터 및 컨텐트는 사용자 액션에 기초하여 플래그 된(flagged) 이벤트로 캡쳐되는 단계를 포함하는 것을 특징으로 하는 방법.
The method according to claim 1,
Wherein the service activity data, the sensor data, and the content are captured with an event flagged based on a user action.
제 1항에 있어서,
상기 사용자 컨텍스트를 결정하기 위해 상기 서비스 활동 데이터 및 상기 하나 이상의 전자 장치들로부터의 상기 센서 데이터가 클라우드 기반 시스템 및 네트워크 시스템 중 하나 이상에 제공되며,
상기 사용자 컨텍스트가 상기 하나 이상의 전자 장치들상에서 모드 활성화 및 통지 중 하나 이상을 제어하기 위해 상기 하나 이상의 전자 장치들에게 제공되는 것을 특징으로 하는 방법.
The method according to claim 1,
Wherein the service activity data and the sensor data from the one or more electronic devices are provided to at least one of a cloud based system and a network system to determine the user context,
Wherein the user context is provided to the one or more electronic devices to control one or more of mode activation and notification on the one or more electronic devices.
제 1항에 있어서,
상기 조직된 정보는 연속적으로 제공되고 타임라인을 통해 수집된 라이프 이벤트 정보를 포함하고,
상기 라이프 이벤트 정보는 클라우드 기반 시스템, 네트워크 시스템 및 상기 하나 이상의 전자 장치들 중 하나 이상에 저장되는 단계를 포함하는 것을 특징으로 하는 방법.
The method according to claim 1,
Wherein the organized information is continuously provided and includes life event information collected over a timeline,
Wherein the life event information is stored in one or more of a cloud based system, a network system, and the one or more electronic devices.
제 1항에 있어서,
상기 하나 이상의 전자 장치들은 이동형 전자 장치들을 포함하고, 상기 이동형 전자 장치들은 이동형 전화, 웨어러블 계산 장치, 테블릿 장치 및 이동형 계산 장치 중 하나 이상을 포함하는 단계를 포함하는 것을 특징으로 하는 방법.
The method according to claim 1,
Wherein the one or more electronic devices comprise mobile electronic devices, and wherein the mobile electronic devices include at least one of a mobile phone, a wearable computing device, a tablet device, and a mobile computing device.
서비스 활동 데이터 및 센서 데이터를 포함하는 정보를 수집하기 위해 구성된 활동 모듈;
상기 수집된 정보와 관련된 시간에 기초하여 상기 수집된 정보를 조직하기 위해 구성된 조직 모듈; 및
사용자 컨텍스트 및 사용자 활동 중 하나 이상에 기초하여 하나 이상의 전자 장치들에게 잠재 관심사에 대한 컨텐트 정보 및 서비스 정보 중 하나 이상을 제공하기 위해 구성된 정보 분석기 모듈을 포함하고,
상기 정보 분석기 모듈은 상기 컨텐트 정보 및 상기 서비스 정보 중 하나 이상을 과거 카테고리, 현재 카테고리 및 미래 카테고리 중 하나의 카테고리로 구분하여 제공하고,
상기 조직된 정보를 제 1 축을 따라 그래픽 타임라인 상에서 특정 시간 순으로 제시하고, 상기 그래픽 타임라인 각각에 대응되는 재정, 건강, 및 이동을 포함하는 상기 잠재 관심사를 제 2 축을 따라 배열되어 제시하고, 및 상기 재정, 건강 및 이동 중 하나의 잠재 관심사가 선택되는 경우 상기 그래픽 타임라인에 대응되는 상기 선택된 잠재 관심사 정보를 디스플레이하는 스크린을 포함하는 것을 특징으로 하는 시스템.
An activity module configured to collect information including service activity data and sensor data;
An organization module configured to organize the collected information based on the time associated with the collected information; And
An information analyzer module configured to provide at least one of content information and service information for a potential interest to one or more electronic devices based on at least one of a user context and a user activity,
Wherein the information analyzer module divides at least one of the content information and the service information into one of a past category, a current category, and a future category,
Presenting the organized information along a first axis in a specific time sequence on a graphical timeline and arranging and presenting the latent interests that include financial, health, and movement corresponding to each of the graphical timelines along a second axis, And a screen for displaying the selected potential interest information corresponding to the graphical timeline when one of the potential interests of finance, health, and movement is selected.
제 12항에 있어서,
상기 조직 모듈은 하나 이상의 선택된 필터들에 기초하여 상기 조직된 정보에 필터링을 제공하는 것을 포함하는 것을 특징으로 하는 시스템.
13. The method of claim 12,
Wherein the organizational module comprises providing filtering on the organized information based on one or more selected filters.
제 13항에 있어서,
상기 사용자 컨텍스트는 장소 정보, 이동 정보 및 사용자 활동 중 하나 이상에 기초하여 상기 정보 분석기 모듈에 의해 결정되는 것을 특징으로 하는 시스템.
14. The method of claim 13,
Wherein the user context is determined by the information analyzer module based on at least one of location information, movement information and user activity.
제 14항에 있어서,
잠재 관심사에 대한 상기 컨텐트 정보 및 서비스 정보 중 하나 이상이 경보들, 제안들, 이벤트들 및 커뮤니케이션 중 하나 이상을 포함하는 것을 특징으로 하는 시스템.
15. The method of claim 14,
Wherein at least one of the content information and service information for a potential interest includes at least one of alerts, suggestions, events, and communication.
제 15항에 있어서,
상기 컨텐트 정보 및 상기 서비스 정보는 사용자가 하나 이상의 전자 장치들에서의 이용을 위해 사용자 서브스크립 할 수 있는 것을 특징으로 하는 시스템.
16. The method of claim 15,
Wherein the content information and the service information allow a user to subscript for use in one or more electronic devices.
제 12항에 있어서,
상기 하나 이상의 전자 장치들은 햅틱 신호를 제공하기 위한 복수의 햅틱 구성요소들을 포함하는 것을 특징으로 하는 시스템.
13. The method of claim 12,
Wherein the one or more electronic devices comprise a plurality of haptic components for providing a haptic signal.
제 12항에 있어서,
상기 하나 이상의 전자 장치들에서의 인식된 사용자 액션 수신에 응답하여, 상기 서비스 활동 데이터, 상기 센서 데이터 및 컨텐트가 플래그 된 이벤트로 캡쳐되는 것을 특징으로 하는 시스템.
13. The method of claim 12,
Wherein in response to receiving a recognized user action at the one or more electronic devices, the service activity data, the sensor data, and the content are captured as flagged events.
제 12항에 있어서,
상기 사용자 컨텍스트를 결정하기 위해 상기 서비스 활동 데이터 및 하나 이상의 전자 장치들로부터의 상기 센서 데이터는 클라우드 기반 시스템 및 네트워크 시스템 중 하나 이상에서 실행되는 상기 정보 분석기 모듈에 제공되며,
상기 사용자 컨텍스트는 상기 하나 이상의 전자 장치들상에서 모드 활성화 및 통지 중 하나 이상을 제어하기 위해 상기 하나 이상의 전자 장치들에게 제공되는 것을 특징으로 하는 시스템.
13. The method of claim 12,
Wherein the service activity data and the sensor data from one or more electronic devices are provided to the information analyzer module running on at least one of a cloud based system and a network system to determine the user context,
Wherein the user context is provided to the one or more electronic devices for controlling one or more of mode activation and notification on the one or more electronic devices.
제 12항에 있어서,
상기 조직된 정보가 연속적으로 제시되고 상기 조직된 정보가 타임라인을 통해 수집된 라이프 이벤트 정보를 포함하고,
상기 라이프 이벤트 정보가 클라우드 기반 시스템, 네트워크 시스템 및 상기 하나 이상의 전자 장치들 중 하나 이상에서 저장되는 것을 특징으로 하는 시스템.
13. The method of claim 12,
Wherein the organized information is presented continuously and the organized information includes life event information collected via a timeline,
Wherein the life event information is stored in at least one of the cloud-based system, the network system, and the one or more electronic devices.
제 12항에 있어서,
상기 하나 이상의 전자 장치들은 이동형 전자 장치들을 포함하고, 상기 이동형 전자 장치들은 이동형 전화, 웨어러블 계산 장치, 태블릿 장치 및 이동형 계산 장치 중 하나 이상을 포함하는 것을 특징으로 하는 시스템.
13. The method of claim 12,
Wherein the one or more electronic devices comprises mobile electronic devices, wherein the mobile electronic devices include one or more of a mobile phone, a wearable computing device, a tablet device, and a mobile computing device.
서비스 활동 데이터 및 하나 이상의 전자 장치들로부터의 센서 데이터를 포함하는 정보를 수집하는 단계;
상기 수집된 정보와 관련된 시간에 기초하여 상기 수집된 정보를 조직하는 단계; 및
사용자 컨텍스트 및 사용자 활동 중 하나 이상에 기초하여 잠재 관심사에 대한 컨텐트 정보 및 서비스 정보 중 하나 이상을 하나 이상의 전자 장치들에게 제공하는 단계를 포함하고,
상기 제공하는 단계는, 상기 컨텐트 정보 및 상기 서비스 정보 중 하나 이상을 과거 카테고리, 현재 카테고리 및 미래 카테고리 중 하나의 카테고리로 구분하여 제공하고,
상기 조직된 정보는 상기 하나 이상의 전자 장치들의 스크린의 제 1 축을 따라 그래픽 타임라인 상에서 특정 시간 순으로 제시되는 단계를 포함하되, 상기 잠재 관심사는 상기 그래픽 타임라인 각각에 대응되는 재정, 건강, 및 이동을 포함하며 상기 하나 이상의 전자 장치들의 상기 스크린의 제 2 축을 따라 배열되고, 상기 재정, 건강 및 이동 중 하나의 잠재 관심사가 선택되는 경우 상기 그래픽 타임라인에 대응되는 잠재 관심사 정보를 디스플레이하는 방법을,
컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 비일시적(non-transitory) 기록매체.
Collecting information including service activity data and sensor data from one or more electronic devices;
Organizing the collected information based on a time associated with the collected information; And
Providing one or more of the electronic devices with one or more of content information and service information for a potential interest based on at least one of a user context and a user activity,
Wherein the providing step divides one or more of the content information and the service information into one of a past category, a current category, and a future category,
Wherein the organized information is presented in a specific time order on a graphical timeline along a first axis of the screen of the one or more electronic devices, wherein the potential interest includes financial, health, and moving And displaying potential interest information corresponding to the graphical timeline when one of the financial, health, and moving potential interests is selected, the graphical timeline being arranged along a second axis of the screen of the one or more electronic devices,
A computer-readable non-transitory recording medium on which a program for execution on a computer is recorded.
제 22항에 있어서,
상기 기록매체는 하나 이상의 선택된 필터들에 기초하여 상기 조직된 정보를 필터링하는 단계를 더 포함하는 기록매체로서,
상기 사용자 컨텍스트는 장소 정보, 이동 정보 및 사용자 활동 중 하나 이상에 기초하여 결정되는 것을 특징으로 하는 기록매체.
23. The method of claim 22,
Wherein the recording medium further comprises filtering the organized information based on one or more selected filters,
Wherein the user context is determined based on at least one of location information, movement information and user activity.
제 23항에 있어서,
상기 기록매체는 상기 잠재 관심사에 대한 컨텐트 정보 및 서비스 정보 중 하나 이상을 제공하는 것은 경보들, 제안들, 이벤트들 및 커뮤니케이션 중 하나 이상을 하나 이상의 전자 장치들에게 제공하는 것을 포함하는 것을 특징으로 하는 기록매체.
24. The method of claim 23,
Wherein the recording medium provides one or more of the alerts, suggestions, events, and communication to one or more electronic devices to provide one or more of the content information and service information for the potential interest. Recording medium.
제 24항에 있어서,
상기 기록매체는 상기 컨텐트 정보 및 상기 서비스 정보가 상기 하나 이상의 전자 장치에서의 이용을 위해 사용자 서브스크립 할 수 있고,
상기 서비스 활동 데이터, 상기 센서 데이터 및 컨텐트는 사용자 액션에 기초하여 플래그 된 이벤트로 캡쳐되는 것을 특징으로 하는 기록매체.
25. The method of claim 24,
Wherein the recording medium is capable of subscribing to the content information and the service information for use in the one or more electronic devices,
Wherein the service activity data, the sensor data and the content are captured as an event flagged based on a user action.
제 22항에 있어서,
상기 기록매체는 상기 사용자 컨텍스트를 결정하기 위해 상기 서비스 활동 데이터 및 하나 이상의 전자 장치들로부터의 상기 센서 데이터가 클라우드 기반 시스템 및 네트워크 시스템 중 하나 이상에 제공되며,
상기 사용자 컨텍스트는 하나 이상의 전자 장치들상에서 모드 활성화 및 통지 중 하나 이상을 제어하기 위해 상기 하나 이상의 전자 장치들에게 제공되는 것을 특징으로 하는 기록매체.
23. The method of claim 22,
Wherein the recording medium provides the service activity data and the sensor data from one or more electronic devices to one or more of a cloud based system and a network system to determine the user context,
Wherein the user context is provided to the one or more electronic devices for controlling one or more of mode activation and notification on one or more electronic devices.
제 22항에 있어서,
상기 기록매체는 상기 조직된 정보가 연속적으로 제공되고 상기 조직된 정보가 타임라인을 통해 수집된 라이프 이벤트 정보를 포함하고,
상기 라이프 이벤트 정보는 클라우드 기반 시스템, 네트워크 시스템 및 상기 하나 이상의 전자 장치들 중 하나 이상에 저장되는 단계를 포함하는 것을 특징으로 하는 기록매체.
23. The method of claim 22,
Wherein the recording medium includes life event information in which the organized information is continuously provided and the organized information is collected through a time line,
Wherein the life event information is stored in at least one of the cloud-based system, the network system, and the one or more electronic devices.
제 22항에 있어서,
상기 기록매체는 상기 하나 이상의 전자 장치들이 이동형 전자 장치들을 포함하고, 상기 이동형 전자 장치들은 이동형 전화, 웨어러블 계산 장치, 태블릿 장치 및 이동형 계산 장치 중 하나 이상을 포함하는 것을 특징으로 하는 기록매체.
23. The method of claim 22,
The recording medium being characterized in that the one or more electronic devices comprise mobile electronic devices, and wherein the mobile electronic devices comprise at least one of a mobile phone, a wearable computing device, a tablet device and a mobile computing device.
전자 장치의 디스플레이상에서 디스플레이 되는 GUI(graphical user interface)에 있어서,
서비스 활동 데이터 및 적어도 하나의 상기 전자 장치로부터 수집된 센서 데이터를 포함하는 정보와 연관된 하나 이상의 타임라인 이벤트들; 및
상기 하나 이상의 타임라인 이벤트들과 연관된 사용자 활동 및 사용자 컨텍스트 중 하나 이상에 기초한 사용자의 잠재 관심사에 대한 선택 가능한 서비스 카테고리들 및 컨텐트 정보 중 하나 이상을 포함하고,
상기 컨텐트 정보 및 상기 서비스 카테고리들 중 하나 이상은 과거 카테고리, 현재 카테고리 및 미래 카테고리 중 하나의 카테고리로 구분되어 제공되되,
상기 하나 이상의 타임라인 이벤트들은 상기 디스플레이상의 제 1 축을 따라 특정 시간 순으로 제시되고, 상기 잠재 관심사는 상기 타임라인 이벤트들 각각에 대응되는 재정, 건강, 및 이동을 포함하며 상기 디스플레이상의 제 2 축을 따라 배열되고, 상기 재정, 건강 및 이동 중 하나의 잠재 관심사가 선택되는 경우 상기 타임라인 이벤트들에 대응되어 상기 선택된 잠재 관심사 정보가 디스플레이되는 것을 특징으로 하는 GUI.
In a graphical user interface (GUI) displayed on a display of an electronic device,
One or more timeline events associated with information including service activity data and sensor data collected from at least one electronic device; And
And at least one of selectable service categories and content information for a user's potential interest based on at least one of user activity and user context associated with the one or more timeline events,
Wherein one or more of the content information and the service categories are provided divided into one category of a past category, a current category, and a future category,
Wherein the one or more timeline events are presented in a specific time order along a first axis on the display, the potential interest includes financial, health, and movement corresponding to each of the timeline events and along a second axis on the display And wherein the selected potential interest information is displayed corresponding to the timeline events when one of the potential interests of the financial, health, and movement is selected.
제 29항에 있어서,
상기 하나 이상의 타임라인 이벤트들과 연관된 하나 이상의 카테고리들을 디스플레이하기 위해 하나 이상의 아이콘들이 선택될 수 있으며,
사용자가 관심 있어 하는 제안된 컨텐트 정보 및 서비스 정보 중 하나 이상이 GUI상에서 제공되는 것을 특징으로 하는 GUI.
30. The method of claim 29,
One or more icons may be selected to display one or more categories associated with the one or more timeline events,
Wherein one or more of the proposed content information and service information that the user is interested in is provided on the GUI.
전자 장치의 디스플레이 아키텍처로서,
복수의 컨텐트 구성요소들 및 잠재 사용자 관심사에 대한 하나 이상의 컨텐트 구성요소들을 포함하는 타임라인을 포함하며,
상기 복수의 시간-기반 요소들이 이벤트 정보, 커뮤니케이션 정보 및 컨텍스트 경보 정보 중 하나 이상을 포함하고, 상기 복수의 시간-기반 구성요소들이 특정한 시간순으로 디스플레이 되는 것과,
인식된 사용자 액션 수신에 기초한 확장된 정보를 제공하기 위해 상기 복수의 시간-기반 구성요소들은 확장 가능한 것과,
상기 복수의 컨텐트 구성요소들 및 잠재 사용자 관심사에 대한 하나 이상의 컨텐트 구성요소들은 과거 카테고리, 현재 카테고리 및 미래 카테고리 중 하나의 카테고리로 구분되어 제공되고,
상기 복수의 시간-기반 구성요소들은 상기 디스플레이 아키텍처의 제 1 축을 따라 디스플레이되고, 상기 잠재 사용자 관심사는 상기 복수의 시간-기반 구성요소들 각각에 대응되는 재정, 건강, 및 이동을 포함하며 상기 디스플레이 아키텍처의 제 2 축을 따라 배열되고, 상기 재정, 건강 및 이동 중 하나의 잠재 관심사가 선택되는 경우 상기 복수의 시간-기반 구성요소들에 대응되는 상기 선택된 잠재 관심사 정보가 디스플레이되는 것을 특징으로 하는, 디스플레이 아키텍처.
A display architecture of an electronic device,
A timeline comprising a plurality of content elements and one or more content elements for potential user interest,
Wherein the plurality of time-based elements comprise at least one of event information, communication information, and context alert information, the plurality of time-based elements being displayed in a specific time order,
Wherein the plurality of time-based components are extensible to provide extended information based on receiving a recognized user action,
Wherein one or more content components for the plurality of content components and potential user interests are provided divided into one of a past category, a current category, and a future category,
Wherein the plurality of time-based components are displayed along a first axis of the display architecture, the potential user concern includes financial, health, and movement corresponding to each of the plurality of time-based components, Characterized in that the selected potential interest information corresponding to the plurality of time-based elements is displayed when a potential interest of one of the financial, health and movement is selected, .
웨어러블 전자 장치에 있어서,
프로세서;
프로세서와 결합된 메모리;
곡선 모양의 디스플레이; 및
컨텍스트 정보를 결정하고, 서비스 활동 데이터 및 페어링된 호스트 전자 장치로부터의 부가 센서 데이터 중 하나 이상으로부터 수신된 부가 정보 및 센서 데이터에 기초하여 결정되는 상기 컨텍스트 정보를 이용하여 잠재 관심사에 대한 컨텐트 정보 및 서비스 정보 중 하나 이상을 웨어러블 전자 장치의 타임라인 모듈에게 제공하는 분석 모듈에게 센서 데이터를 제공하는 하나 이상의 센서들을 포함하는데 있어서,
컨텐트 정보 및 서비스 정보 중 하나 이상은 과거 카테고리, 현재 카테고리 및 미래 카테고리 중 하나의 카테고리로 구분되어 제공되며, 상기 타임라인 모듈은 상기 곡선모양 디스플레이의 타임라인 인터페이스에 관한 컨텐트를 조직하되,
상기 조직된 컨텐트는 상기 곡선모양의 디스플레이의 제 1 축을 따라 그래픽 타임라인 상에서 특정 시간 순으로 제시되되, 상기 잠재 관심사는 상기 그래픽 타임라인 각각에 대응되는 재정, 건강, 및 이동을 포함하며 상기 곡선모양의 디스플레이의 제 2 축을 따라 배열되고, 상기 재정, 건강 및 이동 중 하나의 잠재 관심사가 선택되는 경우 상기 그래픽 타임라인에 대응되는 상기 선택된 잠재 관심사 정보가 상기 곡선모양의 디스플레이에 디스플레이되는 것을 특징으로 하는 장치.
In a wearable electronic device,
A processor;
A memory coupled to the processor;
Curved display; And
Determining contextual information and using context information determined based on sensor information and additional information received from one or more of the service activity data and additional sensor data from the paired host electronic device to provide content information and services And one or more sensors for providing sensor data to an analysis module that provides one or more of the information to a timeline module of the wearable electronic device,
Wherein at least one of the content information and the service information is provided divided into a category of a past category, a current category, and a future category, the time line module organizing content related to the timeline interface of the curved display,
Wherein the organized content is presented in a specific time order on a graphical timeline along a first axis of the curved display, wherein the potential interest includes financial, health, and movement corresponding to each of the graphical timelines, Wherein the selected potential interest information corresponding to the graphical timeline is displayed on the curved display when one of the potential interests of finance, health, and movement is selected. ≪ RTI ID = 0.0 > Device.
서비스 활동 데이터 및 하나 이상의 전자 장치들로부터의 센서 데이터를 포함하는 정보를 수집하는 단계;
상기 수집된 정보와 관련된 시간에 기초하여 상기 정보를 조직하는 단계; 및
사용자 컨텍스트 및 사용자 활동 중 하나 이상에 기초하여 잠재 관심사(potential interest)에 대한 컨텐트 정보 및 서비스 정보 중 하나 이상을 상기 하나 이상의 전자 장치들에게 제공하는 단계를 포함하고,
상기 컨텐트 정보 및 상기 서비스 정보 중 하나 이상은 기설정된 지속시간 동안 디스플레이되는 것을 특징으로 하되,
상기 조직된 정보는 하나 이상의 전자 장치들의 스크린의 제 1 축을 따라 그래픽 타임라인 상에서 특정 시간 순으로 제시되는 단계를 포함하되, 상기 잠재 관심사는 상기 그래픽 타임라인 각각에 대응되는 재정, 건강, 및 이동을 포함하며 상기 스크린의 제 2 축을 따라 배열되고, 상기 재정, 건강 및 이동 중 하나의 잠재 관심사가 선택되는 경우 상기 그래픽 타임라인에 대응되는 상기 선택된 잠재 관심사 정보가 디스플레이되는 것을 특징으로 하는,
사용자 데이터 컨텍스트화 및 제시 방법.
Collecting information including service activity data and sensor data from one or more electronic devices;
Organizing the information based on a time associated with the collected information; And
Providing one or more of the electronic devices with at least one of content information and service information for a potential interest based on at least one of a user context and a user activity,
Wherein at least one of the content information and the service information is displayed for a predetermined duration,
Wherein the organized information is presented in a specific time order on a graphical timeline along a first axis of a screen of one or more electronic devices, wherein the potential interest includes financial, health, and movement corresponding to each of the graphical timelines Wherein the selected potential interest information corresponding to the graphical timeline is displayed when a potential interest of one of the financial, health and travel is selected,
User data contextualization and presentation methods.
KR1020167010080A 2013-10-17 2014-10-10 Contextualizing seonsor, service and device data with mobile devices KR101817661B1 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361892037P 2013-10-17 2013-10-17
US61/892,037 2013-10-17
US14/449,091 2014-07-31
US14/449,091 US20150046828A1 (en) 2013-08-08 2014-07-31 Contextualizing sensor, service and device data with mobile devices
PCT/KR2014/009517 WO2015056928A1 (en) 2013-10-17 2014-10-10 Contextualizing sensor, service and device data with mobile devices

Publications (2)

Publication Number Publication Date
KR20160058158A KR20160058158A (en) 2016-05-24
KR101817661B1 true KR101817661B1 (en) 2018-02-21

Family

ID=52828317

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167010080A KR101817661B1 (en) 2013-10-17 2014-10-10 Contextualizing seonsor, service and device data with mobile devices

Country Status (4)

Country Link
EP (1) EP3058437A4 (en)
KR (1) KR101817661B1 (en)
CN (1) CN105637448A (en)
WO (1) WO2015056928A1 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102403062B1 (en) * 2015-05-13 2022-05-27 삼성전자주식회사 Device and method for performing communication service
WO2018039191A1 (en) * 2016-08-22 2018-03-01 Ciambella Ltd. Method and apparatus for sensor and/or actuator data processing on a server
EP3535756B1 (en) * 2016-11-07 2021-07-28 Snap Inc. Selective identification and order of image modifiers
US9805306B1 (en) 2016-11-23 2017-10-31 Accenture Global Solutions Limited Cognitive robotics analyzer
CN106843391A (en) * 2017-01-13 2017-06-13 深圳市合智智能科技有限公司 Tactile intelligence donning system based on multidimensional sensing
JP7103337B2 (en) * 2017-02-22 2022-07-20 ソニーグループ株式会社 Information processing equipment, information processing methods, and programs
CN110463192A (en) * 2017-04-10 2019-11-15 开利公司 The monitoring station of synchronized playback with detecting event
US11395254B2 (en) * 2018-01-16 2022-07-19 Maarten Van Laere Cellular alerting add-on
CN113505157B (en) * 2021-07-08 2023-10-20 深圳市研强物联技术有限公司 Wearable device pairing method and system based on internet of things (IoT) cloud

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7293019B2 (en) * 2004-03-02 2007-11-06 Microsoft Corporation Principles and methods for personalizing newsfeeds via an analysis of information novelty and dynamics
US7606582B2 (en) * 2005-12-13 2009-10-20 Yahoo! Inc. System and method for populating a geo-coding database
CA2776973A1 (en) * 2009-10-05 2011-04-14 Callspace, Inc. Contextualized telephony message management
US8909623B2 (en) * 2010-06-29 2014-12-09 Demand Media, Inc. System and method for evaluating search queries to identify titles for content production
WO2012021507A2 (en) * 2010-08-09 2012-02-16 Nike International Ltd. Monitoring fitness using a mobile device
US9940682B2 (en) * 2010-08-11 2018-04-10 Nike, Inc. Athletic activity user experience and environment
US8688726B2 (en) * 2011-05-06 2014-04-01 Microsoft Corporation Location-aware application searching
US20130198694A1 (en) * 2011-06-10 2013-08-01 Aliphcom Determinative processes for wearable devices
US20120326873A1 (en) * 2011-06-10 2012-12-27 Aliphcom Activity attainment method and apparatus for a wellness application using data from a data-capable band
US9208155B2 (en) * 2011-09-09 2015-12-08 Rovi Technologies Corporation Adaptive recommendation system
US8726142B2 (en) * 2011-09-21 2014-05-13 Facebook, Inc. Selecting social networking system user information for display via a timeline interface
CN103078885A (en) * 2011-10-31 2013-05-01 李宗诚 ICT (Information and Communications Technology) network butt-joint technology of user terminal market configuration system of internet
CN103188274A (en) * 2011-11-02 2013-07-03 李宗诚 ICT network connecting technology for Internet user terminal coordination configuration system
EP2608137A3 (en) * 2011-12-19 2013-07-24 Gface GmbH Computer-implemented method for selectively displaying content to a user of a social network, computer system and computer readable medium thereof
CN102982135A (en) * 2012-11-16 2013-03-20 北京百度网讯科技有限公司 Method and device used for providing presented information

Also Published As

Publication number Publication date
EP3058437A1 (en) 2016-08-24
CN105637448A (en) 2016-06-01
KR20160058158A (en) 2016-05-24
EP3058437A4 (en) 2017-06-07
WO2015056928A1 (en) 2015-04-23

Similar Documents

Publication Publication Date Title
KR101817661B1 (en) Contextualizing seonsor, service and device data with mobile devices
US20150046828A1 (en) Contextualizing sensor, service and device data with mobile devices
US11452915B2 (en) User interfaces for workout content
US11784951B1 (en) Determining contextually relevant application templates associated with electronic message content
KR102100742B1 (en) Remote extension of digital assistant services
KR102090918B1 (en) Intelligent digital assistant to reject incoming calls
EP2987164B1 (en) Virtual assistant focused user interfaces
US9568891B2 (en) Multi-media wireless watch
US20150098309A1 (en) Multi-media wireless watch
US11937021B2 (en) Camera and visitor user interfaces
US8896556B2 (en) Time-based touch interface
US8886576B1 (en) Automatic label suggestions for albums based on machine learning
CN107402687A (en) Context task shortcut
US20130346347A1 (en) Method to Predict a Communicative Action that is Most Likely to be Executed Given a Context
EP2784657A2 (en) Method and device for switching tasks
US20160134737A1 (en) System having a miniature portable electronic device for command and control of a plurality of wireless devices
US10819840B2 (en) Voice communication method
US11863700B2 (en) Providing user interfaces based on use contexts and managing playback of media
CN105446766B (en) For providing the system and method for service via application
CN107005805A (en) Wearable device and the method that message is sent from it
WO2016060848A1 (en) Multi-media wireless watch
KR20220062664A (en) content item module arrays
US20170048341A1 (en) Application usage monitoring and presentation
KR20230146115A (en) Digital assistant hardware abstraction
CN111240561A (en) Voice interaction method and user equipment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant