KR101819925B1 - 데이터 캡처를 위한 동적 제어 - Google Patents

데이터 캡처를 위한 동적 제어 Download PDF

Info

Publication number
KR101819925B1
KR101819925B1 KR1020167034611A KR20167034611A KR101819925B1 KR 101819925 B1 KR101819925 B1 KR 101819925B1 KR 1020167034611 A KR1020167034611 A KR 1020167034611A KR 20167034611 A KR20167034611 A KR 20167034611A KR 101819925 B1 KR101819925 B1 KR 101819925B1
Authority
KR
South Korea
Prior art keywords
data
capture
context
biometric
user
Prior art date
Application number
KR1020167034611A
Other languages
English (en)
Other versions
KR20170008776A (ko
Inventor
옌 쉬
마하 엘 초우바씨
조슈아 라트클리프
Original Assignee
인텔 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인텔 코포레이션 filed Critical 인텔 코포레이션
Publication of KR20170008776A publication Critical patent/KR20170008776A/ko
Application granted granted Critical
Publication of KR101819925B1 publication Critical patent/KR101819925B1/ko

Links

Images

Classifications

    • H04N5/23222
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • G06F17/3028
    • G06K9/00885
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1306Sensors therefor non-optical, e.g. ultrasonic or capacitive sensing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • H04N5/225
    • H04N5/23219
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2216/00Indexing scheme relating to additional aspects of information retrieval not explicitly covered by G06F16/00 and subgroups
    • G06F2216/01Automatic library building
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2216/00Indexing scheme relating to additional aspects of information retrieval not explicitly covered by G06F16/00 and subgroups
    • G06F2216/03Data mining
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 출원은 데이터 캡처를 위한 동적 제어에 관한 것이다. 디바이스는 생체인식 감지 모듈로부터의 생체인식 데이터, 컨텍스트 감지 모듈로부터의 컨텍스트 데이터 또는 콘텐츠 감지 모듈로부터의 콘텐츠 데이터 중 적어도 하나를 수신하기 위한 캡처 로직 모듈을 포함할 수 있다. 캡처 로직 모듈은 생체인식 데이터 및 컨텍스트 데이터 중 적어도 하나에 기초하여 캡처 시나리오가 존재하는지를 결정할 수 있다. 결정은 동작 모드에 기초하여 가중될 수 있다. 캡처 시나리오가 존재한다고 결정되면, 캡처 로직 모듈은 적어도 콘텐츠 데이터에 기초하여 데이터를 캡처할지를 결정할 수 있다. 캡처된 데이터는 (예를 들어, 생체인식 데이터, 컨텍스트 데이터 또는 콘텐츠 데이터 중 적어도 하나에 기초한 향상된 메타데이터와 함께) 디바이스 내의 캡처 데이터베이스에 저장될 수 있다. 디바이스는 또한 피드백 데이터를 포함하는 피드백 데이터베이스를 포함할 수 있다.

Description

데이터 캡처를 위한 동적 제어{DYNAMIC CONTROL FOR DATA CAPTURE}
본 개시내용은 데이터 캡처에 관한 것으로, 보다 상세하게는 사용자 데이터, 컨텍스트 데이터, 콘텐츠 데이터 등을 평가할 수 있는 지능을 통해 데이터 캡처를 제어할 수 있는 시스템에 관한 것이다.
모바일 전자 디바이스 분야에서 열렬한 기술 개발 속도로 인해 전자 통신이 일상적인 상호 작용에 광범위하게 통합되었다. 예를 들어, 가장 간단한 이동 통신 디바이스에서 가장 복잡한 스마트 폰까지, 이제는 기본 특징으로서 이미지 캡처 디바이스를 포함한다. 모바일 디바이스에서 이미지, 비디오 등을 캡처하는 능력은 단순한 편의성에서부터 주로 이미지 또는 짧은 비디오를 통한 아이디어 전달에 완전히 전용화된 웹 사이트를 생겨나게 한 데이터 생성 거물로 발전하였다. 이제 너무 작아져서 사용자가 착용할 수 있는 객체에 디바이스가 통합될 수 있는 형태로 멀티미디어 데이터(예를 들어, 텍스트, 이미지, 사운드, 비디오 등)를 사용자가 기록(예를 들어, 캡처)하는 능력을 갖춘 디바이스들이 출시되고 있다. 따라서, 이동 통신 디바이스에서 이용 가능한 멀티미디어 데이터를 캡처하는 능력에는 즉석에서 이벤트를 영원히 남길 준비가 된 "착용가능" 디바이스가 동반될 수 있다.
그러나, 멀티미디어 데이터를 캡처하는 디바이스의 가용성은 캡처되지 않은 일부 이벤트의 가능성을 배제하지 않는다. 기존 디바이스에서, 사용자는 데이터 캡처를 시작하기 위해 "준비 상태"에 있어야 한다. 예를 들어, 데이터 캡처가 필요한 상황에 있는 사용자는, 디바이스에서 데이터 캡처 기능을 활성화하고, 데이터를 어떻게 캡처할지를 설정하고(예를 들어, 캡처할 데이터의 유형, 캡처의 속도, 캡처된 데이터의 해상도를 설정하고, 캡처에 영향을 줄 수 있는 환경 또는 디바이스-관련 조건을 조정하고), 그 다음으로 최종적으로 데이터 캡처 프로세스를 시작하는 것에 주의를 기울어야만 한다. 이러한 제약은 사용자와 데이터 캡처의 객체 모두가 고정되고, 변경되지 않고, 포즈를 취하고 있는 등의 경우에 허용될 수 있다. 그러나, 데이터를 캡처하는 능력은, 예상치 못한 이벤트, 사용자가 캡처 디바이스와 상호작용할 수 없는 사용자와 관련되는 이벤트 등을 포함하여, 사용자가 일상을 발생되는 대로 캡처하기를 원하게 만들었다. 단지 이용 가능한 유일한 옵션은 관심있는 데이터도 캡처될 것이라는 기대하에 데이터를 연속적으로 캡처하는 것이다. 그러나, 이러한 행동은 대부분의 모바일 디바이스의 리소스를 빠르게 소모하고, 많은 양의 데이터를 양산할 것이다.
이하의 상세한 설명이 진행됨에 따라, 유사한 참조 번호들이 유사한 부분들을 나타내고 있는 도면을 참조하면, 청구된 주제의 다양한 실시예들의 특징들 및 장점들이 명백하게 될 것이다:
도 1은 본 개시내용의 적어도 하나의 실시예에 따른 데이터 캡처를 위한 동적 제어의 예시적인 시스템을 나타낸다.
도 2는 본 개시내용의 적어도 하나의 실시예에 따라 사용가능한 디바이스 외부에 있을 수 있는 시스템 컴포넌트와 함께, 디바이스에 대한 예시적인 구성을 나타낸다.
도 3은 본 개시내용의 적어도 하나의 실시예에 따라 데이터 캡처를 트리거링하기 위한 결정 로직에 기여하는 데이터 흐름의 예를 나타낸다.
도 4는 본 개시내용의 적어도 하나의 실시예에 따른 흥분 수준 결정에 사용된 데이터를 설명하는 예시적인 차트를 나타낸다.
도 5는 본 개시내용의 적어도 하나의 실시예에 따른 데이터 캡처의 예를 나타낸다.
도 6은 본 개시내용의 적어도 하나의 실시예에 따른 데이터 캡처를 위한 동적 제어의 예시적인 동작을 나타낸다.
이하의 상세한 설명이 예시적인 실시예들을 참조하면서 진행될 것이지만, 그의 많은 대안들, 수정들 및 변형들이 당업자에게는 명백할 것이다.
본 출원은 데이터 캡처를 위한 동적 제어에 관한 것이다. 일 실시예에서, 디바이스는 생체인식 감지 모듈로부터의 생체인식 데이터, 컨텍스트 감지 모듈로부터의 컨텍스트 데이터 또는 콘텐츠 감지 모듈로부터의 콘텐츠 데이터 중 적어도 하나를 수신하기 위한 적어도 하나의 캡처 로직 모듈을 포함할 수 있다. 생체인식, 컨텍스트 및 콘텐츠 모듈들 중 적어도 일부는 디바이스 외부에 있을 수 있다. 캡처 로직 모듈은 초기에 생체인식 데이터 및 컨텍스트 데이터 중 적어도 하나에 기초하여 캡처 시나리오(예를 들어, 데이터를 캡처하는 것이 바람직할 수 있는 시나리오)가 존재하는지 결정할 수 있다. 이 결정은 캡처 로직 모듈에 의해 결정된 동작 모드에 기초하여 가중될 수 있다. 캡처 시나리오가 존재한다고 결정되면, 캡처 로직 모듈은 적어도 콘텐츠 데이터에 기초하여 데이터 캡처를 개시할지의 여부를 결정할 수 있다. 캡처된 데이터는 이미지 캡처 데이터베이스에 저장될 수 있다. 일 실시예에서, 캡처된 데이터는 생체인식 데이터, 컨텍스트 데이터 또는 콘텐츠 데이터 중 적어도 하나에 기초하여 향상된 메타데이터와 함께 저장될 수 있다. 디바이스는 캡처-관련 결정에 사용된 기준을 생성하기 위한 피드백 데이터를 포함하는 피드백 데이터베이스를 더 포함할 수 있다.
일 실시예에서, 데이터 캡처를 제어하는 디바이스는, 예를 들어, 캡처 데이터베이스 및 캡처 로직 모듈을 포함할 수 있다. 캡처 데이터베이스는 캡처된 데이터를 저장하기 위한 것일 수 있다. 캡처 로직 모듈은 생체인식 감지 모듈로부터 생체인식 데이터를 수신하고, 컨텍스트 감지 모듈로부터 컨텍스트 데이터를 수신하고, 생체인식 데이터 또는 컨텍스트 데이터 중 적어도 하나에 기초하여 캡처 시나리오가 존재하는지를 결정하기 위한 것일 수 있다. 그 다음으로, 캡처 로직 모듈은 적어도 캡처 시나리오가 존재하는지의 결정에 기초하여 콘텐츠 감지 모듈로부터 콘텐츠 데이터를 수신하고, 적어도 콘텐츠 데이터에 기초하여 데이터를 캡처할지를 결정하고, 캡처 모듈로 하여금 적어도 데이터를 캡처할지의 결정에 기초하여 데이터를 캡처하게 하며, 캡처된 데이터를 캡처 데이터베이스에 저장되게 하는 것일 수 있다.
일 실시예에서, 디바이스는 캡처 로직 모듈이 디바이스 외부의 생체인식 감지 모듈의 적어도 일부와 상호작용할 수 있게 하는 통신 모듈을 더 포함할 수 있다. 통신 모듈은 또한 캡처 로직 모듈이 디바이스 외부의 컨텍스트 감지 모듈의 적어도 일부와 상호작용할 수 있게 하고 및/또는 캡처 로직 모듈이 디바이스 외부의 캡처 모듈의 적어도 일부와 상호작용할 수 있게 하는 것일 수 있다. 생체인식 데이터는 예를 들어, 생체인식 감지 모듈에 의해 수신되는 데이터에 기초하여 결정된 바와 같은, 디바이스의 사용자의 움직임, 디바이스의 사용자의 포커스 또는 디바이스의 사용자의 흥분 수준 중 적어도 하나를 기술하는 데이터를 포함할 수 있다. 컨텍스트 데이터는 예를 들어, 컨텍스트 감지 모듈에 의해 수신되는 데이터에 기초하여 결정된 바와 같은, 시간, 날짜, 장소, 장면(scene), 근접한 객체들 또는 근접한 사람들 중 적어도 하나를 기술하는 데이터를 포함할 수 있다. 콘텐츠 데이터는 예를 들어, 콘텐츠 감지 모듈에 의해 수신되는 데이터에 기초하여 결정된 바와 같은 캡처 품질, 미적 품질 또는 객체 인식 중 적어도 하나를 기술하는 데이터를 포함할 수 있다.
동일 또는 다른 실시예에서, 디바이스는 생체인식 감지 모듈, 컨텍스트 감지 모듈, 콘텐츠 감지 모듈 또는 캡처 모듈 중 적어도 하나를 제어하는데 이용하기 위한 기준을 생성하기 위해 사용자에게 피드백을 제공하도록 적어도 부분적으로 디바이스에 위치하는 피드백 데이터베이스를 더 포함할 수 있다. 캡처 로직 모듈은 또한 캡처 모듈로 하여금 데이터를 캡처하게 하기 전에 캡처 모듈을 구성하는 것일 수 있다. 캡처 로직 모듈은 또한 캡처 데이터와 연계하여 캡처 데이터베이스에 향상된 메타데이터를 저장하게 할 수 있으며, 향상된 메타데이터는 생체인식 데이터, 컨텍스트 데이터 또는 콘텐츠 데이터 중 적어도 하나에 기초한다. 또한, 캡처 로직 모듈은 생체인식 데이터 또는 컨텍스트 데이터 중 적어도 하나에 기초하여 캡처 시나리오가 존재하는지를 결정하기 전에 동작 모드에 기초하여 적어도 생체인식 데이터와 컨텍스트 데이터 간에 동작 모드를 결정하고 가중치를 설정하는 것일 수 있다. 본 개시내용에 따른 데이터 캡처의 동적 제어를 위한 예시적인 방법은 생체인식 데이터를 수신하는 단계, 컨텍스트 데이터를 수신하는 단계, 생체인식 데이터 또는 컨텍스트 데이터 중 적어도 하나에 기초하여 캡처 시나리오가 존재하는지를 결정하는 단계, 적어도 캡처 시나리오가 존재하는지의 결정에 기초하여 콘텐츠 데이터를 수신하는 단계, 적어도 콘텐츠 데이터에 기초하여 데이터를 캡처할지를 결정하는 단계, 적어도 데이터를 캡처할지의 결정에 기초하여 데이터가 캡처되게 하는 단계, 및 캡처된 데이터가 캡처 데이터베이스에 저장되게 하는 단계를 포함할 수 있다.
도 1은 본 개시내용의 적어도 하나의 실시예에 따른 데이터 캡처의 동적 제어를 위한 예시적인 시스템을 나타낸다. 초기에, 본 명세서에서 참조된 용어 "데이터 캡처(data capture)"는 전자 장치에 의한 임의의 유형의 데이터의 기록을 포함할 수 있다. 데이터 캡처를 포함하는 전형적인 상황은 이동 통신 디바이스, 태블릿 컴퓨팅 디바이스 등의 카메라를 이용하는 디지털 화상을 찍는 것이다. 그러나, 데이터 캡처는 또한 오디오, 비디오, 환경 데이터(예를 들어, 시간, 날짜, 온도, 장소 등) 등을 포함할 수 있다.
일반적으로, 시스템(100)은 예를 들어, 감지된 데이터를 사용자 관심에 대응하는 기준과 비교하고, 직접적인 사용자 상호작용을 요구하지 않고 데이터 캡처를 트리거링하는 것에 기초하여, 데이터 캡처가 바람직할 수 있는 상황을 결정하도록 구성될 수 있다. 따라서, 데이터 캡처는 수동으로 데이터 캡처를 조정하는 경우 사용자가 어떻게 행동할지를 모방하는 방식으로 자율적으로 발생할 수 있다. 상술한 기능성을 수행하기 위해, 시스템(100)은 예를 들어, 캡처 모듈(102), 캡처 로직 모듈(104), 생체인식 감지 모듈(106), 컨텍스트 감지 모듈(108) 및 콘텐츠 감지 모듈(110)(통합적으로, "모듈들(102-110)")을 포함할 수 있다. 모듈들(102-110)은 동일한 디바이스에 존재할 수 있거나, 또는 모듈들(102-110)의 일부 또는 전부가 다양한 구현들에서 분포될 수 있다. 시스템(100)에 대한 예시적인 구현은 예시적인 디바이스 구성에 대해 도 2와 관련하여 하기에 기술될 것이다.
본 개시내용에 따른 캡처 모듈(102)은 캡처 로직 모듈(104)에 의해 제어가 적용되는 모듈일 수 있다. 캡처 모듈(102)의 적어도 하나의 예는 이동 통신 디바이스 또는 캡처 로직 모듈(104)을 포함할 수도 있는 태블릿 컴퓨팅 디바이스의 카메라 및/또는 마이크로폰일 수 있다. 대안적으로, 캡처 모듈(102)은 착용가능한 카메라 및/또는 마이크로폰 디바이스의 경우에서와 같이 모듈들(104-110)과 별개일 수 있다. 예를 들어, 캡처 모듈(102)은 안경류, 모자, 착용가능한 벨트(harness) 등에 통합될 수 있다. 캡처 로직 모듈(104)은 생체인식 감지 모듈(106), 컨텍스트 감지 모듈(108) 및/또는 콘텐츠 감지 모듈(110)로부터 수신되는 데이터를 처리하고, 처리된 데이터에 기초하여 데이터 캡처를 트리거할지/언제 트리거할지를 결정하기 위한 프로세싱 리소스를 포함할 수 있다.
동작의 예에서, 생체인식 감지 모듈(106)은 생체인식 데이터를 캡처 로직 모듈(104)에 제공할 수 있다. 생체인식 데이터는 사용자의 특성을 결정하는데 사용될 수 있는 시스템(100)의 사용자에 부착되거나, 적어도 그 근방에 있는 센서들로부터 판독되는 데이터를 포함할 수 있다. 특성의 예들은 기분, 포커스, 흥분 수준 등을 포함할 수 있다. 컨텍스트 감지 모듈(108)은 컨텍스트 데이터를 캡처 로직 모듈(104)에 제공할 수 있다. 컨텍스트 데이터는 캡처 로직 모듈(104)이 존재하는 디바이스의 내부 또는 외부의 리소스로부터 결정될 수 있다. 컨텍스트 데이터의 예들은 시간, 날짜, 장소, 특수 이벤트, 근접한 객체들, 근접한 사람들 등을 포함할 수 있다. 콘텐츠 감지 모듈(110)은 콘텐츠 데이터를 캡처 로직 모듈(104)에 제공할 수 있다. 콘텐츠 데이터는 캡처 모듈(102)에 의해 감지되는 바와 같이 캡처하기 위해 잠재적인 데이터에 적어도 부분적으로 기초하여 결정될 수 있다. 콘텐츠 데이터의 예들은 캡처 품질, 미적 품질, 객체 인식 등을 포함할 수 있다. 초기에, 캡처 로직 모듈은 적어도 생체인식 데이터 및 컨텍스트 데이터를 고려하여 캡처 시나리오가 존재하는지를 결정할 수 있다. 캡처 시나리오는 사용자 구성, 선호도, 피드백 등에 기초하여, 데이터를 캡처하기에 바람직할 수 있는 상황일 수 있다. 예시적인 캡처 시나리오는 스포츠 이벤트, 교육 및/또는 정보 이벤트, 특수 이벤트(예를 들어, 가족 축하, 생일 파티, 결혼식 등), 증가된 흥분 수준을 포함할 수 있는 시나리오(예를 들어, 익스트림 스포츠에 참여하고, 자동차 사고, 범죄 행위 등과 같은 예기치 않은 사건을 목격하는 것)을 포함할 수 있지만, 이에 한정되지 않는다. 캡처 시나리오가 존재한다고 결정되면, 캡처 로직 모듈(102)은 콘텐츠 데이터를 모니터링하여 데이터 캡처를 활성화할 때를 결정할 수 있다. 예를 들어, 캡처 모듈(102)이 카메라를 포함하는 시나리오에서, 캡처 시나리오가 존재한다는 결정에 이어서, 카메라가 활성화될 수 있고 카메라에 의해 보여지는 이미지가 캡처를 위해 평가될 수 있다. 예를 들어, 카메라 이미지는 이미지 콘텐츠, 품질, 미학 등에 기초하여 평가될 수 있다. 캡처 로직 모듈(104)은 또한 데이터를 캡처할지의 여부를 결정할 때, 예를 들어, 프로세싱 로드, 통신 트래픽, 리소스 가용성(배터리 레벨, 데이터 저장 공간 등), 프라이버시 문제 등과 같은 캡처될 데이터와 무관한 인자들을 고려할 수 있다.
캡처되는 데이터는 캡처 데이터베이스에 저장될 수 있다. 캡처된 데이터는 향상된 메타데이터와 함께 저장될 수 있다. 본 명세서에 언급되는 향상된 메타데이터는 캡처된 데이터에 대응될 수 있는 "데이터 관련 데이터"이다. 이미지 캡처의 영역에서, 교환가능한 이미지 파일 형식(EXIF) 데이터는 현재 디지털 사진과 함께 저장될 수 있지만, 시간, 날짜, 지오로케이션 및 카메라 설정으로 제한된다. 본 개시내용과 일치하여, EXIF-유형 메타데이터는 생체인식 데이터, 컨텍스트 데이터 및 콘텐츠 데이터 중 적어도 하나에 기초하여 메타데이터로 보충될 수 있다. 향상된 메타데이터는 다양한 용도를 가질 수 있다. 예를 들어, 향상된 메타데이터는 캡처된 데이터를 그룹화/필터링하는데 사용될 수 있으며, 이에 대한 사용자에 의한 선택 또는 삭제는 피드백 데이터베이스에 피드백으로서 저장될 수 있다. 예를 들어, 저장된 데이터(예를 들어, 선택된 이미지들)로부터의 향상된 메타데이터는 캡처 시나리오를 결정하고 및/또는 이미지 캡처를 트리거하는데 이용되는 기준을 공식화 및/또는 개선하는데 이용될 수 있다. 예시적인 기준은 사용자가 언제 행복하고, 분노하고, 흥분하며, 집중하는지 등, 어떤 시간, 날짜, 장소, 사람들 등이 데이터 캡처를 위한 바람직한 컨텍스트를 구성하고 있는지, 어떤 품질, 콘텐츠, 미학이 전형적으로 캡처된 데이터를 보유하기 위해 필요한지, 기타 등등을 표시하는 생체인식 데이터의 조합을 포함할 수 있다. 또한, 캡처 시나리오의 결정 및/또는 이미지 캡처의 트리거링은 또한 시스템(100)에 대해 설정된 동작 모드에 기초할 수 있다. 예를 들어, 사용자는 스포츠, 사회, 자연 등과 같은 동작 모드를 수동으로 설정할 수 있다. 동작 모드는 캡처 로직 모듈(104)이 생체인식 데이터, 컨텍스트 데이터 및 콘텐츠 데이터를 평가하는 방법에 영향을 줄 수 있는 가중치를 포함할 수 있다. 예를 들어, 스포츠 모드에서, 캡처 로직 모듈(104)은 생체인식 데이터에 더 많이 초점을 맞출 수 있고, 사회 모드에서는 컨텍스트 데이터가 가장 중요한 것일 수 있고, 자연 모드에서는 콘텐츠 데이터가 가장 많이 가중될 수 있다.
도 2는 본 개시내용의 적어도 하나의 실시예에 따라 사용가능한, 디바이스 외부에 있을 수 있는 시스템 컴포넌트와 함께, 디바이스에 대한 예시적인 구성을 나타낸다. 시스템(100')은 적어도 디바이스(200)를 포함할 수 있다. 일 실시예에서, 디바이스(200)는 시스템(100')이 동작하는데 필요한 모든 리소스들을 포함할 수 있다. 대안적으로, 디바이스(200)는 외부 캡처 모듈(216), 적어도 하나의 외부 센서 모듈(222) 및/또는 원격 리소스(228)와 상호작용할 수 있다. 본 개시내용의 다양한 실시예는, 디바이스(200)가 구글사의 Android? OS, 애플사의 iOS?, 마이크로소프트사의 Windows? OS, 애플사의 Mac OS, 리눅스 재단의 Tizen OS, 모질라 프로젝트의 Firefox OS, 블랙베리사의 Blackberry? OS, 휴렛팩커드사의 Palm? OS, 심비안 재단의 Symbian? OS 등에 기초한 셀룰러 핸드셋 또는 스마트폰과 같은 이동 통신 디바이스, 애플사의 iPad?, 마이크로소프트사의 Surface?, 삼성사의 Galaxy Tab?, 아마존사의 Kindle Fire? 등과 같은 태블릿 컴퓨터, 인텔사가 제조한 저전력 칩셋을 포함하는 Ultrabook?, 넷북, 노트북, 랩탑, 팜탑(palmtop) 등과 같은 모바일 컴퓨팅 디바이스일 수 있는 모바일 시나리오에 바로 적용될 수 있지만, 일부 예들에서, 디바이스(200)는 일반적으로 데스크톱 컴퓨터, 서버, 스마트 텔레비전, 인텔사의 NUC(Next Unit of Computing) 플랫폼과 같은 소형 폼 팩터 컴퓨팅 솔루션(예를 들어, 공간 제한형 애플리케이션, TV 셋톱 박스 등) 등과 같은 고정 컴퓨팅 디바이스일 수도 있다는 것이 예측 가능하다. 실제 구현과는 무관하게, 시스템(100')은 본 개시내용에 따른 다양한 실시예들에 이용될 수 있는 장비의 일례로서만 의도된 것이며, 본 실시예들을 특별한 구현 방식에 한정하려는 것은 아니다.
디바이스(200)는 예를 들어, 디바이스 동작을 관리하도록 구성되는 시스템 모듈(202)을 포함할 수 있다. 시스템 모듈(202)은 예를 들어, 프로세싱 모듈(204), 메모리 모듈(206), 전력 모듈(208), 사용자 인터페이스 모듈(210) 및 통신 인터페이스 모듈(212)을 포함할 수 있다. 디바이스(200)는 또한 통신 모듈(212)과 캡처 로직 모듈(104')을 포함할 수 있다. 통신 모듈(212) 및 캡처 로직 모듈(104')이 시스템 모듈(200)과 분리되어 도시되어 있지만, 도 2에 도시된 예시적인 구현은 본 명세서에서 단지 설명을 위해 제공되었다. 통신 모듈(212) 및/또는 캡처 로직 모듈(104')의 일부 또는 모든 기능성은 시스템 모듈(200)에 포함될 수 있다.
디바이스(200)에서, 프로세싱 모듈(204)은 별도의 컴포넌트들에 위치하는 하나 이상의 프로세서, 또는 대안적으로 단일 컴포넌트(예를 들어, 시스템-온-칩(SoC) 구성) 및 임의의 프로세서-관련 지원 회로(예를 들어, 브리징 인터페이스 등)로 구현되는 하나 이상이 프로세싱 코어를 포함할 수 있다. 예시적인 프로세서들은 Pentium, Xeon, Itanium, Celeron, Atom, Core i-시리즈 제품 계열, 고급 RISC(예를 들어, Reduced Instruction Set Computing) 머신 또는 "ARM" 프로세서 등 내의 마이크로프로세서들을 포함하는, 인텔사로부터 입수가능한 다양한 x86-기반 마이크로프로세서들을 포함할 수 있지만, 이에 한정되지 않는다. 지원 회로의 예들은 프로세싱 모듈(204)이 디바이스(200) 내에서 상이한 속도들로, 상이한 버스들상에서, 기타 등등으로 동작중일 수 있는 기타 시스템 컴포넌트들과 그를 통해 상호작용할 수 있는 인터페이스를 제공하도록 구성되는 칩셋들(예를 들어, 인텔사로부터 입수가능한 Northbridge, Southbridge 등)을 포함할 수 있다. 지원 회로와 공통으로 연관되는 기능성의 일부 또는 전부는 또한 프로세서와 동일한 물리적 패키지 내에(예를 들어, 인텔사으로부터 입수가능한 프로세서들의 Sandy Bridge 계열에서와 같이) 포함될 수 있다.
프로세싱 모듈(204)은 디바이스(200)의 다양한 명령어들을 실행하도록 구성 될 수 있다. 명령어들은 프로세싱 모듈(204)이 데이터를 판독하는 것, 데이터를 기입하는 것, 데이터를 처리하는 것, 데이터를 공식화하는 것, 데이터를 전환하는 것, 데이터를 변환하는 것 등과 관련된 활동을 수행하게 하도록 구성된 프로그램 코드를 포함할 수 있다. 정보(예를 들어, 명령어들, 데이터 등)는 메모리 모듈(206)에 저장될 수 있다. 메모리 모듈(206)은 고정식 또는 착탈식 포맷의 랜덤 액세스 메모리(RAM) 또는 판독 전용 메모리(ROM)를 포함할 수 있다. RAM은 예를 들어, 정적 RAM(SRAM) 또는 동적 RAM(DRAM)과 같은 디바이스(200)의 동작 동안 정보를 보유하도록 구성되는 휘발성 메모리를 포함할 수 있다. ROM은 디바이스(200)가 활성화 될 때, 명령어들을 제공하기 위해 BIOS, UEFI 등에 기초하여 구성되는 비휘발성(NV) 메모리 모듈, 전자 프로그램가능 ROM들(EPROM들), 플래시 등과 같은 프로그램가능 메모리들을 포함할 수 있다. 기타 고정식/착탈식 메모리는, 예를 들어, 플로피 디스크, 하드 드라이브 등과 같은 자기 메모리, 고체 플래시 메모리(예를 들어, 임베디드 멀티미디어 카드(eMMC) 등)와 같은 전자 메모리, 착탈식 메모리 카드 또는 스틱(예를 들어, 마이크로 저장 디바이스(uSD), USB 등), CD-ROM(compact disc-기반 ROM), DVD(Digital Video Disks), 블루-레이 디스크 등과 같은 광학 메모리를 포함할 수 있지만, 이에 한정되지 않는다.
전력 모듈(208)은 내부 전원들(예를 들어, 배터리, 연료 전지 등) 및/또는 외부 전원들(예를 들어, 전기기계식 또는 태양광 발전기, 전력 그리드, 연료 전지 등), 및 동작하기 위해 필요한 전력을 디바이스(200)에 공급하도록 구성되는 관련 회로를 포함할 수 있다. 사용자 인터페이스 모듈(210)은 사용자들이 디바이스(200)와 상호작용하는 것을 가능하게 하기 위한 하드웨어 및/또는 소프트웨어, 예를 들어, 다양한 입력 메커니즘들(예를 들어, 마이크로폰, 스위치, 버튼, 노브, 키보드, 스피커, 터치 감지 표면, 이미지를 캡처하고/하거나 근접, 거리, 모션, 제스처, 배향 등을 감지하도록 구성되는 하나 이상의 센서) 및 다양한 출력 메커니즘들(예를 들어, 스피커, 디스플레이, 광/섬광 지시기, 진동, 모션 등을 위한 전기기계식 컴포넌트)을 포함할 수 있다. 사용자 인터페이스 모듈(210) 내의 하드웨어는 디바이스(200) 내에 포함될 수 있고 및/또는 유선 또는 무선 통신 매체를 통해 디바이스(200)에 결합될 수 있다.
통신 인터페이스 모듈(212)은 유선 및/또는 무선 통신을 지원하도록 구성되는 리소스를 포함할 수 있는, 통신 모듈(214)에 대한 패킷 라우팅 및 다른 제어 기능들을 관리하도록 구성될 수 있다. 일부 예들에서, 디바이스(200)는 집중화된 통신 인터페이스 모듈(212)에 의해 모두 관리되는 하나 초과의 통신 모듈(214)(예를 들어, 유선 프로토콜 및/또는 무선 라디오에 대한 별도의 물리적 인터페이스 모듈을 포함함)을 포함할 수 있다. 유선 통신은 예를 들어, 이더넷, USB(Universal Serial Bus), 파이어와이어(Firewire), DVI(Digital Video Interface), HDMI(High-Definition Multimedia Interface) 등과 같은 직렬 및 병렬 유선 매체를 포함할 수 있다. 무선 통신은 예를 들어, 근접 무선 매체(예를 들어, 근거리 무선 통신(NFC) 표준, 적외선(IR) 등에 기초하는 것과 같은 무선 주파수(RF)), 단거리 무선 매체(예를 들어, 블루투스, WLAN, Wi-Fi 등), 장거리 무선 매체(예를 들어, 셀룰러 광역 무선 통신 기술, 위성-기반 통신 등) 또는 음파를 통한 전자 통신을 포함할 수 있다. 일 실시예에서, 통신 인터페이스 모듈(212)은 통신 모듈(214)에서 활성인 무선 통신이 서로 간섭하는 것을 방지하도록 구성될 수 있다. 이 기능을 수행함에 있어서, 통신 인터페이스 모듈(212)은 예를 들어, 송신 대기중인 메시지의 상대적 우선순위에 기초하여 통신 모듈(214)에 대한 활동을 스케줄링할 수 있다. 도 2에 개시된 실시예가 통신 모듈(214)과 분리된 통신 인터페이스 모듈(212)을 도시하고 있지만, 통신 인터페이스 모듈(212) 및 통신 모듈(214)의 일부 또는 모든 기능성이 동일한 모듈에 통합될 수도 있다.
캡처 로직 모듈(104')은 시스템(100')의 특정 구현에 따라 적어도 메모리 모듈(206), 사용자 인터페이스 모듈(210) 및/또는 통신 모듈(214)과 상호작용할 수 있다. 예를 들어, 시스템(100')에 의해 요구되는 모든 리소스가 디바이스(200)에서 이용가능한 경우, 캡처 로직 모듈(104')은 사용자 메모리 모듈(206)과 상호작용하여 생체인식 데이터, 컨텍스트 데이터 및/또는 콘텐츠 데이터를 획득할 수 있고, 사용자 인터페이스 모듈(210)과 상호작용하여 사용자 인터페이스 모듈(210)과 연관된 캡처 장비(예를 들어, 카메라, 마이크로폰 등)가 데이터 캡처를 시작하게 할 수 있다. 대안적으로, 캡처 로직 모듈(104')에 의해 요구되는 리소스의 일부 또는 전부가 디바이스(200)의 외부에 위치하는 분산 구현이 또한 가능하다. (예를 들어, 사용자가 착용가능하거나 휴대할 수 있는) 사용자의 소유일 수 있는 시스템(100')의 예시적인 외부 디바이스들은 예를 들어, 파선(214) 내에 둘러싸여 있음으로써 식별된다. 외부 캡처 모듈(216)은 예를 들어, 적어도 통신 모듈(218) 및 캡처 장비(220)를 포함할 수 있다. 일 실시예에서, 외부 캡처 모듈(216)은 통신 모듈(216)을 통해 무선 상호작용 가능한 카메라 및/또는 마이크로폰과 같은 착용가능한 디바이스일 수 있다. 이 예에서, 캡처 로직 모듈(104')은 통신 모듈(214)과 상호작용하여 외부 캡처 모듈(216)로부터 데이터를 수신하고 데이터를 외부 캡처 모듈(216)에 전송할 수 있다. 캡처 로직 모듈(104')과 캡처 장비(220) 간의 통신은 예를 들어, 데이터 캡처 장비(220)에서 데이터 캡처를 활성화, 구성 및/또는 트리거링하기 위한 명령어들, 명령어들의 확인, 에러 메시지 등을 포함할 수 있다. 마찬가지로, 생체인식 감지 모듈(106), 컨텍스트 감지 모듈(108) 및/또는 콘텐츠 감지 모듈(110) 중 일부 또는 전부는 디바이스(200)의 외부에 위치할 수 있다. 예를 들어, 하나 이상의 센서 모듈(들)(222)은 사용자에 의해 착용될 수 있고, 적어도 통신 모듈(224) 및 센서 장비(226)를 포함할 수 있다. 캡처 로직 모듈(104')은 구성 등을 위해, 데이터를 획득하기 위해 센서 모듈(222)에 액세스할 때 통신 모듈(214)을 이용할 수 있다. 센서 장비(226)는 생체인식 데이터, 컨텍스트 데이터 또는 콘텐츠 데이터 중 적어도 하나를 감지할 수 있다. 센서 장비(226)에 의해 감지될 수 있는 데이터의 보다 구체적인 예는 도 3과 관련하여 논의될 것이다. 원격 리소스들(228)은 예를 들어, 적어도 통신 모듈(230) 및 프로세싱 리소스들(232)을 포함할 수 있다. 원격 리소스들(228)의 예는 네트워크 접속(예를 들어, 클라우드 컴퓨팅 아키텍처에서 구성됨)을 통해 액세스 가능한 적어도 하나의 서버를 포함할 수 있다. 동작 예에서, 원격 리소스(228)는 통신 모듈(214)을 통해 캡처 로직 모듈(104')(예를 들어, 및/또는 디바이스(200)의 모듈(106-110)의 다른 컴포넌트들)을 캡처하기 위해 사용자에 관한 외부적으로 저장된 데이터를 제공하도록 구성될 수 있다. 제공될 수 있는 데이터의 보다 구체적인 예는 도 3과 관련하여 논의될 것이다.
도 3은 본 개시내용의 적어도 하나의 실시예에 따라 데이터 캡처를 트리거링하기 위한 결정 로직에 기여하는 데이터 흐름의 예를 나타낸다. 초기에, 캡처 로직 모듈(104)은 캡처 시나리오가 언제 존재하고 언제 데이터 캡처를 시작할지를 결정하기 위한 적어도 하나의 학습 엔진 및/또는 다른 유사한 로직 아키텍처를 포함할 수 있다는 것을 이해하는 것이 중요하다. 이러한 결정은 생체인식 감지 모듈(106'), 컨텍스트 감지 모듈(108') 및 콘텐츠 감지 모듈(110')에 의해 제공된 데이터를 사용자 선호도에 기초하여 설정된 기준과 비교하는 것에 기초하여 이루어질 수 있다. 모듈(106' 내지 110')과 비교하여 캡처 로직 모듈(104)에 의해 착수되는 데이터 프로세싱은, 구성에 따라 변할 수 있다. 예를 들어, 모든 미가공 데이터 프로세싱은 캡처 로직 모듈(104) 내에서 수행될 수 있고, 모듈(106' 내지 110')을 단순한 데이터 수집자의 역할을 하도록 강요할 수 있다. 분산된 시스템 모듈들(106' 내지 110')은 적어도 일부 미가공 데이터 프로세싱을 수행할 수 있으며, 그 최종 결과는 로직 결정으로서 캡처 로직 모듈(104)을 캡처하도록 제공될 수 있다(예를 들어, 사용자는 행복하고, 사용자는 집에 있고, 사용자는 집중하고 있다는 것 등). 양 극단 사이의 조합도 고려된다. 캡처 시나리오 결정 및/또는 데이터 캡처는 또한 동작 모드(예를 들어, 시스템(100)이 동작 모드가 설정될 수 있는 기능성을 포함하는 경우)에 의존할 수 있다는 점에 유의하는 것이 중요하다. 동작 모드 기능성이 없다면, 모듈들(106' 내지 110')에 의해 제공되는 데이터는 동일하게 또는 고정된 가중치에 기초하여 고려될 수 있다. 가변가능한 동작 모드의 도입은 사용자가 (예를 들어, 사용자 인터페이스 모듈(210)을 통해) 캡처 시나리오(예를 들어, 스포츠, 사교 모임 등)에 기초하여 가중치를 변경시킬 수 있는 동작 모드, 캡처될 데이터(예를 들어, 움직이는 피사체, 고정된 피사체, 근접 이미지, 광역 이미지, 자연 설정, 도시 설정 등) 등을 수동으로 설정할 수 있게 할 수 있다. 가중치는 예를 들어, 가장 중요하다고 간주되는 기준 또는 캡처되는 데이터의 품질과 관련된 것에 기초할 수 있다. 스포츠 모드에서는 흥분의 순간에 데이터를 캡처하기 위해 생체인식 데이터에 더 많이 가중치를 부여하고, 사회 모드에서는 부산한 설정일 수 있는 것에서 적절한 데이터를 캡처할 수 있도록 컨텍스트 데이터에 더 많이 가중치를 부여하고, 설정의 자연스런 아름다움을 캡처하는 등의 자연 모드에서는 콘텐츠 데이터에 가장 많이 가중치를 부여하는 예들을 포함할 수 있다.
생체인식 감지 모듈(106')은 디바이스(200)의 사용자의 현재 배치와 관련된 센서 데이터(300)를 수신하도록 구성될 수 있다. 예를 들어, 센서 모듈(들)(222)에 의해 센서 데이터(300)가 제공될 수 있다. 생체인식 감지 모듈(106')에 의해 수집되고 및/또는 처리될 수 있는 데이터의 예시적인 카테고리는 사용자 움직임, 포커스, 기분 등을 포함한다. 움직임은 사용자가 현재 활동에 관여하고 있음을 나타내며, 고정되고 이벤트 관찰에 집중한다. 이러한 조건은 데이터 캡처를 활성화시킬 필요성을 표시할 수 있다. 움직임은 예를 들어, GPS 좌표, 가속도 센서 등에 기초하여 속도 및/또는 가속도로 측정될 수 있다. 포커스는 또한 데이터 캡처를 시작하는 지표일 수 있으며, 머리 위치, 눈의 포커스 등을 통해 결정될 수 있다. 포커스는 예를 들어, 이미지 캡처 디바이스가 볼 수 있는 이미지가 일정 기간 동안 변경되지 않은 경우, 예를 들어, 사용자의 눈이 초점을 맞추고 있는 곳을 나타내는 적어도 하나의 착용가능한 이미지 캡처 디바이스(예를 들어, 외부 캡처 모듈(216))가 캡처한 이미지를 통해 측정될 수 있다. 사용자의 기분은 흥분 수준을 포함하는 다양한 인자를 이용하여 결정될 수 있다. 예를 들어, 사용자가 흥분되어 있다면, 데이터 캡처를 시작하는 것이 적절할 수 있다. 흥분 수준은 예를 들어, 사용자의 심장박동, 말투, GSR(galvanic skin response) 등을 감지하도록 구성된 적어도 하나의 센서 모듈(222)을 통해 결정될 수 있다.
예를 들어, 도 4는 GSR에서 흥분 수준이 어떻게 결정될 수 있는지를 개시한다. EDA(electro-dermal activity)값은 높은 각성과 관련이 있을 수 있으며, 높은 수준의 각성은 높은 수준의 도전, 좌절감 및/또는 흥분을 표시할 수 있음이 나타났다. EDA를 측정하는 적어도 하나의 신뢰할 수 있는 방법은 GSR 센서를 사용하는 것이다. 예를 들어, 데이터 캡처의 활성화 및/또는 데이터 캡처 속도는 결정된 흥분 수준에 기초하여 제어될 수 있다. 차트 4는 (예를 들어, 센서 모듈(들)(222)에 구현된 GSR 센서에 의해 측정된 바와 같은) 흥분 수준이 시간에 대해 플롯팅되는 이 관계를 입증한다. 차트(400)에서 데이터 캡처(402)의 예는 흥분 수준의 모니터링된 증가에 대응하여 증가하도록(예를 들어, 보다 밀집하게) 나타나 있다. 흥분의 증가는 즐거운 이벤트로 인해 발생할 뿐만 아니라, 부상, 자동차 사고, 범죄 행위의 목격 등과 같은 나쁜 또는 외상 이벤트들과 연관될 수도 있다. 캡처된 데이터가 의료 제공자, 보험 제공자, 법 집행기관 등에 공급될 수 있는 것과 같은 그러한 경우에 데이터 캡처를 늘리는 것이 유익할 수 있다. 흥분이 줄어들 때, 데이터 캡처의 밀도는 마찬가지로 감소할 수 있다.
도 3으로 되돌아 가면, 컨텍스트 감지 모듈(108')은 컨텍스트가 익숙한지, 바람직한지, 등을 결정하기 위해 평가될 수 있는 컨텍스트에 디바이스(200)의 사용자를 둘러싼 현재 상황을 넣기 위해 데이터를 수집할 수 있다. 상술한 바와 같이, 캡처 로직 모듈(104)에 제공될 수 있는 컨텍스트 데이터는, 미가공 수집 데이터 또는 대안적으로 특정 컨텍스트(예를 들어, 집, 직장, 학교, 생일 파티 등)의 결정을 포함할 수 있다. 컨텍스트 감지 모듈(108')에 의해 수집될 수 있는 미가공 컨텍스트 데이터(302)의 예들은 시간, 날짜, 장소, 장면, 근접한 객체들, 근접한 사람들 등을 포함할 수 있다. 시간, 날짜 및 장소 데이터는 디바이스(200)의 OS를 통해 바로 활용될 수 있다. 장면뿐만 아니라 근접한 객체들/사람들은, 다양한 소스로부터 획득될 수 있다. 예를 들어, 컨텍스트 감지 모듈(108') 및/또는 캡처 로직 모듈(104)은 관심이 있는 장면 및 근접한 사람들/객체를 결정하기 위해 스케줄링 애플리케이션, 소셜 미디어 애플리케이션, 메시징 애플리케이션 등과 같은 디바이스(200)에서 실행되는 애플리케이션에 액세스할 수 있다. 스케줄링 및 소셜 미디어는 특별한 날, 특별한 시간 등에 사용자의 현재 위치와 상관될 수 있는 중요한 이벤트를 식별할 수 있다. 또한, 데이터는 사용자에게 근접할 수 있는 관심있는 사람들, 기념물, 공원, 역사적 관심이 있는 장소, 등과 같은 관심이 있는 장소의 위치를 결정하기 위해 계획된 이벤트, 지인/친구/가족의 위치를 결정하도록 (예를 들어, 디바이스(200)에 상주하는 애플리케이션을 통하지 않고) 원격 리소스(228)로부터 직접 획득될 수 있다. 상술한 데이터는 현재의 사용자 컨텍스트가 데이터 캡처가 요구될 수 있는 시나리오를 구성하는지를 결정하기 위해 단독으로 또는 조합하여 평가될 수 있다.
생체인식 데이터 또는 컨텍스트 데이터 중 적어도 하나에 기초하여, 캡처 시나리오가 존재한다고 결정되면, 콘텐츠 감지 모듈(110')은 캡처 데이터(304)의 수집을 시작할 수 있다. 예를 들어, 캡처 로직 모듈(104)은 캡처 모듈(104')을 활성화할 수 있고, 데이터의 라이브 공급은 콘텐츠 감지 모듈(110') 및/또는 캡처 로직 모듈(104)에 의해 평가되어 데이터를 캡처할 시기를 결정할 수 있다. 데이터 캡처를 트리거링하는 결정은 예를 들어, 캡처 품질, 미적 품질, 객체 인식 등을 포함하여 데이터 캡처를 수동으로 트리거링하는 시기를 알기 위해 사용자가 채택할 수 있는 것과 동일한 유형의 데이터를 기반으로 할 수 있다. 캡처 품질은 포커스, 조명 수준, 돌출도 등을 구성할 수 있다. 예를 들어, 돌출 맵(saliency map)은 사진/비디오에 대해 생성될 수 있고, 카메라 뷰에 바람직한 콘텐츠가 존재하는지의 여부를 결정하는데 사용될 수 있다. 돌출 수준이 높을 때 데이터가 캡처될 수 있다. 예를 들어, 이미지 I의 텍스처 돌출(image saliency)의 한가지 간단한 측정은 이미지의 각 블록에 대한 경험적 분산을 계산함으로써 획득될 수 있다.
이미지의 특정 블록 B에 대해, 먼저 평균을 추정한다
Figure 112016120961538-pct00001
여기서, |B|는 블록내의 픽셀들의 수이고
Figure 112016120961538-pct00002
는 표본 평균이다. 비편향 표본 분산은 다음과 같을 수 있다:
Figure 112016120961538-pct00003
각 블록 내의 추정된 분산은 이미지의 텍스처 양에 대한 좋은 지표일 수 있다. 예를 들어, 단색으로만 되어 있는 일반 블록은 분산이 0이므로 텍스처 돌출도가 제로이다. 높게 텍스처된 블록은 많은 색상의 변화를 갖기 때문에 높은 추정된 분산(예를 들어, 높은 돌출도)를 가질 것이다. 데이터 캡처를 트리거링할지를 결정하기 위해 이용되는 실제 알고리즘은 예를 들어, 디바이스(200)에서의 프로세싱 전력의 양에 기초하여 선택될 수 있다. 예를 들어, 텍스처 돌출도는 사람들이 종종 실수로 취하는 임의의 텍스처없는 사진, 예를 들어 벽과 같은 평평한 표면의 사진을 배제시키는데 이용될 수 있다. 게다가, 깊은 돌출도는 착용가능한/모바일 플랫폼의 캡처 디바이스에 대해 추출될 수 있다. 깊이는 장면에서의 다른 객체보다 상당히 더 가까운 객체를 갖는 것이 사용자가 이 객체에 특별히 관심이 있다는 것을 암시하는 직관적인 가정에 기초하여 더 가까운 객체에 더 높은 돌출도를 할당하는데 사용될 수 있다. 일 실시예에서, 미적 품질은 구성, 조명, 색상 호환성 등과 같은 기존의 사진 규칙에 대해 이미지를 평가함으로써 결정될 수 있다. 분석 결과는 사진에 스코어를 할당할 수 있다. 그 다음으로, 캡처 로직 모듈(104)은 스코어를 이용하여 사진을 촬영할지, 폐기할지, 또는 추후 사용을 위해 단순히 스코어를 기록할지를 결정할 수 있다. 또한, 잠재적인 데이터에서 다양한 객체를 인식하여 캡처할 수도 있다. 예를 들어, 캡처할 잠재적인 이미지가 사람을 포함한다는 인식은 사람을 포함하는 사진을 좋아한다는 것을 입증한 사용자의 데이터를 캡처하는 방향으로 편향될 수 있다.
모듈들(106' 내지 110')의 기여에 기초하여, 시스템(100)의 거동은 모든 인자의 평가에 기초하여 조정될 수 있다. 신경망과 같은 머신 학습 및 데이터 마이닝 도구(data mining tool)를 통해, 모델은 계층들의 인자로 훈련될 수 있다. 모델의 훈련은 피드백 데이터베이스(306)에 의해 제공된 피드백 데이터에 기초할 수 있다. 일 실시예에서, 피드백 데이터베이스(306)는 이전에 캡처된 데이터에 관한 사용자 생성 피드백 정보를 보유할 수 있다. 사용자 생성 피드백 정보는 사용자 및/또는 예를 들어, 사용자의 가족, 친구(예를 들어, 소셜 네트워크), 전문적인 동료, 사용자와 동일한 또는 유사한 활동(예를 들어, 스포츠, 취미 등)에 참여한 사람 등과 같은, 캡처된 데이터가 제시될 수 있는 다른 당사자에 의해 생성된 캡처된 데이터에 대한 주관적인 및/또는 고의적인 응답을 포함할 수 있다. 피드백 정보의 예는 캡처된 데이터와 사용자의 상호작용(예를 들어, 삭제, 저장, 이메일 전송, 포커스 재조정, 확대, 자르기 등), Flikr 등급, 페이스북(Facebook) "Likes", 트위터(Twitter) "Tweets" 및/또는 "Retweets"와 같은 온라인 상호작용을 포함할 수 있다. 피드백 정보는 예를 들어, 디바이스(200)에서 실행중인 애플리케이션으로부터, 직접적으로 원격 리소스(228)로부터, 기타 등등으로부터 이용할 수 있다. 동일한 또는 상이한 실시예에서, 피드백 데이터베이스(306)는 또한 사용자가 저장한 캡처된 데이터에 대한 향상된 메타데이터와 최종적으로 삭제된 캡처된 데이터를 포함할 수 있다. 예시적인 향상된 메타데이터는 예를 들어, 데이터가 캡처되었을 때의 사용자의 기분, 포커스, 활동 등, 데이터가 캡처되었을 때의 시간, 날짜, 장소, 이벤트 상관 관계 등, 데이터의 콘텐츠, 기타 등등을 포함할 수 있다. 피드백 정보 및/또는 향상된 메타데이터로부터 도출된 데이터가 모델에 공급되어 장래의 캡처 시나리오 결정 및/또는 캡처 트리거링을 위한 기준을 형성할 수 있다. 일 실시예에서, 피드백 데이터베이스(306)는 사용자에 대한 사용 데이터의 히스토리를 포함할 수 있고, 캡처될 컨텍스트, 사용자 및 잠재적인 데이터에 대한 더 높은 수준의 이해를 생성하기 위해 미가공 센서 데이터를 분석하기 위한 개인화된 베이스라인 및 패턴을 제공할 수 있다. 모델을 훈련하는 것 이외에, 피드백 데이터는 또한 예를 들어, 데이터 캡처를 트리거할 시기, 데이터 캡처를 어떻게 구성해야 할지, 수집된 데이터의 유형, 데이터 샘플 해상도, 데이터 샘플 속도, 데이터 수집이 필요하지 않은 특정 활동에 대한 비활성 기간(예를 들어, 사용자가 이벤트에 있을 때 움직임 추적이 필요하지 않을 수 있다)에 관련하여, 캡처 로직 모듈(104) 및/또는 모듈들(106' 내지 110')의 동작을 구성하기 위해 (예를 들어, 캡처 로직 모듈(104)에 의해) 활용될 수 있다.
도 5는 본 개시내용의 적어도 하나의 실시예에 따른 데이터 캡처의 일례를 나타낸다. 특히, 도 5는 캡처 로직 모듈(104)에 의해 데이터가 캡처되어야 한다고 결정된 후에 발생할 수 있는 일례를 나타낸다. 캡처 모듈(102')은 예를 들어, 캡처 로직 모듈(104)에 의해 제공되는 구성에 기초하여 캡처된 데이터(500)를 생성하도록 구성될 수 있다. 구성은 예를 들어, 캡처 지속 시간, 캡처 속도, 캡처의 품질 수준(예를 들어, 해상도, 색상 수준, 비트 샘플 속도 등)을 포함할 수 있다. 캡처 모듈(102')이 이미지 및/또는 비디오를 캡처하기 위한 적어도 이미지 캡처 장비(예를 들어, 카메라)를 포함하는 예시적인 시나리오에서, 캡처 모듈(102')의 예시적인 구성은 특정 속도(예를 들어, 동적일 수 있음), 수면/기상 간격 및 줌, 이미지 해상도, ISO, 조리개, 셔터 속도, 플래시 동작 등과 같은 다른 카메라-특정 설정으로 캡처할 수 있는 다수의 이미지를 표시할 수 있는 이미지 캡처 다중 및/또는 간격을 포함할 수 있다. 캡처 모듈(102')의 구성은 생체인식 데이터, 컨텍스트 데이터 및/또는 콘텐츠 데이터에 기초할 뿐만 아니라, 디바이스 능력, 프로세서 로딩, 사용가능한 리소스들(예를 들어, 저장 공간, 전력 수준 등) 등과 같은 디바이스-중심 데이터를 포함할 수 있다.
캡처 후에, 캡처된 데이터(500)는 캡처 데이터베이스(502)에 저장될 수 있다. 캡처 데이터베이스(502)는 디바이스(200) 내에 상주할 수 있다. 대안적으로, 캡처 데이터베이스(502)의 적어도 일부는 (예를 들어, 원격 리소스(228)에서) 디바이스(200)의 외부에 위치할 수 있으며, 캡처 모듈(102)은 캡처된 데이터(500)가 캡처 데이터베이스(502)에 실시간으로, 주기적으로, 기타 등등으로 전송되도록 할 수 있다. 캡처 데이터베이스(502)의 적어도 일부가 디바이스(200)의 외부에 있는 실시예는 추가적인 저장 공간을 허용할 수 있고, 디바이스(200)가 상실되거나 손상되었을 경우에는 리던턴트 스토리지를 허용할 수 있다는 점에서 유익할 수 있다. 일 실시예에서, 데이터는 향상된 메타데이터(504)와 함께 저장될 수 있다. 향상된 메타데이터(504)는 생체인식 데이터, 콘텐츠 데이터 또는 컨텍스트 데이터 중 적어도 하나에 기초할 수 있다. 향상된 메타데이터(504)의 포함은 캡처 후 처리(예를 들어, 캡처된 데이터(500)를 그룹화하거나 이와는 달리 정렬하는 것)를 도울뿐만 아니라, 캡처 시나리오가 식별되고 및/또는 데이터 캡처가 트리거링되는 방식을 개선하기 위해 피드백 데이터베이스(306)에 제공될 수 있다. 일 실시예에서, 피드백 데이터베이스(306) 및 캡처 데이터베이스(502)는 실제적으로 동일한 데이터베이스일 수 있거나, 또는 디바이스(200)의 메모리 내의 공간을 보존하고 중복을 피하기 위해 적어도 일부 공통 데이터 저장 영역을 공유할 수 있다.
도 6은 본 개시내용의 적어도 하나의 실시예에 따른 데이터 캡처를 위한 동적 제어의 예시적인 동작을 나타낸다. 동작(600)에서, 시스템은 활성화될 수 있다. 동작들(602 내지 604)은 이들의 존재가 시스템이 다중 모드 기능성을 포함하는지에 의존할 수 있다는 점에서 선택적일 수 있다. 동작(602)에서, 동작 모드가 결정될 수 있다. 그 다음으로, 동작(602)에서 결정된 동작 모드는 동작(604)에서 데이터 가중치를 결정하는데 이용될 수 있다. 동작(606)에서, 적어도 생체인식 데이터 및 컨텍스트 데이터가 결정될 수 있다. 그 다음으로, 동작(608)에서, 동작(606)에서 획득된 생체인식 데이터 및 컨텍스트 데이터 중 적어도 하나에 기초하여 캡처 시나리오가 존재하는지에 대한 결정이 이루어질 수 있다. 캡처 시나리오가 존재하지 않는다는 결정에 이어, 추가의 생체인식 데이터 및/또는 컨텍스트 데이터가 결정될 수 있는 동작(606)으로 복귀될 수 있다.
동작(608)에서 캡처 시나리오가 존재한다고 판정되면, 동작(610)에서 콘텐츠 데이터가 결정될 수 있다. 그 다음으로, 동작(612)에서, 데이터 캡처를 트리거링할지에 관한 결정이 이루어질 수 있다. 동작(612)에서의 데이터 캡처를 트리거링하지 않는다는 결정에 이어, 캡처 시나리오를 재분석하기 위해 동작(608)으로 복귀될 수 있다. 동작(612)에서, 데이터 캡처가 트리거되어야 한다고 결정되면, 동작(614)에서 데이터가 캡처될 수 있고, 동작(616)에서 캡처된 데이터는 (예를 들어, 캡처 데이터베이스에) 향상된 메타데이터와 함께 저장될 수 있다. 동작들(618 내지 620)은 동작들(616) 바로 다음에 발생하는 것이 요구되지 않는다는 점에서 선택적 일 수 있다. 동작(618)에서, 예를 들어, 사용자 생성 피드백 정보, 향상된 메타데이터 등에 기초하여 피드백 데이터가 결정될 수 있다. 결과적인 피드백 데이터는 동작(620)에서 피드백 데이터베이스에 저장될 수 있다. 그 다음으로, 캡처 시나리오를 결정하기 위해 사용되는 제어 기준 및/또는 데이터 캡처를 트리거링할 때의 제어 기준은 수정되어 시스템을 개선하기 위해 피드백될 수 있다. 예를 들어, 제어 기준은 상이한 모드에 대해 가중치를 어떻게 설정할지, 생체인식 데이터, 컨텍스트 데이터 및/또는 콘텐츠 데이터가 어떻게 분석되는지, 캡처 시나리오가 어떻게 결정되는지, 데이터 캡처가 어떻게 트리거되는지, 기타 등등을 변경할 수 있다.
도 6은 일 실시예에 따른 동작들을 도시하지만, 도 6에 도시된 동작들 모두가 다른 실시예들을 위해 필요한 것은 아니라는 것을 이해해야 한다. 사실상, 본 개시내용의 다른 실시예들에서, 도 6에 도시된 동작들 및/또는 본 명세서에 기술된 다른 동작들이 도면들 중 임의의 것에 구체적으로 도시되어 있지 않지만 여전히 본 개시내용에 충분히 부합하는 방식으로 결합될 수 있다는 것이 본 명세서에서 충분히 생각되고 있다. 따라서, 하나의 도면에 정확히 도시되지 않은 특징들 및/또는 동작들에 관한 청구항은 본 개시내용의 범위 및 콘텐츠 내에 있는 것으로 간주된다.
이 출원에서 그리고 청구항들에서 사용되는 바와 같이, 용어 "및/또는"에 의해 결합되는 항목들의 리스트는 열거된 항목들의 임의의 조합을 의미할 수 있다. 예를 들어, 문구 "A, B 및/또는 C"는 A; B; C; A 및 B; A 및 C; B 및 C; 또는 A, B 및 C를 의미할 수 있다. 본 출원 및 청구항들에서 사용된 바와 같이, 용어 "중 적어도 하나"에 의해 결합된 항목들의 리스트는 열거된 항목들의 임의의 조합을 의미할 수 있다. 예를 들어, 문구 "A, B 또는 C 중 적어도 하나"는 A; B; C; A 및 B; A 및 C; B 및 C; 또는 A, B 및 C를 의미할 수 있다.
본 명세서에서의 임의의 실시예에서 사용되는 바와 같이, 용어 "모듈"은 앞서 언급한 동작들 중 임의의 것을 수행하도록 구성되는 소프트웨어, 펌웨어, 및/또는 회로를 지칭하는 것일 수 있다. 소프트웨어는 비일시적 컴퓨터 판독가능 저장 매체에 기록되어 있는 소프트웨어 패키지, 코드, 명령어들, 명령어 세트 및/또는 데이터로서 구현될 수 있다. 펌웨어는 메모리 디바이스들에 하드 코딩되는(예컨대, 비휘발성인) 코드, 명령어들 또는 명령어 세트들 및/또는 데이터로서 구현될 수 있다. "회로"는, 본 명세서에서의 임의의 실시예에서 사용되는 바와 같이, 예를 들어, 고정 배선 회로(hardwired circuitry), 하나 이상의 개별적인 명령어 프로세싱 코어들을 포함하는 컴퓨터 프로세서들과 같은 프로그래머블 회로, 상태 머신 회로, 및/또는 프로그래머블 회로에 의해 실행되는 명령어들을 저장하는 펌웨어를 예를 들어 단독으로 또는 임의의 조합으로 포함할 수 있다. 모듈들은 통합적으로 또는 개별적으로, 더 큰 시스템, 예를 들어, 집적 회로(IC), 시스템 온 칩(SoC), 데스크톱 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 서버, 스마트폰 등의 일부분을 형성하는 회로로서 구현될 수 있다.
본 명세서에 기술되는 동작들 중 임의의 것은, 개별적으로 또는 조합으로, 하나 이상의 프로세서들에 의해 실행될 때 방법들을 수행하는 명령어들을 저장하는 하나 이상의 저장 매체들(예를 들어, 비일시적인 저장 매체들)을 포함하는 시스템에서 구현될 수 있다. 여기서, 프로세서들은 예를 들어, 서버 CPU, 모바일 디바이스 CPU, 및/또는 다른 프로그래머블 회로를 포함할 수 있다. 또한, 본 명세서에 기술되는 동작들은 하나 초과의 상이한 물리적 위치에서의 프로세싱 구조들과 같은 복수의 물리적 디바이스에 걸쳐서 분산될 수 있다는 것이 의도된다. 저장 매체는 임의의 유형의 유형 매체(tangible medium), 예를 들어, 하드 디스크, 플로피 디스크, 광 디스크, CD-ROM(compact disk read-only memory), CD-RW(compact disk rewritable) 및 광자기 디스크를 포함하는 임의의 유형의 디스크, ROM(read-only memory), 동적 및 정적 RAM과 같은 RAM(random access memory), EPROM(erasable programmable read-only memory), EEPROM(electrically erasable programmable read-only memory), 플래시 메모리, SSD(Solid State Disk), eMMC(embedded multimedia card), SDIO(secure digital input/output) 카드, 자기 또는 광 카드와 같은 반도체 디바이스, 또는 전자 명령어들을 저장하는데 적절한 임의의 유형의 매체를 포함할 수 있다. 기타 실시예들은 프로그래머블 제어 디바이스에 의해 실행되는 소프트웨어 모듈들로서 구현될 수 있다.
따라서, 본 출원은 데이터 캡처를 위한 동적 제어에 관한 것이다. 디바이스는 생체인식 감지 모듈로부터의 생체인식 데이터, 컨텍스트 감지 모듈로부터의 컨텍스트 데이터 또는 콘텐츠 감지 모듈로부터의 콘텐츠 데이터 중 적어도 하나를 수신하기 위한 캡처 로직 모듈을 포함할 수 있다. 캡처 로직 모듈은 생체인식 데이터 및 컨텍스트 데이터 중 적어도 하나에 기초하여 캡처 시나리오가 존재하는지를 결정할 수 있다. 결정은 동작 모드에 기초하여 가중될 수 있다. 캡처 시나리오가 존재한다고 결정되면, 캡처 로직 모듈은 적어도 콘텐츠 데이터에 기초하여 데이터를 캡처할지를 결정할 수 있다. 캡처된 데이터는 (예를 들어, 생체인식 데이터, 컨텍스트 데이터 또는 콘텐츠 데이터 중 적어도 하나에 기초한 향상된 메타데이터와 함께) 디바이스 내의 캡처 데이터베이스에 저장될 수 있다. 디바이스는 또한 피드백 데이터를 포함하는 피드백 데이터베이스를 포함할 수 있다.
하기 예들은 추가적인 실시예들에 관한 것이다. 본 개시내용의 다음의 예는 하기 제공되는 바와 같은, 디바이스, 방법, 실행될 때 머신이 방법에 기초한 행위를 수행하게 하는 명령어들을 저장하기 위한 적어도 하나의 머신 판독가능 매체, 본 방법에 기초한 행위를 수행하기 위한 수단 및/또는 데이터 캡처를 위한 동적 제어를 위한 시스템과 같은 주제를 포함할 수 있다.
예 1에 따르면, 데이터 캡처를 제어하기 위한 디바이스가 제공된다. 디바이스는 캡처된 데이터를 저장하는 캡처 데이터베이스 및 캡처 로직 모듈을 포함하고, 이 캡처 로직 모듈은 생체인식 감지 모듈로부터 생체인식 데이터를 수신하고, 컨텍스트 감지 모듈로부터 컨텍스트 데이터를 수신하고, 생체인식 데이터 또는 컨텍스트 데이터 중 적어도 하나에 기초하여 캡처 시나리오가 존재하는지를 결정하고, 캡처 시나리오가 존재하는지의 적어도 결정에 기초하여 콘텐츠 감지 모듈로부터 콘텐츠 데이터를 수신하고, 적어도 콘텐츠 데이터에 기초하여 데이터를 캡처할지를 결정하고, 캡처 모듈로 하여금 적어도 데이터를 캡처할지의 결정에 기초하여 데이터를 캡처하게 하고, 캡처된 데이터를 캡처 데이터베이스에 저장되게 한다.
예 2는 예 1의 엘리먼트들을 포함할 수 있으며, 캡처 로직 모듈이 디바이스 외부의 생체인식 감지 모듈의 적어도 일부와 상호작용할 수 있게 하는 통신 모듈을 더 포함할 수 있다.
예 3은 예 2의 엘리먼트들을 포함할 수 있으며, 통신 모듈은 또한 캡처 로직 모듈이 디바이스 외부의 컨텍스트 감지 모듈의 적어도 일부와 상호작용할 수 있게 한다.
예 4는 예 2의 엘리먼트들을 포함할 수 있으며, 통신 모듈은 또한 캡처 로직 모듈이 디바이스 외부의 캡처 모듈의 적어도 일부와 상호작용할 수 있게 한다.
예 5는 예 1 내지 예 4 중 어느 하나의 엘리먼트들을 포함할 수 있으며, 생체인식 데이터는 생체인식 감지 모듈에 의해 수신되는 데이터에 기초하여 결정된 바와 같은, 디바이스의 사용자의 움직임, 디바이스의 사용자의 포커스 또는 디바이스의 사용자의 흥분 수준 중 적어도 하나를 기술하는 데이터를 포함한다.
예 6은 예 1 내지 예 4 중 어느 하나의 엘리먼트들을 포함할 수 있으며, 컨텍스트 데이터는 컨텍스트 감지 모듈에 의해 수신되는 데이터에 기초하여 결정된 바와 같은, 시간, 날짜, 장소, 장면, 근접한 객체들 또는 근접한 사람들 중 적어도 하나를 기술하는 데이터를 포함한다.
예 7은 예 1 내지 예 4 중 어느 하나의 엘리먼트들을 포함할 수 있으며, 콘텐츠 데이터는 콘텐츠 감지 모듈에 의해 수신되는 데이터에 기초하여 결정된 바와 같은, 캡처 품질, 미적 품질 또는 객체 인식 중 적어도 하나를 기술하는 데이터를 포함한다.
예 8은 예 1 내지 예 4 중 어느 하나의 엘리먼트들을 포함할 수 있으며, 생체인식 감지 모듈, 컨텍스트 감지 모듈, 콘텐츠 감지 모듈 또는 캡처 모듈 중 적어도 하나를 제어하는데 사용하기 위한 기준을 생성하기 위해 피드백 데이터를 제공하도록 디바이스에 적어도 부분적으로 배치된 피드백 데이터베이스를 더 포함한다.
예 9는 예 8의 엘리먼트들을 포함할 수 있으며, 피드백 데이터는 사용자 생성 피드백 또는 캡처된 데이터와 연관된 향상된 메타데이터 중 적어도 하나를 포함한다.
예 10은 예 9의 엘리먼트들을 포함할 수 있으며, 사용자 생성 피드백은 캡처된 데이터와의 사용자 상호작용 또는 캡처된 데이터에 관한 다른 것들의 온라인 상호작용 중 적어도 하나를 포함한다.
예 11은 예 1 내지 예 4 중 어느 하나의 엘리먼트들을 포함할 수 있으며, 캡처 로직 모듈은 또한 캡처 모듈이 데이터를 캡처하게 하기 전에 캡처 모듈을 구성한다.
예 12는 예 11의 엘리먼트들을 포함할 수 있으며, 캡처 모듈을 구성하는 것은, 캡처 다중(capture multiple), 캡처 속도 또는 캡처 품질 중 적어도 하나를 구성하는 것을 포함한다.
예 13은 예 1 내지 예 4 중 어느 하나의 엘리먼트들을 포함할 수 있으며, 캡처 로직 모듈은, 또한 향상된 메타데이터를 캡처 데이터와 연계하여 캡처 데이터베이스에 저장되게 하고, 향상된 메타데이터는 생체인식 데이터, 컨텍스트 데이터 또는 콘텐츠 데이터 중 적어도 하나에 기초한다.
예 14는 예 1 내지 예 4 중 어느 하나의 엘리먼트들을 포함할 수 있으며, 캡처 로직 모듈은, 또한 동작 모드를 결정하고, 생체인식 데이터 또는 컨텍스트 데이터 중 적어도 하나에 기초하여 캡처 시나리오가 존재하는지를 결정하기 전에 동작 모드에 기초하여 적어도 생체인식 데이터와 컨텍스트 데이터 간에 가중치를 설정한다.
예 15는 예 1의 엘리먼트들을 포함할 수 있으며, 캡처 로직 모듈이 디바이스 외부의 생체인식 감지 모듈의 일부분, 디바이스 외부의 컨텍스트 감지 모듈의 일부분 또는 디바이스 외부의 캡처 모듈의 일부분 중 적어도 하나와 상호작용하게 하는 통신 모듈을 더 포함할 수 있다.
예 16은 예 1 내지 4 중 어느 하나의 엘리먼트들을 포함할 수 있으며, 생체인식 데이터는 생체인식 감지 모듈에 의해 수신된 데이터에 기초하여 결정된 바와 같은, 디바이스의 사용자의 움직임, 디바이스의 사용자의 포커스 또는 디바이스의 사용자의 흥분 수준 중 적어도 하나를 기술하는 데이터를 포함하고, 컨텍스트 데이터는 컨텍스트 감지 모듈에 의해 수신된 데이터에 기초하여 결정된 바와 같은, 시간, 날짜, 장소, 장면, 근접한 객체들 또는 근접한 사람들 중 적어도 하나를 기술하는 데이터를 포함하고, 콘텐츠 데이터는 콘텐츠 감지 모듈에 의해 수신된 데이터에 기초하여 결정된 바와 같은, 캡처 품질, 미적 품질 또는 객체 인식 중 적어도 하나를 기술하는 데이터를 포함한다.
예 17에 따르면, 데이터 캡처의 동적 제어를 위한 방법이 제공된다. 본 방법은 생체인식 데이터를 수신하는 단계, 컨텍스트 데이터를 수신하는 단계, 생체인식 데이터 또는 컨텍스트 데이터 중 적어도 하나에 기초하여 캡처 시나리오가 존재하는지를 결정하는 단계, 캡처 시나리오가 존재하는지의 적어도 결정에 기초하여 콘텐츠 데이터를 수신하는 단계, 적어도 콘텐츠 데이터에 기초하여 데이터를 캡처할지를 결정하는 단계, 데이터를 캡처할지의 적어도 결정에 기초하여 데이터를 캡처하게 하는 단계, 및 캡처된 데이터를 캡처 데이터베이스에 저장되게 하는 단계를 포함할 수 있다.
예 18은 예 17의 엘리먼트들을 포함할 수 있으며, 생체인식 데이터는 사용자의 움직임, 사용자의 포커스 또는 사용자의 흥분 수준 중 적어도 하나를 기술하는 데이터를 포함한다.
예 19는 예 17의 엘리먼트들을 포함할 수 있으며, 컨텍스트 데이터는 시간, 날짜, 위치, 장면, 근접한 객체들 또는 근접한 사람들 중 적어도 하나를 기술하는 데이터를 포함한다.
예 20은 예 17의 엘리먼트들을 포함할 수 있으며, 콘텐츠 데이터는 캡처 품질, 미적 품질 또는 객체 인식 중 적어도 하나를 기술하는 데이터를 포함한다.
예 21은 예 17의 엘리먼트들을 포함할 수 있으며, 피드백 데이터에 기초하여 생체인식 감지, 컨텍스트 감지, 콘텐츠 감지 또는 데이터 캡처 중 적어도 하나를 제어하는 단계를 더 포함할 수 있다.
예 22는 예 21의 엘리먼트들을 포함할 수 있으며, 피드백 데이터는 사용자 생성 피드백 또는 캡처된 데이터와 연관된 향상된 메타데이터 중 적어도 하나를 포함한다.
예 23은 예 22의 엘리먼트들을 포함할 수 있으며, 사용자 생성 피드백은 캡처된 데이터와의 사용자 상호작용 또는 캡처된 데이터에 관한 다른 것들의 온라인 상호작용 중 적어도 하나를 포함한다.
예 24는 예 17 내지 예 23 중 어느 하나의 엘리먼트들을 포함할 수 있으며, 데이터를 캡처하게 하기 전에 데이터 캡처를 구성하는 단계를 더 포함할 수 있다.
예 25는 예 24의 엘리먼트들을 포함할 수 있으며, 데이터 캡처를 구성하는 것은, 캡처 다중, 캡처 속도 또는 캡처 품질 중 적어도 하나를 구성하는 것을 포함한다.
예 26은 예 17 내지 예 23 중 어느 하나의 엘리먼트들을 포함할 수 있으며, 향상된 메타데이터를 캡처 데이터와 연계하여 캡처 데이터베이스에 저장되게 하는 단계를 더 포함할 수 있고, 향상된 메타데이터는 생체인식 데이터, 컨텍스트 데이터 또는 콘텐츠 데이터 중 적어도 하나에 기초한다.
예 27은 예 17 내지 예 23 중 어느 하나의 엘리먼트들을 포함할 수 있으며, 동작 모드를 결정하는 단계, 및 생체인식 데이터 또는 컨텍스트 데이터 중 적어도 하나에 기초하여 캡처 시나리오가 존재하는지를 결정하기 전에 동작 모드에 기초하여 적어도 생체인식 데이터와 컨텍스트 데이터 간에 가중치를 설정하는 단계를 더 포함할 수 있다.
예 28은 예 17 내지 예 23 중 어느 하나의 엘리먼트들을 포함할 수 있으며, 생체인식 데이터는 사용자의 움직임, 사용자의 포커스 또는 사용자의 흥분 수준 중 적어도 하나를 기술하는 데이터를 포함하고, 컨텍스트 데이터는 시간, 날짜, 장소, 장면, 근접한 객체들 또는 근접한 사람들 중 적어도 하나를 기술하는 데이터를 포함하고, 콘텐츠 데이터는 캡처 품질, 미적 품질 또는 객체 인식 중 적어도 하나를 기술하는 데이터를 포함한다.
예 29에 따르면, 적어도 하나의 디바이스를 포함하는 시스템이 제공되며, 시스템은 상기 예 17 내지 28 중 어느 하나의 방법을 수행하도록 구성된다.
예 30에 따르면, 상기 예 17 내지 28 중 어느 하나의 방법을 수행하도록 구성된 칩셋이 제공된다.
예 31에 따르면, 컴퓨팅 디바이스상에서 실행되는 것에 응답하여, 컴퓨팅 디바이스로 하여금 상기 예 17 내지 예 28 중 어느 하나에 따른 방법을 수행하게 하는 복수의 명령어를 포함하는 적어도 하나의 머신 판독가능 매체가 제공된다.
예 32에 따르면, 데이터 캡처의 동적 제어를 위해 구성된 디바이스가 제공되며, 이 디바이스는 상기 예 17 내지 28 중 어느 하나의 방법을 수행하도록 구성된다.
예 33에 따르면, 데이터 캡처의 동적 제어를 위한 시스템이 제공된다. 본 시스템은 생체인식 데이터를 수신하기 위한 수단, 컨텍스트 데이터를 수신하기 위한 수단, 생체인식 데이터 또는 컨텍스트 데이터 중 적어도 하나에 기초하여 캡처 시나리오가 존재하는지를 결정하기 위한 수단, 캡처 시나리오가 존재하는지의 적어도 결정에 기초하여 콘텐츠 데이터를 수신하기 위한 수단, 적어도 콘텐츠 데이터에 기초하여 데이터를 캡처할지를 결정하기 위한 수단, 데이터를 캡처할지의 적어도 결정에 기초하여 데이터를 캡처하게 하기 위한 수단, 및 캡처된 데이터를 캡처 데이터베이스에 저장되게 하기 위한 수단을 포함할 수 있다.
예 34는 예 33의 엘리먼트들을 포함할 수 있으며, 생체인식 데이터는 사용자의 움직임, 사용자의 포커스 또는 사용자의 흥분 수준 중 적어도 하나를 기술하는 데이터를 포함한다.
예 35는 예 33의 엘리먼트들을 포함할 수 있으며, 컨텍스트 데이터는 시간, 날짜, 위치, 장면, 근접한 객체들 또는 근접한 사람들 중 적어도 하나를 기술하는 데이터를 포함한다.
예 36은 예 33의 엘리먼트들을 포함할 수 있으며, 콘텐츠 데이터는 캡처 품질, 미적 품질 또는 객체 인식 중 적어도 하나를 기술하는 데이터를 포함한다.
예 37은 예 33 내지 예 36 중 어느 하나의 엘리먼트들을 포함할 수 있으며, 피드백 데이터에 기초하여 생체인식 감지, 컨텍스트 감지, 콘텐츠 감지 또는 데이터 캡처 중 적어도 하나를 제어하기 위한 수단을 더 포함할 수 있다.
예 38은 예 33 내지 예 36 중 어느 하나의 엘리먼트들을 포함할 수 있으며, 향상된 메타데이터를 캡처 데이터와 연계하여 캡처 데이터베이스에 저장되게 하기 위한 수단을 더 포함할 수 있으며, 향상된 메타데이터는 생체인식 데이터, 컨텍스트 데이터 또는 콘텐츠 데이터 중 적어도 하나에 기초한다.
예 39는 예 33 내지 예 36 중 어느 하나의 엘리먼트들을 포함할 수 있으며, 동작 모드를 결정하기 위한 수단, 및 생체인식 데이터 또는 컨텍스트 데이터 중 적어도 하나에 기초하여 캡처 시나리오가 존재하는지를 결정하기 전에 동작 모드에 기초하여 적어도 생체인식 데이터와 컨텍스트 데이터 간에 가중치를 설정하기 위한 수단을 더 포함할 수 있다.
본 명세서에서 사용된 용어 및 표현은 설명의 용어로서 사용되는 것으로, 제한이 아니며, 그러한 용어 및 표현의 사용시, 도시되고 기술된 특징(또는 그 일부)의 임의의 등가물을 배제하려는 의도는 없으며, 청구 범위의 내에서 다양한 변경이 가능하다는 것이 인식된다. 따라서, 청구항들은 그러한 등가물 모두를 포함하는 것으로 보아야 한다.

Claims (28)

  1. 데이터 캡처를 제어하기 위한 디바이스로서,
    캡처된 데이터를 저장하는 캡처 데이터베이스, 피드백 데이터를 저장하는 피드백 데이터베이스, 및 머신 학습 또는 데이터 마이닝 도구(data mining tool) 중 적어도 하나에 의해 훈련된 캡처 시나리오 결정을 위한 기준을 생성하기 위한 적어도 하나의 모델을 포함하는 메모리 회로; 및
    캡처 로직 회로
    를 포함하고,
    상기 캡처 로직 회로는:
    생체인식 감지 회로로부터 상기 디바이스의 사용자로부터 감지된 생체인식 데이터를 수신하고;
    컨텍스트 감지 회로로부터 상기 디바이스의 사용자의 현재 컨텍스트에 대응하는 컨텍스트 데이터를 수신하고;
    동작 모드를 결정하고, 상기 동작 모드에 기초하여 적어도 상기 생체인식 데이터와 상기 컨텍스트 데이터 간에 가중치를 설정하고;
    가중된 상기 생체인식 데이터 또는 가중된 상기 컨텍스트 데이터 중 적어도 하나에 기초하여 캡처 시나리오가 존재하는지를 결정하고;
    적어도 캡처 시나리오가 존재하는지의 결정에 기초하여 콘텐츠 감지 회로로부터 콘텐츠 데이터를 수신하고;
    적어도 상기 콘텐츠 데이터에 기초하여 데이터를 캡처할지를 결정하고;
    캡처 회로로 하여금 적어도 데이터를 캡처할 지의 결정에 기초하여 데이터를 캡처하게 하고;
    상기 캡처된 데이터를 상기 캡처 데이터베이스에 저장되게 하고;
    상기 캡처된 데이터에 대한 적어도 하나의 응답을 결정하고;
    상기 적어도 하나의 응답에 기초하여 상기 피드백 데이터를 결정하고;
    상기 피드백 데이터베이스에 상기 피드백 데이터를 저장하고; 그리고
    상기 캡처 시나리오 결정을 위한 기준을 생성하기 위해 상기 적어도 하나의 모델을 훈련하도록 상기 피드백 데이터베이스로부터 상기 피드백 데이터를 제공하는, 디바이스.
  2. 제1항에 있어서,
    상기 캡처 로직 회로가 상기 디바이스 외부의 상기 생체인식 감지 회로의 적어도 일부와 상호작용할 수 있게 하는 통신 회로를 더 포함하는 디바이스.
  3. 제2항에 있어서,
    상기 통신 회로는 또한 상기 캡처 로직 회로가 상기 디바이스 외부의 상기 컨텍스트 감지 회로의 적어도 일부와 상호작용할 수 있게 하는 디바이스.
  4. 제2항에 있어서,
    상기 통신 회로는 또한 상기 캡처 로직 회로가 상기 디바이스 외부의 캡처 회로의 적어도 일부와 상호작용할 수 있게 하는 디바이스.
  5. 제1항에 있어서,
    상기 생체인식 데이터는 상기 생체인식 감지 회로에 의해 수신되는 데이터에 기초하여 결정된 바와 같은, 상기 디바이스의 사용자의 움직임, 상기 디바이스의 사용자의 포커스 또는 상기 디바이스의 사용자의 흥분 수준 중 적어도 하나를 기술하는 데이터를 포함하는 디바이스.
  6. 제1항에 있어서,
    상기 컨텍스트 데이터는 상기 컨텍스트 감지 회로에 의해 수신되는 데이터에 기초하여 결정된 바와 같은, 시간, 날짜, 장소, 장면(scene), 근접한 객체들 또는 근접한 사람들 중 적어도 하나를 기술하는 데이터를 포함하는 디바이스.
  7. 제1항에 있어서,
    상기 콘텐츠 데이터는 상기 콘텐츠 감지 회로에 의해 수신되는 데이터에 기초하여 결정된 바와 같은, 캡처 품질, 미적 품질 또는 객체 인식 중 적어도 하나를 기술하는 데이터를 포함하는 디바이스.
  8. 제1항에 있어서,
    상기 피드백 데이터베이스는 상기 디바이스 내에 적어도 부분적으로 위치하고, 상기 기준은 상기 생체인식 감지 회로, 상기 컨텍스트 감지 회로, 상기 콘텐츠 감지 회로 또는 캡처 회로 중 적어도 하나를 제어하는데 사용하기 위한 것인, 디바이스.
  9. 제1항에 있어서,
    상기 캡처 로직 회로는, 또한 상기 캡처 회로가 데이터를 캡처하게 하기 전에 상기 캡처 회로를 구성하는 디바이스.
  10. 제1항에 있어서,
    상기 캡처 로직 회로는, 또한 향상된 메타데이터를 상기 데이터 캡처와 연계하여 상기 캡처 데이터베이스에 저장되게 하고, 상기 향상된 메타데이터는 상기 생체인식 데이터, 상기 컨텍스트 데이터 또는 상기 콘텐츠 데이터 중 적어도 하나에 기초하는 디바이스.
  11. 삭제
  12. 데이터 캡처의 동적 제어를 위한 방법으로서,
    생체인식 데이터를 수신하는 단계;
    컨텍스트 데이터를 수신하는 단계;
    동작 모드를 결정하고, 상기 동작 모드에 기초하여 적어도 상기 생체인식 데이터와 컨텍스트 데이터 간에 가중치를 설정하는 단계;
    가중된 상기 생체인식 데이터 또는 가중된 상기 컨텍스트 데이터 중 적어도 하나에 기초하여 캡처 시나리오가 존재하는지를 결정하는 단계;
    적어도 캡처 시나리오가 존재하는지의 결정에 기초하여 콘텐츠 데이터를 수신하는 단계;
    적어도 상기 콘텐츠 데이터에 기초하여 데이터를 캡처할지를 결정하는 단계;
    적어도 데이터를 캡처할지의 결정에 기초하여 데이터를 캡처하게 하는 단계;
    캡처된 데이터를 캡처 데이터베이스에 저장되게 하는 단계;
    상기 캡처된 데이터에 대한 적어도 하나의 응답을 결정하는 단계;
    상기 적어도 하나의 응답에 기초하여 피드백 데이터를 결정하는 단계;
    피드백 데이터베이스에 상기 피드백 데이터를 저장하는 단계; 및
    캡처 시나리오 결정을 위한 기준을 생성하기 위해 적어도 하나의 모델을 훈련하도록 상기 피드백 데이터베이스로부터 상기 피드백 데이터를 제공하는 단계
    를 포함하는 방법.
  13. 제12항에 있어서,
    상기 생체인식 데이터는 사용자의 움직임, 사용자의 포커스 또는 사용자의 흥분 수준 중 적어도 하나를 기술하는 데이터를 포함하는 방법.
  14. 제12항에 있어서,
    상기 컨텍스트 데이터는 시간, 날짜, 장소, 장면(scene), 근접한 객체들 또는 근접한 사람들 중 적어도 하나를 기술하는 데이터를 포함하는 방법.
  15. 제12항에 있어서,
    상기 콘텐츠 데이터는 캡처 품질, 미적 품질 또는 객체 인식 중 적어도 하나를 기술하는 데이터를 포함하는 방법.
  16. 제12항에 있어서,
    상기 기준에 기초하여 생체인식 감지, 컨텍스트 감지, 콘텐츠 감지 또는 데이터 캡처 중 적어도 하나를 제어하는 단계를 더 포함하는 방법.
  17. 제12항에 있어서,
    향상된 메타데이터를 상기 캡처 데이터와 연계하여 상기 캡처 데이터베이스에 저장되게 하는 -상기 향상된 메타데이터는 상기 생체인식 데이터, 상기 컨텍스트 데이터 또는 상기 콘텐츠 데이터 중 적어도 하나에 기초함- 단계를 더 포함하는 방법.
  18. 삭제
  19. 데이터 캡처의 동적 제어를 위한 명령어들을 개별적으로 또는 결합하여 저장하는 비-일시적 머신 판독가능 저장 매체로서,
    상기 명령어들은, 하나 이상의 프로세서에 의해 실행될 때, 상기 하나 이상의 프로세서로 하여금
    생체인식 데이터를 수신하고;
    컨텍스트 데이터를 수신하고;
    동작 모드를 결정하고, 상기 동작 모드에 기초하여 적어도 상기 생체인식 데이터와 컨텍스트 데이터 간에 가중치를 설정하고;
    가중된 상기 생체인식 데이터 또는 가중된 상기 컨텍스트 데이터 중 적어도 하나에 기초하여 캡처 시나리오가 존재하는지를 결정하고;
    적어도 캡처 시나리오가 존재하는지의 결정에 기초하여 콘텐츠 데이터를 수신하고;
    적어도 상기 콘텐츠 데이터에 기초하여 데이터를 캡처할지를 결정하고;
    적어도 데이터를 캡처할지의 결정에 기초하여 데이터를 캡처하게 하고;
    캡처된 데이터를 캡처 데이터베이스에 저장되게 하고;
    상기 캡처된 데이터에 대한 적어도 하나의 응답을 결정하고;
    상기 적어도 하나의 응답에 기초하여 피드백 데이터를 결정하고;
    피드백 데이터베이스에 상기 피드백 데이터를 저장하고; 그리고
    캡처 시나리오 결정을 위한 기준을 생성하기 위해 적어도 하나의 모델을 훈련하도록 상기 피드백 데이터베이스로부터 상기 피드백 데이터를 제공하도록 하는, 비-일시적 머신 판독가능 저장 매체.
  20. 제19항에 있어서,
    상기 생체인식 데이터는 사용자의 움직임, 사용자의 포커스 또는 사용자의 흥분 수준 중 적어도 하나를 기술하는 데이터를 포함하는 비-일시적 머신 판독가능 저장 매체.
  21. 제19항에 있어서,
    상기 컨텍스트 데이터는 시간, 날짜, 장소, 장면, 근접한 객체들 또는 근접한 사람들 중 적어도 하나를 기술하는 데이터를 포함하는 비-일시적 머신 판독가능 저장 매체.
  22. 제19항에 있어서,
    상기 콘텐츠 데이터는 캡처 품질, 미적 품질 또는 객체 인식 중 적어도 하나를 기술하는 데이터를 포함하는 비-일시적 머신 판독가능 저장 매체.
  23. 제19항에 있어서,
    하나 이상의 프로세서에 의해 실행될 때, 상기 하나 이상의 프로세서로 하여금 상기 기준에 기초하여 생체인식 감지, 컨텍스트 감지, 콘텐츠 감지 또는 데이터 캡처 중 적어도 하나를 제어하게 하는 명령어들을 더 포함하는, 비-일시적 머신 판독가능 저장 매체.
  24. 제19항에 있어서,
    하나 이상의 프로세서에 의해 실행될 때, 상기 하나 이상의 프로세서로 하여금 향상된 메타데이터를 상기 캡처 데이터와 연계하여 상기 캡처 데이터베이스에 저장되게 하는 -상기 향상된 메타데이터는 상기 생체인식 데이터, 상기 컨텍스트 데이터 또는 상기 콘텐츠 데이터 중 적어도 하나에 기초함- 명령어들을 더 포함하는 비-일시적 머신 판독가능 저장 매체.
  25. 삭제
  26. 제1항에 있어서, 상기 적어도 하나의 응답은 이전에 캡처된 데이터에 대한 상기 사용자의 고의적 또는 주관적 응답 중 적어도 하나를 결정하는 것에 기초하는 것인, 디바이스.
  27. 제12항에 있어서, 상기 적어도 하나의 응답은 이전에 캡처된 데이터에 대한 사용자의 고의적 또는 주관적 응답 중 적어도 하나를 결정하는 것에 기초하는 것인, 방법.
  28. 제19항에 있어서, 상기 적어도 하나의 응답은 이전에 캡처된 데이터에 대한 사용자의 고의적 또는 주관적 응답 중 적어도 하나를 결정하는 것에 기초하는 것인, 비-일시적 머신 판독가능 저장 매체.
KR1020167034611A 2014-07-11 2015-05-15 데이터 캡처를 위한 동적 제어 KR101819925B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/329,711 2014-07-11
US14/329,711 US10074003B2 (en) 2014-07-11 2014-07-11 Dynamic control for data capture
PCT/US2015/030930 WO2016007220A1 (en) 2014-07-11 2015-05-15 Dynamic control for data capture

Publications (2)

Publication Number Publication Date
KR20170008776A KR20170008776A (ko) 2017-01-24
KR101819925B1 true KR101819925B1 (ko) 2018-01-18

Family

ID=55064655

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167034611A KR101819925B1 (ko) 2014-07-11 2015-05-15 데이터 캡처를 위한 동적 제어

Country Status (6)

Country Link
US (2) US10074003B2 (ko)
EP (1) EP3167385A4 (ko)
JP (1) JP6434137B2 (ko)
KR (1) KR101819925B1 (ko)
CN (2) CN106462648B (ko)
WO (1) WO2016007220A1 (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3079334B1 (en) * 2015-04-09 2019-03-13 The Boeing Company Device and method for transferring files from a portable storage device
US10564794B2 (en) * 2015-09-15 2020-02-18 Xerox Corporation Method and system for document management considering location, time and social context
CN108293174A (zh) * 2015-09-22 2018-07-17 Mc10股份有限公司 用于众包算法开发的方法和系统
US10229324B2 (en) 2015-12-24 2019-03-12 Intel Corporation Video summarization using semantic information
US10375119B2 (en) * 2016-07-28 2019-08-06 International Business Machines Corporation Dynamic multi-factor authentication challenge generation
KR102685894B1 (ko) * 2017-02-23 2024-07-19 삼성전자주식회사 복수의 생체 센서를 이용하여 인증을 수행하기 위한 전자 장치 및 그의 동작 방법
US11062104B2 (en) * 2019-07-08 2021-07-13 Zebra Technologies Corporation Object recognition system with invisible or nearly invisible lighting
US11677828B2 (en) * 2019-07-09 2023-06-13 Rhombus Systems Camera network for enhancing industrial monitoring and security
CN111507941B (zh) * 2020-03-24 2023-06-02 杭州电子科技大学 一种用于美学质量评价的构图表征学习方法
US11877052B2 (en) * 2020-12-08 2024-01-16 Cortica Ltd. Filming an event by an autonomous robotic system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040208496A1 (en) * 2003-04-15 2004-10-21 Hewlett-Packard Development Company, L.P. Attention detection
JP2010016847A (ja) * 2003-12-24 2010-01-21 Walker Digital Llc 画像を自動的に捕捉し、管理する方法および装置

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7248300B1 (en) 1999-06-03 2007-07-24 Fujifilm Corporation Camera and method of photographing good image
US6301440B1 (en) * 2000-04-13 2001-10-09 International Business Machines Corp. System and method for automatically setting image acquisition controls
JP2004121218A (ja) 2002-08-06 2004-04-22 Jenokkusu Soyaku Kenkyusho:Kk 気管支喘息または慢性閉塞性肺疾患の検査方法
US7319780B2 (en) * 2002-11-25 2008-01-15 Eastman Kodak Company Imaging method and system for health monitoring and personal security
US7403211B2 (en) * 2003-02-13 2008-07-22 Lumapix, Inc. Method and system for interactive region segmentation
JP2004356970A (ja) 2003-05-29 2004-12-16 Casio Comput Co Ltd ウエアラブルカメラの撮影方法、撮像装置、及び撮影制御プログラム
GB2403365B (en) 2003-06-27 2008-01-30 Hewlett Packard Development Co An autonomous camera having exchangeable behaviours
GB2404511B (en) 2003-07-26 2007-08-22 Hewlett Packard Development Co Image capture device having a learning function
US20060020630A1 (en) * 2004-07-23 2006-01-26 Stager Reed R Facial database methods and systems
US9001215B2 (en) * 2005-06-02 2015-04-07 The Invention Science Fund I, Llc Estimating shared image device operational capabilities or resources
JP4717539B2 (ja) * 2005-07-26 2011-07-06 キヤノン株式会社 撮像装置及び撮像方法
EP1793580B1 (en) * 2005-12-05 2016-07-27 Microsoft Technology Licensing, LLC Camera for automatic image capture having plural capture modes with different capture triggers
JP2007336098A (ja) 2006-06-13 2007-12-27 Canon Inc 映像録画・再生システム用映像制御装置
JP5017989B2 (ja) 2006-09-27 2012-09-05 ソニー株式会社 撮像装置、撮像方法
FR2913510B1 (fr) * 2007-03-07 2009-07-03 Eastman Kodak Co Procede pour determiner automatiquement une probabilite de saisie d'images avec un terminal a partir de donnees contextuelles
US7817914B2 (en) * 2007-05-30 2010-10-19 Eastman Kodak Company Camera configurable for autonomous operation
US8253770B2 (en) * 2007-05-31 2012-08-28 Eastman Kodak Company Residential video communication system
US8554784B2 (en) * 2007-08-31 2013-10-08 Nokia Corporation Discovering peer-to-peer content using metadata streams
JP5024093B2 (ja) 2008-02-08 2012-09-12 ソニー株式会社 画像の撮影装置、その表示装置および画像データの管理システム
CN101673346B (zh) * 2008-09-09 2013-06-05 日电(中国)有限公司 对图像进行处理的方法、设备和系统
US8745250B2 (en) 2009-06-30 2014-06-03 Intel Corporation Multimodal proximity detection
US20130286244A1 (en) * 2010-03-23 2013-10-31 Motorola Mobility Llc System and Method for Image Selection and Capture Parameter Determination
US8502879B2 (en) * 2010-05-26 2013-08-06 Sony Corporation Camera system and method for taking photographs that correspond to user preferences
US9268792B2 (en) * 2011-01-24 2016-02-23 T-Mobile Usa, Inc. Automatic selection of digital images with an apparatus
JP5229336B2 (ja) 2011-02-07 2013-07-03 トヨタ自動車株式会社 カーテンエアバッグ装置
KR101750827B1 (ko) * 2011-03-02 2017-06-27 삼성전자주식회사 통신 시스템에서 소셜 네트워크를 이용한 미디어 공유 방법 및 장치
US20120277914A1 (en) * 2011-04-29 2012-11-01 Microsoft Corporation Autonomous and Semi-Autonomous Modes for Robotic Capture of Images and Videos
US9596398B2 (en) * 2011-09-02 2017-03-14 Microsoft Technology Licensing, Llc Automatic image capture
US8611015B2 (en) 2011-11-22 2013-12-17 Google Inc. User interface
KR101894395B1 (ko) * 2012-02-24 2018-09-04 삼성전자주식회사 캡쳐 데이터 제공 방법 및 이를 위한 이동 단말기
JP2013255168A (ja) 2012-06-08 2013-12-19 Toyota Infotechnology Center Co Ltd 撮像装置、および撮像方法
EP2688283B1 (en) * 2012-07-20 2020-03-18 BlackBerry Limited Dynamic region of interest adaptation and image capture device providing same
JP2014057191A (ja) * 2012-09-12 2014-03-27 Olympus Imaging Corp 撮像装置
US20140078304A1 (en) * 2012-09-20 2014-03-20 Cloudcar, Inc. Collection and use of captured vehicle data
CN103310099A (zh) * 2013-05-30 2013-09-18 佛山电视台南海分台 一种利用图像捕获和识别技术实现增强现实的方法和系统
US9210319B2 (en) * 2013-07-11 2015-12-08 Magisto Ltd. Method and system for capturing important objects using a camera based on predefined metrics
WO2015127383A1 (en) * 2014-02-23 2015-08-27 Catch Motion Inc. Person wearable photo experience aggregator apparatuses, methods and systems

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040208496A1 (en) * 2003-04-15 2004-10-21 Hewlett-Packard Development Company, L.P. Attention detection
JP2010016847A (ja) * 2003-12-24 2010-01-21 Walker Digital Llc 画像を自動的に捕捉し、管理する方法および装置

Also Published As

Publication number Publication date
CN106462648B (zh) 2019-10-22
KR20170008776A (ko) 2017-01-24
JP6434137B2 (ja) 2018-12-05
JP2017525069A (ja) 2017-08-31
CN110674485B (zh) 2023-05-26
US20160012270A1 (en) 2016-01-14
CN106462648A (zh) 2017-02-22
CN110674485A (zh) 2020-01-10
EP3167385A1 (en) 2017-05-17
EP3167385A4 (en) 2018-03-07
WO2016007220A1 (en) 2016-01-14
US10074003B2 (en) 2018-09-11
US20190095670A1 (en) 2019-03-28

Similar Documents

Publication Publication Date Title
KR101819925B1 (ko) 데이터 캡처를 위한 동적 제어
KR102466890B1 (ko) 고속 비디오 캡처 및 센서 조절
US11188961B2 (en) Service execution method and device
CN105825522B (zh) 图像处理方法和支持该方法的电子设备
US10382373B1 (en) Automated image processing and content curation
US10162999B2 (en) Face recognition based on spatial and temporal proximity
KR102246241B1 (ko) 이미지들을 공유하기 위한 자동 제안들
JP5795687B2 (ja) 写真を自動的に共有するためのスマートカメラ
US20150286897A1 (en) Automated techniques for photo upload and selection
CN105453070B (zh) 基于机器学习的用户行为表征
KR102376700B1 (ko) 비디오 컨텐츠 생성 방법 및 그 장치
EP3104304B1 (en) Electronic apparatus and method of extracting still images
CN110673737B (zh) 基于智能家居操作系统的显示内容的调整方法及装置
WO2019100925A1 (zh) 图像数据输出
US20160328474A1 (en) Data recording and data recording apparatus
AU2012238085B2 (en) Face recognition based on spatial and temporal proximity
WO2016075554A1 (en) Data recording method and data recording apparatus

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right