KR20160088896A - 고정되지 않은 디바이스에 의한 대상의 가변 특징들의 검출 - Google Patents

고정되지 않은 디바이스에 의한 대상의 가변 특징들의 검출 Download PDF

Info

Publication number
KR20160088896A
KR20160088896A KR1020167015853A KR20167015853A KR20160088896A KR 20160088896 A KR20160088896 A KR 20160088896A KR 1020167015853 A KR1020167015853 A KR 1020167015853A KR 20167015853 A KR20167015853 A KR 20167015853A KR 20160088896 A KR20160088896 A KR 20160088896A
Authority
KR
South Korea
Prior art keywords
mobile device
variable features
variations
captured images
target object
Prior art date
Application number
KR1020167015853A
Other languages
English (en)
Inventor
라그라만 크리쉬나무르티
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Publication of KR20160088896A publication Critical patent/KR20160088896A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06K9/00362
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • G06T7/004
    • G06T7/2066
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30076Plethysmography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

목표 대상을 포함하는 장면의 이미지들을 모바일 디바이스의 이미지 포착 유닛에 의해 포착하는 단계, 모바일 디바이스의 움직임을 결정하는 단계, 및 모바일 디바이스의 결정된 움직임에 적어도 부분적으로 기초하여, 포착된 이미지들로부터 목표 대상의 하나 또는 그보다 많은 가변 특징들의 변동들을 검출하는 단계를 포함하는 방법을 비롯한 시스템들, 장치, 디바이스들, 방법, 컴퓨터 프로그램 물건들, 매체 및 다른 구현들이 개시되며, 하나 또는 그보다 많은 가변 특징들의 변동들은 장면 내 목표 대상의 포지션과 관계가 없다.

Description

고정되지 않은 디바이스에 의한 대상의 가변 특징들의 검출{DETECTION OF AN OBJECT'S VARYING FEATURES WITH A NON-STATIONARY DEVICE}
[0001] 일부 모바일 전화 애플리케이션들은 예를 들어, 플래시 및 카메라 렌즈 위에 손가락을 대고 밝기의 변화를 추적함으로써 사람의 맥박수를 측정하는 데 또한 사용될 수 있다. 다른 모바일 전화 애플리케이션들은 흉부에 전화기를 놓고 깊게 호흡함으로써 사람의 호흡률을 측정하는 데 사용될 수 있다.
[0002] 일부 변형들에서, 방법이 개시된다. 이 방법은 목표 대상을 포함하는 장면의 이미지들을 모바일 디바이스의 이미지 포착 유닛에 의해 포착하는 단계, 모바일 디바이스의 움직임을 결정하는 단계, 및 모바일 디바이스의 결정된 움직임에 적어도 부분적으로 기초하여, 포착된 이미지들로부터 목표 대상의 하나 또는 그보다 많은 가변(varying) 특징들의 변동들을 검출하는 단계를 포함하는데, 하나 또는 그보다 많은 가변 특징들의 변동들은 장면 내 목표 대상의 포지션과 관계가 없다.
[0003] 방법의 실시예들은 다음 특징들 중 하나 또는 그보다 많은 특징들을 포함하여 본 개시에서 설명되는 특징들 중 적어도 일부를 포함할 수도 있다.
[0004] 목표 대상의 하나 또는 그보다 많은 가변 특징들은 예를 들어, 목표 대상의 표면에서 발생하는 작은 움직임 특징들, 및/또는 목표 대상의 표면에서 발생하는 색 변화들 중 하나 이상을 포함할 수도 있다.
[0005] 이 방법은 목표 대상의 하나 또는 그보다 많은 가변 특징들과 연관된 하나 또는 그보다 많은 생체 인식 특성들을 결정하는 단계를 더 포함할 수도 있다.
[0006] 목표 대상의 하나 또는 그보다 많은 가변 특징들은 예를 들어, 혈관들에서 흐르는 혈액으로 인한 피부 조직의 색 변화들, 및/또는 맥동하는 조직 중 하나 이상을 포함할 수도 있고, 목표 대상의 하나 또는 그보다 많은 가변 특징들과 연관된 생체 인식 특성들은 예를 들어, 심박수, 혈압 및/또는 호흡수 중 하나 이상을 포함할 수도 있다.
[0007] 모바일 디바이스의 움직임을 결정하는 단계는 이미지 포착 유닛에 의해 포착된 이미지들에 나타나는 고정된 기준 대상의 포지션을 추적하는 단계, 및 포착된 이미지들에서 고정된 기준 대상의 추적된 포지션을 기초로 모바일 디바이스의 움직임을 결정하는 단계를 포함할 수도 있다.
[0008] 모바일 디바이스의 결정된 움직임에 적어도 부분적으로 기초하여, 목표 대상의 하나 또는 그보다 많은 가변 특징들의 변동들을 검출하는 단계는 고정된 기준 대상의 추적된 포지션을 기초로 하나 또는 그보다 많은 포착된 이미지들 중 적어도 2개를 정렬하는 단계, 및 정렬된 2개 또는 그보다 많은 포착된 이미지들로부터 목표 대상의 하나 또는 그보다 많은 가변 특징들의 변동들을 결정하는 단계를 포함할 수도 있다.
[0009] 모바일 디바이스의 움직임을 결정하는 단계는 모바일 디바이스의 하나 또는 그보다 많은 센서들로부터 하나 또는 그보다 많은 측정들을 획득하는 단계, 및 하나 또는 그보다 많은 센서들로부터 획득된 하나 또는 그보다 많은 측정들을 기초로 모바일 디바이스의 움직임을 결정하는 단계를 포함할 수도 있다.
[0010] 목표 대상의 하나 또는 그보다 많은 가변 특징들의 변동들을 검출하는 단계는 모바일 디바이스의 이미지 포착 유닛의 기준 프레임을 결정하는 단계, 포착된 이미지들 중 2개 또는 그보다 많은 포착된 이미지들을 모바일 디바이스의 이미지 포착 유닛의 기준 프레임에 등록하는 단계, 및 목표 대상의 하나 또는 그보다 많은 가변 특징들의 변동들을 추출하기 위해, 포착된 이미지들 중 이미지 포착 유닛의 기준 프레임에 등록된 2개 또는 그보다 많은 포착된 이미지들을 처리하는 단계를 포함할 수도 있다.
[0011] 목표 대상의 하나 또는 그보다 많은 가변 특징들의 변동들을 검출하는 단계는 하나 또는 그보다 많은 가변 특징들의 변동들을 추출하기 위해 하나 또는 그보다 많은 포착된 이미지들에 필터링 프로세스들을 적용하는 단계를 포함할 수도 있다.
[0012] 목표 대상의 하나 또는 그보다 많은 가변 특징들의 변동들을 검출하는 단계는 하나 또는 그보다 많은 가변 특징들의 변동들을 추출하기 위해, 포착된 이미지들 중 모바일 디바이스의 결정된 움직임을 기초로 정렬된 2개 또는 그보다 많은 포착된 이미지들에 오일러(Eulerian) 운동 증폭 프로세스를 적용하는 단계를 포함할 수도 있다.
[0013] 오일러 운동 증폭 프로세스는 하나 또는 그보다 많은 가변 특징들의 변동들을 추출하기 위해, 2개 또는 그보다 많은 포착된 이미지들에 대한 필터링 동작들을 수행하는 단계, 및 하나 또는 그보다 많은 가변 특징들의 추출된 변동들을 증폭하는 단계를 포함할 수도 있다.
[0014] 일부 변형들에서는, 이미지 포착 유닛 및 제어기를 포함하는 디바이스가 개시된다. 제어기는 목표 대상을 포함하는 장면의 이미지들을 이미지 포착 유닛에 의해 포착하는 동작, 모바일 디바이스의 움직임을 결정하는 동작, 및 모바일 디바이스의 결정된 움직임에 적어도 부분적으로 기초하여, 포착된 이미지들로부터 목표 대상의 하나 또는 그보다 많은 가변 특징들의 변동들을 검출하는 동작을 포함하는 동작들을 발생시키도록 구성되며, 하나 또는 그보다 많은 가변 특징들의 변동들은 장면 내 목표 대상의 포지션과 관계가 없다.
[0015] 디바이스의 실시예들은 방법과 관련하여 앞서 설명한 특징들 중 적어도 일부를 포함하여 본 개시에서 설명되는 특징들 중 적어도 일부를 포함할 수도 있다.
[0016] 일부 변형들에서, 장치가 개시된다. 이 장치는 목표 대상을 포함하는 장면의 이미지들을 포착하기 위한 수단, 장치의 움직임을 결정하기 위한 수단, 및 장치의 결정된 움직임에 적어도 부분적으로 기초하여, 포착된 이미지들로부터 목표 대상의 하나 또는 그보다 많은 가변 특징들의 변동들을 검출하기 위한 수단을 포함하는데, 하나 또는 그보다 많은 가변 특징들의 변동들은 장면 내 목표 대상의 포지션과 관계가 없다.
[0017] 장치의 실시예들은 방법 및 디바이스와 관련하여 앞서 설명한 특징들 중 적어도 일부뿐만 아니라, 다음 특징들 중 하나 또는 그보다 많은 특징들도 포함하여 본 개시에서 설명되는 특징들 중 적어도 일부를 포함할 수도 있다.
[0018] 이 장치는 목표 대상의 하나 또는 그보다 많은 가변 특징들과 연관된 하나 또는 그보다 많은 생체 인식 특성들을 결정하기 위한 수단을 더 포함할 수도 있다. 목표 대상의 하나 또는 그보다 많은 가변 특징들은 예를 들어, 혈관들에서 흐르는 혈액으로 인한 피부 조직의 색 변화들, 및/또는 맥동하는 조직 중 하나 이상을 포함할 수도 있고, 목표 대상의 하나 또는 그보다 많은 가변 특징들과 연관된 생체 인식 특성들은 예를 들어, 심박수, 혈압 및/또는 호흡수 중 하나 이상을 포함할 수도 있다.
[0019] 장치의 움직임을 결정하기 위한 수단은 포착하기 위한 수단에 의해 포착된 이미지들에 나타나는 고정된 기준 대상의 포지션을 추적하기 위한 수단, 및 포착된 이미지들에서 고정된 기준 대상의 추적된 포지션을 기초로 장치의 움직임을 결정하기 위한 수단을 포함할 수도 있다.
[0020] 장치의 움직임을 결정하기 위한 수단은 장치의 하나 또는 그보다 많은 센서들로부터 하나 또는 그보다 많은 측정들을 획득하기 위한 수단, 및 하나 또는 그보다 많은 센서들로부터 획득된 하나 또는 그보다 많은 측정들을 기초로 장치의 움직임을 결정하기 위한 수단을 포함할 수도 있다.
[0021] 목표 대상의 하나 또는 그보다 많은 가변 특징들의 변동들을 검출하기 위한 수단은 하나 또는 그보다 많은 가변 특징들의 변동들을 추출하기 위해, 포착된 이미지들 중 장치의 결정된 움직임을 기초로 정렬된 2개 또는 그보다 많은 포착된 이미지들에 오일러 운동 증폭 프로세스를 적용하기 위한 수단을 포함할 수도 있다.
[0022] 일부 변형들에서, 프로세서 판독 가능 매체가 개시된다. 프로세서 판독 가능 매체는 프로세서 상에서 실행 가능하며 실행될 때, 목표 대상을 포함하는 장면의 이미지들을 모바일 디바이스의 이미지 포착 유닛에 의해 포착하는 동작, 모바일 디바이스의 움직임을 결정하는 동작, 및 모바일 디바이스의 결정된 움직임에 적어도 부분적으로 기초하여, 포착된 이미지들로부터 목표 대상의 하나 또는 그보다 많은 가변 특징들의 변동들을 검출하는 동작을 포함하는 동작들을 발생시키는 컴퓨터 명령들로 프로그래밍되는데, 하나 또는 그보다 많은 가변 특징들의 변동들은 장면 내 목표 대상의 포지션과 관계가 없다.
[0023] 프로세서 판독 가능 매체의 실시예들은 방법, 디바이스 및 장치와 관련하여 앞서 설명한 특징들 중 적어도 일부를 포함하여 본 개시에서 설명되는 특징들 중 적어도 일부를 포함할 수도 있다.
[0024] 달리 정의되지 않는다면, 본 명세서에서 사용되는 모든 기술적 그리고 과학적 용어들은 일반적으로 또는 종래에 이해되는 것과 동일한 의미를 갖는다. 본 명세서에서 사용되는 바와 같이, 단수 표현은 물품의 하나 또는 하나보다 많은(즉, 적어도 하나의) 문법적 객체를 의미한다. 예로서, "엘리먼트"는 하나의 엘리먼트 또는 하나보다 많은 엘리먼트를 의미한다. 양, 시간적 듀레이션 등과 같은 측정 가능한 값을 언급하는 경우에 본 명세서에서 사용되는 것과 같은 "약" 그리고/또는 "대략"은 명시된 값으로부터 ±20% 또는 ±10%, ±5%, 또는 +0.1%의 변동들을 포괄하는데, 이는 이러한 변동들이 본 명세서에서 설명되는 시스템들, 디바이스들, 회로들, 방법들 및 다른 구현들의 상황에 적절하기 때문이다. 양, 시간적 듀레이션, (주파수와 같은) 물리적 속성 등과 같은 측정 가능한 값을 언급하는 경우에 본 명세서에서 사용되는 것과 같은 "실질적으로"는 또한 명시된 값으로부터 ±20% 또는 ±10%, ±5% 또는 +0.1%의 변동들을 포괄하는데, 이는 이러한 변동들이 본 명세서에서 설명되는 시스템들, 디바이스들, 회로들, 방법들 및 다른 구현들의 상황에 적절하기 때문이다.
[0025] 청구항들을 포함하여 본 명세서에서 사용되는 바와 같이, "~ 중 적어도 하나" 또는 "~ 중 하나 이상"으로 서문이 쓰여진 항목들의 리스트에 사용되는 "또는" 혹은 "및"은 열거된 항목들의 임의의 결합이 사용될 수도 있음을 나타낸다. 예를 들어, "A, B 또는 C 중 적어도 하나"의 리스트는 A 또는 B 또는 C 또는 AB 또는 AC 또는 BC 및/또는 ABC(즉, A와 B와 C)의 결합들 중 임의의 결합을 포함한다. 더욱이, A, B 또는 C 항목들의 1회보다 많은 등장 또는 사용이 가능한 범위까지, A, B 그리고/또는 C의 여러 번의 사용들이 고려되는 결합들의 일부를 형성할 수도 있다. 예를 들어, "A, B 또는 C 중 적어도 하나"(또는 "A, B 또는 C 중 하나 이상")의 리스트는 또한 A, AA, AAB, AAA, BB, BCC 등을 포함할 수도 있다.
[0026] 청구항들을 포함하여 본 명세서에서 사용되는 바와 같이, 달리 언급되지 않는 한, 기능, 동작 또는 특징이 항목 및/또는 조건을 "기초로 한다"라는 언급은, 기능, 동작, 함수가 그 언급된 항목 및/또는 조건을 기초로 하고 언급된 항목 및/또는 조건에 추가하여 하나 또는 그보다 많은 항목들 및/또는 조건들을 기초로 할 수도 있다는 것을 의미한다.
[0027] 본 개시의 다른 그리고 추가 목적들, 특징들, 양상들 및 이점들은 첨부 도면들의 하기 상세한 설명으로 더 잘 이해될 것이다.
[0028] 도 1은 장면의 이미지들을 포착하여 처리하도록 모바일 디바이스에 의해 수행되는 동작들을 보여주는 도면이다.
[0029] 도 2는 모바일 디바이스에 대한 예시적인 동작 환경의 개략도이다.
[0030] 도 3은 예시적인 모바일 디바이스의 블록도이다.
[0031] 도 4는 장면 내 대상의 하나 또는 그보다 많은 가변 특징들을 검출하기 위한 예시적인 프로시저의 흐름도이다.
[0032] 도 5는 예시적인 컴퓨팅 시스템의 개략도이다.
[0033] (사람과 같은) 목표 대상을 포함하는 장면의 이미지들을 디바이스(예를 들어, 모바일 디바이스와 같은 고정되지 않은 모바일 디바이스)의 이미지 포착 유닛(예를 들어, 카메라)에 의해 포착하는 단계를 포함하는 방법을 포함하여, 시스템들, 장치, 디바이스들, 방법, 컴퓨터 프로그램 물건들, 매체 및 다른 구현들이 본 명세서에서 설명된다. 이 방법은 또한 디바이스의 움직임을 결정하는 단계, 및 디바이스의 결정된 움직임에 적어도 부분적으로 기초하여, 포착된 이미지들로부터 목표 대상의 하나 또는 그보다 많은 가변 특징들의 변동들을 검출하는 단계를 포함하는데, 하나 또는 그보다 많은 가변 특징들의 변동들은 장면 내 목표 대상의 포지션과 관계가 없다. 검출된 하나 또는 그보다 많은 가변 특징들의 변동들은 예를 들어, 사람의 맥동하는 조직과 같은 대상의 표면에서 발생하는 작은 움직임 변화들, 피부색 변화들 등을 포함할 수도 있는데, 이러한 변화들은 대상이 겪게 되는 (만약에 있다면) 전역적 포지션과 관계가 없다. 예를 들어, 사람이 움직이든 움직이지 않든 그리고/또는 장면에 사람이 로케이팅되게 된 경우에 맥동하는 조직과 같은 작은 움직임 변화들이 발생한다. 즉, 추적되고 검출된 하나 또는 그보다 많은 가변 특징들의 변동들은 목표 대상의 전역적 포지션의 변동들이라기보다는 목표 대상의 특정한 특징들에 대해 발생하는 변동들이다.
[0034] 일부 실시예들에서, 그리고 아래 명백해지게 되는 바와 같이, (핸드헬드 디바이스로도 또한 지칭되는) 모바일 디바이스의 움직임을 결정하는 단계는 이미지 포착 유닛에 의해 포착된 다수의 이미지들에 나타나는 고정된 기준 대상의 포지션, 즉 장면에서 고정된 위치에 포지셔닝된 어떤 기준점(예를 들어, 램프, 테이블, 또는 단기간의 이미지 포착 기간들 동안 일반적으로 고정되어 있는 임의의 다른 대상)을 추적하는 단계, 및 포착된 다수의 이미지들에서 기준 대상의 추적된 포지션을 기초로 디바이스의 움직임을 결정하는 단계를 포함할 수도 있다. 즉, 기준 대상이 계속 움직이지 않았던 것으로 알려진 또는 계속 움직이지 않았던 것으로 추정되는 일정 기간의 시간 동안 여러 개의 포착된 이미지들에서 기준 대상을 추적함으로써, 기준 대상의 포지션의 변화들은 모바일 디바이스가 겪게 되는 이동에 기인할 수도 있다. 따라서 포착된 이미지들이 정렬되어, 장면 내 대상에서 발생하는 작은 변동들이 결정될 수 있게 할 수 있다.
[0035] 예를 들어, 그리고 도 1을 참조하면, 모바일 디바이스(110)의 이미지 포착 유닛(예를 들어, 전하 결합 소자(CCD: charge-couple device)와 같은 카메라)에 의해 포착되는 예시적인 장면(100)이 도시된다. (이 도면에는 도시되지 않은) 이미지 포착 유닛은 자동으로 또는 사용자에 의한 활성화에 응답하여 장면의 이미지들(114a-n)을 포착하도록 구성된다(이미지 포착 유닛의 시야는 점선들(112a, 112b) 사이의 영역으로 도 1에 예시된다). 도 1에 도시된 바와 같이, 포착된 장면은 작은 변동들을 나타내는 특징들을 포함하는 목표 대상, 예컨대 사람(120)을 포함한다. 예를 들어, 사람은 움직이고 있지 않을 때라도, 사람의 호흡 패턴 및/또는 심장 박동에 따라 자신의 조직 표면 영역을 오르락내리락하게 할 것이다. 이러한 작은 변동들은 (아래 명백해지게 되는 바와 같이) 이미지 포착 유닛에 의해 포착된 이미지들로부터 검출/결정될 수 있고, 검출/결정된 작은 변동들에 대응하는 사람의 생체 인식 특성들(예를 들어, 호흡률, 심박수)이 계산될 수 있다.
[0036] 장면 내 목표 대상의 특징들의 작은 움직임 변동들의 결정은 일반적으로, 포착된 장면에서의 변동들이 장면 내 대상들이 또는 대상들의 특정한 특징들이 겪게 되는 실제 변동들(예를 들어, 대상의 표면 영역에 대한 대상의 작은 변동들)에 기인할 수 있게 이미지 포착 유닛이 정지/고정될 것을 요구한다. 그러나 이미지 포착 유닛이 구비된 모바일 디바이스를 사용하면, 대상들이 장면의 포착된 이미지들에 나타날 때 (디바이스는 고정된 안정적 포지션에 유지/지지될 수 없기 때문에) 모바일 디바이스의 포지션의 지터(jitter)들이 대상들의 포지션들의 변화들/이동들을 발생시킨다. 따라서 일부 실시예들에서, 모바일 디바이스(110)(또는 핸드헬드 유닛으로부터 데이터를 수신하는 다른 어떤 원격 서버)는 모바일 디바이스의 움직임을 추적하고, (대상의 가변 특징들의 작은 움직임 또는 장면 내 하나 또는 그보다 많은 대상들의 전역적 움직임일 수 있는) 장면에서 발생하는 실제 움직임이 결정될 수 있도록 (도 1에서 블록(116)으로 개략적으로 표현된 것과 같이) 포착된 이미지들을 정렬하도록 구성된다. 일부 구현들에서, 그리고 아래 더 상세히 논의되는 바와 같이, 포착된 서로 다른 이미지들에서 고정된 것으로 일반적으로 알려진 또는 추정될 수 있는 기준 대상의 포지션을 추적하고, 포착된 서로 다른 이미지들을 추적된 기준 대상의 서로 다른 포지션들을 기초로 정렬함으로써 모바일 디바이스의 움직임이 결정될 수 있다. 도 1에 도시된 예시적인 장면(100)에서, 모바일 디바이스(110)는 테이블(124) 위에 배치된 램프(122)와 같은 기준 대상을 추적할 수도 있다. 그러나 고정된 것으로 알려진 또는 추정된 임의의 다른 대상이 지터 및 소규모 이동들에 취약한 모바일 디바이스에 의해 포착된 서로 다른 이미지들을 정렬할 목적으로 추적될 수 있는 기준 대상으로서의 역할을 할 수도 있다. 서로 다른 이미지들이 정렬되었다면, (호흡률 및 심박수가 모니터링될 필요가 있는 움직이지 않는 사람과 같은) 모니터링되는 목표 대상과 연관된 광학적/시각적 변동들이 대상들의 가변 특징들에 기인하게 될 수 있다.
[0037] 일부 실시예들에서, 모바일 디바이스가 겪게 되는 움직임의 결정은 디바이스의 움직임을 측정하도록 구성된 (예를 들어, 도 3에 개략적으로 도시된) 내장 센서들, 예를 들면 (방향 센서들로도 또한 지칭되는) 관성 센서들을 사용하여 수행될 수도 있다. 이러한 관성 센서들은 예를 들어, 가속도계, 자이로스코프, 자력계 등을 포함할 수도 있다. 따라서 이러한 실시예들에서, 모바일 디바이스의 움직임을 결정하는 것은 하나 또는 그보다 많은 디바이스 센서들로부터 하나 또는 그보다 많은 측정들을 획득하고, 하나 또는 그보다 많은 센서들로부터 획득된 하나 또는 그보다 많은 측정들을 기초로 모바일 디바이스의 움직임(예를 들어, 이전에 결정된 방향에 대한 모바일 디바이스의 방향 변화)을 결정하는 것을 포함할 수도 있다. 일부 실시예들에서, 모바일 디바이스의 움직임은 기준 대상의 추적 및 디바이스의 하나 또는 그보다 많은 관성 센서들에 의해 수행되는 측정들 모두를 기초로 결정될 수도 있다. 서로 다른 시점들에 디바이스의 이미지 포착 유닛에 의해 포착된 이미지들이 정렬되거나 아니면 상관될 수 있게 기반이 되는 모바일 디바이스의 움직임을 결정하기 위한 다른 프로세스들/기술들이 사용될 수도 있다.
[0038] 서로 다른 시점들에 디바이스의 이미지 포착 유닛에 의해 포착된 서로 다른 이미지들의 정렬/상관을 가능하게 하는 (도 1의 디바이스(110)와 같은) 모바일 디바이스의 결정된 움직임을 기초로, 대상의 전역적 포지션과 관계없는 목표 대상의 특징들의 변동들이 (예를 들어, 도 1의 블록(118)으로 개략적으로 표현된 처리 동작들의 일부로서) 결정된다. 일부 구현들에서, 대상의 가변 특징들의 변동들(예를 들어, 박동하는 표면 영역 조직들의 포지션 변동들, 표면 영역 조직들의 색 변화들 등)을 검출하는 것은 디바이스의 이미지 포착 유닛에 의해 포착된 이미지들을 처리하여 가변 특징들의 변동들을 추출하는 것을 포함할 수도 있다. 예를 들어, 이러한 처리는 아래 더 상세히 설명되는 바와 같이, 오일러 운동 증폭 프로세스(들)를 적용하여 가변 특징들을 검출 및/또는 추출하는 것을 포함할 수도 있다. 포착된 이미지들에 다른 타입들의 필터링 프로세스들/기술들이 적용되어 가변 특징들의 변동들을 추출할 수도 있다. 가변 특징들의 변동들을 결정하는 것은 이미지들에 포함된 다른 시각 정보에 대해 이러한 변동들을 증폭/확대하는(예를 들어, 검출된 특정한 특징 변동들의 진폭을 이미지들의 다른 특징들보다 더 많이 증가시키는) 것을 포함할 수도 있다. 결정된 특징들로부터, 결정된 특징들과 연관된 정보가 도출될 수도 있다. 예를 들어, (사람의 맥박 또는 혈압을 나타내는) 사람의 피부색 변화들 또는 사람의 피부 표면의 작은 포지션 변동들(예를 들어, 맥박 또는 호흡수를 나타내는 박동들)이 결정되는 실시예들에서, 결정된 변동들은 사람의 생체 인식 특성들(예를 들어, 맥박, 호흡수, 혈압 등)을 도출하는 데 사용될 수도 있다.
[0039] 이제 도 2를 참조하면, 모바일 디바이스(208)와 같은 모바일 디바이스에 대한 예시적인 동작 환경(200)의 개략도가 도시된다. (무선 디바이스 또는 이동국으로도 또한 지칭되는) 모바일 디바이스(208)는 도 1에 도시된 모바일 디바이스(110)와 비슷할 수도 있고, 실내 통신을 위한 WLAN, 펨토 셀들, 블루투스 기반 트랜시버들, 다른 타입들의 실내 통신 네트워크 노드들과 같은 근거리 네트워크 디바이스들(또는 노드들), 광역 무선 네트워크 노드들, 위성 통신 시스템들 등을 포함하는 다수의 타입들의 다른 통신 시스템들/디바이스들과 동작하며 상호 작용하도록 구성될 수도 있으며, 이에 따라 모바일 디바이스(208)는 다양한 타입들의 통신 시스템들과 통신하기 위한 하나 또는 그보다 많은 인터페이스들을 포함할 수도 있다. 본 명세서에서 사용되는 바와 같이, 모바일 디바이스(208)가 통신할 수 있는 통신 시스템들/디바이스들은 액세스 포인트(AP: access point)들로도 또한 지칭된다. 모바일 디바이스(208)는 또한 자신의 움직임을 결정하고, (가변 특징들이 너무 작거나 감지하기 힘들어 육안으로 관측되지 않는다 하더라도) 디바이스의 이미지 포착 유닛에 의해 포착되는 이미지들로부터 관측 가능하거나 검출 가능한 (다른 경우에는 고정되어 있을 수도 있는) 목표 대상의 하나 또는 그보다 많은 가변 특징들(예를 들어, 소규모 움직임)의 변동들을 검출하도록 구성될 수도 있다. 디바이스는 또한 모니터링되고 있는 대상의 특징들의 검출/결정된 변동들을 기초로, 다양한 파라미터들 및 값들(예를 들어, 디바이스의 이미지 포착 유닛으로 모니터링되고 있는 사람에 대한 파라미터들/생체 인식 특징들의 값들)을 결정하도록 구성될 수도 있다. 일부 실시예들에서는, 디바이스(208)가 (예를 들어, 도 2에 예시된 통신 노드들 중 하나 또는 그보다 많은 통신 노드를 통해) 함께 통신 링크를 설정할 수 있는 원격 서버(예를 들어, 도 2에 도시된 서버(210))에 의해 처리(예를 들어, 포착된 이미지들로부터 대상의 특징들의 변동들을 결정하는 것)의 적어도 일부가 수행될 수도 있다.
[0040] 지적한 바와 같이, 동작 환경(200)은 하나 또는 그보다 많은 서로 다른 타입들의 무선 통신 시스템들 또는 노드들을 포함할 수도 있다. 무선 액세스 포인트들(또는 WAP들)로도 또한 지칭되는 이러한 노드들은 예를 들어, WiFi 기지국들, 펨토 셀 트랜시버들, 블루투스 트랜시버들, 셀룰러 기지국들, WiMax 트랜시버들 등을 포함하는 LAN 및/또는 WAN 무선 트랜시버들을 포함할 수도 있다. 따라서 예를 들어, 그리고 도 2를 계속 참조하면, 동작 환경(200)은 모바일 디바이스(208)와의 무선 음성 및/또는 데이터 통신을 위해 사용될 수도 있는 근거리 네트워크 무선 액세스 포인트(LAN-WAP: Local Area Network Wireless Access Point)들(206a-e)을 포함할 수도 있다. LAN-WAP들(206a-e)은 또한 일부 실시예들에서는, 예를 들어 도달 시간 또는 신호 세기 기술들을 기반으로 하는, 예를 들어 삼변 측량 기반 프로시저들의 구현을 통해 포지션 데이터의 독립 소스들로서 이용될 수도 있다. LAN-WAP들(206a-e)은 건물들에서 동작하며 WWAN보다 더 작은 지리적인 영역들에 걸쳐 통신을 수행할 수도 있는 무선 근거리 네트워크(WLAN: Wireless Local Area Network)의 일부일 수도 있다. 추가로, 일부 실시예들에서, LAN-WAP들(206a-e)은 또한 WWAN 네트워크의 일부인 피코 또는 펨토 셀들일 수 있다. 일부 실시예들에서 LAN-WAP들(206a-e)은 예를 들어, WiFi 네트워크(802.11x), 셀룰러 피코넷들 및/또는 펨토 셀들, 블루투스 네트워크들 등의 일부일 수도 있다. LAN-WAP들(206a-e)은 또한 실내 포지셔닝 시스템의 일부를 형성할 수 있다. 도 2에는 5개의 LAN-WAP 액세스 포인트들이 도시되지만, 이러한 LAN-WAP들이 몇 개라도 사용될 수 있고, 일부 실시예들에서 동작 환경(200)은 LAN-WAP 액세스 포인트들을 전혀 포함하지 않을 수도 있고, 또는 단일 LAN-WAP 액세스 포인트를 포함할 수도 있다. 더욱이, 도 2에 도시된 LAN-WAP들(206a-e) 각각은 이동 가능한 노드일 수도 있고, 아니면 다시 로케이팅되는 것이 가능할 수도 있다.
[0041] 도 2에 추가로 도시된 바와 같이, 동작 환경(200)은 또한 일부 실시예들에서, 복수의, 하나 또는 그보다 많은 타입들의 광역 네트워크 무선 액세스 포인트(WAN-WAP: Wide Area Network Wireless Access Point)들(204a-c)을 포함할 수도 있는데, 이들은 무선 음성 및/또는 데이터 통신에 사용될 수도 있고, 또한 모바일 디바이스(208)가 자신의 포지션/위치를 결정할 수 있게 하는 독립적인 정보의 다른 소스로서의 역할을 할 수도 있다. WAN-WAP들(204a-c)은 광역 무선 네트워크(WWAN: wide area wireless network)의 일부일 수도 있으며, 이는 셀룰러 기지국들 및/또는 예를 들어, WiMAX(예를 들어, 802.16) 펨토 셀 트랜시버들 등과 같은 다른 광역 무선 시스템들을 포함할 수도 있다. WWAN은 도 2에 도시되지 않은 다른 공지된 네트워크 컴포넌트들을 포함할 수도 있다. 일반적으로, WWAN 내의 각각의 WAN-WAP들(204a-204c)은 고정된 포지션들로부터 동작하며, 넓은 대도시 및/또는 지방 영역들에 걸쳐 네트워크 커버리지를 제공할 수도 있다. 도 2에는 3개의 WAN-WAP들이 도시되어 있지만, 이러한 WAN-WAP들이 몇 개라도 사용될 수 있다. 일부 실시예들에서, 동작 환경(200)은 WAN-WAP들을 전혀 포함하지 않을 수도 있고, 또는 단일 WAN-WAP를 포함할 수도 있다. 추가로, 도 2에 도시된 WAN-WAP들(204a-c) 각각은 이동 가능한 노드일 수도 있고, 아니면 다시 로케이팅되는 것이 가능할 수도 있다.
[0042] 따라서 (데이터를 교환하고, 디바이스(208)의 포지션 결정을 가능하게 하는 등을 위한) 모바일 디바이스(208)로의 그리고 모바일 디바이스(208)로부터의 통신은 또한, 일부 실시예들에서 광역 무선 네트워크(WWAN), 무선 근거리 네트워크(WLAN), 무선 개인 영역 네트워크(WPAN: wireless personal area network) 등과 같은 다양한 무선 통신 네트워크들을 사용하여 구현될 수도 있다. "네트워크"와 "시스템"이라는 용어들은 상호 교환 가능하게 사용될 수도 있다. WWAN은 코드 분할 다중 액세스(CDMA: Code Division Multiple Access) 네트워크, 시분할 다중 액세스(TDMA: Time Division Multiple Access) 네트워크, 주파수 분할 다중 액세스(FDMA: Frequency Division Multiple Access) 네트워크, 직교 주파수 분할 다중 액세스(OFDMA: Orthogonal Frequency Division Multiple Access) 네트워크, 단일 반송파 주파수 분할 다중 액세스(SC-FDMA: Single-Carrier Frequency Division Multiple Access) 네트워크, WiMax(IEEE 802.16) 등일 수도 있다. CDMA 네트워크는 cdma2000, 광대역 CDMA(W-CDMA: Wideband-CDMA) 등과 같은 하나 또는 그보다 많은 무선 액세스 기술(RAT: radio access technology)들을 구현할 수 있다. cdma2000은 IS-95, IS-2000 및/또는 IS-856 표준들을 포함한다. TDMA 네트워크는 글로벌 모바일 통신 시스템(GSM: Global System for Mobile Communications), 디지털 고급 모바일 전화 시스템(D-AMPS: Digital Advanced Mobile Phone System), 또는 다른 어떤 RAT를 구현할 수 있다. GSM 및 W-CDMA는 "3세대 파트너십 프로젝트"(3GPP: 3rd Generation Partnership Project)로 명명된 컨소시엄으로부터의 문서들에 기술되어 있다. cdma2000은 "3세대 파트너십 프로젝트 2"(3GPP2: 3rd Generation Partnership Project 2)로 명명된 컨소시엄으로부터의 문서들에 기술되어 있다. 3GPP 및 3GPP2 문서들은 공개적으로 이용 가능하다. WLAN은 또한 IEEE 802.11x 네트워크일 수도 있고, WPAN은 블루투스 네트워크, IEEE 802.15x, 또는 다른 어떤 타입의 네트워크일 수도 있다. 본 명세서에서 설명되는 기술들은 또한 WWAN, WLAN 및/또는 WPAN의 임의의 결합에 사용될 수도 있다.
[0043] 일부 실시예들에서, 그리고 도 2에서 추가로 도시된 바와 같이, 모바일 디바이스(208)는 또한 모바일 디바이스(208)에 대한 포지션 정보의 독립적인 소스로서 사용될 수도 있는 위성 포지셔닝 시스템(SPS: Satellite Positioning System)(202a-b)으로부터의 정보를 적어도 수신하도록 구성될 수도 있다. 모바일 디바이스(208)는 이에 따라 SPS 위성들로부터 지오로케이션 정보를 도출하기 위한 신호들을 수신하도록 특별히 설계된 하나 또는 그보다 많은 전용 SPS 수신기들을 포함할 수도 있다. 따라서 일부 실시예들에서, 모바일 디바이스(208)는 SPS 위성들(202a-b), WAN-WAP들(204a-c) 및/또는 LAN-WAP들(206a-e) 중 임의의 하나 또는 이들이 결합과 통신할 수도 있다.
[0044] 본 명세서에서 사용되는 바와 같이, 모바일 디바이스 또는 이동국(MS: mobile station)은 셀룰러 또는 다른 무선 통신 디바이스, 개인 통신 시스템(PCS: personal communication system) 디바이스, 개인용 내비게이션 디바이스(PND: personal navigation device), 개인 정보 관리자(PIM: Personal Information Manager), 개인용 디지털 보조기기(PDA: Personal Digital Assistant), 랩톱 또는 무선 통신 및/또는 내비게이션 포지셔닝 신호들과 같은 내비게이션 신호들을 수신할 수 있는 다른 적당한 모바일 디바이스 같은 디바이스를 의미한다. "이동국"(또는 "모바일 디바이스" 또는 "무선 디바이스")이라는 용어는 또한 ― 위성 신호 수신, 보조 데이터 수신, 및/또는 포지션 관련 처리가 디바이스에서 일어나는지 아니면 PND에서 일어나는지에 관계없이 ― 예컨대, 단거리 무선, 적외선, 유선 접속, 또는 다른 접속에 의해 개인용 내비게이션 디바이스(PND)와 통신하는 디바이스들을 포함하는 것으로 의도된다. 또한, "이동국"은 위성 신호 수신, 보조 데이터 수신 및/또는 포지션 관련 처리가 디바이스에서 일어나는지, 서버에서 일어나는지, 아니면 네트워크와 연관된 다른 디바이스에서 일어나는지에 관계없이, 예컨대, 인터넷, WiFi 또는 다른 네트워크를 통해 서버와 통신할 수 있는, 무선 통신 디바이스들, 컴퓨터들, 랩톱들, 태블릿 디바이스들 등을 포함하는 모든 디바이스들을 포함하는 것으로 의도된다. 상기의 임의의 동작 가능한 결합이 또한 "이동국"으로 고려된다. 일부 실시예들에서, 디바이스의 움직임을 결정하고, 결정된 디바이스 움직임에 적어도 부분적으로 기초하여 하나 이상의 포착된 이미지들에 나타나는 대상의 특징들의 변동들을 검출하는 등의 프로시저들을 포함하여 본 명세서에서 설명되는 프로시저들은 무선 기능(예를 들어, 다른 원격 디바이스들과 무선으로 통신하는 기능)을 갖지 않는 디바이스들에 의해 수행될 수도 있다.
[0045] 이제 도 3을 참조하면, 각각 도 1 및 도 2와 관련하여 설명한 디바이스들(110 및/또는 208)과 비슷할 수도 있는 모바일 디바이스(300)의 블록도가 도시된다. 도 3에 예시된 바와 같이, 모바일 디바이스(300)는 예를 들어, 자력계, 가속도계(예를 들어, 3D 가속도계), 자이로스코프 등일 수도 있는 (공간 또는 관성 센서로도 또한 지칭되는) 적어도 하나의 방향 센서(320)를 포함할 수도 있다. 단 하나의 방향 센서가 도시되어 있지만, 디바이스(300)에 추가 센서들이 포함될 수도 있다. 이동국은 디스플레이나 스크린과 같은 사용자 인터페이스 디바이스 상에 디스플레이될 수 있는 정지 또는 움직이는 이미지들(예컨대, 비디오 시퀀스)을 생성할 수 있는 이미지 포착 디바이스, 예컨대 카메라(330)(예를 들어, 전하 결합 소자(CCD) 타입 카메라, CMOS 타입 카메라 등)를 추가로 포함한다.
[0046] 모바일 디바이스(300)는 안테나(344)를 통해 (도 2의 위성들(202a-b)과 같은) 위성 포지셔닝 시스템(SPS: satellite positioning system) 위성들로부터 신호들을 수신하는 SPS 수신기와 같은 수신기(340)를 포함할 수도 있다. 모바일 디바이스(300)는 또한 예를 들어, (도 2의 LAN-WAP들(206a-e) 및/또는 WAN-WAP들(204a-c) 중 임의의 WAP과 같은) 하나 또는 그보다 많은 무선 액세스 포인트들로 그리고 이러한 무선 액세스 포인트들로부터, 또는 무선/셀룰러 통신을 위해 구성된 임의의 다른 타입의 네트워크 노드와 통신들을 전송 및 수신하도록 구성된 무선 네트워크 라디오 수신기/송신기 또는 셀룰러 모뎀일 수도 있는 무선 트랜시버(335)를 포함할 수도 있다. 무선 트랜시버로의 그리고 무선 트랜시버로부터의 통신은 전용 안테나(336)를 통해, 안테나(344)를 통해 또는 다른 어떤 안테나를 통해 가능해질 수도 있다. 원하는 경우, 모바일 디바이스(300)는 셀룰러 모뎀 및 무선 네트워크 라디오 수신기들/송신기들로서의 역할을 하는 개별 트랜시버들을 포함할 수도 있다.
[0047] 적어도 하나의 방향 센서(320), 카메라(330), SPS 수신기(340) 및 무선 트랜시버(335)가 제어기(350)에 연결되어 제어기(350)와 통신한다. 제어기(350)는 예를 들어, 적어도 하나의 방향 센서(320), 카메라(330), SPS 수신기(340) 및/또는 무선 트랜시버(335)로부터 데이터를 받아 처리하도록, 그리고 모바일 디바이스(300)의 일반적인 동작뿐만 아니라 디바이스(300)의 다양한 내장 유닛들/모듈들의 동작도 제어하도록 구성된다. 제어기(350)는 또한 예를 들어, 이미지들에 나타나는, 고정된 것으로 추정 또는 알려진 기준 대상의 포지션을 추적하고, 기준 대상의 추적된 포지션을 기초로 디바이스의 움직임을 결정하고, 포착된 이미지들을 디바이스의 결정된 움직임을 기초로 정렬하거나 아니면 상관시키고, 목표 대상의 특징들의 변동들(이러한 특징 변동들은 고정된 대상일 수도 있는 대상의 포지션과 일반적으로 관계가 없음)을 검출하는 것 등을 포함하여, 카메라(330)에 의해 포착된 이미지들을 처리하도록 구성될 수도 있다. 제어기(350)는 일부 구현들에서, 프로세서(352) 및 연관된 메모리(354), 클록(353), 하드웨어(356), 소프트웨어(358) 및 펌웨어(357)를 포함할 수도 있다. 이동국 제어기(350)는 일부 실시예들에서, 전용 이미지 처리 엔진(355)을 더 포함할 수도 있는데, 이는 간결하게 하기 위해 프로세서(352)와 개별적으로 도시되지만, 프로세서(352)의 일부를 구성할 수도 있다. 이미지 처리 엔진(355)은 이미지들을 처리하고 그리고/또는 본 명세서에서 설명되는 프로시저들의 동작들 중 적어도 일부를 수행하도록 구성된다. 일부 실시예들에서, 본 명세서에서 설명되는 프로시저들의 동작들 중 적어도 일부는 모바일 디바이스(300)로부터 멀리서 수행될 수도 있다. 예를 들어, 원격 서버(예를 들어, 도 1의 서버(210))에서 본 명세서에서 설명되는 이미지 처리 동작들의 적어도 일부를 수행하기 위해, 카메라(330)에 의해 포착된 이미지들에 대한 이미지 데이터의 일부가 이러한 서버에 전달될 수도 있다.
[0048] 모바일 디바이스(300)는 또한 제어기(350)와 통신하는 사용자 인터페이스(360)를 포함하는데, 예를 들어 제어기(350)는 데이터를 받아 사용자 인터페이스(360)를 제어할 수도 있다. 사용자 인터페이스(360)는 카메라(330)에 의해 생성된 이미지들을 포함하는 이미지들을 디스플레이할 수 있는 디스플레이(362)를 포함한다. 디스플레이(362)는 제어 메뉴들 및 위치 정보를 추가로 디스플레이할 수도 있다. 사용자 인터페이스(360)는 예를 들어, 키패드(364), (도시되지 않은) 터치 스크린, (도시되지 않은) 마이크로폰 및 스피커, 또는 사용자가 이동국(300)에 정보를 입력할 수 있게 하는 다른 입력 디바이스와 같은 입력 인터페이스 디바이스들을 추가로 포함한다.
[0049] 이제 도 4를 참조하면, 대상의 하나 또는 그보다 많은 가변 특징들을 검출하기 위한 예시적인 프로시저(400)의 흐름도가 도시된다. 프로시저(400)는 목표 대상을 포함하는 장면의 이미지들을 (도 1, 도 2 그리고 도 3에 각각 도시된 디바이스(110, 208 또는 300)와 같은) 모바일 디바이스의 이미지 포착 유닛(예를 들어, CCD 또는 CMOS 카메라와 같은 카메라)에 의해 포착(410)하는 것을 포함한다. 모니터링될 목표 대상을 포함하는 장면의 이미지들을 포착하는 것은 모바일 디바이스를 소지하는 사용자의 재량으로 수행될 수도 있는데, 이러한 사용자가 이미지 포착 유닛을 활성화할 수도 있다. 대안으로 그리고/또는 추가로, 이미지들의 포착은 미리 결정된 어떤 조건이 충족 또는 만족되었다는 결정에 응답하여 자동으로 시작될 수도 있다. 예를 들어, a) 미리 결정된 어떤 시점에, b) 목표 대상과 연관된 (RFID 태그와 같은) 무선 디바이스로부터의 식별 신호의 수신에 대한 응답으로, c) 모바일 디바이스에 의해 수신된 시각 또는 오디오 정보를 기초로 한 대상의 인식에 대한 응답 등으로 이미지 포착 유닛이 활성화될 수도 있다. 일부 실시예들에서, (도 3의 디바이스(300)의 디스플레이(362)와 같은) 스크린 디스플레이는 디바이스의 카메라로 찍힌 이미지(들)를 제시하여 사용자가 원하는 목표 대상에 카메라를 적절히 향할 수 있게 할 수도 있다. 일부 실시예들에서, 모바일 디바이스는 다수의 카메라들(예를 들어, 후방 및 전방 카메라들, 모바일 디바이스의 면들 중 한 면에 로케이팅된 다른 카메라 등)을 포함하여 부수적으로 다수의 이미지들의 촬영을 가능하게 할 수 있는데, 이러한 다수의 이미지들로부터 다수의 목표 대상들이 모니터링될 수도 있다.
[0050] 도 4에 추가 도시된 바와 같이, 프로시저(400)는 또한 모바일 디바이스의 움직임을 결정(420)하는 것을 포함한다. 지적한 바와 같이, 사용자가 소지하며 관심 있는 목표 대상(예를 들어, 생체 인식 특성들이 측정될 환자)을 가리키게 되는 모바일 디바이스에는 지터들과 같은 작은 이동들이 가해져, 장면에 대한 디바이스의(그리고 이에 따라 디바이스의 내장 이미지 포착 유닛) 방향 변화, 장면으로부터의 디바이스의 거리 변화 등을 야기할 수도 있다. 추가로 그리고/또는 대안으로, 디바이스는 예컨대, 디바이스를 소지하는 사용자가 의도적으로 다른 위치로 이동할 때, 훨씬 더 상당한 이동들을 겪을 수도 있다. 그 결과, 디바이스가 서로 다른 위치들에 있었던 동안에 포착된 이미지들이 정렬되도록 디바이스가 겪게 되는 움직임/이동이 결정된다.
[0051] 일부 구현들에서, 모바일 디바이스의 움직임은 모바일 디바이스 상에 로케이팅된 하나 또는 그보다 많은 관성(방향) 센서들을 통해 측정되는 디바이스의 방향 변화에 적어도 부분적으로 기초하여 결정될 수도 있다. 예를 들어, 모바일 디바이스는 일부 실시예들에서는, 미세 전자 기계 시스템(MEMS: micro-electro-mechanical-system) 기술을 기반으로 구현되는 3-D 가속도계와 같은 가속도계를 포함할 수도 있다. 일부 실시예들에서, 3-D 가속도계는 예를 들어, 3개의 1-D 가속도계를 사용하여 구현될 수도 있다. 디바이스는 1개보다 많은 3-D 가속도계를 포함할 수도 있다. 가속도계는 적어도 2개의 축들을 기준으로 측정될 수 있는 평면, 예컨대 국소 수평면에서 선형 운동, 즉 평행이동을 감지/측정하도록 구성된다. 이러한 가속도계는 또한 대상의 기울기를 측정하도록 구성될 수도 있다. 따라서 3D 가속도계로, 가속도계에 대해 하향 방향을 표시하는 중력 방향뿐만 아니라, 데카르트 좌표 공간(x,y,z)에서의 대상의 움직임 또한 감지될 수 있다. 일부 실시예들에서, 디바이스는 또한, 미세 전자 기계 시스템(MEMS) 기술을 기반으로 구현될 수도 있고, 단축(single-axis) 자이로스코프, 이중 축 자이로스코프, 또는 예를 들어 3개의 직교 축들을 중심으로 한 움직임을 감지하도록 구성된 3-D 자이로스코프일 수도 있는 자이로스코프 센서를 포함할 수도 있다. MEMS 기반 자이로스코프 대신 또는 이에 추가하여 다른 타입들의 자이로스코프들이 사용될 수도 있다. 일부 실시예들에서, 모바일 디바이스는 자기장 세기 및/또는 방향을 측정하도록 구성된 자력계를 추가로 포함할 수도 있고, 일부 실시예들에서는 (진북(true north)에 대한 방위로 변환될 수 있는) 자북(magnetic north)에 대한 절대 방위를 측정할 수도 있다. 일부 구현들에서는, MEMS 기반 자력계가 사용될 수도 있다. 그러한 MEMS 기반 센서들은 MEMS 전도체를 통하는 전류에 의해 발생되는 로렌츠 힘에 의해 야기되는 움직임을 검출하도록 구성될 수도 있다. 예를 들어, 홀 효과 자력계들, 회전 코일 자력계들 등과 같은 자력계들을 포함하는 다른 타입들의 자력계들이 또한 MEMS 기반 구현들 대신 또는 이에 추가하여 모바일 디바이스의 구현들에 사용될 수도 있다. 모바일 디바이스는 다른 타입들의 센서 디바이스들을 포함할 수도 있다.
[0052] 따라서 하나 또는 그보다 많은 관성 센서들을 사용하여 얻어진 측정들을 기초로, 모바일 디바이스가 겪게 되는 움직임(예를 들어, 디바이스의 이미지 포착 유닛에 의해 포착되는 2개의 연속한 이미지 간의 간격 동안 겪게 되는 움직임)이 결정될 수 있다. 그 결정된 움직임은 그 기간 동안 이동한 거리, 방향의 상대적 변화 등을 포함할 수도 있다. 일부 실시예들에서, 디바이스의 절대 위치 또는 방향을 알 필요는 없을 수도 있다는 점이 주목되어야 한다. 그보다, 이러한 실시예들에서는, 나중에 포착된 이미지를 더 이전에 포착된 이미지에 맞춰 정렬하기 위해, 예를 들어 연속한 이미지 포착들 간의 간격 동안 디바이스가 이동한 거리 또는 방향의 변화만이 결정될 필요가 있다.
[0053] 일부 실시예들에서, 기준 이미지와 그 이후의 이미지들 간의 호모그래피를 계산함으로써 이미지들이 정렬된다. 트래커(tracker)에 의한 특징점들 간의 대응들을 기초로 호모그래피 행렬이 추정될 수 있다. 대안으로, 호모그래피 행렬은 (예를 들어, 이미지에 대한 평면 법선이 알려진다면) 센서들에 의해 추정되는 회전 및 평행이동 행렬들로부터 계산될 수도 있다. 평면 법선은 트래커에 의한 특징 대응들로부터 추정될 수 있다. 이 정보가 이용 가능하다면, 예를 들어, 칼만(Kalman) 필터를 사용하여 트래커 및 센서들로부터의 관측들이 결합되어 카메라의 포즈를 추정할 수 있다. 따라서 회전 행렬(R), 평행이동 행렬(T) 그리고 평면 법선(n)이 주어지면, 아래와 같이 호모그래피 행렬이 주어지고:
H = R + (1/d)nT',
여기서 d는 평면까지의 거리이며 일반성을 잃지 않고 1로 설정될 수 있고, T'는 전치 평행이동 행렬이다.
[0054] 지적한 바와 같이, 일부 실시예들에서, 모바일 디바이스가 겪게 되는 움직임은 고정된 것으로 알려진 또는 추정된 장면에서 기준 대상을 추적함으로써 결정될 수도 있다. 따라서 기준 대상의 포지션 변화들은 디바이스에 의한 움직임에 기인할 수 있다. 따라서 포착된 제 1 이미지에서 이후에 포착된 제 2 이미지로의 포지션, 방향 및/또는 치수들의 변화는 기준 대상을 재정렬하는 데, 그리고 이에 따라 제 2 이미지 전체를 제 1 이미지에 맞춰 정렬하는 데 사용될 수 있다. 일부 실시예들에서, 기준 대상의 특징들에 대해 쉽게 인식할 수 있는 점들을 식별함으로써 기준 대상의 추적이 수행될 수 있다. 기준 대상은 디바이스에 미리 알려질 수도 있다. 추가로 그리고/또는 대안으로, 일부 실시예들에서는, 모바일 디바이스를 작동시키는 사용자가 추적될 기준 대상을 (예를 들어, 터치스크린 또는 다른 어떤 입력 인터페이스를 통해) 식별할 수도 있다. 따라서 추적될 대상이 동적으로 선택될 수 있다. 일부 실시예들에서는, 1개보다 많은 기준 대상이 식별되어 추적될 수도 있다. 추적될 대상(들)에서 적절한 점들을 식별하기 위한 다른 방식들 및 프로세스들이 또한 사용될 수도 있다.
[0055] 일부 실시예들에서, 제 1 이미지 및 제 2 이미지의 좌표 시스템들에서 기준 대상(들)의 기준점들이 식별되었다면(그러나 2개보다 더 많은 이미지들이 사용될 수도 있다는 점에 주의함), 이미지 좌표 시스템들 각각에서 그러한 점들의 좌표들이 제 2 이미지를 이것의 좌표 시스템에서 제 1 이미지의 좌표 시스템으로 변환할 변환 행렬(T)을 도출하는 데 사용될 수 있으며, 이에 따라 장면의 제 2 이미지에서 고정된 대상들을 이들이 장면의 포착된 제 1 이미지에서 나타나는 것과 동일한 고정된 대상들과 정렬하는 것을 가능하게 한다. 일부 구현들에서, 변환 행렬(T)의 도출은 제 2 이미지에서 기준점들의 좌표들을 이들이 제 1 이미지의 좌표 시스템에서 표현되는 것과 동일한 기준점들의 좌표들에 맵핑하는 변환 행렬(T)의 파라미터들에 대해 푸는 것에 의해 수행될 수도 있다.
[0056] 다시 도 4를 참조하면, 도시된 바와 같이, 장면의 이미지들이 포착되고, 모바일 디바이스의 움직임이 결정되면, 디바이스의 결정된 움직임에 적어도 부분적으로 기초하여, 포착된 이미지들로부터 장면 내 목표 대상의 포지션과 관계없는, 대상의 하나 또는 그보다 많은 가변 특징들의 변동들(예를 들어, 대상의 표면에서 발생하는 작은 움직임, 색 변화들 등)이 검출된다(430). 지적한 바와 같이, 일부 구현들에서, 모바일 디바이스의 결정된 움직임은 포착된 이미지들을 기준 이미지(예를 들어, 더 이전에 포착된 이미지)에 맞춰 정렬하거나, 아니면 포착된 제 1 이미지에 대응하는 제 1 기준 프레임을 결정하고, 포착된 다른 이미지들의 기준 프레임들을 제 1 기준 프레임에 등록하는 데 사용된다. 포착된 이미지들 중 적어도 일부의 정렬로, 이미지 처리 동작들(예를 들어, 필터링 동작들)이 정렬된 이미지들에 적용되어, 대상의 (상대 또는 절대) 포지션과 관계가 없는 모니터링된 목표 대상의 하나 또는 그보다 많은 가변 특징들을 분리 및/또는 추출한다. 모니터링되는 대상이 사람인 상황들에서는, 대상의 가변 특징들의 결정된 변동들로부터 사람의 생체 인식 특성들(예를 들어, 심박수, 호흡률 등)이 결정될 수도 있다. 예를 들어, 사람의 피부색은 일반적으로 혈액 순환에 따라 달라지며, 이에 따라 사람의 하나 또는 그보다 많은 포착된 이미지들로부터 결정되는 색 변화들이 사람의 심박수를 결정하는 데 사용될 수도 있다.
[0057] 일부 구현들에서, (예를 들어, 이미지들이 정렬되었다면) 하나 또는 그보다 많은 포착된 이미지들의 처리는 (예를 들어, 서로 다른 공간 주파수 대역들이 서로 다른 신호대 잡음비들을 가질 수 있다는 사실, 그리고 시간 처리 동안 사용되는 다양한 선형 근사들 어떤 대역들에는 적절할 수도 있지만 다른 대역들에는 적절하지 않을 수도 있다는 사실을 고려하도록) 일련의 이미지들이 서로 다른 공간 주파수 대역들로 분해될 수 있는 공간 및 시간 처리의 결합을 포함할 수도 있다. 이미지를 서로 다른 주파수 대역들로 분해하는 것은 일부 실시예들에서는, 공간 필터링 동작들(예를 들어, 저역 통과 필터링)을 통해 수행될 수 있는데, 이는 일부 실시예들에서 다운샘플링 동작들이 뒤따를 수도 있다.
[0058] 서로 다른 공간 주파수 대역으로 분해되었다면, 시간 처리가 다양한 분해된 대역들에 적용될 수도 있다(어떤 상황들에서는, 시간 필터링이 공간 평행이동의 근사치를 계산할 수도 있다). 일부 실시예들에서는, 동일한 시간 처리가 다양한 대역들에 적용된다. 예를 들어, 동일한 시간 필터(예를 들면, 시간 대역 통과 필터)가 모든 공간 주파수 대역들에 적용될 수도 있다. 이러한 실시예들에서, 다양한 이미지들의 다양한 대역들에 대한 픽셀값들은 시간 함수 근사(예를 들어, 테일러 급수 근사)를 사용하여 표현될 수도 있는데, 여기에는 다음에 시간 필터가 적용될 수도 있다. 사용되는 시간 필터는 관측/결정될 특정한 특성에 좌우될 수도 있다. 예를 들어, 결정된 특성이 (사람의 얼굴이나 팔에서 발생하는 가변 특징들, 예컨대 피부색 또는 피부 박동으로부터 결정될) 사람의 맥박수라면, 적용될 시간 대역 통과 필터는 (분당 24-240 비트에 대응하는) 0.4 - 4㎐의 주파수 범위에서 필터링할 수도 있다. 일부 실시예들에서는, 서로 다른 필터링 동작들이 서로 다른 대역들에 적용될 수도 있다.
[0059] 일부 실시예들에서는, 다양한 공간 주파수 대역들에 시간 필터링 동작들을 적용한 후, 결과적인 신호들이 특정 대역들과 연관된 특정 증폭률로 증폭될 수도 있다. 따라서 일부 실시예들에서, 더 양호한 신호대 잡음비를 갖는 또는 시간 함수 근사가 더 적절한 대역들이 더 열악한 신호대 잡음비를 갖는 또는 시간 신호 함수 근사가 완전히 정확하지는 않은 대역들보다 더 큰 비율로 증폭될 수 있다. 시간 필터링 및 증폭 동작들을 포함하는 시간 처리는 또한 오일러 처리로 지칭된다.
[0060] 일부 실시예들에서, 다양한 공간 대역들의 결과적인 증폭된 시간 신호들은 시간 필터링 동작들을 통해 대역 신호들로부터 제거되었던 각각의 컴포넌트들에 다시 더해지고, (이제 각각이 증폭된 시간 필터링된 신호 및 시간 필터링을 통해 제거된 컴포넌트를 포함하는) 결과적인 더해진 신호들이 결합되어, 검출/결정될 작은 특징 변동들이 증폭되었던 결과적인 신호를 발생시킨다.
[0061] 오일러 처리의 일례로, 특정 시간(t)에 특정 위치(x)에 대한 세기(I(x,t))가 다음과 같이 표현되는 특정 대역의 신호를 고려하며:
I(x,t) = f(x + δ(t))
여기서 δ(t)는 변위 함수이다.
[0062] 이미지가 1차 테일러 급수로 표현될 수 있다고 가정하면, I(x,t)는 다음과 같이 표현될 수 있다:
Figure pct00001
[0063] 신호(I(x,t))에 대역 통과 필터를 적용하여 f(x)를 제거하면, 신호(
Figure pct00002
)가 되고, 이는 다음에 (해당 특정 공간 대역에 좌우되는 가변 계수일 수도 있는) 계수
Figure pct00003
로 증폭되며, 증폭된 신호를 원래의 신호(I(x,t))에 더하는 것은 아래의 처리된 신호를 제공하고:
Figure pct00004
여기서 변위 함수(δ(t))는 이와 같이 확대되었다.
[0064] 생성된 결합된 결과 신호에 이후에 추가 처리가 적용되어, 결정될 원하는 특성들(예를 들어, 모바일 디바이스의 이미지 포착 유닛으로 모니터링되는 목표 대상이 사람, 또는 사람의 머리나 팔들과 같은 사람의 어떤 부분인 경우에는 맥박 또는 호흡률)을 결정할 수도 있다. 예를 들어, 일정 시간 기간 내에 발생하는, 결과적인 이미지에 나타나는 가변 특징들의 주기들의 수(예를 들어, 1분에 얼마나 많은 주기들로 피부색 변화가 발생하는지, 이는 모니터링되는 사람의 맥박수를 나타냄)를 분석하여 결정하도록 결과적인 이미지가 처리될 수도 있다. 일부 실시예들에서, 결정된 특성들은 대역들 중 하나 또는 그보다 많은 대역에 대응하는 (이미지들에 포함된 다른 시각 정보에 비해 증폭된) 개개의 증폭된 신호들 중 하나 또는 그보다 많은 신호들로부터(즉, 분해된 신호들의 원래 신호 컴포넌트들을 더하고 그리고/또는 결과적인 대역 신호들을 하나의 결과 이미지로 결합함으로써 결과적인 합성 이미지를 생성하지 않고) 도출될 수도 있다. 오일러 이미지 처리에 관한 추가 세부사항들은 예를 들어, 2012년 7월, ACM Transactions on Graphics (TOG), SIGGRAPH 2012, 회의 자료, 31권 4호, 논문 65호에 게재된 H.Y Wu 등에 의한 "Eulerian Video Magnification for Revealing Subtle Changes in the World"에서 제공되며, 이 내용은 인용에 의해 그 전체가 본 명세서에 포함된다. 대상에서 작은 움직임들을 증폭하기 위한 다른 프로시저들은 CVPR 2013에서 Balakrishnan 등에 의한 "Detecting Pulse From Head Motions in Video"에서 설명되며, 이 내용은 인용에 의해 그 전체가 본 명세서에 포함된다.
[0065] 일부 실시예들에서, 대상의 가변 특징들의 결정/검출을 가능하게 하기 위한 다른 타입들의 처리가 또한 사용될 수도 있다. 예를 들어, 생체 인식 파라미터들이 결정될 수 있는 광혈량 측정기(photo-plethysmography) 신호들의 획득을 기초로 한 처리가 구현될 수도 있다. 이러한 처리의 추가 세부사항들은 예를 들어, Optics Express 16권 26호, pp. 21434-21445(2008)에 게재된 W. Verkruysse 등에 의한 "Remote plethysmographic imaging using ambient light"에서 제공되며, 이 내용은 인용에 의해 그 전체가 본 명세서에 포함된다.
[0066] 모바일 디바이스에 대한 움직임 결정을 수행하기 위한 프로시저들, 대상의 하나 또는 그보다 많은 가변 특징들의 변동들(이들로부터 생체 인식 파라미터들과 같은 특성들/값들이 결정될 수 있음)을 검출하기 위한 동작들 등을 비롯해 본 명세서에서 설명한 다양한 프로시저들 및 동작들은 하나 또는 그보다 많은 프로세서 기반 컴퓨팅 시스템들에 의해 가능해질 수도 있다. 따라서 도 5를 참조하면, 예시적인 컴퓨팅 시스템(500)의 개략도가 도시된다. 본 명세서에서 설명한 디바이스들, 서버들 및/또는 시스템들 중 하나 이상(예를 들어, 도 2에 도시된 디바이스들, 액세스 포인트들 또는 서버들 중 아무것이나)은 적어도 부분적으로는, 예시적인 컴퓨팅 시스템(500)과 비슷할 수도 있는 컴퓨팅 시스템의 일부 또는 전부를 사용하여 실현될 수도 있다.
[0067] 컴퓨팅 시스템(500)은, 일반적으로 중앙 프로세서 유닛(512)을 포함하는 개인용 컴퓨터, 특수 컴퓨팅 디바이스 등과 같은 프로세서 기반 디바이스(510)를 포함한다. CPU(512) 외에도, 시스템은 메인 메모리, 캐시 메모리 및 (도시되지 않은) 버스 인터페이스 회로들을 포함한다. 프로세서 기반 디바이스(510)는 컴퓨터 시스템과 연관된 하드 드라이브 및/또는 플래시 드라이브와 같은 대용량 저장 디바이스(514)를 포함할 수도 있다. 컴퓨팅 시스템(500)은 키보드 또는 키패드(516), 및 모니터(520), 예를 들어 음극선관(CRT: cathode ray tube) 또는 액정 디스플레이(LCD: liquid crystal display) 모니터를 더 포함할 수도 있는데, 이들은 사용자가 이들에 액세스할 수 있는 곳(예를 들어, 모바일 디바이스의 스크린)에 배치될 수 있다.
[0068] 프로세서 기반 디바이스(510)는 예를 들어, 본 명세서에서 설명한 프로시저들의 구현을 가능하게 하도록 구성된다(일부 실시예들에서, 프로시저들의 동작들 중 일부는 모바일 디바이스와 같은 제 1 디바이스에서 수행될 수도 있는 한편, 프로시저들의 동작들 중 다른 동작들은 모바일 디바이스와 통신하는 시스템에서 수행될 수도 있다). 따라서 대용량 저장 디바이스(514)는 프로세서 기반 디바이스(510) 상에서 실행될 때, 프로세서 기반 디바이스로 하여금 본 명세서에서 설명한 프로시저들의 구현을 가능하게 하기 위한 동작들을 수행하게 하는 컴퓨터 프로그램 물건을 포함할 수도 있다. 프로세서 기반 디바이스는 입력/출력 기능을 가능하게 하기 위한 주변 디바이스들을 더 포함할 수도 있다. 이러한 주변 디바이스들은 예를 들어, 접속된 시스템에 관련 콘텐츠를 다운로딩하기 위한 CD-ROM 드라이브 및/또는 플래시 드라이브, 또는 네트워크 접속을 포함할 수도 있다. 이러한 주변 디바이스들은 또한 각각의 시스템/디바이스의 일반적인 동작을 가능하게 하기 위한 컴퓨터 명령들을 포함하는 소프트웨어를 다운로딩하는 데 사용될 수도 있다. 대안으로 그리고/또는 추가로, 일부 실시예들에서는, 특수 목적 로직 회로, 예를 들어 필드 프로그래밍 가능한 게이트 어레이(FPGA: field programmable gate array), DSP 프로세서 또는 주문형 집적 회로(ASIC: application-specific integrated circuit)가 컴퓨팅 시스템(500)의 구현에서 사용될 수도 있다. 프로세서 기반 디바이스(510)와 함께 포함될 수 있는 다른 모듈들은 스피커들, 사운드 카드, 포인팅 디바이스, 예를 들어 마우스 또는 트랙볼이며, 이들에 의해 사용자가 컴퓨팅 시스템(500)에 입력을 제공할 수 있다. 프로세서 기반 디바이스(510)는 운영 체제를 포함할 수도 있다.
[0069] (프로그램들, 소프트웨어, 소프트웨어 애플리케이션들 또는 코드로도 또한 알려진) 컴퓨터 프로그램들은 프로그래밍 가능한 프로세서에 대한 기계 명령들을 포함하고, 고레벨 절차 및/또는 객체 지향 프로그래밍 언어로, 그리고/또는 어셈블리/기계 언어로 구현될 수도 있다. 본 명세서에서 사용된 바와 같이, "기계 판독 가능 매체"라는 용어는 기계 판독 가능 신호로서 기계 명령들을 수신하는 비-일시적 기계 판독 가능 매체를 포함하여, 프로그래밍 가능한 프로세서에 기계 명령들 및/또는 데이터를 제공하는 데 사용되는 임의의 비-일시적 컴퓨터 프로그램 물건, 장치 및/또는 디바이스(예를 들어, 자기 디스크들, 광 디스크들, 메모리, 프로그래밍 가능한 로직 디바이스(PLD: Programmable Logic Device)들을 의미한다.
[0070] 메모리는 처리 유닛 내부에 또는 처리 유닛 외부에 구현될 수도 있다. 본 명세서에서 사용된 바와 같이, "메모리"라는 용어는 임의의 타입의 장기, 단기, 휘발성, 비휘발성 또는 다른 메모리를 의미하며, 메모리의 임의의 특정 타입이나 메모리들의 개수, 또는 메모리가 저장되는 매체들의 타입으로 한정되는 것은 아니다.
[0071] 펌웨어 및/또는 소프트웨어로 구현된다면, 기능들은 컴퓨터 판독 가능 매체 상에 하나 또는 그보다 많은 명령들 또는 코드로서 저장될 수도 있다. 예들은 데이터 구조로 인코딩된 컴퓨터 판독 가능 매체 및 컴퓨터 프로그램으로 인코딩된 컴퓨터 판독 가능 매체를 포함한다. 컴퓨터 판독 가능 매체는 물리적 컴퓨터 저장 매체를 포함한다. 저장 매체는 컴퓨터에 의해 액세스 가능한 임의의 이용 가능 매체일 수도 있다. 한정이 아닌 예시로, 이러한 컴퓨터 판독 가능 매체는 RAM, ROM, EEPROM, CD-ROM이나 다른 광 디스크 저장소, 자기 디스크 저장소, 반도체 저장소 또는 다른 저장 디바이스들, 또는 명령들이나 데이터 구조들의 형태로 원하는 프로그램 코드를 전달 또는 저장하는데 사용될 수 있으며 컴퓨터에 의해 액세스 가능한 임의의 다른 매체를 포함할 수 있고, 본 명세서에서 사용된 것과 같은 디스크(disk 및 disc)는 콤팩트 디스크(CD: compact disc), 레이저 디스크(laser disc), 광 디스크(optical disc), 디지털 다기능 디스크(DVD: digital versatile disc), 플로피 디스크(floppy disk) 및 블루레이 디스크(Blu-ray disc)를 포함하며, 여기서 디스크(disk)들은 보통 데이터를 자기적으로 재생하는 한편, 디스크(disc)들은 데이터를 레이저들에 의해 광학적으로 재생한다. 상기의 결합들이 또한 컴퓨터 판독 가능 매체의 범위 내에 포함되어야 한다.
[0072] 컴퓨터 판독 가능 매체 상의 저장 외에도, 통신 장치에 포함된 송신 매체들 상의 신호들로서 명령들 및/또는 데이터가 제공될 수도 있다. 예를 들어, 통신 장치는 명령들 및 데이터를 나타내는 신호들을 갖는 트랜시버를 포함할 수도 있다. 명령들 및 데이터는 하나 또는 그보다 많은 처리 유닛들로 하여금 청구항들에 개요가 서술된 기능들을 구현하게 하도록 구성된다. 즉, 통신 장치는 개시된 기능들을 수행하기 위한 정보를 나타내는 신호들을 갖는 송신 매체들을 포함한다. 제 1 시점에, 통신 장치에 포함된 송신 매체들은 개시된 기능들을 수행하기 위한 정보의 제 1 부분을 포함할 수 있는 한편, 제 2 시점에 통신 장치에 포함된 송신 매체들은 개시된 기능들을 수행하기 위한 정보의 제 2 부분을 포함할 수도 있다.
[0073] 본 명세서에서 설명한 요지의 일부 또는 전부는 (예를 들어, 데이터 서버로서) 백엔드 컴포넌트를 포함하는, 또는 미들웨어 컴포넌트(예를 들어, 애플리케이션 서버)를 포함하는, 또는 프론트엔드 컴포넌트(예를 들어, 본 명세서에서 설명한 요지의 실시예와 사용자가 상호 작용할 수 있게 하는 그래픽 사용자 인터페이스 또는 웹 브라우저를 갖는 클라이언트 컴퓨터)를 포함하는 컴퓨팅 시스템, 또는 이러한 백엔드, 미들웨어 또는 프론트엔드 컴포넌트들의 임의의 결합으로 구현될 수도 있다. 시스템의 컴포넌트들은 임의의 형태 또는 매체의 디지털 데이터 통신, 예를 들어 통신 네트워크에 의해 상호 접속될 수도 있다. 통신 네트워크들의 예들은 근거리 네트워크("LAN"), 광역 네트워크("WAN") 및 인터넷을 포함한다.
[0074] 컴퓨팅 시스템은 클라이언트들 및 서버들을 포함할 수도 있다. 클라이언트 및 서버는 일반적으로 서로로부터 멀리 떨어져 있으며 대체로 통신 네트워크를 통해 상호 작용한다. 클라이언트와 서버의 관계는 일반적으로 각각의 컴퓨터들 상에서 실행되며 서로 클라이언트-서버 관계를 갖는 컴퓨터 프로그램들에 의해 발생한다.
[0075] 본 명세서에서는 특정 실시예들이 상세히 개시되었지만, 이는 단지 설명의 목적으로만 예시로 이루어졌으며, 이어지는 첨부된 청구항들의 범위에 관한 제한으로 의도되는 것은 아니다. 특히, 청구항들에 의해 정의된 바와 같은 본 발명의 사상 및 범위를 벗어나지 않으면서 다양한 치환들, 대안들 및 변형들이 이루어질 수도 있다는 점이 고려된다. 다른 양상들, 이점들 및 변형들은 다음의 청구항들의 범위 내에 있는 것으로 여겨진다. 제시되는 청구항들은 본 명세서에 개시된 실시예들 및 특징들을 대표한다. 청구되지 않은 다른 실시예들 및 특징들도 또한 고려된다. 이에 따라, 다른 실시예들이 다음의 청구항들의 범위 내에 있다.

Claims (30)

  1. 방법으로서,
    목표 대상을 포함하는 장면의 이미지들을 모바일 디바이스의 이미지 포착 유닛에 의해 포착하는 단계;
    상기 모바일 디바이스의 움직임을 결정하는 단계; 및
    상기 모바일 디바이스의 결정된 움직임에 적어도 부분적으로 기초하여, 포착된 이미지들로부터 상기 목표 대상의 하나 또는 그보다 많은 가변(varying) 특징들의 변동들을 검출하는 단계를 포함하며,
    상기 하나 또는 그보다 많은 가변 특징들의 변동들은 상기 장면 내 상기 목표 대상의 포지션과 관계가 없는,
    방법.
  2. 제 1 항에 있어서,
    상기 목표 대상의 하나 또는 그보다 많은 가변 특징들은 상기 목표 대상의 표면에서 발생하는 작은 움직임 특징들, 또는 상기 목표 대상의 표면에서 발생하는 색 변화들 중 하나 이상을 포함하는,
    방법.
  3. 제 1 항에 있어서,
    상기 목표 대상의 하나 또는 그보다 많은 가변 특징들과 연관된 하나 또는 그보다 많은 생체 인식 특성들을 결정하는 단계를 더 포함하는,
    방법.
  4. 제 3 항에 있어서,
    상기 목표 대상의 하나 또는 그보다 많은 가변 특징들은 혈관들에서 흐르는 혈액으로 인한 피부 조직의 색 변화들, 또는 맥동하는 조직 중 하나 이상을 포함하고,
    상기 목표 대상의 하나 또는 그보다 많은 가변 특징들과 연관된 생체 인식 특성들은 심박수, 혈압 또는 호흡수 중 하나 이상을 포함하는,
    방법.
  5. 제 1 항에 있어서,
    상기 모바일 디바이스의 움직임을 결정하는 단계는,
    상기 이미지 포착 유닛에 의해 포착된 이미지들에 나타나는 고정된 기준 대상의 포지션을 추적하는 단계; 및
    상기 포착된 이미지들에서 상기 고정된 기준 대상의 추적된 포지션을 기초로 상기 모바일 디바이스의 움직임을 결정하는 단계를 포함하는,
    방법.
  6. 제 5 항에 있어서,
    상기 모바일 디바이스의 결정된 움직임에 적어도 부분적으로 기초하여, 상기 목표 대상의 하나 또는 그보다 많은 가변 특징들의 변동들을 검출하는 단계는,
    상기 고정된 기준 대상의 추적된 포지션을 기초로 하나 또는 그보다 많은 포착된 이미지들 중 적어도 2개의 포착된 이미지들을 정렬하는 단계; 및
    정렬된 2개 또는 그보다 많은 포착된 이미지들로부터 상기 목표 대상의 하나 또는 그보다 많은 가변 특징들의 변동들을 결정하는 단계를 포함하는,
    방법.
  7. 제 1 항에 있어서,
    상기 모바일 디바이스의 움직임을 결정하는 단계는,
    상기 모바일 디바이스의 하나 또는 그보다 많은 센서들로부터 하나 또는 그보다 많은 측정들을 획득하는 단계; 및
    상기 하나 또는 그보다 많은 센서들로부터 획득된 하나 또는 그보다 많은 측정들을 기초로 상기 모바일 디바이스의 움직임을 결정하는 단계를 포함하는,
    방법.
  8. 제 1 항에 있어서,
    상기 목표 대상의 하나 또는 그보다 많은 가변 특징들의 변동들을 검출하는 단계는,
    상기 모바일 디바이스의 이미지 포착 유닛의 기준 프레임을 결정하는 단계;
    상기 포착된 이미지들 중 2개 또는 그보다 많은 포착된 이미지들을 상기 모바일 디바이스의 이미지 포착 유닛의 기준 프레임에 등록하는 단계; 및
    상기 목표 대상의 하나 또는 그보다 많은 가변 특징들의 변동들을 추출하기 위해, 상기 포착된 이미지들 중 상기 이미지 포착 유닛의 기준 프레임에 등록된 2개 또는 그보다 많은 포착된 이미지들을 처리하는 단계를 포함하는,
    방법.
  9. 제 1 항에 있어서,
    상기 목표 대상의 하나 또는 그보다 많은 가변 특징들의 변동들을 검출하는 단계는,
    상기 하나 또는 그보다 많은 가변 특징들의 변동들을 추출하기 위해 하나 또는 그보다 많은 포착된 이미지들에 필터링 프로세스들을 적용하는 단계를 포함하는,
    방법.
  10. 제 1 항에 있어서,
    상기 목표 대상의 하나 또는 그보다 많은 가변 특징들의 변동들을 검출하는 단계는,
    상기 하나 또는 그보다 많은 가변 특징들의 변동들을 추출하기 위해, 상기 포착된 이미지들 중 상기 모바일 디바이스의 결정된 움직임을 기초로 정렬된 2개 또는 그보다 많은 포착된 이미지들에 오일러(Eulerian) 운동 증폭 프로세스를 적용하는 단계를 포함하는,
    방법.
  11. 제 10 항에 있어서,
    상기 오일러 운동 증폭 프로세스는,
    상기 하나 또는 그보다 많은 가변 특징들의 변동들을 추출하기 위해 상기 2개 또는 그보다 많은 포착된 이미지들에 대한 필터링 동작들을 수행하는 것; 그리고
    상기 하나 또는 그보다 많은 가변 특징들의 추출된 변동들을 증폭하는 것을 포함하는,
    방법.
  12. 모바일 디바이스로서,
    이미지 포착 유닛; 및
    제어기를 포함하며,
    상기 제어기는,
    목표 대상을 포함하는 장면의 이미지들을 상기 이미지 포착 유닛에 의해 포착하는 동작;
    상기 모바일 디바이스의 움직임을 결정하는 동작; 및
    상기 모바일 디바이스의 결정된 움직임에 적어도 부분적으로 기초하여, 포착된 이미지들로부터 상기 목표 대상의 하나 또는 그보다 많은 가변 특징들의 변동들을 검출하는 동작을 포함하는 동작들을 발생시키도록 구성되고,
    상기 하나 또는 그보다 많은 가변 특징들의 변동들은 상기 장면 내 상기 목표 대상의 포지션과 관계가 없는,
    모바일 디바이스.
  13. 제 12 항에 있어서,
    상기 제어기는,
    상기 목표 대상의 하나 또는 그보다 많은 가변 특징들과 연관된 하나 또는 그보다 많은 생체 인식 특성들을 결정하는 동작을 포함하는 추가 동작들을 발생시키도록 추가로 구성되며,
    상기 목표 대상의 하나 또는 그보다 많은 가변 특징들은 혈관들에서 흐르는 혈액으로 인한 피부 조직의 색 변화들, 또는 맥동하는 조직 중 하나 이상을 포함하고,
    상기 목표 대상의 하나 또는 그보다 많은 가변 특징들과 연관된 생체 인식 특성들은 심박수, 혈압 또는 호흡수 중 하나 이상을 포함하는,
    모바일 디바이스.
  14. 제 12 항에 있어서,
    상기 모바일 디바이스의 움직임을 결정하는 동작은,
    상기 이미지 포착 유닛에 의해 포착된 이미지들에 나타나는 고정된 기준 대상의 포지션을 추적하는 동작; 및
    상기 포착된 이미지들에서 상기 고정된 기준 대상의 추적된 포지션을 기초로 상기 모바일 디바이스의 움직임을 결정하는 동작을 포함하는,
    모바일 디바이스.
  15. 제 12 항에 있어서,
    상기 모바일 디바이스의 움직임을 결정하는 동작은,
    상기 모바일 디바이스의 하나 또는 그보다 많은 센서들로부터 하나 또는 그보다 많은 측정들을 획득하는 동작; 및
    상기 하나 또는 그보다 많은 센서들로부터 획득된 하나 또는 그보다 많은 측정들을 기초로 상기 모바일 디바이스의 움직임을 결정하는 동작을 포함하는,
    모바일 디바이스.
  16. 제 12 항에 있어서,
    상기 목표 대상의 하나 또는 그보다 많은 가변 특징들의 변동들을 검출하는 동작은,
    상기 하나 또는 그보다 많은 가변 특징들의 변동들을 추출하기 위해, 상기 포착된 이미지들 중 상기 모바일 디바이스의 결정된 움직임을 기초로 정렬된 2개 또는 그보다 많은 포착된 이미지들에 오일러 운동 증폭 프로세스를 적용하는 동작을 포함하는,
    모바일 디바이스.
  17. 제 16 항에 있어서,
    상기 오일러 운동 증폭 프로세스는,
    상기 하나 또는 그보다 많은 가변 특징들의 변동들을 추출하기 위해 상기 2개 또는 그보다 많은 포착된 이미지들에 대한 필터링 동작들을 수행하는 것; 그리고
    상기 하나 또는 그보다 많은 가변 특징들의 추출된 변동들을 증폭하는 것을 포함하는,
    모바일 디바이스.
  18. 장치로서,
    목표 대상을 포함하는 장면의 이미지들을 포착하기 위한 수단;
    상기 장치의 움직임을 결정하기 위한 수단; 및
    상기 장치의 결정된 움직임에 적어도 부분적으로 기초하여, 포착된 이미지들로부터 상기 목표 대상의 하나 또는 그보다 많은 가변 특징들의 변동들을 검출하기 위한 수단을 포함하며,
    상기 하나 또는 그보다 많은 가변 특징들의 변동들은 상기 장면 내 상기 목표 대상의 포지션과 관계가 없는,
    장치.
  19. 제 18 항에 있어서,
    상기 목표 대상의 하나 또는 그보다 많은 가변 특징들과 연관된 하나 또는 그보다 많은 생체 인식 특성들을 결정하기 위한 수단을 더 포함하며,
    상기 목표 대상의 하나 또는 그보다 많은 가변 특징들은 혈관들에서 흐르는 혈액으로 인한 피부 조직의 색 변화들, 또는 맥동하는 조직 중 하나 이상을 포함하고,
    상기 목표 대상의 하나 또는 그보다 많은 가변 특징들과 연관된 생체 인식 특성들은 심박수, 혈압 또는 호흡수 중 하나 이상을 포함하는,
    장치.
  20. 제 18 항에 있어서,
    상기 장치의 움직임을 결정하기 위한 수단은,
    상기 포착하기 위한 수단에 의해 포착된 이미지들에 나타나는 고정된 기준 대상의 포지션을 추적하기 위한 수단; 및
    상기 포착된 이미지들에서 상기 고정된 기준 대상의 추적된 포지션을 기초로 상기 장치의 움직임을 결정하기 위한 수단을 포함하는,
    장치.
  21. 제 18 항에 있어서,
    상기 장치의 움직임을 결정하기 위한 수단은,
    상기 장치의 하나 또는 그보다 많은 센서들로부터 하나 또는 그보다 많은 측정들을 획득하기 위한 수단; 및
    상기 하나 또는 그보다 많은 센서들로부터 획득된 하나 또는 그보다 많은 측정들을 기초로 상기 장치의 움직임을 결정하기 위한 수단을 포함하는,
    장치.
  22. 제 18 항에 있어서,
    상기 목표 대상의 하나 또는 그보다 많은 가변 특징들의 변동들을 검출하기 위한 수단은,
    상기 하나 또는 그보다 많은 가변 특징들의 변동들을 추출하기 위해, 상기 포착된 이미지들 중 상기 장치의 결정된 움직임을 기초로 정렬된 2개 또는 그보다 많은 포착된 이미지들에 오일러 운동 증폭 프로세스를 적용하기 위한 수단을 포함하는,
    장치.
  23. 제 22 항에 있어서,
    상기 오일러 운동 증폭 프로세스는,
    상기 하나 또는 그보다 많은 가변 특징들의 변동들을 추출하기 위해 상기 2개 또는 그보다 많은 포착된 이미지들에 대한 필터링 동작들을 수행하는 것; 그리고
    상기 하나 또는 그보다 많은 가변 특징들의 추출된 변동들을 증폭하는 것을 포함하는,
    장치.
  24. 프로세서 상에서 실행 가능하며, 실행될 때 동작들을 발생시키는 컴퓨터 명령들로 프로그래밍된 프로세서 판독 가능 매체로서,
    상기 동작들은,
    목표 대상을 포함하는 장면의 이미지들을 모바일 디바이스의 이미지 포착 유닛에 의해 포착하는 동작;
    상기 모바일 디바이스의 움직임을 결정하는 동작; 및
    상기 모바일 디바이스의 결정된 움직임에 적어도 부분적으로 기초하여, 포착된 이미지들로부터 상기 목표 대상의 하나 또는 그보다 많은 가변 특징들의 변동들을 검출하는 동작을 포함하며,
    상기 하나 또는 그보다 많은 가변 특징들의 변동들은 상기 장면 내 상기 목표 대상의 포지션과 관계가 없는,
    프로세서 판독 가능 매체.
  25. 제 24 항에 있어서,
    실행될 때,
    상기 목표 대상의 하나 또는 그보다 많은 가변 특징들과 연관된 하나 또는 그보다 많은 생체 인식 특성들을 결정하는 동작을 포함하는 추가 동작들을 발생시키는 명령들을 더 포함하며,
    상기 목표 대상의 하나 또는 그보다 많은 가변 특징들은 혈관들에서 흐르는 혈액으로 인한 피부 조직의 색 변화들, 또는 맥동하는 조직 중 하나 이상을 포함하고,
    상기 목표 대상의 하나 또는 그보다 많은 가변 특징들과 연관된 생체 인식 특성들은 심박수, 혈압 또는 호흡수 중 하나 이상을 포함하는,
    프로세서 판독 가능 매체.
  26. 제 24 항에 있어서,
    상기 모바일 디바이스의 움직임을 결정하는 동작은,
    상기 이미지 포착 유닛에 의해 포착된 이미지들에 나타나는 고정된 기준 대상의 포지션을 추적하는 동작; 및
    상기 포착된 이미지들에서 상기 고정된 기준 대상의 추적된 포지션을 기초로 상기 모바일 디바이스의 움직임을 결정하는 동작을 포함하는,
    프로세서 판독 가능 매체.
  27. 제 26 항에 있어서,
    상기 모바일 디바이스의 결정된 움직임에 적어도 부분적으로 기초하여, 상기 목표 대상의 하나 또는 그보다 많은 가변 특징들의 변동들을 검출하는 동작은,
    상기 고정된 기준 대상의 추적된 포지션을 기초로 하나 또는 그보다 많은 포착된 이미지들 중 적어도 2개의 포착된 이미지들을 정렬하는 동작; 및
    정렬된 2개 또는 그보다 많은 포착된 이미지들로부터 상기 목표 대상의 하나 또는 그보다 많은 가변 특징들의 변동들을 결정하는 동작을 포함하는,
    프로세서 판독 가능 매체.
  28. 제 24 항에 있어서,
    상기 모바일 디바이스의 움직임을 결정하는 동작은,
    상기 모바일 디바이스의 하나 또는 그보다 많은 센서들로부터 하나 또는 그보다 많은 측정들을 획득하는 동작; 및
    상기 하나 또는 그보다 많은 센서들로부터 획득된 하나 또는 그보다 많은 측정들을 기초로 상기 모바일 디바이스의 움직임을 결정하는 동작을 포함하는,
    프로세서 판독 가능 매체.
  29. 제 24 항에 있어서,
    상기 목표 대상의 하나 또는 그보다 많은 가변 특징들의 변동들을 검출하는 동작은,
    상기 하나 또는 그보다 많은 가변 특징들의 변동들을 추출하기 위해, 상기 포착된 이미지들 중 상기 모바일 디바이스의 결정된 움직임을 기초로 정렬된 2개 또는 그보다 많은 포착된 이미지들에 오일러 운동 증폭 프로세스를 적용하는 동작을 포함하는,
    프로세서 판독 가능 매체.
  30. 제 29 항에 있어서,
    상기 오일러 운동 증폭 프로세스는,
    상기 하나 또는 그보다 많은 가변 특징들의 변동들을 추출하기 위해 상기 2개 또는 그보다 많은 포착된 이미지들에 대한 필터링 동작들을 수행하는 것; 그리고
    상기 하나 또는 그보다 많은 가변 특징들의 추출된 변동들을 증폭하는 것을 포함하는,
    프로세서 판독 가능 매체.
KR1020167015853A 2013-11-19 2014-10-24 고정되지 않은 디바이스에 의한 대상의 가변 특징들의 검출 KR20160088896A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/084,490 US9418279B2 (en) 2013-11-19 2013-11-19 Detection of an object's varying features with a non-stationary device
US14/084,490 2013-11-19
PCT/US2014/062121 WO2015076977A1 (en) 2013-11-19 2014-10-24 Detection of an object's varying features with a non-stationary device

Publications (1)

Publication Number Publication Date
KR20160088896A true KR20160088896A (ko) 2016-07-26

Family

ID=51999506

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167015853A KR20160088896A (ko) 2013-11-19 2014-10-24 고정되지 않은 디바이스에 의한 대상의 가변 특징들의 검출

Country Status (6)

Country Link
US (1) US9418279B2 (ko)
EP (1) EP3072106B1 (ko)
JP (1) JP2016538053A (ko)
KR (1) KR20160088896A (ko)
CN (1) CN105723417A (ko)
WO (1) WO2015076977A1 (ko)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005086802A2 (en) 2004-03-08 2005-09-22 Proxense, Llc Linked account system using personal digital key (pdk-las)
US11206664B2 (en) 2006-01-06 2021-12-21 Proxense, Llc Wireless network synchronization of cells and client devices on a network
US8219129B2 (en) 2006-01-06 2012-07-10 Proxense, Llc Dynamic real-time tiered client access
US7904718B2 (en) * 2006-05-05 2011-03-08 Proxense, Llc Personal digital key differentiation for secure transactions
US8659427B2 (en) 2007-11-09 2014-02-25 Proxense, Llc Proximity-sensor supporting multiple application services
US8508336B2 (en) 2008-02-14 2013-08-13 Proxense, Llc Proximity-based healthcare management system with automatic access to private information
US8918854B1 (en) 2010-07-15 2014-12-23 Proxense, Llc Proximity-based system for automatic application initialization
US9265450B1 (en) 2011-02-21 2016-02-23 Proxense, Llc Proximity-based system for object tracking and automatic application initialization
GB201317746D0 (en) 2013-10-08 2013-11-20 Smith & Nephew PH indicator
US9405898B2 (en) 2013-05-10 2016-08-02 Proxense, Llc Secure element as a digital pocket
US9036867B2 (en) * 2013-08-12 2015-05-19 Beeonics, Inc. Accurate positioning system using attributes
JP6325834B2 (ja) * 2014-02-07 2018-05-16 三菱航空機株式会社 整備支援システムおよび整備支援方法
US20150265161A1 (en) * 2014-03-19 2015-09-24 Massachusetts Institute Of Technology Methods and Apparatus for Physiological Parameter Estimation
US10118345B2 (en) * 2015-06-17 2018-11-06 Xerox Corporation System and method for evaluation of a three-dimensional (3D) object during formation of the object
GB2542108B (en) * 2015-06-18 2017-08-30 Flight Path Ip Ltd Automatic dartboard scoring system
EP3347789B1 (en) * 2015-09-11 2021-08-04 SZ DJI Technology Co., Ltd. Systems and methods for detecting and tracking movable objects
US10515350B2 (en) * 2016-03-15 2019-12-24 Samsung Electronics Co., Ltd. Method and apparatus to trigger mobile payment based on distance
JP2019527566A (ja) 2016-05-13 2019-10-03 スミス アンド ネフュー ピーエルシーSmith & Nephew Public Limited Company センサが使用可能な創傷監視および治療装置
CN106791407B (zh) * 2016-12-27 2021-02-23 宇龙计算机通信科技(深圳)有限公司 一种自拍控制方法和系统
WO2018162732A1 (en) 2017-03-09 2018-09-13 Smith & Nephew Plc Apparatus and method for imaging blood in a target region of tissue
EP3592212A1 (en) 2017-03-09 2020-01-15 Smith & Nephew PLC Wound dressing, patch member and method of sensing one or more wound parameters
CN109074367B (zh) * 2017-03-22 2021-02-05 华为技术有限公司 确定照片中对象所持终端的方法及其终端
US10210730B2 (en) * 2017-03-31 2019-02-19 The United States of America, as Represented by the Secretary of Homeland Security Security system and method to detect concealed items
SG11201909449TA (en) 2017-04-11 2019-11-28 Smith & Nephew Component positioning and stress relief for sensor enabled wound dressings
CA3062989A1 (en) * 2017-05-15 2018-11-22 Smith & Nephew Plc Wound analysis device and method
US10777018B2 (en) * 2017-05-17 2020-09-15 Bespoke, Inc. Systems and methods for determining the scale of human anatomy from images
US11633153B2 (en) 2017-06-23 2023-04-25 Smith & Nephew Plc Positioning of sensors for sensor enabled wound monitoring or therapy
GB201804502D0 (en) 2018-03-21 2018-05-02 Smith & Nephew Biocompatible encapsulation and component stress relief for sensor enabled negative pressure wound therapy dressings
GB201809007D0 (en) 2018-06-01 2018-07-18 Smith & Nephew Restriction of sensor-monitored region for sensor-enabled wound dressings
JP2020529273A (ja) 2017-08-10 2020-10-08 スミス アンド ネフュー ピーエルシーSmith & Nephew Public Limited Company センサを有効化した創傷モニタリングまたは治療のためのセンサの配置
GB201804971D0 (en) 2018-03-28 2018-05-09 Smith & Nephew Electrostatic discharge protection for sensors in wound therapy
GB201718870D0 (en) 2017-11-15 2017-12-27 Smith & Nephew Inc Sensor enabled wound therapy dressings and systems
WO2019048624A1 (en) 2017-09-10 2019-03-14 Smith & Nephew Plc ENCAPSULATION INSPECTION SYSTEMS AND METHODS AND COMPONENTS IN SENSOR EQUIPMENT DRESSINGS
GB201718859D0 (en) 2017-11-15 2017-12-27 Smith & Nephew Sensor positioning for sensor enabled wound therapy dressings and systems
US11596553B2 (en) 2017-09-27 2023-03-07 Smith & Nephew Plc Ph sensing for sensor enabled negative pressure wound monitoring and therapy apparatuses
WO2019072531A1 (en) 2017-09-28 2019-04-18 Smith & Nephew Plc NEUROSTIMULATION AND MONITORING USING A SENSOR ACTIVATED WOUND SURVEILLANCE AND TREATMENT APPARATUS
WO2019096828A1 (en) 2017-11-15 2019-05-23 Smith & Nephew Plc Integrated sensor enabled wound monitoring and/or therapy dressings and systems
CN108433727A (zh) * 2018-03-15 2018-08-24 广东工业大学 一种监测婴儿呼吸的方法及装置
CN108960091B (zh) * 2018-06-20 2021-12-31 深圳市科迈爱康科技有限公司 监控系统、方法、可读存储介质及汽车
WO2020053290A1 (en) 2018-09-12 2020-03-19 Smith & Nephew Plc Device, apparatus and method of determining skin perfusion pressure
CN110595749B (zh) * 2019-04-26 2021-08-20 深圳市豪视智能科技有限公司 电风扇振动故障检测方法及装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7688999B2 (en) 2004-12-08 2010-03-30 Electronics And Telecommunications Research Institute Target detecting system and method
US20100324437A1 (en) 2007-09-12 2010-12-23 Freeman Jenny E Device and method for assessing physiological parameters
EP2192546A1 (en) 2008-12-01 2010-06-02 Nederlandse Organisatie voor toegepast-natuurwetenschappelijk Onderzoek TNO Method for recognizing objects in a set of images recorded by one or more cameras
US8542878B2 (en) * 2009-03-06 2013-09-24 Koninklijke Philips N.V. Method of controlling a function of a device and system for detecting the presence of a living being
WO2011021128A2 (en) 2009-08-20 2011-02-24 Koninklijke Philips Electronics N.V. Method and system for image analysis
EP2699146B1 (en) 2011-04-21 2018-12-26 Koninklijke Philips N.V. Device and method for vital sign measurement of a person
EP2844136A1 (en) 2012-05-02 2015-03-11 Aliphcom Physiological characteristic detection based on reflected components of light
US10143377B2 (en) 2012-05-02 2018-12-04 Augusta University Research Institute, Inc. Single channel imaging measurement of dynamic changes in heart or respiration rate
US9770212B2 (en) * 2012-08-02 2017-09-26 Koninklijke Philips N.V. Device and method for extracting physiological information
CN104871212B (zh) * 2012-12-21 2018-11-09 皇家飞利浦有限公司 用于从远程检测到的电磁辐射提取生理信息的系统和方法

Also Published As

Publication number Publication date
EP3072106B1 (en) 2018-01-03
US20150138330A1 (en) 2015-05-21
JP2016538053A (ja) 2016-12-08
US9418279B2 (en) 2016-08-16
CN105723417A (zh) 2016-06-29
EP3072106A1 (en) 2016-09-28
WO2015076977A1 (en) 2015-05-28

Similar Documents

Publication Publication Date Title
EP3072106B1 (en) Detection of an object's varying features with a non-stationary device
US11481982B2 (en) In situ creation of planar natural feature targets
US9390344B2 (en) Sensor-based camera motion detection for unconstrained slam
US9576183B2 (en) Fast initialization for monocular visual SLAM
US9303999B2 (en) Methods and systems for determining estimation of motion of a device
US11640694B2 (en) 3D model reconstruction and scale estimation
US9679199B2 (en) Fusing device and image motion for user identification, tracking and device association
US20150092048A1 (en) Off-Target Tracking Using Feature Aiding in the Context of Inertial Navigation
KR20160003066A (ko) 일반적인 카메라 움직임 및 파노라마 카메라 움직임을 갖는 단안 시각 slam
AU2015275198B2 (en) Methods and systems for calibrating sensors using recognized objects
US20180287700A1 (en) Positioning using light capturing sensors
Han et al. Video stabilization for camera shoot in mobile devices via inertial-visual state tracking

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid