KR20140002034A - Presence sensing - Google Patents
Presence sensing Download PDFInfo
- Publication number
- KR20140002034A KR20140002034A KR1020137029536A KR20137029536A KR20140002034A KR 20140002034 A KR20140002034 A KR 20140002034A KR 1020137029536 A KR1020137029536 A KR 1020137029536A KR 20137029536 A KR20137029536 A KR 20137029536A KR 20140002034 A KR20140002034 A KR 20140002034A
- Authority
- KR
- South Korea
- Prior art keywords
- sensor
- user
- computing device
- state
- image
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3206—Monitoring of events, devices or parameters that trigger a change in power modality
- G06F1/3231—Monitoring the presence, absence or movement of users
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- User Interface Of Digital Computer (AREA)
- Computer Hardware Design (AREA)
- Computing Systems (AREA)
- Power Sources (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
일 실시예는 컴퓨팅 장치를 동작시켜 존재 기반 기능을 제공하는 방법의 형태를 취할 수 있다. 방법은 컴퓨팅 장치를 저감된 전력 상태에서 동작시키는 단계 및 적어도 하나의 센서로부터 제1 데이터 집합을 수집하는 단계를 포함할 수 있다. 제1 데이터 집합에 기초하여, 컴퓨팅 장치는 객체가 컴퓨팅 장치의 임계 거리 내에 있을 확률을 결정하고, 만일 객체가 임계 거리 내에 있으면, 장치는 적어도 하나의 제2 센서를 활성화하여 제2 데이터 집합을 수집한다. 제2 데이터 집합에 기초하여, 장치는 객체가 사람인지를 판단한다. 만일 객체가 사람이면, 장치는 컴퓨팅 장치에 대한 사람의 위치를 결정하고 컴퓨팅 장치에 대한 사람의 위치에 기초하여 컴퓨팅 장치의 상태 변경을 실행한다. 만일 객체가 사람이 아니면, 컴퓨팅 장치는 저감된 전력 상태로 계속 유지된다. One embodiment may take the form of a method of operating a computing device to provide presence-based functionality. The method may include operating the computing device in a reduced power state and collecting a first data set from at least one sensor. Based on the first data set, the computing device determines the probability that the object is within the threshold distance of the computing device, and if the object is within the threshold distance, the device activates at least one second sensor to collect the second data set. do. Based on the second data set, the device determines whether the object is a person. If the object is a person, the device determines a person's position relative to the computing device and executes a state change of the computing device based on the person's position relative to the computing device. If the object is not a human, the computing device remains in a reduced power state.
Description
관련 출원에 대한 상호 참조Cross-reference to related application
본 특허 협력 조약 특허 출원은 2012년 5월 11일 "PRESENCE SENSING"이라는 명칭으로 출원된 미국 특허 출원 제13/469,996호의 우선권을 주장하며, 그 출원은 미국 특허상표국에서 대리인 사건 번호 P11391USX1(P222617.US.04)로 확인될 수 있고, 그 출원은 2011년 8월 26일 "PRESENCE SENSING"이라는 명칭으로 출원된 미국 특허 출원 제13/219,573호, 2011년 7월 1일 "PRESENCE SENSING"이라는 명칭으로 출원된 미국 가특허 출원 제61/504,026호, 및 2011년 5월 12일 "PRESENCE SENSING"이라는 명칭으로 출원된 미국 가특허 출원 제61/485,610호의 우선권을 주장하며, 그 출원 모두는 본 명세서에서 그 전체에서 그리고 모든 목적에서 참조 문헌으로 인용된다. This Patent Cooperation Treaty patent application claims the priority of US Patent Application No. 13 / 469,996, filed May 11, 2012, entitled "PRESENCE SENSING," which is filed with the Agent Patent No. P11391USX1 (P222617. US Pat. No. 13,219,573, filed Jul. 26, 2011, " PRESENCE SENSING ", filed Jul. 26, 2011, " PRESENCE SENSING. &Quot; US Patent Application No. 61 / 504,026, and US Provisional Patent Application No. 61 / 485,610, filed May 12, 2011, entitled " PRESENCE SENSING, " all of which are incorporated herein by reference. It is incorporated by reference in its entirety and for all purposes.
본 발명은 일반적으로 컴퓨팅 역량을 갖는 장치에 관한 것으로, 특히, 그 장치에 국부적으로 근접한 사용자의 존재(presence)를 감지하는 장치 및 시스템에 관한 것이다. TECHNICAL FIELD The present invention generally relates to devices with computing capabilities, and more particularly, to apparatus and systems for sensing the presence of a user locally in proximity to the device.
많은 컴퓨팅 장치는 사용자가 그러한 장치를 이용하지 않는 경우 소비 전력(power consumption)의 저감을 위해 의도된 전력 절감 기능/모드를 갖추고 있다. 종종, 이러한 전력 절감 기능은 사용자가 장치에 입력을 마지막으로 제공한 시점부터 설정된 시간량을 카운트 다운하는 타이머를 통해 구현된다. 예를 들면, 특정 장치는 사용자가 5분 동안 입력을 제공하지 않는 경우 슬립 모드(sleep mode), 또는 완전 동작 모드(fully operational mode)보다 전력 소모가 적은 다른 모드에 진입하도록 구성될 수 있다. Many computing devices have power saving features / modes intended to reduce power consumption when the user is not using such a device. Often, this power saving function is implemented through a timer that counts down the amount of time set since the user last provided input to the device. For example, a particular device may be configured to enter a sleep mode or other mode that consumes less power than a fully operational mode if the user does not provide input for five minutes.
그러나, 때때로, 장치는 사용자가 그 장치를 여전히 이용하는 중에도 전력 절감 기능/모드에 진입할 수 있다. 예를 들면, 사용자가 장치에서 콘텐츠를 읽거나, 영화를 보거나, 또는 음악을 듣는 중에 타이머에 설정된 시간 기간 내에 입력을 제공하지 못했다는 이유로 전력 절감 기능에 진입할 수 있다. 또한, 전력 절감 기능/모드에서의 복원은 시간이 걸릴 수 있고, 심지어 사용자가 크리덴셜 (credentials)을 입력해야 하고, 이는 일반적으로 사용자에게 성가신 일일 수 있다. However, from time to time, the device may enter a power saving function / mode while the user is still using the device. For example, a user may enter a power saving function because the user did not provide input within the time period set in the timer while reading content, watching a movie, or listening to music on the device. In addition, restoring from a power saving function / mode can be time consuming and even requires a user to enter credentials, which can generally be annoying for the user.
일 실시예는 컴퓨팅 장치를 동작시켜 존재 기반 기능(presence based functionality)을 제공하는 방법의 형태를 취할 수 있다. 방법은 컴퓨팅 장치를 저감된 전력 상태에서 동작시키고 제1 센서 또는 센서들의 그룹으로부터 제1 데이터 집합을 수집하는 단계를 포함할 수 있다. 제1 데이터 집합에 기초하여, 컴퓨팅 장치는 객체(object)가 장치에 근접하여 위치할 확률(probability) 또는 가능성(likelihood)을 결정한다. 추가로 또는 대안으로, 컴퓨팅 장치는, 예를 들면, 객체의 근접에 대해 경판정(hard decision)을 내릴 수 있고, 컴퓨팅 장치는 객체가 컴퓨팅 장치의 임계 거리 내에 있는지를 판단할 수 있고, 만일 객체가 임계 거리 내에 있고 및/또는 장치에 근접하여 위치할 가능성이 있으면, 장치는 제2 센서를 활성화하여 제2 데이터 집합을 수집한다. 제2 데이터 집합에 기초하여, 장치는 객체가 사람인지를 판단한다. 만일 객체가 사람이면, 장치는 컴퓨팅 장치에 대한 사람의 위치를 결정하고 컴퓨팅 장치에 대한 사람의 위치에 기초하여 컴퓨팅 장치의 상태 변경을 실행한다. 만일 객체가 사람이 아니면, 컴퓨팅 장치는 저감된 전력 상태로 계속 유지된다. One embodiment may take the form of a method of operating a computing device to provide presence based functionality. The method may include operating the computing device in a reduced power state and collecting a first data set from the first sensor or group of sensors. Based on the first data set, the computing device determines the probability or likelihood of the object being located in proximity to the device. Additionally or alternatively, the computing device may, for example, make a hard decision on proximity of the object, the computing device may determine whether the object is within a threshold distance of the computing device, and if the object Is within a threshold distance and / or is likely to be located in proximity to the device, the device activates the second sensor to collect a second data set. Based on the second data set, the device determines whether the object is a person. If the object is a person, the device determines a person's position relative to the computing device and executes a state change of the computing device based on the person's position relative to the computing device. If the object is not a human, the computing device remains in a reduced power state.
다른 실시예는 사용자가 컴퓨팅 장치에 근접한지를 판단하는 방법의 형태를 취할 수 있다. 방법은 이미지 센서를 이용하여 이미지를 캡처하는(capturing) 단계 및 캡처된 이미지로부터, 피부색(skin tone) 검출 파라미터, 얼굴(face) 검출 파라미터, 몸체(body) 검출 파라미터 및 움직임(movement) 검출 파라미터 중 적어도 하나를 산출하는 단계를 포함한다. 방법은 또한 피부색 검출 파라미터, 얼굴 검출 파라미터 및 움직임 검출 파라미터 중 적어도 하나를 이용하여 사용자가 존재하는지를 판단하는 단계, 및 만일 사용자가 존재한다고 판단하는 경우, 컴퓨팅 장치의 상태를 변경하는 단계를 포함한다.Another embodiment may take the form of a method for determining if a user is in proximity to a computing device. The method comprises capturing an image using an image sensor and from the captured image, a skin tone detection parameter, a face detection parameter, a body detection parameter and a movement detection parameter. Calculating at least one. The method also includes determining whether the user exists using at least one of a skin color detection parameter, a face detection parameter, and a motion detection parameter, and if the user determines that the user exists, changing the state of the computing device.
또 다른 실시예에서는, 메인 프로세서 및 메인 프로세서에 연결된 존재 센서를 갖는 컴퓨팅 시스템이 제공된다. 존재 센서는 이미지 센서, 및 이미지 센서에 연결되어 캡처된 이미지를 처리하여 사용자가 이미지 내에 존재하는지를 판단하도록 구성된 프로세서를 포함한다. 이미지 센서는 3-D 이미지, 깊이 이미지(depth images), RGB 이미지, 및/또는 그레이스케일(grayscale) 이미지 등을 캡처하도록 구성될 수 있으며 이미지 중 하나 이상은 확률 결정에 이용될 수 있다. 다른 입력 또한 존재 판단에 유용한 정보에 기여할 수 있다. 예를 들면, 키보드, 마우스 및/또는 마이크로폰과 같은 입력 장치는 각각 존재 확률 결정에 유용한 입력을 제공할 수 있다. 만일 프로세서에서 사용자가 이미지 내에 존재한다고 판단하면, 사용자가 존재하는 것으로 판단된 표시가 프로세서에서 메인 프로세서로 송신되고 메인 프로세서는 표시에 기초하여 컴퓨팅 시스템의 상태를 변경한다. In yet another embodiment, a computing system having a main processor and a presence sensor coupled to the main processor is provided. The presence sensor includes an image sensor and a processor coupled to the image sensor and configured to process the captured image to determine whether the user exists within the image. The image sensor may be configured to capture 3-D images, depth images, RGB images, and / or grayscale images, and one or more of the images may be used for probability determination. Other inputs may also contribute information that is useful for determining existence. For example, input devices such as keyboards, mice, and / or microphones may each provide input useful for determining presence probabilities. If the processor determines that the user exists in the image, an indication that the user is determined to be present is sent from the processor to the main processor and the main processor changes the state of the computing system based on the indication.
많은 실시예가 개시되지만, 당업자에게는 다음의 상세한 설명으로부터 본 발명의 또 다른 실시예도 명백해질 것이다. 이해되는 바와 같이, 이러한 실시예는 모두가 이러한 실시예의 정신 및 범주로부터 벗어남이 없이 다양한 양태로 변형이 가능하다. 따라서, 도면 및 상세한 설명은 본질적으로 제한 없이 예시적인 것으로 간주되어야 한다.While many embodiments are disclosed, other embodiments of the invention will become apparent to those skilled in the art from the following detailed description. As will be appreciated, these embodiments are capable of modification in various respects, all without departing from the spirit and scope of such embodiments. Accordingly, the drawings and detailed description are to be regarded as illustrative in nature and not as restrictive.
도 1은 사용자 존재 감지 기능을 갖는 일례의 컴퓨팅 장치를 예시한다.
도 2는 도 1의 컴퓨팅 장치의 블록도이다.
도 3은 관심 객체(an object of interest)가 존재 센서(presence sensor)로부터 다른 거리에 위치한 경우의 존재 감지 결과를 보여주는 플롯이다.
도 4는 관심 객체가 센서로부터 소정 각도 오프셋된 경우의 존재 감지 결과를 보여주는 다른 플롯이다.
도 5는 단계적(tiered) 존재 센서 시스템을 동작시키는 일례의 방법을 예시하는 플로우차트이다.
도 6은 사용자의 존재를 판단하는 방법을 예시하는 플로우차트이다.
도 7은 존재 감지에 사용하기 위한 피부색(skin tone) 검출 루틴을 예시하는 플로우차트이다.
도 8은 존재 감지에 사용하기 위한 얼굴 인식(face recognition) 루틴을 예시하는 플로우차트이다.
도 9는 존재 감지에 사용하기 위한 모션(motion) 검출 루틴을 예시하는 플로우차트이다.
도 10은 단일 프레임 모션 검출을 위해 윈도우(window)로 분할된 프레임을 예시한다.
도 11은 단일 프레임 모션 검출을 위한 일례의 방법을 예시하는 플로우차트이다.
도 12는 사용자가 장치에 근접하여 위치할 확률(probability)을 결정하는데 이용되는 다중 동시적 비동기(concurrent asynchronous) 센서용 일례의 방법을 예시하는 플로우차트이다.1 illustrates an example computing device having a user presence sensing function.
2 is a block diagram of the computing device of FIG. 1.
FIG. 3 is a plot showing the presence detection result when an object of interest is located at a different distance from a presence sensor.
4 is another plot showing the presence detection result when the object of interest is offset by a certain angle from the sensor.
5 is a flowchart illustrating an example method of operating a tiered presence sensor system.
6 is a flowchart illustrating a method of determining the presence of a user.
7 is a flowchart illustrating a skin tone detection routine for use in presence detection.
8 is a flowchart illustrating a face recognition routine for use in presence detection.
9 is a flowchart illustrating a motion detection routine for use in presence detection.
10 illustrates a frame divided into windows for single frame motion detection.
11 is a flowchart illustrating an example method for single frame motion detection.
12 is a flowchart illustrating an example method for multiple concurrent asynchronous sensors used to determine the probability that a user will be located in proximity to the device.
일반적으로, 본 명세서에서 설명된 실시예들은 사용자 존재 판단(user presence determination) 및 그와 관련된 컴퓨팅 장치의 기능과 관련된다. 그러한 기능을 갖춘 컴퓨팅 장치와 상호작용하는 사용자의 경험을 향상시킬 수 있음을 인식해야 한다. 또한, 일부 실시예에서는, 본 명세서에서 설명된 실시예의 구현을 통한 전력 절감 및/또는 전력 효율이 실현될 수 있다. 본 명세서에서 사용된 바와 같은, "사용자"는 일반적으로 사람 또는 사람들을 지칭할 수 있다. 그러나, 일부 실시예에서, 시스템은 사람 이외의 객체(object)를 감지하고 그 객체의 존재에 기초하여 상태(state)를 변경하도록 구성될 수 있다. In general, the embodiments described herein relate to user presence determination and related computing device functionality. It should be appreciated that the user's experience of interacting with such functional computing devices may be enhanced. In addition, in some embodiments, power savings and / or power efficiency may be realized through implementation of the embodiments described herein. As used herein, a "user" can generally refer to a person or people. However, in some embodiments, the system can be configured to detect an object other than a person and change the state based on the presence of the object.
일 실시예는 사용자의 존재 및/또는 부재를 감지하고 사용자의 존재 및/또는 부재에 기초하여 동작 상태를 제공하도록 구성된 컴퓨팅 장치의 형태를 취할 수 있다. 다른 실시예에서, 컴퓨팅 장치는 사용자가 존재하거나 존재하지 않을 가능성(likelihood) 또는 확률 점수(probability score)를 산출하고 제공할 수 있다. 일부 실시예에서는, 존재 판단을 내릴 때 복수의 파라미터들이 함께 결정되고, 가중화(weighted)되어, 이용될 수 있다. 이러한 가중 검출은 더 현명한(more informed) 고레벨 의사 결정(decision making) 알고리즘에, 또는 여러 센서로부터의 데이터를 융합(fusing)할 때 이용될 수 있다.One embodiment may take the form of a computing device configured to sense the presence and / or absence of a user and provide an operating state based on the presence and / or absence of the user. In another embodiment, the computing device may calculate and provide a likelihood or probability score that the user may or may not be present. In some embodiments, a plurality of parameters may be determined together, weighted, and used when making a presence determination. Such weighted detection can be used in a more informed high level decision making algorithm, or when fusing data from several sensors.
예를 들면, 일부 실시예에서, 컴퓨팅 장치는 사용자가 컴퓨팅 장치에 도달하거나 그 컴퓨팅 장치에 근접하게 되는 시간 및/또는 사용자가 존재할 확률을 센서 입력에 기초하여 결정하도록 구성될 수 있다. 확률을 산출함에 따라, 긍정 오류(false positives) 및/또는 부정 오류(false negatives)가 줄어들 수 있다. 원하는 성능을 성취하는 베이지언(Bayesian) 최적 임계치가 구현될 수 있다. 즉, 트리거링(triggering) 임계치는 허용(acceptable) 부정 오류 횟수에 대한 허용 긍정 오류 횟수 사이에 원하는 균형을 이루는 방식으로 설정될 수 있다. 사용자가 존재할 긍정 판단에 따라 또는 사용자가 존재할 임계 확률(threshold probability)을 성취할 때, 장치는 파워 업(power up)하고, 슬립 모드(sleep mode)를 빠져나가고, 및/또는 사용자에게 어떤 피드백을 제공할 수 있다. For example, in some embodiments, the computing device may be configured to determine based on sensor input the time at which the user reaches or is in proximity to the computing device and / or the probability that the user is present. As the probability is calculated, false positives and / or false negatives may be reduced. Bayesian optimal thresholds may be implemented that achieve the desired performance. That is, the triggering threshold may be set in such a way as to achieve a desired balance between the number of acceptable false positives to the number of acceptable false negatives. Depending on the affirmation that the user is present or when achieving a threshold probability that the user is present, the device powers up, exits sleep mode, and / or provides some feedback to the user. Can provide.
일반적으로, 존재 감지 시스템의 한가지 목적은 기술을 더 지능적으로 이용하는 것일 수 있다. 예를 들면, 일부 실시예에서, 시스템 어웨이크(awake)는 사용자가 접근하는 것으로 판단되면 시작할 수 있다. 시스템 어웨이크는 시스템이 통상의 파워 업 시퀀스(power up sequence)보다 빨리 동작 모드가 되도록 축소된 집합의 루틴(routines)을 포함할 수 있다. 예를 들면, 시스템은 축소된 집합의 루틴으로 인해 6 내지 8초 대신 1/2초 내에 파워 업할 수 있다. 일부 실시예에서, 컴퓨팅 장치는 사용자가 그 장치에서 멀어지거나 그 장치의 근접에서 벗어나는 시간을 결정하도록 구성될 수 있다. 이에 응답하여, 장치는 디스플레이 슬립 모드, 시스템 슬립 모드, 화면 세이버(screen saver)의 활성화 등과 같은 전력 절감 모드(power saving mode)에 진입할 수 있다. 또한, 시스템은 사용자의 존재를 감지함에 기초하여 컴퓨터 웨이크 업(wake up) 시간을 빠르게 하기 위해 부분적으로 슬립 모드를 빠져나갈 수 있다. 또 다른 실시예에서, 디스플레이된 콘텐츠는 사용자의 상대적 위치에 기초할 수 있다. 예를 들면, 만일 사용자가 장치에 가까워지면, 장치는 제품 상세(product details)를 제공할 수 있고, 반면에 사용자가 멀어지면 장치는 아무것도 디스플레이하지 않을 수 있다. In general, one purpose of a presence sensing system may be to use technology more intelligently. For example, in some embodiments, system awake may begin if it is determined that the user is approaching. System awake may include a reduced set of routines that allow the system to enter an operating mode faster than a normal power up sequence. For example, the system can power up in 1/2 seconds instead of 6-8 seconds due to the reduced set of routines. In some embodiments, the computing device may be configured to determine a time for the user to move away from or in proximity of the device. In response, the device may enter a power saving mode, such as display sleep mode, system sleep mode, activation of a screen saver, and the like. The system can also partially exit sleep mode to speed up the computer wake up time based on sensing the presence of the user. In yet another embodiment, the displayed content may be based on the relative location of the user. For example, if the user is close to the device, the device may provide product details, while if the user is far away the device may display nothing.
일부 실시예에서, 장치는 또한 사용자의 움직임(movements)(예컨대, 위치 및 속도)을 추적하고, 소정의 움직임에 응답하여 피드백(feedback)을 제공하고 및/또는 동작 상태에 진입하거나 동작 상태를 변경하도록 구성될 수 있다. 예를 들면, 장치로의 움직임은 사용자 인터페이스에서 더 많은 옵션/메뉴를 제공하는 것과 같은 더 많은 기능을 활성화할 수 있고, 반면에 장치에서 멀어지는 움직임은 메뉴/옵션의 수를 감소시키고 및/또는 디스플레이되는 옵션의 크기를 감소시키거나 증가시키는 것과 같이 사용자에게 이용가능한 기능의 수를 감소시킬 수 있다. 추가로 또는 대안으로, 디스플레이는 장치로의 움직임 또는 장치에서 멀어지는 움직임에 기초하여 줌인(zoom in) 또는 줌아웃(zoom out)할 수 있다. 일부 실시예에서, 사용자의 측면 방향(lateral)(예를 들면, 왼쪽에서 오른쪽으로) 움직임은 장치에 디스플레이된 배경 및/또는 화면 세이버 이미지를 변경시킬 수 있다. 또한, 이미지의 변경은 일반적으로 감지된 모션에 상응할 수 있다. 예를 들면, 왼쪽에서 오른쪽으로의 움직임은 왼쪽에서 오른쪽으로의 모션에서 이미지를 다른 이미지로 대체되게 할 수 있다. 대안으로, 사용자가 왼쪽에서 오른쪽으로 움직임에 따라, 나무잎(leaves) 또는 커튼(drapes)은 그러한 움직임을 반영할 수 있다. 즉, 나무잎은 왼쪽에서 오른쪽으로 날아가 떨어질 수 있거나, 또는 커튼은 검출된 움직임에 상응하는 방식으로 흔들릴 수 있다. In some embodiments, the device also tracks movements (eg, position and velocity) of the user, provides feedback in response to certain movements and / or enters or changes operating states. It can be configured to. For example, movement to the device may activate more features, such as providing more options / menus in the user interface, while movement away from the device reduces the number of menus / options and / or displays It is possible to reduce the number of functions available to the user, such as reducing or increasing the size of the options that are made. Additionally or alternatively, the display can zoom in or zoom out based on movement to or away from the device. In some embodiments, the lateral (eg, left to right) movement of the user may change the background and / or screensaver images displayed on the device. Also, the change in image may generally correspond to the sensed motion. For example, movement from left to right may cause an image to be replaced with another image in motion from left to right. Alternatively, as the user moves from left to right, leaves or curtains may reflect that movement. That is, the leaves may fly from left to right, or the curtain may sway in a manner corresponding to the detected movement.
또한, 일부 실시예에서, 사용자의 존재는 장치에 대한 사용자의 위치와 함께 소정의 기능을 제공하는데 이용될 수 있다. 일부 실시예에서, 입력 및/또는 출력은 위치에 기초할 수 있다. 예를 들면, 장치는 사용자의 위치를 향해 오디오 스테레오 패닝(panning)(예를 들면, 오디오 스티어링(steering))을 제공하도록 구성될 수 있다. 또한, 일부 실시예에서는, 사용자의 위치에 기초하여 마이크로폰 스티어링이 구현될 수 있다. In addition, in some embodiments, the presence of the user may be used to provide certain functionality along with the user's location with respect to the device. In some embodiments, inputs and / or outputs may be based on location. For example, the device may be configured to provide audio stereo panning (eg, audio steering) towards the user's location. Also, in some embodiments, microphone steering may be implemented based on the location of the user.
또한, 복수의 센서 및/또는 동작 상태가 단계적인(tiered) 방식으로 구현될 수 있다. 즉, 제1 동작 모드에서는 제1 센서가 동작할 수 있다. 움직임 또는 사용자 존재를 검출하면 제2 센서 등이 활성화될 수 있다. 일부 실시예에서, 제2 센서의 활성화는 장치가 제2 동작 모드에 진입하는 것과 동시에 일어날 수 있고, 반면에 다른 실시예에서는 단지 제2 센서에서 검색된 데이터에 기초하여 또는 제1 센서로부터의 데이터와 결합하여 판단이 이루어질 때까지 제2 동작 모드에 진입하지 않을 수 있다. In addition, multiple sensors and / or operating states may be implemented in a tiered manner. That is, the first sensor may operate in the first operation mode. The second sensor or the like may be activated when detecting the movement or the presence of the user. In some embodiments, activation of the second sensor may occur simultaneously with the device entering the second mode of operation, while in other embodiments only based on data retrieved from the second sensor or with data from the first sensor. In combination, the second operation mode may not be entered until a determination is made.
존재 판단은 하나 이상의 센서에 의해 수집된 데이터에 의해 이루어질 수 있다. 일 실시예에서는, 하나 이상의 센서로부터의 데이터를 이용하여 사용자가 존재하는지를 판단한다. 예를 들면, 신경망(neural net), 지원 벡터 머신(support vector machine) 또는 다른 적절한 분류기 또는 확률 결정기(probabilistic determiner)가 구현될 수 있다. 어떤 경우에는, 큰 데이터 포인트(data points) 집합이 수집되고, 분류되고 저장되어 존재 판단에 이용될 수 있다. 또한, 미래의 판단을 위해 나중에 얻은 데이터도 추가되고 이용될 수 있다. Presence determination can be made by data collected by one or more sensors. In one embodiment, data from one or more sensors is used to determine if a user is present. For example, neural nets, support vector machines or other suitable classifiers or probabilistic determiners can be implemented. In some cases, large sets of data points can be collected, sorted and stored for use in presence determination. In addition, data obtained later may be added and used for future judgment.
도면으로 가서 먼저 도 1을 참조하면, 컴퓨팅 장치(100)가 예시되어 있다. 컴퓨팅 장치(100)는 일반적으로 존재 감지에 이용될 수 있는 하나 이상의 센서(102)를 포함할 수 있다. 예를 들면, 존재 감지에는 하나 이상의 카메라 및/또는 광센서가 이용될 수 있다. 비록 본 명세서에서는 존재 감지와 관련하여 일반적으로 카메라 및 광센서가 설명되지만, 초음파 센서, 마이크로파 레이더(RADAR) 등과 같은 다른 센서 형태도 역시 구현될 수 있음을 인식해야 한다. 이러한 기술 중 일부는 인간이 장치에 근접한 경우 생리적(physiological) 파라미터를 결정하는데 이용될 수 있다. 예를 들면, 레이더는 방(room)에서 심장박동(heartbeat)을 검출하고 및/또는 그 위치를 찾는데 이용될 수 있다. 또한, 다양한 기술 및 광 파장도 구현될 수 있다. 예를 들면, 근접은 깊이 센서(depth sensors)를 이용하여 결정될 수 있다. 일부의 예시적인 깊이 센서 기술은 초점맞춤(focusing) 및 초점이탈(defocusing), 액티브(active) IR 반사 전력, 액티브 IR 구조화된 광; 액티브 IR 비행 시간(time of flight)(2D+깊이), 액티브 IR 비행 시간(단일 픽셀 센서), 패시브(passive) IR(모션 검출기), 패시브 IR 열 이미징(2D), 스테레오 비전(stereo vision), 편광(polarization) 기술 등을 포함할 수 있다. 일부 실시예에서, 액티브 IR은 다중 특정 IR 파장을 이용하여 인간의 피부 반사율(reflectivity) 또는 호흡 중의 이산화 탄소(carbon dioxide)의 배출과 같은 소정의 고유 물질 특성을 검출할 수 있다. 그와 같이, 본 명세서에서 기술된 특정 실시예는 단지 예로서 제시되며 한정되지 않는다.Turning to the drawings and referring first to FIG. 1, a
도 2는 도 1의 컴퓨팅 장치(100)의 블록도이다. 일반적으로, 컴퓨팅 장치는 다른 컴포넌트(예를 들면, 센서)가 연결된 마이크로프로세서/마이크로컨트롤러(104)를 포함한다. 마이크로프로세서/마이크로컨트롤러(104)는 하나 이상의 저전력 마이크로컨트롤러 그리고 센서(예를 들면, 카메라, 근접 등)에서 오는 데이터뿐 아니라, 고레벨 사용자 존재 또는 비존재 의사 결정을 위한 데이터 융합점으로 구현될 수 있다. 일부 실시예에서, 사용자 존재 판단 및 그와 관련된 데이터는 외면화되고(externalized) 장치의 메인 동작과 분리될 수 있다. 즉, 사용자 존재 시스템은 존재 감지 데이터를 메인 컴퓨터 처리 유닛(CPU)(105), 오퍼레이팅 시스템 등과 분리하여 보안 및 사생활을 제공한다. 2 is a block diagram of the
다양한 적절한 센서는 마이크로프로세서/마이크로컨트롤러(104)에 입력/데이터를 제공할 수 있다. 구체적으로, 카메라 기반 센서(106)는 마이크로프로세서(104)와 통신가능하게 연결될 수 있다. 어떤 적절한 카메라 기반 센서도 구현될 수 있고 다양한 다른 기술도 이용될 수 있다. 예를 들면, ST 마이크로일렉트로닉스(ST Microelectronics)에서 입수가능한 카메라 센서가 이용될 수 있다. 이 카메라 기반 센서는 통합 프로세서(110)에 얼굴 검출 기능을 제공하는 풀(full) 이미지 카메라(108)를 포함할 수 있다. 즉, 이 센서는 임베디드 마이크로프로세서(110)를 구비할 수 있고 얼굴 위치 및 거리를 추정할 수 있다. 또한, 이 센서는 객체의 거리를 결정하는데 이용될 수 있다. 카메라(108)는 또한 AGC 시스템으로부터 모션 검출에 유용할 수 있는 윈도우 히스트그램(windowed histogram) 정보를 제공한다. Various suitable sensors may provide input / data to the microprocessor /
또한, 카메라(108)는 120도까지 또는 그보다 큰 수평 시야(a horizontal field of view) 및 120도까지 또는 그보다 큰 수직 시야(a vertical field of view)를 가질 수 있다. 일부 실시예에서는, 각도가 120도보다 큰 시야를 얻기 위해 어안 렌즈(fish eye lenses)와 같은 렌즈가 이용될 수 있다. 일 실시예에서, 수평 시야는 75-95도 사이(예를 들면, 대략 85도)에 있을 수 있고 수직 시야는 40-80도 사이(예를 들면, 대략 60도)에 있을 수 있다. 얼굴은 20피트 이상까지의 거리에서 검출될 수 있다. 일 실시예에서, 얼굴은 대략 6-14피트에서 검출될 수 있다. 얼굴 위치 데이터는 대략 0.6-1Hz 사이에서 이용가능할 수 있고 AGC 데이터는 풀 프레임 레이트(full frame rate), 대략 10-30Hz에서 이용가능할 수 있다. The
일반적으로, 카메라 기반 센서(106)에 의해 캡처된 이미지 및 관련 원시(raw) 정보는 카메라 기반 센서의 외부에서 이용가능하지 않을 수 있다. 오히려, 얼굴이 센서의 기능적 범위 내에서 검출되는지에 대한 정보, 그 범위 내에서 얼굴의 위치 및/또는 얼굴의 움직임이 제공될 수 있다. 일부 실시예에서, 카메라 센서는 사용자의 존재 여부를 나타내는 이진(binary) 출력을 제공할 수 있다. 또한, 만일 사용자가 존재하면, 카메라 기반 센서에 의해, 예를 들면 x-y 좌표에서 장치에 대한 사용자의 위치가 출력될 수 있다. 또한, 이 센서는 무엇보다도 존재하는 얼굴의 수를 나타내도록(예를 들면, 존재하는 사람의 수를 나타내도록) 구성될 수 있다. In general, images captured by camera-based
일부 실시예에서, 카메라 기반 센서(106)는 장치에 대해 원하는 동작 특성을 얻도록 다른 센서와 독립적으로 구현될 수 있다. 일부 실시예에서, 카메라 기반 센서는 단계적인 방식으로 동작하고 출력을 제공하도록 구성될 수 있다. 예를 들면, 제1 상태에서 카메라 기반 센서는 사용자의 존재를 감지할 수 있다. 만일 사용자가 존재하면, 카메라 기반 센서는 제2 상태에 진입하고 사람들이 얼마나 존재하는지를 판단할 수 있다. 그 후, 또는 동시에, 카메라 기반 센서는 존재하는 사람들의 위치를 결정할 수 있다. 카메라가 동작 상태에서 이동함에 따라, 카메라는 아래에서 더 구체적으로 설명되는 바와 같이 장치에 의해 그 장치의 상태를 변경하는데 이용될 수 있는 출력을 제공한다. In some embodiments, camera-based
일부 실시예는 메인 카메라(103)를 이용하여 이미지를 캡처할 수 있다. 메인 카메라(103)는 장치의 사용자에 의해 비디오 및 정지 이미지를 캡처하는데 이용되는 시스템 카메라일 수 있다. 일부 실시예에서, 메인 카메라는 존재 감지에 이용되는 카메라(예를 들면, 시스템에는 많은 카메라가 있다)와 별개이고 다를 수 있는 반면, 다른 실시예에서 메인 카메라 출력은 카메라 기반 센서에 의해 전용(dedicated) 카메라를 갖는 카메라 기반 센서(106) 대신에 이용될 수 있다. 예를 들면, 일부 실시예에서는, 메인 카메라 외에, 깊이 기반 카메라가 구현될 수 있다. 깊이 기반 카메라는 어떤 적절한 형태라도 취할 수 있다. 일 실시예에서, 메인 카메라 출력은 사용자의 이용을 위해 이미지 프로세서(107)로뿐 아니라 사용자 존재 검출을 위해 카메라 기반 센서(106)의 마이크로컨트롤러로도 제공될 수 있다. 이미지 프로세서 및 사용자 검출 코프로세서(co-processor)가 사용자가 이용가능한 메인 카메라와 어떻게 데이터를 통신하고 그로부터 어떻게 데이터를 만들 수 있는지에 대해 여러 옵션이 있을 수 있다. 예를 들면, 사용자가 존재하지 않는 경우, 메인 카메라로부터의 출력은 존재 감지 판단을 위해 주로 마이크로컨트롤러에 의해 처리될 수 있다. 이러한 상태에서, 카메라로부터의 데이터는 일반적으로 시스템의 다른 컴포넌트에 이용가능하지 않을 수 있다. 사용자가 존재하는 경우, 메인 카메라로부터의 출력은 이미지 프로세서(107)로 제공될 수 있다. 그러나, 이미지 데이터/정보를 이용가능하게 하기 위해, 사용자는 카메라 기반 애플리케이션(예를 들면, 비디오 채팅(chat) 애플리케이션, 또는 이미지 캡처 프로그램 등)에 액세스해야 할 수 있다. 그렇지 않으면, 일반적으로 카메라로부터의 이미지 데이터에 액세스하지 못할 수 있다. Some embodiments may capture an image using the
하나 이상의 카메라뿐 아니라 통상의 카메라 및 이미지 처리 기능을 이용하여 원하는 존재 감지가 가능한 많은 다른 구성이 있을 수 있음을 인식해야 한다. 예를 들면, 일 실시예에서, 메인 카메라 출력은 통상의 이미지 처리 기능 및 사용자 존재 검출 기능을 결합한 단일 칩으로 라우트될(routed) 수 있다. 다른 실시예에서, 카메라로부터의 비디오 출력은 중앙 처리 유닛에 의해 처리하기 위해 호스트로 스트리밍(streamed)될 수 있다. It should be appreciated that in addition to one or more cameras, there may be many other configurations capable of detecting the desired presence using conventional camera and image processing functions. For example, in one embodiment, the main camera output may be routed to a single chip that combines conventional image processing and user presence detection. In another embodiment, the video output from the camera can be streamed to the host for processing by the central processing unit.
근접 센서(112)와 같은 제2 센서는 또한 마이크로프로세서(104)에 접속될 수 있다. 일부 실시예에서, 컨트롤러(114), 멀티플렉서(116) 및 발광 다이오드 어레이(118)는 근접 센서(112)와 함께 동작할 수 있다. 특히, 컨트롤러(114)는 멀티플렉서(116) 및 LED(118)의 동작을 시분할 다중화(TDM) 방식으로 제어하도록 구성될 수 있다. LED의 TDM 교번(alternating)에 따라 바람직한 응답을 얻기 위해 적절한 필터가 구현될 수 있다. 다른 실시예에서, 하나 이상의 LED를 다중화하여 다른 시야를 커버하기 위해 기계 장치(예를 들면, 마이크로 전기 기계 장치)가 이용될 수 있다. A second sensor, such as
LED(118)는 어떤 적절한 범위의 파장에서 동작할 수 있고, 일례에서, 전자기 스펙트럼의 근적외선 영역(near infrared region)에서 동작할 수 있다. LED(LED1-LEDN)는 각각 특정 시야를 겨냥(directed)할 수 있다. 일부 실시예에서, 각 LED(118)는 개별 시야를 겨냥할 수 있는 반면, 다른 실시예에서 인접한 LED의 시야는 중첩할 수 있다. 일부 실시예에서, LED 어레이(118)는 컴퓨팅 장치의 베젤(bezel) 주위에 LED를 분산시킬 수 있다. 다른 실시예에서, LED 어레이(118)는 LED가 서로 다른 시야를 커버하도록 방향적으로 배치된 (예를 들면, 디스플레이 화면 베젤의 곡선 부분에 걸쳐) 행(row)으로 구성될 수 있다.
일 실시예에서는, 시야의 평균값(예를 들면, 근접을 나타내는 값)을 얻어 객체가 장치(100)에 근접한지를 판단하는데 이용할 수 있다. 만일 평균값이 임계값을 초과하면, 객체가 장치(100)의 근접 내에 있다고 나타낼 수 있다. LED 어레이(118)를 이용하면, 근접 센서는 넓은 시야에 걸쳐 좀 더 정확하게 근접을 검출할 수 있다. 각 LED가 다른 시야를 겨낭하기 때문에, 객체의 위치는 또한 근접 센서(112)를 이용해서도 결정될 수 있다. 그와 같이, 다른 실시예에서는, 추정된 빈 장면(presumed empty scene)으로부터의 근접값(proximity value)의 변경이 결정될 수 있다. 다양한 센서에 걸쳐 가장 큰 변경(또는 어떤 등급(rank))이 검토될 수 있고 이 값은 임계치와 비교하여 근접 및/또는 위치를 결정할 수 있다. In one embodiment, an average value of the field of view (eg, a value representing proximity) may be obtained and used to determine whether the object is in proximity to the
일부 실시예에서, 카메라 기반 센서(106) 및 근접 센서(112)는 마이크로프로세서(104)와 함께 사용자가 컴퓨팅 장치(100)에 근접한지를 판단하는데 이용될 수 있다. 다른 목적 및/또는 기능 중에서, 전력 절감을 제공하거나, 사용자 경험을 향상시키거나 또는 원하는 특정 사용자 경험을 제공하기 위해, 단계적인 감지 시스템이 구현될 수 있다. 특히, 단계적인 감지 시스템은 제1 센서를 동작시켜 먼저 컴퓨팅 장치의 임계 거리 내에서의 사용자의 존재를 판단하여 전력 절감을 제공할 수 있다. 일부 실시예에서, 임계 거리는 장치(100)의 2-10피트(예를 들면, 5피트) 내에 있을 수 있다. 또한, 일부 실시예에서, 제1 센서에서 수집된 데이터는 사용자의 상대적인 위치를 결정하는데 이용될 수 있다.In some embodiments, camera-based
이러한 단계적인 시스템에서, 만일 사용자가 존재하면, 제2 센서가 활성화될 수 있다. 제2 센서로부터의 데이터는 단독으로 또는 제1 센서로부터의 데이터와 결합하여 사용자/사람 및/또는 사용자의 위치를 더 식별하는데 이용될 수 있다. 제1 및 제2 센서 양자로부터의 데이터는 어느 기능을 수행할지 및/또는 사용자가 무엇을 하는지 판단하는데 함께 이용될 수 있다. 예를 들면, 사용자가 장치에 얼마나 가까운지, 즉 사용자가 장치를 향하는지, 사용자가 장치에서 멀어지게/장치를 향해 이동하는지 등등이 판단될 수 있다. 또한, 그러한 데이터는 사용자를 (예를 들면, 크리덴셜받은(credentialed) 사용자로서) 식별하는데 이용될 수 있다. In this staged system, if a user is present, the second sensor can be activated. The data from the second sensor may be used alone or in combination with data from the first sensor to further identify the user / person and / or the location of the user. The data from both the first and second sensors can be used together to determine what function to perform and / or what the user is doing. For example, it may be determined how close the user is to the device, ie whether the user is facing the device, whether the user moves away from / toward the device, and so on. Such data can also be used to identify a user (eg, as a credentialed user).
컴퓨팅 장치(100)의 상태는 사용자가 존재한다는 판단에 기초하여 변경될 수 있다. 예를 들면, 만일 사용자가 장치에 접근한다면, 디스플레이는 어웨이크(awake)될 수 있고, 시스템은 어웨이크될 수 있다 등등. 만일 사용자가 왼쪽에서 오른쪽으로 이동하고 있다면, 디스플레이된 이미지는 변경될 수 있고 일반적으로 사용자의 움직임에 대응하게 이동할 수 있다. 또한, 만일 많은 사용자가 (많은 얼굴의 존재를 식별함에 기초하여 판단되는 바와 같이) 존재한다면, 장치(100)는 보안 상태로 전력공급될 수 있고 장치에 충분히 액세스하도록 사용자 크리덴셜의 입력을 필요로 할 수 있다. The state of the
존재 판단은 신경망, 지원 벡터 머신(SVM) 또는 다른 머신 학습 기반 분류기 또는 확률 결정 시스템에 이용되는 많은 요인에 기초할 수 있다. 예를 들면, 피부색/컬러, 존재 및 움직임은 존재 판단을 하는 신경망과 함께 가중된(weighted) 방식으로 이용될 수 있다. 전술한 바와 같이, 존재 판단에 기초하여, 장치(100)는 동작 상태에 진입하고/동작 상태를 변경할 수 있다. Presence determination can be based on many factors used in neural networks, support vector machines (SVMs) or other machine learning based classifiers or probability determination systems. For example, skin color / color, presence and movement can be used in a weighted manner with neural networks making a presence determination. As mentioned above, based on the presence determination, the
사용할 특정 센서의 선택은 예를 들면 원하는 기능 및 소비 전력 제한을 포함하여 다양한 요인에 종속할 것이라는 것을 인식해야 한다. 그와 같이, 일부 실시예에서, 카메라 기반 센서(106)가 제1 단계(tier) 센서로 구현될 수 있는 반면, 다른 실시예에서는, 근접 센서(112)가 제1 단계 센서로 이용될 수 있다. 근접 센서(112)와 같은 근접 센서를 구현하는 좀 더 구체적인 설명은 아래에서 제공된다. It should be recognized that the choice of a particular sensor to use will depend on a variety of factors, including, for example, desired functionality and power consumption limitations. As such, in some embodiments, camera-based
센서(112)는 어떤 적절한 주파수에서 광을 초핑(chop)하고 반사되어 되돌아온(returned reflected) 광신호의 위상 시프트(phase shift)를 측정할 수 있다. LED(118)의 출력은 구형파(square waves) 또는 다른 파형일 수 있고, 센서(112)는 I/Q 복조 방식을 이용한다. 센서(112)에서 오는 광은 사인파(sine wave) 및 코사인파(cosine wave)와 혼합되어, I(동위상(in-phase)) 성분 및 Q(직교(quadrature)) 성분을 제공한다. 사인/코사인파는 LED 변조와 동기화된다. 이들은 센서로부터의 '원시' 출력에 해당하고, 만일 다른 내부 측정 방법이 존재한다면, 그것은 이러한 방식으로 변환될 수 있다. 일반성의 손실 없이, 주기가 2π이고, 그 주기 전체에 걸쳐 적분(integration)이 일어난다고 가정할 수 있다. 실제로, 고정 주기가 이용될 수 있고 그 주기의 어떤 큰 배수에 걸쳐 적분할 것이다. 이러한 차이는 고정 스케일 인자를 낳고, 이는 무시될 수 있다. 기본적인 측정 성분은 다음과 같다.The
만일 전체 시야를 취급하는 센서(112)로부터 일정(방사) 거리에 있는 객체를 측정하는 경우, 위상 오프셋이 이고 크기가 A인 동일 주파수의 구형파 입력 신호는 I 및 Q 성분이 다음과 같다.If you are measuring an object at a distance (radiation) from the
그리고,And,
이다. to be.
다음에, 값은 다음과 같이 구할 수 있다.Next, The value can be obtained as follows.
다음에 M은 다음과 같이 재구성될 수 있다.Then M can be reconstructed as
센서의 시야 내에 두 객체(A 및 B)가 존재한다고 가정하면(그 각각은 일정 거리에 있음), 이들 거리와 연관된 위상 시프트는 및 로 나타낼 수 있다. 반사 신호의 크기는 A 및 B로 규정될 수 있다. 이 경우, 입력 광신호가 추가되므로, 적분이 있고, 따라서 I는, Assuming there are two objects A and B within the field of view of the sensor (each of which is at a certain distance), the phase shift associated with these distances is And . The magnitude of the reflected signal can be defined as A and B. In this case, since the input optical signal is added, there is integration, so I is
이다. to be.
마찬가지로, Q의 경우,Similarly, for Q,
이다. to be.
세기가 시간의 경과에 따라 변하지 않는 광원은 I 및 Q 성분에 제로 기여도(zero contribution)를 제공할 것이다. 이러한 특성은 우수한 주변광 배제(ambient light rejection)를 제공한다. 또한, 이러한 특성은 서로 다른 거리에 있는 객체로부터의 위상 오프셋으로 인해 제거(cancellation)될 수 있다. 1/0 구형파 복조(one/zero square wave demodulation)를 이용하면, 이러한 정보는 유지될 수 있지만 주변광 배제가 악화될 수 있다. 이러한 복조 방식으로 약간 다른 수식을 얻을 수 있지만, 최종 결과는 유사할 것이다. 다음에서, I/Q 앞에서 2라는 인자는 다른 스케일 인자에서 흡수될 것이기 때문에 생략(drop)될 것이다. A light source whose intensity does not change over time will provide zero contribution to the I and Q components. This property provides good ambient light rejection. This feature can also be canceled due to the phase offset from objects at different distances. With one / zero square wave demodulation, this information can be maintained but the ambient light exclusion can be worsened. This demodulation yields slightly different formulas, but the final result will be similar. In the following, the
약간의 단순화가 이루어질 수 있고 장면 내 객체의 함수로서의 센서 출력에 대한 기본적인 모델이 제안된다. 별개의 경우도 구현예에 더 잘 따르기 때문에 별개의 경우도 개발될 것이지만, 다른 경우도 역시 구현될 수 있다. LED/센서 시야는 1 내지 N으로 인덱스된 N개의 섹션으로 분할될 수 있다. 이들 섹션 각각은 Ωi라는 입체각(solid angle)을 갖는다. 또한, 이들 입체각 각각은 고정 반사율()을 갖고, 고정 방사 거리(ri)에 있다. 또한, LED로부터의 출력은 스테라디안(steradian)(Ii) 당 방출 세기(emitted intensity)를 갖는 소정의 입체각 전체에 걸쳐 일정하다. 소정의 거리에 대한 위상 시프트는 로 규정된다. Some simplification can be made and a basic model of sensor output as a function of objects in the scene is proposed. Separate cases will also be developed because the other cases are better with the implementation, but other cases can also be implemented. The LED / sensor field of view may be divided into N sections indexed from 1 to N. Each of these sections has a solid angle of Ω i . In addition, each of these solid angles has a fixed reflectance ( ) And is at a fixed spinning distance r i . In addition, the output from the LED is constant throughout a given solid angle having an emitted intensity per steradian (I i ). Phase shift for a given distance .
이러한 모델로부터, 센서에서 소정의 입체각으로부터의 (Ii,Qi) 기여도가 얻어질 수 있다. 또한 I/Q 공간에서 극(polar) 좌표계를 규정하는 것이 유용하다. IQ 벡터의 크기는 Mi로 규정되고, 각도 는 이미 규정되었다. From this model, the contribution (I i , Q i ) from a given solid angle at the sensor can be obtained. It is also useful to define a polar coordinate system in the I / Q space. The magnitude of the IQ vector is defined by M i , the angle Has already been prescribed.
(Im,Qm)은 모두 측정된 (원시) I 및 Q 값으로 규정될 수 있다. 하나 이상의 항(Ic,Qc)을 추가하여 어떤 일정한 크로스토크(전기 또는 광)를 표현할 수 있다. 마지막으로,(I m , Q m ) can both be defined as the measured (raw) I and Q values. One or more terms (I c , Q c ) can be added to represent some constant crosstalk (electric or light). Finally,
이다. to be.
일반적으로, 사용자가 장치에 근접하여 위치하는지를 판단하기 위해서는, 장치가 배치된 환경을 이해하는 것이 유리할 수 있다. 이는 긍정 오류를 줄이는데 도움이 될 수 있으며 사용자가 장치(100)의 근접에 진입하거나 빠져나가는 시간을 좀 더 정확하게 결정할 수 있다. 그러나, 배경(background) 모델을 생성하는 것은 센서(112)에 의해 제공되는 상대적인 정보의 부족으로 인해 많은 과제를 제기한다. 유용한 모델을 규정하기 위해서는, 몇 가지 단순화 가정이 이루어질 수 있다. 먼저, 단일 센서의 모델의 계산이 처리된 다음 여러 센서의 경우가 처리될 것이다.In general, it may be advantageous to understand the environment in which the device is placed in order to determine whether the user is located in proximity to the device. This may help to reduce false positives and more accurately determine the time at which the user enters or exits the proximity of the
근본적으로, 두 가지 형태의 객체가 센서(112)와 같은 특정 근접 센서에 의해 제공되는 거리 측정에 영향을 미친다. 사람에 의해 가려질 수 없는 객체가 있고, 사람에 의해 가려질 수 있는 객체가 있다. 전자는 '전경(foreground)' 객체로 지칭되고 후자는 '배경(background)' 객체로 지칭될 것이다. 물론, 객체는 사람에 대해 어떻게 위치하는지에 따라 두 부류에 속할 수 있다. 우선, 장면은 이들 두 형태의 객체로 분할될 수 있다. 일반적으로, 과제는 장면 내에서 들어가고 나가는 사람들과 같은 동적 객체(dynamic objects)까지의 거리를 측정하는 것이다. 이들 객체를 성공적으로 측정하기 위해, 장면 내 정적 객체(static objects)에 대한 정확한 모델이 생성되고 이들과 동적 객체와의 관계가 모델링된다. In essence, two types of objects affect the distance measurement provided by a particular proximity sensor, such as
먼저, (Ip,Qp)는 측정되는 객체와 연관된 신호로 규정된다. (Im,Qm) 및 (Ic,Qc)는 각각 측정된 (원시) 및 크로스토크 값으로 계속 이용될 수 있다.First, (I p , Q p ) is defined as the signal associated with the object being measured. (I m , Q m ) and (I c , Q c ) can continue to be used as measured (raw) and crosstalk values, respectively.
빈 장면(Empty Scene)Empty Scene
하나의 모델은 전경 또는 배경 객체가 없고, 신호는 모두 장면 내 사람에 기인한 것이라고 가정한다. 가장 순수한 형태에서는, 공장 교정(factory calibration)/크로스토크 값이 다음과 같이 이용될 수 있다. One model assumes no foreground or background objects, and the signals are all due to the people in the scene. In its purest form, factory calibration / crosstalk values can be used as follows.
이 모델은 거리 출력을 생성하는데 이용될 수 있다. 전경 객체가 없는 장면의 경우, 이 모델은 항상 거리를 과대 평가할 것이다. 이 모델은 장치의 수명 동안 정확한 공장 교정값에 의존한다는 점을 주목하자. 이 모델은 스머지(smudge)/ 등으로 인해 추가된 크로스토크를 설명하지 못할 수 있다. This model can be used to generate a distance output. For scenes without foreground objects, this model will always overestimate distance. Note that this model relies on accurate factory calibration values for the life of the device. This model may not account for the added crosstalk due to smudge / etc.
일단 정적 오프셋이 관측되면, 그 정적 오프셋은 전경 및 배경 객체의 어떤 조합으로 모델링된다. 이러한 정적 오프셋을 어떻게 분산시킬지에 대한 선택은 Ip 및 Qp의 추정치(estimate)에 강한 영향을 미친다.Once a static offset is observed, that static offset is modeled with any combination of foreground and background objects. The choice of how to distribute these static offsets has a strong impact on the estimates of I p and Q p .
전경 단독(Foreground Only)Foreground Only
정적 오프셋을 설명하는 한가지 방법은 그 정적 오프셋이 모두 전경 객체에 기인한다고 가정하는 것이다. 온도 또는 스머지로 인한 크로스토크 변화와 같은 효과는 이 부류에 속한다. 전경 객체는 정의에 따르면 사람의 존재와 관계없이 신호에 일정하게 기여한다. 순수한 전경 모델에서, 전경 객체의 공간 분포는 관련이 없고, 전경이 아닌 무엇이든 관심 객체인 것으로 가정한다. 전경으로부터의 신호를 (Ifg,Qfg)로 규정하자. 이 모델은 다음을 함축한다. One way to describe a static offset is to assume that the static offset is all due to the foreground object. Effects such as crosstalk changes due to temperature or smudges fall into this class. Foreground objects, by definition, contribute to a signal constantly, regardless of the person's presence. In a pure foreground model, the spatial distribution of the foreground object is irrelevant and assumes that anything other than the foreground is the object of interest. Let's define the signal from the foreground as (I fg , Q fg ). This model implies:
(Ifg+Ic,Qfg+Qc)는 장면 내에 관심 객체가 없는 측정된 센서 기록(reading)임을 주목하자. 이는 표준 '기준치 감법(baseline subtraction)' 모델이다.Note that (I fg + I c , Q fg + Q c ) is the measured sensor reading with no object of interest in the scene. This is a standard 'baseline subtraction' model.
부분 폐색을 갖는 균일한 배경(Uniform Background with Partial Occlusion) Uniform Background with Partial Occlusion
이 모델의 경우, 배경은 균일한 거리에 있고 균일한 반사율을 갖는다고 가정한다. 또한, 객체는 시야를 수직으로 가린다고 가정한다. 각도를 갖는 LED 폴 오프(falloff)는 l(θ)로 규정된다. 폭 w가 고정된 단일 객체는 고정 위치에서 각도 섹션 △θp에 대응하는 것으로 가정한다. 객체의 중심 위치는 θp라는 각도 항으로 규정된다. For this model, it is assumed that the background is at a uniform distance and has a uniform reflectance. It is also assumed that the object obscures the field of view vertically. The LED falloff with angle is defined as l (θ). It is assumed that a single object having a fixed width w corresponds to the angular section Δθ p at the fixed position. The central position of the object is defined by the angle term θ p .
일반적인 모델은 전술하였다. 이 모델의 경우, 면적은 순전히 폭의 함수이고, 입사광은 l(θ)로 규정되며, 거리/반사율은 일정하지만 알려지지 않았다. The general model has been described above. For this model, the area is purely a function of the width, the incident light is defined as l (θ), and the distance / reflectivity is constant but unknown.
편의상, 다음과 같이 규정한다. For convenience, it is prescribed as follows.
, 및 , And
L(θp;△θp)는 관심 객체에 의해 규정된 입체각을 겨냥한 LED로부터의 광의 일부분을 나타내고, Ltotal은 총 광출력을 나타내며, R(θp;△θp)은 배경에 비친(cast) 총 광의 일부분을 나타낸다. L (θ p ; Δθ p ) represents the portion of light from the LED aimed at the solid angle defined by the object of interest, L total represents the total light output, and R (θ p ; Δθ p ) is reflected in the background ( cast) represents a portion of the total light.
관심 객체로부터 센서에 도달한 광의 크기는 L(θp;△θp)에 비례한다. 비례 상수를 θp, 그리고 관심 객체까지의 거리와 연관된 위상 오프셋을 로 규정할 것이다. 이는 다음과 같이 주어진다. The magnitude of light reaching the sensor from the object of interest is proportional to L (θ p ; Δθ p ). Set the proportional constant θ p , and the phase offset associated with the distance to the object of interest Will be prescribed. This is given by
마찬가지로, 배경으로부터 센서에 도달하는 광의 크기는 R(θp;△θp)에 비례한다. 비례 상수는 , 그리고 배경 거리와 연관된 위상은 로 규정된다. 이는 다음과 같이 주어진다. Similarly, the magnitude of light reaching the sensor from the background is proportional to R (θ p ; Δθ p ). The proportional constant is , And the phase associated with the background distance . This is given by
요약하면, to summarize,
다음과 같은 측정을 가정하자. Assume the following measurements:
, 및 , And
만일 각도 θp 및 폭 w가 알려지거나 가정할 수 있다면, 이 연립 방정식은 풀 수 있다.If the angle θ p and the width w can be known or assumed, this simultaneous equation can be solved.
부분 폐색을 갖는 균일한 배경 및 균일한 전경(Uniform Background and Uniform Foreground with Partial Occlusion) Uniform Background and Uniform Foreground with Partial Occlusion
이 모델의 경우, '부분 폐색을 갖는 균일한 배경' 모델에서 시작하고, 이를 구축하고, 균일하면서 관심 객체에 미치는 영향이 공간적으로 변하지 않는 전경 성분을 추가시킨다. 전경 성분은 공간적으로 변하지 않고, 관심 객체의 존재에 의해 영향을 받지 않기 때문에, 전경 객체의 크기 및 위상을 및 으로 규정한다. 이제, 전경의 경우,For this model, we start with a 'uniform background with partial occlusion' model, build it, and add a foreground component that is uniform and does not spatially change its effect on the object of interest. Because the foreground component does not change spatially and is not affected by the presence of the object of interest, it is possible to change the size and phase of the foreground object. And It is prescribed by. Now, in the foreground,
, 및 , And
이다. to be.
이를 단순히 이전 모델에 추가하여 다음을 얻는다.Simply add it to the previous model to get:
, 및 , And
빈 장면에서 다음과 같이 측정될 수 있다고 가정하자.Suppose we can measure the following in an empty scene:
, 및 , And
이전의 경우와 비교하여 추정된 두 변수를 더 추가할 수 있다.Compared with the previous case, we can add two more estimated variables.
구획된 배경, 균일한 전경(Sectioned Background, Uniform Foreground)Sectioned Background, Uniform Foreground
이 모델은 수평 시야를 각각이 균일한 전경/균일한 배경으로 모델링되는 일련의 섹션 1...S로 분할한다. 첨자 s는 변수가 속하는 섹션을 나타내기 위해 추가된다. 배경 섹션에서 시작하여, 폭 w가 각도 섹션 △θp, 및 각도 위치 θp에 해당하는 장면 내에 객체가 존재한다고 가정하자. R 함수를 국지적으로(sectionally) 재규정하여 관심 객체에 의한 폐색 후에 배경에 비친 광의 일부분을 표현한다. 이는 Rs로 지칭될 수 있다.The model divides the horizontal field of view into a series of
이제 다음과 같이 규정한다.Now,
, 및 , And
전경 신호는 장면 내 객체에 의해 변경되지 않기 때문에, 이를 국지적으로 모델링할 필요가 없다. 그러나, 전경은 관심 객체를 섹션들에 걸쳐 변화하는 각도로 폐색시킬 수 있다. 이는 많은 다른 방식으로 모델링될 수 있고, 그 중 가장 깨끗한 것은 각 전경 섹션마다 '폐색 인자' Fs를 연관시키는 것이다. 또한, Ls는 섹션 s에서 관심 객체를 조명하는 LED에서 출력된 총 광의 일부분으로 규정된다. 이제 다음과 같다.Because the foreground signal is not changed by objects in the scene, there is no need to model it locally. However, the foreground may occlude the object of interest at varying angles across the sections. It can be modeled in many different ways, the cleanest of which is to associate the 'occlusion factor' F s for each foreground section. L s is also defined as the portion of the total light output from the LED illuminating the object of interest in section s. Now it looks like this:
, 및 , And
균일한 전경의 경우, Fs는 모든 섹션에 대해 1과 같고 수식은 비구획된 전경의 경우로 다시 축약된다. 요약하면 다음과 같다. For a uniform foreground, Fs is equal to 1 for all sections and the formula is shortened back to the case of non-compartmented foreground. In summary.
, 및 , And
여기서, 배경에 대해서는 섹션 당 두 개의 변수가 추가되고, 전경 폐색에 대해서는 섹션 당 하나의 변수가 추가된다. 전경 객체로부터의 폐색 효과는 무시될 수 있고, 단지 가외의 배경 변수만 추가된다.Here, two variables are added per section for the background and one variable per section for the foreground occlusion. Occlusion effects from foreground objects can be ignored and only extra background variables are added.
시야가 중첩하는 두 개의 센서(Two Sensors with Overlapping Fields of View)Two Sensors with Overlapping Fields of View
시야가 중첩하는 두 개의 센서가 이용될 수 있다. 단지 시야의 중첩 부분만을 고려하여 이 영역에서 어떤 종류의 정보를 얻을 수 있는지를 검토하고, 여기서 각 센서는 자신의 L(θp;△θp)를 갖고, θp는 전역 좌표계를 가리킨다고 가정한다. 이들은 L1 및 L2로 지칭될 수 있고, 첨자를 이용하여 센서를 나타낼 수 있다. 또한, 두 개의 센서는 자신들의 감도(sensitivity) 및 LED 출력이 다를 수 있고, 이로 인해 중첩하는 시야 내 동일 객체의 측정을 위해 스케일 인자 오차(scale factor error) α가 주어진다고 가정한다. 또한, 관심 객체와의 거리 및 신호 크기에 대해 1/d2 관계를 갖는다고 가정한다. 또한, 객체는 고정 반사율 및 고정 폭 w를 갖는다고 가정한다.Two sensors with overlapping fields of view may be used. Consider only what kind of information can be obtained in this area, taking into account only the overlapping part of the field of view, where each sensor has its own L (θ p ; Δθ p ) and θ p indicates the global coordinate system do. These are L 1 And L 2 , and subscripts may be used to represent the sensor. In addition, it is assumed that the two sensors have different sensitivity and LED outputs, which gives a scale factor error α for the measurement of the same object in the overlapping field of view. Also, 1 / d 2 for distance and signal size Suppose you have a relationship. In addition, the object has a fixed reflectance And assume a fixed width w.
, θp 및 d는 두 센서의 측정 사이의 공통 값이고 관심 객체에 특정하다는 것에 유의한다. d와 사이의 관계가 잘 규정되어 있다 - 본 명세서의 일례의 섹션을 참조바람. 여기서, α는 두 센서/LED 사이의 일정한 감도차이며, 이는 그 센서들의 수명 동안 저속으로 변화되어야 한다. 이러한 규정은 다음과 같다. , Note that θ p and d are common values between the measurements of the two sensors and are specific to the object of interest. d and The relationship between is well defined-see the example section of this specification. Where α is a constant sensitivity difference between the two sensors / LEDs, which should change at low speeds over the lifetime of those sensors. These regulations are as follows.
, 및 , And
이들 수식은 Ip 및 Qp에 대해 배경 단독 부분 폐색 모델로 대체될 수 있고 및 에 대한 수식을 생성할 수 있다. 다음과 같은 다섯 가지 알려지지 않은 것이 있다.These formulas can be replaced with a background only partial occlusion model for Ip and Qp And You can create a formula for. There are five unknowns:
· αΑ
· ·
· ·
· θp Θ p
·△θp Δθ p
또한, 네 개의 수식이 존재하고, 그러므로 이들 값들 중 하나가 알려지기만 하면(또는 가정할 수만 있다면), 나머지는 잠재적으로 산출될 수 있다. 먼저 α 및 △θp를 양호하게 추측할 수 있다고 가정하는 것은 타당하다. 예를 들면, 일단 카메라 기반 센서(106)와 같은 다른 센서가 제공된다면, θp 및 는 바로 측정될 수 있다. 불행하게도, 이들 수식은 비선형이므로, 이러한 제약 내에서 유일해(unique solution)가 존재한다는 것을 증명하는 어떤 작업이 여전히 수행될 수 있다. 이러한 추정 프로세스를 성취하기 위해, 많은 추정 방식 중 어떤 추정 방식이 이용될 수 있다. 그 예는 확장 칼만(Kalman) 필터, 시그마-포인트(sigma-point) 칼만 필터, 또는 직접 추정을 이용하는 것을 포함할 수 있다.Also, there are four equations, so one of these values is known If you do (or can only assume), the rest can potentially be calculated. It is reasonable to assume that first, α and Δθ p can be estimated well. For example, once another sensor is provided, such as camera based
배경 단독 부분 폐색 모델의 일례의 구현(Example Implementation of Background Only Partial Occlusion Model)Example Implementation of Background Only Partial Occlusion Model
10도 LED 센서(112)에 의한 폴 오프 투영(falloff cast)은 백색 벽(white wall)을 배경으로 이미지화되었다. 그의 수평 방향으로 투영된 폴 오프는 대략 표준 편차가 거의 12도인 가우시안(gaussian)이다. 그 원형은 12피트에 배경막(backdrop)이 있는 비교적 어두운 빈 방의 바닥 위 약 3.5피트에 두었다.The falloff cast by the 10
크로스토크는 센서(112)를 커버하는 블랙 펠트 배플(black felt baffle)로 측정되었다. 제로 위상 오프셋은 반사성 배플로 측정되었다. 명목상(nominal) '개방(open)' 배경이 캡처되었다. 센서 데이터는 10피트 벗어나 있는 LED에서 오프셋이 0도인 센서(112)에서 벗어나 1피트 증분 단위로 서 있는 사람에서 수집되었다. 센서 데이터는 5피트의 방사 거리에서 5도 증분 단위로 -15도에서 +15도까지 수집되었다. 펠트 측정은 본질적으로 크로스토크를 측정하기 때문에 (Ic;Qc)로 지칭될 수 있다. 반사성 배플 측정은 (Io;Qo)로 그리고 개방식 측정은 (Iopen;Qopen)로 지칭될 수 있다. 마지막으로, 장면 내 관심 객체와의 원시 측정은 (Im;Qm)로 그리고 추정될 관심 객체 신호는 (Ip;Qp)로 지칭될 수 있다. L(θp;△θp)은 특정 형태가 다음과 같이 되는 전술한 가우시안 분포를 전제로 하여 모델링되었다. Crosstalk was measured with a black felt baffle covering the
여기서 "erf"는 오차 함수이다. 또한 다음과 같이 규정한다. Where "erf" is an error function. It is also prescribed as follows.
및 And
여기서 는 위상 델타(phase delta)에서 거리(distance)로의 변환이고, △θp는 폭이 2피트인 사람을 전제로 하여 산출된다. 이제, 연립 방정식은 다음과 같이 설정될 수 있다. here Is the conversion from phase delta to distance, and Δθ p is calculated assuming a
, 및 , And
여기서, L(θp;△θp)은 △θp 및 L(θp;△θp)에 대한 전술한 수식을 이용하여 표현된다. θp를 알려진 값으로 간주하고, 비선형 연립 방정식을 수치적으로 푼다. 도 3 및 도 4의 플롯에는 실제 데이터 결과가 도시되어 있다. 도 3에서, 선 120은 보정되지 않은 것을 나타내고, 선 122는 보정된 데이터를 나타낸다. 도 4에서, 선 130은 보정되지 않은 것을 나타내고, 선 132는 보정된 데이터를 나타내고, 선 134는 실제 거리를 나타낸다.Here, L (θ p ; Δθ p ) is expressed using the above formulas for Δθ p and L (θ p ; Δθ p ). Consider θ p as a known value and solve the nonlinear simultaneous equations numerically. The plots of FIGS. 3 and 4 show the actual data results. In FIG. 3, line 120 indicates no correction and
단일 센서(112)를 다양한 배경 모델로 계산함에 따라, 다중 센서가 통합 위치 모델로 결합될 수 있다. 전술한 바와 같이, 일 실시예에서는 다중 근접 센서가 구현될 수 있다. 다른 실시예에서는, 원하는 시야를 제공하기 위해 다중 LED가 TDM 방식으로 이용될 수 있다. 카메라 기반 센서를 통합하려면 모든 관심 파라미터를 추정해야 한다.By calculating a
도 5는 다중 센서를 단계적 방식으로 이용하여 장치의 상태를 변경하는 방법(300)을 예시한다. 먼저, 장치는 슬립 모드와 같은 소비 전력 저감 모드에 있을 수 있고, 컨트롤러는 제1 센서로부터 데이터를 수신할 수 있다(블록 302). 수신된 데이터는 처리되고(블록 304) 임계치와 비교된다(블록 306). 임계치와 비교하면 사용자가 존재하는지 존재할 가능성이 있는지에 대해 판단이 가능하다(블록 308). 만일 사용자가 존재하지 않는다면, 제1 센서로부터 데이터가 계속 수신될 수 있다(블록 302). 그러나, 만일 사용자가 존재하거나 존재할 가능성이 있는 것으로 판단되면, 제2 센서가 작동될 수 있고(블록 310) 제2 센서로부터 데이터가 수신된다(블록 312). 제2 센서로부터의 데이터가 처리되고(블록 314) 제1 센서로부터의 데이터와 결합된다(블록 316). 제1 및 제2 센서로부터의 데이터의 처리는 존재 판단에 유용하도록, 다음으로 한정되지 않지만, 데이터 필터링, 데이터 스케일링, 및/또는 일반적으로 데이터 컨디셔닝과 같이, 그 데이터에 대해 디지털 신호 처리를 수행하는 것을 포함할 수 있다. 또한, 제1 및 제2 센서로부터의 데이터의 결합은 데이터를 함께 저장하고 및/또는 그 데이터를 논리적으로 또는 수학적으로 결합하는 것을 포함할 수 있다.5 illustrates a
제1 및 제2 센서로부터의 데이터를 이용하여 사용자 존재값(user presence values) 및/또는 사용자 존재 확률 점수(probability of user presence scores)를 산출한다(블록 318). 사용자 존재값 및/또는 사용자 존재 확률 점수는 임계치와 비교하여 사용자가 존재하는지 판단한다(블록 322). 또한, 만일 사용자가 존재하는 것으로 판단되면, 장치에 대한 사용자의 거리 및 위치와 같은 다른 파라미터가 결정될 수 있고(블록 324) 장치의 상태가 변경될 수 있다(블록 326). 이러한 상태 변경은 장치를 슬립 모드로부터 어웨이크 모드로 이동하는 것 또는 다른 적절한 상태 변경을 포함할 수 있다. Data from the first and second sensors are used to calculate user presence values and / or user presence probability scores (block 318). The user presence value and / or user presence probability score are compared to the threshold to determine if the user exists (block 322). Also, if it is determined that the user exists, other parameters such as the user's distance and location to the device can be determined (block 324) and the state of the device can be changed (block 326). Such state change may include moving the device from sleep mode to awake mode or other appropriate state change.
또한, 다른 파라미터(예를 들면, 거리, 위치 등)뿐 아니라 장치의 상태 변경의 결정은 블록(308)으로부터의 점선으로 표시된 바와 같이 단지 제1 센서 데이터에 기초하여 사용자 존재에 대한 긍정적인 판단 후에 일어날 수 있음을 인식해야 한다.In addition, the determination of the state change of the device, as well as other parameters (e.g., distance, location, etc.) may only be made after a positive determination of user presence based on the first sensor data, as indicated by the dashed line from
또한, 사용자 존재의 제2 판단(블록 320)은 제2 센서로부터 제공된 추가 정보에 기초하여, 제1 판단(블록 308)보다 더 정확할 수 있다. 또한, 전술한 바와 같이, 추가 파라미터는 제1 및 제2 센서 양자로부터의 데이터의 결합에 기초하여 결정될 수 있다.In addition, the second determination of user presence (block 320) may be more accurate than the first determination (block 308) based on the additional information provided from the second sensor. In addition, as discussed above, additional parameters may be determined based on the combination of data from both the first and second sensors.
다른 실시예는 방법(300)보다 더 많거나 더 적은 단계를 구현할 수 있음을 인식해야 한다. 도 6 내지 도 11은 존재 판단 방법의 좀 더 구체적인 플로우차트를 예시한다.It should be appreciated that other embodiments may implement more or fewer steps than the
도 6을 참조하면, 존재 감지를 예시하는 플로우차트(200)가 예시되어 있다. 먼저, 카메라를 이용하여 이미지를 획득한다(블록 202). 조도(light level) 판단이 수행되어(블록 204) 피부색 검출 루틴(블록 206)에 제공될 수 있다. 선택적으로, 일부 실시예에서, 조도 판단은 화살표(203)로 표시된 바와 같이 다른 루틴에도 제공될 수 있다. 또한, 캡처된 이미지는 전처리(pre-process)될 수 있다(블록 208). 어떤 경우에, 전처리는, 예를 들면, 이미지를 다운 스케일링하고, 이미지의 색 공간(color space)을 변경하고 및/또는 이미지를 향상시키는 것을 포함할 수 있다. 다른 검출기 특정 전처리 또한 수행될 수 있다(블록 214, 215 및 217). 예를 들면, 이미지는 선택적으로 피부색 검출 루틴(블록 206)에 제공되기 전에 블록(214)에서 전처리에 의해 흐릿해질(blurred) 수 있다. 또한, 블록(215)에서 전처리는 이미지를 얼굴 검출 루틴(블록 210)에 제공하기 전에 컬러를 그레이스케일로 변경하고 및/또는 이미지를 움직임 검출 루틴(블록 212)에 제공하기 전에 블록(217)의 전처리에서 에지 검출을 수행하는 것을 포함할 수 있다. 깊이 이미지는 이를 세그멘팅하여 전처리될 수 있고 세그먼트된 부분은 입력으로서 검출기로 제공될 수 있다. 피부색 검출 루틴, 얼굴 검출 루틴 및 움직임 검출 루틴에 대해서는 아래에서 도 7 내지 도 11을 참조하여 좀 더 구체적으로 설명된다.Referring to FIG. 6, a flowchart 200 is illustrated that illustrates presence detection. First, an image is acquired using a camera (block 202). Light level determination may be performed (block 204) and provided to the skin color detection routine (block 206). Optionally, in some embodiments, roughness determination may be provided to other routines as indicated by
융합 및 검출 로직(블록 216)을 이용하여 피부색 검출 루틴, 얼굴 검출 루틴 및 움직임 검출 루틴의 결과에 가중치가 부여되어 결합될 수 있고, 사용자 존재 분류가 결정된다(블록 218). 융합 및 검출 로직은 신경망, 지원 벡터 머신, 및/또는 어떤 다른 형태의 확률 머신 학습 기반 알고리즘을 이용하여 사용자가 존재하는지에 대한 판단에 도달하는 것을 포함할 수 있다. 도 7은 피부색 검출 루틴(블록 206)을 저조도(low light) 판단(블록 204)에서 시작하는 플로우차트로 예시한다. 저조도 판단은 이미지의 처리에 영향을 주는 다양한 다른 방식으로 이용될 수 있음을 인식해야 한다. 예를 들면, 일부 실시예에서, 저조도 판단은 벡터로서 신경망에 제공될 수 있는 반면, 다른 실시예에서 저조도 판단은 이용될 특정 형태의 분류기를 선택하는데 이용될 수 있다. 즉, 만일 이미지가 저조도에서 취해지지 않았다고 판단하면, 특징 벡터(feature vectors)가 생성될 수 있고(블록 220), 제1 픽셀 분류기가 적용된다(블록 222). 만일 이미지가 저조도에서 캡처되었다면, 다른 특징 벡터 집합이 생성될 수 있고(블록 224) 제2 픽셀별(per pixel) 분류기가 적용될 수 있다(블록 226). 특징 형태, 예를 들면, 컬러 변환 등은 원하는 결과를 얻기 위해 선택적으로 제공될 수 있고 저조도 판단에 따라 다를 수 있다. 또한, 제1 및 제2 픽셀별 분류기는 저조도 판단에 기초하여 다를 수 있다. 예를 들면, 제1 분류기는 픽셀별 7-5-2 다층 퍼셉트론(MLP:multilayer perceptron) 피드 포워드(feed forward) 신경망 분류기일 수 있는 반면, 제2 분류기는 픽셀별 2-12-2 MLP 피드 포워드 신경망 분류기일 수 있다. 일부 실시예에서, 이러한 분류기는 프로세스를 빠르게 하는데 도움이 되는 GPU를 갖는 개방형 커널로 구현될 수 있다.The results of the skin color detection routine, the face detection routine and the motion detection routine can be weighted and combined using fusion and detection logic (block 216), and a user presence classification is determined (block 218). The fusion and detection logic may include reaching a determination of whether a user exists using neural networks, support vector machines, and / or some other form of probabilistic machine learning based algorithm. 7 illustrates a skin color detection routine (block 206) with a flowchart starting at low light determination (block 204). It should be appreciated that low light judgment can be used in a variety of different ways that affect the processing of an image. For example, in some embodiments, low light judgment may be provided to the neural network as a vector, while in other embodiments low light judgment may be used to select a particular type of classifier to be used. That is, if it is determined that the image is not taken at low light, feature vectors may be generated (block 220) and the first pixel classifier is applied (block 222). If the image was captured at low light, another set of feature vectors can be generated (block 224) and a second per pixel classifier can be applied (block 226). Feature shapes such as color conversion and the like may optionally be provided to achieve a desired result and may vary depending on low light judgment. Also, the first and second pixel-specific classifiers may be different based on the low light determination. For example, the first classifier may be a pixel-by-pixel 7-5-2 multilayer perceptron (MLP) feed forward neural network classifier, while the second classifier is a pixel-by-pixel 2-12-2 MLP feed forward. It may be a neural network classifier. In some embodiments, such a classifier may be implemented with an open kernel with a GPU to help speed up the process.
이러한 분류기로부터의 출력은 이미지가 피부색을 포함할 확률을 나타내는 확률(예를 들면, 0과 1 사이의 값)일 수 있다. 이미지에는 모폴로지(morphology) 필터가 선택적으로 적용될 수 있고(블록 228) 평균 그레이스케일 레벨이 산출될 수 있다(블록 230). 또한, 피부색 검출(블록 238)에 따른 사용자 존재의 확률을 결정하기 전에 비선형 스케일링(블록 232), 시간 큐(temporal queue) 필터(블록 234) 및 클램프(블록 236)가 적용될 수 있다.The output from this classifier may be a probability (eg, a value between 0 and 1) indicating the probability that the image will contain skin color. A morphology filter can optionally be applied to the image (block 228) and an average grayscale level can be calculated (block 230). Also, nonlinear scaling (block 232), temporal queue filter (block 234) and clamp (block 236) may be applied before determining the probability of user presence according to skin color detection (block 238).
도 8은 얼굴 검출 루틴(블록 210)을 얼굴 검출기를 적용(블록 240)하는 것으로 시작하는 플로우차트로 예시한다. 예를 들면, 비올라 존스 캐스케이드 얼굴 검출기(Viola-Jones cascade face detector)와 같이 얼굴이 존재할 가능성을 나타내는 확률 점수를 제공하는 어떤 적절한 얼굴 검출기가 구현될 수 있다. 다음에, 얼굴 존재 점수는 스케일링되고(블록 242) 단속적(intermittent) 검출 플리커(flicker) 필터가 선택적으로 적용(블록 244)되어 이미지를 평탄화(smooth)할 수 있다. 카메라가 비교적 우수한 품질을 갖는 경우와 같은 일부 실시예에서, 평탄화는 프로세스에서 생략될 수 있음을 인식해야 한다. 플리커 필터는 시간 큐 필터(블록 246), 평균으로부터의 정규화된 점수 편차가 임계치보다 작은지에 대한 판단(블록 248), 그런 다음 출력값과 스케일링된 점수의 곱셈(블록 250)을 포함할 수 있다. 시간 큐 필터(블록 252) 및 클램프(블록 254)는 얼굴 검출에 따른 사용자 존재의 확률(블록 256)을 결정하기 전에 적용된다. 몸체(body) 검출기 또는 몸체 센서는 얼굴 검출기와 동일한 흐름 또는 그와 유사한 흐름을 따르도록 구성될 수 있다. 또한, 몸체 검출기는 얼굴 검출기에 이용된 것보다 해상도가 더 낮은 이미지 센서를 이용하여 구현될 수 있다.8 illustrates a face detection routine (block 210) with a flowchart that begins with applying a face detector (block 240). For example, any suitable face detector may be implemented that provides a probability score indicating the likelihood of a face, such as a Viola-Jones cascade face detector. The face presence score can then be scaled (block 242) and an intermittent detection flicker filter can be selectively applied (block 244) to smooth the image. It should be appreciated that in some embodiments, such as where the camera has relatively good quality, planarization may be omitted in the process. The flicker filter may include a time queue filter (block 246), a determination as to whether the normalized score deviation from the mean is less than the threshold (block 248), and then a multiplication of the output value with the scaled score (block 250). The time cue filter (block 252) and the clamp (block 254) are applied before determining the probability of user presence according to face detection (block 256). The body detector or body sensor may be configured to follow the same flow as or similar to the face detector. In addition, the body detector may be implemented using an image sensor having a lower resolution than that used in the face detector.
도 9는 모션 검출 루틴(212)을 많은 프레임을 수집함으로써 시작하는 플로우차트로 예시하며, 그와 같이, 메모리는 많은 프레임을 저장하도록 구현될 수 있다. 예를 들면, 세 개의 프레임, 즉 현재 프레임과 두 개의 다른 프레임이 이용될 수 있다. 도 9에 예시된 실시예에서, 현재 프레임 및 두 개의 후속 프레임이 이용된다. 먼저, 입력 프레임이 k개의 프레임만큼 순차적으로 지연되고(블록 260, 262) 피드 포워드되어 제2 지연(블록 262)의 출력과 함께 가산된다(블록 264). 블록(260)의 출력에 2를 곱하고(블록 266) 가산기(블록 264)와 곱셈기(블록 266)의 출력 간의 차(블록 268)가 결정된다. 다음에, 픽셀별 내적(inner product)이 결정되고(블록 270), 스케일링되고(블록 272), 픽셀은 클램프된다(블록 274). 평균 그레이 레벨이 산출되고(블록 276), 비선형 스케일링이 수행되고(블록 278), 시간 큐 필터가 적용되고(블록 280), 그런 다음 [0,1]로 클램프 된다(블록 282). 마지막으로, 움직임에 따른 사용자 존재의 확률이 결정된다(블록 284).9 illustrates the
모션 검출 루틴에서 유용할 수 있는 몇 가지 파라미터는 자동 초점(AF:auto focus) 윈도우 통계 또는 수평 에지 또는 소벨/샤르(Sobel/Sharr) 에지, 2D 컬러 히스토그램(color histogram) 데이터, 성분 히스토그램 데이터, 순색량(color content)에 대한 자동 백색 밸런스/자동 노출(AWB/AE:automatic white balance/auto exposure) 윈도우 통계 등을 포함할 수 있다. 일부 전처리 단계는 Y 채널(세기), (적절한 정규화(normalization)를 위해 기울기(gradient)를 축적하는) 소벨 또는 샤르 필터로 산출된 기울기 크기, 임계 기울기 크기(에지 픽셀의 계수(count)에 의한 정규화), 크로미넌스(chrominance)(Cr, Cb) 공간에서 피부 확률(skin-probability), 전술한 바 중 어떤 것의 서브 이미지 등과 같은 모션 검출을 위해 구현될 수 있다. 일부 실시예에서, 모션 검출은 이미지 중심(centroids)을 산출할 수 있는 능력을 포함할 수 있다. 현재 프레임의 중심에서 이전 프레임의 중심까지의 거리는 모션 양의 척도로 이용되고, 하드 임계치(hard threshold)는 이진 검출 또는 모션을 생성하는데 적용된다. 따라서, 예를 들면, Y' 세기, 에지 기울기 크기, 이진 에지, 또는 피부 확률 이미지의 중심 위치의 변경은 모션을 의미할 수 있다. 감도 및 강인성(robustness)의 상충관계(tradeoffs)는 이용되는 파라미터들의 특정 결합에 영향을 끼칠 수 있다. 예를 들면, 피부 확률 이미지는 에지 기울기에 이용될 수 있고 이진 에지는 조명(lighting) 변경에 대한 강인성을 제공하는데 이용될 수 있다. 피부 확률은 전술한 바와 같이 또는 대안으로 자동 백색 밸런스 컬러 공간 필터를 이용하여 이러한 기능을 근사화하는 신경망에 의해 수행될 수 있다.Some parameters that can be useful in motion detection routines are auto focus window statistics or horizontal edge or Sobel / Sharr edges, 2D color histogram data, component histogram data, and true color. Automatic white balance / auto exposure (AWB / AE) window statistics on color content, and the like. Some preprocessing steps include the Y channel (intensity), the slope magnitude computed by the Sobel or Shar filter (which accumulates the gradient for proper normalization), and the critical gradient magnitude (normalized by count of edge pixels). ), Skin-probability in chrominance (Cr, Cb) space, sub-images of any of the foregoing, and the like, for motion detection. In some embodiments, motion detection may include the ability to calculate image centroids. The distance from the center of the current frame to the center of the previous frame is used as a measure of the amount of motion, and the hard threshold is applied to generate binary detection or motion. Thus, for example, a change in the Y 'intensity, the edge slope magnitude, the binary edge, or the center position of the skin probability image may mean motion. Tradeoffs in sensitivity and robustness can affect the specific combination of parameters used. For example, skin probability images can be used for edge gradients and binary edges can be used to provide robustness to lighting changes. Skin probabilities may be performed by neural networks as described above or alternatively using an automatic white balance color space filter to approximate this function.
모션을 감지하는 일부 실시예는 기울기 이미지(gradient images)의 피부 검출의 윈도우 통계(window statistics)를 언급할 수 있다. 일 실시예는 전체 합(global sum)의 변경을 검토할 수 있다. 특히, 이미지는 프레임 전체에 걸쳐 합산되어 스칼라 값(scalar value) s[i]를 생성하고, 여기서 i는 현재 프레임 인덱스이다. 이전의 N개의 값의 큐는 S={s[i-1],s[i-2],...,s[i-N]}로 유지된다. SL ,N은 s[i-L]에서 s[i-N]까지의 시퀀스로 나타내고, 이들 값의 극값(extremum)은 u=max(SL,N) 및 v=min(SL ,N)으로 산출된다. 모션 양은 이 범위, 즉 e=max(s[i]-u, v-s[i]) 밖의 편위(excursion)에 의해 결정된다. 모션은 e가 미리 정해진 임계치를 초과하는 경우에 검출된다.Some embodiments of sensing motion may refer to window statistics of skin detection of gradient images. One embodiment may consider changing the global sum. In particular, the images are summed over the frame to produce a scalar value s [i], where i is the current frame index. The queue of previous N values is kept at S = {s [i-1], s [i-2], ..., s [iN]}. S L , N is represented by a sequence from s [iL] to s [iN], and the extremes of these values are calculated as u = max (S L, N ) and v = min (S L , N ). . The amount of motion is determined by the excursion outside this range, e = max (s [i] −u, vs [i]). Motion is detected when e exceeds a predetermined threshold.
일부 실시예에서, 모션 검출 루틴은 단일 프레임으로 구현될 수 있고, 따라서 전체 프레임이 저장되지 않을 것이기 때문에 적은 메모리가 이용되거나 메모리가 이용되지 않을 수 있다. 일부 실시예에서, 이미지(단일 프레임)는 통계 산출이 가능한 윈도우로 분할될 수 있다. 윈도우의 통계 변경은 모션 및 사용자의 위치 또한 결정하는데 이용될 수 있다.In some embodiments, the motion detection routine may be implemented in a single frame, so less memory may be used or no memory may be used because the entire frame will not be stored. In some embodiments, the image (single frame) may be divided into windows capable of statistical calculation. The statistical change of the window can also be used to determine the motion and the position of the user.
도 10은 이미지가 단일 프레임 모션 검출용으로 분할될 수 있는 가능한 윈도우 집합을 예시한다. 구체적으로, 도 10은 통계 목적으로 비중첩(non-overlapping) 윈도우 및 동심의(concentric) 윈도우로 분할된 단일 프레임을 도시한다. 각 경우에, 이미지(페이지의 상부에 있는 프레임)의 루미넌스(luminance) 및 이미지(페이지의 하부에 있는 프레임)의 세기 기울기 크기가 고려된다. 예를 들면, 이미지(300)는 다중 비중첩 노출(exposure) 통계 윈도우(302)로 분할될 수 있다. 대안으로, 이미지(300)는 다중 동심원 중첩 노출 통계 윈도우(304)로 분할될 수 있다. 각 윈도우의 통계는 (이미지(300)에서와 같은) 루미넌스 이미지에 기초하여 또는 세기 기울기 크기 이미지(306)에 기초하여 결정될 수 있다.10 illustrates a possible set of windows in which an image can be partitioned for single frame motion detection. Specifically, FIG. 10 shows a single frame divided into non-overlapping windows and concentric windows for statistical purposes. In each case, the luminance of the image (frame at the top of the page) and the intensity gradient magnitude of the image (frame at the bottom of the page) are taken into account. For example,
윈도우를 이용하면 기울기 크기의 합을 산출할 때 더 강인한 모션 캡처를 제공한다. 중첩하는 직사각형 윈도우에 대해, 일 실시예는 동심원으로 배열된 여덟 개의 직사각형을 포함하고, 가장 큰 것은 프레임 전체를 포함하고 가장 작은 것은 이미지 중심에 있다. 따라서, 프레임 i에서, 프레임들의 합은 j∈[1,2,...,8]에 대해 sj[i]이다. 직사각형들 사이에 놓인 스트립(strips) 픽셀의 합은 특별한 경우인 d8[i]=s8[i]/h8을 제외하고 이들 합들의 차인 dj[i]=sj[i]-sj+1[i]/hj로 산출된다. 그 차는 대략 그의 면적에 비례하는 스트립 hj의 높이로 정규화된다.Using windows provides more robust motion capture when calculating the sum of the gradient magnitudes. For overlapping rectangular windows, one embodiment includes eight rectangles arranged concentrically, with the largest covering the entire frame and the smallest at the center of the image. Thus, in frame i, the sum of the frames is s j [i] for j∈ [1,2, ..., 8]. The sum of the strips pixels lying between the rectangles is the difference of these sums d j [i] = s j [i] -s except for the special case d 8 [i] = s 8 [i] / h 8 It is calculated as j +1 [i] / h j . The difference is normalized to the height of the strip h j roughly proportional to its area.
다음에, N개의 이전 프레임에 대한 차 dj의 극값 u, v(최대값 및 최소값)는 큐를 이용하여 산출되고, 편위는 ej=max(dj[i]-u,v-dj[i])이다. 각 편위 ej와 임계치를 비교하여 해당 프레임의 영역 j의 모션 지표(indicator)를 제공한다. 미세한 조명 변경은 긍정 오류 검출을 초래할 수 있다. 실제 모션은 일반적으로 여덟 개의 영역 중 두 개 또는 세 개 영역의 검출과 연관된다. 따라서, 일부 실시예에서, 해당 프레임에서 모션이 검출되었다고 판단하기 위해서는 적어도 두 개의 모션 검출 영역이 필요하다. 또한, 방의 전등을 턴 온하거나 턴 오프하는 것과 같이 조명 변화가 크면 흔히 많은 영역에서 모션 검출을 보인다. 따라서, 세 개보다 많은 영역이 모션을 검출한 경우에는 검출이 억제될 수 있다. 이러한 설계 파라미터는 경험에 기초하여 또는 원하는 감도 및 강인성 레벨을 제공하도록 조정될 수 있다.Next, the extreme values u, v (maximum value and minimum value) of the difference d j for N previous frames are calculated using the cue, and the deviation is e j = max (d j [i] -u, vd j [i ])to be. Each deviation e j is compared with a threshold to provide a motion indicator of the area j of the frame. Minor illumination changes can result in false positive detection. Real motion is generally associated with the detection of two or three of eight areas. Thus, in some embodiments, at least two motion detection regions are needed to determine that motion has been detected in the frame. In addition, large lighting variations, such as turning on or off the lights in a room, often show motion detection in many areas. Therefore, when more than three regions detect the motion, the detection can be suppressed. These design parameters can be adjusted based on experience or to provide the desired sensitivity and toughness levels.
도 11은 비동심의(non-concentric) 윈도우(302)를 갖는 단일 프레임(300)을 이용한 모션 검출 루틴(212B)을 예시하는 플로우차트이다. 일부 실시예에서, 각 통계 윈도우에는 고유한 분석 파이프(unique analysis pipe)가 제공될 수 있다. 즉, 각 윈도우는 동시에 처리될 수 있다. 다른 실시예에서는, 공통 분석 파이프에서 하나 이상의 윈도우가 순차적으로 처리될 수 있다. 본 명세서에서 이용된 바와 같은, "분석 파이프"는 윈도우의 통계 분석과 연관된 처리 단계를 지칭할 수 있고 시간 큐 필터를 포함할 수 있다.11 is a flowchart illustrating a
전술한 바와 같이, 이미지(300)는 통계 윈도우(302)로 분할될 수 있고 각 윈도우마다 평균 통계가 산출될 수 있다(블록 310). 평균 통계에는 시간 큐 필터가 적용될 수 있고(블록 312) 과거 단기간 거동(short term past behaviour)으로부터 편위값 "e"이 산출될 수 있다(블록 314). 이 편위값은 임계치와 비교하여 그 편위값이 임계치를 초과하는지 판단할 수 있다(블록 316). 임계치를 초과하는 각 편위값에 대해 정규화된 계수가 유지되고(블록 318) 만일 정규화된 계수가 보팅(voting) 임계치를 초과하면(블록 320), 모션이 검출되었다고 판단한다(블록 322). 만일 모션이 검출되지 않았다고 판단하면, 제2 센서(들)로부터 추가 데이터가 수집될 수 있다. 또한, 약간의 결정된 시간량이 경과한 후, 장치는 저감된 전력 상태로 되돌아갈 수 있고 제1 센서(들)가 데이터를 수집할 수 있다.As described above,
또한, 편위값을 이용하여 간략한(summary) 통계를 생성할 수 있다(블록 324). 간략한 통계는 비선형으로 스케일링될 수 있고(블록 326) 확률 모션 점수가 제공될 수 있다(블록 328). 일반적으로, 블록(322)은 모션이 검출되었음을 나타내는 이진 1 또는 0 출력을 제공하는 반면, 블록(328)은 이미지(300)에서 모션이 검출된 가능성을 나타내는 0과 1 사이의 값을 제공할 것이다.In addition, the deviation value may be used to generate summary statistics (block 324). The simplified statistics can be scaled nonlinearly (block 326) and a probability motion score can be provided (block 328). In general, block 322 will provide a binary one or zero output indicating that motion was detected, while
인식할 수 있는 바와 같이, 전술한 루틴들 각각에서 신경망, 지원 벡터 머신(SVM) 또는 다른 분류 시스템을 이용하여 사용자의 존재를 판단할 수 있다. 또한, 각 루틴으로부터의 확률값은 단독으로도, 예를 들면, 어떤 값이 소정의 임계치 이상인 경우 사용자가 존재하는 것으로 판단하기에 충분할 수 있다. 또한, 일부 실시예에서는, 각 루틴으로부터의 확률들의 조합도 사용자가 존재하는지를 판단하는데 이용될 수 있다. 일부 실시예에서, 어떤 루틴의 출력은 그의 유효성(validity)이 문제가 될 수 있기 때문에 이용되지 못할 수 있다. 예를 들면, 피부색 검출 루틴은 조명으로 인해 신뢰하지 못할 수 있다. 또한, 그러한 루틴들로부터 출력된 확률들은 가중화(weighted) 방식으로 결합될 수 있다(예를 들면, 하나의 확률에는 그 확률이 다른 것들보다 더 정확할 가능성에 기초하여 더 큰 가중치(weight)가 부여될 수 있다.As can be appreciated, neural networks, support vector machines (SVMs), or other classification systems can be used in each of the aforementioned routines to determine the presence of a user. In addition, the probability value from each routine may be sufficient alone to determine that the user is present, for example, if a value is above a predetermined threshold. Further, in some embodiments, a combination of probabilities from each routine may also be used to determine if a user is present. In some embodiments, the output of certain routines may not be available because their validity may be an issue. For example, the skin color detection routine may be unreliable due to illumination. In addition, the probabilities output from such routines can be combined in a weighted fashion (eg, one probability is given a greater weight based on the probability that the probability is more accurate than the other). Can be.
본 명세서에서 설명된 실시예들은 노트북 컴퓨터, 데스크탑 컴퓨터 등과 같은 컴퓨팅 장치의 소비 전력을 저감하도록 구현될 수 있다. 특히, 이러한 컴퓨팅 장치는 그 장치가 동면(hibernate) 또는 슬립 상태와 같은 저전력 상태에 있는 경우에도 존재 감지 기능을 제공할 수 있기 때문에, 그 장치는 사용자가 존재할 경우 파워 업할 수 있고 사용자가 떠난 경우 파워 다운(power down)되거나 저감된 전력 상태에 진입할 수 있다. 또한, 실시예는 무엇보다도 직관적인(intuitive) 파워 업 및 파워 다운 동작뿐만 아니라, 보안 기능을 제공함으로써 컴퓨팅 장치를 다루는 사용자 경험을 향상시키도록 제공될 수 있다.Embodiments described herein may be implemented to reduce power consumption of computing devices such as notebook computers, desktop computers, and the like. In particular, since such computing devices can provide presence detection even when the device is in a low power state such as hibernate or sleep state, the device can power up when a user exists and power up when the user has left. It may enter a power down or reduced power state. In addition, embodiments may be provided to enhance user experience in handling computing devices by providing, among other things, intuitive power up and power down operations, as well as security functions.
저전력 동작에서 메인 프로세서 및 RAM의 사용을 막는 단계적인 시스템이 구현될 수 있다. 예를 들면, 일 실시예에서, 최저 전력 상태에서는 단지 카메라, 이미지 신호 처리(ISP) 장치 및 존재값(presence value)을 실시간으로 산출할 수 있는 임베디드 프로세서만 구현할 수 있다. 다음 단계에서, 얼굴 검출기 칩 및 RAM이 턴 온될 수 있다. 후속 단계에서, 시스템 프로세서 및 다른 자원이 파워 온될 수 있다.A staged system can be implemented that prevents the use of the main processor and RAM in low power operation. For example, in one embodiment, only a camera, an image signal processing (ISP) device, and an embedded processor capable of calculating the presence value in real time may be implemented in the lowest power state. In the next step, the face detector chip and RAM can be turned on. In subsequent steps, the system processor and other resources may be powered on.
따라서, 모션 검출을 위한 전술한 예에서는, RAM이 이용가능하지 않을 수 있기 때문에, 이전 프레임의 메모리는 ISP에 의해 산출된 통계로 한정되고, 또한 임베디드 프로세서 레지스터 및 캐시(예를 들면, 32k)에서 이용가능한 공간으로 한정된다. 또한, 존재 감지 정보(예를 들면, 통계치, 이미지 등)는 존재 감지 루틴의 외부에 이용가능하지 않다는 것을 인식해야 한다. 즉, 예를 들면, 존재 감지를 위해 캡처된 이미지는 사용자가 보지 못할 수 있다.Thus, in the above example for motion detection, since the RAM may not be available, the memory of the previous frame is limited to the statistics calculated by the ISP, and also in the embedded processor register and cache (e.g. 32k). Limited to available space. It should also be appreciated that presence detection information (eg, statistics, images, etc.) is not available outside of the presence detection routine. That is, for example, an image captured for presence detection may not be visible to the user.
일부 실시예에서는, 몸체 검출 파라미터(body detection parameter)가 이용될 수 있다. 몸체 검출 파라미터는 얼굴 검출 파라미터와 유사할 수 있지만 얼굴을 증명할 수 있는 더 작은 특징이라기보다 인체(human body)의 매크로 특징을 기반으로 할 수 있다. 예를 들면, 몸체 검출 파라미터는 팔, 다리, 몸통(torso), 머리 등과 관련될 수 있다. 몸체 검출 파라미터는 더 큰 특징을 기반으로 하기 때문에, 얼굴 검출에 이용된 것들에 비해 저해상도 카메라가 구현될 수 있고 몸체 센서처럼 적당히 양호한 결과를 얻을 수 있다. 또한, 일부 실시예에서, 카메라는 몸체 검출 파라미터를 얻는데 이용될 때 저해상도 모드에서 동작할 수 있고 다른 목적으로 이용될 때 고해상도 모드에서 동작할 수 있다. 실제로는, 몸체 검출 및 얼굴 검출 파라미터 양자의 목적으로 동일한 카메라가 이용될 수 있다. 몸체 검출 파라미터는 얼굴 검출 파라미터와 동일한 방식으로 존재 확률을 결정하는데 이용될 수 있음을 인식해야 한다. 또한, 몸체 검출 파라미터는 몸체가 검출된 확률을 나타내는 파라미터일 수 있다. 몸체 검출기에 이용되는 데이터는 깊이 이미지(depth images), 그레이스케일 이미지, RGB 이미지, 또는 전술한 형태의 이미지들 중 어떤 하나 단독 또는 다른 형태의 이미지와 결합한 것일 수 있다.In some embodiments, body detection parameters may be used. The body detection parameter may be similar to the face detection parameter but may be based on macro features of the human body rather than a smaller feature that can prove the face. For example, the body detection parameters may relate to arms, legs, torso, heads and the like. Since the body detection parameters are based on larger features, lower resolution cameras can be implemented than those used for face detection and a reasonably good result can be obtained like a body sensor. Further, in some embodiments, the camera can operate in low resolution mode when used to obtain body detection parameters and in high resolution mode when used for other purposes. In practice, the same camera can be used for the purposes of both body detection and face detection parameters. It should be appreciated that the body detection parameter can be used to determine the presence probability in the same manner as the face detection parameter. In addition, the body detection parameter may be a parameter representing a probability that the body is detected. The data used in the body detector may be a depth image, a grayscale image, an RGB image, or any one of the above-described types of images or combined with other types of images.
일부 실시예에서는, 많은 다른 센서 및 입력이 구현될 수 있다. 많은 다른 센서 및 입력은 존재 센서의 정확도 및 능력을 증대시켜 긍정 오류 및 부정 오류를 감소시키는데 도움이 될 수 있다. 일 실시예에서는, 베이지언 필터가 구현될 수 있다. 구체적으로, 확률 데이터 융합에 기초하여 반복적인 베이지언 추정이 수행될 수 있다. 도 12는 다중 동시적 비동기 센서를 이용하여 사용자가 존재할 확률을 결정하는 방법(350)을 예시하는 일례의 플로우차트이다. 플로우차트의 상부 부근에는 다중 센서(352)가 있다. 구체적으로, 이러한 센서는 비디오 카메라(354), 3-D 카메라(356), 마이크로폰(358), 및 키보드(360)를 포함할 수 있다. 이는 단지 일례에 불과하며 실제 구현에서는 더 많거나 더 적은, 뿐만 아니라 다른 센서가 이용될 수 있음을 인식해야 한다. 예를 들면, 터치 스크린, 트랙패드(trackpad) 및 마우스는 각각 이용될 수 있다. 각각의 센서들(352)은 동시에 동작할 수 있다.In some embodiments, many other sensors and inputs may be implemented. Many other sensors and inputs can help reduce false positives and false positives by increasing the accuracy and capabilities of existing sensors. In one embodiment, a Bayesian filter may be implemented. In particular, iterative Bayesian estimation may be performed based on probability data fusion. 12 is an example flowchart illustrating a
다른 센서들(352)은 각각 소정의 특징을 캡처하도록 구성될 수 있다. 즉, 각 센서는 몇몇 유용한 정보를 존재 판단에 제공하는 역량을 갖는다. 센서 정보를 결합하면 그 정보의 결합이 단독으로 이용될 때 각 센서로부터의 정보보다 더 유용하고 및/또는 더 정확하도록 정보의 시너지를 제공한다. 구체적으로, 센서(352)로부터의 데이터는 사용자가 존재할 가능성을 판단하는 것 외에 3-D 공간에서 사용자의 실제 위치 및 사용자의 속도를 결정하는데 이용될 수 있다. 획득된 데이터는 센서 정보의 시너지를 제공하도록 강인한 방식으로 모션 모델의 선험적(a priori) 예측치와 결합된다. 데이터 융합은 선택적으로 모델 예측치와 관측된 센서 데이터를 융합하여, 그 정보의 확실성(certainty)(품질)에 비례하여 추정된 상태(사용자의 위치 및 속도)에 대한 각 성분의 기여도에 가중치를 부여한다. 따라서, 만일 모션 모델이 정확하고 센서 데이터에 잡음이 있다면, 센서 데이터에 비해 모델 예측치에 더 큰 가중치가 부여될 수 있고, 그 반대의 경우도 가능하다. 이와 같은 모델 및 관측된 데이터의 결합은 시스템의 진화하는(evolving) 확률에 기초하여 지속적으로 적응된다(예를 들면, 가능성 모델(likelihood models)에 의해 산출된 가중치가 끊임없이 갱신된다).The
플로우차트에는 센서들에 의해 제공된 데이터로부터 추출될 수 있는 몇 가지 예시적인 특징들이 제공된다. 구체적으로, 비디오 카메라는 3-D 블랍(blobs), 얼굴 & 몸체 검출, 및 모션 벡터와 같은 특징들을 추출할 수 있다(블록 370). 3-D 블랍은 카메라의 시야 내에 있는 객체를 나타낼 수 있다. 3-D 카메라(356)는 얼굴 검출, 몸체 검출 및 모션 벡터 역시 추출하도록 구성될 수 있다(블록 372). 마이크로폰(358)은 오디오 가속(acceleration) 및 새것(novelty) 검출을 추출하도록 구성될 수 있다(블록 374). 키보드(360)는 키누름(keypress) 검출을 추출하도록 구성될 수 있다(블록 376). 오디오 가속 특징은 도플러 효과(dopler effect)를 이용하여 객체가 접근하는지 후퇴하는지를 판단할 수 있다. 또한, 새것 검출 특징은 사용자의 존재를 나타낼 수 있는 배경 잡음의 변화를 찾으려고 시도할 수 있다. 예를 들면, 음량(sound volume)의 증가는 사용자의 존재를 나타낼 수 있다.The flowchart is provided with some example features that can be extracted from the data provided by the sensors. In particular, the video camera may extract features such as 3-D blobs, face & body detection, and motion vectors (block 370). The 3-D blob can represent an object within the field of view of the camera. The 3-
일단 이러한 특징들이 추출되면, 관측 가능성이 판단된다(블록 178). 즉, 추출된 특징들 각각은 관심 객체(예를 들면, 사용자)가 존재할 가능성을 판단하는데 이용될 수 있다. 다음에, 관측 가능성은 상태 표현(state representation)을 갱신하는데 이용된다(블록 182). 상태 표현은 데이터의 융합을 이용한다. 상태 표현(블록 184)이 생성될 수 있다. 일 실시예에서, 상태 표현은 히스토그램 형태를 취할 수 있다. 다른 실시예는 파라메트릭 가우시안 분포(Parametric Gaussian distribution)(칼만(Kalman) 필터), 몬테 카를로(Monte-Carlo) 샘플 기반 분포(순차적인 몬테-카를로 방법/입자(Particle) 필터), 하이브리드 비동기적 다중 관측 입자 필터 등을 포함할 수 있다. 상태 표현은 사용자 존재 산출에 관한 정보를 제시할 수 있다. 예를 들면, 상태 표현은 사용자(들)의 3-D 위치 및 사용자(들)의 속도에 관한 정보를 제시할 수 있다. 모션 모델(블록 188)은 상태 표현에 이용된 정보를 입력할 수 있고 또한 상태 표현으로부터 정보를 수신할 수 있다. 모션 모델은 사용자의 움직임을 모델링하는 상태 진화 표현(state evolution expression)이다. 상태 표현은 무엇보다도 사용자 존재의 확률을 결정할 수 있는 통계 산출(블록 186)에 이용될 수 있다. 또한, 통계 산출은 사용자의 위치 및 추정치의 분산(variance)을 추정할 수 있다.Once these features are extracted, the observability is determined (block 178). That is, each of the extracted features may be used to determine the possibility that an object of interest (eg, a user) exists. The observability is then used to update the state representation (block 182). State representations use fusion of data. A state representation (block 184) may be generated. In one embodiment, the state representation may take the form of a histogram. Other embodiments include parametric Gaussian distribution (Kalman filter), Monte-Carlo sample based distribution (sequential Monte-Carlo method / particle filter), hybrid asynchronous multiplexing. Observation particle filters and the like. Status representations can present information about user presence calculations. For example, the status representation can present information regarding the 3-D location of the user (s) and the speed of the user (s). The motion model (block 188) can enter information used in the state representation and can also receive information from the state representation. The motion model is a state evolution expression that models the user's movement. The state representation can be used first of all in statistical calculations (block 186) that can determine the probability of a user's presence. In addition, the statistical calculation may estimate the variance of the user's location and estimate.
상태 표현은 또한 측정 모델에 정보를 제공하고(블록 180) 측정 모델은 관측 가능성 판단에 제공될 수 있다(블록 178). 측정 모델은 일반적으로 센서의 각 관측을 스케일링할 수 있다. 구체적으로, 센서의 상대적 관측에는 다소의 가중치가 부여될 수 있기 때문에, 더 큰 가중치를 부여할 가치가 있는 관측에 더 큰 가중치를 부여하도록 돕는 모델이 적용될 수 있다. 예를 들면, 키누름의 관측에는 3-D 블랍의 관측보다 더 큰 가중치가 부여될 수 있다. 또한, 만일 센서에 잡음이 있으면, 이들에는 더 작은 가중치가 부여될 수 있다. 각 측정 모델은 관측 가능성 단계에 이용되고, 다시 상태 표현을 갱신하는데 이용된다(블록 182).The state representation also provides information to the measurement model (block 180) and the measurement model can be provided to the observability judgment (block 178). The measurement model can generally scale each observation of the sensor. In particular, since the relative observation of the sensor may be given some weight, a model may be applied that helps to give greater weight to the observation that is worthy of greater weight. For example, observation of a keypress may be weighted more than observation of a 3-D blob. Also, if the sensors are noisy, they can be given a smaller weight. Each measurement model is used in the observability phase and again used to update the state representation (block 182).
존재 감지의 구현은 컴퓨팅 장치의 지능적인 동작을 증가시킬 수 있다. 즉, 컴퓨팅 장치는 사용자 상호작용을 더 잘 예측할 수 있고 사용자 경험을 향상시킬 수 있다. 예를 들면, 디스플레이는 사용자가 존재하는 동안에는 희미하지 않을 수 있고 사용자의 이탈시에는 멈출 수 있다. 또한, 디스플레이 출력은 장치로부터의 사용자의 거리에 기초하여 스케일링되고 및/또는 변경될 수 있다. 감지된 움직임을 모방하기 위해 화면 전체에 걸쳐 흔들리는 나무잎과 같은 다른 직관적이고 경험적인 특징은 사용자를 위한 지능적이고 상호작용적인 느낌에 추가될 수 있다.Implementation of presence detection may increase the intelligent operation of the computing device. In other words, the computing device can better predict user interaction and enhance the user experience. For example, the display may not be dimmed while the user is present and may freeze upon departure of the user. In addition, the display output may be scaled and / or changed based on the user's distance from the device. Other intuitive and empirical features, such as tree leaves swaying across the screen to mimic perceived movement, can add to the intelligent and interactive feel for the user.
전술한 바에는 사용자의 존재를 감지하는 예시적인 일부 실시예들이 설명되었다. 비록 전술한 설명이 특정 실시예를 제시하였지만, 당업자는 그 실시예의 정신 및 범주로부터 벗어남이 없이 형태 및 상세 내용에 대한 변경이 이루어질 수 있음을 인식할 것이다. 예를 들면, 존재 감지를 위한 알고리즘 중 하나 이상에 대한 변형예가 구현될 수 있다. 일례에서, 하드웨어 제한은 알고리즘의 변화를 추구할 수 있다. 따라서, 본 명세서에서 설명된 구체적인 실시예들은 예를 든 것이지 그 범주를 한정하려는 것이 아닌 것으로 이해되어야 한다.The foregoing has described some example embodiments of sensing the presence of a user. Although the foregoing description has set forth specific embodiments, those skilled in the art will recognize that changes may be made in form and detail without departing from the spirit and scope of the embodiments. For example, variations on one or more of the algorithms for presence detection may be implemented. In one example, hardware limitations may seek to change the algorithm. Accordingly, it is to be understood that the specific embodiments described herein are examples only and are not intended to limit the scope thereof.
Claims (28)
상기 컴퓨팅 장치를 전력 저감 상태에서 동작시키는 단계;
적어도 하나의 센서로부터 제1 데이터 집합을 수집하는 단계;
상기 제1 데이터 집합에 기초하여, 관심 객체(object of interest)가 상기 컴퓨팅 장치 부근에 있을 확률(probability)을 결정하는 단계;
상기 컴퓨팅 장치에 대한 상기 객체의 일부분에 기초하여 상기 컴퓨팅 장치에서의 상태 변경을 선택적으로 실행하는 단계;
상기 확률이 임계 레벨을 초과하는 경우, 적어도 하나의 제2 센서를 활성화하여 제2 데이터 집합을 수집하는 단계;
상기 제1 및 제2 데이터 집합에 기초하여, 상기 객체가 사람일 확률을 결정하는 단계;
상기 객체가 사람인 것으로 결정되는 경우,
상기 컴퓨팅 장치에 대한 상기 사람의 위치 및 거리 중 적어도 하나를 선택적으로 결정하는 단계; 및
상기 컴퓨팅 장치에 대한 상기 사람의 위치 및 존재(existence) 중 적어도 하나에 기초하여 상기 컴퓨팅 장치에서의 제2 상태 변경을 실행하는 단계
를 포함하는 방법.A method of operating a computing device to provide presence based functionality, the method comprising:
Operating the computing device in a power saving state;
Collecting a first data set from at least one sensor;
Based on the first data set, determining a probability that an object of interest is in proximity to the computing device;
Selectively executing a state change at the computing device based on the portion of the object relative to the computing device;
If the probability exceeds a threshold level, activating at least one second sensor to collect a second data set;
Determining a probability that the object is a person based on the first and second data sets;
If it is determined that the object is a person,
Selectively determining at least one of a location and a distance of the person with respect to the computing device; And
Executing a second state change at the computing device based on at least one of the location and presence of the person with respect to the computing device.
≪ / RTI >
디스플레이 배경/화면 세이버 시프트(background/screen saver shift)를 변경하는 것 - 상기 시프트는 사용자의 움직임(movement)에 대응함 -;
상기 디스플레이를 어웨이크 상태(awake state)가 되게 하는 것;
상기 장치를 어웨이크 상태가 되게 하는 것;
상기 장치를 어웨이크 상태가 되게 할 때 프로세스의 수를 저감시키는 것;
사람이 검출될 때 통상의 타임아웃들(usual timeouts)을 수정함으로써 상기 장치를 액티브 상태(active state)로 유지하는 것;
사람의 위치에 기초하여 오디오 스티어링(audio steering)을 하는 것;
사용자 위치에 기초하여 마이크로폰 스티어링(microphone steering)을 하는 것; 및
상기 사용자가 멀리 떨어져 있는 경우에 더 작은 사용자 옵션(options) 집합이 제공되도록 사용자 인터페이스를 수정하는 것
중 적어도 하나를 포함하는 방법.The method of claim 1, wherein changing the state,
Changing a display background / screen saver shift, the shift corresponding to a movement of the user;
Bringing the display into an awake state;
Placing the device in an awake state;
Reducing the number of processes when bringing the device into an awake state;
Maintaining the device in an active state by modifying conventional timeouts when a person is detected;
Making audio steering based on the position of the person;
Making microphone steering based on user location; And
Modifying the user interface to provide a smaller set of user options if the user is far away
≪ / RTI >
디스플레이 상태를 슬립 상태(sleep state)로 변경하거나, 또는
장치 상태를 슬립 상태로 변경하도록
구성되는 방법.The device of claim 5, wherein when the device is already awake and detects that the user moves away from the device,
Change the display state to a sleep state, or
To change the device state to sleep
How it is constructed.
이미지 센서를 이용하여 이미지를 캡처하는 단계;
프로세서를 이용하여, 상기 캡처된 이미지로부터, 인체 검출 파라미터 및 움직임 검출 파라미터 중 적어도 하나를 산출하는 단계;
상기 인체 검출 파라미터 및 상기 움직임 검출 파라미터 중 적어도 하나를 이용하여, 사용자가 존재할 확률에 대해 결정하는 단계;
상기 확률이 사용자의 존재를 나타내는 경우, 상기 장치로부터의 상기 사용자의 거리가 임계치보다 작을 가능성(likelihood)을 결정하도록 깊이 추정기(depth estimator)를 동작시키는 단계; 및
상기 가능성이 임계치를 초과하는 경우, 상기 장치의 상태를 변경하는 단계
를 포함하는 방법. A method of determining if a user is near a computing device,
Capturing an image using an image sensor;
Calculating at least one of a human body detection parameter and a motion detection parameter from the captured image using a processor;
Using at least one of the human body detection parameter and the motion detection parameter, determining a probability of the user's presence;
If the probability indicates the presence of a user, operating a depth estimator to determine a likelihood that the distance of the user from the device is less than a threshold; And
Changing the state of the device if the probability exceeds a threshold
≪ / RTI >
상기 피부색 검출 파라미터, 상기 얼굴 검출 파라미터, 상기 인체 검출 파라미터 및 상기 움직임 파라미터 각각을 산출하는 단계; 및
서로에 대해 상기 파라미터들에 가중치를 부여(weighting)하는 단계 - 상기 피부색 검출 파라미터에는 다른 파라미터들보다 작은 가중치가 부여됨 -
를 더 포함하는 방법.16. The method of claim 15,
Calculating each of the skin color detection parameter, the face detection parameter, the human body detection parameter, and the motion parameter; And
Weighting the parameters to each other, wherein the skin color detection parameter is weighted less than the other parameters.
≪ / RTI >
상기 이미지를 윈도우들(windows)로 분할하는 단계; 및
동심의(concentric) 상기 윈도우들에 대한 통계치(statistics)를 산출하는 단계 - 적어도 2개의 윈도우에서의 변경은 상기 이미지에서의 움직임을 나타냄 -
를 더 포함하는 방법.18. The method of claim 17,
Dividing the image into windows; And
Calculating statistics for the windows concentrically, wherein changes in at least two windows indicate movement in the image
≪ / RTI >
메인 프로세서; 및
상기 메인 프로세서에 연결된 존재 센서 시스템
을 포함하고,
상기 존재 센서 시스템은,
이미지를 캡처하도록 구성된 적어도 하나의 이미지 센서; 및
상기 이미지 센서에 연결된 프로세서 - 상기 프로세서는 상기 이미지를 처리하여, 인체 존재 파라미터, 움직임 파라미터, 피부색 파라미터 및 얼굴 검출 파라미터 중 적어도 하나를 산출함으로써 사용자가 상기 장치 부근에 위치할 확률을 결정하도록 구성됨 -
를 포함하고,
상기 확률이 가능성 임계치(likelihood threshold)를 초과하는 경우, 사용자가 존재하는 것으로 결정되었다는 표시가 상기 프로세서로부터 상기 메인 프로세서로 송신되고, 상기 메인 프로세서는 상기 표시에 기초하여 상기 컴퓨팅 시스템의 상태를 변경하는 컴퓨팅 장치.13. A computing device,
Main processor; And
Presence sensor system connected to the main processor
/ RTI >
The presence sensor system,
At least one image sensor configured to capture an image; And
A processor coupled to the image sensor, the processor configured to process the image to determine a probability that the user is in the vicinity of the device by calculating at least one of a human presence parameter, a motion parameter, a skin color parameter, and a face detection parameter;
Lt; / RTI >
If the probability exceeds a likelihood threshold, an indication is sent from the processor to the main processor that the user has been determined to be present, and the main processor changes the state of the computing system based on the indication. Computing device.
추가 이미지 센서;
키보드;
터치 스크린;
트랙패드;
마이크로폰; 및
마우스
중 하나를 포함하는 컴퓨팅 장치.The method of claim 20, wherein the at least one additional input device,
An additional image sensor;
keyboard;
touch screen;
Trackpads;
microphone; And
mouse
Computing device comprising one of the.
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161485610P | 2011-05-12 | 2011-05-12 | |
US61/485,610 | 2011-05-12 | ||
US201161504026P | 2011-07-01 | 2011-07-01 | |
US61/504,026 | 2011-07-01 | ||
US13/219,573 | 2011-08-26 | ||
US13/219,573 US20120287031A1 (en) | 2011-05-12 | 2011-08-26 | Presence sensing |
PCT/US2012/037644 WO2012155105A1 (en) | 2011-05-12 | 2012-05-11 | Presence sensing |
US13/469,996 US10372191B2 (en) | 2011-05-12 | 2012-05-11 | Presence sensing |
US13/469,996 | 2012-05-11 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020167003580A Division KR101660215B1 (en) | 2011-05-12 | 2012-05-11 | Presence sensing |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20140002034A true KR20140002034A (en) | 2014-01-07 |
Family
ID=48139276
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020167003580A KR101660215B1 (en) | 2011-05-12 | 2012-05-11 | Presence sensing |
KR1020137029536A KR20140002034A (en) | 2011-05-12 | 2012-05-11 | Presence sensing |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020167003580A KR101660215B1 (en) | 2011-05-12 | 2012-05-11 | Presence sensing |
Country Status (8)
Country | Link |
---|---|
US (1) | US10372191B2 (en) |
EP (1) | EP2712431A1 (en) |
JP (1) | JP5876142B2 (en) |
KR (2) | KR101660215B1 (en) |
CN (1) | CN103534664B (en) |
AU (1) | AU2012253292B2 (en) |
TW (1) | TWI506478B (en) |
WO (1) | WO2012155105A1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170033789A (en) * | 2015-09-17 | 2017-03-27 | 삼성전자주식회사 | Apparatus and method for controlling outbound communication |
KR20190049914A (en) * | 2015-06-18 | 2019-05-09 | 애플 인크. | Device, method, and graphical user interface for navigating media content |
US10963130B2 (en) | 2015-09-08 | 2021-03-30 | Apple Inc. | Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control |
US11922006B2 (en) | 2018-06-03 | 2024-03-05 | Apple Inc. | Media control for screensavers on an electronic device |
Families Citing this family (87)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8760517B2 (en) | 2010-09-27 | 2014-06-24 | Apple Inc. | Polarized images for security |
US8836777B2 (en) | 2011-02-25 | 2014-09-16 | DigitalOptics Corporation Europe Limited | Automatic detection of vertical gaze using an embedded imaging device |
US20130057573A1 (en) * | 2011-09-02 | 2013-03-07 | DigitalOptics Corporation Europe Limited | Smart Display with Dynamic Face-Based User Preference Settings |
US20120287031A1 (en) | 2011-05-12 | 2012-11-15 | Apple Inc. | Presence sensing |
US20130027548A1 (en) * | 2011-07-28 | 2013-01-31 | Apple Inc. | Depth perception device and system |
KR101870902B1 (en) * | 2011-12-12 | 2018-06-26 | 삼성전자주식회사 | Image processing apparatus and image processing method |
US20130194172A1 (en) * | 2012-01-30 | 2013-08-01 | Cellco Partnership D/B/A Verizon Wireless | Disabling automatic display shutoff function using face detection |
TWI536157B (en) * | 2012-02-23 | 2016-06-01 | 原相科技股份有限公司 | Electronicapparatus and computer-readable medium |
US9152204B2 (en) | 2012-07-17 | 2015-10-06 | Google Inc. | System wakeup based on changes in physical environment |
KR101938648B1 (en) * | 2012-10-23 | 2019-01-15 | 삼성전자주식회사 | Mobile system including image sensor, method of operating image sensor and method of operating mobile system |
JP6150503B2 (en) * | 2012-12-04 | 2017-06-21 | キヤノン株式会社 | Image processing apparatus and image processing apparatus control method |
US9256269B2 (en) * | 2013-02-20 | 2016-02-09 | Sony Computer Entertainment Inc. | Speech recognition system for performing analysis to a non-tactile inputs and generating confidence scores and based on the confidence scores transitioning the system from a first power state to a second power state |
US9128714B2 (en) | 2013-02-20 | 2015-09-08 | Logitech Europe S.A. | Method and system for detecting an object or body based on changes in signal phases |
US20140250413A1 (en) * | 2013-03-03 | 2014-09-04 | Microsoft Corporation | Enhanced presentation environments |
US9164609B2 (en) * | 2013-03-13 | 2015-10-20 | Amazon Technologies, Inc. | Managing sensory information of a user device |
US9977507B2 (en) * | 2013-03-14 | 2018-05-22 | Eyesight Mobile Technologies Ltd. | Systems and methods for proximity sensor and image sensor based gesture detection |
US11172126B2 (en) | 2013-03-15 | 2021-11-09 | Occipital, Inc. | Methods for reducing power consumption of a 3D image capture system |
US9285886B2 (en) | 2013-06-24 | 2016-03-15 | Sonos, Inc. | Intelligent amplifier activation |
US9942384B2 (en) | 2013-09-10 | 2018-04-10 | Google Technology Holdings LLC | Method and apparatus for device mode detection |
US9468026B2 (en) * | 2013-10-11 | 2016-10-11 | Logitech Europe S.A. | Method and system for shortening wireless pairing connection time by detecting an object or body |
US9733956B2 (en) * | 2013-12-24 | 2017-08-15 | Intel Corporation | Adjusting settings based on sensor data |
US9159294B2 (en) | 2014-01-31 | 2015-10-13 | Google Inc. | Buttonless display activation |
US9037199B1 (en) | 2014-02-13 | 2015-05-19 | Google Inc. | Detecting transitions between physical activity |
US8976063B1 (en) | 2014-04-29 | 2015-03-10 | Google Inc. | Automated detection of vehicle parking and location |
US9710629B2 (en) | 2014-05-13 | 2017-07-18 | Google Technology Holdings LLC | Electronic device with method for controlling access to same |
US20150347732A1 (en) * | 2014-05-29 | 2015-12-03 | Google Technology Holdings LLC | Electronic Device and Method for Controlling Access to Same |
US9575560B2 (en) | 2014-06-03 | 2017-02-21 | Google Inc. | Radar-based gesture-recognition through a wearable device |
US9671495B2 (en) * | 2014-06-11 | 2017-06-06 | Intersil Americas LLC | Systems and methods for optical proximity detection with multiple field of views |
US9778749B2 (en) | 2014-08-22 | 2017-10-03 | Google Inc. | Occluded gesture recognition |
US11169988B2 (en) | 2014-08-22 | 2021-11-09 | Google Llc | Radar recognition-aided search |
US9600080B2 (en) | 2014-10-02 | 2017-03-21 | Google Inc. | Non-line-of-sight radar-based gesture recognition |
US20160161339A1 (en) * | 2014-12-05 | 2016-06-09 | Intel Corporation | Human motion detection |
CN104636169B (en) * | 2015-02-15 | 2018-01-19 | 广东欧珀移动通信有限公司 | A kind of system wake-up method and device |
JP2016178348A (en) * | 2015-03-18 | 2016-10-06 | キヤノン株式会社 | Information processing device, control method therefor and program |
EP3289432B1 (en) | 2015-04-30 | 2019-06-12 | Google LLC | Rf-based micro-motion tracking for gesture tracking and recognition |
US10088908B1 (en) | 2015-05-27 | 2018-10-02 | Google Llc | Gesture detection and interactions |
US10614291B2 (en) * | 2015-06-08 | 2020-04-07 | Beijing Kuangshi Technology Co., Ltd. | Living body detection method, living body detection system and computer program product |
US10650162B2 (en) * | 2015-07-29 | 2020-05-12 | Simplifeye, Inc. | System and method for facilitating access to a database |
US10817065B1 (en) | 2015-10-06 | 2020-10-27 | Google Llc | Gesture recognition using multiple antenna |
EP3168711A1 (en) * | 2015-11-11 | 2017-05-17 | ams AG | Method, optical sensor arrangement and computer program product for passive optical motion detection |
CN105700668B (en) * | 2016-03-04 | 2019-05-28 | 华为技术有限公司 | The method and terminal device that the data of a kind of pair of touch screen acquisition are handled |
US10492302B2 (en) | 2016-05-03 | 2019-11-26 | Google Llc | Connecting an electronic component to an interactive textile |
WO2017200949A1 (en) | 2016-05-16 | 2017-11-23 | Google Llc | Interactive fabric |
US10302810B2 (en) | 2017-01-30 | 2019-05-28 | Microsoft Technology Licensing, Llc | Use of thermopiles to detect human location |
JP6426225B2 (en) * | 2017-04-05 | 2018-11-21 | シャープ株式会社 | Display device, television receiver, display control method, display control program, and recording medium |
US10914834B2 (en) | 2017-05-10 | 2021-02-09 | Google Llc | Low-power radar |
US11030289B2 (en) * | 2017-07-31 | 2021-06-08 | Stmicroelectronics, Inc. | Human presence detection |
CN109426157A (en) * | 2017-08-29 | 2019-03-05 | 合肥美的智能科技有限公司 | Control the method, apparatus and smart home device of display screen |
US10817594B2 (en) | 2017-09-28 | 2020-10-27 | Apple Inc. | Wearable electronic device having a light field camera usable to perform bioauthentication from a dorsal side of a forearm near a wrist |
US11437032B2 (en) | 2017-09-29 | 2022-09-06 | Shanghai Cambricon Information Technology Co., Ltd | Image processing apparatus and method |
CN108196663B (en) * | 2018-01-16 | 2020-04-17 | 维沃移动通信有限公司 | Face recognition method and mobile terminal |
EP3651079B1 (en) | 2018-02-13 | 2021-10-27 | Shanghai Cambricon Information Technology Co., Ltd | Computation device and method |
US11620130B2 (en) | 2018-02-13 | 2023-04-04 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11630666B2 (en) | 2018-02-13 | 2023-04-18 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
CN116991225A (en) * | 2018-02-14 | 2023-11-03 | 上海寒武纪信息科技有限公司 | Control device, method and equipment of processor |
EP3624020A4 (en) | 2018-05-18 | 2021-05-05 | Shanghai Cambricon Information Technology Co., Ltd | Computing method and related product |
US10719729B2 (en) | 2018-06-06 | 2020-07-21 | Perfect Corp. | Systems and methods for generating skin tone profiles |
JP7053891B2 (en) | 2018-06-27 | 2022-04-12 | シャンハイ カンブリコン インフォメーション テクノロジー カンパニー リミテッド | On-chip code breakpoint debugging method, on-chip processor and breakpoint-based chip debugging system |
EP3757896B1 (en) | 2018-08-28 | 2023-01-11 | Cambricon Technologies Corporation Limited | Method and device for pre-processing data in a neural network |
US11238089B1 (en) | 2018-08-29 | 2022-02-01 | Big Health Inc. | Dynamic customization of content programs |
WO2020062392A1 (en) | 2018-09-28 | 2020-04-02 | 上海寒武纪信息科技有限公司 | Signal processing device, signal processing method and related product |
DE102018124385B4 (en) | 2018-10-02 | 2023-02-16 | Infineon Technologies Ag | display control devices and methods |
WO2020166740A1 (en) * | 2019-02-13 | 2020-08-20 | 엘지전자 주식회사 | Mobile terminal |
US11620044B2 (en) | 2018-10-23 | 2023-04-04 | Lg Electronics Inc. | Mobile terminal |
US11500103B2 (en) | 2018-10-23 | 2022-11-15 | Lg Electronics Inc. | Mobile terminal |
US11580355B2 (en) * | 2018-10-25 | 2023-02-14 | Electronic Warfare Associates, Inc. | System-on-a-chip incorporating artificial neural network and general-purpose processor circuitry |
US10963745B2 (en) * | 2018-11-21 | 2021-03-30 | Intel Corporation | Real time adaptive training face detection for ultra low power always on architecture |
CN111383638A (en) | 2018-12-28 | 2020-07-07 | 上海寒武纪信息科技有限公司 | Signal processing device, signal processing method and related product |
WO2020166739A1 (en) * | 2019-02-13 | 2020-08-20 | 엘지전자 주식회사 | Mobile terminal |
US20200334522A1 (en) | 2019-04-18 | 2020-10-22 | Cambricon Technologies Corporation Limited | Data processing method and related products |
CN111832737B (en) | 2019-04-18 | 2024-01-09 | 中科寒武纪科技股份有限公司 | Data processing method and related product |
KR20210125577A (en) | 2019-05-20 | 2021-10-18 | 구글 엘엘씨 | A mobile device-based radar system to provide a multi-mode interface |
EP3770823A4 (en) | 2019-06-12 | 2021-01-27 | Shanghai Cambricon Information Technology Co., Ltd | Quantization parameter determination method for neural network, and related product |
US11676029B2 (en) | 2019-06-12 | 2023-06-13 | Shanghai Cambricon Information Technology Co., Ltd | Neural network quantization parameter determination method and related products |
JP7163513B2 (en) * | 2019-06-17 | 2022-10-31 | グーグル エルエルシー | A mobile device-based radar system for applying different power modes to multimode interfaces |
US12027100B2 (en) | 2019-07-26 | 2024-07-02 | Hewlett-Packard Development Company, L.P. | Setting adjustments based on radar |
EP4020321A4 (en) | 2019-08-23 | 2024-01-17 | Anhui Cambricon Information Technology Co., Ltd. | Data processing method, apparatus, computer device, and storage medium |
US11662695B2 (en) | 2019-10-11 | 2023-05-30 | Dell Products L.P. | Information handling system infrared proximity detection with distance reduction detection |
US11663343B2 (en) * | 2020-01-31 | 2023-05-30 | Dell Products L.P. | Information handling system adaptive user presence detection |
TWI736138B (en) * | 2020-02-17 | 2021-08-11 | 國立屏東大學 | System and method for learning traffic safety |
US11108957B1 (en) | 2020-06-17 | 2021-08-31 | Microsoft Technology Licensing, Llc | Low power operation of differential image sensor pixels |
WO2022015907A1 (en) | 2020-07-16 | 2022-01-20 | Invacare Corporation | System and method for concentrating gas |
CN116648278A (en) | 2020-07-16 | 2023-08-25 | 英瓦卡尔公司 | System and method for concentrating gas |
US11470252B2 (en) | 2020-09-14 | 2022-10-11 | Dell Products L.P. | Method to integrate time of flight proximity with camera based attention sensing and system therefor |
US20240121729A1 (en) * | 2021-03-01 | 2024-04-11 | Hewlett-Packard Development Company, L.P. | Transmit power controls |
EP4338128A4 (en) * | 2021-05-11 | 2024-07-31 | Objectvideo Labs Llc | Adjusting areas of interest for motion detection in camera scenes |
TWI804072B (en) * | 2021-11-26 | 2023-06-01 | 國立陽明交通大學 | Real-time object motion state recognition method using millimeter wave radar |
Family Cites Families (68)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2485773A1 (en) | 1980-06-24 | 1981-12-31 | Promocab | SYSTEM FOR PROTECTING A ZONE AGAINST HUMAN AGGRESSION |
US5537144A (en) | 1990-06-11 | 1996-07-16 | Revfo, Inc. | Electro-optical display system for visually displaying polarized spatially multiplexed images of 3-D objects for use in stereoscopically viewing the same with high image quality and resolution |
US5384588A (en) | 1991-05-13 | 1995-01-24 | Telerobotics International, Inc. | System for omindirectional image viewing at a remote location without the transmission of control signals to select viewing parameters |
CA2273891C (en) | 1996-12-04 | 2001-06-12 | Mitsuaki Oshima | Optical disc for high resolution and three-dimensional video recording, optical disc reproducing apparatus and optical disk recording apparatus |
US5903350A (en) * | 1997-02-03 | 1999-05-11 | Optiphase, Inc. | Demodulator and method useful for multiplexed optical sensors |
US6072894A (en) | 1997-10-17 | 2000-06-06 | Payne; John H. | Biometric face recognition for applicant screening |
US6146332A (en) | 1998-07-29 | 2000-11-14 | 3416704 Canada Inc. | Movement detector |
US6345086B1 (en) | 1999-09-14 | 2002-02-05 | Veeco Instruments Inc. | X-ray fluorescence system and method |
US7006236B2 (en) | 2002-05-22 | 2006-02-28 | Canesta, Inc. | Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices |
US6775397B1 (en) | 2000-02-24 | 2004-08-10 | Nokia Corporation | Method and apparatus for user recognition using CCD cameras |
US6802016B2 (en) * | 2001-02-08 | 2004-10-05 | Twinhead International Corp. | User proximity sensor and signal processing circuitry for determining whether to power a computer on or off |
US20020158750A1 (en) | 2001-04-30 | 2002-10-31 | Almalik Mansour Saleh | System, method and portable device for biometric identification |
JP2002350555A (en) | 2001-05-28 | 2002-12-04 | Yamaha Motor Co Ltd | Human presence detector |
US6832006B2 (en) * | 2001-07-23 | 2004-12-14 | Eastman Kodak Company | System and method for controlling image compression based on image emphasis |
US7136513B2 (en) | 2001-11-08 | 2006-11-14 | Pelco | Security identification system |
US7164781B2 (en) | 2002-03-04 | 2007-01-16 | Samsung Electronics Co., Ltd. | Method and apparatus of recognizing face using 2nd-order independent component analysis (ICA)/principal component analysis (PCA) |
US7369685B2 (en) | 2002-04-05 | 2008-05-06 | Identix Corporation | Vision-based operating method and system |
WO2003087326A2 (en) | 2002-04-10 | 2003-10-23 | Kendro Laboratory Products, Lp | Automated protein crystallization imaging |
US7151530B2 (en) | 2002-08-20 | 2006-12-19 | Canesta, Inc. | System and method for determining an input selected by a user through a virtual interface |
US7436569B2 (en) | 2003-03-12 | 2008-10-14 | General Photonics Corporation | Polarization measurement and self-calibration based on multiple tunable optical polarization rotators |
JP2004348349A (en) * | 2003-05-21 | 2004-12-09 | Masayuki Watabiki | Household appliance power controller |
WO2005026751A1 (en) * | 2003-09-05 | 2005-03-24 | Blake James N | Time division multiplexed optical measuring system |
US7117380B2 (en) * | 2003-09-30 | 2006-10-03 | International Business Machines Corporation | Apparatus, system, and method for autonomic power adjustment in an electronic device |
US7324824B2 (en) | 2003-12-09 | 2008-01-29 | Awarepoint Corporation | Wireless network monitoring system |
KR100580630B1 (en) | 2003-11-19 | 2006-05-16 | 삼성전자주식회사 | Apparatus and method for discriminating person using infrared rays |
US20050221791A1 (en) | 2004-04-05 | 2005-10-06 | Sony Ericsson Mobile Communications Ab | Sensor screen saver |
US8509472B2 (en) | 2004-06-24 | 2013-08-13 | Digimarc Corporation | Digital watermarking methods, programs and apparatus |
DE602004024322D1 (en) * | 2004-12-15 | 2010-01-07 | St Microelectronics Res & Dev | Device for the detection of computer users |
US9760214B2 (en) | 2005-02-23 | 2017-09-12 | Zienon, Llc | Method and apparatus for data entry input |
JP2006318364A (en) * | 2005-05-16 | 2006-11-24 | Funai Electric Co Ltd | Image processing device |
US7806604B2 (en) | 2005-10-20 | 2010-10-05 | Honeywell International Inc. | Face detection and tracking in a wide field of view |
KR100745981B1 (en) | 2006-01-13 | 2007-08-06 | 삼성전자주식회사 | Method and apparatus scalable face recognition based on complementary features |
JP2007300363A (en) | 2006-04-28 | 2007-11-15 | Omron Corp | Monitor, method, and program |
EP2030440B1 (en) | 2006-06-06 | 2011-05-04 | Koninklijke Philips Electronics N.V. | Scaling an image based on a motion vector |
JP2008160351A (en) | 2006-12-22 | 2008-07-10 | Nec Electronics Corp | Color motion detection circuit and y/c separation circuit |
US7840031B2 (en) | 2007-01-12 | 2010-11-23 | International Business Machines Corporation | Tracking a range of body movement based on 3D captured image streams of a user |
US7903166B2 (en) * | 2007-02-21 | 2011-03-08 | Sharp Laboratories Of America, Inc. | Methods and systems for display viewer motion compensation based on user image data |
US7929729B2 (en) * | 2007-04-02 | 2011-04-19 | Industrial Technology Research Institute | Image processing methods |
GB2453163B (en) | 2007-09-26 | 2011-06-29 | Christopher Douglas Blair | Three-dimensional imaging system |
EP2216999B1 (en) | 2007-12-07 | 2015-01-07 | Panasonic Corporation | Image processing device, image processing method, and imaging device |
US8600120B2 (en) * | 2008-01-03 | 2013-12-03 | Apple Inc. | Personal computing device control using face detection and recognition |
WO2009107935A2 (en) | 2008-02-28 | 2009-09-03 | Lg Electronics Inc. | Virtual optical input device with feedback and method of controlling the same |
US8107721B2 (en) | 2008-05-29 | 2012-01-31 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for determining poses of semi-specular objects |
US8035728B2 (en) | 2008-06-27 | 2011-10-11 | Aptina Imaging Corporation | Method and apparatus providing rule-based auto exposure technique preserving scene dynamic range |
US20100008900A1 (en) * | 2008-07-14 | 2010-01-14 | The University Of Hong Kong | Annexin ii compositions for treating or monitoring inflammation or immune-mediated disorders |
CN101639800A (en) | 2008-08-01 | 2010-02-03 | 华为技术有限公司 | Display method of screen and terminal |
WO2010021375A1 (en) | 2008-08-22 | 2010-02-25 | 国立大学法人大阪大学 | Process for production of protease, protease solution, and solution of pro-form of protease |
EP2315439B1 (en) * | 2008-08-22 | 2018-10-17 | Saturn Licensing LLC | Image display device, control method and computer program |
JP4636149B2 (en) | 2008-09-09 | 2011-02-23 | ソニー株式会社 | Image data analysis apparatus, image data analysis method, and program |
DE102008047413A1 (en) | 2008-09-16 | 2010-04-15 | Hella Kgaa Hueck & Co. | Motor vehicle object detection system has a stereo camera with two gray image sensors and a mono camera with a color image sensor |
KR20100073191A (en) | 2008-12-22 | 2010-07-01 | 한국전자통신연구원 | Method and apparatus for face liveness using range data |
WO2010073547A1 (en) | 2008-12-25 | 2010-07-01 | パナソニック株式会社 | Image processing device and pseudo-3d image creation device |
US8254699B1 (en) | 2009-02-02 | 2012-08-28 | Google Inc. | Automatic large scale video object recognition |
RU2534073C2 (en) * | 2009-02-20 | 2014-11-27 | Конинклейке Филипс Электроникс Н.В. | System, method and apparatus for causing device to enter active mode |
US9159208B2 (en) | 2009-03-31 | 2015-10-13 | Koninklijke Philips N.V. | Energy efficient cascade of sensors for automatic presence detection |
US20100253782A1 (en) | 2009-04-07 | 2010-10-07 | Latent Image Technology Ltd. | Device and method for automated verification of polarization-variant images |
CN102292760A (en) | 2009-05-07 | 2011-12-21 | 乔麦尔·卡瓦列罗 | System for controlling light emission of television |
US20100328074A1 (en) * | 2009-06-30 | 2010-12-30 | Johnson Erik J | Human presence detection techniques |
US8154615B2 (en) * | 2009-06-30 | 2012-04-10 | Eastman Kodak Company | Method and apparatus for image display control according to viewer factors and responses |
US8264536B2 (en) | 2009-08-25 | 2012-09-11 | Microsoft Corporation | Depth-sensitive imaging via polarization-state mapping |
KR101648353B1 (en) * | 2009-09-25 | 2016-08-17 | 삼성전자 주식회사 | Image sensor having depth sensor |
TWI413896B (en) * | 2010-04-21 | 2013-11-01 | Elitegroup Computer Sys Co Ltd | Energy saving methods for electronic devices |
US9357024B2 (en) * | 2010-08-05 | 2016-05-31 | Qualcomm Incorporated | Communication management utilizing destination device user presence probability |
US8760517B2 (en) | 2010-09-27 | 2014-06-24 | Apple Inc. | Polarized images for security |
US8912877B2 (en) * | 2011-02-18 | 2014-12-16 | Blackberry Limited | System and method for activating an electronic device using two or more sensors |
US20120287031A1 (en) | 2011-05-12 | 2012-11-15 | Apple Inc. | Presence sensing |
US20140196131A1 (en) | 2013-01-07 | 2014-07-10 | Salutron, Inc. | User authentication based on a wrist vein pattern |
JP6854612B2 (en) | 2015-10-06 | 2021-04-07 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Biological information measuring device, biometric information measuring method, and computer-readable recording medium |
-
2012
- 2012-05-11 KR KR1020167003580A patent/KR101660215B1/en active IP Right Grant
- 2012-05-11 CN CN201280023139.7A patent/CN103534664B/en not_active Expired - Fee Related
- 2012-05-11 EP EP12722259.4A patent/EP2712431A1/en not_active Withdrawn
- 2012-05-11 KR KR1020137029536A patent/KR20140002034A/en active Application Filing
- 2012-05-11 WO PCT/US2012/037644 patent/WO2012155105A1/en active Application Filing
- 2012-05-11 AU AU2012253292A patent/AU2012253292B2/en not_active Ceased
- 2012-05-11 US US13/469,996 patent/US10372191B2/en active Active
- 2012-05-11 JP JP2014510519A patent/JP5876142B2/en not_active Expired - Fee Related
- 2012-05-14 TW TW101117124A patent/TWI506478B/en not_active IP Right Cessation
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190049914A (en) * | 2015-06-18 | 2019-05-09 | 애플 인크. | Device, method, and graphical user interface for navigating media content |
KR20200091955A (en) * | 2015-06-18 | 2020-07-31 | 애플 인크. | Device, method, and graphical user interface for navigating media content |
KR20210049185A (en) * | 2015-06-18 | 2021-05-04 | 애플 인크. | Device, method, and graphical user interface for navigating media content |
US11816303B2 (en) | 2015-06-18 | 2023-11-14 | Apple Inc. | Device, method, and graphical user interface for navigating media content |
US10963130B2 (en) | 2015-09-08 | 2021-03-30 | Apple Inc. | Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control |
US11262890B2 (en) | 2015-09-08 | 2022-03-01 | Apple Inc. | Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control |
US11635876B2 (en) | 2015-09-08 | 2023-04-25 | Apple Inc. | Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control |
US11960707B2 (en) | 2015-09-08 | 2024-04-16 | Apple Inc. | Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control |
KR20170033789A (en) * | 2015-09-17 | 2017-03-27 | 삼성전자주식회사 | Apparatus and method for controlling outbound communication |
US11922006B2 (en) | 2018-06-03 | 2024-03-05 | Apple Inc. | Media control for screensavers on an electronic device |
Also Published As
Publication number | Publication date |
---|---|
KR20160023912A (en) | 2016-03-03 |
US20120287035A1 (en) | 2012-11-15 |
EP2712431A1 (en) | 2014-04-02 |
JP5876142B2 (en) | 2016-03-02 |
TWI506478B (en) | 2015-11-01 |
CN103534664A (en) | 2014-01-22 |
JP2014519091A (en) | 2014-08-07 |
AU2012253292B2 (en) | 2015-10-29 |
US10372191B2 (en) | 2019-08-06 |
KR101660215B1 (en) | 2016-09-26 |
TW201250519A (en) | 2012-12-16 |
WO2012155105A1 (en) | 2012-11-15 |
CN103534664B (en) | 2016-08-31 |
AU2012253292A1 (en) | 2013-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101660215B1 (en) | Presence sensing | |
US10402624B2 (en) | Presence sensing | |
US11561621B2 (en) | Multi media computing or entertainment system for responding to user presence and activity | |
EP2467805B1 (en) | Method and system for image analysis | |
US10055013B2 (en) | Dynamic object tracking for user interfaces | |
US9131150B1 (en) | Automatic exposure control and illumination for head tracking | |
CN110032966B (en) | Human body proximity detection method for intelligent service, intelligent service method and device | |
US20160210752A1 (en) | A method, apparatus, and system for displaying a graphical user interface | |
JP5127531B2 (en) | Image monitoring device | |
CA2714382A1 (en) | Image processing apparatus, image processing method, and air conditioning control apparatus | |
US9436870B1 (en) | Automatic camera selection for head tracking using exposure control | |
Chun et al. | Real-time smart lighting control using human motion tracking from depth camera | |
KR20240068636A (en) | Region of interest capture for electronic devices | |
CN112700568B (en) | Identity authentication method, equipment and computer readable storage medium | |
Nguyen et al. | Real-time human tracker based on location and motion recognition of user for smart home | |
Huang et al. | Accurate and robust moving-object segmentation for telepresence systems | |
Chiperi et al. | Human tracking using multiple views | |
CN117197181A (en) | Moving object detection method and circuit system | |
Özcan | Computer Vision Algorithms for Mobile Camera Applications | |
CN115731258A (en) | Moving object recognition method and shooting device | |
CN116092158A (en) | Face recognition method, device, equipment and storage medium | |
Nanda et al. | 3D head tracking and body lean estimation | |
Leone et al. | TOF Cameras in Ambient Assisted Living Applications | |
CHERN-HORNG | Feature-based detection and tracking of individuals in dense crowds |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E601 | Decision to refuse application | ||
A107 | Divisional application of patent |