KR20140002034A - Presence sensing - Google Patents

Presence sensing Download PDF

Info

Publication number
KR20140002034A
KR20140002034A KR1020137029536A KR20137029536A KR20140002034A KR 20140002034 A KR20140002034 A KR 20140002034A KR 1020137029536 A KR1020137029536 A KR 1020137029536A KR 20137029536 A KR20137029536 A KR 20137029536A KR 20140002034 A KR20140002034 A KR 20140002034A
Authority
KR
South Korea
Prior art keywords
sensor
user
computing device
state
image
Prior art date
Application number
KR1020137029536A
Other languages
Korean (ko)
Inventor
에드워드 알렌 발코
매튜 씨. 월든
루돌프 반 데르 멀리
윌리엄 매튜 비에타
마이라 엠. 해거티
알렉스 티. 넬슨
카렌 루이즈 젠킨스
스콧 토마스 스미스
잔 에릭 소렘
Original Assignee
애플 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/219,573 external-priority patent/US20120287031A1/en
Application filed by 애플 인크. filed Critical 애플 인크.
Publication of KR20140002034A publication Critical patent/KR20140002034A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Power Sources (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

일 실시예는 컴퓨팅 장치를 동작시켜 존재 기반 기능을 제공하는 방법의 형태를 취할 수 있다. 방법은 컴퓨팅 장치를 저감된 전력 상태에서 동작시키는 단계 및 적어도 하나의 센서로부터 제1 데이터 집합을 수집하는 단계를 포함할 수 있다. 제1 데이터 집합에 기초하여, 컴퓨팅 장치는 객체가 컴퓨팅 장치의 임계 거리 내에 있을 확률을 결정하고, 만일 객체가 임계 거리 내에 있으면, 장치는 적어도 하나의 제2 센서를 활성화하여 제2 데이터 집합을 수집한다. 제2 데이터 집합에 기초하여, 장치는 객체가 사람인지를 판단한다. 만일 객체가 사람이면, 장치는 컴퓨팅 장치에 대한 사람의 위치를 결정하고 컴퓨팅 장치에 대한 사람의 위치에 기초하여 컴퓨팅 장치의 상태 변경을 실행한다. 만일 객체가 사람이 아니면, 컴퓨팅 장치는 저감된 전력 상태로 계속 유지된다. One embodiment may take the form of a method of operating a computing device to provide presence-based functionality. The method may include operating the computing device in a reduced power state and collecting a first data set from at least one sensor. Based on the first data set, the computing device determines the probability that the object is within the threshold distance of the computing device, and if the object is within the threshold distance, the device activates at least one second sensor to collect the second data set. do. Based on the second data set, the device determines whether the object is a person. If the object is a person, the device determines a person's position relative to the computing device and executes a state change of the computing device based on the person's position relative to the computing device. If the object is not a human, the computing device remains in a reduced power state.

Figure P1020137029536
Figure P1020137029536

Description

존재 감지{PRESENCE SENSING}Presence detection {PRESENCE SENSING}

관련 출원에 대한 상호 참조Cross-reference to related application

본 특허 협력 조약 특허 출원은 2012년 5월 11일 "PRESENCE SENSING"이라는 명칭으로 출원된 미국 특허 출원 제13/469,996호의 우선권을 주장하며, 그 출원은 미국 특허상표국에서 대리인 사건 번호 P11391USX1(P222617.US.04)로 확인될 수 있고, 그 출원은 2011년 8월 26일 "PRESENCE SENSING"이라는 명칭으로 출원된 미국 특허 출원 제13/219,573호, 2011년 7월 1일 "PRESENCE SENSING"이라는 명칭으로 출원된 미국 가특허 출원 제61/504,026호, 및 2011년 5월 12일 "PRESENCE SENSING"이라는 명칭으로 출원된 미국 가특허 출원 제61/485,610호의 우선권을 주장하며, 그 출원 모두는 본 명세서에서 그 전체에서 그리고 모든 목적에서 참조 문헌으로 인용된다. This Patent Cooperation Treaty patent application claims the priority of US Patent Application No. 13 / 469,996, filed May 11, 2012, entitled "PRESENCE SENSING," which is filed with the Agent Patent No. P11391USX1 (P222617. US Pat. No. 13,219,573, filed Jul. 26, 2011, " PRESENCE SENSING ", filed Jul. 26, 2011, " PRESENCE SENSING. &Quot; US Patent Application No. 61 / 504,026, and US Provisional Patent Application No. 61 / 485,610, filed May 12, 2011, entitled " PRESENCE SENSING, " all of which are incorporated herein by reference. It is incorporated by reference in its entirety and for all purposes.

본 발명은 일반적으로 컴퓨팅 역량을 갖는 장치에 관한 것으로, 특히, 그 장치에 국부적으로 근접한 사용자의 존재(presence)를 감지하는 장치 및 시스템에 관한 것이다. TECHNICAL FIELD The present invention generally relates to devices with computing capabilities, and more particularly, to apparatus and systems for sensing the presence of a user locally in proximity to the device.

많은 컴퓨팅 장치는 사용자가 그러한 장치를 이용하지 않는 경우 소비 전력(power consumption)의 저감을 위해 의도된 전력 절감 기능/모드를 갖추고 있다. 종종, 이러한 전력 절감 기능은 사용자가 장치에 입력을 마지막으로 제공한 시점부터 설정된 시간량을 카운트 다운하는 타이머를 통해 구현된다. 예를 들면, 특정 장치는 사용자가 5분 동안 입력을 제공하지 않는 경우 슬립 모드(sleep mode), 또는 완전 동작 모드(fully operational mode)보다 전력 소모가 적은 다른 모드에 진입하도록 구성될 수 있다. Many computing devices have power saving features / modes intended to reduce power consumption when the user is not using such a device. Often, this power saving function is implemented through a timer that counts down the amount of time set since the user last provided input to the device. For example, a particular device may be configured to enter a sleep mode or other mode that consumes less power than a fully operational mode if the user does not provide input for five minutes.

그러나, 때때로, 장치는 사용자가 그 장치를 여전히 이용하는 중에도 전력 절감 기능/모드에 진입할 수 있다. 예를 들면, 사용자가 장치에서 콘텐츠를 읽거나, 영화를 보거나, 또는 음악을 듣는 중에 타이머에 설정된 시간 기간 내에 입력을 제공하지 못했다는 이유로 전력 절감 기능에 진입할 수 있다. 또한, 전력 절감 기능/모드에서의 복원은 시간이 걸릴 수 있고, 심지어 사용자가 크리덴셜 (credentials)을 입력해야 하고, 이는 일반적으로 사용자에게 성가신 일일 수 있다. However, from time to time, the device may enter a power saving function / mode while the user is still using the device. For example, a user may enter a power saving function because the user did not provide input within the time period set in the timer while reading content, watching a movie, or listening to music on the device. In addition, restoring from a power saving function / mode can be time consuming and even requires a user to enter credentials, which can generally be annoying for the user.

일 실시예는 컴퓨팅 장치를 동작시켜 존재 기반 기능(presence based functionality)을 제공하는 방법의 형태를 취할 수 있다. 방법은 컴퓨팅 장치를 저감된 전력 상태에서 동작시키고 제1 센서 또는 센서들의 그룹으로부터 제1 데이터 집합을 수집하는 단계를 포함할 수 있다. 제1 데이터 집합에 기초하여, 컴퓨팅 장치는 객체(object)가 장치에 근접하여 위치할 확률(probability) 또는 가능성(likelihood)을 결정한다. 추가로 또는 대안으로, 컴퓨팅 장치는, 예를 들면, 객체의 근접에 대해 경판정(hard decision)을 내릴 수 있고, 컴퓨팅 장치는 객체가 컴퓨팅 장치의 임계 거리 내에 있는지를 판단할 수 있고, 만일 객체가 임계 거리 내에 있고 및/또는 장치에 근접하여 위치할 가능성이 있으면, 장치는 제2 센서를 활성화하여 제2 데이터 집합을 수집한다. 제2 데이터 집합에 기초하여, 장치는 객체가 사람인지를 판단한다. 만일 객체가 사람이면, 장치는 컴퓨팅 장치에 대한 사람의 위치를 결정하고 컴퓨팅 장치에 대한 사람의 위치에 기초하여 컴퓨팅 장치의 상태 변경을 실행한다. 만일 객체가 사람이 아니면, 컴퓨팅 장치는 저감된 전력 상태로 계속 유지된다. One embodiment may take the form of a method of operating a computing device to provide presence based functionality. The method may include operating the computing device in a reduced power state and collecting a first data set from the first sensor or group of sensors. Based on the first data set, the computing device determines the probability or likelihood of the object being located in proximity to the device. Additionally or alternatively, the computing device may, for example, make a hard decision on proximity of the object, the computing device may determine whether the object is within a threshold distance of the computing device, and if the object Is within a threshold distance and / or is likely to be located in proximity to the device, the device activates the second sensor to collect a second data set. Based on the second data set, the device determines whether the object is a person. If the object is a person, the device determines a person's position relative to the computing device and executes a state change of the computing device based on the person's position relative to the computing device. If the object is not a human, the computing device remains in a reduced power state.

다른 실시예는 사용자가 컴퓨팅 장치에 근접한지를 판단하는 방법의 형태를 취할 수 있다. 방법은 이미지 센서를 이용하여 이미지를 캡처하는(capturing) 단계 및 캡처된 이미지로부터, 피부색(skin tone) 검출 파라미터, 얼굴(face) 검출 파라미터, 몸체(body) 검출 파라미터 및 움직임(movement) 검출 파라미터 중 적어도 하나를 산출하는 단계를 포함한다. 방법은 또한 피부색 검출 파라미터, 얼굴 검출 파라미터 및 움직임 검출 파라미터 중 적어도 하나를 이용하여 사용자가 존재하는지를 판단하는 단계, 및 만일 사용자가 존재한다고 판단하는 경우, 컴퓨팅 장치의 상태를 변경하는 단계를 포함한다.Another embodiment may take the form of a method for determining if a user is in proximity to a computing device. The method comprises capturing an image using an image sensor and from the captured image, a skin tone detection parameter, a face detection parameter, a body detection parameter and a movement detection parameter. Calculating at least one. The method also includes determining whether the user exists using at least one of a skin color detection parameter, a face detection parameter, and a motion detection parameter, and if the user determines that the user exists, changing the state of the computing device.

또 다른 실시예에서는, 메인 프로세서 및 메인 프로세서에 연결된 존재 센서를 갖는 컴퓨팅 시스템이 제공된다. 존재 센서는 이미지 센서, 및 이미지 센서에 연결되어 캡처된 이미지를 처리하여 사용자가 이미지 내에 존재하는지를 판단하도록 구성된 프로세서를 포함한다. 이미지 센서는 3-D 이미지, 깊이 이미지(depth images), RGB 이미지, 및/또는 그레이스케일(grayscale) 이미지 등을 캡처하도록 구성될 수 있으며 이미지 중 하나 이상은 확률 결정에 이용될 수 있다. 다른 입력 또한 존재 판단에 유용한 정보에 기여할 수 있다. 예를 들면, 키보드, 마우스 및/또는 마이크로폰과 같은 입력 장치는 각각 존재 확률 결정에 유용한 입력을 제공할 수 있다. 만일 프로세서에서 사용자가 이미지 내에 존재한다고 판단하면, 사용자가 존재하는 것으로 판단된 표시가 프로세서에서 메인 프로세서로 송신되고 메인 프로세서는 표시에 기초하여 컴퓨팅 시스템의 상태를 변경한다. In yet another embodiment, a computing system having a main processor and a presence sensor coupled to the main processor is provided. The presence sensor includes an image sensor and a processor coupled to the image sensor and configured to process the captured image to determine whether the user exists within the image. The image sensor may be configured to capture 3-D images, depth images, RGB images, and / or grayscale images, and one or more of the images may be used for probability determination. Other inputs may also contribute information that is useful for determining existence. For example, input devices such as keyboards, mice, and / or microphones may each provide input useful for determining presence probabilities. If the processor determines that the user exists in the image, an indication that the user is determined to be present is sent from the processor to the main processor and the main processor changes the state of the computing system based on the indication.

많은 실시예가 개시되지만, 당업자에게는 다음의 상세한 설명으로부터 본 발명의 또 다른 실시예도 명백해질 것이다. 이해되는 바와 같이, 이러한 실시예는 모두가 이러한 실시예의 정신 및 범주로부터 벗어남이 없이 다양한 양태로 변형이 가능하다. 따라서, 도면 및 상세한 설명은 본질적으로 제한 없이 예시적인 것으로 간주되어야 한다.While many embodiments are disclosed, other embodiments of the invention will become apparent to those skilled in the art from the following detailed description. As will be appreciated, these embodiments are capable of modification in various respects, all without departing from the spirit and scope of such embodiments. Accordingly, the drawings and detailed description are to be regarded as illustrative in nature and not as restrictive.

도 1은 사용자 존재 감지 기능을 갖는 일례의 컴퓨팅 장치를 예시한다.
도 2는 도 1의 컴퓨팅 장치의 블록도이다.
도 3은 관심 객체(an object of interest)가 존재 센서(presence sensor)로부터 다른 거리에 위치한 경우의 존재 감지 결과를 보여주는 플롯이다.
도 4는 관심 객체가 센서로부터 소정 각도 오프셋된 경우의 존재 감지 결과를 보여주는 다른 플롯이다.
도 5는 단계적(tiered) 존재 센서 시스템을 동작시키는 일례의 방법을 예시하는 플로우차트이다.
도 6은 사용자의 존재를 판단하는 방법을 예시하는 플로우차트이다.
도 7은 존재 감지에 사용하기 위한 피부색(skin tone) 검출 루틴을 예시하는 플로우차트이다.
도 8은 존재 감지에 사용하기 위한 얼굴 인식(face recognition) 루틴을 예시하는 플로우차트이다.
도 9는 존재 감지에 사용하기 위한 모션(motion) 검출 루틴을 예시하는 플로우차트이다.
도 10은 단일 프레임 모션 검출을 위해 윈도우(window)로 분할된 프레임을 예시한다.
도 11은 단일 프레임 모션 검출을 위한 일례의 방법을 예시하는 플로우차트이다.
도 12는 사용자가 장치에 근접하여 위치할 확률(probability)을 결정하는데 이용되는 다중 동시적 비동기(concurrent asynchronous) 센서용 일례의 방법을 예시하는 플로우차트이다.
1 illustrates an example computing device having a user presence sensing function.
2 is a block diagram of the computing device of FIG. 1.
FIG. 3 is a plot showing the presence detection result when an object of interest is located at a different distance from a presence sensor.
4 is another plot showing the presence detection result when the object of interest is offset by a certain angle from the sensor.
5 is a flowchart illustrating an example method of operating a tiered presence sensor system.
6 is a flowchart illustrating a method of determining the presence of a user.
7 is a flowchart illustrating a skin tone detection routine for use in presence detection.
8 is a flowchart illustrating a face recognition routine for use in presence detection.
9 is a flowchart illustrating a motion detection routine for use in presence detection.
10 illustrates a frame divided into windows for single frame motion detection.
11 is a flowchart illustrating an example method for single frame motion detection.
12 is a flowchart illustrating an example method for multiple concurrent asynchronous sensors used to determine the probability that a user will be located in proximity to the device.

일반적으로, 본 명세서에서 설명된 실시예들은 사용자 존재 판단(user presence determination) 및 그와 관련된 컴퓨팅 장치의 기능과 관련된다. 그러한 기능을 갖춘 컴퓨팅 장치와 상호작용하는 사용자의 경험을 향상시킬 수 있음을 인식해야 한다. 또한, 일부 실시예에서는, 본 명세서에서 설명된 실시예의 구현을 통한 전력 절감 및/또는 전력 효율이 실현될 수 있다. 본 명세서에서 사용된 바와 같은, "사용자"는 일반적으로 사람 또는 사람들을 지칭할 수 있다. 그러나, 일부 실시예에서, 시스템은 사람 이외의 객체(object)를 감지하고 그 객체의 존재에 기초하여 상태(state)를 변경하도록 구성될 수 있다. In general, the embodiments described herein relate to user presence determination and related computing device functionality. It should be appreciated that the user's experience of interacting with such functional computing devices may be enhanced. In addition, in some embodiments, power savings and / or power efficiency may be realized through implementation of the embodiments described herein. As used herein, a "user" can generally refer to a person or people. However, in some embodiments, the system can be configured to detect an object other than a person and change the state based on the presence of the object.

일 실시예는 사용자의 존재 및/또는 부재를 감지하고 사용자의 존재 및/또는 부재에 기초하여 동작 상태를 제공하도록 구성된 컴퓨팅 장치의 형태를 취할 수 있다. 다른 실시예에서, 컴퓨팅 장치는 사용자가 존재하거나 존재하지 않을 가능성(likelihood) 또는 확률 점수(probability score)를 산출하고 제공할 수 있다. 일부 실시예에서는, 존재 판단을 내릴 때 복수의 파라미터들이 함께 결정되고, 가중화(weighted)되어, 이용될 수 있다. 이러한 가중 검출은 더 현명한(more informed) 고레벨 의사 결정(decision making) 알고리즘에, 또는 여러 센서로부터의 데이터를 융합(fusing)할 때 이용될 수 있다.One embodiment may take the form of a computing device configured to sense the presence and / or absence of a user and provide an operating state based on the presence and / or absence of the user. In another embodiment, the computing device may calculate and provide a likelihood or probability score that the user may or may not be present. In some embodiments, a plurality of parameters may be determined together, weighted, and used when making a presence determination. Such weighted detection can be used in a more informed high level decision making algorithm, or when fusing data from several sensors.

예를 들면, 일부 실시예에서, 컴퓨팅 장치는 사용자가 컴퓨팅 장치에 도달하거나 그 컴퓨팅 장치에 근접하게 되는 시간 및/또는 사용자가 존재할 확률을 센서 입력에 기초하여 결정하도록 구성될 수 있다. 확률을 산출함에 따라, 긍정 오류(false positives) 및/또는 부정 오류(false negatives)가 줄어들 수 있다. 원하는 성능을 성취하는 베이지언(Bayesian) 최적 임계치가 구현될 수 있다. 즉, 트리거링(triggering) 임계치는 허용(acceptable) 부정 오류 횟수에 대한 허용 긍정 오류 횟수 사이에 원하는 균형을 이루는 방식으로 설정될 수 있다. 사용자가 존재할 긍정 판단에 따라 또는 사용자가 존재할 임계 확률(threshold probability)을 성취할 때, 장치는 파워 업(power up)하고, 슬립 모드(sleep mode)를 빠져나가고, 및/또는 사용자에게 어떤 피드백을 제공할 수 있다. For example, in some embodiments, the computing device may be configured to determine based on sensor input the time at which the user reaches or is in proximity to the computing device and / or the probability that the user is present. As the probability is calculated, false positives and / or false negatives may be reduced. Bayesian optimal thresholds may be implemented that achieve the desired performance. That is, the triggering threshold may be set in such a way as to achieve a desired balance between the number of acceptable false positives to the number of acceptable false negatives. Depending on the affirmation that the user is present or when achieving a threshold probability that the user is present, the device powers up, exits sleep mode, and / or provides some feedback to the user. Can provide.

일반적으로, 존재 감지 시스템의 한가지 목적은 기술을 더 지능적으로 이용하는 것일 수 있다. 예를 들면, 일부 실시예에서, 시스템 어웨이크(awake)는 사용자가 접근하는 것으로 판단되면 시작할 수 있다. 시스템 어웨이크는 시스템이 통상의 파워 업 시퀀스(power up sequence)보다 빨리 동작 모드가 되도록 축소된 집합의 루틴(routines)을 포함할 수 있다. 예를 들면, 시스템은 축소된 집합의 루틴으로 인해 6 내지 8초 대신 1/2초 내에 파워 업할 수 있다. 일부 실시예에서, 컴퓨팅 장치는 사용자가 그 장치에서 멀어지거나 그 장치의 근접에서 벗어나는 시간을 결정하도록 구성될 수 있다. 이에 응답하여, 장치는 디스플레이 슬립 모드, 시스템 슬립 모드, 화면 세이버(screen saver)의 활성화 등과 같은 전력 절감 모드(power saving mode)에 진입할 수 있다. 또한, 시스템은 사용자의 존재를 감지함에 기초하여 컴퓨터 웨이크 업(wake up) 시간을 빠르게 하기 위해 부분적으로 슬립 모드를 빠져나갈 수 있다. 또 다른 실시예에서, 디스플레이된 콘텐츠는 사용자의 상대적 위치에 기초할 수 있다. 예를 들면, 만일 사용자가 장치에 가까워지면, 장치는 제품 상세(product details)를 제공할 수 있고, 반면에 사용자가 멀어지면 장치는 아무것도 디스플레이하지 않을 수 있다. In general, one purpose of a presence sensing system may be to use technology more intelligently. For example, in some embodiments, system awake may begin if it is determined that the user is approaching. System awake may include a reduced set of routines that allow the system to enter an operating mode faster than a normal power up sequence. For example, the system can power up in 1/2 seconds instead of 6-8 seconds due to the reduced set of routines. In some embodiments, the computing device may be configured to determine a time for the user to move away from or in proximity of the device. In response, the device may enter a power saving mode, such as display sleep mode, system sleep mode, activation of a screen saver, and the like. The system can also partially exit sleep mode to speed up the computer wake up time based on sensing the presence of the user. In yet another embodiment, the displayed content may be based on the relative location of the user. For example, if the user is close to the device, the device may provide product details, while if the user is far away the device may display nothing.

일부 실시예에서, 장치는 또한 사용자의 움직임(movements)(예컨대, 위치 및 속도)을 추적하고, 소정의 움직임에 응답하여 피드백(feedback)을 제공하고 및/또는 동작 상태에 진입하거나 동작 상태를 변경하도록 구성될 수 있다. 예를 들면, 장치로의 움직임은 사용자 인터페이스에서 더 많은 옵션/메뉴를 제공하는 것과 같은 더 많은 기능을 활성화할 수 있고, 반면에 장치에서 멀어지는 움직임은 메뉴/옵션의 수를 감소시키고 및/또는 디스플레이되는 옵션의 크기를 감소시키거나 증가시키는 것과 같이 사용자에게 이용가능한 기능의 수를 감소시킬 수 있다. 추가로 또는 대안으로, 디스플레이는 장치로의 움직임 또는 장치에서 멀어지는 움직임에 기초하여 줌인(zoom in) 또는 줌아웃(zoom out)할 수 있다. 일부 실시예에서, 사용자의 측면 방향(lateral)(예를 들면, 왼쪽에서 오른쪽으로) 움직임은 장치에 디스플레이된 배경 및/또는 화면 세이버 이미지를 변경시킬 수 있다. 또한, 이미지의 변경은 일반적으로 감지된 모션에 상응할 수 있다. 예를 들면, 왼쪽에서 오른쪽으로의 움직임은 왼쪽에서 오른쪽으로의 모션에서 이미지를 다른 이미지로 대체되게 할 수 있다. 대안으로, 사용자가 왼쪽에서 오른쪽으로 움직임에 따라, 나무잎(leaves) 또는 커튼(drapes)은 그러한 움직임을 반영할 수 있다. 즉, 나무잎은 왼쪽에서 오른쪽으로 날아가 떨어질 수 있거나, 또는 커튼은 검출된 움직임에 상응하는 방식으로 흔들릴 수 있다. In some embodiments, the device also tracks movements (eg, position and velocity) of the user, provides feedback in response to certain movements and / or enters or changes operating states. It can be configured to. For example, movement to the device may activate more features, such as providing more options / menus in the user interface, while movement away from the device reduces the number of menus / options and / or displays It is possible to reduce the number of functions available to the user, such as reducing or increasing the size of the options that are made. Additionally or alternatively, the display can zoom in or zoom out based on movement to or away from the device. In some embodiments, the lateral (eg, left to right) movement of the user may change the background and / or screensaver images displayed on the device. Also, the change in image may generally correspond to the sensed motion. For example, movement from left to right may cause an image to be replaced with another image in motion from left to right. Alternatively, as the user moves from left to right, leaves or curtains may reflect that movement. That is, the leaves may fly from left to right, or the curtain may sway in a manner corresponding to the detected movement.

또한, 일부 실시예에서, 사용자의 존재는 장치에 대한 사용자의 위치와 함께 소정의 기능을 제공하는데 이용될 수 있다. 일부 실시예에서, 입력 및/또는 출력은 위치에 기초할 수 있다. 예를 들면, 장치는 사용자의 위치를 향해 오디오 스테레오 패닝(panning)(예를 들면, 오디오 스티어링(steering))을 제공하도록 구성될 수 있다. 또한, 일부 실시예에서는, 사용자의 위치에 기초하여 마이크로폰 스티어링이 구현될 수 있다. In addition, in some embodiments, the presence of the user may be used to provide certain functionality along with the user's location with respect to the device. In some embodiments, inputs and / or outputs may be based on location. For example, the device may be configured to provide audio stereo panning (eg, audio steering) towards the user's location. Also, in some embodiments, microphone steering may be implemented based on the location of the user.

또한, 복수의 센서 및/또는 동작 상태가 단계적인(tiered) 방식으로 구현될 수 있다. 즉, 제1 동작 모드에서는 제1 센서가 동작할 수 있다. 움직임 또는 사용자 존재를 검출하면 제2 센서 등이 활성화될 수 있다. 일부 실시예에서, 제2 센서의 활성화는 장치가 제2 동작 모드에 진입하는 것과 동시에 일어날 수 있고, 반면에 다른 실시예에서는 단지 제2 센서에서 검색된 데이터에 기초하여 또는 제1 센서로부터의 데이터와 결합하여 판단이 이루어질 때까지 제2 동작 모드에 진입하지 않을 수 있다. In addition, multiple sensors and / or operating states may be implemented in a tiered manner. That is, the first sensor may operate in the first operation mode. The second sensor or the like may be activated when detecting the movement or the presence of the user. In some embodiments, activation of the second sensor may occur simultaneously with the device entering the second mode of operation, while in other embodiments only based on data retrieved from the second sensor or with data from the first sensor. In combination, the second operation mode may not be entered until a determination is made.

존재 판단은 하나 이상의 센서에 의해 수집된 데이터에 의해 이루어질 수 있다. 일 실시예에서는, 하나 이상의 센서로부터의 데이터를 이용하여 사용자가 존재하는지를 판단한다. 예를 들면, 신경망(neural net), 지원 벡터 머신(support vector machine) 또는 다른 적절한 분류기 또는 확률 결정기(probabilistic determiner)가 구현될 수 있다. 어떤 경우에는, 큰 데이터 포인트(data points) 집합이 수집되고, 분류되고 저장되어 존재 판단에 이용될 수 있다. 또한, 미래의 판단을 위해 나중에 얻은 데이터도 추가되고 이용될 수 있다. Presence determination can be made by data collected by one or more sensors. In one embodiment, data from one or more sensors is used to determine if a user is present. For example, neural nets, support vector machines or other suitable classifiers or probabilistic determiners can be implemented. In some cases, large sets of data points can be collected, sorted and stored for use in presence determination. In addition, data obtained later may be added and used for future judgment.

도면으로 가서 먼저 도 1을 참조하면, 컴퓨팅 장치(100)가 예시되어 있다. 컴퓨팅 장치(100)는 일반적으로 존재 감지에 이용될 수 있는 하나 이상의 센서(102)를 포함할 수 있다. 예를 들면, 존재 감지에는 하나 이상의 카메라 및/또는 광센서가 이용될 수 있다. 비록 본 명세서에서는 존재 감지와 관련하여 일반적으로 카메라 및 광센서가 설명되지만, 초음파 센서, 마이크로파 레이더(RADAR) 등과 같은 다른 센서 형태도 역시 구현될 수 있음을 인식해야 한다. 이러한 기술 중 일부는 인간이 장치에 근접한 경우 생리적(physiological) 파라미터를 결정하는데 이용될 수 있다. 예를 들면, 레이더는 방(room)에서 심장박동(heartbeat)을 검출하고 및/또는 그 위치를 찾는데 이용될 수 있다. 또한, 다양한 기술 및 광 파장도 구현될 수 있다. 예를 들면, 근접은 깊이 센서(depth sensors)를 이용하여 결정될 수 있다. 일부의 예시적인 깊이 센서 기술은 초점맞춤(focusing) 및 초점이탈(defocusing), 액티브(active) IR 반사 전력, 액티브 IR 구조화된 광; 액티브 IR 비행 시간(time of flight)(2D+깊이), 액티브 IR 비행 시간(단일 픽셀 센서), 패시브(passive) IR(모션 검출기), 패시브 IR 열 이미징(2D), 스테레오 비전(stereo vision), 편광(polarization) 기술 등을 포함할 수 있다. 일부 실시예에서, 액티브 IR은 다중 특정 IR 파장을 이용하여 인간의 피부 반사율(reflectivity) 또는 호흡 중의 이산화 탄소(carbon dioxide)의 배출과 같은 소정의 고유 물질 특성을 검출할 수 있다. 그와 같이, 본 명세서에서 기술된 특정 실시예는 단지 예로서 제시되며 한정되지 않는다.Turning to the drawings and referring first to FIG. 1, a computing device 100 is illustrated. Computing device 100 may generally include one or more sensors 102 that may be used for presence detection. For example, one or more cameras and / or photosensors may be used for presence detection. Although cameras and light sensors are generally described herein with respect to presence detection, it should be appreciated that other sensor types, such as ultrasonic sensors, microwave radar (RADAR), and the like, may also be implemented. Some of these techniques can be used to determine physiological parameters when the human is in proximity to the device. For example, radar can be used to detect and / or locate a heartbeat in a room. In addition, various techniques and light wavelengths may be implemented. For example, proximity may be determined using depth sensors. Some example depth sensor technologies include focusing and defocusing, active IR reflected power, active IR structured light; Active IR time of flight (2D + depth), active IR flight time (single pixel sensor), passive IR (motion detector), passive IR thermal imaging (2D), stereo vision, polarization (polarization) technology and the like. In some embodiments, active IR can detect certain intrinsic material properties such as human skin reflectivity or the release of carbon dioxide in the breath using multiple specific IR wavelengths. As such, the specific embodiments described herein are presented by way of example only and not limitation.

도 2는 도 1의 컴퓨팅 장치(100)의 블록도이다. 일반적으로, 컴퓨팅 장치는 다른 컴포넌트(예를 들면, 센서)가 연결된 마이크로프로세서/마이크로컨트롤러(104)를 포함한다. 마이크로프로세서/마이크로컨트롤러(104)는 하나 이상의 저전력 마이크로컨트롤러 그리고 센서(예를 들면, 카메라, 근접 등)에서 오는 데이터뿐 아니라, 고레벨 사용자 존재 또는 비존재 의사 결정을 위한 데이터 융합점으로 구현될 수 있다. 일부 실시예에서, 사용자 존재 판단 및 그와 관련된 데이터는 외면화되고(externalized) 장치의 메인 동작과 분리될 수 있다. 즉, 사용자 존재 시스템은 존재 감지 데이터를 메인 컴퓨터 처리 유닛(CPU)(105), 오퍼레이팅 시스템 등과 분리하여 보안 및 사생활을 제공한다. 2 is a block diagram of the computing device 100 of FIG. 1. In general, a computing device includes a microprocessor / microcontroller 104 to which other components (eg, sensors) are connected. The microprocessor / microcontroller 104 may be implemented with data from one or more low power microcontrollers and sensors (eg, cameras, proximity, etc.), as well as data fusion points for high level user presence or non-existent decision making. . In some embodiments, the user presence determination and associated data may be externalized and separated from the main operation of the device. That is, the user presence system separates presence sensing data from the main computer processing unit (CPU) 105, operating system, and the like to provide security and privacy.

다양한 적절한 센서는 마이크로프로세서/마이크로컨트롤러(104)에 입력/데이터를 제공할 수 있다. 구체적으로, 카메라 기반 센서(106)는 마이크로프로세서(104)와 통신가능하게 연결될 수 있다. 어떤 적절한 카메라 기반 센서도 구현될 수 있고 다양한 다른 기술도 이용될 수 있다. 예를 들면, ST 마이크로일렉트로닉스(ST Microelectronics)에서 입수가능한 카메라 센서가 이용될 수 있다. 이 카메라 기반 센서는 통합 프로세서(110)에 얼굴 검출 기능을 제공하는 풀(full) 이미지 카메라(108)를 포함할 수 있다. 즉, 이 센서는 임베디드 마이크로프로세서(110)를 구비할 수 있고 얼굴 위치 및 거리를 추정할 수 있다. 또한, 이 센서는 객체의 거리를 결정하는데 이용될 수 있다. 카메라(108)는 또한 AGC 시스템으로부터 모션 검출에 유용할 수 있는 윈도우 히스트그램(windowed histogram) 정보를 제공한다. Various suitable sensors may provide input / data to the microprocessor / microcontroller 104. In particular, the camera based sensor 106 may be communicatively coupled with the microprocessor 104. Any suitable camera based sensor may be implemented and various other techniques may be used. For example, camera sensors available from ST Microelectronics may be used. The camera-based sensor may include a full image camera 108 that provides face detection functionality to the integrated processor 110. That is, the sensor may have an embedded microprocessor 110 and may estimate face position and distance. This sensor can also be used to determine the distance of an object. Camera 108 also provides windowed histogram information that may be useful for motion detection from an AGC system.

또한, 카메라(108)는 120도까지 또는 그보다 큰 수평 시야(a horizontal field of view) 및 120도까지 또는 그보다 큰 수직 시야(a vertical field of view)를 가질 수 있다. 일부 실시예에서는, 각도가 120도보다 큰 시야를 얻기 위해 어안 렌즈(fish eye lenses)와 같은 렌즈가 이용될 수 있다. 일 실시예에서, 수평 시야는 75-95도 사이(예를 들면, 대략 85도)에 있을 수 있고 수직 시야는 40-80도 사이(예를 들면, 대략 60도)에 있을 수 있다. 얼굴은 20피트 이상까지의 거리에서 검출될 수 있다. 일 실시예에서, 얼굴은 대략 6-14피트에서 검출될 수 있다. 얼굴 위치 데이터는 대략 0.6-1Hz 사이에서 이용가능할 수 있고 AGC 데이터는 풀 프레임 레이트(full frame rate), 대략 10-30Hz에서 이용가능할 수 있다. The camera 108 may also have a horizontal field of view up to or greater than 120 degrees and a vertical field of view up to or greater than 120 degrees. In some embodiments, lenses such as fish eye lenses may be used to obtain a field of view with an angle greater than 120 degrees. In one embodiment, the horizontal field of view may be between 75-95 degrees (eg, approximately 85 degrees) and the vertical field of view may be between 40-80 degrees (eg, approximately 60 degrees). Faces can be detected at distances up to 20 feet or more. In one embodiment, the face can be detected at approximately 6-14 feet. Facial position data may be available between approximately 0.6-1 Hz and AGC data may be available at full frame rate, approximately 10-30 Hz.

일반적으로, 카메라 기반 센서(106)에 의해 캡처된 이미지 및 관련 원시(raw) 정보는 카메라 기반 센서의 외부에서 이용가능하지 않을 수 있다. 오히려, 얼굴이 센서의 기능적 범위 내에서 검출되는지에 대한 정보, 그 범위 내에서 얼굴의 위치 및/또는 얼굴의 움직임이 제공될 수 있다. 일부 실시예에서, 카메라 센서는 사용자의 존재 여부를 나타내는 이진(binary) 출력을 제공할 수 있다. 또한, 만일 사용자가 존재하면, 카메라 기반 센서에 의해, 예를 들면 x-y 좌표에서 장치에 대한 사용자의 위치가 출력될 수 있다. 또한, 이 센서는 무엇보다도 존재하는 얼굴의 수를 나타내도록(예를 들면, 존재하는 사람의 수를 나타내도록) 구성될 수 있다. In general, images captured by camera-based sensor 106 and related raw information may not be available outside of the camera-based sensor. Rather, information about whether a face is detected within the functional range of the sensor, the position of the face and / or the movement of the face within that range may be provided. In some embodiments, the camera sensor may provide a binary output that indicates the presence of a user. In addition, if the user is present, the user's position relative to the device may be output by the camera-based sensor, eg in x-y coordinates. The sensor can also be configured to indicate, among other things, the number of faces present (eg, the number of people present).

일부 실시예에서, 카메라 기반 센서(106)는 장치에 대해 원하는 동작 특성을 얻도록 다른 센서와 독립적으로 구현될 수 있다. 일부 실시예에서, 카메라 기반 센서는 단계적인 방식으로 동작하고 출력을 제공하도록 구성될 수 있다. 예를 들면, 제1 상태에서 카메라 기반 센서는 사용자의 존재를 감지할 수 있다. 만일 사용자가 존재하면, 카메라 기반 센서는 제2 상태에 진입하고 사람들이 얼마나 존재하는지를 판단할 수 있다. 그 후, 또는 동시에, 카메라 기반 센서는 존재하는 사람들의 위치를 결정할 수 있다. 카메라가 동작 상태에서 이동함에 따라, 카메라는 아래에서 더 구체적으로 설명되는 바와 같이 장치에 의해 그 장치의 상태를 변경하는데 이용될 수 있는 출력을 제공한다. In some embodiments, camera-based sensor 106 may be implemented independent of other sensors to achieve desired operating characteristics for the device. In some embodiments, the camera based sensor may be configured to operate in a stepwise manner and provide output. For example, in the first state, the camera-based sensor may detect the presence of the user. If there is a user, the camera-based sensor may enter the second state and determine how many people are present. Then, or simultaneously, camera-based sensors can determine the location of people present. As the camera moves from the operating state, the camera provides an output that can be used by the device to change the state of the device as described in more detail below.

일부 실시예는 메인 카메라(103)를 이용하여 이미지를 캡처할 수 있다. 메인 카메라(103)는 장치의 사용자에 의해 비디오 및 정지 이미지를 캡처하는데 이용되는 시스템 카메라일 수 있다. 일부 실시예에서, 메인 카메라는 존재 감지에 이용되는 카메라(예를 들면, 시스템에는 많은 카메라가 있다)와 별개이고 다를 수 있는 반면, 다른 실시예에서 메인 카메라 출력은 카메라 기반 센서에 의해 전용(dedicated) 카메라를 갖는 카메라 기반 센서(106) 대신에 이용될 수 있다. 예를 들면, 일부 실시예에서는, 메인 카메라 외에, 깊이 기반 카메라가 구현될 수 있다. 깊이 기반 카메라는 어떤 적절한 형태라도 취할 수 있다. 일 실시예에서, 메인 카메라 출력은 사용자의 이용을 위해 이미지 프로세서(107)로뿐 아니라 사용자 존재 검출을 위해 카메라 기반 센서(106)의 마이크로컨트롤러로도 제공될 수 있다. 이미지 프로세서 및 사용자 검출 코프로세서(co-processor)가 사용자가 이용가능한 메인 카메라와 어떻게 데이터를 통신하고 그로부터 어떻게 데이터를 만들 수 있는지에 대해 여러 옵션이 있을 수 있다. 예를 들면, 사용자가 존재하지 않는 경우, 메인 카메라로부터의 출력은 존재 감지 판단을 위해 주로 마이크로컨트롤러에 의해 처리될 수 있다. 이러한 상태에서, 카메라로부터의 데이터는 일반적으로 시스템의 다른 컴포넌트에 이용가능하지 않을 수 있다. 사용자가 존재하는 경우, 메인 카메라로부터의 출력은 이미지 프로세서(107)로 제공될 수 있다. 그러나, 이미지 데이터/정보를 이용가능하게 하기 위해, 사용자는 카메라 기반 애플리케이션(예를 들면, 비디오 채팅(chat) 애플리케이션, 또는 이미지 캡처 프로그램 등)에 액세스해야 할 수 있다. 그렇지 않으면, 일반적으로 카메라로부터의 이미지 데이터에 액세스하지 못할 수 있다. Some embodiments may capture an image using the main camera 103. Main camera 103 may be a system camera used to capture video and still images by a user of the device. In some embodiments, the main camera may be separate and different from the camera used for presence detection (eg, there are many cameras in the system), while in other embodiments the main camera output is dedicated by a camera based sensor. ) May be used in place of a camera based sensor 106 with a camera. For example, in some embodiments, in addition to the main camera, a depth based camera may be implemented. Depth-based cameras can take any suitable form. In one embodiment, the main camera output may be provided not only to the image processor 107 for user use but also to the microcontroller of the camera based sensor 106 for user presence detection. There may be several options as to how the image processor and user detection co-processor can communicate data with and make data from the main camera available to the user. For example, if there is no user, the output from the main camera can be processed primarily by the microcontroller for presence detection determination. In this state, data from the camera may not generally be available to other components of the system. If the user is present, output from the main camera can be provided to the image processor 107. However, in order to make image data / information available, a user may need to access a camera based application (eg, a video chat application, or an image capture program, etc.). Otherwise, you may generally not be able to access image data from the camera.

하나 이상의 카메라뿐 아니라 통상의 카메라 및 이미지 처리 기능을 이용하여 원하는 존재 감지가 가능한 많은 다른 구성이 있을 수 있음을 인식해야 한다. 예를 들면, 일 실시예에서, 메인 카메라 출력은 통상의 이미지 처리 기능 및 사용자 존재 검출 기능을 결합한 단일 칩으로 라우트될(routed) 수 있다. 다른 실시예에서, 카메라로부터의 비디오 출력은 중앙 처리 유닛에 의해 처리하기 위해 호스트로 스트리밍(streamed)될 수 있다. It should be appreciated that in addition to one or more cameras, there may be many other configurations capable of detecting the desired presence using conventional camera and image processing functions. For example, in one embodiment, the main camera output may be routed to a single chip that combines conventional image processing and user presence detection. In another embodiment, the video output from the camera can be streamed to the host for processing by the central processing unit.

근접 센서(112)와 같은 제2 센서는 또한 마이크로프로세서(104)에 접속될 수 있다. 일부 실시예에서, 컨트롤러(114), 멀티플렉서(116) 및 발광 다이오드 어레이(118)는 근접 센서(112)와 함께 동작할 수 있다. 특히, 컨트롤러(114)는 멀티플렉서(116) 및 LED(118)의 동작을 시분할 다중화(TDM) 방식으로 제어하도록 구성될 수 있다. LED의 TDM 교번(alternating)에 따라 바람직한 응답을 얻기 위해 적절한 필터가 구현될 수 있다. 다른 실시예에서, 하나 이상의 LED를 다중화하여 다른 시야를 커버하기 위해 기계 장치(예를 들면, 마이크로 전기 기계 장치)가 이용될 수 있다. A second sensor, such as proximity sensor 112, may also be connected to microprocessor 104. In some embodiments, controller 114, multiplexer 116, and light emitting diode array 118 may operate in conjunction with proximity sensor 112. In particular, the controller 114 may be configured to control the operation of the multiplexer 116 and the LEDs 118 in a time division multiplexed (TDM) manner. Depending on the TDM alternating of the LEDs, appropriate filters can be implemented to obtain the desired response. In other embodiments, mechanical devices (eg, micro-electrical devices) may be used to multiplex one or more LEDs to cover different views.

LED(118)는 어떤 적절한 범위의 파장에서 동작할 수 있고, 일례에서, 전자기 스펙트럼의 근적외선 영역(near infrared region)에서 동작할 수 있다. LED(LED1-LEDN)는 각각 특정 시야를 겨냥(directed)할 수 있다. 일부 실시예에서, 각 LED(118)는 개별 시야를 겨냥할 수 있는 반면, 다른 실시예에서 인접한 LED의 시야는 중첩할 수 있다. 일부 실시예에서, LED 어레이(118)는 컴퓨팅 장치의 베젤(bezel) 주위에 LED를 분산시킬 수 있다. 다른 실시예에서, LED 어레이(118)는 LED가 서로 다른 시야를 커버하도록 방향적으로 배치된 (예를 들면, 디스플레이 화면 베젤의 곡선 부분에 걸쳐) 행(row)으로 구성될 수 있다. LED 118 may operate in any suitable range of wavelengths and, in one example, may operate in the near infrared region of the electromagnetic spectrum. Each of the LEDs LED1-LEDN can be directed to a particular field of view. In some embodiments, each LED 118 may target a separate field of view, while in other embodiments the fields of view of adjacent LEDs may overlap. In some embodiments, the LED array 118 can distribute the LEDs around the bezel of the computing device. In another embodiment, the LED array 118 may be configured in rows (eg, over a curved portion of the display screen bezel) where the LEDs are arranged directionally to cover different views.

일 실시예에서는, 시야의 평균값(예를 들면, 근접을 나타내는 값)을 얻어 객체가 장치(100)에 근접한지를 판단하는데 이용할 수 있다. 만일 평균값이 임계값을 초과하면, 객체가 장치(100)의 근접 내에 있다고 나타낼 수 있다. LED 어레이(118)를 이용하면, 근접 센서는 넓은 시야에 걸쳐 좀 더 정확하게 근접을 검출할 수 있다. 각 LED가 다른 시야를 겨낭하기 때문에, 객체의 위치는 또한 근접 센서(112)를 이용해서도 결정될 수 있다. 그와 같이, 다른 실시예에서는, 추정된 빈 장면(presumed empty scene)으로부터의 근접값(proximity value)의 변경이 결정될 수 있다. 다양한 센서에 걸쳐 가장 큰 변경(또는 어떤 등급(rank))이 검토될 수 있고 이 값은 임계치와 비교하여 근접 및/또는 위치를 결정할 수 있다. In one embodiment, an average value of the field of view (eg, a value representing proximity) may be obtained and used to determine whether the object is in proximity to the device 100. If the average value exceeds the threshold, it may indicate that the object is in proximity of the device 100. Using the LED array 118, the proximity sensor can detect proximity more accurately over a wide field of view. Because each LED points to a different field of view, the position of the object can also be determined using proximity sensor 112. As such, in other embodiments, a change in proximity value from the estimated empty scene may be determined. The largest change (or any rank) can be reviewed across various sensors and this value can determine proximity and / or location compared to a threshold.

일부 실시예에서, 카메라 기반 센서(106) 및 근접 센서(112)는 마이크로프로세서(104)와 함께 사용자가 컴퓨팅 장치(100)에 근접한지를 판단하는데 이용될 수 있다. 다른 목적 및/또는 기능 중에서, 전력 절감을 제공하거나, 사용자 경험을 향상시키거나 또는 원하는 특정 사용자 경험을 제공하기 위해, 단계적인 감지 시스템이 구현될 수 있다. 특히, 단계적인 감지 시스템은 제1 센서를 동작시켜 먼저 컴퓨팅 장치의 임계 거리 내에서의 사용자의 존재를 판단하여 전력 절감을 제공할 수 있다. 일부 실시예에서, 임계 거리는 장치(100)의 2-10피트(예를 들면, 5피트) 내에 있을 수 있다. 또한, 일부 실시예에서, 제1 센서에서 수집된 데이터는 사용자의 상대적인 위치를 결정하는데 이용될 수 있다.In some embodiments, camera-based sensor 106 and proximity sensor 112 may be used with microprocessor 104 to determine whether a user is in proximity to computing device 100. Among other purposes and / or functions, a phased sensing system may be implemented to provide power savings, enhance the user experience, or provide a particular user experience desired. In particular, the staged sensing system may operate the first sensor to first determine the presence of the user within the threshold distance of the computing device to provide power savings. In some embodiments, the threshold distance may be within 2-10 feet (eg, 5 feet) of the device 100. Also, in some embodiments, data collected at the first sensor can be used to determine the relative location of the user.

이러한 단계적인 시스템에서, 만일 사용자가 존재하면, 제2 센서가 활성화될 수 있다. 제2 센서로부터의 데이터는 단독으로 또는 제1 센서로부터의 데이터와 결합하여 사용자/사람 및/또는 사용자의 위치를 더 식별하는데 이용될 수 있다. 제1 및 제2 센서 양자로부터의 데이터는 어느 기능을 수행할지 및/또는 사용자가 무엇을 하는지 판단하는데 함께 이용될 수 있다. 예를 들면, 사용자가 장치에 얼마나 가까운지, 즉 사용자가 장치를 향하는지, 사용자가 장치에서 멀어지게/장치를 향해 이동하는지 등등이 판단될 수 있다. 또한, 그러한 데이터는 사용자를 (예를 들면, 크리덴셜받은(credentialed) 사용자로서) 식별하는데 이용될 수 있다. In this staged system, if a user is present, the second sensor can be activated. The data from the second sensor may be used alone or in combination with data from the first sensor to further identify the user / person and / or the location of the user. The data from both the first and second sensors can be used together to determine what function to perform and / or what the user is doing. For example, it may be determined how close the user is to the device, ie whether the user is facing the device, whether the user moves away from / toward the device, and so on. Such data can also be used to identify a user (eg, as a credentialed user).

컴퓨팅 장치(100)의 상태는 사용자가 존재한다는 판단에 기초하여 변경될 수 있다. 예를 들면, 만일 사용자가 장치에 접근한다면, 디스플레이는 어웨이크(awake)될 수 있고, 시스템은 어웨이크될 수 있다 등등. 만일 사용자가 왼쪽에서 오른쪽으로 이동하고 있다면, 디스플레이된 이미지는 변경될 수 있고 일반적으로 사용자의 움직임에 대응하게 이동할 수 있다. 또한, 만일 많은 사용자가 (많은 얼굴의 존재를 식별함에 기초하여 판단되는 바와 같이) 존재한다면, 장치(100)는 보안 상태로 전력공급될 수 있고 장치에 충분히 액세스하도록 사용자 크리덴셜의 입력을 필요로 할 수 있다. The state of the computing device 100 may change based on determining that a user exists. For example, if the user accesses the device, the display can be awake, the system can be awake and the like. If the user is moving from left to right, the displayed image can be changed and generally move corresponding to the user's movement. In addition, if a large number of users are present (as determined based on identifying the presence of many faces), the device 100 may be powered in a secure state and require input of user credentials to fully access the device. can do.

존재 판단은 신경망, 지원 벡터 머신(SVM) 또는 다른 머신 학습 기반 분류기 또는 확률 결정 시스템에 이용되는 많은 요인에 기초할 수 있다. 예를 들면, 피부색/컬러, 존재 및 움직임은 존재 판단을 하는 신경망과 함께 가중된(weighted) 방식으로 이용될 수 있다. 전술한 바와 같이, 존재 판단에 기초하여, 장치(100)는 동작 상태에 진입하고/동작 상태를 변경할 수 있다. Presence determination can be based on many factors used in neural networks, support vector machines (SVMs) or other machine learning based classifiers or probability determination systems. For example, skin color / color, presence and movement can be used in a weighted manner with neural networks making a presence determination. As mentioned above, based on the presence determination, the device 100 may enter and / or change the operating state.

사용할 특정 센서의 선택은 예를 들면 원하는 기능 및 소비 전력 제한을 포함하여 다양한 요인에 종속할 것이라는 것을 인식해야 한다. 그와 같이, 일부 실시예에서, 카메라 기반 센서(106)가 제1 단계(tier) 센서로 구현될 수 있는 반면, 다른 실시예에서는, 근접 센서(112)가 제1 단계 센서로 이용될 수 있다. 근접 센서(112)와 같은 근접 센서를 구현하는 좀 더 구체적인 설명은 아래에서 제공된다. It should be recognized that the choice of a particular sensor to use will depend on a variety of factors, including, for example, desired functionality and power consumption limitations. As such, in some embodiments, camera-based sensor 106 may be implemented as a first tier sensor, while in other embodiments, proximity sensor 112 may be used as a first stage sensor. . A more detailed description of implementing a proximity sensor such as proximity sensor 112 is provided below.

센서(112)는 어떤 적절한 주파수에서 광을 초핑(chop)하고 반사되어 되돌아온(returned reflected) 광신호의 위상 시프트(phase shift)를 측정할 수 있다. LED(118)의 출력은 구형파(square waves) 또는 다른 파형일 수 있고, 센서(112)는 I/Q 복조 방식을 이용한다. 센서(112)에서 오는 광은 사인파(sine wave) 및 코사인파(cosine wave)와 혼합되어, I(동위상(in-phase)) 성분 및 Q(직교(quadrature)) 성분을 제공한다. 사인/코사인파는 LED 변조와 동기화된다. 이들은 센서로부터의 '원시' 출력에 해당하고, 만일 다른 내부 측정 방법이 존재한다면, 그것은 이러한 방식으로 변환될 수 있다. 일반성의 손실 없이, 주기가 2π이고, 그 주기 전체에 걸쳐 적분(integration)이 일어난다고 가정할 수 있다. 실제로, 고정 주기가 이용될 수 있고 그 주기의 어떤 큰 배수에 걸쳐 적분할 것이다. 이러한 차이는 고정 스케일 인자를 낳고, 이는 무시될 수 있다. 기본적인 측정 성분은 다음과 같다.The sensor 112 may chop the light at any suitable frequency and measure the phase shift of the returned reflected optical signal. The output of the LED 118 may be square waves or other waveforms, and the sensor 112 uses an I / Q demodulation scheme. Light coming from sensor 112 is mixed with sine waves and cosine waves to provide I (in-phase) components and Q (quadrature) components. The sine / cosine wave is synchronized with the LED modulation. These correspond to the 'raw' output from the sensor, and if other internal measurement methods exist, it can be converted in this way. Without loss of generality, it can be assumed that the period is 2π and integration occurs throughout the period. In practice, a fixed period may be used and will integrate over any large multiple of that period. This difference results in a fixed scale factor, which can be ignored. Basic measurement components are as follows.

Figure pct00001
Figure pct00001

만일 전체 시야를 취급하는 센서(112)로부터 일정(방사) 거리에 있는 객체를 측정하는 경우, 위상 오프셋이

Figure pct00002
이고 크기가 A인 동일 주파수의 구형파 입력 신호는 I 및 Q 성분이 다음과 같다.If you are measuring an object at a distance (radiation) from the sensor 112 that covers the entire field of view, the phase offset
Figure pct00002
A square wave input signal of the same frequency of magnitude A has the following I and Q components.

Figure pct00003
Figure pct00003

그리고,And,

Figure pct00004
이다.
Figure pct00004
to be.

다음에,

Figure pct00005
값은 다음과 같이 구할 수 있다.Next,
Figure pct00005
The value can be obtained as follows.

Figure pct00006
Figure pct00006

다음에 M은 다음과 같이 재구성될 수 있다.Then M can be reconstructed as

Figure pct00007
Figure pct00007

센서의 시야 내에 두 객체(A 및 B)가 존재한다고 가정하면(그 각각은 일정 거리에 있음), 이들 거리와 연관된 위상 시프트는

Figure pct00008
Figure pct00009
로 나타낼 수 있다. 반사 신호의 크기는 A 및 B로 규정될 수 있다. 이 경우, 입력 광신호가 추가되므로, 적분이 있고, 따라서 I는, Assuming there are two objects A and B within the field of view of the sensor (each of which is at a certain distance), the phase shift associated with these distances is
Figure pct00008
And
Figure pct00009
. The magnitude of the reflected signal can be defined as A and B. In this case, since the input optical signal is added, there is integration, so I is

Figure pct00010
이다.
Figure pct00010
to be.

마찬가지로, Q의 경우,Similarly, for Q,

Figure pct00011
이다.
Figure pct00011
to be.

세기가 시간의 경과에 따라 변하지 않는 광원은 I 및 Q 성분에 제로 기여도(zero contribution)를 제공할 것이다. 이러한 특성은 우수한 주변광 배제(ambient light rejection)를 제공한다. 또한, 이러한 특성은 서로 다른 거리에 있는 객체로부터의 위상 오프셋으로 인해 제거(cancellation)될 수 있다. 1/0 구형파 복조(one/zero square wave demodulation)를 이용하면, 이러한 정보는 유지될 수 있지만 주변광 배제가 악화될 수 있다. 이러한 복조 방식으로 약간 다른 수식을 얻을 수 있지만, 최종 결과는 유사할 것이다. 다음에서, I/Q 앞에서 2라는 인자는 다른 스케일 인자에서 흡수될 것이기 때문에 생략(drop)될 것이다. A light source whose intensity does not change over time will provide zero contribution to the I and Q components. This property provides good ambient light rejection. This feature can also be canceled due to the phase offset from objects at different distances. With one / zero square wave demodulation, this information can be maintained but the ambient light exclusion can be worsened. This demodulation yields slightly different formulas, but the final result will be similar. In the following, the factor 2 in front of I / Q will be dropped because it will be absorbed in another scale factor.

약간의 단순화가 이루어질 수 있고 장면 내 객체의 함수로서의 센서 출력에 대한 기본적인 모델이 제안된다. 별개의 경우도 구현예에 더 잘 따르기 때문에 별개의 경우도 개발될 것이지만, 다른 경우도 역시 구현될 수 있다. LED/센서 시야는 1 내지 N으로 인덱스된 N개의 섹션으로 분할될 수 있다. 이들 섹션 각각은 Ωi라는 입체각(solid angle)을 갖는다. 또한, 이들 입체각 각각은 고정 반사율(

Figure pct00012
)을 갖고, 고정 방사 거리(ri)에 있다. 또한, LED로부터의 출력은 스테라디안(steradian)(Ii) 당 방출 세기(emitted intensity)를 갖는 소정의 입체각 전체에 걸쳐 일정하다. 소정의 거리에 대한 위상 시프트는
Figure pct00013
로 규정된다. Some simplification can be made and a basic model of sensor output as a function of objects in the scene is proposed. Separate cases will also be developed because the other cases are better with the implementation, but other cases can also be implemented. The LED / sensor field of view may be divided into N sections indexed from 1 to N. Each of these sections has a solid angle of Ω i . In addition, each of these solid angles has a fixed reflectance (
Figure pct00012
) And is at a fixed spinning distance r i . In addition, the output from the LED is constant throughout a given solid angle having an emitted intensity per steradian (I i ). Phase shift for a given distance
Figure pct00013
.

이러한 모델로부터, 센서에서 소정의 입체각으로부터의 (Ii,Qi) 기여도가 얻어질 수 있다. 또한 I/Q 공간에서 극(polar) 좌표계를 규정하는 것이 유용하다. IQ 벡터의 크기는 Mi로 규정되고, 각도

Figure pct00014
는 이미 규정되었다. From this model, the contribution (I i , Q i ) from a given solid angle at the sensor can be obtained. It is also useful to define a polar coordinate system in the I / Q space. The magnitude of the IQ vector is defined by M i , the angle
Figure pct00014
Has already been prescribed.

Figure pct00015
Figure pct00015

(Im,Qm)은 모두 측정된 (원시) I 및 Q 값으로 규정될 수 있다. 하나 이상의 항(Ic,Qc)을 추가하여 어떤 일정한 크로스토크(전기 또는 광)를 표현할 수 있다. 마지막으로,(I m , Q m ) can both be defined as the measured (raw) I and Q values. One or more terms (I c , Q c ) can be added to represent some constant crosstalk (electric or light). Finally,

Figure pct00016
이다.
Figure pct00016
to be.

일반적으로, 사용자가 장치에 근접하여 위치하는지를 판단하기 위해서는, 장치가 배치된 환경을 이해하는 것이 유리할 수 있다. 이는 긍정 오류를 줄이는데 도움이 될 수 있으며 사용자가 장치(100)의 근접에 진입하거나 빠져나가는 시간을 좀 더 정확하게 결정할 수 있다. 그러나, 배경(background) 모델을 생성하는 것은 센서(112)에 의해 제공되는 상대적인 정보의 부족으로 인해 많은 과제를 제기한다. 유용한 모델을 규정하기 위해서는, 몇 가지 단순화 가정이 이루어질 수 있다. 먼저, 단일 센서의 모델의 계산이 처리된 다음 여러 센서의 경우가 처리될 것이다.In general, it may be advantageous to understand the environment in which the device is placed in order to determine whether the user is located in proximity to the device. This may help to reduce false positives and more accurately determine the time at which the user enters or exits the proximity of the device 100. However, creating a background model presents many challenges due to the lack of relative information provided by the sensor 112. In order to define a useful model, some simplified assumptions can be made. First, the calculation of the model of a single sensor will be processed and then the case of several sensors.

근본적으로, 두 가지 형태의 객체가 센서(112)와 같은 특정 근접 센서에 의해 제공되는 거리 측정에 영향을 미친다. 사람에 의해 가려질 수 없는 객체가 있고, 사람에 의해 가려질 수 있는 객체가 있다. 전자는 '전경(foreground)' 객체로 지칭되고 후자는 '배경(background)' 객체로 지칭될 것이다. 물론, 객체는 사람에 대해 어떻게 위치하는지에 따라 두 부류에 속할 수 있다. 우선, 장면은 이들 두 형태의 객체로 분할될 수 있다. 일반적으로, 과제는 장면 내에서 들어가고 나가는 사람들과 같은 동적 객체(dynamic objects)까지의 거리를 측정하는 것이다. 이들 객체를 성공적으로 측정하기 위해, 장면 내 정적 객체(static objects)에 대한 정확한 모델이 생성되고 이들과 동적 객체와의 관계가 모델링된다. In essence, two types of objects affect the distance measurement provided by a particular proximity sensor, such as sensor 112. There are objects that can't be hidden by people, and there are objects that can be hidden by people. The former will be referred to as the 'foreground' object and the latter will be referred to as the 'background' object. Of course, an object can fall into two classes depending on how it is located with respect to a person. First, the scene can be divided into these two types of objects. In general, the challenge is to measure the distance to dynamic objects, such as those who enter and leave the scene. In order to measure these objects successfully, accurate models of static objects in the scene are created and their relationship to dynamic objects is modeled.

먼저, (Ip,Qp)는 측정되는 객체와 연관된 신호로 규정된다. (Im,Qm) 및 (Ic,Qc)는 각각 측정된 (원시) 및 크로스토크 값으로 계속 이용될 수 있다.First, (I p , Q p ) is defined as the signal associated with the object being measured. (I m , Q m ) and (I c , Q c ) can continue to be used as measured (raw) and crosstalk values, respectively.

빈 장면(Empty Scene)Empty Scene

하나의 모델은 전경 또는 배경 객체가 없고, 신호는 모두 장면 내 사람에 기인한 것이라고 가정한다. 가장 순수한 형태에서는, 공장 교정(factory calibration)/크로스토크 값이 다음과 같이 이용될 수 있다. One model assumes no foreground or background objects, and the signals are all due to the people in the scene. In its purest form, factory calibration / crosstalk values can be used as follows.

Figure pct00017
Figure pct00017

이 모델은 거리 출력을 생성하는데 이용될 수 있다. 전경 객체가 없는 장면의 경우, 이 모델은 항상 거리를 과대 평가할 것이다. 이 모델은 장치의 수명 동안 정확한 공장 교정값에 의존한다는 점을 주목하자. 이 모델은 스머지(smudge)/ 등으로 인해 추가된 크로스토크를 설명하지 못할 수 있다. This model can be used to generate a distance output. For scenes without foreground objects, this model will always overestimate distance. Note that this model relies on accurate factory calibration values for the life of the device. This model may not account for the added crosstalk due to smudge / etc.

일단 정적 오프셋이 관측되면, 그 정적 오프셋은 전경 및 배경 객체의 어떤 조합으로 모델링된다. 이러한 정적 오프셋을 어떻게 분산시킬지에 대한 선택은 Ip 및 Qp의 추정치(estimate)에 강한 영향을 미친다.Once a static offset is observed, that static offset is modeled with any combination of foreground and background objects. The choice of how to distribute these static offsets has a strong impact on the estimates of I p and Q p .

전경 단독(Foreground Only)Foreground Only

정적 오프셋을 설명하는 한가지 방법은 그 정적 오프셋이 모두 전경 객체에 기인한다고 가정하는 것이다. 온도 또는 스머지로 인한 크로스토크 변화와 같은 효과는 이 부류에 속한다. 전경 객체는 정의에 따르면 사람의 존재와 관계없이 신호에 일정하게 기여한다. 순수한 전경 모델에서, 전경 객체의 공간 분포는 관련이 없고, 전경이 아닌 무엇이든 관심 객체인 것으로 가정한다. 전경으로부터의 신호를 (Ifg,Qfg)로 규정하자. 이 모델은 다음을 함축한다. One way to describe a static offset is to assume that the static offset is all due to the foreground object. Effects such as crosstalk changes due to temperature or smudges fall into this class. Foreground objects, by definition, contribute to a signal constantly, regardless of the person's presence. In a pure foreground model, the spatial distribution of the foreground object is irrelevant and assumes that anything other than the foreground is the object of interest. Let's define the signal from the foreground as (I fg , Q fg ). This model implies:

Figure pct00018
Figure pct00018

(Ifg+Ic,Qfg+Qc)는 장면 내에 관심 객체가 없는 측정된 센서 기록(reading)임을 주목하자. 이는 표준 '기준치 감법(baseline subtraction)' 모델이다.Note that (I fg + I c , Q fg + Q c ) is the measured sensor reading with no object of interest in the scene. This is a standard 'baseline subtraction' model.

부분 폐색을 갖는 균일한 배경(Uniform Background with Partial Occlusion) Uniform Background with Partial Occlusion

이 모델의 경우, 배경은 균일한 거리에 있고 균일한 반사율을 갖는다고 가정한다. 또한, 객체는 시야를 수직으로 가린다고 가정한다. 각도를 갖는 LED 폴 오프(falloff)는 l(θ)로 규정된다. 폭 w가 고정된 단일 객체는 고정 위치에서 각도 섹션 △θp에 대응하는 것으로 가정한다. 객체의 중심 위치는 θp라는 각도 항으로 규정된다. For this model, it is assumed that the background is at a uniform distance and has a uniform reflectance. It is also assumed that the object obscures the field of view vertically. The LED falloff with angle is defined as l (θ). It is assumed that a single object having a fixed width w corresponds to the angular section Δθ p at the fixed position. The central position of the object is defined by the angle term θ p .

일반적인 모델은 전술하였다. 이 모델의 경우, 면적은 순전히 폭의 함수이고, 입사광은 l(θ)로 규정되며, 거리/반사율은 일정하지만 알려지지 않았다. The general model has been described above. For this model, the area is purely a function of the width, the incident light is defined as l (θ), and the distance / reflectivity is constant but unknown.

편의상, 다음과 같이 규정한다. For convenience, it is prescribed as follows.

Figure pct00019
, 및
Figure pct00019
, And

Figure pct00020
Figure pct00020

L(θp;△θp)는 관심 객체에 의해 규정된 입체각을 겨냥한 LED로부터의 광의 일부분을 나타내고, Ltotal은 총 광출력을 나타내며, R(θp;△θp)은 배경에 비친(cast) 총 광의 일부분을 나타낸다. L (θ p ; Δθ p ) represents the portion of light from the LED aimed at the solid angle defined by the object of interest, L total represents the total light output, and R (θ p ; Δθ p ) is reflected in the background ( cast) represents a portion of the total light.

관심 객체로부터 센서에 도달한 광의 크기는 L(θp;△θp)에 비례한다. 비례 상수를 θp, 그리고 관심 객체까지의 거리와 연관된 위상 오프셋을

Figure pct00021
로 규정할 것이다. 이는 다음과 같이 주어진다. The magnitude of light reaching the sensor from the object of interest is proportional to L (θ p ; Δθ p ). Set the proportional constant θ p , and the phase offset associated with the distance to the object of interest
Figure pct00021
Will be prescribed. This is given by

Figure pct00022
Figure pct00022

마찬가지로, 배경으로부터 센서에 도달하는 광의 크기는 R(θp;△θp)에 비례한다. 비례 상수는

Figure pct00023
, 그리고 배경 거리와 연관된 위상은
Figure pct00024
로 규정된다. 이는 다음과 같이 주어진다. Similarly, the magnitude of light reaching the sensor from the background is proportional to R (θ p ; Δθ p ). The proportional constant is
Figure pct00023
, And the phase associated with the background distance
Figure pct00024
. This is given by

Figure pct00025
Figure pct00025

요약하면, to summarize,

Figure pct00026
Figure pct00026

다음과 같은 측정을 가정하자. Assume the following measurements:

Figure pct00027
, 및
Figure pct00027
, And

Figure pct00028
Figure pct00028

만일 각도 θp 및 폭 w가 알려지거나 가정할 수 있다면, 이 연립 방정식은 풀 수 있다.If the angle θ p and the width w can be known or assumed, this simultaneous equation can be solved.

부분 폐색을 갖는 균일한 배경 및 균일한 전경(Uniform Background and Uniform Foreground with Partial Occlusion) Uniform Background and Uniform Foreground with Partial Occlusion

이 모델의 경우, '부분 폐색을 갖는 균일한 배경' 모델에서 시작하고, 이를 구축하고, 균일하면서 관심 객체에 미치는 영향이 공간적으로 변하지 않는 전경 성분을 추가시킨다. 전경 성분은 공간적으로 변하지 않고, 관심 객체의 존재에 의해 영향을 받지 않기 때문에, 전경 객체의 크기 및 위상을

Figure pct00029
Figure pct00030
으로 규정한다. 이제, 전경의 경우,For this model, we start with a 'uniform background with partial occlusion' model, build it, and add a foreground component that is uniform and does not spatially change its effect on the object of interest. Because the foreground component does not change spatially and is not affected by the presence of the object of interest, it is possible to change the size and phase of the foreground object.
Figure pct00029
And
Figure pct00030
It is prescribed by. Now, in the foreground,

Figure pct00031
, 및
Figure pct00031
, And

Figure pct00032
이다.
Figure pct00032
to be.

이를 단순히 이전 모델에 추가하여 다음을 얻는다.Simply add it to the previous model to get:

Figure pct00033
, 및
Figure pct00033
, And

Figure pct00034
Figure pct00034

빈 장면에서 다음과 같이 측정될 수 있다고 가정하자.Suppose we can measure the following in an empty scene:

Figure pct00035
, 및
Figure pct00035
, And

Figure pct00036
Figure pct00036

이전의 경우와 비교하여 추정된 두 변수를 더 추가할 수 있다.Compared with the previous case, we can add two more estimated variables.

구획된 배경, 균일한 전경(Sectioned Background, Uniform Foreground)Sectioned Background, Uniform Foreground

이 모델은 수평 시야를 각각이 균일한 전경/균일한 배경으로 모델링되는 일련의 섹션 1...S로 분할한다. 첨자 s는 변수가 속하는 섹션을 나타내기 위해 추가된다. 배경 섹션에서 시작하여, 폭 w가 각도 섹션 △θp, 및 각도 위치 θp에 해당하는 장면 내에 객체가 존재한다고 가정하자. R 함수를 국지적으로(sectionally) 재규정하여 관심 객체에 의한 폐색 후에 배경에 비친 광의 일부분을 표현한다. 이는 Rs로 지칭될 수 있다.The model divides the horizontal field of view into a series of sections 1 ... S, each modeled with a uniform foreground / uniform background. The subscript s is added to indicate the section to which the variable belongs. Starting from the background section, assume that an object exists in the scene whose width w corresponds to the angle section Δθ p , and the angular position θ p . Locally redefine the R function to represent a portion of the light reflected in the background after occlusion by the object of interest. This may be referred to as R s .

이제 다음과 같이 규정한다.Now,

Figure pct00037
, 및
Figure pct00037
, And

Figure pct00038
Figure pct00038

전경 신호는 장면 내 객체에 의해 변경되지 않기 때문에, 이를 국지적으로 모델링할 필요가 없다. 그러나, 전경은 관심 객체를 섹션들에 걸쳐 변화하는 각도로 폐색시킬 수 있다. 이는 많은 다른 방식으로 모델링될 수 있고, 그 중 가장 깨끗한 것은 각 전경 섹션마다 '폐색 인자' Fs를 연관시키는 것이다. 또한, Ls는 섹션 s에서 관심 객체를 조명하는 LED에서 출력된 총 광의 일부분으로 규정된다. 이제 다음과 같다.Because the foreground signal is not changed by objects in the scene, there is no need to model it locally. However, the foreground may occlude the object of interest at varying angles across the sections. It can be modeled in many different ways, the cleanest of which is to associate the 'occlusion factor' F s for each foreground section. L s is also defined as the portion of the total light output from the LED illuminating the object of interest in section s. Now it looks like this:

Figure pct00039
, 및
Figure pct00039
, And

Figure pct00040
Figure pct00040

균일한 전경의 경우, Fs는 모든 섹션에 대해 1과 같고 수식은 비구획된 전경의 경우로 다시 축약된다. 요약하면 다음과 같다. For a uniform foreground, Fs is equal to 1 for all sections and the formula is shortened back to the case of non-compartmented foreground. In summary.

Figure pct00041
, 및
Figure pct00041
, And

Figure pct00042
Figure pct00042

여기서, 배경에 대해서는 섹션 당 두 개의 변수가 추가되고, 전경 폐색에 대해서는 섹션 당 하나의 변수가 추가된다. 전경 객체로부터의 폐색 효과는 무시될 수 있고, 단지 가외의 배경 변수만 추가된다.Here, two variables are added per section for the background and one variable per section for the foreground occlusion. Occlusion effects from foreground objects can be ignored and only extra background variables are added.

시야가 중첩하는 두 개의 센서(Two Sensors with Overlapping Fields of View)Two Sensors with Overlapping Fields of View

시야가 중첩하는 두 개의 센서가 이용될 수 있다. 단지 시야의 중첩 부분만을 고려하여 이 영역에서 어떤 종류의 정보를 얻을 수 있는지를 검토하고, 여기서 각 센서는 자신의 L(θp;△θp)를 갖고, θp는 전역 좌표계를 가리킨다고 가정한다. 이들은 L1 및 L2로 지칭될 수 있고, 첨자를 이용하여 센서를 나타낼 수 있다. 또한, 두 개의 센서는 자신들의 감도(sensitivity) 및 LED 출력이 다를 수 있고, 이로 인해 중첩하는 시야 내 동일 객체의 측정을 위해 스케일 인자 오차(scale factor error) α가 주어진다고 가정한다. 또한, 관심 객체와의 거리 및 신호 크기에 대해 1/d2 관계를 갖는다고 가정한다. 또한, 객체는 고정 반사율

Figure pct00043
및 고정 폭 w를 갖는다고 가정한다.Two sensors with overlapping fields of view may be used. Consider only what kind of information can be obtained in this area, taking into account only the overlapping part of the field of view, where each sensor has its own L (θ p ; Δθ p ) and θ p indicates the global coordinate system do. These are L 1 And L 2 , and subscripts may be used to represent the sensor. In addition, it is assumed that the two sensors have different sensitivity and LED outputs, which gives a scale factor error α for the measurement of the same object in the overlapping field of view. Also, 1 / d 2 for distance and signal size Suppose you have a relationship. In addition, the object has a fixed reflectance
Figure pct00043
And assume a fixed width w.

Figure pct00044
,
Figure pct00045
θp 및 d는 두 센서의 측정 사이의 공통 값이고 관심 객체에 특정하다는 것에 유의한다. d와
Figure pct00046
사이의 관계가 잘 규정되어 있다 - 본 명세서의 일례의 섹션을 참조바람. 여기서, α는 두 센서/LED 사이의 일정한 감도차이며, 이는 그 센서들의 수명 동안 저속으로 변화되어야 한다. 이러한 규정은 다음과 같다.
Figure pct00044
,
Figure pct00045
Note that θ p and d are common values between the measurements of the two sensors and are specific to the object of interest. d and
Figure pct00046
The relationship between is well defined-see the example section of this specification. Where α is a constant sensitivity difference between the two sensors / LEDs, which should change at low speeds over the lifetime of those sensors. These regulations are as follows.

Figure pct00047
Figure pct00047

Figure pct00048
, 및
Figure pct00048
, And

Figure pct00049
Figure pct00049

이들 수식은 Ip 및 Qp에 대해 배경 단독 부분 폐색 모델로 대체될 수 있고

Figure pct00050
Figure pct00051
에 대한 수식을 생성할 수 있다. 다음과 같은 다섯 가지 알려지지 않은 것이 있다.These formulas can be replaced with a background only partial occlusion model for Ip and Qp
Figure pct00050
And
Figure pct00051
You can create a formula for. There are five unknowns:

· αΑ

·

Figure pct00052
·
Figure pct00052

·

Figure pct00053
·
Figure pct00053

· θp Θ p

·△θp Δθ p

또한, 네 개의 수식이 존재하고, 그러므로 이들 값들 중 하나가 알려지기만 하면(또는 가정할 수만 있다면), 나머지는 잠재적으로 산출될 수 있다. 먼저 α 및 △θp를 양호하게 추측할 수 있다고 가정하는 것은 타당하다. 예를 들면, 일단 카메라 기반 센서(106)와 같은 다른 센서가 제공된다면, θp

Figure pct00054
는 바로 측정될 수 있다. 불행하게도, 이들 수식은 비선형이므로, 이러한 제약 내에서 유일해(unique solution)가 존재한다는 것을 증명하는 어떤 작업이 여전히 수행될 수 있다. 이러한 추정 프로세스를 성취하기 위해, 많은 추정 방식 중 어떤 추정 방식이 이용될 수 있다. 그 예는 확장 칼만(Kalman) 필터, 시그마-포인트(sigma-point) 칼만 필터, 또는 직접 추정을 이용하는 것을 포함할 수 있다.Also, there are four equations, so one of these values is known If you do (or can only assume), the rest can potentially be calculated. It is reasonable to assume that first, α and Δθ p can be estimated well. For example, once another sensor is provided, such as camera based sensor 106, θ p and
Figure pct00054
Can be measured immediately. Unfortunately, since these equations are nonlinear, some work can still be done to prove that there is a unique solution within this constraint. In order to achieve this estimation process, any of a number of estimation methods may be used. Examples may include using an extended Kalman filter, a sigma-point Kalman filter, or direct estimation.

배경 단독 부분 폐색 모델의 일례의 구현(Example Implementation of Background Only Partial Occlusion Model)Example Implementation of Background Only Partial Occlusion Model

10도 LED 센서(112)에 의한 폴 오프 투영(falloff cast)은 백색 벽(white wall)을 배경으로 이미지화되었다. 그의 수평 방향으로 투영된 폴 오프는 대략 표준 편차가 거의 12도인 가우시안(gaussian)이다. 그 원형은 12피트에 배경막(backdrop)이 있는 비교적 어두운 빈 방의 바닥 위 약 3.5피트에 두었다.The falloff cast by the 10 degree LED sensor 112 was imaged against a white wall. Its horizontally projected falloff is a Gaussian with a standard deviation of approximately 12 degrees. The prototype was placed about 3.5 feet above the floor of a relatively dark empty room with a backdrop of 12 feet.

크로스토크는 센서(112)를 커버하는 블랙 펠트 배플(black felt baffle)로 측정되었다. 제로 위상 오프셋은 반사성 배플로 측정되었다. 명목상(nominal) '개방(open)' 배경이 캡처되었다. 센서 데이터는 10피트 벗어나 있는 LED에서 오프셋이 0도인 센서(112)에서 벗어나 1피트 증분 단위로 서 있는 사람에서 수집되었다. 센서 데이터는 5피트의 방사 거리에서 5도 증분 단위로 -15도에서 +15도까지 수집되었다. 펠트 측정은 본질적으로 크로스토크를 측정하기 때문에 (Ic;Qc)로 지칭될 수 있다. 반사성 배플 측정은 (Io;Qo)로 그리고 개방식 측정은 (Iopen;Qopen)로 지칭될 수 있다. 마지막으로, 장면 내 관심 객체와의 원시 측정은 (Im;Qm)로 그리고 추정될 관심 객체 신호는 (Ip;Qp)로 지칭될 수 있다. L(θp;△θp)은 특정 형태가 다음과 같이 되는 전술한 가우시안 분포를 전제로 하여 모델링되었다. Crosstalk was measured with a black felt baffle covering the sensor 112. Zero phase offset was measured with reflective baffle. A nominal 'open' background was captured. Sensor data was collected from a person standing in 1-foot increments, leaving sensor 112 with an offset of 0 degrees from an LED 10 feet away. Sensor data was collected from -15 degrees to +15 degrees in 5 degree increments at 5 feet of radiation. Felt measurements can be referred to as (I c ; Q c ) because they measure crosstalk in essence. Reflective baffle measurements may be referred to as (I o ; Q o ) and open measurements as (I open ; Q open ). Finally, the primitive measurement with the object of interest in the scene may be referred to as (I m ; Q m ) and the object of interest signal to be estimated is (I p ; Q p ). L (θ p ; Δθ p ) was modeled on the premise of the Gaussian distribution described above in which the specific form is as follows.

Figure pct00055
Figure pct00055

여기서 "erf"는 오차 함수이다. 또한 다음과 같이 규정한다. Where "erf" is an error function. It is also prescribed as follows.

Figure pct00056
Figure pct00056
And

Figure pct00057
Figure pct00057

여기서

Figure pct00058
는 위상 델타(phase delta)에서 거리(distance)로의 변환이고, △θp는 폭이 2피트인 사람을 전제로 하여 산출된다. 이제, 연립 방정식은 다음과 같이 설정될 수 있다. here
Figure pct00058
Is the conversion from phase delta to distance, and Δθ p is calculated assuming a person 2 feet wide. Now, the simultaneous equations can be set as follows.

Figure pct00059
, 및
Figure pct00059
, And

Figure pct00060
Figure pct00060

여기서, L(θp;△θp)은 △θp 및 L(θp;△θp)에 대한 전술한 수식을 이용하여 표현된다. θp를 알려진 값으로 간주하고, 비선형 연립 방정식을 수치적으로 푼다. 도 3 및 도 4의 플롯에는 실제 데이터 결과가 도시되어 있다. 도 3에서, 선 120은 보정되지 않은 것을 나타내고, 선 122는 보정된 데이터를 나타낸다. 도 4에서, 선 130은 보정되지 않은 것을 나타내고, 선 132는 보정된 데이터를 나타내고, 선 134는 실제 거리를 나타낸다.Here, L (θ p ; Δθ p ) is expressed using the above formulas for Δθ p and L (θ p ; Δθ p ). Consider θ p as a known value and solve the nonlinear simultaneous equations numerically. The plots of FIGS. 3 and 4 show the actual data results. In FIG. 3, line 120 indicates no correction and line 122 indicates the corrected data. In FIG. 4, line 130 indicates no correction, line 132 indicates corrected data, and line 134 indicates the actual distance.

단일 센서(112)를 다양한 배경 모델로 계산함에 따라, 다중 센서가 통합 위치 모델로 결합될 수 있다. 전술한 바와 같이, 일 실시예에서는 다중 근접 센서가 구현될 수 있다. 다른 실시예에서는, 원하는 시야를 제공하기 위해 다중 LED가 TDM 방식으로 이용될 수 있다. 카메라 기반 센서를 통합하려면 모든 관심 파라미터를 추정해야 한다.By calculating a single sensor 112 with various background models, multiple sensors can be combined into an integrated location model. As described above, in one embodiment multiple proximity sensors may be implemented. In another embodiment, multiple LEDs can be used in a TDM fashion to provide the desired field of view. Integrating camera-based sensors requires estimation of all parameters of interest.

도 5는 다중 센서를 단계적 방식으로 이용하여 장치의 상태를 변경하는 방법(300)을 예시한다. 먼저, 장치는 슬립 모드와 같은 소비 전력 저감 모드에 있을 수 있고, 컨트롤러는 제1 센서로부터 데이터를 수신할 수 있다(블록 302). 수신된 데이터는 처리되고(블록 304) 임계치와 비교된다(블록 306). 임계치와 비교하면 사용자가 존재하는지 존재할 가능성이 있는지에 대해 판단이 가능하다(블록 308). 만일 사용자가 존재하지 않는다면, 제1 센서로부터 데이터가 계속 수신될 수 있다(블록 302). 그러나, 만일 사용자가 존재하거나 존재할 가능성이 있는 것으로 판단되면, 제2 센서가 작동될 수 있고(블록 310) 제2 센서로부터 데이터가 수신된다(블록 312). 제2 센서로부터의 데이터가 처리되고(블록 314) 제1 센서로부터의 데이터와 결합된다(블록 316). 제1 및 제2 센서로부터의 데이터의 처리는 존재 판단에 유용하도록, 다음으로 한정되지 않지만, 데이터 필터링, 데이터 스케일링, 및/또는 일반적으로 데이터 컨디셔닝과 같이, 그 데이터에 대해 디지털 신호 처리를 수행하는 것을 포함할 수 있다. 또한, 제1 및 제2 센서로부터의 데이터의 결합은 데이터를 함께 저장하고 및/또는 그 데이터를 논리적으로 또는 수학적으로 결합하는 것을 포함할 수 있다.5 illustrates a method 300 of changing the state of an apparatus using multiple sensors in a stepwise manner. First, the device may be in a power consumption reduction mode, such as a sleep mode, and the controller may receive data from the first sensor (block 302). The received data is processed (block 304) and compared with a threshold (block 306). In comparison to the threshold, a determination may be made whether the user exists or is likely to exist (block 308). If the user does not exist, data may continue to be received from the first sensor (block 302). However, if it is determined that the user exists or is likely to be present, then the second sensor may be activated (block 310) and data is received from the second sensor (block 312). Data from the second sensor is processed (block 314) and combined with data from the first sensor (block 316). Processing of data from the first and second sensors is not limited to the following to be useful for determining presence, but may be performed by performing digital signal processing on the data, such as data filtering, data scaling, and / or data conditioning in general. It may include. In addition, combining data from the first and second sensors may include storing the data together and / or combining the data logically or mathematically.

제1 및 제2 센서로부터의 데이터를 이용하여 사용자 존재값(user presence values) 및/또는 사용자 존재 확률 점수(probability of user presence scores)를 산출한다(블록 318). 사용자 존재값 및/또는 사용자 존재 확률 점수는 임계치와 비교하여 사용자가 존재하는지 판단한다(블록 322). 또한, 만일 사용자가 존재하는 것으로 판단되면, 장치에 대한 사용자의 거리 및 위치와 같은 다른 파라미터가 결정될 수 있고(블록 324) 장치의 상태가 변경될 수 있다(블록 326). 이러한 상태 변경은 장치를 슬립 모드로부터 어웨이크 모드로 이동하는 것 또는 다른 적절한 상태 변경을 포함할 수 있다. Data from the first and second sensors are used to calculate user presence values and / or user presence probability scores (block 318). The user presence value and / or user presence probability score are compared to the threshold to determine if the user exists (block 322). Also, if it is determined that the user exists, other parameters such as the user's distance and location to the device can be determined (block 324) and the state of the device can be changed (block 326). Such state change may include moving the device from sleep mode to awake mode or other appropriate state change.

또한, 다른 파라미터(예를 들면, 거리, 위치 등)뿐 아니라 장치의 상태 변경의 결정은 블록(308)으로부터의 점선으로 표시된 바와 같이 단지 제1 센서 데이터에 기초하여 사용자 존재에 대한 긍정적인 판단 후에 일어날 수 있음을 인식해야 한다.In addition, the determination of the state change of the device, as well as other parameters (e.g., distance, location, etc.) may only be made after a positive determination of user presence based on the first sensor data, as indicated by the dashed line from block 308. Be aware that it can happen.

또한, 사용자 존재의 제2 판단(블록 320)은 제2 센서로부터 제공된 추가 정보에 기초하여, 제1 판단(블록 308)보다 더 정확할 수 있다. 또한, 전술한 바와 같이, 추가 파라미터는 제1 및 제2 센서 양자로부터의 데이터의 결합에 기초하여 결정될 수 있다.In addition, the second determination of user presence (block 320) may be more accurate than the first determination (block 308) based on the additional information provided from the second sensor. In addition, as discussed above, additional parameters may be determined based on the combination of data from both the first and second sensors.

다른 실시예는 방법(300)보다 더 많거나 더 적은 단계를 구현할 수 있음을 인식해야 한다. 도 6 내지 도 11은 존재 판단 방법의 좀 더 구체적인 플로우차트를 예시한다.It should be appreciated that other embodiments may implement more or fewer steps than the method 300. 6-11 illustrate more specific flowcharts of the presence determination method.

도 6을 참조하면, 존재 감지를 예시하는 플로우차트(200)가 예시되어 있다. 먼저, 카메라를 이용하여 이미지를 획득한다(블록 202). 조도(light level) 판단이 수행되어(블록 204) 피부색 검출 루틴(블록 206)에 제공될 수 있다. 선택적으로, 일부 실시예에서, 조도 판단은 화살표(203)로 표시된 바와 같이 다른 루틴에도 제공될 수 있다. 또한, 캡처된 이미지는 전처리(pre-process)될 수 있다(블록 208). 어떤 경우에, 전처리는, 예를 들면, 이미지를 다운 스케일링하고, 이미지의 색 공간(color space)을 변경하고 및/또는 이미지를 향상시키는 것을 포함할 수 있다. 다른 검출기 특정 전처리 또한 수행될 수 있다(블록 214, 215 및 217). 예를 들면, 이미지는 선택적으로 피부색 검출 루틴(블록 206)에 제공되기 전에 블록(214)에서 전처리에 의해 흐릿해질(blurred) 수 있다. 또한, 블록(215)에서 전처리는 이미지를 얼굴 검출 루틴(블록 210)에 제공하기 전에 컬러를 그레이스케일로 변경하고 및/또는 이미지를 움직임 검출 루틴(블록 212)에 제공하기 전에 블록(217)의 전처리에서 에지 검출을 수행하는 것을 포함할 수 있다. 깊이 이미지는 이를 세그멘팅하여 전처리될 수 있고 세그먼트된 부분은 입력으로서 검출기로 제공될 수 있다. 피부색 검출 루틴, 얼굴 검출 루틴 및 움직임 검출 루틴에 대해서는 아래에서 도 7 내지 도 11을 참조하여 좀 더 구체적으로 설명된다.Referring to FIG. 6, a flowchart 200 is illustrated that illustrates presence detection. First, an image is acquired using a camera (block 202). Light level determination may be performed (block 204) and provided to the skin color detection routine (block 206). Optionally, in some embodiments, roughness determination may be provided to other routines as indicated by arrow 203. In addition, the captured image may be pre-processed (block 208). In some cases, the preprocessing may include, for example, downscaling the image, changing the color space of the image, and / or enhancing the image. Other detector specific pretreatments may also be performed (blocks 214, 215 and 217). For example, the image may optionally be blurred by preprocessing at block 214 before being provided to the skin color detection routine (block 206). Further, at block 215 the preprocessing changes the color to grayscale before providing the image to face detection routine (block 210) and / or before providing the image to motion detection routine (block 212). Performing edge detection in the preprocessing. The depth image may be preprocessed by segmenting it and the segmented portion may be provided to the detector as input. The skin color detection routine, the face detection routine, and the motion detection routine are described in more detail with reference to FIGS. 7 to 11 below.

융합 및 검출 로직(블록 216)을 이용하여 피부색 검출 루틴, 얼굴 검출 루틴 및 움직임 검출 루틴의 결과에 가중치가 부여되어 결합될 수 있고, 사용자 존재 분류가 결정된다(블록 218). 융합 및 검출 로직은 신경망, 지원 벡터 머신, 및/또는 어떤 다른 형태의 확률 머신 학습 기반 알고리즘을 이용하여 사용자가 존재하는지에 대한 판단에 도달하는 것을 포함할 수 있다. 도 7은 피부색 검출 루틴(블록 206)을 저조도(low light) 판단(블록 204)에서 시작하는 플로우차트로 예시한다. 저조도 판단은 이미지의 처리에 영향을 주는 다양한 다른 방식으로 이용될 수 있음을 인식해야 한다. 예를 들면, 일부 실시예에서, 저조도 판단은 벡터로서 신경망에 제공될 수 있는 반면, 다른 실시예에서 저조도 판단은 이용될 특정 형태의 분류기를 선택하는데 이용될 수 있다. 즉, 만일 이미지가 저조도에서 취해지지 않았다고 판단하면, 특징 벡터(feature vectors)가 생성될 수 있고(블록 220), 제1 픽셀 분류기가 적용된다(블록 222). 만일 이미지가 저조도에서 캡처되었다면, 다른 특징 벡터 집합이 생성될 수 있고(블록 224) 제2 픽셀별(per pixel) 분류기가 적용될 수 있다(블록 226). 특징 형태, 예를 들면, 컬러 변환 등은 원하는 결과를 얻기 위해 선택적으로 제공될 수 있고 저조도 판단에 따라 다를 수 있다. 또한, 제1 및 제2 픽셀별 분류기는 저조도 판단에 기초하여 다를 수 있다. 예를 들면, 제1 분류기는 픽셀별 7-5-2 다층 퍼셉트론(MLP:multilayer perceptron) 피드 포워드(feed forward) 신경망 분류기일 수 있는 반면, 제2 분류기는 픽셀별 2-12-2 MLP 피드 포워드 신경망 분류기일 수 있다. 일부 실시예에서, 이러한 분류기는 프로세스를 빠르게 하는데 도움이 되는 GPU를 갖는 개방형 커널로 구현될 수 있다.The results of the skin color detection routine, the face detection routine and the motion detection routine can be weighted and combined using fusion and detection logic (block 216), and a user presence classification is determined (block 218). The fusion and detection logic may include reaching a determination of whether a user exists using neural networks, support vector machines, and / or some other form of probabilistic machine learning based algorithm. 7 illustrates a skin color detection routine (block 206) with a flowchart starting at low light determination (block 204). It should be appreciated that low light judgment can be used in a variety of different ways that affect the processing of an image. For example, in some embodiments, low light judgment may be provided to the neural network as a vector, while in other embodiments low light judgment may be used to select a particular type of classifier to be used. That is, if it is determined that the image is not taken at low light, feature vectors may be generated (block 220) and the first pixel classifier is applied (block 222). If the image was captured at low light, another set of feature vectors can be generated (block 224) and a second per pixel classifier can be applied (block 226). Feature shapes such as color conversion and the like may optionally be provided to achieve a desired result and may vary depending on low light judgment. Also, the first and second pixel-specific classifiers may be different based on the low light determination. For example, the first classifier may be a pixel-by-pixel 7-5-2 multilayer perceptron (MLP) feed forward neural network classifier, while the second classifier is a pixel-by-pixel 2-12-2 MLP feed forward. It may be a neural network classifier. In some embodiments, such a classifier may be implemented with an open kernel with a GPU to help speed up the process.

이러한 분류기로부터의 출력은 이미지가 피부색을 포함할 확률을 나타내는 확률(예를 들면, 0과 1 사이의 값)일 수 있다. 이미지에는 모폴로지(morphology) 필터가 선택적으로 적용될 수 있고(블록 228) 평균 그레이스케일 레벨이 산출될 수 있다(블록 230). 또한, 피부색 검출(블록 238)에 따른 사용자 존재의 확률을 결정하기 전에 비선형 스케일링(블록 232), 시간 큐(temporal queue) 필터(블록 234) 및 클램프(블록 236)가 적용될 수 있다.The output from this classifier may be a probability (eg, a value between 0 and 1) indicating the probability that the image will contain skin color. A morphology filter can optionally be applied to the image (block 228) and an average grayscale level can be calculated (block 230). Also, nonlinear scaling (block 232), temporal queue filter (block 234) and clamp (block 236) may be applied before determining the probability of user presence according to skin color detection (block 238).

도 8은 얼굴 검출 루틴(블록 210)을 얼굴 검출기를 적용(블록 240)하는 것으로 시작하는 플로우차트로 예시한다. 예를 들면, 비올라 존스 캐스케이드 얼굴 검출기(Viola-Jones cascade face detector)와 같이 얼굴이 존재할 가능성을 나타내는 확률 점수를 제공하는 어떤 적절한 얼굴 검출기가 구현될 수 있다. 다음에, 얼굴 존재 점수는 스케일링되고(블록 242) 단속적(intermittent) 검출 플리커(flicker) 필터가 선택적으로 적용(블록 244)되어 이미지를 평탄화(smooth)할 수 있다. 카메라가 비교적 우수한 품질을 갖는 경우와 같은 일부 실시예에서, 평탄화는 프로세스에서 생략될 수 있음을 인식해야 한다. 플리커 필터는 시간 큐 필터(블록 246), 평균으로부터의 정규화된 점수 편차가 임계치보다 작은지에 대한 판단(블록 248), 그런 다음 출력값과 스케일링된 점수의 곱셈(블록 250)을 포함할 수 있다. 시간 큐 필터(블록 252) 및 클램프(블록 254)는 얼굴 검출에 따른 사용자 존재의 확률(블록 256)을 결정하기 전에 적용된다. 몸체(body) 검출기 또는 몸체 센서는 얼굴 검출기와 동일한 흐름 또는 그와 유사한 흐름을 따르도록 구성될 수 있다. 또한, 몸체 검출기는 얼굴 검출기에 이용된 것보다 해상도가 더 낮은 이미지 센서를 이용하여 구현될 수 있다.8 illustrates a face detection routine (block 210) with a flowchart that begins with applying a face detector (block 240). For example, any suitable face detector may be implemented that provides a probability score indicating the likelihood of a face, such as a Viola-Jones cascade face detector. The face presence score can then be scaled (block 242) and an intermittent detection flicker filter can be selectively applied (block 244) to smooth the image. It should be appreciated that in some embodiments, such as where the camera has relatively good quality, planarization may be omitted in the process. The flicker filter may include a time queue filter (block 246), a determination as to whether the normalized score deviation from the mean is less than the threshold (block 248), and then a multiplication of the output value with the scaled score (block 250). The time cue filter (block 252) and the clamp (block 254) are applied before determining the probability of user presence according to face detection (block 256). The body detector or body sensor may be configured to follow the same flow as or similar to the face detector. In addition, the body detector may be implemented using an image sensor having a lower resolution than that used in the face detector.

도 9는 모션 검출 루틴(212)을 많은 프레임을 수집함으로써 시작하는 플로우차트로 예시하며, 그와 같이, 메모리는 많은 프레임을 저장하도록 구현될 수 있다. 예를 들면, 세 개의 프레임, 즉 현재 프레임과 두 개의 다른 프레임이 이용될 수 있다. 도 9에 예시된 실시예에서, 현재 프레임 및 두 개의 후속 프레임이 이용된다. 먼저, 입력 프레임이 k개의 프레임만큼 순차적으로 지연되고(블록 260, 262) 피드 포워드되어 제2 지연(블록 262)의 출력과 함께 가산된다(블록 264). 블록(260)의 출력에 2를 곱하고(블록 266) 가산기(블록 264)와 곱셈기(블록 266)의 출력 간의 차(블록 268)가 결정된다. 다음에, 픽셀별 내적(inner product)이 결정되고(블록 270), 스케일링되고(블록 272), 픽셀은 클램프된다(블록 274). 평균 그레이 레벨이 산출되고(블록 276), 비선형 스케일링이 수행되고(블록 278), 시간 큐 필터가 적용되고(블록 280), 그런 다음 [0,1]로 클램프 된다(블록 282). 마지막으로, 움직임에 따른 사용자 존재의 확률이 결정된다(블록 284).9 illustrates the motion detection routine 212 as a flowchart that begins by collecting many frames, and as such, the memory may be implemented to store many frames. For example, three frames may be used, the current frame and two other frames. In the embodiment illustrated in FIG. 9, the current frame and two subsequent frames are used. First, the input frame is sequentially delayed by k frames (blocks 260 and 262) and feedforwarded and added with the output of the second delay (block 262) (block 264). The output of block 260 is multiplied by 2 (block 266) and the difference (block 268) between the adder (block 264) and the output of multiplier (block 266) is determined. Next, an inner product per pixel is determined (block 270), scaled (block 272), and the pixel is clamped (block 274). The average gray level is calculated (block 276), nonlinear scaling is performed (block 278), a time cue filter is applied (block 280), and then clamped to [0, 1] (block 282). Finally, a probability of user presence over the movement is determined (block 284).

모션 검출 루틴에서 유용할 수 있는 몇 가지 파라미터는 자동 초점(AF:auto focus) 윈도우 통계 또는 수평 에지 또는 소벨/샤르(Sobel/Sharr) 에지, 2D 컬러 히스토그램(color histogram) 데이터, 성분 히스토그램 데이터, 순색량(color content)에 대한 자동 백색 밸런스/자동 노출(AWB/AE:automatic white balance/auto exposure) 윈도우 통계 등을 포함할 수 있다. 일부 전처리 단계는 Y 채널(세기), (적절한 정규화(normalization)를 위해 기울기(gradient)를 축적하는) 소벨 또는 샤르 필터로 산출된 기울기 크기, 임계 기울기 크기(에지 픽셀의 계수(count)에 의한 정규화), 크로미넌스(chrominance)(Cr, Cb) 공간에서 피부 확률(skin-probability), 전술한 바 중 어떤 것의 서브 이미지 등과 같은 모션 검출을 위해 구현될 수 있다. 일부 실시예에서, 모션 검출은 이미지 중심(centroids)을 산출할 수 있는 능력을 포함할 수 있다. 현재 프레임의 중심에서 이전 프레임의 중심까지의 거리는 모션 양의 척도로 이용되고, 하드 임계치(hard threshold)는 이진 검출 또는 모션을 생성하는데 적용된다. 따라서, 예를 들면, Y' 세기, 에지 기울기 크기, 이진 에지, 또는 피부 확률 이미지의 중심 위치의 변경은 모션을 의미할 수 있다. 감도 및 강인성(robustness)의 상충관계(tradeoffs)는 이용되는 파라미터들의 특정 결합에 영향을 끼칠 수 있다. 예를 들면, 피부 확률 이미지는 에지 기울기에 이용될 수 있고 이진 에지는 조명(lighting) 변경에 대한 강인성을 제공하는데 이용될 수 있다. 피부 확률은 전술한 바와 같이 또는 대안으로 자동 백색 밸런스 컬러 공간 필터를 이용하여 이러한 기능을 근사화하는 신경망에 의해 수행될 수 있다.Some parameters that can be useful in motion detection routines are auto focus window statistics or horizontal edge or Sobel / Sharr edges, 2D color histogram data, component histogram data, and true color. Automatic white balance / auto exposure (AWB / AE) window statistics on color content, and the like. Some preprocessing steps include the Y channel (intensity), the slope magnitude computed by the Sobel or Shar filter (which accumulates the gradient for proper normalization), and the critical gradient magnitude (normalized by count of edge pixels). ), Skin-probability in chrominance (Cr, Cb) space, sub-images of any of the foregoing, and the like, for motion detection. In some embodiments, motion detection may include the ability to calculate image centroids. The distance from the center of the current frame to the center of the previous frame is used as a measure of the amount of motion, and the hard threshold is applied to generate binary detection or motion. Thus, for example, a change in the Y 'intensity, the edge slope magnitude, the binary edge, or the center position of the skin probability image may mean motion. Tradeoffs in sensitivity and robustness can affect the specific combination of parameters used. For example, skin probability images can be used for edge gradients and binary edges can be used to provide robustness to lighting changes. Skin probabilities may be performed by neural networks as described above or alternatively using an automatic white balance color space filter to approximate this function.

모션을 감지하는 일부 실시예는 기울기 이미지(gradient images)의 피부 검출의 윈도우 통계(window statistics)를 언급할 수 있다. 일 실시예는 전체 합(global sum)의 변경을 검토할 수 있다. 특히, 이미지는 프레임 전체에 걸쳐 합산되어 스칼라 값(scalar value) s[i]를 생성하고, 여기서 i는 현재 프레임 인덱스이다. 이전의 N개의 값의 큐는 S={s[i-1],s[i-2],...,s[i-N]}로 유지된다. SL ,N은 s[i-L]에서 s[i-N]까지의 시퀀스로 나타내고, 이들 값의 극값(extremum)은 u=max(SL,N) 및 v=min(SL ,N)으로 산출된다. 모션 양은 이 범위, 즉 e=max(s[i]-u, v-s[i]) 밖의 편위(excursion)에 의해 결정된다. 모션은 e가 미리 정해진 임계치를 초과하는 경우에 검출된다.Some embodiments of sensing motion may refer to window statistics of skin detection of gradient images. One embodiment may consider changing the global sum. In particular, the images are summed over the frame to produce a scalar value s [i], where i is the current frame index. The queue of previous N values is kept at S = {s [i-1], s [i-2], ..., s [iN]}. S L , N is represented by a sequence from s [iL] to s [iN], and the extremes of these values are calculated as u = max (S L, N ) and v = min (S L , N ). . The amount of motion is determined by the excursion outside this range, e = max (s [i] −u, vs [i]). Motion is detected when e exceeds a predetermined threshold.

일부 실시예에서, 모션 검출 루틴은 단일 프레임으로 구현될 수 있고, 따라서 전체 프레임이 저장되지 않을 것이기 때문에 적은 메모리가 이용되거나 메모리가 이용되지 않을 수 있다. 일부 실시예에서, 이미지(단일 프레임)는 통계 산출이 가능한 윈도우로 분할될 수 있다. 윈도우의 통계 변경은 모션 및 사용자의 위치 또한 결정하는데 이용될 수 있다.In some embodiments, the motion detection routine may be implemented in a single frame, so less memory may be used or no memory may be used because the entire frame will not be stored. In some embodiments, the image (single frame) may be divided into windows capable of statistical calculation. The statistical change of the window can also be used to determine the motion and the position of the user.

도 10은 이미지가 단일 프레임 모션 검출용으로 분할될 수 있는 가능한 윈도우 집합을 예시한다. 구체적으로, 도 10은 통계 목적으로 비중첩(non-overlapping) 윈도우 및 동심의(concentric) 윈도우로 분할된 단일 프레임을 도시한다. 각 경우에, 이미지(페이지의 상부에 있는 프레임)의 루미넌스(luminance) 및 이미지(페이지의 하부에 있는 프레임)의 세기 기울기 크기가 고려된다. 예를 들면, 이미지(300)는 다중 비중첩 노출(exposure) 통계 윈도우(302)로 분할될 수 있다. 대안으로, 이미지(300)는 다중 동심원 중첩 노출 통계 윈도우(304)로 분할될 수 있다. 각 윈도우의 통계는 (이미지(300)에서와 같은) 루미넌스 이미지에 기초하여 또는 세기 기울기 크기 이미지(306)에 기초하여 결정될 수 있다.10 illustrates a possible set of windows in which an image can be partitioned for single frame motion detection. Specifically, FIG. 10 shows a single frame divided into non-overlapping windows and concentric windows for statistical purposes. In each case, the luminance of the image (frame at the top of the page) and the intensity gradient magnitude of the image (frame at the bottom of the page) are taken into account. For example, image 300 may be divided into multiple non-overlapping exposure statistics windows 302. Alternatively, image 300 may be divided into multiple concentric overlapping exposure statistics windows 304. Statistics of each window may be determined based on a luminance image (such as in image 300) or based on intensity gradient size image 306.

윈도우를 이용하면 기울기 크기의 합을 산출할 때 더 강인한 모션 캡처를 제공한다. 중첩하는 직사각형 윈도우에 대해, 일 실시예는 동심원으로 배열된 여덟 개의 직사각형을 포함하고, 가장 큰 것은 프레임 전체를 포함하고 가장 작은 것은 이미지 중심에 있다. 따라서, 프레임 i에서, 프레임들의 합은 j∈[1,2,...,8]에 대해 sj[i]이다. 직사각형들 사이에 놓인 스트립(strips) 픽셀의 합은 특별한 경우인 d8[i]=s8[i]/h8을 제외하고 이들 합들의 차인 dj[i]=sj[i]-sj+1[i]/hj로 산출된다. 그 차는 대략 그의 면적에 비례하는 스트립 hj의 높이로 정규화된다.Using windows provides more robust motion capture when calculating the sum of the gradient magnitudes. For overlapping rectangular windows, one embodiment includes eight rectangles arranged concentrically, with the largest covering the entire frame and the smallest at the center of the image. Thus, in frame i, the sum of the frames is s j [i] for j∈ [1,2, ..., 8]. The sum of the strips pixels lying between the rectangles is the difference of these sums d j [i] = s j [i] -s except for the special case d 8 [i] = s 8 [i] / h 8 It is calculated as j +1 [i] / h j . The difference is normalized to the height of the strip h j roughly proportional to its area.

다음에, N개의 이전 프레임에 대한 차 dj의 극값 u, v(최대값 및 최소값)는 큐를 이용하여 산출되고, 편위는 ej=max(dj[i]-u,v-dj[i])이다. 각 편위 ej와 임계치를 비교하여 해당 프레임의 영역 j의 모션 지표(indicator)를 제공한다. 미세한 조명 변경은 긍정 오류 검출을 초래할 수 있다. 실제 모션은 일반적으로 여덟 개의 영역 중 두 개 또는 세 개 영역의 검출과 연관된다. 따라서, 일부 실시예에서, 해당 프레임에서 모션이 검출되었다고 판단하기 위해서는 적어도 두 개의 모션 검출 영역이 필요하다. 또한, 방의 전등을 턴 온하거나 턴 오프하는 것과 같이 조명 변화가 크면 흔히 많은 영역에서 모션 검출을 보인다. 따라서, 세 개보다 많은 영역이 모션을 검출한 경우에는 검출이 억제될 수 있다. 이러한 설계 파라미터는 경험에 기초하여 또는 원하는 감도 및 강인성 레벨을 제공하도록 조정될 수 있다.Next, the extreme values u, v (maximum value and minimum value) of the difference d j for N previous frames are calculated using the cue, and the deviation is e j = max (d j [i] -u, vd j [i ])to be. Each deviation e j is compared with a threshold to provide a motion indicator of the area j of the frame. Minor illumination changes can result in false positive detection. Real motion is generally associated with the detection of two or three of eight areas. Thus, in some embodiments, at least two motion detection regions are needed to determine that motion has been detected in the frame. In addition, large lighting variations, such as turning on or off the lights in a room, often show motion detection in many areas. Therefore, when more than three regions detect the motion, the detection can be suppressed. These design parameters can be adjusted based on experience or to provide the desired sensitivity and toughness levels.

도 11은 비동심의(non-concentric) 윈도우(302)를 갖는 단일 프레임(300)을 이용한 모션 검출 루틴(212B)을 예시하는 플로우차트이다. 일부 실시예에서, 각 통계 윈도우에는 고유한 분석 파이프(unique analysis pipe)가 제공될 수 있다. 즉, 각 윈도우는 동시에 처리될 수 있다. 다른 실시예에서는, 공통 분석 파이프에서 하나 이상의 윈도우가 순차적으로 처리될 수 있다. 본 명세서에서 이용된 바와 같은, "분석 파이프"는 윈도우의 통계 분석과 연관된 처리 단계를 지칭할 수 있고 시간 큐 필터를 포함할 수 있다.11 is a flowchart illustrating a motion detection routine 212B using a single frame 300 with a non-concentric window 302. In some embodiments, each statistics window may be provided with a unique analysis pipe. That is, each window can be processed at the same time. In another embodiment, one or more windows may be processed sequentially in a common analysis pipe. As used herein, an "analysis pipe" can refer to a processing step associated with statistical analysis of a window and can include a time queue filter.

전술한 바와 같이, 이미지(300)는 통계 윈도우(302)로 분할될 수 있고 각 윈도우마다 평균 통계가 산출될 수 있다(블록 310). 평균 통계에는 시간 큐 필터가 적용될 수 있고(블록 312) 과거 단기간 거동(short term past behaviour)으로부터 편위값 "e"이 산출될 수 있다(블록 314). 이 편위값은 임계치와 비교하여 그 편위값이 임계치를 초과하는지 판단할 수 있다(블록 316). 임계치를 초과하는 각 편위값에 대해 정규화된 계수가 유지되고(블록 318) 만일 정규화된 계수가 보팅(voting) 임계치를 초과하면(블록 320), 모션이 검출되었다고 판단한다(블록 322). 만일 모션이 검출되지 않았다고 판단하면, 제2 센서(들)로부터 추가 데이터가 수집될 수 있다. 또한, 약간의 결정된 시간량이 경과한 후, 장치는 저감된 전력 상태로 되돌아갈 수 있고 제1 센서(들)가 데이터를 수집할 수 있다.As described above, image 300 may be divided into statistics windows 302 and average statistics may be calculated for each window (block 310). A time queue filter may be applied to the average statistics (block 312) and a deviation value “e” may be calculated from the short term past behavior (block 314). This deviation value may be compared with a threshold to determine if the deviation value exceeds the threshold (block 316). A normalized coefficient is maintained for each excursion above the threshold (block 318) and if the normalized coefficient exceeds the voting threshold (block 320), it is determined that motion has been detected (block 322). If it is determined that no motion was detected, additional data may be collected from the second sensor (s). In addition, after some determined amount of time has passed, the device may return to a reduced power state and the first sensor (s) may collect data.

또한, 편위값을 이용하여 간략한(summary) 통계를 생성할 수 있다(블록 324). 간략한 통계는 비선형으로 스케일링될 수 있고(블록 326) 확률 모션 점수가 제공될 수 있다(블록 328). 일반적으로, 블록(322)은 모션이 검출되었음을 나타내는 이진 1 또는 0 출력을 제공하는 반면, 블록(328)은 이미지(300)에서 모션이 검출된 가능성을 나타내는 0과 1 사이의 값을 제공할 것이다.In addition, the deviation value may be used to generate summary statistics (block 324). The simplified statistics can be scaled nonlinearly (block 326) and a probability motion score can be provided (block 328). In general, block 322 will provide a binary one or zero output indicating that motion was detected, while block 328 will provide a value between 0 and 1 indicating the likelihood that motion was detected in image 300. .

인식할 수 있는 바와 같이, 전술한 루틴들 각각에서 신경망, 지원 벡터 머신(SVM) 또는 다른 분류 시스템을 이용하여 사용자의 존재를 판단할 수 있다. 또한, 각 루틴으로부터의 확률값은 단독으로도, 예를 들면, 어떤 값이 소정의 임계치 이상인 경우 사용자가 존재하는 것으로 판단하기에 충분할 수 있다. 또한, 일부 실시예에서는, 각 루틴으로부터의 확률들의 조합도 사용자가 존재하는지를 판단하는데 이용될 수 있다. 일부 실시예에서, 어떤 루틴의 출력은 그의 유효성(validity)이 문제가 될 수 있기 때문에 이용되지 못할 수 있다. 예를 들면, 피부색 검출 루틴은 조명으로 인해 신뢰하지 못할 수 있다. 또한, 그러한 루틴들로부터 출력된 확률들은 가중화(weighted) 방식으로 결합될 수 있다(예를 들면, 하나의 확률에는 그 확률이 다른 것들보다 더 정확할 가능성에 기초하여 더 큰 가중치(weight)가 부여될 수 있다.As can be appreciated, neural networks, support vector machines (SVMs), or other classification systems can be used in each of the aforementioned routines to determine the presence of a user. In addition, the probability value from each routine may be sufficient alone to determine that the user is present, for example, if a value is above a predetermined threshold. Further, in some embodiments, a combination of probabilities from each routine may also be used to determine if a user is present. In some embodiments, the output of certain routines may not be available because their validity may be an issue. For example, the skin color detection routine may be unreliable due to illumination. In addition, the probabilities output from such routines can be combined in a weighted fashion (eg, one probability is given a greater weight based on the probability that the probability is more accurate than the other). Can be.

본 명세서에서 설명된 실시예들은 노트북 컴퓨터, 데스크탑 컴퓨터 등과 같은 컴퓨팅 장치의 소비 전력을 저감하도록 구현될 수 있다. 특히, 이러한 컴퓨팅 장치는 그 장치가 동면(hibernate) 또는 슬립 상태와 같은 저전력 상태에 있는 경우에도 존재 감지 기능을 제공할 수 있기 때문에, 그 장치는 사용자가 존재할 경우 파워 업할 수 있고 사용자가 떠난 경우 파워 다운(power down)되거나 저감된 전력 상태에 진입할 수 있다. 또한, 실시예는 무엇보다도 직관적인(intuitive) 파워 업 및 파워 다운 동작뿐만 아니라, 보안 기능을 제공함으로써 컴퓨팅 장치를 다루는 사용자 경험을 향상시키도록 제공될 수 있다.Embodiments described herein may be implemented to reduce power consumption of computing devices such as notebook computers, desktop computers, and the like. In particular, since such computing devices can provide presence detection even when the device is in a low power state such as hibernate or sleep state, the device can power up when a user exists and power up when the user has left. It may enter a power down or reduced power state. In addition, embodiments may be provided to enhance user experience in handling computing devices by providing, among other things, intuitive power up and power down operations, as well as security functions.

저전력 동작에서 메인 프로세서 및 RAM의 사용을 막는 단계적인 시스템이 구현될 수 있다. 예를 들면, 일 실시예에서, 최저 전력 상태에서는 단지 카메라, 이미지 신호 처리(ISP) 장치 및 존재값(presence value)을 실시간으로 산출할 수 있는 임베디드 프로세서만 구현할 수 있다. 다음 단계에서, 얼굴 검출기 칩 및 RAM이 턴 온될 수 있다. 후속 단계에서, 시스템 프로세서 및 다른 자원이 파워 온될 수 있다.A staged system can be implemented that prevents the use of the main processor and RAM in low power operation. For example, in one embodiment, only a camera, an image signal processing (ISP) device, and an embedded processor capable of calculating the presence value in real time may be implemented in the lowest power state. In the next step, the face detector chip and RAM can be turned on. In subsequent steps, the system processor and other resources may be powered on.

따라서, 모션 검출을 위한 전술한 예에서는, RAM이 이용가능하지 않을 수 있기 때문에, 이전 프레임의 메모리는 ISP에 의해 산출된 통계로 한정되고, 또한 임베디드 프로세서 레지스터 및 캐시(예를 들면, 32k)에서 이용가능한 공간으로 한정된다. 또한, 존재 감지 정보(예를 들면, 통계치, 이미지 등)는 존재 감지 루틴의 외부에 이용가능하지 않다는 것을 인식해야 한다. 즉, 예를 들면, 존재 감지를 위해 캡처된 이미지는 사용자가 보지 못할 수 있다.Thus, in the above example for motion detection, since the RAM may not be available, the memory of the previous frame is limited to the statistics calculated by the ISP, and also in the embedded processor register and cache (e.g. 32k). Limited to available space. It should also be appreciated that presence detection information (eg, statistics, images, etc.) is not available outside of the presence detection routine. That is, for example, an image captured for presence detection may not be visible to the user.

일부 실시예에서는, 몸체 검출 파라미터(body detection parameter)가 이용될 수 있다. 몸체 검출 파라미터는 얼굴 검출 파라미터와 유사할 수 있지만 얼굴을 증명할 수 있는 더 작은 특징이라기보다 인체(human body)의 매크로 특징을 기반으로 할 수 있다. 예를 들면, 몸체 검출 파라미터는 팔, 다리, 몸통(torso), 머리 등과 관련될 수 있다. 몸체 검출 파라미터는 더 큰 특징을 기반으로 하기 때문에, 얼굴 검출에 이용된 것들에 비해 저해상도 카메라가 구현될 수 있고 몸체 센서처럼 적당히 양호한 결과를 얻을 수 있다. 또한, 일부 실시예에서, 카메라는 몸체 검출 파라미터를 얻는데 이용될 때 저해상도 모드에서 동작할 수 있고 다른 목적으로 이용될 때 고해상도 모드에서 동작할 수 있다. 실제로는, 몸체 검출 및 얼굴 검출 파라미터 양자의 목적으로 동일한 카메라가 이용될 수 있다. 몸체 검출 파라미터는 얼굴 검출 파라미터와 동일한 방식으로 존재 확률을 결정하는데 이용될 수 있음을 인식해야 한다. 또한, 몸체 검출 파라미터는 몸체가 검출된 확률을 나타내는 파라미터일 수 있다. 몸체 검출기에 이용되는 데이터는 깊이 이미지(depth images), 그레이스케일 이미지, RGB 이미지, 또는 전술한 형태의 이미지들 중 어떤 하나 단독 또는 다른 형태의 이미지와 결합한 것일 수 있다.In some embodiments, body detection parameters may be used. The body detection parameter may be similar to the face detection parameter but may be based on macro features of the human body rather than a smaller feature that can prove the face. For example, the body detection parameters may relate to arms, legs, torso, heads and the like. Since the body detection parameters are based on larger features, lower resolution cameras can be implemented than those used for face detection and a reasonably good result can be obtained like a body sensor. Further, in some embodiments, the camera can operate in low resolution mode when used to obtain body detection parameters and in high resolution mode when used for other purposes. In practice, the same camera can be used for the purposes of both body detection and face detection parameters. It should be appreciated that the body detection parameter can be used to determine the presence probability in the same manner as the face detection parameter. In addition, the body detection parameter may be a parameter representing a probability that the body is detected. The data used in the body detector may be a depth image, a grayscale image, an RGB image, or any one of the above-described types of images or combined with other types of images.

일부 실시예에서는, 많은 다른 센서 및 입력이 구현될 수 있다. 많은 다른 센서 및 입력은 존재 센서의 정확도 및 능력을 증대시켜 긍정 오류 및 부정 오류를 감소시키는데 도움이 될 수 있다. 일 실시예에서는, 베이지언 필터가 구현될 수 있다. 구체적으로, 확률 데이터 융합에 기초하여 반복적인 베이지언 추정이 수행될 수 있다. 도 12는 다중 동시적 비동기 센서를 이용하여 사용자가 존재할 확률을 결정하는 방법(350)을 예시하는 일례의 플로우차트이다. 플로우차트의 상부 부근에는 다중 센서(352)가 있다. 구체적으로, 이러한 센서는 비디오 카메라(354), 3-D 카메라(356), 마이크로폰(358), 및 키보드(360)를 포함할 수 있다. 이는 단지 일례에 불과하며 실제 구현에서는 더 많거나 더 적은, 뿐만 아니라 다른 센서가 이용될 수 있음을 인식해야 한다. 예를 들면, 터치 스크린, 트랙패드(trackpad) 및 마우스는 각각 이용될 수 있다. 각각의 센서들(352)은 동시에 동작할 수 있다.In some embodiments, many other sensors and inputs may be implemented. Many other sensors and inputs can help reduce false positives and false positives by increasing the accuracy and capabilities of existing sensors. In one embodiment, a Bayesian filter may be implemented. In particular, iterative Bayesian estimation may be performed based on probability data fusion. 12 is an example flowchart illustrating a method 350 of determining the probability that a user is present using multiple simultaneous asynchronous sensors. Near the top of the flowchart is a multiple sensor 352. In particular, such a sensor may include a video camera 354, a 3-D camera 356, a microphone 358, and a keyboard 360. This is just one example and it should be appreciated that more or less, as well as other sensors, may be used in practical implementations. For example, a touch screen, trackpad and mouse can each be used. Each of the sensors 352 may operate simultaneously.

다른 센서들(352)은 각각 소정의 특징을 캡처하도록 구성될 수 있다. 즉, 각 센서는 몇몇 유용한 정보를 존재 판단에 제공하는 역량을 갖는다. 센서 정보를 결합하면 그 정보의 결합이 단독으로 이용될 때 각 센서로부터의 정보보다 더 유용하고 및/또는 더 정확하도록 정보의 시너지를 제공한다. 구체적으로, 센서(352)로부터의 데이터는 사용자가 존재할 가능성을 판단하는 것 외에 3-D 공간에서 사용자의 실제 위치 및 사용자의 속도를 결정하는데 이용될 수 있다. 획득된 데이터는 센서 정보의 시너지를 제공하도록 강인한 방식으로 모션 모델의 선험적(a priori) 예측치와 결합된다. 데이터 융합은 선택적으로 모델 예측치와 관측된 센서 데이터를 융합하여, 그 정보의 확실성(certainty)(품질)에 비례하여 추정된 상태(사용자의 위치 및 속도)에 대한 각 성분의 기여도에 가중치를 부여한다. 따라서, 만일 모션 모델이 정확하고 센서 데이터에 잡음이 있다면, 센서 데이터에 비해 모델 예측치에 더 큰 가중치가 부여될 수 있고, 그 반대의 경우도 가능하다. 이와 같은 모델 및 관측된 데이터의 결합은 시스템의 진화하는(evolving) 확률에 기초하여 지속적으로 적응된다(예를 들면, 가능성 모델(likelihood models)에 의해 산출된 가중치가 끊임없이 갱신된다).The other sensors 352 may each be configured to capture certain features. That is, each sensor has the ability to provide some useful information to the presence judgment. Combining sensor information provides synergy of information to be more useful and / or more accurate than information from each sensor when the combination of information is used alone. Specifically, data from sensor 352 can be used to determine the user's actual location and speed of the user in 3-D space, in addition to determining the likelihood that the user is present. The obtained data is combined with a priori prediction of the motion model in a robust manner to provide synergy of sensor information. Data fusion optionally fuses model predictions with observed sensor data, weighting each component's contribution to the estimated state (user's position and velocity) in proportion to the quality (quality) of that information. . Thus, if the motion model is accurate and there is noise in the sensor data, then the weighted model can be weighted more than the sensor data, and vice versa. The combination of this model and the observed data is constantly adapted based on the evolving probabilities of the system (eg, the weights produced by likelihood models are constantly updated).

플로우차트에는 센서들에 의해 제공된 데이터로부터 추출될 수 있는 몇 가지 예시적인 특징들이 제공된다. 구체적으로, 비디오 카메라는 3-D 블랍(blobs), 얼굴 & 몸체 검출, 및 모션 벡터와 같은 특징들을 추출할 수 있다(블록 370). 3-D 블랍은 카메라의 시야 내에 있는 객체를 나타낼 수 있다. 3-D 카메라(356)는 얼굴 검출, 몸체 검출 및 모션 벡터 역시 추출하도록 구성될 수 있다(블록 372). 마이크로폰(358)은 오디오 가속(acceleration) 및 새것(novelty) 검출을 추출하도록 구성될 수 있다(블록 374). 키보드(360)는 키누름(keypress) 검출을 추출하도록 구성될 수 있다(블록 376). 오디오 가속 특징은 도플러 효과(dopler effect)를 이용하여 객체가 접근하는지 후퇴하는지를 판단할 수 있다. 또한, 새것 검출 특징은 사용자의 존재를 나타낼 수 있는 배경 잡음의 변화를 찾으려고 시도할 수 있다. 예를 들면, 음량(sound volume)의 증가는 사용자의 존재를 나타낼 수 있다.The flowchart is provided with some example features that can be extracted from the data provided by the sensors. In particular, the video camera may extract features such as 3-D blobs, face & body detection, and motion vectors (block 370). The 3-D blob can represent an object within the field of view of the camera. The 3-D camera 356 may be configured to extract face detection, body detection, and motion vectors as well (block 372). The microphone 358 may be configured to extract audio acceleration and novelty detection (block 374). Keyboard 360 may be configured to extract keypress detection (block 376). The audio acceleration feature may use a Doppler effect to determine whether an object is approaching or retreating. In addition, the new detection feature may attempt to find a change in background noise that may indicate the presence of a user. For example, an increase in sound volume may indicate the presence of a user.

일단 이러한 특징들이 추출되면, 관측 가능성이 판단된다(블록 178). 즉, 추출된 특징들 각각은 관심 객체(예를 들면, 사용자)가 존재할 가능성을 판단하는데 이용될 수 있다. 다음에, 관측 가능성은 상태 표현(state representation)을 갱신하는데 이용된다(블록 182). 상태 표현은 데이터의 융합을 이용한다. 상태 표현(블록 184)이 생성될 수 있다. 일 실시예에서, 상태 표현은 히스토그램 형태를 취할 수 있다. 다른 실시예는 파라메트릭 가우시안 분포(Parametric Gaussian distribution)(칼만(Kalman) 필터), 몬테 카를로(Monte-Carlo) 샘플 기반 분포(순차적인 몬테-카를로 방법/입자(Particle) 필터), 하이브리드 비동기적 다중 관측 입자 필터 등을 포함할 수 있다. 상태 표현은 사용자 존재 산출에 관한 정보를 제시할 수 있다. 예를 들면, 상태 표현은 사용자(들)의 3-D 위치 및 사용자(들)의 속도에 관한 정보를 제시할 수 있다. 모션 모델(블록 188)은 상태 표현에 이용된 정보를 입력할 수 있고 또한 상태 표현으로부터 정보를 수신할 수 있다. 모션 모델은 사용자의 움직임을 모델링하는 상태 진화 표현(state evolution expression)이다. 상태 표현은 무엇보다도 사용자 존재의 확률을 결정할 수 있는 통계 산출(블록 186)에 이용될 수 있다. 또한, 통계 산출은 사용자의 위치 및 추정치의 분산(variance)을 추정할 수 있다.Once these features are extracted, the observability is determined (block 178). That is, each of the extracted features may be used to determine the possibility that an object of interest (eg, a user) exists. The observability is then used to update the state representation (block 182). State representations use fusion of data. A state representation (block 184) may be generated. In one embodiment, the state representation may take the form of a histogram. Other embodiments include parametric Gaussian distribution (Kalman filter), Monte-Carlo sample based distribution (sequential Monte-Carlo method / particle filter), hybrid asynchronous multiplexing. Observation particle filters and the like. Status representations can present information about user presence calculations. For example, the status representation can present information regarding the 3-D location of the user (s) and the speed of the user (s). The motion model (block 188) can enter information used in the state representation and can also receive information from the state representation. The motion model is a state evolution expression that models the user's movement. The state representation can be used first of all in statistical calculations (block 186) that can determine the probability of a user's presence. In addition, the statistical calculation may estimate the variance of the user's location and estimate.

상태 표현은 또한 측정 모델에 정보를 제공하고(블록 180) 측정 모델은 관측 가능성 판단에 제공될 수 있다(블록 178). 측정 모델은 일반적으로 센서의 각 관측을 스케일링할 수 있다. 구체적으로, 센서의 상대적 관측에는 다소의 가중치가 부여될 수 있기 때문에, 더 큰 가중치를 부여할 가치가 있는 관측에 더 큰 가중치를 부여하도록 돕는 모델이 적용될 수 있다. 예를 들면, 키누름의 관측에는 3-D 블랍의 관측보다 더 큰 가중치가 부여될 수 있다. 또한, 만일 센서에 잡음이 있으면, 이들에는 더 작은 가중치가 부여될 수 있다. 각 측정 모델은 관측 가능성 단계에 이용되고, 다시 상태 표현을 갱신하는데 이용된다(블록 182).The state representation also provides information to the measurement model (block 180) and the measurement model can be provided to the observability judgment (block 178). The measurement model can generally scale each observation of the sensor. In particular, since the relative observation of the sensor may be given some weight, a model may be applied that helps to give greater weight to the observation that is worthy of greater weight. For example, observation of a keypress may be weighted more than observation of a 3-D blob. Also, if the sensors are noisy, they can be given a smaller weight. Each measurement model is used in the observability phase and again used to update the state representation (block 182).

존재 감지의 구현은 컴퓨팅 장치의 지능적인 동작을 증가시킬 수 있다. 즉, 컴퓨팅 장치는 사용자 상호작용을 더 잘 예측할 수 있고 사용자 경험을 향상시킬 수 있다. 예를 들면, 디스플레이는 사용자가 존재하는 동안에는 희미하지 않을 수 있고 사용자의 이탈시에는 멈출 수 있다. 또한, 디스플레이 출력은 장치로부터의 사용자의 거리에 기초하여 스케일링되고 및/또는 변경될 수 있다. 감지된 움직임을 모방하기 위해 화면 전체에 걸쳐 흔들리는 나무잎과 같은 다른 직관적이고 경험적인 특징은 사용자를 위한 지능적이고 상호작용적인 느낌에 추가될 수 있다.Implementation of presence detection may increase the intelligent operation of the computing device. In other words, the computing device can better predict user interaction and enhance the user experience. For example, the display may not be dimmed while the user is present and may freeze upon departure of the user. In addition, the display output may be scaled and / or changed based on the user's distance from the device. Other intuitive and empirical features, such as tree leaves swaying across the screen to mimic perceived movement, can add to the intelligent and interactive feel for the user.

전술한 바에는 사용자의 존재를 감지하는 예시적인 일부 실시예들이 설명되었다. 비록 전술한 설명이 특정 실시예를 제시하였지만, 당업자는 그 실시예의 정신 및 범주로부터 벗어남이 없이 형태 및 상세 내용에 대한 변경이 이루어질 수 있음을 인식할 것이다. 예를 들면, 존재 감지를 위한 알고리즘 중 하나 이상에 대한 변형예가 구현될 수 있다. 일례에서, 하드웨어 제한은 알고리즘의 변화를 추구할 수 있다. 따라서, 본 명세서에서 설명된 구체적인 실시예들은 예를 든 것이지 그 범주를 한정하려는 것이 아닌 것으로 이해되어야 한다.The foregoing has described some example embodiments of sensing the presence of a user. Although the foregoing description has set forth specific embodiments, those skilled in the art will recognize that changes may be made in form and detail without departing from the spirit and scope of the embodiments. For example, variations on one or more of the algorithms for presence detection may be implemented. In one example, hardware limitations may seek to change the algorithm. Accordingly, it is to be understood that the specific embodiments described herein are examples only and are not intended to limit the scope thereof.

Claims (28)

존재 기반 기능(presence based functionality)을 제공하도록 컴퓨팅 장치를 동작시키는 방법으로서,
상기 컴퓨팅 장치를 전력 저감 상태에서 동작시키는 단계;
적어도 하나의 센서로부터 제1 데이터 집합을 수집하는 단계;
상기 제1 데이터 집합에 기초하여, 관심 객체(object of interest)가 상기 컴퓨팅 장치 부근에 있을 확률(probability)을 결정하는 단계;
상기 컴퓨팅 장치에 대한 상기 객체의 일부분에 기초하여 상기 컴퓨팅 장치에서의 상태 변경을 선택적으로 실행하는 단계;
상기 확률이 임계 레벨을 초과하는 경우, 적어도 하나의 제2 센서를 활성화하여 제2 데이터 집합을 수집하는 단계;
상기 제1 및 제2 데이터 집합에 기초하여, 상기 객체가 사람일 확률을 결정하는 단계;
상기 객체가 사람인 것으로 결정되는 경우,
상기 컴퓨팅 장치에 대한 상기 사람의 위치 및 거리 중 적어도 하나를 선택적으로 결정하는 단계; 및
상기 컴퓨팅 장치에 대한 상기 사람의 위치 및 존재(existence) 중 적어도 하나에 기초하여 상기 컴퓨팅 장치에서의 제2 상태 변경을 실행하는 단계
를 포함하는 방법.
A method of operating a computing device to provide presence based functionality, the method comprising:
Operating the computing device in a power saving state;
Collecting a first data set from at least one sensor;
Based on the first data set, determining a probability that an object of interest is in proximity to the computing device;
Selectively executing a state change at the computing device based on the portion of the object relative to the computing device;
If the probability exceeds a threshold level, activating at least one second sensor to collect a second data set;
Determining a probability that the object is a person based on the first and second data sets;
If it is determined that the object is a person,
Selectively determining at least one of a location and a distance of the person with respect to the computing device; And
Executing a second state change at the computing device based on at least one of the location and presence of the person with respect to the computing device.
≪ / RTI >
제1항에 있어서, 상기 적어도 하나의 센서 및 상기 적어도 하나의 제2 센서는 동일한 센서를 포함하는 방법.The method of claim 1, wherein the at least one sensor and the at least one second sensor comprise the same sensor. 제2항에 있어서, 상기 센서는 상기 적어도 하나의 센서로서 제1 모드에서 동작하며, 상기 적어도 하나의 제2 센서로서 제2 모드에서 동작하는 방법.3. The method of claim 2, wherein the sensor operates in a first mode as the at least one sensor and in a second mode as the at least one second sensor. 제3항에 있어서, 상기 제2 센서는 이미지 기반 센서를 포함하고, 상기 제1 모드는 저해상도 모드를 포함하며, 상기 제2 모드는 고해상도 모드를 포함하는 방법.4. The method of claim 3, wherein the second sensor comprises an image based sensor, the first mode comprises a low resolution mode, and the second mode comprises a high resolution mode. 제1항에 있어서, 상태 변경을 하는 것은,
디스플레이 배경/화면 세이버 시프트(background/screen saver shift)를 변경하는 것 - 상기 시프트는 사용자의 움직임(movement)에 대응함 -;
상기 디스플레이를 어웨이크 상태(awake state)가 되게 하는 것;
상기 장치를 어웨이크 상태가 되게 하는 것;
상기 장치를 어웨이크 상태가 되게 할 때 프로세스의 수를 저감시키는 것;
사람이 검출될 때 통상의 타임아웃들(usual timeouts)을 수정함으로써 상기 장치를 액티브 상태(active state)로 유지하는 것;
사람의 위치에 기초하여 오디오 스티어링(audio steering)을 하는 것;
사용자 위치에 기초하여 마이크로폰 스티어링(microphone steering)을 하는 것; 및
상기 사용자가 멀리 떨어져 있는 경우에 더 작은 사용자 옵션(options) 집합이 제공되도록 사용자 인터페이스를 수정하는 것
중 적어도 하나를 포함하는 방법.
The method of claim 1, wherein changing the state,
Changing a display background / screen saver shift, the shift corresponding to a movement of the user;
Bringing the display into an awake state;
Placing the device in an awake state;
Reducing the number of processes when bringing the device into an awake state;
Maintaining the device in an active state by modifying conventional timeouts when a person is detected;
Making audio steering based on the position of the person;
Making microphone steering based on user location; And
Modifying the user interface to provide a smaller set of user options if the user is far away
≪ / RTI >
제5항에 있어서, 상기 장치가 이미 어웨이크 상태에 있으며, 상기 사용자가 상기 장치로부터 떨어져 이동하는 것을 검출하는 경우, 상기 장치는,
디스플레이 상태를 슬립 상태(sleep state)로 변경하거나, 또는
장치 상태를 슬립 상태로 변경하도록
구성되는 방법.
The device of claim 5, wherein when the device is already awake and detects that the user moves away from the device,
Change the display state to a sleep state, or
To change the device state to sleep
How it is constructed.
제1항에 있어서, 신경망(neural net) 또는 지원 벡터 머신(support vector machine)을 이용하여 존재를 판단하기 위해서 결합된 센서 데이터를 이용하는 단계를 더 포함하는 방법.The method of claim 1, further comprising using the combined sensor data to determine presence using a neural net or a support vector machine. 제1항에 있어서, 상기 객체가 상기 장치의 임계 거리 내에 있는지에 대해 경판정(hard decision)을 하는 단계를 더 포함하는 방법.2. The method of claim 1, further comprising making a hard decision as to whether the object is within a threshold distance of the device. 제1항에 있어서, 존재 판단을 하기 위해서 가중화된(weighted) 방식으로 피부색 판단(skin tone determination), 존재 판단, 및 움직임 판단(movement determination) 각각을 이용하여 존재를 판단하는데 결합된 센서 데이터를 이용하는 단계를 더 포함하는 방법.2. The sensor data of claim 1, wherein the sensor data coupled to the determination of the presence is determined by using skin tone determination, presence determination, and movement determination in a weighted manner to determine the existence. Further comprising using. 제1항에 있어서, 상기 적어도 하나의 센서는 키보드, 마우스, 또는 마이크로폰 중 적어도 하나를 포함하는 방법.The method of claim 1, wherein the at least one sensor comprises at least one of a keyboard, a mouse, or a microphone. 제1항에 있어서, 상기 장치로부터의 사용자의 결정된 거리를 이용하여 존재를 판단하기 위해서 결합된 센서 데이터를 이용하는 단계를 더 포함하는 방법.The method of claim 1, further comprising using combined sensor data to determine presence using the determined distance of the user from the device. 제1항에 있어서, 보안을 위해 상기 장치 부근의 얼굴(faces)의 수를 결정하는 단계를 더 포함하고, 부분적으로 파워 업(powering up)하거나 보안 상태로 파워 업하고 추가 액세스를 위해 크리덴셜들(credentials)을 요청함으로써 보안이 제공되는 방법.The method of claim 1, further comprising determining a number of faces near the device for security, partially powering up or powering up to a secure state and credentials for further access. How security is provided by requesting credentials. 제1항에 있어서, 상기 적어도 하나의 센서는 인체(human body) 센서를 포함하는 방법.The method of claim 1, wherein the at least one sensor comprises a human body sensor. 사용자가 컴퓨팅 장치 부근에 있는지를 판단하는 방법으로서,
이미지 센서를 이용하여 이미지를 캡처하는 단계;
프로세서를 이용하여, 상기 캡처된 이미지로부터, 인체 검출 파라미터 및 움직임 검출 파라미터 중 적어도 하나를 산출하는 단계;
상기 인체 검출 파라미터 및 상기 움직임 검출 파라미터 중 적어도 하나를 이용하여, 사용자가 존재할 확률에 대해 결정하는 단계;
상기 확률이 사용자의 존재를 나타내는 경우, 상기 장치로부터의 상기 사용자의 거리가 임계치보다 작을 가능성(likelihood)을 결정하도록 깊이 추정기(depth estimator)를 동작시키는 단계; 및
상기 가능성이 임계치를 초과하는 경우, 상기 장치의 상태를 변경하는 단계
를 포함하는 방법.
A method of determining if a user is near a computing device,
Capturing an image using an image sensor;
Calculating at least one of a human body detection parameter and a motion detection parameter from the captured image using a processor;
Using at least one of the human body detection parameter and the motion detection parameter, determining a probability of the user's presence;
If the probability indicates the presence of a user, operating a depth estimator to determine a likelihood that the distance of the user from the device is less than a threshold; And
Changing the state of the device if the probability exceeds a threshold
≪ / RTI >
제14항에 있어서, 피부색 검출 파라미터 및 얼굴 검출 파라미터를 산출하는 단계를 더 포함하고, 상기 피부색 검출 파라미터 및 상기 얼굴 검출 파라미터 둘 다는 사용자가 존재하는지에 대해 판단하는데 이용되는 방법. 15. The method of claim 14, further comprising calculating a skin color detection parameter and a face detection parameter, wherein both the skin color detection parameter and the face detection parameter are used to determine if a user is present. 제15항에 있어서,
상기 피부색 검출 파라미터, 상기 얼굴 검출 파라미터, 상기 인체 검출 파라미터 및 상기 움직임 파라미터 각각을 산출하는 단계; 및
서로에 대해 상기 파라미터들에 가중치를 부여(weighting)하는 단계 - 상기 피부색 검출 파라미터에는 다른 파라미터들보다 작은 가중치가 부여됨 -
를 더 포함하는 방법.
16. The method of claim 15,
Calculating each of the skin color detection parameter, the face detection parameter, the human body detection parameter, and the motion parameter; And
Weighting the parameters to each other, wherein the skin color detection parameter is weighted less than the other parameters.
≪ / RTI >
제14항에 있어서, 상기 움직임 검출 파라미터는 단일 프레임을 이용하여 산출되는 방법. The method of claim 14, wherein the motion detection parameter is calculated using a single frame. 제17항에 있어서,
상기 이미지를 윈도우들(windows)로 분할하는 단계; 및
동심의(concentric) 상기 윈도우들에 대한 통계치(statistics)를 산출하는 단계 - 적어도 2개의 윈도우에서의 변경은 상기 이미지에서의 움직임을 나타냄 -
를 더 포함하는 방법.
18. The method of claim 17,
Dividing the image into windows; And
Calculating statistics for the windows concentrically, wherein changes in at least two windows indicate movement in the image
≪ / RTI >
컴퓨팅 장치로서,
메인 프로세서; 및
상기 메인 프로세서에 연결된 존재 센서 시스템
을 포함하고,
상기 존재 센서 시스템은,
이미지를 캡처하도록 구성된 적어도 하나의 이미지 센서; 및
상기 이미지 센서에 연결된 프로세서 - 상기 프로세서는 상기 이미지를 처리하여, 인체 존재 파라미터, 움직임 파라미터, 피부색 파라미터 및 얼굴 검출 파라미터 중 적어도 하나를 산출함으로써 사용자가 상기 장치 부근에 위치할 확률을 결정하도록 구성됨 -
를 포함하고,
상기 확률이 가능성 임계치(likelihood threshold)를 초과하는 경우, 사용자가 존재하는 것으로 결정되었다는 표시가 상기 프로세서로부터 상기 메인 프로세서로 송신되고, 상기 메인 프로세서는 상기 표시에 기초하여 상기 컴퓨팅 시스템의 상태를 변경하는 컴퓨팅 장치.
13. A computing device,
Main processor; And
Presence sensor system connected to the main processor
/ RTI >
The presence sensor system,
At least one image sensor configured to capture an image; And
A processor coupled to the image sensor, the processor configured to process the image to determine a probability that the user is in the vicinity of the device by calculating at least one of a human presence parameter, a motion parameter, a skin color parameter, and a face detection parameter;
Lt; / RTI >
If the probability exceeds a likelihood threshold, an indication is sent from the processor to the main processor that the user has been determined to be present, and the main processor changes the state of the computing system based on the indication. Computing device.
제19항에 있어서, 상기 존재 센서는 적어도 하나의 추가 입력 장치로부터 입력을 수신하도록 구성되고, 상기 적어도 하나의 추가 입력 장치로부터 수신된 데이터는 상기 확률의 결정 시에 이용되는 컴퓨팅 장치. 20. The computing device of claim 19, wherein the presence sensor is configured to receive input from at least one additional input device, wherein data received from the at least one additional input device is used in determining the probability. 제20항에 있어서, 상기 적어도 하나의 추가 입력 장치는,
추가 이미지 센서;
키보드;
터치 스크린;
트랙패드;
마이크로폰; 및
마우스
중 하나를 포함하는 컴퓨팅 장치.
The method of claim 20, wherein the at least one additional input device,
An additional image sensor;
keyboard;
touch screen;
Trackpads;
microphone; And
mouse
Computing device comprising one of the.
제21항에 있어서, 상기 센서들 및 입력 장치들 중 하나 이상은 동시에 동작하는 컴퓨팅 장치.The computing device of claim 21, wherein one or more of the sensors and input devices operate simultaneously. 제21항에 있어서, 상기 이미지 센서 및 추가 이미지 센서 중 적어도 하나는 깊이 센서를 포함하는 컴퓨팅 장치.The computing device of claim 21, wherein at least one of the image sensor and the additional image sensor comprises a depth sensor. 제23항에 있어서, 상기 이미지 센서 및 상치 추가 이미지 센서 둘 다는 동시에 동작하는 컴퓨팅 장치.The computing device of claim 23, wherein both the image sensor and the phase-addition image sensor operate simultaneously. 제21항에 있어서, 상기 장치의 상태는 상기 센서들 중 하나로부터의 데이터에만 기초하여 변경되는 컴퓨팅 장치. The computing device of claim 21, wherein the state of the device is changed based only on data from one of the sensors. 제25항에 있어서, 상기 상태의 변경은 웜업 상태(warm-up state)에 진입하는 것을 포함하는 컴퓨팅 장치.The computing device of claim 25, wherein the changing of the state comprises entering a warm-up state. 제19항에 있어서, 상기 장치의 상태를 변경하는 것은, 사용자가 검출되는 경우에 상기 장치를 액티브 모드로 유지하는 것을 포함하는 컴퓨팅 장치.20. The computing device of claim 19, wherein changing the state of the device includes maintaining the device in an active mode when a user is detected. 제27항에 있어서, 상기 상태를 변경하는 것은, 어떠한 다른 입력도 검출되지 않는 경우에 상기 장치의 슬립핑(sleeping) 또는 화면 조광(screen dimming)에 대한 타임아웃 중 하나를 디스에이블하는 것을 포함하는 컴퓨팅 장치.28. The method of claim 27, wherein changing the state comprises disabling one of a timeout for sleeping or screen dimming of the device when no other input is detected. Computing device.
KR1020137029536A 2011-05-12 2012-05-11 Presence sensing KR20140002034A (en)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201161485610P 2011-05-12 2011-05-12
US61/485,610 2011-05-12
US201161504026P 2011-07-01 2011-07-01
US61/504,026 2011-07-01
US13/219,573 2011-08-26
US13/219,573 US20120287031A1 (en) 2011-05-12 2011-08-26 Presence sensing
PCT/US2012/037644 WO2012155105A1 (en) 2011-05-12 2012-05-11 Presence sensing
US13/469,996 US10372191B2 (en) 2011-05-12 2012-05-11 Presence sensing
US13/469,996 2012-05-11

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020167003580A Division KR101660215B1 (en) 2011-05-12 2012-05-11 Presence sensing

Publications (1)

Publication Number Publication Date
KR20140002034A true KR20140002034A (en) 2014-01-07

Family

ID=48139276

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020167003580A KR101660215B1 (en) 2011-05-12 2012-05-11 Presence sensing
KR1020137029536A KR20140002034A (en) 2011-05-12 2012-05-11 Presence sensing

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020167003580A KR101660215B1 (en) 2011-05-12 2012-05-11 Presence sensing

Country Status (8)

Country Link
US (1) US10372191B2 (en)
EP (1) EP2712431A1 (en)
JP (1) JP5876142B2 (en)
KR (2) KR101660215B1 (en)
CN (1) CN103534664B (en)
AU (1) AU2012253292B2 (en)
TW (1) TWI506478B (en)
WO (1) WO2012155105A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170033789A (en) * 2015-09-17 2017-03-27 삼성전자주식회사 Apparatus and method for controlling outbound communication
KR20190049914A (en) * 2015-06-18 2019-05-09 애플 인크. Device, method, and graphical user interface for navigating media content
US10963130B2 (en) 2015-09-08 2021-03-30 Apple Inc. Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control
US11922006B2 (en) 2018-06-03 2024-03-05 Apple Inc. Media control for screensavers on an electronic device

Families Citing this family (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8760517B2 (en) 2010-09-27 2014-06-24 Apple Inc. Polarized images for security
US8836777B2 (en) 2011-02-25 2014-09-16 DigitalOptics Corporation Europe Limited Automatic detection of vertical gaze using an embedded imaging device
US20130057573A1 (en) * 2011-09-02 2013-03-07 DigitalOptics Corporation Europe Limited Smart Display with Dynamic Face-Based User Preference Settings
US20120287031A1 (en) 2011-05-12 2012-11-15 Apple Inc. Presence sensing
US20130027548A1 (en) * 2011-07-28 2013-01-31 Apple Inc. Depth perception device and system
KR101870902B1 (en) * 2011-12-12 2018-06-26 삼성전자주식회사 Image processing apparatus and image processing method
US20130194172A1 (en) * 2012-01-30 2013-08-01 Cellco Partnership D/B/A Verizon Wireless Disabling automatic display shutoff function using face detection
TWI536157B (en) * 2012-02-23 2016-06-01 原相科技股份有限公司 Electronicapparatus and computer-readable medium
US9152204B2 (en) 2012-07-17 2015-10-06 Google Inc. System wakeup based on changes in physical environment
KR101938648B1 (en) * 2012-10-23 2019-01-15 삼성전자주식회사 Mobile system including image sensor, method of operating image sensor and method of operating mobile system
JP6150503B2 (en) * 2012-12-04 2017-06-21 キヤノン株式会社 Image processing apparatus and image processing apparatus control method
US9256269B2 (en) * 2013-02-20 2016-02-09 Sony Computer Entertainment Inc. Speech recognition system for performing analysis to a non-tactile inputs and generating confidence scores and based on the confidence scores transitioning the system from a first power state to a second power state
US9128714B2 (en) 2013-02-20 2015-09-08 Logitech Europe S.A. Method and system for detecting an object or body based on changes in signal phases
US20140250413A1 (en) * 2013-03-03 2014-09-04 Microsoft Corporation Enhanced presentation environments
US9164609B2 (en) * 2013-03-13 2015-10-20 Amazon Technologies, Inc. Managing sensory information of a user device
US9977507B2 (en) * 2013-03-14 2018-05-22 Eyesight Mobile Technologies Ltd. Systems and methods for proximity sensor and image sensor based gesture detection
US11172126B2 (en) 2013-03-15 2021-11-09 Occipital, Inc. Methods for reducing power consumption of a 3D image capture system
US9285886B2 (en) 2013-06-24 2016-03-15 Sonos, Inc. Intelligent amplifier activation
US9942384B2 (en) 2013-09-10 2018-04-10 Google Technology Holdings LLC Method and apparatus for device mode detection
US9468026B2 (en) * 2013-10-11 2016-10-11 Logitech Europe S.A. Method and system for shortening wireless pairing connection time by detecting an object or body
US9733956B2 (en) * 2013-12-24 2017-08-15 Intel Corporation Adjusting settings based on sensor data
US9159294B2 (en) 2014-01-31 2015-10-13 Google Inc. Buttonless display activation
US9037199B1 (en) 2014-02-13 2015-05-19 Google Inc. Detecting transitions between physical activity
US8976063B1 (en) 2014-04-29 2015-03-10 Google Inc. Automated detection of vehicle parking and location
US9710629B2 (en) 2014-05-13 2017-07-18 Google Technology Holdings LLC Electronic device with method for controlling access to same
US20150347732A1 (en) * 2014-05-29 2015-12-03 Google Technology Holdings LLC Electronic Device and Method for Controlling Access to Same
US9575560B2 (en) 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
US9671495B2 (en) * 2014-06-11 2017-06-06 Intersil Americas LLC Systems and methods for optical proximity detection with multiple field of views
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US9600080B2 (en) 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition
US20160161339A1 (en) * 2014-12-05 2016-06-09 Intel Corporation Human motion detection
CN104636169B (en) * 2015-02-15 2018-01-19 广东欧珀移动通信有限公司 A kind of system wake-up method and device
JP2016178348A (en) * 2015-03-18 2016-10-06 キヤノン株式会社 Information processing device, control method therefor and program
EP3289432B1 (en) 2015-04-30 2019-06-12 Google LLC Rf-based micro-motion tracking for gesture tracking and recognition
US10088908B1 (en) 2015-05-27 2018-10-02 Google Llc Gesture detection and interactions
US10614291B2 (en) * 2015-06-08 2020-04-07 Beijing Kuangshi Technology Co., Ltd. Living body detection method, living body detection system and computer program product
US10650162B2 (en) * 2015-07-29 2020-05-12 Simplifeye, Inc. System and method for facilitating access to a database
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
EP3168711A1 (en) * 2015-11-11 2017-05-17 ams AG Method, optical sensor arrangement and computer program product for passive optical motion detection
CN105700668B (en) * 2016-03-04 2019-05-28 华为技术有限公司 The method and terminal device that the data of a kind of pair of touch screen acquisition are handled
US10492302B2 (en) 2016-05-03 2019-11-26 Google Llc Connecting an electronic component to an interactive textile
WO2017200949A1 (en) 2016-05-16 2017-11-23 Google Llc Interactive fabric
US10302810B2 (en) 2017-01-30 2019-05-28 Microsoft Technology Licensing, Llc Use of thermopiles to detect human location
JP6426225B2 (en) * 2017-04-05 2018-11-21 シャープ株式会社 Display device, television receiver, display control method, display control program, and recording medium
US10914834B2 (en) 2017-05-10 2021-02-09 Google Llc Low-power radar
US11030289B2 (en) * 2017-07-31 2021-06-08 Stmicroelectronics, Inc. Human presence detection
CN109426157A (en) * 2017-08-29 2019-03-05 合肥美的智能科技有限公司 Control the method, apparatus and smart home device of display screen
US10817594B2 (en) 2017-09-28 2020-10-27 Apple Inc. Wearable electronic device having a light field camera usable to perform bioauthentication from a dorsal side of a forearm near a wrist
US11437032B2 (en) 2017-09-29 2022-09-06 Shanghai Cambricon Information Technology Co., Ltd Image processing apparatus and method
CN108196663B (en) * 2018-01-16 2020-04-17 维沃移动通信有限公司 Face recognition method and mobile terminal
EP3651079B1 (en) 2018-02-13 2021-10-27 Shanghai Cambricon Information Technology Co., Ltd Computation device and method
US11620130B2 (en) 2018-02-13 2023-04-04 Shanghai Cambricon Information Technology Co., Ltd Computing device and method
US11630666B2 (en) 2018-02-13 2023-04-18 Shanghai Cambricon Information Technology Co., Ltd Computing device and method
CN116991225A (en) * 2018-02-14 2023-11-03 上海寒武纪信息科技有限公司 Control device, method and equipment of processor
EP3624020A4 (en) 2018-05-18 2021-05-05 Shanghai Cambricon Information Technology Co., Ltd Computing method and related product
US10719729B2 (en) 2018-06-06 2020-07-21 Perfect Corp. Systems and methods for generating skin tone profiles
JP7053891B2 (en) 2018-06-27 2022-04-12 シャンハイ カンブリコン インフォメーション テクノロジー カンパニー リミテッド On-chip code breakpoint debugging method, on-chip processor and breakpoint-based chip debugging system
EP3757896B1 (en) 2018-08-28 2023-01-11 Cambricon Technologies Corporation Limited Method and device for pre-processing data in a neural network
US11238089B1 (en) 2018-08-29 2022-02-01 Big Health Inc. Dynamic customization of content programs
WO2020062392A1 (en) 2018-09-28 2020-04-02 上海寒武纪信息科技有限公司 Signal processing device, signal processing method and related product
DE102018124385B4 (en) 2018-10-02 2023-02-16 Infineon Technologies Ag display control devices and methods
WO2020166740A1 (en) * 2019-02-13 2020-08-20 엘지전자 주식회사 Mobile terminal
US11620044B2 (en) 2018-10-23 2023-04-04 Lg Electronics Inc. Mobile terminal
US11500103B2 (en) 2018-10-23 2022-11-15 Lg Electronics Inc. Mobile terminal
US11580355B2 (en) * 2018-10-25 2023-02-14 Electronic Warfare Associates, Inc. System-on-a-chip incorporating artificial neural network and general-purpose processor circuitry
US10963745B2 (en) * 2018-11-21 2021-03-30 Intel Corporation Real time adaptive training face detection for ultra low power always on architecture
CN111383638A (en) 2018-12-28 2020-07-07 上海寒武纪信息科技有限公司 Signal processing device, signal processing method and related product
WO2020166739A1 (en) * 2019-02-13 2020-08-20 엘지전자 주식회사 Mobile terminal
US20200334522A1 (en) 2019-04-18 2020-10-22 Cambricon Technologies Corporation Limited Data processing method and related products
CN111832737B (en) 2019-04-18 2024-01-09 中科寒武纪科技股份有限公司 Data processing method and related product
KR20210125577A (en) 2019-05-20 2021-10-18 구글 엘엘씨 A mobile device-based radar system to provide a multi-mode interface
EP3770823A4 (en) 2019-06-12 2021-01-27 Shanghai Cambricon Information Technology Co., Ltd Quantization parameter determination method for neural network, and related product
US11676029B2 (en) 2019-06-12 2023-06-13 Shanghai Cambricon Information Technology Co., Ltd Neural network quantization parameter determination method and related products
JP7163513B2 (en) * 2019-06-17 2022-10-31 グーグル エルエルシー A mobile device-based radar system for applying different power modes to multimode interfaces
US12027100B2 (en) 2019-07-26 2024-07-02 Hewlett-Packard Development Company, L.P. Setting adjustments based on radar
EP4020321A4 (en) 2019-08-23 2024-01-17 Anhui Cambricon Information Technology Co., Ltd. Data processing method, apparatus, computer device, and storage medium
US11662695B2 (en) 2019-10-11 2023-05-30 Dell Products L.P. Information handling system infrared proximity detection with distance reduction detection
US11663343B2 (en) * 2020-01-31 2023-05-30 Dell Products L.P. Information handling system adaptive user presence detection
TWI736138B (en) * 2020-02-17 2021-08-11 國立屏東大學 System and method for learning traffic safety
US11108957B1 (en) 2020-06-17 2021-08-31 Microsoft Technology Licensing, Llc Low power operation of differential image sensor pixels
WO2022015907A1 (en) 2020-07-16 2022-01-20 Invacare Corporation System and method for concentrating gas
CN116648278A (en) 2020-07-16 2023-08-25 英瓦卡尔公司 System and method for concentrating gas
US11470252B2 (en) 2020-09-14 2022-10-11 Dell Products L.P. Method to integrate time of flight proximity with camera based attention sensing and system therefor
US20240121729A1 (en) * 2021-03-01 2024-04-11 Hewlett-Packard Development Company, L.P. Transmit power controls
EP4338128A4 (en) * 2021-05-11 2024-07-31 Objectvideo Labs Llc Adjusting areas of interest for motion detection in camera scenes
TWI804072B (en) * 2021-11-26 2023-06-01 國立陽明交通大學 Real-time object motion state recognition method using millimeter wave radar

Family Cites Families (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2485773A1 (en) 1980-06-24 1981-12-31 Promocab SYSTEM FOR PROTECTING A ZONE AGAINST HUMAN AGGRESSION
US5537144A (en) 1990-06-11 1996-07-16 Revfo, Inc. Electro-optical display system for visually displaying polarized spatially multiplexed images of 3-D objects for use in stereoscopically viewing the same with high image quality and resolution
US5384588A (en) 1991-05-13 1995-01-24 Telerobotics International, Inc. System for omindirectional image viewing at a remote location without the transmission of control signals to select viewing parameters
CA2273891C (en) 1996-12-04 2001-06-12 Mitsuaki Oshima Optical disc for high resolution and three-dimensional video recording, optical disc reproducing apparatus and optical disk recording apparatus
US5903350A (en) * 1997-02-03 1999-05-11 Optiphase, Inc. Demodulator and method useful for multiplexed optical sensors
US6072894A (en) 1997-10-17 2000-06-06 Payne; John H. Biometric face recognition for applicant screening
US6146332A (en) 1998-07-29 2000-11-14 3416704 Canada Inc. Movement detector
US6345086B1 (en) 1999-09-14 2002-02-05 Veeco Instruments Inc. X-ray fluorescence system and method
US7006236B2 (en) 2002-05-22 2006-02-28 Canesta, Inc. Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices
US6775397B1 (en) 2000-02-24 2004-08-10 Nokia Corporation Method and apparatus for user recognition using CCD cameras
US6802016B2 (en) * 2001-02-08 2004-10-05 Twinhead International Corp. User proximity sensor and signal processing circuitry for determining whether to power a computer on or off
US20020158750A1 (en) 2001-04-30 2002-10-31 Almalik Mansour Saleh System, method and portable device for biometric identification
JP2002350555A (en) 2001-05-28 2002-12-04 Yamaha Motor Co Ltd Human presence detector
US6832006B2 (en) * 2001-07-23 2004-12-14 Eastman Kodak Company System and method for controlling image compression based on image emphasis
US7136513B2 (en) 2001-11-08 2006-11-14 Pelco Security identification system
US7164781B2 (en) 2002-03-04 2007-01-16 Samsung Electronics Co., Ltd. Method and apparatus of recognizing face using 2nd-order independent component analysis (ICA)/principal component analysis (PCA)
US7369685B2 (en) 2002-04-05 2008-05-06 Identix Corporation Vision-based operating method and system
WO2003087326A2 (en) 2002-04-10 2003-10-23 Kendro Laboratory Products, Lp Automated protein crystallization imaging
US7151530B2 (en) 2002-08-20 2006-12-19 Canesta, Inc. System and method for determining an input selected by a user through a virtual interface
US7436569B2 (en) 2003-03-12 2008-10-14 General Photonics Corporation Polarization measurement and self-calibration based on multiple tunable optical polarization rotators
JP2004348349A (en) * 2003-05-21 2004-12-09 Masayuki Watabiki Household appliance power controller
WO2005026751A1 (en) * 2003-09-05 2005-03-24 Blake James N Time division multiplexed optical measuring system
US7117380B2 (en) * 2003-09-30 2006-10-03 International Business Machines Corporation Apparatus, system, and method for autonomic power adjustment in an electronic device
US7324824B2 (en) 2003-12-09 2008-01-29 Awarepoint Corporation Wireless network monitoring system
KR100580630B1 (en) 2003-11-19 2006-05-16 삼성전자주식회사 Apparatus and method for discriminating person using infrared rays
US20050221791A1 (en) 2004-04-05 2005-10-06 Sony Ericsson Mobile Communications Ab Sensor screen saver
US8509472B2 (en) 2004-06-24 2013-08-13 Digimarc Corporation Digital watermarking methods, programs and apparatus
DE602004024322D1 (en) * 2004-12-15 2010-01-07 St Microelectronics Res & Dev Device for the detection of computer users
US9760214B2 (en) 2005-02-23 2017-09-12 Zienon, Llc Method and apparatus for data entry input
JP2006318364A (en) * 2005-05-16 2006-11-24 Funai Electric Co Ltd Image processing device
US7806604B2 (en) 2005-10-20 2010-10-05 Honeywell International Inc. Face detection and tracking in a wide field of view
KR100745981B1 (en) 2006-01-13 2007-08-06 삼성전자주식회사 Method and apparatus scalable face recognition based on complementary features
JP2007300363A (en) 2006-04-28 2007-11-15 Omron Corp Monitor, method, and program
EP2030440B1 (en) 2006-06-06 2011-05-04 Koninklijke Philips Electronics N.V. Scaling an image based on a motion vector
JP2008160351A (en) 2006-12-22 2008-07-10 Nec Electronics Corp Color motion detection circuit and y/c separation circuit
US7840031B2 (en) 2007-01-12 2010-11-23 International Business Machines Corporation Tracking a range of body movement based on 3D captured image streams of a user
US7903166B2 (en) * 2007-02-21 2011-03-08 Sharp Laboratories Of America, Inc. Methods and systems for display viewer motion compensation based on user image data
US7929729B2 (en) * 2007-04-02 2011-04-19 Industrial Technology Research Institute Image processing methods
GB2453163B (en) 2007-09-26 2011-06-29 Christopher Douglas Blair Three-dimensional imaging system
EP2216999B1 (en) 2007-12-07 2015-01-07 Panasonic Corporation Image processing device, image processing method, and imaging device
US8600120B2 (en) * 2008-01-03 2013-12-03 Apple Inc. Personal computing device control using face detection and recognition
WO2009107935A2 (en) 2008-02-28 2009-09-03 Lg Electronics Inc. Virtual optical input device with feedback and method of controlling the same
US8107721B2 (en) 2008-05-29 2012-01-31 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining poses of semi-specular objects
US8035728B2 (en) 2008-06-27 2011-10-11 Aptina Imaging Corporation Method and apparatus providing rule-based auto exposure technique preserving scene dynamic range
US20100008900A1 (en) * 2008-07-14 2010-01-14 The University Of Hong Kong Annexin ii compositions for treating or monitoring inflammation or immune-mediated disorders
CN101639800A (en) 2008-08-01 2010-02-03 华为技术有限公司 Display method of screen and terminal
WO2010021375A1 (en) 2008-08-22 2010-02-25 国立大学法人大阪大学 Process for production of protease, protease solution, and solution of pro-form of protease
EP2315439B1 (en) * 2008-08-22 2018-10-17 Saturn Licensing LLC Image display device, control method and computer program
JP4636149B2 (en) 2008-09-09 2011-02-23 ソニー株式会社 Image data analysis apparatus, image data analysis method, and program
DE102008047413A1 (en) 2008-09-16 2010-04-15 Hella Kgaa Hueck & Co. Motor vehicle object detection system has a stereo camera with two gray image sensors and a mono camera with a color image sensor
KR20100073191A (en) 2008-12-22 2010-07-01 한국전자통신연구원 Method and apparatus for face liveness using range data
WO2010073547A1 (en) 2008-12-25 2010-07-01 パナソニック株式会社 Image processing device and pseudo-3d image creation device
US8254699B1 (en) 2009-02-02 2012-08-28 Google Inc. Automatic large scale video object recognition
RU2534073C2 (en) * 2009-02-20 2014-11-27 Конинклейке Филипс Электроникс Н.В. System, method and apparatus for causing device to enter active mode
US9159208B2 (en) 2009-03-31 2015-10-13 Koninklijke Philips N.V. Energy efficient cascade of sensors for automatic presence detection
US20100253782A1 (en) 2009-04-07 2010-10-07 Latent Image Technology Ltd. Device and method for automated verification of polarization-variant images
CN102292760A (en) 2009-05-07 2011-12-21 乔麦尔·卡瓦列罗 System for controlling light emission of television
US20100328074A1 (en) * 2009-06-30 2010-12-30 Johnson Erik J Human presence detection techniques
US8154615B2 (en) * 2009-06-30 2012-04-10 Eastman Kodak Company Method and apparatus for image display control according to viewer factors and responses
US8264536B2 (en) 2009-08-25 2012-09-11 Microsoft Corporation Depth-sensitive imaging via polarization-state mapping
KR101648353B1 (en) * 2009-09-25 2016-08-17 삼성전자 주식회사 Image sensor having depth sensor
TWI413896B (en) * 2010-04-21 2013-11-01 Elitegroup Computer Sys Co Ltd Energy saving methods for electronic devices
US9357024B2 (en) * 2010-08-05 2016-05-31 Qualcomm Incorporated Communication management utilizing destination device user presence probability
US8760517B2 (en) 2010-09-27 2014-06-24 Apple Inc. Polarized images for security
US8912877B2 (en) * 2011-02-18 2014-12-16 Blackberry Limited System and method for activating an electronic device using two or more sensors
US20120287031A1 (en) 2011-05-12 2012-11-15 Apple Inc. Presence sensing
US20140196131A1 (en) 2013-01-07 2014-07-10 Salutron, Inc. User authentication based on a wrist vein pattern
JP6854612B2 (en) 2015-10-06 2021-04-07 三星電子株式会社Samsung Electronics Co.,Ltd. Biological information measuring device, biometric information measuring method, and computer-readable recording medium

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190049914A (en) * 2015-06-18 2019-05-09 애플 인크. Device, method, and graphical user interface for navigating media content
KR20200091955A (en) * 2015-06-18 2020-07-31 애플 인크. Device, method, and graphical user interface for navigating media content
KR20210049185A (en) * 2015-06-18 2021-05-04 애플 인크. Device, method, and graphical user interface for navigating media content
US11816303B2 (en) 2015-06-18 2023-11-14 Apple Inc. Device, method, and graphical user interface for navigating media content
US10963130B2 (en) 2015-09-08 2021-03-30 Apple Inc. Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control
US11262890B2 (en) 2015-09-08 2022-03-01 Apple Inc. Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control
US11635876B2 (en) 2015-09-08 2023-04-25 Apple Inc. Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control
US11960707B2 (en) 2015-09-08 2024-04-16 Apple Inc. Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control
KR20170033789A (en) * 2015-09-17 2017-03-27 삼성전자주식회사 Apparatus and method for controlling outbound communication
US11922006B2 (en) 2018-06-03 2024-03-05 Apple Inc. Media control for screensavers on an electronic device

Also Published As

Publication number Publication date
KR20160023912A (en) 2016-03-03
US20120287035A1 (en) 2012-11-15
EP2712431A1 (en) 2014-04-02
JP5876142B2 (en) 2016-03-02
TWI506478B (en) 2015-11-01
CN103534664A (en) 2014-01-22
JP2014519091A (en) 2014-08-07
AU2012253292B2 (en) 2015-10-29
US10372191B2 (en) 2019-08-06
KR101660215B1 (en) 2016-09-26
TW201250519A (en) 2012-12-16
WO2012155105A1 (en) 2012-11-15
CN103534664B (en) 2016-08-31
AU2012253292A1 (en) 2013-10-31

Similar Documents

Publication Publication Date Title
KR101660215B1 (en) Presence sensing
US10402624B2 (en) Presence sensing
US11561621B2 (en) Multi media computing or entertainment system for responding to user presence and activity
EP2467805B1 (en) Method and system for image analysis
US10055013B2 (en) Dynamic object tracking for user interfaces
US9131150B1 (en) Automatic exposure control and illumination for head tracking
CN110032966B (en) Human body proximity detection method for intelligent service, intelligent service method and device
US20160210752A1 (en) A method, apparatus, and system for displaying a graphical user interface
JP5127531B2 (en) Image monitoring device
CA2714382A1 (en) Image processing apparatus, image processing method, and air conditioning control apparatus
US9436870B1 (en) Automatic camera selection for head tracking using exposure control
Chun et al. Real-time smart lighting control using human motion tracking from depth camera
KR20240068636A (en) Region of interest capture for electronic devices
CN112700568B (en) Identity authentication method, equipment and computer readable storage medium
Nguyen et al. Real-time human tracker based on location and motion recognition of user for smart home
Huang et al. Accurate and robust moving-object segmentation for telepresence systems
Chiperi et al. Human tracking using multiple views
CN117197181A (en) Moving object detection method and circuit system
Özcan Computer Vision Algorithms for Mobile Camera Applications
CN115731258A (en) Moving object recognition method and shooting device
CN116092158A (en) Face recognition method, device, equipment and storage medium
Nanda et al. 3D head tracking and body lean estimation
Leone et al. TOF Cameras in Ambient Assisted Living Applications
CHERN-HORNG Feature-based detection and tracking of individuals in dense crowds

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E601 Decision to refuse application
A107 Divisional application of patent