KR20200133832A - 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법 - Google Patents

레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법 Download PDF

Info

Publication number
KR20200133832A
KR20200133832A KR1020207033558A KR20207033558A KR20200133832A KR 20200133832 A KR20200133832 A KR 20200133832A KR 1020207033558 A KR1020207033558 A KR 1020207033558A KR 20207033558 A KR20207033558 A KR 20207033558A KR 20200133832 A KR20200133832 A KR 20200133832A
Authority
KR
South Korea
Prior art keywords
radar
gesture
electronic device
user
text
Prior art date
Application number
KR1020207033558A
Other languages
English (en)
Other versions
KR102318343B1 (ko
Inventor
레오나르도 쥬스티
이반 포우피레프
패트릭 엠. 아미후드
Original Assignee
구글 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 구글 엘엘씨 filed Critical 구글 엘엘씨
Publication of KR20200133832A publication Critical patent/KR20200133832A/ko
Application granted granted Critical
Publication of KR102318343B1 publication Critical patent/KR102318343B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72519
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • G01S13/32Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S13/34Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
    • G01S13/343Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal using sawtooth modulation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • G01S13/32Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S13/34Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
    • G01S13/345Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal using triangular modulation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • G01S13/424Stacked beam radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • G01S13/426Scanning radar, e.g. 3D radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/28Details of pulse systems
    • G01S7/285Receivers
    • G01S7/288Coherent receivers
    • G01S7/2883Coherent receivers using FFT processing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/35Details of non-pulse systems
    • G01S7/352Receivers
    • G01S7/356Receivers involving particularities of FFT processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Abstract

본 문서는 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법을 가능하게 하는 기술 및 시스템을 설명한다. 이 기술 및 시스템은 레이더 필드를 사용하여 스마트 폰과 같은 전자 디바이스의 디스플레이 상에 제공되는 증강 현실(AR) 객체와 상호 작용하는데 사용될 수 있는 3차원(3D) 제스처를 정확하게 결정한다. 이러한 기술을 통해 사용자는 거리에서 3D 제스처를 수행할 수 있다. 사용자는 화면을 터치하는 동안 전자 디바이스를 안정적으로 유지할 필요가 없고 제스처로 인해 디스플레이에 제시된 AR 객체에 대한 사용자의 시야를 방해하지 않는-거리에서 3D 제스처를 수행할 수 있다.

Description

레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법{SMARTPHONE, SYSTEM AND METHOD COMPRISING A RADAR SYSTEM}
스마트 폰과 같은 전자 디바이스는 통신, 내비게이션, 쇼핑, 게임 플레이, 증강 현실(AR) 상호 작용 및 많은 다른 기능에 사용된다. 사용자는 일반적으로 터치 입력으로 그의 전자 디바이스상의 애플리케이션과 상호 작용한다. 이러한 애플리케이션이 제공할 수 있는 다양한 범위의 기능때문에, 사용자가 다단계 또는 복잡한 입력을 제공해야 하는 필요성이 점차 일반화되고 있다. 제스처 인식 기술은 제스처가 터치 스크린 및 터치 패드와 같은 디바이스 표면을 통해 이루어질 때 전자 디바이스와 덜 복잡한 제스처 상호 작용을 가능하게 한다. 그러나 터치 입력 인터페이스로 보다 복잡한 입력을 제공하기 위해 전자 디바이스와 상호 작용하는 것은 번거롭고 비효율적이며 불편할 수 있다.
특히 AR 환경은 사용자에게 과제(challenges)를 제기할 수 있다. 2차원(2D) 터치 스크린을 사용하여 3차원(3D) 객체를 조작하는 것은 어려울 수 있다. 예를 들어 특정 실제 객체와 관련된 3D AR 객체를 조작하려면, 사용자는 한 손으로 전자 디바이스를 안정적으로 유지하고(AR 객체는 디스플레이내에 프레임되어 유지됨) 다른 손으로 2D 터치 스크린을 통해 AR 객체와 상호 작용해야 한다. 이는 욕구 불만, 불편함, 부정확하거나 불완전한 입력을 유발할 수 있다. 따라서, 사용자는 터치 입력 방법의 한계로 인해 전자 디바이스의 잠재력을 충분히 발휘하지 못할 수 있다.
본 문서는 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법을 가능하게 하는 기술 및 시스템을 기술한다. 이 기술 및 시스템은 스마트 폰과 같은 전자 디바이스의 디스플레이 상에 제시되는 증강 현실(AR) 객체와 상호 작용하는데 사용될 수 있는 3차원(3D) 제스처를 정확하게 결정하기 위해 레이더 필드를 사용한다. 이러한 기술을 통해 사용자는 거리에서 3D 제스처를 수행할 수 있다. 이들 기술은 사용자가 스크린을 터치하는 동안 전자 디바이스를 안정적으로 유지할 필요가 없으며 제스처로 인해 디스플레이에 제시된 AR 객체에 대한 사용자의 시야를 방해하지 않는, 거리에서 사용자가 3D 제스처를 행할 수 있도록 한다.
이하에 설명되는 양태는 디스플레이, 레이더 시스템, 하나 이상의 컴퓨터 프로세서 및 하나 이상의 컴퓨터 판독 가능 매체를 포함하는 스마트 폰을 포함한다. 레이더 시스템은 적어도 부분적으로 하드웨어로 구현되고 레이더 필드를 제공한다. 레이더 시스템은 또한 레이더 필드에 있는 객체로부터의 반사를 감지하고 레이더 필드에 있는 객체로부터의 반사를 분석한다. 레이더 시스템은 반사의 분석에 기초하여 레이더 데이터를 추가로 제공한다. 하나 이상의 컴퓨터 판독 가능 매체는 레이더-기반 애플리케이션을 구현하기 위해 하나 이상의 컴퓨터 프로세서에 의해 실행될 수 있는 저장된 명령을 포함한다. 레이더-기반 애플리케이션은 스마트 폰의 디스플레이를 통해 증강 현실(AR) 엘리먼트를 제시한다. AR 엘리먼트는 터치 입력 컨트롤을 포함하며 실제 객체와 관련이 있다. 실제 객체의 이미지는 스마트 폰의 디스플레이에 표시된다. 레이더 데이터에 기초하여, 레이더 필드 내의 객체가 디스플레이를 향해 이동하고 있다는 결정에 응답하여, 레이더-기반 애플리케이션은 터치 입력 컨트롤을 디스플레이의 고정(된) 위치에 유지한다.
이하에서 설명되는 양태들은 또한 디스플레이, 레이더 시스템, 하나 이상의 컴퓨터 프로세서, 및 하나 이상의 컴퓨터 판독 가능 매체를 포함하는 전자 디바이스를 포함하는 시스템을 포함한다. 레이더 시스템은 적어도 부분적으로 하드웨어로 구현되고 레이더 필드를 제공한다. 레이더 시스템은 처음에 레이더 필드의 객체로부터의 반사를 감지한다. 레이더 시스템은 또한 레이더 필드의 객체로부터의 반사를 분석하고 그 반사의 분석에 기초하여 레이더 데이터를 제공한다. 하나 이상의 컴퓨터 판독 가능 매체는 레이더-기반 애플리케이션을 구현하기 위해 하나 이상의 컴퓨터 프로세서에 의해 실행될 수 있는 저장된 명령을 포함한다. 레이더-기반 애플리케이션은 전자 디바이스의 디스플레이를 통해 증강 현실(AR) 엘리먼트를 제시한다. 레이더-기반 애플리케이션은 또한 제1 시간보다 늦은 제2 시간에, AR 엘리먼트를 선택하는 입력을 수신한다. 또한, 레이더-기반 애플리케이션은 레이더 데이터에 기초하여, 레이더 필드 내의 객체에 의한 제스처를 결정하고 선택된 AR 엘리먼트와 관련된 동작을 수행한다. 수행된 동작은 결정된 제스처에 대응한다.
이하에서 설명되는 양태들은 또한 디스플레이, 레이더 시스템, 및 레이더-기반 애플리케이션을 포함하는 전자 디바이스에서 구현되는 방법을 포함한다. 이 방법은 레이더 시스템에 의해, 레이더 필드를 제공하는 단계 및 레이더 시스템에 의해, 레이더 필드내의 객체로부터의 반사를 감지하는 단계를 포함한다. 이 방법은 또한 레이더 필드 내의 객체로부터의 반사를 분석하는 단계 및 레이터 시스템에 의해, 반사의 분석에 기초하여 레이더 데이터를 제공하는 단계를 포함한다. 이 방법은 또한 레이더-기반 애플리케이션에 의해, 전자 디바이스의 디스플레이를 통해 증강 현실(AR) 엘리먼트를 제시하는 단계를 포함한다. AR 엘리먼트는 터치 입력 컨트롤을 포함하고 이미지가 디스플레이 상에 제시되는 실제 객체와 관련된다. 레이더 데이터에 기초하여, 레이더 필드 내의 객체가 디스플레이를 향해 이동하고 있다는 결정에 응답하여, 터치 입력 컨트롤은 디스플레이상의 고정 위치에 유지된다.
아래에 설명되는 양태들은 또한 전자 디바이스를 포함하는 시스템과 레이더 필드를 제공하고 레이더 필드 내의 객체가 전자 디바이스를 향해 이동하고 있는지 결정하기 위한 수단을 포함한다. 시스템은 전자 디바이스의 디스플레이를 통해 증강 현실(AR) 엘리먼트를 제시한다. AR 엘리먼트는 터치 입력 컨트롤을 포함하고, 이미지가 전자 디바이스의 디스플레이 상에 제시되는 실제 객체와 관련된다. 시스템은 레이더 필드 내의 객체가 디스플레이를 향해 이동하고 있다는 결정에 응답하여 전자 디바이스의 디스플레이상의 고정 위치에 터치 입력 컨트롤을 유지하기 위한 수단을 더 포함한다.
이 요약은 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법에 관한 단순화된 개념을 소개하기 위해 제공되며, 이는 아래의 상세한 설명 및 도면에서 추가로 설명된다. 이 요약은 청구된 주제의 필수 특징을 식별하기 위한 것이 아니며 청구된 주제의 범위를 결정하는데 사용하기 위한 것이 아니다.
레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법의 하나 이상의 양태의 세부 사항은 다음 도면을 참조하여 본 명세서에 기술되어 있다. 도면 전체에서 동일한 피쳐 및 구성 요소를 참조하기 위해 동일한 번호가 사용된다.
도 1은 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법을 가능하게 하는 기술이 구현될 수 있는 예시적인 환경을 도시한다.
도 2는 레이더 시스템을 포함하고 그 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법을 구현할 수 있는 도 1의 스마트 폰의 예시적인 구현을 도시한다.
도 3은 도 2의 레이더 시스템의 예시적인 구현을 도시한다.
도 4는 도 3의 레이더 시스템을 위한 수신 안테나 엘리먼트의 예시적인 배열을 도시한다.
도 5는 도 2의 레이더 시스템의 예시적인 구현의 추가 세부 사항을 도시한다.
도 6은 도 2의 레이더 시스템에 의해 구현될 수 있는 예시적인 방식을 도시한다.
도 7은 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법을 가능하게 하는 기술이 구현될 수 있는 다른 예시적인 환경을 도시한다.
도 8은 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법을 가능하게 하기 위해 3차원(3D) 제스처를 사용하는 레이더 시스템의 기능에 관한 추가 세부 사항을 기술하는 도 7의 레이더 시스템의 예시적인 구현을 도시한다.
도 9는 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법을 가능하게 하기 위해 3D 제스처를 사용하는 레이더 시스템의 기능에 관한 보다 상세한 세부 사항을 기술하는 도 7의 레이더 시스템의 다른 예시적인 구현을 도시한다.
도 10 및 11은 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법을 가능하게 하는 예시적인 방법을 도시한다.
도 12는 도 10 및 11의 방법의 추가 세부 사항을 도시한다.
도 13은 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법을 구현할 수 있거나 가슨하게 하는 기술이 구현될 수 있는 예시적인 컴퓨팅 시스템을 도시한다.
개요
본 문서는 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법을 가능하게 하는 기술 및 시스템을 기술한다. 언급한 바와 같이, 터치 입력 인터페이스를 사용하여 증강 현실(AR) 애플리케이션을 위한 복잡한 입력을 하는 것은 2차원(2D) 터치 스크린을 사용하여 3차원(3D) 객체를 조작하기가 어렵기 때문에 과제일 수 있다. 따라서 사용자는 터치 입력 방법의 한계로 인해 AR 애플리케이션의 잠재력을 충분히 발휘하지 못할 수 있다. 이 기술 및 시스템은 3차원(3D) 제스처(예를 들어, 레이더 필드에 의해 조명되는 3D 공간 내에서 임의의 방향으로 하나 이상의 이동을 포함하는 제스처)를 정확하게 결정하기 위해 레이더 필드(radar field)를 사용한다. 3D 제스처는 증강 현실(AR) 객체와 상호 작용하는데 사용될 수 있다. 특정 상황에서 다르게 명시하지 않는 한, 정확도 증가(향상)는 개선도 증가, 사실(truth) 부합성의 증가, 또는 개선도 증가와 사실 부합성 증가 모두를 의미한다. 기술 및 시스템은 레이더 필드를 사용하여 전자 디바이스가 전자 디바이스 주위의 3D 공간에서 행해진 제스처들을 인식할 수 있게 하기 때문에, 사용자는 스크린을 터치하거나 디스플레이에 제시된 객체들의 뷰를 방해할 필요가 없다.
기술 및 시스템은 전자 디바이스가 AR 환경에서 3D 제스처 및 2차원(2D) 터치 입력 모두를 인식할 수 있게 한다. 종종 AR 컨텐츠는 실제 객체와 관련이 있다. 따라서, 사용자가 AR이 가능한 실제 객체를 보기 위해 디바이스를 움직일 때, 실제 객체가 디스플레이내에 프레임되는 동안 AR 콘텐츠는 2D 터치 입력 컨트롤로서 디스플레이에 제시될 수 있다. 예를 들어, 가구 매장의 장식용 식물에 대한 AR 컨텐츠에는 제품 정보 및 구매 옵션이 포함될 수 있다. 설명된 기술과 함께 레이더 필드를 사용하여, 전자 디바이스는 사용자가 디스플레이상의 2D 터치 입력 컨트롤쪽으로 도달하고 있다고 판단하고 특정 위치에 터치 입력 컨트롤을 2D 터치 스크린에 고정하거나 록킹한다. 이를 통해 사용자가 전자 디바이스를 움직여서 실제 객체가 더 이상 디스플레이에 프레임되지 않더라도 사용자는 컨트롤과 상호 작용할 수 있다. 또한, 기술 및 시스템은 디바이스가 3차원에서 AR 객체를 조작하는데 사용될 수 있는 3D 제스처를 결정할 수 있게 한다. 따라서 이 기술은 사용자의 뷰를 방해하지 않고 3D 객체와 상호 작용하기 위한 편리하고 자연스러운 3D 제스처를 가능하게 함으로써 AR 애플리케이션을 사용할 때 사용자의 효율성, 작업 흐름 및 즐거움을 향상시킨다.
예를 들어, 쇼핑할 때 추가 기능을 제공하는 AR 인터페이스를 갖는 레이더-기반 애플리케이션을 포함하는 전자 디바이스를 고려한다. 예를 들어, 레이더-기반 애플리케이션은 사용자가 상점에서 실제 객체를 보고, 가상 가격 태그 또는 사용자가 실제 객체를 가상 쇼핑 카트에 추가할 수 있게 하는 링크와 같은 실제 객체와 관련된 AR 객체를 디스플레이할 수 있게 한다. 이 예에서, 전자 디바이스는 AR 인터페이스를 가능하게 하는 다수의 카메라를 포함할 수 있다. 기존 AR 인터페이스는 주로 (예를 들어, 사용 가능한 AR 컨텐츠를 디스플레이하기 위해 실제 환경주위를 이동하는) "검색(discovery)"을 위해 구성된다. 따라서, 사용자는 실제 환경에서 주변 디바이스를 움직일 수 있고, 스크린에 디스플레이된 실제 객체와 관련된 터치-작동 AR 컨텐츠가 상기 디스플레이된 실제 객체 근처의 스크린상에 디스플레이될 수 있다(예를 들어, "장바구니에 추가" 버튼). 그러나, 종래의 AR 인터페이스는 일반적으로 터치 스크린상의 터치 상호 작용에 편리하지 않다. 예를 들어, AR 컨텐츠와 상호 작용하기 위해, 사용자는 한 손으로 디바이스를 안정되게 잡고 다른 손으로 디바이스를 향해 도달해야 한다. 이로 인해 디스플레이에 대한 사용자의 뷰가 방해를 받거나 또는 사용자가 디바이스를 움직여 실제 객체가 더 이상 디스플레이되지 않게 되어 레이더-기반 애플리케이션이 AR 콘텐츠 디스플레이를 중지할 수 있다. AR 인터페이스와의 지속적으로 어렵거나 불편한 상호 작용은 사용자의 효율성, 제스처의 효과 및 디바이스와 애플리케이션에 대한 사용자 경험의 품질을 떨어뜨릴 수 있다.
이러한 종래 기술을 본 명세서에 기술된 시스템 및 기술과 대조하면 여러 영역에서 효율성과 유용성을 향상시킬 수 있다. 예를 들어 위의 예에서, 사용자는 첫 번째 손으로 실제 환경 내에서 디바이스를 움직이고 있고, 실제 객체와 관련된 터치-작동 AR 컨텐츠(예를 들어, "장바구니에 추가" 버튼)는 디스플레이된 실제 객체 근처의 스크린 상에 제시된다. 이러한 상황에서, 전자 디바이스는 디바이스 주변 영역(예를 들어, 디바이스 주변 반경이 5 또는 8 피트이며, 사용자의 다른 손을 포함하는 "카메라 뒤" 공간을 포함하여 가장 빈번한 영역)으로 연장되는 레이더 필드를 제공할 수 있는 레이더 시스템을 포함할 수 있다. 레이더 센서들은 레이더 필드에 진입하는 객체들에서 반사된 레이더 신호를 사용하여 사용자의 다른 손이 전자 디바이스를 향해 도달하는 것을 검출할 수 있다. 이러한 도달을 검출하면, 전자 디바이스는 사용자가 디바이스를 계속 움직이더라도 AR 콘텐츠가 움직이거나 사라지지 않도록 AR 콘텐츠가 특정 위치에 고정시킬 수 있다.
이러한 방식으로, 설명된 기술 및 시스템은 터치-기반 AR 컨텐츠 및 애플리케이션과 쉽고 편리하게 상호 작용할 수 있게 한다. 사용자는 AR 애플리케이션의 검색 기능을 즐기면서도 터치-기반 AR 컨텐츠와 쉽게 상호 작용할 수 있다. 이를 통해 효율성을 향상시키고 AR 컨텐츠에 액세스하기 위해 객체들을 재프레임해야 하는 등의 사용자 불만을 줄일 수 있어 사용자 경험의 품질을 향상시킨다. 또한, 레이더 시스템의 전력 소비는 AR 인터페이스를 제공하고 사용자가 전자 디바이스를 향해 도달하고 있는지를 결정하기 위해 다수의 카메라를 사용할 수 있는 일부 종래 기술보다 실질적으로 적을 수 있다.
이것들은 본 명세서에 설명된 기술 및 디바이스가 사용자들이 3D 및 2D 제스처 둘 다를 사용하여 AR 애플리케이션 및 객체들과 상호 작용할 수 있게 하는 방법의 몇 가지 예일 뿐이다. 본 문서 전체에 다른 예와 구현이 설명되어 있다. 본 문서는 이제 예시적인 환경으로 돌아가서 예시적인 시스템, 디바이스, 방법 및 구성 요소를 설명한다.
동작 환경
도 1은 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법을 가능하게 하는 기술이 구현될 수 있는 예시적인 환경(100)을 도시한다. 예시적인 환경(100)은 레이더 시스템(104), 레이더-기반 애플리케이션(106) 및 디스플레이(108)를 포함하거나 이와 관련된 스마트 폰(102)을 포함한다. 레이더 시스템(104)의 일부 실시예는 저전력에 대한 요구, 처리 효율에 대한 요구, 안테나 엘리먼트들의 간격 및 레이아웃의 제한과 같은 이슈 및 기타 이슈가 수렴되는 스마트 폰(102)과 같은 스마트 폰들의 상황에서 적용될 때 특히 유리하고, 미세한 손 제스처의 레이더 검출이 요구되는 스마트 폰의 특정 상황에서 더욱 유리하다. 실시예들은 레이더 검출된 미세한 손 제스처가 요구되는 스마트 폰의 기술된 상황에서 특히 유리하지만, 본 발명의 특징 및 장점의 적용 가능성이 반드시 그렇게 제한되는 것은 아니며, 다른 유형의 전자 디바이스를 포함하는 다른 실시예도 본 교시의 범위 내에 있을 수 있음을 이해해야 한다.
예시적인 환경(100)에서, 레이더 시스템(104)은 도 3 내지 도 6을 참조하여 후술되는 바와 같이 하나 이상의 레이더 신호 또는 파형을 전송함으로써 레이더 필드(110)를 제공한다. 레이더 필드(110)는 레이더 시스템(104)이 레이더 신호 및 파형의 반사(예를 들어, 공간 체적에서 객체들로부터 반사된 레이더 신호 및 파형)를 검출할 수 있는 공간 체적이다. 레이더 시스템(104)은 또한 스마트 폰(102)이 레이더 필드(110) 내의 객체(112)로부터의 반사를 감지하고 분석할 수 있게 한다. 객체(112)는 레이더 시스템(104)이 목재, 플라스틱, 금속, 직물 또는 인체 부분(예를 들어, 스마트 폰(102) 사용자의 손)과 같은 것으로부터의 반사를 감지하고 분석할 수 있는 다양한 객체 중 임의의 것일 수 있다. 반사의 분석에 기초하여, 레이더 시스템(104)은 도 3 내지 도 6을 참조하여 후술되는 바와 같이, 레이더 필드(110)와 관련된 다양한 유형의 정보 및 객체(112)로부터의 반사를 포함하는 레이더 데이터를 제공할 수 있다(예를 들어, 레이더 시스템(104)은 레이더 데이터를 레이더-기반 애플리케이션(106)과 같은 다른 엔티티들로 전달할 수 있다). 또한, 레이더 데이터에 기초하여, 레이더 시스템(104), 레이더-기반 애플리케이션(106) 또는 다른 엔티티는 레이더 필드(110) 내의 객체(112)가 (회색 화살표(114)로 도시된 바와 같이) 디스플레이(108)를 향해 이동하고 있다고 결정할 수 있다.
레이더 데이터는 레이더 필드(110)내의 객체(112)로부터의 감지 및 분석된 반사에 기초하여 시간에 따라 연속적으로 또는 주기적으로 제공될 수 있음에 유의해야 한다. 객체(112)의 위치는 시간에 따라 변할 수 있고(예를 들어, 객체(112)는 레이더 필드(110) 내에서 이동할 수 있음), 따라서 레이더 데이터는 변경된 위치, 반사 및 분석에 대응하여 시간에 따라 변할 수 있다. 레이더 데이터는 시간이 지남에 따라 변할 수 있기 때문에, 레이더 시스템(104)은 상이한 시간 주기에 대응하는 레이더 데이터의 하나 이상의 서브 세트를 포함하는 레이더 데이터를 제공할 수 있다. 예를 들어, 레이더 시스템(104)은 제1 시간주기에 대응하는 레이더 데이터의 제1 서브 세트, 제2 시간주기에 대응하는 레이더 데이터의 제2 서브 세트 등을 제공할 수 있다.
레이더-기반 애플리케이션(106)은 또한 디스플레이(108)를 통해 증강 현실(AR) 엘리먼트(116)를 제공할 수 있다. AR 엘리먼트(116)는 터치 입력 컨트롤(118)를 포함하고 디스플레이(108)를 통해 가시적일 수 있는 실제 객체(120-1)와 관련된다. 터치될 때, 터치 입력 컨트롤(118)은 실제 객체(120-1)에 관한 추가 세부 사항(예를 들어, 치수, 무게 또는 기술 사양), 실제 객체(120-1)를 구매하기 위한 링크, 또는 실제 객체(120-1)와 관련된 아이템들의 목록을 제공할 수 있다. 도 1에 도시된 바와 같이, AR 엘리먼트(116)는 터치 입력 컨트롤(118)를 포함하는 가상 가격 태그이다. 이러한 방식으로, 사용자는 AR 엘리먼트(116)를 터치할 수 있고, 터치 입력 컨트롤(118)는 추가적인 AR 컨텐츠를 제시한다.
일부 구현에서, 레이더-기반 애플리케이션(106)은 실제 객체(120-1)의 이미지 및 실제 객체(120-1)와 관련된 AR 엘리먼트(116) 모두를 디스플레이(108) 상에 제시할 수 있는 AR 애플리케이션일 수 있다. 예를 들어, 도 1에 도시된 바와 같이, 실제 객체(120-1)는 실제 환경에서 그리고 디스플레이(108) 상에 이미지(120-2)(이미지(120-2)는 점선 화살표로 표시됨)로서 도시된 장식용 식물이다. 일부 구현에서, 레이더-기반 애플리케이션(106)은 실시간(또는 거의 실시간)으로 실제 객체(120-1)의 이미지(1202)를 제시한다. 실시간 또는 거의 실시간 제시는, 예를 들어, 스마트 폰(102)에 포함되거나 이와 분리되어 통신과 같은 하나 이상의 이미지 캡처 디바이스를 통해 달성될 수 있다.
레이더 필드(110)내의 객체(112)가 디스플레이(108)를 향해 움직이고 있다는 결정에 응답하여, 레이더-기반 애플리케이션(106)은 스마트 폰(102)의 터치 스크린상의 고정(된) 위치에 터치 입력 컨트롤(118)를 제공할 수 있다. 일부 구현에서, 레이더-기반 애플리케이션(106)은 실제 객체(120-1)의 이미지(120-2) 자체가 더 이상 디스플레이(108)에서 보이지 않을 때에도 터치 입력 컨트롤(118)의 고정 위치를 유지할 수 있다. 또한, 레이더-기반 애플리케이션(106)은 레이더 필드(110) 내의 객체(112)가 디스플레이(108)를 향해 이동하고 있다는 결정의 임계 시간 내에 상기 고정 위치에 있는 터치 입력 컨트롤(118)이 터치되지 않는 것에 응답하여, 고정 위치에 터치 입력 컨트롤을 제공하는 것을 중단할 수 있다. 예를 들어, 터치 입력 컨트롤(118)이 임계 시간 내에 터치되지 않는 것에 기초하여, 레이더-기반 애플리케이션(106)이 디폴트 모드로 복귀할 수 있고, 레이더-기반 애플리케이션(106)이 터치 입력 컨트롤(118)의 제시를 중단할 수 있고(예를 들어, 터치 입력 컨트롤이 사라짐), 또는 레이더-기반 애플리케이션(106)이 고정 위치가 아니라 디스플레이(108)에 제시되는 컨텐츠에 적합한 임의의 위치에 터치 입력 컨트롤(118)을 계속 제시할 수 있다. 임계 시간은 1.5초, 2초 또는 3초와 같은 임의의 적절한 시간일 수 있다. 또 다른 구현에서, 레이더-기반 애플리케이션(106)은 레이더 필드(110) 내의 객체(112)가 임계 속도(예를 들어, 0.25 피트/초(fps), 0.5fps 또는 0.75fps)를 초과하는 속도로 디스플레이(108)를 향해 이동하는 것으로 결정되면 고정 위치에 터치 입력 컨트롤을 제공할 수 있다. 따라서, 스마트 폰(102)은 레이더 시스템(104) 및 레이더-기반 애플리케이션(106)과 함께 AR 애플리케이션의 사용자가 AR 환경에서 터치 입력을 효율적이고 편리하게 사용할 수 있도록 함께 작동한다.
예를 들어, 스마트 폰(102)은 AR 특징 및 기능을 포함하는 애플리케이션을 포함한다고 가정한다. AR 기능 중 적어도 일부에 액세스하려면, 사용자는 다양한 터치 입력 컨트롤을 활성화하기 위해 디스플레이(108)에 도달하여 터치하면서 스마트 폰(102)의 디스플레이(108)에 프레임된(표시된) 실제 객체를 유지해야 한다. 이는 디스플레이(108)를 향해 도달하는 것이 디스플레이(108)에 대한 사용자의 시야를 방해하여 상기 컨트롤과의 상호 작용을 어렵게 만들 수 있기 때문에, 사용자에게 몇 가지 과제를 제시할 수 있다. 일부 사용자는 일부 디바이스, 특히 크거나 무거운 디바이스를 안정적으로 유지하는데 어려움이 있을 수 있다. 또한, 사용자가 스마트 폰(102)을 이동하여 실제 객체가 더 이상 프레임되지 않도록 하면, AR 컨트롤들이 더 이상 디스플레이되지 않을 수 있다. 반면에, 레이더 필드(110)를 제공하고, 레이더 시스템(104)(또는 레이더-기반 애플리케이션(106)과 같은 다른 엔티티)이 사용자가 디스플레이를 향에 도달하는 시점을 자동으로 결정한 다음 디스플에이 상의 컨트롤들을 자동으로 동결시키거나 고정시킬 수 있는 레이더 시스템(104)를 고려한다. 쉽게 알 수 있는 바와같이, 레이더 시스템(104)은 AR 인터페이스를 사용하기가 훨씬 쉽고 편리하게 만들 수 있으며, 종래의 AR 인터페이스를 사용하는 디바이스에 비해 향상된 경험을 제공할 수 있다.
보다 상세하게, (레이더 시스템(104), 레이더-기반 애플리케이션(106) 및 디스플레이(108)를 포함하는) 스마트 폰(102)의 예시적인 구현(200)을 도시하는 도 2를 고려한다. 도 2의 스마트 폰(102)은 모바일 폰(102-1), 태블릿(102-2), 랩탑(102-3), 데스크탑 컴퓨터(102-4), 컴퓨팅 워치(102-5), 컴퓨팅 안경(102-6), 게임 시스템(102-7), 마이크로웨이브(102-8) 및 차량(102-9)을 포함하여, 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법을 구현할 수 있는 다른 비-제한하는 예시적인 디바이스를 포함하는 것으로 도시되어 있다. 다른 전자 디바이스는 또한 텔레비전, 엔터테인먼트 시스템, 오디오 시스템, 드론, 트랙 패드, 드로잉 패드, 넷북, 전자책 리더, 홈 자동화 및 제어 시스템, 홈 보안 시스템 및 기타 가전 제품을 포함할 수 있다. 설명된 기술들을 구현할 수 있는 전자 디바이스들은 착용 가능하거나, 착용 가능하지 않지만 이동 가능(mobile)하거나 또는 상대적으로 이동 가능하지 않을 수 있다는(예를 들어, 데스크탑 및 기기) 점에 유의한다.
스마트 폰(102)의 예시적인 전체 측면 치수는 예를 들어 대략 8 센티미터 × 대략 15 센티미터일 수 있다. 레이더 시스템(104)의 예시적인 풋 프린트는 안테나가 포함된 대략 4 밀리미터 × 6 밀리미터와 같이 더욱 제한될 수 있다. 레이더 시스템(104)의 예시적인 전력 소비는 수 밀리 와트(mW) 내지 수 mW(예를 들어, 대략 2 mW 내지 20 mW) 정도일 수 있다. 전력 및 처리 제한과 결합된 공간-제한된 패키지(예를 들어, 카메라, 지문 센서, 디스플레이(108) 등)에서 스마트 폰(102)의 많은 다른 바람직한 특징을 수용하기 위해 필요한 레이더 시스템(104)에 대한 이러한 제한된 풋 프린트의 요구 사항은 레이더 제스처 검출의 정확성과 효율성을 떨어뜨릴 수 있으며, 이들 중 적어도 일부는 본 명세서의 교시의 관점에서 극복될 수 있다.
스마트 폰(102)은 또한 하나 이상의 컴퓨터 프로세서(202), 및 메모리 매체 및 저장 매체를 포함하는 하나 이상의 컴퓨터 판독 가능 매체(204)를 포함한다. 컴퓨터 판독 가능 매체(204) 상에 컴퓨터 판독 가능 명령으로서 구현된 애플리케이션 및/또는 운영 체제(미도시)는 본 명세서에 기술된 기능들 중 일부를 제공하기 위해 컴퓨터 프로세서(202)에 의해 실행될 수 있다. 스마트 폰(102)은 또한 네트워크 인터페이스를 포함할 수 있다. 스마트 폰(102)은 유선, 무선 또는 광 네트워크를 통해 데이터를 통신하기 위해 네트워크 인터페이스(206)를 사용할 수 있다. 예로서 제한없이, 네트워크 인터페이스(206)는 근거리 통신망(LAN), 무선 근거리 통신망(WLAN),개인 영역 네트워크(PAN), 광역 통신망(WAN), 인트라넷, 인터넷, 피어 투 피어 네트워크, 포인트 투 포인트 네트워크 또는 메시 네트워크를 통해 데이터를 통신할 수 있다.
레이더 시스템(104)의 다양한 구현은 SoC(System-on-Chip), 하나 이상의 집적 회로(IC), 프로세서 명령이 내장되거나 메모리에 저장된 프로세서 명령에 액세스하도록 구성된 프로세서, 펌웨어가 내장된 하드웨어, 다양한 하드웨어 구성 요소가 있는 인쇄 회로 기판 또는 이들의 임의의 조합을 포함할 수 있다. 레이더 시스템(104)은 자신의 레이더 신호를 송수신함으로써 단일 정적 레이더로서 동작한다. 일부 구현에서, 레이더 시스템(104)은 또한 외부 환경 내에 있는 다른 레이더 시스템(104)과 협력하여 바이스태틱(bistatic) 레이더, 멀티스태틱 레이더 또는 네트워크 레이더를 구현할 수 있다. 언급한 바와 같이, 스마트 폰(102)의 제약 또는 제한은 레이더 시스템(104)의 설계에 영향을 줄 수 있다. 예를 들어, 스마트 폰(102)은 레이더를 작동하는데 이용 가능한 제한된 전력, 제한된 계산 능력, 크기 제약, 레이아웃 제한, 레이더 신호를 감쇠 또는 왜곡시키는 외부 하우징 등을 가질 수 있다. 레이더 시스템(104)은 도 3과 관련하여 아래에 더 설명되는 바와 같이, 이러한 제약 조건의 존재하에서 고급 레이더 기능 및 고성능이 실현될 수 있게 하는 여러 특징을 포함한다. 도 2에서, 레이더 시스템(104)은 스마트 폰(102)의 일부로서 도시되어 있다. 다른 구현에서, 레이더 시스템(104)은 스마트 폰(102)으로부터 분리되거나 원격일 수 있다.
이들 및 다른 기능 및 구성뿐만 아니라 도 1의 엔티티들이 작용하고 상호 작용하는 방식이 아래에 더 상세히 설명된다. 이들 엔티티는 추가로 분할되거나 결합될 수 있다. 도 1의 환경(100) 및 도 2 내지 도 12의 상세한 예시는 설명된 기술을 이용할 수 있는 많은 가능한 환경 및 디바이스들 중 일부를 도시한다. 도 3 내지 도 6은 레이더 시스템(104)의 추가 세부 사항 및 특징을 기술한다. 도 3 내지 도 6에서, 레이더 시스템(104)은 스마트 폰(102)의 맥락에서 기술되지만, 위에서 언급된 바와 같이, 기술된 시스템 및 기술의 특징 및 장점의 적용 가능성이 반드시 그렇게 제한되는 것은 아니며, 다른 유형의 전자 디바이스를 포함하는 다른 실시예도 본 교시의 범위 내에 있을 수 있다.
도 3은 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법을 가능하게 하는데 사용될 수 있는 레이더 시스템(104)의 예시적인 구현(300)을 도시한다. 예(300)에서, 레이더 시스템(104)은 다음의 각각의 구성 요소 즉, 통신 인터페이스(302), 안테나 어레이(304), 송수신기(306), 프로세서(308) 및 시스템 매체(310)(예를 들어, 하나 이상의 컴퓨터 판독 가능 저장 매체) 중 적어도 하나를 포함한다. 프로세서(308)는 디지털 신호 프로세서, 컨트롤러, 애플리케이션 프로세서, 다른 프로세서(예를 들어, 스마트 폰(102)의 컴퓨터 프로세서(202)) 또는 이들의 일부 조합으로 구현될 수 있다. 스마트 폰(102)의 컴퓨터 판독 가능 매체(204) 내에 포함되거나 이로부터 분리될 수 있는 시스템 매체(310)는 다음의 모듈, 즉 감쇠 완화기(314), 디지털 빔포머(316), 각 추정기(318) 또는 전력 관리자(320) 중 하나 이상을 포함한다. 이들 모듈은 스마트 폰(102) 내에 레이더 시스템(104)을 통합하는 것을 보상하거나 스마트 폰(102) 내에 레이더 시스템(104)을 통합하는 효과를 완화시킬 수 있고, 이로써 레이더 시스템(104)이 작거나 복잡한 제스처를 인식하고, 사용자의 상이한 방향을 구별하고, 외부 환경을 지속적으로 모니터링하거나, 또는 타겟 오경보 율을 실현할 수 있게 한다. 이들 특징에 의해, 레이더 시스템(104)은 도 2에 도시된 디바이스와 같은 다양한 다른 디바이스 내에서 구현될 수 있다.
통신 인터페이스(302)를 사용하여, 레이더 시스템(104)은 레이더 데이터를 레이더-기반 애플리케이션(106)에 제공할 수 있다. 통신 인터페이스(302)는 스마트 폰(102)과 별도로 구현되거나 스마트 폰(102) 내에 통합되는 레이더 시스템(104)에 기초하여 무선 또는 유선 인터페이스 일 수 있다. 애플리케이션에 따라, 레이더 데이터는 원시 또는 최소 처리된 데이터, 동 위상 및 직교(I/Q) 데이터, 범위-도플러 데이터, 타겟 위치 정보(예를 들어, 범위, 방위각, 고도), 클러터 맵 데이터 등을 포함하는 처리된 데이터를 포함할 수 있다. 일반적으로, 레이더 데이터는 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법을 구현하기 위한 레이더-기반 애플리케이션(106)에 의해 사용 가능한 정보를 포함한다.
안테나 어레이(304)는 적어도 하나의 송신 안테나 엘리먼트(미도시) 및 적어도 2개의 수신 안테나 엘리먼트(도 4에 도시됨)를 포함한다. 일부 경우에, 안테나 어레이(304)는 한 번에 다수의 별개의 파형(예를 들어, 송신 안테나 엘리먼트마다 다른 파형)을 송신할 수 있는 다중 입력 다중 출력(MIMO) 레이더를 구현하기 위해 다수의 송신 안테나 엘리먼트를 포함할 수 있다. 다중 파형의 사용은 레이더 시스템(104)의 측정 정확도를 증가시킬 수 있다. 수신 안테나 엘리먼트는 3개 이상의 수신 안테나 엘리먼트를 포함하는 구현을 위해 1차원 형상(예를 들어, 라인) 또는 2차원 형상으로 위치될 수 있다. 1차원 형상은 레이더 시스템(104)이 하나의 각도 치수(예를 들어, 방위각 또는 고도)를 측정할 수 있게 하는 한편, 2차원 형상은 2개의 각도 치수(예를 들어, 방위각 및 고도 모두)가 측정될 수 있게 한다. 수신 안테나 엘리먼트의 예시적인 2 차원 배열이 도 4와 관련하여 더 설명된다.
도 4는 수신 안테나 엘리먼트(402)의 예시적인 디바이스(400)를 도시한다. 안테나 어레이(304)가 예를 들어 적어도 4개의 수신 안테나 엘리먼트(402)를 포함하는 경우, 수신 안테나 엘리먼트(402)는 도 4의 중앙에 도시된 바와 같이 직사각형 배열(404-1)로 배열될 수 있다. 대안적으로, 안테나 어레이(304)가 적어도 3개의 수신 안테나 엘리먼트(402)를 포함하는 경우, 삼각형 배열(404-2) 또는 L자 배열(404-3)이 사용될 수 있다.
스마트 폰(102)의 크기 또는 레이아웃 제약으로 인해, 수신 안테나 엘리먼트들(402) 사이의 엘리먼트 간격 또는 수신 안테나 엘리먼트(402)의 수량은 레이더 시스템(104)이 모니터링할 각도에 이상적이지 않을 수 있다. 특히, 엘리먼트 간격은 각도 모호성을 제공하여 종래의 레이더가 타겟의 각도 위치를 추정하는 것을 어렵게 할 수 있다. 따라서, 종래의 레이더는 각도 모호성을 갖는 모호한 구역을 피하기 위해 시야(예를 들어, 모니터링될 각도)를 제한하여 오탐지를 감소시킬 수 있다. 예를 들어, 종래의 레이더는 5mm의 파장 및 3.5mm의 엘리먼트 간격(예를 들어, 엘리먼트 간격은 파장의 70%)을 사용하여 발생하는 각도 모호성을 피하기 위해 약 -45도 내지 45도 사이의 각도로 시야를 제한할 수 있다. 결과적으로, 종래의 레이더는 시야의 45도 제한을 초과하는 표적을 검출하지 못할 수 있다. 반면에, 레이더 시스템(104)은 각도 모호성을 해결하고 레이더 시스템(104)이 대략 -90도 내지 90도 사이의 각도 또는 최대 -180도에서 180도까지의 각도와 같은 45도 제한을 초과하는 각도를 모니터링할 수 있게 하는 디지털 빔포머(316) 및 각 추정기(318)를 포함한다. 이러한 각도 범위는 하나 이상의 방향(예를 들어, 방위각 및/또는 고도)에 걸쳐 적용될 수 있다. 따라서, 레이더 시스템(104)은 레이더 신호의 중심 파장의 절반보다 작거나 크거나 같은 엘리먼트 간격을 포함하여 다양한 상이한 안테나 어레이 설계에 대해 낮은 오경보 율을 실현할 수 있다.
안테나 어레이(304)를 사용하여, 레이더 시스템(104)은 조향되거나 미조향된, 넓거나 좁은, 또는 형상화된(예를 들어, 반구, 큐브, 팬, 원뿔 또는 원통 모양) 빔을 형성할 수 있다. 예로서, 하나 이상의 송신 안테나 엘리먼트(미도시)는 미조향된 전 방향성 방사 패턴을 갖거나 넓은 송신 빔(406)과 같은 넓은 빔을 생성할 수 있다. 이들 기술 중 어느 하나는 레이더 시스템(104)이 공간의 많은 체적을 조명할 수 있게 한다. 그러나, 타겟 각도 정확도와 각도 해상도를 달성하기 위해, 수신 안테나 엘리먼트(402) 및 디지털 빔포머(316)는 좁은 수신 빔(408)과 같은 수천 개의 좁고 조향된 빔(예를 들어, 2000 빔, 4000 빔 또는 6000 빔)을 생성하는데 사용될 수 있다. 이러한 방식으로, 레이더 시스템(104)은 외부 환경을 효율적으로 모니터링하고 외부 환경 내에서 반사의 도달각을 정확하게 결정할 수 있다.
도 3으로 돌아가면, 송수신기(306)는 안테나 어레이(304)를 통해 레이더 신호를 송신 및 수신하기 위한 회로 및 로직을 포함한다. 송수신기(306)의 구성 요소는 레이더 신호를 조절(conditioning)하기 위한 증폭기, 믹서, 스위치, 아날로그-디지털 변환기, 필터 등을 포함할 수 있다. 송수신기(306)는 또한 변조 또는 복조와 같은 동위상/직교위상(I/Q) 동작을 수행하기 위한 로직을 포함할 수 있다. 송수신기(306)는 연속파 레이더 동작 또는 펄스 레이더 동작을 위해 구성될 수 있다. 선형 주파수 변조, 삼각 주파수 변조, 계단형 주파수 변조 또는 위상 변조를 포함하여 다양한 변조가 레이더 신호를 생성하는데 사용될 수 있다.
송수신기(306)는 1 기가 헤르츠(GHz) 내지 400 GHz, 4 GHz 내지 100 GHz, 또는 57 GHz 내지 63 GHz와 같은 주파수 범위(예를 들어, 주파수 스펙트럼) 내에서 레이더 신호를 생성할 수 있다. 주파수 스펙트럼은 유사한 대역폭 또는 상이한 대역폭을 갖는 다중 서브-스펙트럼으로 나누어질 수 있다. 대역폭은 500MHz, 1GHz, 2GHz 등의 정도일 수 있다. 예로서, 상이한 주파수 서브-스펙트럼은 대략 57 GHz 내지 59 GHz, 59 GHz 내지 61 GHz, 또는 61 GHz 내지 63 GHz의 주파수를 포함할 수 있다. 동일한 대역폭을 갖고 연속적이거나 비연속적일 수 있는 다중 주파수 서브-스펙트럼이 또한 일관성(coherence)을 위해 선택될 수 있다. 다중 주파수 서브-스펙트럼은 단일 레이더 신호 또는 다중 레이더 신호를 사용하여 동시에 전송되거나 시간적으로 분리될 수 있다. 인접한 주파수 서브-스펙트럼은 레이더 신호가 더 넓은 대역폭을 갖도록 하는 반면, 비-인접 주파수 서브-스펙트럼은 각 추정기(318)가 각도 모호성을 해결할 수 있게 하는 진폭 및 위상 차이를 더 강조할 수 있다. 감쇠 완화기(314) 또는 각 추정기(318)는 도 5 및 6과 관련하여 더 설명된 바와 같이, 송수신기(306)가 하나 이상의 주파수 서브-스펙트럼을 이용하여 레이더 시스템(104)의 성능을 향상시키도록 할 수 있다.
전력 관리자(320)는 레이더 시스템(104)이 스마트 폰(102) 내부적으로 또는 외부적으로 전력을 절약할 수 있게 한다. 내부적으로, 예를 들어, 전력 관리자(320)는 레이더 시스템(104)이 기 정의된 전력 모드 또는 특정 듀티 사이클을 이용하여 데이터를 수집하게 할 수 있다. 저전력 모드 또는 고전력 모드에서 동작하는 대신에, 전력 관리자(320)는 응답 지연 및 전력 소비가 환경 내의 활동에 기초하여 함께 관리되도록 상이한 전력 모드 사이에서 동적으로 전환한다. 일반적으로, 전력 관리자(320)는 전력이 절약될 수 있는 시점 및 방법을 결정하고, 레이더 시스템(104)이 스마트 폰(102)의 전력 제한 내에서 동작할 수 있도록 전력 소비를 점진적으로 조정한다. 일부 경우, 전력 관리자(320)는 잔여 가용 전력량을 모니터링하고 이에 따라 레이더 시스템(104)의 동작을 조정할 수 있다. 예를 들어, 잔여 전력량이 적은 경우, 전력 관리기(320)는 고전력 모드로 전환하는 대신 저전력 모드에서 계속 동작할 수 있다.
저전력 모드는 예를 들어, 수 헤르츠(예를 들어, 대략 1Hz 또는 5Hz 미만) 정도의 저 듀티 사이클을 사용할 수 있는데, 이는 전력 소비를 수 밀리 와트(mW)(예를 들어, 대략 2mW 및 5mW)로 감소시킨다. 반면에, 고전력 모드는 수십 헤르츠(Hz)(예를 들어, 대략 20Hz 또는 10Hz 이상) 정도의 높은 듀티 사이클을 사용할 수 있는데, 이는 레이더 시스템(104)이 수 밀리 와트(예를 들어, 대략 8mW 내지 20mW) 정도의 전력을 소비하게 한다. 저전력 모드는 외부 환경을 모니터링하거나 접근하는 사용자를 검출하는데 사용될 수 있지만, 전력 관리자(320)는 레이더 시스템(104)이 사용자가 제스처를 수행하기 시작한다고 결정하는 경우 고전력 모드로 전환할 수 있다. 상이한 트리거는 전력 관리자(320)가 상이한 전력 모드 사이를 전환하게 할 수 있다. 예시적인 트리거는 모션 또는 모션의 결여, 사용자의 출현 또는 소멸, 사용자가 지정된 영역(예를 들어, 범위, 방위각 또는 고도로 정의된 영역)으로 들어오거나 나가는 것, 사용자와 관련된 모션의 속도 변화, 또는 반사된 신호 강도의 변화(예를 들어, 레이더 단면의 변화로 인한)를 포함한다. 일반적으로, 사용자가 스마트 폰(102)과 상호 작용할 가능성이 낮거나 응답 지연이 더 긴 데이터를 선호하는 것을 나타내는 트리거들은 전력을 절약하기 위해 저전력 모드가 활성화되게 할 수 있다.
전력 관리자(320)는 또한, 비활성 시간 기간 동안 송수신기(306) 내의 하나 이상의 구성 요소(예를 들어, 전압 제어 발진기, 멀티플렉서, 아날로그-디지털 변환기, 위상 잠금 루프 또는 수정 발진기)를 턴오프함으로써 전력을 절약할 수 있다. 이러한 비활성 시간 기간은 레이더 시스템(104)이 레이더 신호를 능동적으로 송신 또는 수신하지 않는 경우에 발생하며, 이는 마이크로 초(μs), 밀리 초(ms) 또는 초(s) 정도일 수 있다. 또한, 전력 관리자(320)는 전력을 절약하기 위해 레이더 시스템(104) 내의 상이한 하드웨어 구성 요소들의 사용을 제어할 수 있다. 만약 프로세서(308)가 저전력 프로세서 및 고전력 프로세서(예를 들어, 상이한 양의 메모리 및 계산 능력을 갖는 프로세서)를 포함하는 경우, 예를 들어, 전력 관리자(320)는 저-수준 분석(예를 들어, 모션 검출, 사용자의 위치 결정 또는 환경 모니터링)을 위한 저전력 프로세와 고-충실도 또는 정확한 레이더 데이터가 레이더-기반 애플리케이션(106)에 의해 요청되는 상황(예를 들어, 제스처 인식 또는 사용자 배향)을 위한 고전력 프로세서의 사용을 전환할 수 있다.
전술한 내부 절전 기술에 추가하여, 전력 관리자(320)는 또한 스마트 폰(102) 내에 있는 다른 외부 구성 요소 또는 센서들을 활성화 또는 비활성화함으로써 스마트 폰(102) 내의 전력을 절약할 수 있다. 이들 외부 구성 요소들은 스피커, 카메라 센서, 글로벌 위치 측정 시스템, 무선 통신 송수신기, 디스플레이, 자이로 스코프 또는 가속도계를 포함할 수 있다. 레이더 시스템(104)은 적은 양의 전력을 사용하여 환경을 모니터링할 수 있기 때문에, 전력 관리자(320)는 사용자의 위치 또는 사용자의 활동에 기초하여 이들 외부 구성 요소를 적절하게 온 또는 오프할 수 있다. 이러한 방식으로, 스마트 폰(102)은 자동 차단 타이머의 사용 없이 또는 사용자가 스마트 폰(102)을 물리적으로 터치하거나 구두로 제어하지 않고 사용자에게 원활하게 응답하고 전력을 절약할 수 있다.
도 5는 스마트 폰(102) 내의 레이더 시스템(104)의 예시적인 구현(500)의 추가 세부 사항을 도시한다. 예(500)에서, 안테나 어레이(304)는 유리 커버 또는 외부 케이스와 같은 스마트 폰(102)의 외부 하우징 아래에 위치된다. 그의 재료 특성에 따라, 외부 하우징은 레이더 시스템(104)에 의해 전송 및 수신되는 레이더 신호를 감쇠 또는 왜곡시키는 감쇠기(502)로서 작용할 수 있다. 감쇠기(502)는 상이한 유형의 유리 또는 플라스틱을 포함할 수 있으며, 이들 중 일부는 디스플레이 스크린, 외부 하우징 또는 스마트 폰(102)의 다른 구성 요소 내에서 발견될 수 있고 대략 4 내지 10 사이의 유전 상수(예를 들어, 비유전율)를 갖는다. 따라서, 감쇠기(502)는 레이더 신호(506)에 대해 불투명하거나 반투명하며, 송신 또는 수신된 레이더 신호(506)의 일부가 (반사된 부분(504)에 의해 도시된 바와 같이) 반사되게 할 수 있다. 종래의 레이더의 경우, 감쇠기(502)는 모니터링될 수 있는 유효 범위를 감소시키거나, 작은 표적이 검출되는 것을 방지하거나, 전체 정확도를 감소시킬 수 있다.
레이더 시스템(104)의 전송 전력이 제한되고 외부 하우징을 재 설계하는 것이 바람직하지 않다고 가정하면, 레이더 신호(506)의 하나 이상의 감쇠-의존적 특성(예를 들어, 주파수 서브 스펙트럼(508) 또는 조향각(510)) 또는 감쇠기(502)의 감쇠-의존적 특성(예를 들어, 감쇠기(502)와 레이더 시스템(104) 사이의 거리(512) 104 또는 감쇠기(502)의 두께(514))은 감쇠기(502)의 효과를 완화시키도록 조정된다. 이들 특성 중 일부는 제조 중에 설정되거나 레이더 시스템(104)의 작동 중에 감쇠 완화기(314)에 의해 조정될 수 있다. 감쇠 완화기(314)는, 예를 들어, 송수신기(306)가 선택된 주파수 서브-스펙트럼(508) 또는 조향각(510)을 사용하여 레이더 신호(506)를 송신하게 하고, 플랫폼이 거리(512)를 변경하기 위해 레이더 시스템(104)을 감쇠기(502)로 더 가깝게 또는 그로부터 더 멀게 이동시키게 하거나, 사용자에게 감쇠기(502)의 두께(514)를 증가시키기 위해 다른 감쇠기를 적용하도록 프롬프트한다.
적절한 조정은 감쇠기(502)의 사전 결정된 특성(예를 들어, 스마트 폰(102)의 컴퓨터 판독 가능 매체(204) 또는 시스템 매체(310) 내에 저장된 특성)에 기초하거나 또는 감쇠기(502)의 하나 이상의 특성을 측정하기 위해 레이더 신호(506)의 리턴을 처리함으로써 감쇠 완화기(314)에 의해 이루어질 수 있다. 감쇠-의존적 특성 중 일부가 고정되거나 제한되더라도, 감쇠 완화기(314)는 이러한 제한 사항을 고려하여 각 파라미터의 균형을 맞추고 타겟 레이더 성능을 달성할 수 있다. 결과적으로, 감쇠 완화기(314)는 레이더 시스템(104)이 감쇠기(502)의 반대편에 위치한 사용자를 검출하고 추적하기 위해 향상된 정확도 및 더 큰 유효 범위를 실현할 수 있게 한다. 이들 기술은 레이더 시스템(104)의 전력 소비를 증가시키는 전송 전력 증가 또는 일단 디바이스가 생상되면 어렵고 비쌀 수 있는 감쇠기(502)의 재료 특성 변경에 대한 대안을 제공한다. .
도 6은 레이더 시스템(104)으로 구현된 예시적인 방식(scheme)(600)을 도시한다. 이 방식(600)의 일부는 프로세서(308), 컴퓨터 프로세서(202) 또는 다른 하드웨어 회로에 의해 수행될 수 있다. 방식(600)은 상이한 유형의 전자 디바이스 및 레이더-기반 애플리케이션(106)을 지원하도록 커스터마이징될 수 있고, 또한 레이더 시스템(104)이 설계 제약에도 불구하고 타겟 각도 정확도를 달성할 수 있게 한다.
송수신기(306)는 수신된 레이더 신호에 대한 수신 안테나 엘리먼트(402)의 개별 응답에 기초하여 미가공 데이터(602)를 생성한다. 수신된 레이더 신호는 각도 모호성 해상도를 용이하게 하기 위해 각 추정기(318)에 의해 선택된 하나 이상의 주파수 서브-스펙트럼(604)과 연관될 수 있다. 주파수 서브-스펙트럼(604)은 예를 들어, 사이드 로브의 양을 감소시키거나 사이드 로브의 진폭을 감소(예를 들어, 진폭을 0.5dB, 1dB 이상 감소)시키도록 선택될 수 있다. 주파수 서브-스펙트럼의 양은 레이더 시스템(104)의 타겟 각도 정확도 또는 계산 한계에 기초하여 결정될 수 있다.
미가공 데이터(602)는 수신 안테나 엘리먼트(402)와 각각 관련된 시간 기간, 상이한 파수(wavenumbers) 및 다수의 채널에 대한 디지털 정보(예를 들어, 동 위상 및 직교 데이터)를 포함한다. 고속 푸리에 변환(FFT)(606)은 원시 데이터(602)에 대해 수행되어 전처리된 데이터(608)를 생성한다. 전처리된 데이터(608)는 상이한 범위(예를 들어, 레인지 빈)에 대해, 시간 기간에 걸쳐 그리고 다수의 채널에 대한 디지털 정보를 포함한다. 레인지(range)-도플러 데이터(612)를 생성하기 위해 전처리된 데이터(608)에 대해 도플러 필터링 프로세스(610)가 수행된다. 도플러 필터링 프로세스(610)는 다수의 레인지 빈, 다수의 도플러 주파수 및 다수의 채널에 대한 진폭 및 위상 정보를 생성하는 다른 FFT를 포함할 수 있다. 디지털 빔포머(316)는 레인지-도플러 데이터(612)에 기초하여 빔포밍 데이터(614)를 생성한다. 빔포밍 데이터(614)는 방위각 및/또는 고도 세트에 대한 디지털 정보를 포함하는데, 이는 상이한 조향각 또는 빔들이 디지털 빔포머(316)에 의해 형성되는 시야를 나타낸다. 도시되지는 않았지만, 디지털 빔포머(316)는 대안적으로 전처리된 데이터(608)에 기초하여 빔포밍 데이터(614)를 생성할 수 있고, 도플러 필터링 프로세스(610)는 빔포밍 데이터(614)에 기초하여 레인지-도플러 데이터(612)를 생성할 수 있다. 계산량을 감소시키기 위해, 디지털 빔포머(316)는 관심 범위, 시간 또는 도플러 주파수 간격에 기초하여 레인지-도플러 데이터(612) 또는 전처리된 데이터(608)의 일부를 처리할 수 있다.
디지털 빔포머(316)는 싱글-룩(single-look) 빔포머(616), 멀티-룩 간섭계(618) 또는 멀티-룩 빔포머(620)를 사용하여 구현될 수 있다. 일반적으로, 싱글-룩 빔포머(616)는 결정성 객체(예를 들어, 단일 위상 중심을 갖는 포인트-소스 타겟)에 사용될 수 있다. 비-결정성 타겟(예를 들어, 다중 위상 중심을 갖는 타겟)에 대해, 멀티-룩 간섭계(618) 또는 멀티-룩 빔포머(620)는 단일-룩 빔포머(616)에 비해 정확도를 향상시키기 위해 사용된다. 인간은 비-결정성 타겟의 예이고, 624-1 및 624-2에 도시된 바와 같이 상이한 종횡각에 기초하여 변화할 수 다수의 위상 중심(622)을 갖는다. 다수의 위상 중심(622)에 의해 생성된 구조적 또는 파괴적 간섭의 변화는 종래의 레이더가 각도 위치를 정확하게 결정하는 것을 어렵게 할 수 있다. 그러나, 멀티-룩 간섭계(618) 또는 멀티-룩 빔포머(620)는 빔포밍 데이터(614)의 정확도를 증가시키기 위해 일관된 평균화(coherent averaging)를 수행한다. 멀티-룩 간섭계(618)는 2개의 채널을 일관성 있게 평균화하여 각도 정보를 정확하게 결정하는데 사용될 수 있는 위상 정보를 생성한다. 한편, 멀티-룩 빔포머(620)는 푸리에, 캡온(Capon), 다중 신호 분류(MUSIC), 또는 최소 분산 왜곡 감소 응답 (MVDR)과 같은 선형 또는 비선형 빔포머를 사용하여 2개 이상의 채널을 일관성 있게 평균화할 수 있다. 멀티-룩 빔포머(620) 또는 멀티-룩 간섭계(618)를 통해 제공된 증가된 정확도는 레이더 시스템(104)이 작은 제스처를 인식하거나 사용자의 다수의 부분을 구별할 수 있게 한다.
각 추정기(318)는 빔포밍 데이터(614)를 분석하여 하나 이상의 각도 위치를 추정한다. 각 추정기(318)는 신호 처리 기술, 패턴 매칭 기술 또는 기계 학습을 이용할 수 있다. 각 추정기(318)는 또한 레이더 시스템(104)의 설계 또는 레이더 시스템(104)이 모니터링하는 시야에서 발생할 수 있는 각 모호성을 해소한다. 예시적인 각 모호성은 진폭 플롯(626)(예를 들어, 진폭 응답) 내에 도시되어 있다.
진폭 플롯(626)은 타겟의 상이한 각 위치 및 상이한 조향각(510)에 대해 발생할 수 있는 진폭 차이를 나타낸다. 제1 진폭 응답(628-1)(실선으로 도시됨)은 제1 각 위치(630-1)에 위치된 타겟에 대해 도시되어 있다. 마찬가지로, 제2 진폭 응답(628-2)(점선으로 도시됨)은 제2 각 위치(630-2)에 위치된 타겟에 대해 도시되어 있다. 이 예에서, 차이는 -180도에서 180도 사이의 각도에서 고려된다.
진폭 플롯(626)에 도시된 바와 같이, 2개의 각 위치(630-1 및 630-2)에 대해 모호한 구역(zone)이 존재한다. 제1 진폭 응답(628-1)은 제1 각 위치(630-1)에서 최고 피크를 갖고 제2 각 위치(630-2)에서 더 작은 피크를 갖는다. 최고 피크는 타겟의 실제 위치에 해당하지만, 더 적은 피크는 제1 각 위치(630-1)가 모호해지게 하는데, 이는 종래의 레이더가 상기 표적이 제1 각 위치(630-1)에 있는지 또는 제2 각 위치(630-2)에 있는지를 자신있게 결정할 수 없는 일부 임계치 내에 있기 때문이다. 대조적으로, 제2 진폭 응답(628-2)은 제2 각 위치(630-2)에서 더 작은 피크를 갖고 제1 각 위치(630-1)에서 더 높은 피크를 갖는다. 이 경우, 더 작은 피크가 타겟의 위치에 해당한다.
종래의 레이더는 각 위치들을 결정하기 위해 최고 피크 진폭을 사용하는 것으로 제한될 수 있지만, 각 추정기(318)는 대신 진폭 응답들(628-1 및 628-2)의 형상(shapes)의 미묘한 차이를 분석한다. 형상의 특성은 예를 들어 롤-오프, 피크 또는 널 폭, 피크 또는 널의 각 위치, 피크 및 널의 높이 또는 깊이, 사이드로브의 모양, 진폭 응답(628-1 또는 628-2)내의 대칭, 또는 진폭 응답(628-1 또는 628-2)내의 대칭 부재를 포함할 수 있다. 위상 응답에서 유사한 형상 특성이 분석될 수 있는데, 이는 각 모호성을 해소하기 위한 추가 정보를 제공할 수 있다. 따라서 각 추정기(318)는 고유각 서명 또는 패턴을 각 위치에 매핑한다.
각 추정기(318)는 전자 디바이스의 유형(예를 들어, 계산 능력 또는 전력 제약) 또는 레이더-기반 애플리케이션(106)에 대한 타겟 각 해상도에 따라 선택될 수 있는 일련의 알고리즘 또는 툴을 포함할 수 있다. 일부 구현에서, 각 추정기(318)는 신경망(632), 컨볼루션 신경망(CNN)(634), 또는 장단기 메모리(LSTM) 네트워크(636)를 포함할 수 있다. 신경망(632)은 다양한 깊이 또는 양의 히든 계층(예를 들어, 3개의 히든 계층, 5개의 히든 계층 또는 10개의 히든 계층)을 가질 수 있고, 또한 상이한 양의 연결을 포함할 수 있다(예를 들어, 신경망(632)은 완전-연결된 신경망 또는 부분-연결된 신경망을 포함할 수 있음). 일부 경우, CNN(634)은 각 추정기(318)의 계산 속도를 증가시키기 위해 사용될 수 있다. LSTM 네트워크(636)는 각 추정기(318)가 타겟을 추적할 수 있게 하는데 사용될 수 있다. 기계 학습 기술을 사용하여, 각 추정기(318)는 비선형 함수를 사용하여 진폭 응답(628-1 또는 628-2)의 형상을 분석하고 각 확률 데이터(638)를 생성하는데, 이는 사용자 또는 사용자의 일부가 각도 빈 내에 있을 가능성을 나타낸다. 각 추정기(318)는 스마트 폰(102)의 좌측 또는 우측에 있는 타겟의 확률 또는 수천의 각 빈들에 대한 확률을 제공하기 위해(예를 들어, 연속적인 각 측정을 위한 각 확률 데이터(638)를 제공하기 위해) 2개의 각도 빈과 같은 몇몇 각도 빈들에 대한 각 확률 데이터(638)를 제공할 수 있다.
각 확률 데이터(638)에 기초하여, 추적기 모듈(640)은 타겟의 각 위치를 식별하는 각 위치 데이터(642)를 생성한다. 추적기 모듈(640)은 각 확률 데이터(638)에서 최고 확률을 갖는 각도 빈에 기초하거나 예측 정보(예를 들어, 이전에 측정된 각 위치 정보)에 기초하여 타겟의 각 위치를 결정할 수 있다. 추적기 모듈(640)은 또한 레이더 시스템(104)이 타겟을 확실하게 구별하거나 식별할 수 있도록 하나 이상의 이동 타겟을 추적할 수 있다. 범위, 도플러, 속도 또는 가속도를 포함하여 각 위치를 결정하는데 다른 데이터를 사용할 수도 있다. 일부 경우에, 추적기 모듈(640)은 알파-베타 추적기, 칼만 필터, 다중 가설 추적기(MHT) 등을 포함할 수 있다.
양자화기 모듈(644)은 각 위치 데이터(642)를 획득하고 그 데이터를 양자화하여 양자화된 각 위치 데이터(646)를 생성한다. 양자화는 레이더-기반 애플리케이션(106)에 대한 타겟 각 해상도에 기초하여 수행될 수 있다. 일부 상황에서, 양자화된 각 위치 데이터(646)가 타겟이 스마트 폰(102)의 우측에 있는지 또는 좌측에 있는지를 나타내거나 또는 타겟이 위치하는 90도 사분면을 식별하도록 더 적은 양자화 레벨이 사용될 수 있다. 이것은 사용자 근접 검출과 같은 일부 레이더-기반 애플리케이션(106)에 충분할 수 있다. 다른 상황에서, 양자화된 각 위치 데이터(646)가 1 도, 1 도, 5 도 등의 일부 정도의 정확도 내에서 타겟의 각 위치를 나타내도록 더 많은 수의 양자화 레벨이 사용될 수 있다. 이 해상도는 제스처 인식과 같은 고해상도 레이더-기반 애플리케이션(106)에 사용될 수 있다. 일부 구현에서, 디지털 빔포머(316), 각 추정기(318), 추적기 모듈(640) 및 양자화기 모듈(644)은 단일 기계 학습 모듈에서 함께 구현된다.
이들 및 다른 능력 및 구성뿐만 아니라 도 1 내지 도 6의 엔티티들이 작용하고 상호 작용하는 방식이 아래에 기술된다. 기술된 엔티티들은 다른 센서 또는 구성 요소 등과 함께 추가로 분할, 결합, 사용될 수 있다. 이러한 방식으로, 레이더 시스템(104) 및 비-레이더 센서의 상이한 구성을 갖는 전자 디바이스(예를 들어, 스마트 폰(102))의 상이한 구현은 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법을 구현하는데 사용될 수 있다. 도 1의 예시적인 동작 환경(100) 및 도 2 내지 도 6의 상세한 예시는 설명된 기술을 이용할 수 있는 많은 가능한 환경 및 디바이스 중 일부를 도시한다.
예시적인 시스템
전술한 바와 같이, 본 명세서에 기술된 기술 및 시스템은 또한 디바이스가 증강 현실(AR) 객체들을 조작하는데 사용될 수 있는 3차원(3D) 제스처를 결정할 수 있게 할 수 있다.
도 7은 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법을 가능하게 하는 기술이 구현될 수 있는 다른 예시적인 환경(700)을 도시한다. 예시적인 동작 환경(700)은 레이더 시스템(104), 디스플레이(108) 및 레이더-기반 애플리케이션(702)을 포함하거나 이와 관련되는 스마트 폰(102)을 포함한다. 예시적인 동작 환경(700)이 스마트 폰(102)의 맥락에서 예시되어 있지만, 도 1 및 도 2를 참조하여 전술한 바와 같이 다른 전자 디바이스가 또한 도 7 내지 도 9를 참조하여 설명된 특징 및 기술을 구현하는데 사용될 수 있다. 예시적인 환경(700)에서, 레이더 시스템(104)은 도 1 내지 도 6을 참조하여 전술한 바와 같이 레이더 필드(110)를 제공한다. 레이더 시스템(104)은 또한 스마트 폰(102)이 레이더 필드(110) 내의 객체(704)로부터의 반사를 감지하고 분석할 수 있게 한다. 도 7에 도시된 바와같이, 객체(704)는 인간의 손이지만, 객체(704)는 레이더 시스템(104)이 목재, 플라스틱, 금속, 직물 또는 유기 물질(예를 들어, 사용자의 신체의 일부)과 같은 것으로부터의 반사를 감지하고 분석할 수 있는 임의의 다양한 객체일 수 있다. 반사의 분석에 기초하여, 레이더 시스템(104)은 도 1 내지 도 6을 참조하여 전술한 바와 같은 레이더 데이터를 제공할 수 있다. 예를 들어, 레이더 시스템(104)은 레이더 데이터를 레이더-기반 애플리케이션(702)과 같은 다른 엔티티로 전달할 수 있다.
레이더-기반 애플리케이션(702)은 디스플레이(108)를 통해 AR 엘리먼트(706)를 제시하고 그 AR 엘리먼트(706)를 선택하는 입력을 수신할 수 있는 다양한 AR 가능 애플리케이션(예를 들어, 레이더-기반 애플리케이션(106))들 중 임의의 것일 수 있다. AR 엘리먼트(706)를 선택하기 위해 수신된 입력은 음성 입력 또는 스마트 폰(102)의 터치 스크린을 통해 수신된 터치 입력일 수 있다. 더욱이, 레이더-기반 애플리케이션(702)은 레이더 데이터에 기초하여, 레이더 필드(110)내의 객체(704)에 의해 만들어진 제스처(예를 들어, 사용자의 손 또는 다른 신체 부분)를 결정하고 그 결정된 제스처에 대응하는 상기 선택된 AR 엘리먼트(706)와 관련된 동작을 수행할 수 있다. 제스처를 결정하는데 사용되는 레이더 데이터는 AR 엘리먼트(706)를 선택하는 입력이 레이더-기반 애플리케이션(702)에 의해 수신된 후에 수신된 반사의 분석에 기초한 레이더 데이터이다. 일부 구현에서, 결정된 제스처는 3D 제스처(예를 들어, 레이더 필드(110)에 의해 조명되는 3D 공간 내에서 임의의 방향으로 하나 이상의 움직임을 포함하는 제스처)일 수 있다.
3D 제스처는 수평 방향으로(예를 들어, 스마트 폰(102)의 좌측에서 스마트 폰(102)의 우측으로) 손을 스마트 폰(102) 위로 이동시킴으로써 행해지는 스크롤링 제스처, 팔꿈치를 중심으로 회전하는 사용자의 팔에 의해 행해지는 위빙(waving) 제스처, 수직 방향으로(예를 들어, 스마트 폰(102)의 하부측에서 스마트 폰(102)의 상부측으로) 사용자의 손을 스마트 폰(102) 위로 이동시킴으로써 행해지는 푸싱 제스처를 포함하여 다양한 제스처들 중 하나일 수 있다. 사용자의 손을 스마트 폰(102)을 향해 이동시킴으로써 행해지는 도달(reaching) 제스처, 가상의 문 손잡이를 돌리는 동작을 모방하도록 가상의 문 손잡이를 잡기 위해 사용자의 손의 손가락을 말아서 시계 방향 또는 시계 반대 방향으로 회전시킴으로써 행해지는 손잡이-회전 제스처, 및 엄지와 적어도 하나의 다른 손가락을 함께 문지르는 스핀들-비틀림 제스처와 같은 다른 유형의 3D 제스처 또는 모션이 또한 행해질 수 있다. 이들 예시적인 제스처 유형 각각은 레이더 시스템(104)에 의해 검출될 수 있다. 이들 제스처 각각을 검출하면, 스마트 폰(102)은 새로운 콘텐츠를 표시하거나, 커서를 이동 시키거나, 하나 이상의 센서를 활성화시키거나, 애플리케이션을 열거나, AR 엘리먼트를 조작하는 것과 같은 동작을 수행할 수 있다. 이러한 방식으로, 레이더 시스템(104)은 스마트 폰(102)의 터치-프리 컨트롤을 제공한다. 예시적인 3D 제스처 및 대응하는 동작은 도 8 및 9를 참조하여 아래에 설명된다.
레이더-기반 애플리케이션(702)은 또한 레이더 데이터에 기초하여 3D 제스처를 결정하는 것과 관련된 정보 및 3D 제스처에 대응하는 동작과 관련된 정보를 저장할 수 있는 3D 제스처 모듈(708)을 포함할 수 있다. 이러한 방식으로, 설명된 디바이스 및 기술은 AR 애플리케이션의 사용자가 AR 환경에서 터치 입력 및 3D 제스처 모두를 원활하고 편리하게 사용할 수 있게 한다.
추가의 예로서, 도 1 및 2를 고려한다. 예시적인 구현(800 및 900)을 각각 도시하는 도 8 및 9를 고려한다. 예시적인 구현(800 및 900)은 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법을 가능하게 하기 위해 3D 제스처를 사용하는 레이더 시스템(104)의 기능에 관한 추가 세부 사항을 기술한다.
도 8의 상세 뷰(800-1)에서, 예시적인 환경(800)은 레이더 필드(110)(미도시)를 제공하는 레이더 시스템(104)을 포함하는 스마트 폰(102)을 도시한다. 상세 뷰(800-1)에서, 사용자가 예를 들어 터치 입력을 통해 AR 엘리먼트(802)를 선택함으로써 AR 엘리먼트(802)를 이미 선택했다고 가정한다. 사용자의 신체 부분(804)(이 경우 사용자의 손(804))이 레이더 필드(110)내에 있고, 레이더 시스템(104)은 사용자의 손(804)에 의해 행해진 3D 제스처를 결정할 수 있다.
상세 뷰(800-2)에서, 사용자는 사용자의 손(804)과 레이더 시스템(104) 사이의 거리를 변경함으로써 제스처(예를 들어, 도달 제스처)를 만들었다. 상세 뷰뷰(8002)에서, 이 거리는 화살표(806)로 도시된 바와 같이, 사용자의 손(804)과 레이더 시스템(104) 사이의 거리를 증가시키기 위해 사용자의 손(804)을 이동시킴으로써 변경된다. 이 제스처에 해당하는 동작은 선택된 AR 엘리먼트(802)의 증가된 크기로 상세 뷰(800-2)에 도시된, 선택된 AR 엘리먼트(802)가 사용자에게 더 가까워지는 움직임이다. 유사하게, 도 8에 도시되지 않았지만, 사용자는 사용자의 손(804)과 레이더 시스템(104) 사이의 거리를 감소시키기 위해 사용자의 손(804)을 이동시킴으로써 제스처를 만들 수 있다. 이러한 경우, 이 제스처에 해당하는 동작은 선택된 AR 엘리먼트(802)가 사용자로부터 멀어지는 움직임이다.
일부 구현에서, 사용자에게 더욱 가까워진 선택된 AR 엘리먼트(802)의 이동은 사용자의 손(804)과 레이더 시스템(104) 사이의 증가된 거리에 비례한다. 유사하게, 사용자로부터 멀어지는 선택된 AR 엘리먼트(802)의 이동은 사용자의 손(804)과 레이더 시스템(104) 사이의 감소된 거리에 비례한다. 다른 구현에서, 선택된 AR 엘리먼트(802)의 이동은 속도 또는 각도와 같은 레이더 데이터로부터 결정될 수 있는 제스처의 다른 양태에 비례하거나 또는 제스처의 다양한 양태의 조합에 비례할 수 있다.
도 9의 상세 뷰(900-1)에서, 예시적인 환경(900)은 레이더 필드(110)(미도시)를 제공하는 레이더 시스템(104)을 포함하는 스마트 폰(102)을 도시한다. 상세 뷰(900-1)에서, 사용자가 예를 들어 터치 입력을 통해 AR 엘리먼트(902)를 선택함으로써 AR 엘리먼트(902)를 이미 선택했다고 가정한다. 사용자의 신체 부분(904)(이 경우 사용자의 손(904))은 레이더 필드(110)내에 있고, 레이더 시스템(104)은 사용자의 손(904)에 의해 행해진 3D 제스처를 결정할 수 있다.
상세 뷰(900-2)에서, 사용자는 사용자의 손(904)과 디스플레이(108)의 평면과 같은 기준(예를 들어, 스크롤링 제스처) 사이의 실질적으로 유사한 거리를 유지하면서 레이더 시스템(104)에 대해 사용자의 손(904)의 위치를 변경함으로써 제스처를 수행하였다. 상세 뷰(9002)에서, 사용자의 손(904)의 변경된 위치는 화살표(906)로 도시된 바와 같이 우측에서 좌측으로의 움직임이다. 이 제스처에 해당하는 동작은 화살표(908)로 도시된 바와 같이 선택된 AR 엘리먼트(902)의 축을 중심으로 한 방향으로 상기 선택된 AR 엘리먼트(902)의 회전이며, 대략 90도 회전하는 AR 엘리먼트(902)의 마킹 표면("X"로 표시됨)의 예시이다. 유사하게, 도 9에는 도시되지 않았지만, 사용자는 사용자의 손(904)을 좌측에서 우측으로 이동시킴으로써 제스처를 수행할 수 있다. 그러한 경우에, 이 제스처에 대응하는 동작은 선택된 AR 엘리먼트(902)가 축을 중심으로 반대 방향으로 회전하는 것이다.
일부 구현에서, 축 주위의 상기 선택된 AR 엘리먼트(902)의 회전 속도 및 양은 각각 사용자 손(904)의 좌우 운동의 속도 또는 거리에 비례한다. 다른 구현에서, AR 엘리먼트(902)의 회전은 사용자 손(904)의 형상 또는 표면 영역과 같은 레이더 데이터로부터 결정될 수 있는 제스처의 다른 양태에 비례하거나 제스처의 다양한 양태의 조합에 비례할 수 있다.
예시적인 구현(800 및 900)은 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법을 가능하게 하는 설명된 기술, 시스템 및 디바이스를 사용하여 가능한 많은 가능한 제스처들 중 단지 2개의 예시임에 유의해야 한다. 예를 들어, 사용자는 터치 입력을 사용하여 AR 환경에서 3D 객체를 선택한 다음 3D 핀치 제스처를 사용하여 3D 객체를 더 작게 만들거나 삭제할 수도 있다. 유사하게, 사용자는 AR 환경에서 플리킹 모션을 사용하여 선택된 3D 객체를 던질 수 있다.
또한, 설명된 기술은 다른 유형의 애플리케이션(예를 들어, 비-AR) 또는 AR 애플리케이션의 비-AR 피처들과 함께 사용될 수 있다. 예를 들어, 사용자는 혼합 제어(예를 들어, 3D 제스처와 조합된 터치 또는 음성 입력)를 사용하여 도면 기반 또는 텍스트 기반 애플리케이션 및 피처와 상호 작용할 수 있다. 일 예에서, 사용자는 디바이스의 터치 스크린에 손가락을 터치한 다음 터치 스크린을 따라 손가락을 슬라이딩함으로써 애플리케이션에서 선을 그릴 수 있다. 그런 다음 사용자는 터치 스크린에서 손가락을 떼고 가상 다이얼 돌리기와 같은 3D 제스처를 사용하여 선의 두께나 다른 속성을 변경할 수 있다. 다른 예에서, 사용자는 터치 스크린상에서 텍스트를 선택, 복사 및 붙여넣기할 수 있다. 예를 들어, 사용자는 터치 스크린상에서 터치-앤-핀치 제스처를 수행하여 디스플레이된 텍스트의 일부를 선택할 수 있다. 그런 다음 사용자는 3D 핀치 제스처를 수행하여 텍스트를 복사하고 터치 입력으로 다시 전환하여 커서를 터치 스크린에 배치할 수 있다. 다른 3D 핀치 제스처는 선택한 텍스트를 새로 위치에 붙여 넣는다. 이러한 방식으로, 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법은 터치 및 3D 제스처의 원활한 통합을 가능하게 하여 AR 및 비-AR 애플리케이션의 기능 및 사용자 즐거움을 향상시킨다.
예시적인 방법
도 10 및 11은 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법을 가능하게 하는 예시적인 방법(1000)을 도시한다. 방법(1000)은 레이더 시스템을 사용하여 레이더 필드를 제공하는 전자 디바이스로 수행될 수 있다. 레이더 필드는 레이더 필드 내의 객체가 레이더 시스템을 향해 이동하고 있는지 결정하는데 사용되고, 객체가 레이더 시스템을 향해 이동하고 있다는 결정에 응답하여 다양한 터치 입력 컨트롤의 위치를 특정 위치에 고정할 수 있다. 방법(1000)은 수행된 동작을 특정하는 블록 세트로 도시되어 있지만, 각각의 블록에 의해 동작을 수행하기 위해 도시된 순서 또는 조합으로 반드시 제한되는 것은 아니다. 또한, 하나 이상의 동작 중 임의의 것이 반복, 조합, 재구성 또는 링크되어 다양한 추가 및/또는 대체 방법을 제공할 수 있다. 다음의 논의의 일부에서, 도 1의 예시적인 동작 환경(100) 또는 도 2 내지 도 9에 상세히 기술된 엔티티 또는 프로세스가 참조될 수 있으며, 참조는 단지 예일 뿐이다. 이 기술은 하나의 엔티티 또는 하나의 디바이스에서 작동하는 여러 엔티티에 의한 성능으로 제한되지 않는다.
단계(1002)에서, 레이더 필드가 제공된다. 이 레이더 필드는 디스플레이(예를 들어, 디스플레이(108)), 레이더 시스템(예를 들어, 레이더 시스템(104)) 및 레이더-기반 애플리케이션(예를 들어, 레이더-기반 애플리케이션(106 또는 702))을 포함하는 다양한 전자 디바이스(예를 들어, 전술한 스마트 폰(102)) 중 임의의 것에 의해 제공될 수 있다. 또한, 레이더 필드는 전술한 레이더 필드(110)와 같은 다양한 유형의 레이더 필드 중 임의의 것일 수 있다.
단계(1004)에서, 레이더 필드 내의 객체로부터의 반사는 레이더 시스템에 의해 감지된다. 객체는 목재, 플라스틱, 금속, 직물 또는 유기 물질과 같은 다양한 객체일 수 있다. 예를 들어, 객체는 전술한 바와 같이 객체(112, 704, 804 또는 904) 중 하나와 같은 인체 부분(예를 들어, 손)일 수 있다.
단계(1006)에서, 레이더 필드 내의 객체로부터의 반사가 분석된다. 분석은 임의의 다양한 엔티티(예를 들어, 레이더 시스템(104) 또는 본 명세서에 기술된 임의의 레이더-기반 애플리케이션)에 의해 수행될 수 있으며, 도 3 내지 도 6을 참조하여 기술된 것과 같은 다양한 동작 또는 결정을 포함할 수 있다.
단계(1008)에서, 반사의 분석에 기초하여, 도 3 내지 도 6을 참조하여 전술한 레이더 데이터와 같은 레이더 데이터가 제공된다. 레이더 데이터는 레이더 시스템(104)과 같은 임의의 다양한 엔티티 또는 본 명세서에 기술된 임의의 레이더-기반 애플리케이션에 의해 제공될 수 있다. 일부 구현에서, 레이더 시스템은 레이더 데이터를 제공하고 다른 엔티티(예를 들어, 기술된 임의의 레이더-기반 애플리케이션들)에 레이더 데이터를 전달할 수 있다. 방법(1000)의 설명은 도 11의 블록(1008) 이전 문자 "A"에 대응하는 도 10의 블록(1008) 이후 문자 "A"로 표시된 바와같이 도 11에서 계속된다.
단계(1010)에서, 레이더-기반 애플리케이션은 디스플레이(예를 들어, 디스플레이(108))를 통해 증강 현실(AR) 엘리먼트를 제시한다. AR 엘리먼트는 전술한 AR 엘리먼트(116)와 같은 다양한 유형의 AR 엘리먼트 중 임의의 것일 수 있다. AR 엘리먼트는 전술한 터치 입력 컨트롤(118)와 같은 터치 입력 컨트롤을 포함하고, 이미지가 디스플레이 상에 제시되는 실제 객체(예를 들어, 전술한 실제 객체(120-1))와 관련된다.
단계(1012)에서, 레이더 필드 내의 객체가 레이더 시스템을 향해 이동하고 있다는 결정에 응답하여, 터치 입력 컨트롤이 전자 디바이스의 터치 스크린상의 고정 위치에 제공되고 유지된다. 고정 위치는 터치 입력 컨트롤이 초기에 디스플레이되는 위치 또는 디스플레이상의 다른 위치일 수 있다. 레이더 필드 내의 객체가 레이더 시스템을 향해 이동하고 있다는 결정은 레이더 시스템 또는 레이더-기반 애플리케이션과 같은 다양한 엔티티들 중 임의의 것에 의해 이루어질 수 있다.
일부 구현에서, 터치 입력 컨트롤은 실제 객체의 이미지가 더 이상 디스플레이 상에 제시되지 않을 때 고정 위치에 유지된다. 예를 들어, 터치 입력 컨트롤이 디스플레이의 특정 코너에 있는 AR 엘리먼트로 제공되는 반면 관련된 실제 객체는 전자 디바이스의 디스플레이에서 보여지고 사용자는 디스플레이를 향해 도달한다고 가정한다. 어떤 이유로 실제 객체의 이미지가 디스플레이상에 제시되지 않으면(예를 들어, 사용자가 터치 입력 컨트롤에 도달하는 동안 프레임된 실제 객체를 유지하지 않았기 때문에), 터치 입력 컨트롤은 디스플레이의 특정 코너에서(또는 다른 위치에서) 계속 유지될 수 있어서, 사용자는 터치 입력 컨트롤과 상호 작용할 수 있다.
예를 들어, 방법(1000)의 추가 세부 사항을 기술하는 예시적인 환경(1200)을 도시하는 도 12를 고려한다. 도 12의 상세 뷰(1200-1)에서, 예시적인 환경(1200)은 레이더 필드(110)(미도시)를 제공하는 레이더 시스템(104)을 포함하는 전자 디바이스(이 경우 스마트 폰(102))를 도시한다. 상세 뷰(1200-1)는 스마트 폰을 한 손(예를 들어, 왼손(1202))으로 잡고 있는 사용자가 스마트 폰(1021)상에서 실행되는 레이더-기반 애플리케이션(106)의 AR 인터페이스에서 실제 객체(120-1)를 프레임화한 것을 도시한다. 도시된 바와 같이, 레이더-기반 애플리케이션(106)은 디스플레이(108) 상에 실제 객체(1201)의 이미지(예를 들어, 이미지(120-2))를 제시하고 있다(이미지(120-2)는 점선 화살표로 도시됨). 레이더-기반 애플리케이션(106)은 또한 디스플레이(108)의 코너 근처의 위치에 터치 입력 컨트롤(118)을 포함하는 AR 엘리먼트(116)를 제시하고 있다.
상세 뷰(1200-2)에서, 사용자는 음영 화살표(1206)로 도시된 바와 같이 다른 손(예를 들어, 오른손(1204))으로 터치 입력 컨트롤부(118)를 향해 도달하기 시작했다. 사용자가 스마트 폰(102)을 향해 도달하고 있다고 판단되었다고 가정한다(예를 들어, 레이더-기반 애플리케이션(106) 또는 다른 엔티티는 레이더 데이터를 사용하여 오른손(1204)이 스마트 폰(102)을 향해 도달하고 있음을 결정한다). 오른손(1204)으로 터치 입력 컨트롤(118)에 도달하는 동안, 사용자는 또한 실제 객체(120-1)의 이미지(120-2)가 디스플레이(108)를 통해 더 이상 보이지 않도록 스마트 폰(102)을 이동시켰다. 이 이동은 점선 화살표(1208)로 도시되어 있다. 설명된 기술을 사용하여, 레이더-기반 애플리케이션(106)은 여전히 디스플레이(108)의 코너 근처의 거의 동일한 위치에서 AR 엘리먼트(116) 및 터치 입력 컨트롤(118)을 유지하고 있다.
상세 뷰(1200-3)에서, 사용자가 (예를 들어, 오른손(1204)으로 터치 입력을 통해) 터치 입력 컨트롤(118)을 활성화했다고 가정한다. 응답으로, 레이더-기반 애플리케이션(106)은 실제 객체(120-1)에 관한 정보를 사용자에게 제공할 수 있는 추가 터치 입력 컨트롤들(1212)과 함께 실제 객체(120-1)(미도시)의 다른 이미지(120-2)를 도시하는 2D 인터페이스(1210)를 제시하고 있다.
일부 구현에서, 고정 위치에 제공되고 있는 터치 입력 컨트롤(118)이 레이더 필드 내의 객체가 디스플레이(108)를 향해 이동하고 있다는 결정으로부터 임계 시간 내에 터치되지 않으면, 터치 입력 컨트롤은 고정 위치에서 제공되는 것이 중단될 수 있다. 임계 시간은 1.5초, 2초 또는 3초와 같은 다양한 시간일 수 있으며, 미리 설정되거나 사용자가 선택 가능할 수 있다. 또 다른 구현에서, 레이더-기반 애플리케이션(106)은 사용자의 손이 임계 속도를 초과하는 속도로 디스플레이(108)를 향해 이동하고 있다고 판단되는 경우에만 고정 위치에 터치 입력 컨트롤을 제공할 수 있다. 임계 속도는 0.25 피트/초(fps), 0.5fps 또는 0.75fps와 같은 임의의 적절한 속도일 수 있다.
예시적인 컴퓨팅 시스템
도 13은 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법을 구현하기 위해 이전의 도 1 내지 도 12를 참조하여 설명된 바와 같이 임의의 유형의 클라이언트, 서버 및/또는 전자 디바이스로서 구현될 수 있는 예시적인 컴퓨팅 시스템(1300)의 다양한 구성 요소를 도시한다.
컴퓨팅 시스템(1300)은 디바이스 데이터(1304)(예를 들어, 레이더 데이터, 3D 제스처 데이터, 인증 데이터, 기준 데이터, 수신된 데이터, 수신중인 데이터, 브로드캐스트를 위해 스케줄링된 데이터, 데이터의 데이터 패킷)의 유선 및/또는 무선 통신을 가능하게 하는 통신 디바이스(1302)를 포함한다. 디바이스 데이터(1304) 또는 다른 디바이스 컨텐츠는 디바이스의 구성 설정, 디바이스에 저장된 미디어 컨텐츠 및/또는 디바이스의 사용자와 관련된 정보(예를 들어, 레이더 필드 내의 사람의 신원)를 포함할 수 있다. 컴퓨팅 시스템(1300)에 저장된 미디어 컨텐츠는 임의의 유형의 레이더, 생체, 오디오, 비디오 및/또는 이미지 데이터를 포함할 수 있다. 컴퓨팅 시스템(1300)은 인간 발언(utterance), 레이더 필드와의 상호 작용, 터치 입력, 사용자 선택 가능 입력(명시적 또는 암시적), 메시지, 음악, 텔레비전 미디어 컨텐츠, 녹화된 비디오 컨텐츠, 및 임의의 컨텐츠 및/또는 데이터 소스로부터 수신된 임의의 다른 유형의 오디오, 비디오 및/또는 이미지 데이터와 같은, 임의의 유형의 데이터, 미디어 컨텐츠 및/또는 입력이 수신될 수 있는 하나 이상의 데이터 입력(1306)을 포함한다.
컴퓨팅 시스템 1300)은 또한 하나 이상의 직렬 및/또는 병렬 인터페이스, 무선 인터페이스, 임의의 유형의 네트워크 인터페이스, 모뎀 및 임의의 다른 유형의 통신 인터페이스로서 구현될 수 있는 통신 인터페이스(1308)를 포함한다. 통신 인터페이스(1308)는 컴퓨팅 시스템(1300)과 다른 전자, 컴퓨팅 및 통신 디바이스가 컴퓨팅 시스템(1300)과 데이터를 통신하는 통신 네트워크 사이의 연결 및/또는 통신 링크를 제공한다.
컴퓨팅 시스템(1300)은 컴퓨팅 시스템(1300)의 동작을 제어하고 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법에 대한 기술을 가능하게 하거나 또는 구현할 수 있는 다양한 컴퓨터 실행 가능 명령을 처리할 수 있는 하나 이상의 프로세서(1310)(예를 들어, 임의의 마이크로 프로세서, 제어기 또는 다른 제어기)를 포함한다. 대안적으로 또는 추가적으로, 컴퓨팅 시스템(1300)은 1312에서 일반적으로 식별되는 프로세싱 및 제어 회로와 관련하여 구현되는 하드웨어, 펌웨어 또는 고정 논리 회로의 임의의 하나 또는 조합으로 구현될 수 있다. 도시되지는 않았지만, 컴퓨팅 시스템(1300)은 디바이스 내의 다양한 구성 요소를 연결하는 시스템 버스 또는 데이터 전송 시스템을 포함할 수 있다. 시스템 버스는 메모리 버스 또는 메모리 제어기, 주변 디바이스 버스, 범용 직렬 버스 및/또는 다양한 버스 아키텍처 중 하나를 사용하는 프로세서 또는 로컬 버스와 같은 상이한 버스 구조 중 하나 또는 그 조합을 포함할 수 있다.
컴퓨팅 시스템(1300)은 또한 예를 들어, 랜덤 액세스 메모리(RAM), 비 휘발성 메모리(예를 들어, 임의의 하나 이상의 판독 전용 메모리(ROM), 플래시 메모리, EPROM, EEPROM 등) 및 디스크 저장 디바이스를 포함하는 영구 및/또는 비-일시적 데이터 저장(즉, 단순한 신호 전송과 대조되는)을 가능하게 하는 하나 이상의 메모리 디바이스와 같은 컴퓨터 판독 가능 매체(1314)를 포함한다. 디스크 저장 디바이스는 하드 디스크 드라이브, 기록 가능 및/또는 재기록 가능 컴팩트 디스크(CD), 임의의 유형의 디지털 다목적 디스크(DVD) 등과 같은 임의의 유형의 자기 또는 광 저장 디바이스로서 구현될 수 있다. 컴퓨팅 시스템(1300)은 또한 대용량 저장 매체 디바이스(저장 매체)(1316)를 포함할 수 있다.
컴퓨터 판독 가능 매체(1314)는 디바이스 데이터(1304)뿐만 아니라 다양한 디바이스 애플리케이션(1318) 및 컴퓨팅 시스템(1300)의 동작 양태와 관련된 임의의 다른 유형의 정보 및/또는 데이터를 저장하기 위한 데이터 저장 메커니즘을 제공한다. 예를 들어, 운영 체제(1320)는 컴퓨터 판독 가능 매체(1314)를 갖는 컴퓨터 애플리케이션으로서 유지될 수 있고 프로세서(1310)상에서 실행될 수 있다. 디바이스 애플리케이션(1318)은 임의의 형태의 제어 애플리케이션, 소프트웨어 애플리케이션, 신호 처리 및 제어 모듈, 특정 디바이스 고유의 코드, 추상화 모듈, 제스처 인식 모듈 및 기타 모듈과 같은 디바이스 관리자를 포함할 수 있다. 디바이스 애플리케이션(1318)은 또한 레이더 시스템(104), 레이더-기반 애플리케이션(106) 또는 (3D 제스처 모듈(708)을 포함하는) 레이더-기반 애플리케이션(702)와 같은 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법을 구현하기 위한 시스템 구성 요소, 엔진 또는 관리자를 포함할 수 있다. 컴퓨팅 시스템(1300)은 또한 하나 이상의 기계 학습 시스템을 포함하거나 이에 액세스할 수 있다.
이하에서는 일부 예시가 설명된다.
예시 1 : 스마트 폰은 디스플레이와; 적어도 부분적으로 하드웨어로 구현되어, 레이더 필드(radar field)를 제공하고; 레이더 필드내의 객체로부터의 반사를 감지하고; 레이더 필드내의 객체로부터의 반사를 분석하고; 그리고 반사의 분석에 기초하여, 레이더 데이터를 제공하도록 구성된 레이더 시스템과; 하나 이상의 컴퓨터 프로세서와; 그리고 하나 이상의 컴퓨터 프로세서에 의한 실행에 응답하여, 레이더-기반 애플리케이션을 구현하는 명령들이 저장된 하나 이상의 컴퓨터 판독 가능 매체를 포함하고, 상기 레이더-기반 애플리케이션은 스마트 폰의 디스플레이를 통해 증강 현실(AR) 엘리먼트를 제시하고, 상기 AR 엘리먼트는 터치 입력 컨트롤을 포함하고 이미지가 디스플레이에 제시되는 실제 객체와 관련되며; 그리고 레이더 데이터에 기초하여, 레이더 필드 내의 객체가 디스플레이를 향해 이동하고 있다는 결정에 응답하여, 터치 입력 컨트롤을 디스플레이의 고정 위치에 유지한다.
예시 2 : 예시 1에 있어서, 상기 레이더 필드 내의 객체는 사용자이고, 이에 의해 터치 입력 컨트롤과의 사용자 상호 작용의 용이성 및 정확성은 실제 객체의 이미지가 디스플레이상에서 비정상적으로 이동하더라도 터치 입력 컨트롤을 고정 위치에 유지함으로써 촉진되도록 한다.
예시 3 : 예시 1 또는 예시 2에 있어서, 상기 레이더-기반 애플리케이션은 사용자가 제1 손으로 스마트 폰을 잡고 있는 동안 터치 입력 컨트롤을 포함하는 증강 현실(AR) 엘리먼트를 제시하도록 더 구성된다.
예시 4 : 선행하는 예시 중 적어도 하나에 있어서, 상기 레이더 필드 내의 객체가 디스플레이를 향해 이동하고 있다는 결정은 사용자가 제2 손으로 스마트 폰을 향해 도달하고 있다고 결정하는 것을 포함하고; 상기 스마트 폰은 실제 객체의 이미지가 더 이상 디스플레이 상에 제시되지 않도록 위치되고; 그리고 상기 레이더-기반 애플리케이션은 실제 객체의 이미지가 더 이상 디스플레이 상에 제시되지 않도록 사용자가 스마트 폰을 이동시키기 전에 제시된 것과 거의 동일한 디스플레이 상의 위치에 AR 엘리먼트 및 터치 입력 컨트롤을 유지하도록 더 구성된다.
예시 5 : 선행하는 예시 중 적어도 하나에 있어서, 상기 터치 입력 컨트롤은 제2 손에 의한 이전 터치 입력을 통해 활성화되고; 상기 레이더-기반 애플리케이션은 터치 입력 컨트롤의 활성화에 응답하여, 실제 객체의 다른 이미지; 및 실제 객체에 관한 정보를 사용자에게 제공하는 다른 터치 입력 컨트롤을 포함하는 2차원(2D) 인터페이스를 디스플레이상에 제시하도록 더 구성된다.
예시 6 : 선행하는 예시 중 적어도 하나에 있어서, 상기 레이더-기반 애플리케이션은 실제 객체의 이미지가 더 이상 디스플레이상에 제시되지 않을 때 터치 입력 컨트롤의 고정 위치를 유지하도록 더 구성된다.
예시 7 : 선행하는 예시 중 적어도 하나에 있어서, 상기 레이더-기반 애플리케이션은 고정 위치의 터치 입력 컨트롤이 임계 시간 내에 터치되지 않은 것에 응답하여, 터치 입력 컨트롤을 고정 위치에 제공하는 것을 중지하도록 더 구성된다.
예시 8 : 선행하는 예시 중 적어도 하나에 있어서, 상기 레이더-기반 애플리케이션은 레이더 필드 내의 객체가 임계 속도를 초과하는 속도로 디스플레이를 향해 이동하는 경우 고정 위치에 터치 입력 컨트롤을 제공하도록 더 구성된다.
예시 9 : 선행하는 예시 중 적어도 하나에 있어서, 상기 스마트 폰은 이미지 캡처 디바이스를 포함하고, 상기 레이더-기반 애플리케이션은 이미지 캡처 디바이스를 통해 실시간 또는 거의 실시간으로 실제 객체의 이미지를 제시한다.
예시 10 : 선행하는 예시 중 적어도 하나에 있어서, 상기 레이더 시스템은 레이더 데이터에 기초하여, 레이더 필드 내의 객체가 디스플레이를 향해 이동하고 있는지 결정하도록 더 구성된다.
예시 11 : 선행하는 예시 중 적어도 하나에 있어서, 상기 레이더-기반 애플리케이션은 레이더 데이터에 기초하여, 레이더 필드 내의 객체가 디스플레이를 향해 이동하고 있는지 결정하도록 더 구성된다.
예시 12 : 선행하는 예시 중 적어도 하나에 있어서, 상기 레이더 필드 내의 객체는 사용자의 신체 부분이다.
예시 13 : 시스템은 디스플레이를 포함하는 전자 디바이스와; 적어도 부분적으로 하드웨어로 구현되어, 레이더 필드를 제공하고; 제1 시간에, 레이더 필드내의 객체로부터의 반사를 감지하고; 레이더 필드내의 객체로부터의 반사를 분석하고; 반사의 분석에 기초하여 레이더 데이터를 제공하도록 구성된 레이더 시스템과; 하나 이상의 컴퓨터 프로세서과; 그리고 하나 이상의 컴퓨터 프로세서에 의한 실행에 응답하여, 레이더-기반 애플리케이션을 구현하는 명령들이 저장된 하나 이상의 컴퓨터 판독 가능 매체를 포함하고, 상기 레이더-기반 애플리케이션은 전자 디바이스의 디스플레이를 통해 증강 현실(AR) 엘리먼트를 제시하고; 제1시간보다 늦은 제2 시간에, AR 엘리먼트를 선택하는 입력을 수신하고; 레이더 데이터에 기초하여, 레이더 필드내의 객체에 의한 제스처를 결정하고; 결정된 제스처에 대응하는 상기 선택된 AR 엘리먼트와 관련된 동작을 수행하도록 구성된다.
예시 14 : 예시 13에 있어서, 상기 AR 엘리먼트를 선택하는 입력은 터치 입력이다.
예시 15 : 예시 13 또는 14에 있어서, 상기 결정된 제스처는 3차원(3D) 제스처이다.
예시 16 : 예시 13 내지 15 중 적어도 하나에 있어서, 상기 객체는 사용자의 신체 부분이다.
예시 17 : 예시 13 내지 16 중 적어도 하나에 있어서, 상기 결정된 제스처는 객체와 레이더 시스템 사이의 거리를 변경시키는 것을 포함한다.
예시 18 : 예시 17에 있어서, 상기 객체와 레이더 시스템 사이의 증가된 거리인 상기 변경된 거리에 대응하는 동작은 사용자에게 더 근접하는 선택된 AR 엘리먼트의 이동이고; 그리고 상기 객체와 레이더 시스템 사이의 감소된 거리인 상기 변경된 거리에 대응하는 동작은 사용자로부터 멀어지는 선택된 AR 엘리먼트의 이동이다.
예시 19 : 예시 18에 있어서, 상기 사용자에게 더 근접하는 선택된 AR 엘리먼트의 이동은 증가된 거리에 비례하고; 그리고 상기 사용자로부터 멀어지는 선택된 AR 엘리먼트의 이동은 감소된 거리에 비례한다.
예시 20 : 예시 13 내지 19 중 적어도 하나에 있어서, 상기 결정된 제스처는 신체 부분과 전자 디바이스의 디스플레이 평면 사이에서 실질적으로 유사한 거리를 유지하면서 레이더 시스템에 대한 객체의 위치를 변경하는 것을 포함한다.
예시 21 : 예시 20에 있어서, 제1 방향으로 위치를 변경하는 것에 대응하는 동작은 선택된 AR 엘리먼트의 축을 중심으로 제1 회전 방향으로 선택된 AR 엘리먼트의 회전이고; 그리고 제2 방향으로 위치를 변경하는 것에 대응하는 동작은 상기 축을 중심으로 제2 회전 방향으로 선택된 AR 엘리먼트의 회전이다.
예시 22 : 예시 13 내지 21 중 적어도 하나에 있어서, 상기 레이더 시스템은 디지털 빔포머 및 각 추정기를 더 포함하고, 상기 레이더 시스템은 대략 -90도 내지 대략 90도 사이의 시야에서 각도를 모니터링하도록 구성된다.
예시 23 : 디스플레이, 레이더 시스템, 및 레이더-기반 애플리케이션을 포함하는 전자 디바이스에서 구현되는 방법으로서, 상기 방법은 레이더 시스템에 의해, 레이더 필드를 제공하는 단계; 레이더 시스템에 의해, 레이더 필드내의 객체로부터의 반사를 감지하는 단계; 레이더 필드내의 객체로부터의 반사를 분석하는 단계; 반사의 분석에 기초하여, 레이더 데이터를 제공하는 단계; 레이더-기반 애플리케이션에 의해, 전자 디바이스의 디스플레이를 통해 증강 현실(AR) 엘리먼트를 제시하는 단계, 상기 AR 엘리먼트는 터치 입력 컨트롤을 포함하고 이미지가 디스플레이상에 제시되는 실제 객체와 관련되고; 및 레이더 데이터에 기초하여, 레이더 필드내의 객체가 디스플레이를 향해 이동하고 있다는 결정에 응답하여, 터치 입력 컨트롤을 디스플레이의 고정 위치에 유지하는 단계를 포함한다.
예시 24 : 예시 23에 있어서, 상기 레이더 데이터에 기초하여, 레이더 필드내의 객체가 디스플레이를 향해 이동하고 있다는 결정은 레이더 시스템 또는 레이더-기반 애플리케이션에 의해 수행된다.
예시 25 : 예시 23 또는 24에 있어서, 상기 전자 디바이스는 핸드 헬드 디바이스이고, 상기 레이더 필드내의 객체는 사용자이고, 상기 방법은 터치 입력 컨트롤과의 사용자의 상호 작용의 용이성과 정확성이 촉진되도록 실제 객체의 이미지가 디스플레이상에서 비정상적으로 이동하더라도 터치 입력 컨트롤을 고정 위치에 유지하는 단계를 더 포함한다.
예시 26 : 예시 23 내지 25 중 적어도 하나에 있어서, 레이더-기반 애플리케이션에 의해, 사용자가 제1 손으로 전자 디바이스를 잡고 있는 동안 터치 입력 컨트롤을 포함하는 증강 현실(AR) 엘리먼트를 제시하는 단계를 더 포함한다.
예시 27 : 예시 23 내지 26 중 적어도 하나에 있어서, 상기 레이더 필드 내의 객체가 디스플레이를 향해 이동하고 있다는 결정은 사용자가 제2 손으로 전자 디바이스를 향해 도달하고 있다고 결정하는 것을 포함하고; 상기 전자 디바이스는 실제 객체의 이미지가 더 이상 디스플레이 상에 제시되지 않도록 위치되고; 그리고 상기 방법은 레이더-기반 애플리케이션에 의해, 실제 객체의 이미지가 더 이상 디스플레이상에 제시되지 않도록 사용자가 전자 디바이스를 이동시키기 전에 제시된 것과 거의 동일한 디스플레이상의 위치에 AR 엘리먼트 및 터치 입력 컨트롤을 유지하는 단계를 더 포함한다.
예시 28 : 예시 23 내지 27 중 적어도 하나에 있어서, 상기 터치 입력 컨트롤은 제2 손에 의한 이전 터치 입력을 통해 활성화되고, 상기 방법은 레이더-기반 애플리케이션에 의해, 터치 입력 컨트롤의 활성화에 응답하여, 2차원(2D) 사용자 인터페이스를 디스플레이상에 제시하는 단계를 더 포함하고, 상기 2D 사용자 인터페이스는, 실제 객체의 다른 이미지; 및 실제 객체에 관한 정보를 사용자에게 제공하는 다른 터치 입력 컨트롤을 포함한다.
결론
레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법을 위한 기술 및 이를 가능하게 하는 장치가 특징 및/또는 방법에 대해 특정한 언어로 기술되었지만, 첨부된 청구항의 주제는 기술된 특정 특징이나 방법으로 반드시 제한되는 것은 아니라는 것을 이해해야 한다. 오히려, 특정 특징 및 방법은 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법을 가능하게 하는 예시적인 구현으로서 개시되어 있다.

Claims (20)

  1. 전자 디바이스로서,
    디스플레이;
    적어도 부분적으로 하드웨어에 구현되어,
    레이더(radar) 필드를 제공하고;
    레이더 필드내의 객체로부터의 반사를 감지하고;
    레이더 필드내의 객체로부터의 반사를 분석하고; 그리고
    반사의 분석에 기초하여, 레이더 데이터를 제공하도록 구성된 레이더 시스템;
    하나 이상의 컴퓨터 프로세서; 및
    하나 이상의 컴퓨터 프로세서에 의한 실행에 응답하여:
    사용자 입력을 수신하고, 상기 사용자 입력은 전자 디바이스의 디스플레이의 사용자 인터페이스를 통해 수신된 터치 입력 및 전자 디바이스의 마이크로폰을 통해 수신된 음성 입력 중 하나이고;
    사용자 입력에 대응하는 제1 액션을 수행하고, 상기 제1 액션은 결과를 발생하고;
    레이더 데이터에 기초하여, 레이더 필드내의 객체에 의한 제스처를 결정하고; 그리고
    결정된 제스처에 대응하는 제2 액션을 수행하도록 구성된, 명령들이 저장된 하나 이상의 컴퓨터 판독 가능 매체를 포함하고, 상기 제2 액션은 사용자 입력에 대응하는 제1 액션의 결과와 연관되는 것을 특징으로 하는 전자 디바이스.
  2. 제1항에 있어서,
    상기 레이더 필드내의 객체는 사용자인 것을 특징으로 하는 전자 디바이스.
  3. 제2항에 있어서,
    상기 사용자 입력이 터치 입력인 경우, 터치 입력에 대응하는 제1 액션은 드로잉 기반 애플리케이션에 의한 액션을 포함하고; 그리고
    상기 결정된 제스처에 대응하는 제2 액션은 드로잉 기반 애플리케이션과 관련되는 것을 특징으로 하는 전자 디바이스.
  4. 제3항에 있어서,
    상기 드로잉 기반 애플리케이션은,
    그래픽 디자인 애플리게이션;
    스케치 애플리케이션; 또는
    컴퓨터 지원 제도 프로그램 중 하나인 것을 특징으로 하는 전자 디바이스.
  5. 제3항에 있어서,
    상기 결정된 제스처에 대응하고 드로잉 기반 애플리케이션과 관련되는 제2 액션은,
    드로잉 기반 애플리케이션으로 생성된 드로잉의 새로운 엘리먼트 생성:
    드로잉 기반 애플리케이션으로 생성된 드로잉의 기존 엘리먼트 변경;
    드로잉 기반 애플리케이션으로 생성된 드로잉을 나타내는 데이터 파일에 대해 수행되는 동작; 또는
    드로잉 기반 애플리케이션의 메뉴와의 상호 작용 중 하나 이상을 포함하는 것을 특징으로 하는 전자 디바이스.
  6. 제2항에 있어서,
    상기 터치 입력은 사용자 인터페이스를 따라 손가락의 터치 및 슬라이드를 포함하고;
    상기 터치 입력에 대응하는 제1 액션의 결과는 디스플레이상에 슬라이드의 형태에 대응하는 형태를 갖는 라인을 디스플레이하는 것이고; 그리고
    상기 결정된 제스처에 대응하는 제2 액션은 라인에 대한 변경을 포함하고,
    상기 변경은,
    선의 두께 증가 또는 감소;
    선의 색상 변경;
    선의 길이 증가 또는 감소; 또는
    선의 패턴 변경 중 적어도 하나를 포함하는 것을 특징으로 하는 전자 디바이스.
  7. 제2항에 있어서,
    상기 결정된 제스처는,
    다이얼 돌리기(dial-turning) 제스처; 또는
    스핀들 트위스팅(spindle-twisting) 제스처를 포함하는 3차원(3D) 제스처인 것을 특징으로 하는 전자 디바이스.
  8. 제2항에 있어서,
    상기 터치 입력에 대응하는 제1 액션은 텍스트 기반 애플리케이션에 의한 액션을 포함하고; 그리고
    상기 결정된 제스처에 대응하는 제2 액션은 텍스트 기반 애플리케이션과 관련되는 것을 특징으로 하는 전자 디바이스.
  9. 제8항에 있어서,
    상기 텍스트 기반 애플리케이션은,
    워드 프로세싱 애플리케이션;
    이메일 애플리케이션; 또는
    스프레드시트(spreadsheet) 애플리케이션 중 하나인 것을 특징으로 하는 전자 디바이스.
  10. 제8항에 있어서,
    상기 결정된 제스처에 대응하는 제2 액션은,
    텍스트 기반 애플리케이션에서 기존 텍스트 변경;
    텍스트 기반 애플리케이션에서 새로운 텍스트 생성;
    텍스트 기반 애플리케이션에서 텍스트를 나타내는 데이터 파일에 대해 수행되는 동작; 또는
    텍스트 기반 애플리케이션의 메뉴와의 상호 작용 중 하나 이상을 포함하는 것을 특징으로 하는 전자 디바이스.
  11. 제2항에 있어서,
    상기 터치 입력은 디스플레이된 텍스트의 일부 근처의 사용자 인터페이스에 대한 사용자의 2개 이상의 손가락의 터치 및 그런 다음 사용자 인터페이스에 대한 터치를 유지하면서 손가락을 펴는데 효과적인 하나 이상의 손가락의 슬라이드를 포함하고;
    상기 터치 입력에 대응하는 제1 액션의 결과는 터치 입력이 수행되는 디스플레이된 텍스트의 일부를 선택하는 것이고; 그리고
    상기 결정된 제스처는 선택된 텍스트에 대해 동작을 수행하는 3차원(3D) 제스처인 것을 특징으로 하는 전자 디바이스.
  12. 제11항에 있어서,
    상기 3D 제스처는 제1 핀치(pinch) 제스처를 포함하고;
    상기 선택된 텍스트에 대해 수행된 동작은 선택된 텍스트를 복사하는 것이고; 그리고
    상기 명령들은:
    사용자 인터페이스를 통해 다른 터치 입력을 수신하고, 상기 다른 터치 입력은 다른 터치 입력에 대응하는 위치에 있는 사용자 인터페이스상에 커서를 위치시키는데 효과적이고;
    레이더 데이터에 기초하여, 사용자에 의한 다른 제스처를 결정하고, 상기 다른 제스처는 제2 핀치 제스처를 포함하고; 그리고
    제2 핀치 제스처를 결정하는 것에 응답하여, 상기 선택된 텍스트에 대해 다른 동작을 수행하도록 더 구성되고, 상기 다른 동작은 상기 선택된 텍스트를 다른 터치 입력에 대응하는 위치에 붙여 넣는 것을 포함하는 것을 특징으로 하는 전자 디바이스.
  13. 제2항에 있어서,
    상기 사용자 입력이 음성 입력인 경우, 음성 입력에 대응하는 제1 액션은 드로잉 기반 애플리케이션에 의한 액션을 포함하고; 그리고
    상기 결정된 제스처에 대응하는 제2 액션은 드로잉 기반 애플리케이션과 관련되는 것을 특징으로 하는 전자 디바이스.
  14. 제13항에 있어서,
    상기 음성 입력은 사용자 인터페이스에 표시될 선(line)을 기술하는 명령들을 포함하는 제1 음성 명령을 포함하고;
    상기 음성 입력에 대응하는 제1 액션의 결과는 디스플레이상에 제1 음성 명령에 의해 기술된 형태에 대응하는 형태를 갖는 라인을 디스플레이하는 것이고; 그리고
    상기 결정된 제스처에 대응하는 제2 액션은 선에 대한 변경을 포함하고, 상기 변경은,
    선의 두께 증가 또는 감소;
    선의 색상 변경;
    선의 길이 증가 또는 감소; 또는
    선의 패턴 변경 중 적어도 하나를 포함하는 것을 특징으로 하는 전자 디바이스.
  15. 제13항에 있어서,
    상기 음성 입력에 대응하는 제1 액션은 텍스트 기반 애플리케이션에 의한 액션을 포함하고; 그리고
    상기 결정된 제스처에 대응하는 제2 액션은 텍스트 기반 애플리케이션과 관련되는 것을 특징으로 하는 전자 디바이스.
  16. 제13항에 있어서,
    상기 음성 입력은 사용자 인터페이스에 디스플레이된 텍스트의 일부를 기술하는 명령들을 포함하는 제2 음성 입력을 포함하고;
    상기 음성 입력에 대응하는 제1 액션의 결과는 제2 음성 입력에 의해 기술되는 디스플레이된 텍스트의 일부를 선택하는 것이고; 그리고
    상기 결정된 제스처는 선택된 텍스트에 대해 동작을 수행하는 3차원(3D) 제스처인 것을 특징으로 하는 전자 디바이스.
  17. 제16항에 있어서,
    상기 3D 제스처는 상기 선택된 텍스트를 복사하는데 효과적인 제1 핀치 제스처를 포함하고; 그리고
    상기 명령들은:
    사용자 인터페이스를 통해 다른 음성 입력을 수신하고, 상기 다른 음성 입력은 인터페이스상에 커서를 위치시킬 위치를 기술하는 제3 음성 명령을 포함하고;
    레이더 데이터에 기초하여, 사용자에 의한 다른 제스처를 결정하고, 상기 다른 제스처는 제2 핀치 제스처를 포함하고; 그리고
    제2 핀치 제스처를 결정하는 것에 응답하여, 상기 선택된 텍스트에 대해 다른 동작을 수행하도록 더 구성되고, 상기 다른 동작은 상기 선택된 텍스트를 제3 음성 명령에 기술된 위치에 붙여 넣는 것을 포함하는 것을 특징으로 하는 전자 디바이스.
  18. 제1항에 있어서,
    상기 레이더 시스템은 디지털 빔 포머 및 각도 추정기를 더 포함하고, 상기 레이더 시스템은 -90도 내지 90도 사이의 시야각을 모니터링하도록 구성되는 것을 특징으로 하는 전자 디바이스.
  19. 디스플레이, 레이더 시스템 및 레이더 기반 애플리케이션을 포함하는 전자 디바이스에서 구현되는 방법으로서,
    레이더 필드를 제공하는 단계;
    레이더 필드내의 객체로부터의 반사를 감지하는 단계;
    레이더 필드내의 객체로부터의 반사를 분석하는 단계;
    반사의 분석에 기초하여, 레이더 데이터를 제공하는 단계;
    사용자 입력을 수신하는 단계, 상기 사용자 입력은 전자 디바이스의 디스플레이의 사용자 인터페이스를 통해 수신된 터치 입력 및 전자 디바이스의 마이크로폰을 통해 수신된 음성 입력 중 하나이고;
    사용자 입력에 대응하는 제1 액션을 수행하는 단계, 상기 제1 액션은 결과를 발생하고;
    레이더 데이터에 기초하여, 레이더 필드내의 객체에 의한 제스처를 결정하는 단계; 및
    결정된 제스처에 대응하는 제2 액션을 수행하는 단계를 포함하고, 상기 제2 액션은 사용자 입력에 대응하는 제1 액션의 결과와 연관되는 것을 특징으로 하는 전자 디바이스에서 구현되는 방법.
  20. 제19항에 있어서,
    상기 레이더 필드내의 객체는 사용자인 것을 특징으로 하는 전자 디바이스에서 구현되는 방법.
KR1020207033558A 2018-08-24 2019-08-05 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법 KR102318343B1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US16/112,130 US10698603B2 (en) 2018-08-24 2018-08-24 Smartphone-based radar system facilitating ease and accuracy of user interactions with displayed objects in an augmented-reality interface
US16/112,130 2018-08-24
PCT/US2019/045128 WO2020040966A1 (en) 2018-08-24 2019-08-05 Smartphone, system and method comprising a radar system
KR1020207008514A KR102184107B1 (ko) 2018-08-24 2019-08-05 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020207008514A Division KR102184107B1 (ko) 2018-08-24 2019-08-05 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20200133832A true KR20200133832A (ko) 2020-11-30
KR102318343B1 KR102318343B1 (ko) 2021-10-27

Family

ID=67660474

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020207033558A KR102318343B1 (ko) 2018-08-24 2019-08-05 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법
KR1020207008514A KR102184107B1 (ko) 2018-08-24 2019-08-05 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법
KR1020207013505A KR102318342B1 (ko) 2018-08-24 2019-08-05 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020207008514A KR102184107B1 (ko) 2018-08-24 2019-08-05 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법
KR1020207013505A KR102318342B1 (ko) 2018-08-24 2019-08-05 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법

Country Status (7)

Country Link
US (3) US10698603B2 (ko)
EP (2) EP3722928A1 (ko)
JP (4) JP6851547B2 (ko)
KR (3) KR102318343B1 (ko)
CN (3) CN113220115A (ko)
TW (1) TWI738022B (ko)
WO (1) WO2020040966A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022124659A1 (ko) * 2020-12-07 2022-06-16 삼성전자 주식회사 사용자 입력을 처리하는 전자 장치 및 방법
US11928263B2 (en) 2020-12-07 2024-03-12 Samsung Electronics Co., Ltd. Electronic device for processing user input and method thereof

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017131114A1 (de) * 2017-12-22 2019-06-27 S.M.S, Smart Microwave Sensors Gmbh Verfahren und Vorrichtung zum Bestimmen wenigstens eines Parameters eines Objektes
US10890653B2 (en) 2018-08-22 2021-01-12 Google Llc Radar-based gesture enhancement for voice interfaces
US10770035B2 (en) 2018-08-22 2020-09-08 Google Llc Smartphone-based radar system for facilitating awareness of user presence and orientation
US10698603B2 (en) 2018-08-24 2020-06-30 Google Llc Smartphone-based radar system facilitating ease and accuracy of user interactions with displayed objects in an augmented-reality interface
US10788880B2 (en) 2018-10-22 2020-09-29 Google Llc Smartphone-based radar system for determining user intention in a lower-power mode
US11494051B1 (en) * 2018-11-01 2022-11-08 Intuit, Inc. Image template-based AR form experiences
US10761611B2 (en) 2018-11-13 2020-09-01 Google Llc Radar-image shaper for radar-based applications
US11288733B2 (en) * 2018-11-14 2022-03-29 Mastercard International Incorporated Interactive 3D image projection systems and methods
US11082535B2 (en) * 2018-12-20 2021-08-03 Here Global B.V. Location enabled augmented reality (AR) system and method for interoperability of AR applications
US11442550B2 (en) * 2019-05-06 2022-09-13 Samsung Electronics Co., Ltd. Methods for gesture recognition and control
EP4115263A1 (en) * 2020-03-06 2023-01-11 Sandvik Ltd Computer enhanced maintenance system
US20210405179A1 (en) * 2020-06-25 2021-12-30 Lassen Peak, Inc. Systems and Methods for Noninvasive Detection of Impermissible Objects
US20230266828A1 (en) 2020-07-10 2023-08-24 Telefonaktiebolaget Lm Ericsson (Publ) Visual feedback from a user equipment
KR20220009207A (ko) 2020-07-15 2022-01-24 삼성전기주식회사 고주파 모듈을 포함하는 전자 기기
EP3944107A1 (en) 2020-07-22 2022-01-26 Nokia Technologies Oy Apparatus, method and computer program for authenticating images
TWI760808B (zh) * 2020-08-04 2022-04-11 何忠誠 雷達距離探測裝置與方法
KR102322817B1 (ko) * 2020-09-10 2021-11-08 한국항공대학교산학협력단 도플러 레이다 및 음성 센서를 이용한 cnn 기반의 hmi 시스템, hmi 시스템의 센서 데이터 처리 장치 및 그 동작 방법
CN112904999A (zh) * 2020-12-30 2021-06-04 江苏奥格视特信息科技有限公司 一种基于激光雷达的增强现实体感交互方法及系统
US11474232B2 (en) 2021-03-19 2022-10-18 KaiKuTek Inc. Range doppler angle detection method and range doppler angle detection device
TWI756122B (zh) * 2021-04-30 2022-02-21 開酷科技股份有限公司 距離都卜勒雷達角度感測方法及裝置
US20230096207A1 (en) * 2021-09-29 2023-03-30 The Adt Security Corporation Gesture based interface for a premises security system
CN113918015B (zh) * 2021-10-08 2024-04-19 三星电子(中国)研发中心 一种增强现实的交互方法和装置
TWI804072B (zh) * 2021-11-26 2023-06-01 國立陽明交通大學 使用毫米波雷達的即時物件運動狀態辨識方法
WO2024057375A1 (ja) * 2022-09-13 2024-03-21 三菱電機株式会社 機械学習による位置推定部を備える操作パネル装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100017722A1 (en) * 2005-08-29 2010-01-21 Ronald Cohen Interactivity with a Mixed Reality
JP2014197317A (ja) * 2013-03-29 2014-10-16 ソニー株式会社 情報処理装置、情報処理方法および記録媒体
KR20160128318A (ko) * 2014-03-28 2016-11-07 인텔 코포레이션 레이더에 기반한 제스처 인식

Family Cites Families (131)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8228305B2 (en) 1995-06-29 2012-07-24 Apple Inc. Method for providing human input to a computer
JPH11338120A (ja) * 1998-05-27 1999-12-10 Dainippon Screen Mfg Co Ltd レイアウト装置
US7511630B2 (en) 1999-05-04 2009-03-31 Intellimat, Inc. Dynamic electronic display system with brightness control
US6971072B1 (en) 1999-05-13 2005-11-29 International Business Machines Corporation Reactive user interface control based on environmental sensing
JP3518431B2 (ja) 1999-07-21 2004-04-12 トヨタ自動車株式会社 物体検出装置及びシステム
US7085253B2 (en) 2001-11-02 2006-08-01 Samsung Electronics Co., Ltd. System and method for notifying a user of the status of other mobile terminals
US20070015559A1 (en) 2002-07-27 2007-01-18 Sony Computer Entertainment America Inc. Method and apparatus for use in determining lack of user activity in relation to a system
US7434169B2 (en) 2002-11-25 2008-10-07 Aol Llc, A Delaware Limited Liability Company Facilitating communications between computer users across a network
IL156629A0 (en) 2003-06-25 2004-01-04 A method and a system for control over unauthorized persons
US7199749B2 (en) 2003-12-12 2007-04-03 Georgia Tech Research Corporation Radar detection device employing a scanning antenna system
US7301494B2 (en) 2004-05-03 2007-11-27 Jeffrey Waters Combination cellular telephone and radar detector
JP2006013819A (ja) 2004-06-24 2006-01-12 Fujitsu Ltd レーダ用レフレクタ
EP1946203A2 (en) 2005-10-26 2008-07-23 Sony Computer Entertainment America, Inc. System and method for interfacing with a computer program
TW200731743A (en) 2006-02-15 2007-08-16 Asustek Comp Inc Mobile device capable of adjusting volume dynamically and related method
US20080029316A1 (en) 2006-08-07 2008-02-07 Denny Jaeger Method for detecting position of input devices on a screen using infrared light emission
US9772689B2 (en) * 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
KR100984230B1 (ko) * 2008-03-20 2010-09-28 엘지전자 주식회사 근접 터치 감지 기능을 갖는 휴대 단말기 및 이를 이용한화면 제어 방법
US8723811B2 (en) * 2008-03-21 2014-05-13 Lg Electronics Inc. Mobile terminal and screen displaying method thereof
JP5134409B2 (ja) 2008-03-27 2013-01-30 日本写真印刷株式会社 プレゼンテーションシステム
US20090322690A1 (en) 2008-06-30 2009-12-31 Nokia Corporation Screen display
JP2010038607A (ja) 2008-08-01 2010-02-18 Hitachi Ltd 検出装置および鉄道車両
TWI384850B (zh) 2008-12-25 2013-02-01 Inventec Appliances Corp 手機及自動切換手機來電提示之方法
US8243724B2 (en) 2009-02-18 2012-08-14 MBTE Holdings Sweden AB Enhanced calling features
US7924212B2 (en) 2009-08-10 2011-04-12 Robert Bosch Gmbh Method for human only activity detection based on radar signals
US20110181510A1 (en) 2010-01-26 2011-07-28 Nokia Corporation Gesture Control
US9335825B2 (en) * 2010-01-26 2016-05-10 Nokia Technologies Oy Gesture control
WO2011106797A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
KR20110101585A (ko) 2010-03-09 2011-09-16 삼성전자주식회사 휴대용 단말기의 화면 전환 장치 및 방법
US20110237274A1 (en) 2010-03-25 2011-09-29 Palm, Inc. Mobile computing device having relative positioning circuit
US8860672B2 (en) * 2010-05-26 2014-10-14 T-Mobile Usa, Inc. User interface with z-axis interaction
US8296151B2 (en) 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
KR101330811B1 (ko) * 2010-08-25 2013-11-18 주식회사 팬택 인스턴트 마커를 이용한 증강 현실 장치 및 방법
US9569003B2 (en) 2010-09-30 2017-02-14 Broadcom Corporation Portable computing device including a three-dimensional touch screen
US8723986B1 (en) 2010-11-04 2014-05-13 MCube Inc. Methods and apparatus for initiating image capture on a hand-held device
TW201228332A (en) 2010-12-20 2012-07-01 Hui-Chuan Chien Mobile electronic device
US20120280900A1 (en) 2011-05-06 2012-11-08 Nokia Corporation Gesture recognition using plural sensors
US8803697B2 (en) 2011-05-13 2014-08-12 Nokia Corporation Detecting movement for determining characteristics of user notification
KR101853277B1 (ko) 2011-07-18 2018-04-30 삼성전자 주식회사 통화 중 응용 프로그램 실행 방법 및 이를 지원하는 모바일 단말기
EP2560145A3 (en) * 2011-08-18 2017-03-15 Layar B.V. Methods and systems for enabling the creation of augmented reality content
US20130053007A1 (en) 2011-08-24 2013-02-28 Microsoft Corporation Gesture-based input mode selection for mobile devices
US20130057571A1 (en) 2011-09-02 2013-03-07 Nokia Siemens Networks Oy Display Orientation Control
JP2014531662A (ja) * 2011-09-19 2014-11-27 アイサイト モバイル テクノロジーズ リミテッド 拡張現実システムのためのタッチフリーインターフェース
EP2575006B1 (en) 2011-09-27 2018-06-13 Elo Touch Solutions, Inc. Touch and non touch based interaction of a user with a device
US20180032997A1 (en) 2012-10-09 2018-02-01 George A. Gordon System, method, and computer program product for determining whether to prompt an action by a platform in connection with a mobile device
CN103890667B (zh) 2011-10-21 2017-02-15 谷歌公司 用户友好、网络连接的学习型恒温器及相关系统和方法
US20130120458A1 (en) 2011-11-16 2013-05-16 Microsoft Corporation Detecting screen orientation by using one or more proximity sensors
JP2013125328A (ja) * 2011-12-13 2013-06-24 Stella Green Corp 拡張現実感表示方法
KR101371547B1 (ko) 2012-03-08 2014-03-07 삼성전자주식회사 얼굴의 기울기를 측정하여 화면을 회전시키는 전자 장치 및 방법
CN103383607B (zh) * 2012-05-02 2017-03-01 国际商业机器公司 用于对触摸屏设备中的所显示内容进行钻取的方法和系统
US9494973B2 (en) 2012-05-09 2016-11-15 Blackberry Limited Display system with image sensor based display orientation
JP5477424B2 (ja) 2012-07-02 2014-04-23 沖電気工業株式会社 物体検知装置、物体検知方法及びプログラム
US20140046922A1 (en) * 2012-08-08 2014-02-13 Microsoft Corporation Search user interface using outward physical expressions
US9317972B2 (en) * 2012-12-18 2016-04-19 Qualcomm Incorporated User interface for augmented reality enabled devices
EP2752747A1 (en) 2013-01-08 2014-07-09 QNX Software Systems Limited On-demand user control
US20150370443A1 (en) * 2013-02-12 2015-12-24 Inuitive Ltd. System and method for combining touch and gesture in a three dimensional user interface
US20140267130A1 (en) 2013-03-13 2014-09-18 Microsoft Corporation Hover gestures for touch-enabled devices
KR102091028B1 (ko) * 2013-03-14 2020-04-14 삼성전자 주식회사 사용자 기기의 오브젝트 운용 방법 및 장치
US20140315531A1 (en) 2013-04-17 2014-10-23 Donald Joong System & method for enabling or restricting features based on an attention challenge
US9075435B1 (en) 2013-04-22 2015-07-07 Amazon Technologies, Inc. Context-aware notifications
US9733677B2 (en) 2013-05-08 2017-08-15 Ran Geva Motion-based message display
US9245388B2 (en) * 2013-05-13 2016-01-26 Microsoft Technology Licensing, Llc Interactions of virtual objects with surfaces
US20140347188A1 (en) 2013-05-22 2014-11-27 Motorola Mobility Llc Auto-adjust of indication characteristics based on user proximity
TWI547626B (zh) 2013-05-31 2016-09-01 原相科技股份有限公司 具有手勢感測器的裝置
KR102160767B1 (ko) 2013-06-20 2020-09-29 삼성전자주식회사 제스처를 감지하여 기능을 제어하는 휴대 단말 및 방법
US9589565B2 (en) 2013-06-21 2017-03-07 Microsoft Technology Licensing, Llc Environmentally aware dialog policies and response generation
US20140380249A1 (en) 2013-06-25 2014-12-25 Apple Inc. Visual recognition of gestures
US9058738B1 (en) 2013-07-26 2015-06-16 SkyBell Technologies, Inc. Doorbell communication systems and methods
US20150036999A1 (en) 2013-07-30 2015-02-05 Texas Instruments Incorporated Viewer Attention Controlled Video Playback
EP2887092A1 (en) 2013-12-18 2015-06-24 BAE SYSTEMS plc Computing radar cross section
US20150187137A1 (en) 2013-12-31 2015-07-02 Daqri, Llc Physical object discovery
JP5899251B2 (ja) * 2014-01-29 2016-04-06 本田技研工業株式会社 車両用入力装置
US20160118036A1 (en) 2014-10-23 2016-04-28 Elwha Llc Systems and methods for positioning a user of a hands-free intercommunication system
US10338800B2 (en) 2014-02-21 2019-07-02 FLIR Belgium BVBA Enhanced pilot display systems and methods
JP6417104B2 (ja) 2014-04-16 2018-10-31 株式会社日立システムズ テキスト編集装置、テキスト編集方法、及びプログラム
US9575560B2 (en) * 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
US10367950B2 (en) 2014-06-11 2019-07-30 Lenovo (Singapore) Pte. Ltd. Device notification adjustment dependent on user proximity
US20150370472A1 (en) * 2014-06-19 2015-12-24 Xerox Corporation 3-d motion control for document discovery and retrieval
US9497592B2 (en) 2014-07-03 2016-11-15 Qualcomm Incorporated Techniques for determining movements based on sensor measurements from a plurality of mobile devices co-located with a person
US9600177B2 (en) 2014-07-17 2017-03-21 Google Technology Holdings LLC Electronic device with gesture display control and corresponding methods
KR20160012410A (ko) 2014-07-24 2016-02-03 삼성전자주식회사 전자 장치 및 이의 출력 제어 방법
WO2016017978A1 (en) * 2014-07-31 2016-02-04 Samsung Electronics Co., Ltd. Device and method for performing functions
JP2016035625A (ja) 2014-08-01 2016-03-17 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US9811164B2 (en) 2014-08-07 2017-11-07 Google Inc. Radar-based gesture sensing and data transmission
US9921660B2 (en) 2014-08-07 2018-03-20 Google Llc Radar-based gesture recognition
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
WO2016032806A1 (en) 2014-08-26 2016-03-03 Apple Inc. User interface for limiting notifications and alerts
CN204145834U (zh) 2014-09-26 2015-02-04 生迪光电科技股份有限公司 智能照明装置及照明系统
US9600080B2 (en) 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition
US20160103655A1 (en) * 2014-10-08 2016-04-14 Microsoft Corporation Co-Verbal Interactions With Speech Reference Point
US9911235B2 (en) * 2014-11-14 2018-03-06 Qualcomm Incorporated Spatial interaction in augmented reality
CN104793731A (zh) * 2015-01-04 2015-07-22 北京君正集成电路股份有限公司 可穿戴设备的信息输入方法及可穿戴设备
KR102256676B1 (ko) 2015-02-06 2021-05-26 삼성전자주식회사 전파 기반 센서 모듈을 이용하는 센싱 장치 및 이동 단말을 포함하는 다목적 디바이스
US9817109B2 (en) 2015-02-27 2017-11-14 Texas Instruments Incorporated Gesture recognition using frequency modulated continuous wave (FMCW) radar with low angle resolution
US10168785B2 (en) 2015-03-03 2019-01-01 Nvidia Corporation Multi-sensor based user interface
JP2016205907A (ja) 2015-04-20 2016-12-08 株式会社Ihiエアロスペース コーナーリフレクタ、及び該コーナーリフレクタを備えたデコイシステム。
CN111880650A (zh) * 2015-04-30 2020-11-03 谷歌有限责任公司 基于宽场雷达的手势识别
KR102002112B1 (ko) * 2015-04-30 2019-07-19 구글 엘엘씨 제스처 추적 및 인식을 위한 rf―기반 마이크로―모션 추적
US10134368B2 (en) 2015-06-04 2018-11-20 Paypal, Inc. Movement based graphical user interface
US10551932B2 (en) 2015-07-29 2020-02-04 Kyocera Corporation Wearable device, control method, and control program
US9691361B2 (en) 2015-08-03 2017-06-27 International Business Machines Corporation Adjusting presentation of content on a display
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
US11106273B2 (en) 2015-10-30 2021-08-31 Ostendo Technologies, Inc. System and methods for on-body gestural interfaces and projection displays
JP6515028B2 (ja) * 2015-12-18 2019-05-15 本田技研工業株式会社 車両用操作装置
US20170289766A1 (en) 2016-03-29 2017-10-05 Microsoft Technology Licensing, Llc Digital Assistant Experience based on Presence Detection
US11558848B2 (en) 2016-03-30 2023-01-17 Lenovo (Singapore) Pte. Ltd. Intelligent notification delivery
US10613213B2 (en) 2016-05-13 2020-04-07 Google Llc Systems, methods, and devices for utilizing radar with smart devices
US10687184B2 (en) 2016-05-13 2020-06-16 Google Llc Systems, methods, and devices for utilizing radar-based touch interfaces
WO2017200571A1 (en) 2016-05-16 2017-11-23 Google Llc Gesture-based control of a user interface
US20170349184A1 (en) 2016-06-06 2017-12-07 GM Global Technology Operations LLC Speech-based group interactions in autonomous vehicles
US10353478B2 (en) * 2016-06-29 2019-07-16 Google Llc Hover touch input compensation in augmented and/or virtual reality
WO2018013564A1 (en) 2016-07-12 2018-01-18 Bose Corporation Combining gesture and voice user interfaces
US20180052520A1 (en) 2016-08-19 2018-02-22 Otis Elevator Company System and method for distant gesture-based control using a network of sensors across the building
US10299290B2 (en) 2016-09-30 2019-05-21 Intel IP Corporation Apparatus, system and method of radar detection
CN106980362A (zh) * 2016-10-09 2017-07-25 阿里巴巴集团控股有限公司 基于虚拟现实场景的输入方法及装置
KR101847295B1 (ko) * 2016-10-31 2018-05-28 재단법인 다차원 스마트 아이티 융합시스템 연구단 초음파 신호의 송수신을 이용하는 사용자 인터페이스 장치
US10726835B2 (en) 2016-12-23 2020-07-28 Amazon Technologies, Inc. Voice activated modular controller
JP2018116653A (ja) 2017-01-20 2018-07-26 株式会社デンソーテン 識別装置、識別システム、および識別方法
US11243293B2 (en) 2017-02-07 2022-02-08 Samsung Electronics Company, Ltd. Radar-based system for sensing touch and in-the-air interactions
US10845477B2 (en) 2017-05-10 2020-11-24 Google Llc Power management using a low-power radar
US10719870B2 (en) * 2017-06-27 2020-07-21 Microsoft Technology Licensing, Llc Mixed reality world integration of holographic buttons in a mixed reality device
WO2019056393A1 (zh) * 2017-09-25 2019-03-28 华为技术有限公司 一种终端界面的显示方法及终端
US10217488B1 (en) 2017-12-15 2019-02-26 Snap Inc. Spherical video editing
CN108334199A (zh) 2018-02-12 2018-07-27 华南理工大学 基于增强现实的移动式多模态交互方法及装置
US10796157B2 (en) * 2018-03-13 2020-10-06 Mediatek Inc. Hierarchical object detection and selection
US10579154B1 (en) 2018-08-20 2020-03-03 Google Llc Smartphone-based radar system detecting user gestures using coherent multi-look radar processing
US10794997B2 (en) 2018-08-21 2020-10-06 Google Llc Smartphone-based power-efficient radar processing and memory provisioning for detecting gestures
US10890653B2 (en) 2018-08-22 2021-01-12 Google Llc Radar-based gesture enhancement for voice interfaces
US10770035B2 (en) 2018-08-22 2020-09-08 Google Llc Smartphone-based radar system for facilitating awareness of user presence and orientation
US10698603B2 (en) 2018-08-24 2020-06-30 Google Llc Smartphone-based radar system facilitating ease and accuracy of user interactions with displayed objects in an augmented-reality interface
US10788880B2 (en) 2018-10-22 2020-09-29 Google Llc Smartphone-based radar system for determining user intention in a lower-power mode
US10761611B2 (en) 2018-11-13 2020-09-01 Google Llc Radar-image shaper for radar-based applications

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100017722A1 (en) * 2005-08-29 2010-01-21 Ronald Cohen Interactivity with a Mixed Reality
JP2014197317A (ja) * 2013-03-29 2014-10-16 ソニー株式会社 情報処理装置、情報処理方法および記録媒体
KR20160128318A (ko) * 2014-03-28 2016-11-07 인텔 코포레이션 레이더에 기반한 제스처 인식

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022124659A1 (ko) * 2020-12-07 2022-06-16 삼성전자 주식회사 사용자 입력을 처리하는 전자 장치 및 방법
US11928263B2 (en) 2020-12-07 2024-03-12 Samsung Electronics Co., Ltd. Electronic device for processing user input and method thereof

Also Published As

Publication number Publication date
US20200064996A1 (en) 2020-02-27
JP2022119986A (ja) 2022-08-17
JP6861311B2 (ja) 2021-04-21
US20200285383A1 (en) 2020-09-10
US11204694B2 (en) 2021-12-21
JP7340656B2 (ja) 2023-09-07
CN111766943A (zh) 2020-10-13
KR102184107B1 (ko) 2020-11-27
TW202009650A (zh) 2020-03-01
CN113220115A (zh) 2021-08-06
US10698603B2 (en) 2020-06-30
JP2021099857A (ja) 2021-07-01
EP3722928A1 (en) 2020-10-14
KR20200055157A (ko) 2020-05-20
CN111149079B (zh) 2021-04-02
EP3673346A1 (en) 2020-07-01
TWI738022B (zh) 2021-09-01
US10936185B2 (en) 2021-03-02
JP7296415B2 (ja) 2023-06-22
WO2020040966A1 (en) 2020-02-27
KR20200036944A (ko) 2020-04-07
KR102318342B1 (ko) 2021-10-27
EP3673346B1 (en) 2021-10-06
JP2020173817A (ja) 2020-10-22
CN111149079A (zh) 2020-05-12
US20210132788A1 (en) 2021-05-06
JP6851547B2 (ja) 2021-03-31
KR102318343B1 (ko) 2021-10-27
JP2021504771A (ja) 2021-02-15

Similar Documents

Publication Publication Date Title
KR102184107B1 (ko) 레이더 시스템을 포함하는 스마트 폰, 시스템 및 방법
US11435468B2 (en) Radar-based gesture enhancement for voice interfaces
KR102457186B1 (ko) 레이더 기반 애플리케이션을 위한 레이더 이미지 셰이퍼
EP4216037A1 (en) Smartphone-based radar system for determining user intention in a lower-power mode
CN112753005B (zh) 移动设备的输入方法
KR102416386B1 (ko) 다중 입력 모드에 대한 입력 모드 통지
CN113892072A (zh) 用于暂停的雷达姿势的视觉指示器

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant