KR102245190B1 - 레이더-사용가능 센서 퓨전 - Google Patents

레이더-사용가능 센서 퓨전 Download PDF

Info

Publication number
KR102245190B1
KR102245190B1 KR1020187004283A KR20187004283A KR102245190B1 KR 102245190 B1 KR102245190 B1 KR 102245190B1 KR 1020187004283 A KR1020187004283 A KR 1020187004283A KR 20187004283 A KR20187004283 A KR 20187004283A KR 102245190 B1 KR102245190 B1 KR 102245190B1
Authority
KR
South Korea
Prior art keywords
radar
sensor
data
spatial information
sensors
Prior art date
Application number
KR1020187004283A
Other languages
English (en)
Other versions
KR20180030123A (ko
Inventor
니콜라스 에드워드 길리안
카르슈텐 씨. 슈베지크
자이메 리엔
패트릭 엠. 아미후드
이반 포우피레브
Original Assignee
구글 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 구글 엘엘씨 filed Critical 구글 엘엘씨
Priority to KR1020217011901A priority Critical patent/KR102352236B1/ko
Publication of KR20180030123A publication Critical patent/KR20180030123A/ko
Application granted granted Critical
Publication of KR102245190B1 publication Critical patent/KR102245190B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/52Discriminating between fixed and moving objects or between objects moving at different speeds
    • G01S13/56Discriminating between fixed and moving objects or between objects moving at different speeds for presence detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/887Radar or analogous systems specially adapted for specific applications for detection of concealed objects, e.g. contraband or weapons
    • G01S13/888Radar or analogous systems specially adapted for specific applications for detection of concealed objects, e.g. contraband or weapons through wall detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/904SAR modes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • G01S7/412Identification of targets based on measurements of radar reflectivity based on a comparison between measured values and known or stored values
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • G06F18/41Interactive pattern learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • G06K9/00201
    • G06K9/629
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W16/00Network planning, e.g. coverage or traffic planning tools; Network deployment, e.g. resource partitioning or cells structures
    • H04W16/24Cell structures
    • H04W16/28Cell structures using beam steering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9322Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2105Dual mode as a secondary aspect
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/90Additional features
    • G08C2201/93Remote control using other portable devices, e.g. mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2209/00Arrangements in telecontrol or telemetry systems
    • H04Q2209/80Arrangements in the sub-station, i.e. sensing device
    • H04Q2209/88Providing power supply at the sub-station
    • H04Q2209/883Providing power supply at the sub-station where the sensing device enters an active or inactive mode

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Bioethics (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Position Input By Displaying (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 문헌은 레이더-사용가능 센서 퓨전을 위한 장치들 및 기법들을 설명한다. 일부 양상들에서, 레이더 필드가 제공되고, 레이더 필드의 타겟에 대응하는 반사 신호들이 수신된다. 레이더 데이터를 제공하기 위하여 반사 신호들이 변환되고, 그 레이더 데이터로부터, 타겟의 물리적 특징을 표시하는 레이더 특징이 추출된다. 물리적 특징과 연관된 보충 센서 데이터를 제공하기 위하여 레이더 특징들에 기반하여 센서가 활성화된다. 이어서, 이를테면, 레이더 특징의 정확도 또는 해상도를 증가시킴으로써, 레이더 특징을 향상시키기 위하여 보충 센서 데이터를 사용하여 레이더 특징이 증강된다. 그렇게 함으로써, 향상된 레이더 특징들에 의존하는, 센서-기반 애플리케이션들의 성능이 개선될 수 있다.

Description

레이더-사용가능 센서 퓨전
[0001] 본 출원은 2015년 10월 6일에 출원된 미국 가특허 출원번호 제62/237,975호를 우선권으로 주장하며, 상기 출원의 개시내용은 그 전체가 인용에 의해 본원에 통합된다.
[0002] 많은 컴퓨팅 디바이스들 및 전자 디바이스들은 디바이스의 주변들에 기반하여 완벽하고 직관적인(seamless and intuitive) 사용자 경험을 제공하기 위한 센서들을 포함한다. 예컨대, 디바이스는 가속도계가 디바이스 이동을 표시하는 것에 대한 응답으로 슬립 상태에서 나갈 수 있거나 또는 디바이스의 터치 스크린은 사용자의 얼굴과의 근접성을 표시하는 근접 센서에 대한 응답으로 디스에이블링될 수 있다. 그러나, 이러한 대부분의 센서들은 정확도, 레인지 또는 기능성이 제한되어 있으며, 단지 디바이스의 주변들의 개략적이거나 또는 급격한 변경을 감지할 수 있을 뿐이다. 따라서, 정확한 센서 입력이 없는 상태에서, 디바이스는 종종, 상이한 타입들의 사용자 상호작용 또는 심지어 사용자가 존재하는지 여부만을 추론하는데, 이는 부정확한 사용자 입력, 사용자의 잘못된 검출 또는 사용자의 비-검출, 및 사용자 불만을 초래한다.
[0003] 위의 맥락에서 센서 부정확성의 예들은, 가속도계가 비-사용자 관련 이동(예컨대, 이동하는 운송수단)을 감지하는 것에 대한 응답으로 부정확하게 슬립 상태로부터 나가고 사용자가 디바이스를 부정확하게 잡아서 근접 센서를 부분적으로 방해하는 것에 대한 응답으로 터치 스크린을 디스에이블링하는 디바이스를 포함한다. 이러한 경우들에서, 의도하지 않은 전력 상태 트랜지션(transition)들로 인해 디바이스의 배터리가 다 떨어질 수 있고 사용자가 그의 손을 움직일 때까지 터치 스크린을 통한 사용자 입력이 중단된다. 이들은 디바이스와의 사용자의 인터랙티브 경험(interactive experience)을 방해할 수 있는 센서 부정확성의 몇 가지 예들일 뿐이다.
[0004] 이 개시내용은 레이더-사용가능 센서 퓨전을 위한 장치들 및 기법들을 설명한다. 일부 실시예들에서, 레이더 필드가 제공되고, 레이더 필드의 타겟에 대응하는 반사 신호들이 수신된다. 레이더 데이터를 제공하기 위하여 반사 신호들이 변환되며, 타겟의 물리적 특징을 표시하는 레이더 특징이 레이더 데이터로부터 추출된다. 물리적 특징과 연관된 보충 센서 데이터를 제공하기 위하여 레이더 특징들에 기반하여 센서가 활성화된다. 이어서, 이를테면 레이더 특징의 정확도 또는 해상도를 증가시킴으로써 레이더 특징을 향상시키기 위하여, 보충 센서 데이터를 사용하여 레이더 특징이 증강된다. 이렇게 함으로써, 향상된 레이더 특징들에 의존하는 센서-기반 애플리케이션들의 성능이 개선될 수 있다.
[0005] 다른 양상들에서, 디바이스의 레이더 센서는 관심 공간에 대한 레이더 데이터를 획득하기 위해 활성화된다. 3차원(3D) 레이더 특징들이 레이더 데이터로부터 추출되고, 위치 데이터가 센서들로부터 수신된다. 위치 데이터에 기반하여, 공간에 대한 3D 랜드마크들의 세트를 생성하기 위해 3D 레이더 특징들의 공간 관계가 결정된다. 이 3D 랜드마크들의 세트는, 3D 랜드마크들과 매칭하는 3D 콘텍스트 모델을 식별하기 위해 알려진 3D 콘텍스트 모델들과 비교된다. 매칭 3D 콘텍스트 모델에 기반하여, 디바이스의 콘텍스추얼 세팅(contextual setting)들을 구성하기 위해 공간에 대한 콘텍스트가 리트리브되고 사용된다.
[0006] 본 요약은 레이더-사용가능 센서 퓨전에 관한 단순화된 개념들을 소개하기 위해 제공되며, 이는 상세한 설명에서 아래에 추가로 설명된다. 본 요약은 청구된 청구대상의 본질적인 특징들을 식별하도록 의도되지 않으며, 청구된 청구대상의 범위를 결정하는 데 사용하도록 의도되지도 않는다.
[0007] 레이더-사용가능 센서 퓨전의 실시예들은 다음 도면들을 참조하여 설명된다. 유사한 특징들 및 컴포넌트들을 참조하기 위해 도면들 전체에 걸쳐 유사한 도면부호들이 사용되었다.
도 1은 레이더 센서 및 추가 센서들을 갖는 컴퓨팅 디바이스를 포함하는 예시적인 환경을 예시한다.
도 2는 도 1에 도시된 센서들의 예시적인 타입들 및 구성들을 예시한다.
도 3은 도 1에 도시된 레이더 센서 및 대응하는 레이더 필드들의 예시적인 구현들을 예시한다.
도 4는 도 1에 도시된 레이더 센서 및 관통하는 레이더 필드의 다른 예시적인 구현을 예시한다.
도 5는 레이더-사용가능 센서 퓨전을 구현할 수 있는 컴포넌트들의 구성의 예를 예시한다.
도 6은 보충 센서 데이터로 레이더 데이터를 증강시키기 위한 예시적인 방법을 예시한다.
도 7은 향상된 레이더 특징들을 사용한 모션 추적의 구현의 예를 예시한다.
도 8은 하나 또는 그 초과의 실시예들에 따른 저-전력 센서 퓨전을 위한 예시적인 방법을 예시한다.
도 9는 센서-퓨전 엔진을 포함하는 스마트-텔레비전에 의해 구현된 저-전력 센서 퓨전의 예를 예시한다.
도 10은 보완 센서 데이터를 사용하여 레이더 특징을 검증(verify)하기 위한 예시적인 방법을 예시한다.
도 11은 관심 공간에 대한 콘텍스트 모델을 생성하기 위한 예시적인 방법을 예시한다.
도 12는 하나 또는 그 초과의 실시예들에 따라 전후 관계에 따라 맵핑되는 룸의 예를 예시한다.
도 13은 공간과 연관된 콘텍스트에 기반하여 콘텍스트 세팅들을 구성하기 위한 예시적인 방법을 예시한다.
도 14는 변경되고 있는공간의 콘텍스트에 대한 응답으로 콘텍스추얼 세팅들을 변경하는 예시적인 방법을 예시한다.
도 15는 콘텍스트의 변경에 대한 응답으로 컴퓨팅 디바이스의 콘텍스추얼 세팅들을 변경하는 예를 예시한다.
도 16은 레이더-사용가능 센서 퓨전의 기법들이 구현될 수 있는 예시적인 컴퓨팅 시스템을 예시한다.
개요
[0008] 종래의 센서 기법들은 주어진 타입의 센서와 연관된 내재적인 약점들로 인해 종종 제한적이고 부정확하다. 예컨대, 모션이 가속도계에 의해 제공되는 데이터를 통해 감지될 수 있지만 가속도계 데이터는 모션의 소스를 결정하는 데 유용하지 않을 수 있다. 다른 경우들에, 근접 센서는 오브젝트와의 근접성을 검출하기에 충분한 데이터를 제공할 수 있지만, 오브젝트의 아이덴티티는 근접성 데이터로부터 결정 가능하지 않을 수 있다. 따라서, 종래의 센서들은 사용자에 대한 디바이스의 관계를 포함하여 디바이스의 주변을 부정확하거나 불완전한 감지를 초래할 수 있는 약점들 또는 사각 지대들을 갖는다.
[0009] 레이더-사용 가능 센서 퓨전을 구현하는 장치들 및 기법들이 본원에서 설명된다. 일부 실시예들에서, 센서들의 개개의 세기들은 레이더와 결합되어 각각의 센서의 개개의 약점을 완화시킨다. 예컨대, 사용자의 얼굴의 표면 레이더 특징은 표정 인식 애플리케이션의 정확도를 개선하기 위해 RGB(red-green-blue) 카메라의 이미저리와 결합될 수 있다. 다른 경우들에서, 빠른 모션을 추적할 수 있는 레이더 모션 특징은, 빠른 공간 이동들을 검출하는 것이 가능한 애플리케이션을 제공하도록, RGB 센서의 이미저리와 결합되며, 이는 공간 정보를 캡처하는데 있어서 탁월하다.
[0010] 또 다른 경우들에서, 레이더 표면 특징들은 디바이스의 환경(예컨대, 룸들 또는 공간들)의 맵핑을 인에이블링하도록 가속도계로부터의 방향 또는 지향성 정보로 증강될 수 있다. 그러한 경우들에서, 디바이스는, 디바이스가 동작하는 콘텍스트들을 학습하거나 검출할 수 있고 그리하여 디바이스의 다양한 콘텍스추얼 특징들 및 세팅들을 인에이블링한다. 이들은 센서 퓨전 또는 콘텍스추얼 감지를 위해 레이더가 레버리지될 수 있는 방식들 중 몇 개의 예일 뿐이며, 이들은 본원에서 설명된다. 다음의 논의는 먼저 동작 환경을 설명하고, 이 환경에서 사용될 수 있는 기법들이 이어지며, 예시적인 시스템들로 끝난다.
동작 환경
[0011] 도 1은 레이더-사용 가능 센서 퓨전이 인에이블링될 수 있는 컴퓨팅 디바이스를 예시한다. 컴퓨팅 디바이스(102)는 다양한 비-제한적인 예시적인 디바이스들, 스마트-안경(102-1), 스마트-시계(102-2), 스마트폰(102-3), 태블릿(102-4), 랩톱 컴퓨터(102-5) 및 게이밍 시스템(102-6)으로 예시되지만, 다른 디바이스들, 이를테면, 홈 자동화 및 제어 시스템들, 엔터테인먼트 시스템들, 오디오 시스템들, 다른 가전 기기들, 보안 시스템들, 넷북들, 자동차들, 스마트-기기들 및 e-리더들이 또한 사용될 수 있다. 컴퓨팅 디바이스(102)는 착용 가능하거나, 착용 불가능지만 이동가능하거나 또는 비교적 움직이기 어려울 수 있다는(예컨대, 데스크톱들 및 기기들)것에 유의한다.
[0012] 컴퓨팅 디바이스(102)는 하나 또는 그 초과의 컴퓨터 프로세서들(104) 및 컴퓨터-판독가능 매체(106)를 포함하며, 컴퓨터-판독가능 매체(106)는 메모리 매체 및 저장 매체를 포함한다. 컴퓨터 판독가능 매체(106) 상에 컴퓨터-판독가능 명령들로서 구현된 애플리케이들 및/또는 운영 체제(도시되지 않음)는 본원에서 설명된 기능성들 중 일부를 제공하도록 프로세서들(104)에 의해 실행될 수 있다. 컴퓨터-판독가능 매체(106)는 또한 아래에서 설명되는 센서-기반 애플리케이션들(108), 센서 퓨전 엔진(110) 및 콘텍스트 관리자(112)를 포함한다.
[0013] 또한, 컴퓨팅 디바이스(102)는 유선, 무선 또는 광학 네트워크들을 통해 데이터를 통신하기 위한 하나 또는 그 초과의 네트워크 인터페이스들(114), 및 및 디스플레이(116)를 포함할 수 있다. 네트워크 인터페이스(114)는 LAN(local-area-network), WLAN(wireless local-area-network), PAN(personal-area-network), WAN(wide-area-network), 인트라넷, 인터넷, 피어-투-피어 네트워크, 포인트-투-포인트 네트워크, 메시 네트워크 등을 통해 데이터를 통신할 수 있다. 디스플레이(116)는 컴퓨팅 디바이스(102)와 일체형이거나 그와 연관될 수 있으며, 이를테면, 게이밍 시스템(102-6)과 일체형이거나 그와 연관될 수 있다.
[0014] 컴퓨팅 디바이스(102)는, 컴퓨팅 디바이스(102)가 동작하는 환경의 다양한 특성들, 변화들, 자극들 또는 특징들을 컴퓨팅 디바이스(102)가 감지하는 것을 가능하게 하는 하나 또는 그 초과의 센서들(118)을 포함한다. 예컨대, 센서들(118)은 다양한 모션 센서들, 광 센서들, 음향 센서들 및 자기 센서들을 포함할 수 있다. 대안적으로 또는 부가적으로, 센서들(118)은 컴퓨팅 디바이스(102)의 사용자와의 상호작용을 가능하게 하거나 사용자로부터의 입력을 수신한다. 센서들(118)의 사용 및 구현은 변하며 아래에서 설명된다.
[0015] 컴퓨팅 디바이스(102)는 또한 레이더 센서(120)와 연관되거나 레이더 센서(120)를 포함할 수 있다. 레이더 센서(120)는 RF(radio frequency) 또는 레이더 신호들의 송신 및 수신을 통해 타겟들을 무선으로 검출하는 기능성을 대표한다. 레이더 센서(120)는 SoC(System-on-Chip) 또는 센서-온-칩과 같이 컴퓨팅 디바이스(102) 내에 내장된 시스템 및/또는 레이더-사용 가능 컴포넌트로서 구현될 수 있다. 그러나, 레이더 센서(120)는 임의의 다른 적절한 방식으로, 이를테면 하나 또는 그 초과의 IC(Integrated Circuit)들로, 프로세서 명령들이 내장되어 있거나 또는 프로세서 명령들이 저장되어 있는 메모리에 액세스하도록 구성된 프로세서로서, 펌웨어가 내장된 하드웨어, 다양한 하드웨어 컴포넌트들을 갖는 인쇄 회로 보드 어셈블리로서 또는 이들의 임의의 결합으로 구현될 수 있다는 것이 인지될 것이다. 여기서, 레이더 센서(120)는 컴퓨팅 디바이스(102)의 환경에서 다양한 타입들의 타겟들을 무선으로 검출하기 위해 함께 사용될 수 있는 레이더-방사 엘리먼트(122), 안테나(들)(124) 및 디지털 신호 프로세서(126)를 포함한다.
[0016] 일반적으로, 레이더-방사 엘리먼트(122)는 레이더 필드를 제공하도록 구성된다. 일부 경우들에서, 레이더 필드는 하나 또는 그 초과의 타겟 오브젝트들에서 적어도 부분적으로 반사하도록 구성된다. 일부 경우들에서, 타겟 오브젝트들은 디바이스 사용자들 또는 컴퓨팅 디바이스(102)의 환경에 존재하는 다른 사람들을 포함한다. 다른 경우들에서, 타겟 오브젝트들은 사용자의 물리적 특징들, 이를테면 손 모션, 호흡률 또는 다른 생리적 특징들을 포함한다. 레이더 필드는 또한 직물이나 다른 장애물을 관통하고 인간 조직으로부터 반사되도록 구성될 수 있다. 이러한 직물들 또는 장애물들은 목재, 유리, 플라스틱, 면, 양모, 나일론 및 유사한 섬유들 등을 포함할 수 있는 반면에, 인간 조직들, 이를테면, 사람의 손으로부터 반사된다.
[0017] 레이더-방사 엘리먼트(122)에 의해 제공되는 레이더 필드는 작은 사이즈, 이를테면, 0 또는 1 밀리미터 내지 1.5 미터, 또는 중간 사이즈, 이를테면, 1 내지 30 미터일 수 있다. 이들 사이즈들이 단지 논의를 위한 것이고, 레이더 필드의 임의의 다른 적절한 사이즈 또는 레인지가 사용될 수 있다는 것이 인지된다. 예컨대, 레이더 필드가 중간 사이즈를 가질 때, 레이더 센서(120)는 신체, 팔 또는 다리 이동들에 의해 야기되는 인간 조직으로부터의 반사들에 기반하여 큰 신체 제스처들을 제공하기 위해 레이더 필드의 반사들을 수신하여 프로세싱하도록 구성될 수 있다.
[0018] 일부 양상들에서, 레이더 필드는 레이더 센서(120)가 더 작고 더 정확한 제스처들, 이를테면, 마이크로-제스처들을 검출하는 것을 가능하게 하도록 구성될 수 있다. 예시적인 중간-사이즈 레이더 필드들은, 사용자가 소파에서 텔레비전을 제어하고, 룸 전체에 걸쳐 스테레오로부터의 노래 또는 볼륨을 변경하고, 오븐 또는 오븐 타이머를 턴오프하고(여기서 근접 필드(near field )가 또한 유용할 것임), 룸의 조명들을 턴온 또는 턴오프하는 것 등을 위해 제스처들을 취하는 레이더 필드들을 포함한다. 레이더 센서(120) 또는 그의 이미터는 변조된 방사, 초광대역 방사, 또는 서브-밀리미터 주파수 방사를 연속적으로 방사하도록 구성될 수 있다.
[0019] 안테나(들)(124)는 레이더 센서(120)의 RF 신호들을 송신 및 수신한다. 일부 경우들에서, 레이더-방사 엘리먼트(122)는 레이더 필드를 송신하기 위해 안테나들(124)과 커플링된다. 당업자자 인지할 바와 같이, 이것은 송신을 위해 전기 신호들을 전자기 파들로 변환하고, 수신을 위해 그 역으로 변환함으로써 달성된다. 레이더 센서(120)는 임의의 적절한 구성으로 임의의 적절한 수의 안테나들 중 하나 또는 이들의 어레이를 포함할 수 있다. 예컨대, 안테나들(124) 중 임의의 안테나는 쌍극 안테나, 파라볼라 안테나, 헬리컬 안테나, 평면 안테나, 인버팅된-F 안테나, 단극 안테나 등으로서 구성될 수 있다. 일부 실시예들에서, 안테나들(124)은 온-칩으로(예컨대, SoC의 부분으로서) 구성되거나 형성되는 반면에, 다른 실시예들에서, 안테나들(124)은 레이더 센서(120)에 어태치되거나 레이더 센서(120)에 포함되는 별개의 컴포넌트들, 금속, 유전체들, 하드웨어 등이다.
[0020] 제1 안테나(124)는 단일-목적(예컨대, 제1 안테나는 신호들을 송신하는 것과 관련될 수 있으며, 제2 안테나(124)는 신호들을 수신하는 것과 관련될 수 있음)이거나, 다중-목적(예컨대, 안테나는 신호들을 송신 및 수신하는 것과 관련됨)일 수 있다. 따라서, 일부 실시예들, 이를테면, 수신을 위해 구성된 4 개의 단일-목적 안테나들과 결합하여 송신을 위해 구성된 2 개의 단일-목적 안테나들을 활용하는 실시예는 안테나들의 다양한 조합들을 활용하였다. 안테나들(124)의 배치, 사이즈, 및/또는 형상은 특정 송신 패턴 또는 다이버시티 방식, 이를테면, 본원에서 추가로 설명되는 바와 같이, 환경들에 관한 정보를 캡처하도록 설계된 패턴 또는 방식을 향상시키도록 선택될 수 있다.
[0021] 일부 경우들에서, 안테나들(124)은, 레이더 센서(120)가 상이한 채널들, 상이한 라디오 주파수들 및 상이한 거리들을 통해 타겟 오브젝트로 지향되는 신호들을 집합적으로 송신하고 수신하도록 허용하는 거리만큼 서로로부터 물리적으로 분리될 수 있다. 일부 경우들에서, 안테나들(124)은 삼각측량 기법들을 지원하도록 공간적으로 분산되는 반면에, 다른 경우들에서, 안테나들은 빔형성 기법들을 지원하도록 코로케이팅된다. 예시되지 않지만, 각각의 안테나는, 송신을 위한 발신 신호들 및 캡처 및 분석을 위한 착신 신호들을 물리적으로 라우팅하고 관리하는 개개의 트랜시버 경로에 대응할 수 있다.
[0022] 디지털 신호 프로세서(126)(DSP)(또는 디지털 신호 프로세싱 컴포넌트)는 일반적으로 신호를 디지털로 캡처하여 프로세싱하는 것에 관련된 동작들을 대표한다. 예컨대, 디지털 신호 프로세서(126)는, RF 신호들을 표현하는 레이더 데이터(예컨대, 디지털 샘플들)를 생성하기 위해 안테나(들)(124)에 의해 수신되는 아날로그 RF 신호들을 샘플링하고, 이어서 타겟 오브젝트에 관한 정보를 추출하기 위해 이러한 레이더 데이터를 프로세싱한다. 일부 경우들에서, 디지털 신호 프로세서(126)는 타겟 특징들, 위치 또는 다이나믹스(dynamics)를 설명하는 레이더 특징을 제공하기 위해 레이더 데이터에 대해 변환을 수행한다. 대안적으로 또는 부가적으로, 디지털 신호 프로세서(126)는 레이더-방사 엘리먼트(122) 및/또는 안테나들(124)에 의해 생성되고 송신되는 신호들의 구성, 이를테면, 특정 다이버시티 또는 빔형성 방식을 형성하기 위해 복수의 신호들을 구성하는 것을 제어한다.
[0023] 일부 경우들에서, 디지털 신호 프로세서(126)는, 이를테면, 센서-기반 애플리케이션들(108), 센서 퓨전 엔진(110), 또는 콘텍스트 관리자(112)를 통해, RF 신호의 송신 파라미터들(예컨대, 주파수 채널, 전력 레벨 등)을 제어하는 입력 구성 파라미터들을 수신한다. 차례로, 디지털 신호 프로세서(126)는 입력 구성 파라미터에 기반하여 RF 신호를 수정한다. 때때로, 디지털 신호 프로세서(126)의 신호 프로세싱 기능들은, 센서-기반 애플리케이션들(108) 또는 애플리케이션 프로그래밍 인터페이스들(API들)을 통해 또한 액세스가능하고 그리고/또는 구성가능한 신호 프로세싱 기능들 또는 알고리즘들의 라이브러리에 포함된다. 디지털 신호 프로세서(126)는 하드웨어, 소프트웨어, 펌웨어 또는 이들의 임의의 조합으로 구현될 수 있다.
[0024] 도 2는 일반적으로 200에서 레이더-사용가능 센서 퓨전의 실시예들을 구현하는데 사용될 수 있는 센서들(118)의 예시적인 타입들을 및 구성들을 예시한다. 이러한 센서들(118)은 컴퓨팅 디바이스(102)가 동작하는 환경의 다양한 특성들, 변화들, 자극들, 또는 특징들을 컴퓨팅 디바이스(102)가 감지하는 것을 가능하게 한다. 센서들(118)에 의해 제공되는 데이터는 컴퓨팅 디바이스의 다른 엔티티들, 이를테면, 센서 퓨전 엔진(110) 또는 콘텍스트 관리자(112)가 액세스할 수 있다. 비록 도시되지 않지만, 센서들(118)은 또한 글로벌-포지셔닝 모듈들, MEMS(micro-electromechanical system)들, 저항성 터치 센서들 등을 포함할 수 있다. 대안적으로 또는 부가적으로, 센서들(118)은 컴퓨팅 디바이스(102)의 사용자와의 상호작용을 가능하게 하거나, 사용자로부터의 입력을 수신할 수 있다. 그러한 경우에, 센서들(118)은 압전 센서들, 터치 센서들, 또는 하드웨어 스위치들(예컨대, 키보드들, 스냅-돔들, 또는 다이얼-패드들)과 연관된 입력 감지-로직 등을 포함할 수 있다.
[0025] 이러한 특정 예에서, 센서들(118)은 가속도계(202) 및 자이로스코프(204)를 포함한다. 이들 및 다른 모션 및 위치 센서들, 이를테면, 모션 감지 MEMS 또는 GPS(global positioning system)들(미도시)는 컴퓨팅 디바이스(102)의 이동 또는 방향을 감지하도록 구성된다. 가속도계(202) 또는 자이로스코프(204)는 임의의 적절한 양상, 이를테면, 1차원, 2차원, 3차원, 다중-축, 결합된 다중-축 등에서 디바이스의 이동 또는 방향을 감지할 수 있다. 대안적으로 또는 부가적으로, 위치 센서, 이를테면, GPS는 컴퓨팅 디바이스(102)의 이동된 거리, 이동 레이트(rate of travel), 또는 절대 또는 상대적인 위치를 표시할 수 있다. 일부 실시예들에서, 가속도계(202) 또는 자이로스코프(204)는, 사용자가 특정 방식으로 컴퓨팅 디바이스(102)를 이동시킬 때 이루어지는 제스처 입력들(예컨대, 일련의 위치 및/또는 방향 변경들)을 컴퓨팅 디바이스(102)가 감지하는 것을 가능하게 한다.
[0026] 컴퓨팅 디바이스(102)는 또한 홀 효과 센서(206) 및 자기력계(208)를 포함한다. 비록 도시되지 않았지만, 컴퓨팅 디바이스(102)는 또한 자기-다이오드(magneto-diode), 자기-트랜지스터(magneto-transistor), 자기 감지 MEMS 등을 포함할 수 있다. 이러한 자기장-기반 센서들은 컴퓨팅 디바이스(102) 주위의 자기장 특징들을 감지하도록 구성된다. 예컨대, 자기력계(208)는 자기장 세기, 자기장 방향 또는 자기장 방향의 변경을 감지할 수 있다. 일부 실시예들에서, 컴퓨팅 디바이스(102)는 자기장-기반 센서들로부터 수신되는 입력들에 기반하여 사용자 또는 다른 디바이스와의 근접성을 결정한다.
[0027] 컴퓨팅 디바이스(102)의 온도 센서(210)는 디바이스의 하우징의 온도 또는 디바이스의 환경의 주변 온도를 감지할 수 있다. 비록 도시되지 않았지만, 온도 센서(210)는 또한, 수분 레벨들이 결정될 수 있게 하는 습도 센서와 함께 구현될 수 있다. 일부 경우들에서, 온도 센서는 컴퓨팅 디바이스(102)를 보유, 착용 또는 휴대하고 있는 사용자의 온도를 감지할 수 있다. 대안적으로 또는 부가적으로, 컴퓨팅 디바이스는 관심 오브젝트와의 물리적 접촉 없이 또는 원격으로 온도를 감지할 수 있는 적외선 열 센서를 포함할 수 있다.
[0028] 컴퓨팅 디바이스(102)는 또한, 하나 또는 그 초과의 음향 센서들(212)을 포함한다. 음향 센서들은, 컴퓨팅 디바이스(102)가 동작하는 환경의 사운드를 모니터링하도록 구성된 음향파 센서들 또는 마이크로폰들로서 구현될 수 있다. 음향 센서들(212)은 사용자의 음성 입력을 수신하는 것이 가능하며, 이어서, 이 사용자의 음성 입력은 컴퓨팅 디바이스(102)의 프로세서 또는 DSP에 의해 프로세싱될 수 있다. 음향 센서들(212)에 의해 캡처되는 사운드는 임의의 적절한 컴포넌트, 이를테면 음색(pitch), 음질(timbre), 배음(harmonics), 음량(loudness), 리듬(rhythm), 엔벨로프 특징(envelope characteristic)들(예컨대, 공격, 지속, 감쇠) 등에 대해 분석되거나 측정될 수 있다. 일부 실시예들에서, 컴퓨팅 디바이스(102)는 음향 센서들(212)로부터 수신된 데이터에 기반하여 사용자를 식별하거나 구분한다.
[0029] 정전 용량형 센서들(214)은, 컴퓨팅 디바이스(102)가 커패시턴스의 변경들을 감지하는 것을 가능하게 한다. 일부 경우들에서, 커패시턴스 센서들(214)은 터치 입력을 수신하거나 사용자와의 근접성을 결정할 수 있는 터치 센서들로서 구성된다. 다른 경우들에서, 커패시턴스 센서들(214)은 컴퓨팅 디바이스(102)의 하우징 근위의 물질들의 특성들을 감지하도록 구성된다. 예컨대, 커패시턴스 센서들(214)은 표면(예컨대, 테이블 또는 데스크), 사용자의 신체 또는 사용자의 의류(예컨대, 의류 포켓 또는 소매)에 대한 디바이스 근접성을 표시하는 데이터를 제공할 수 있다. 대안적으로 또는 부가적으로, 정전 용량형 센서들은 컴퓨팅 디바이스(102)의 터치 스크린 또는 다른 입력 센서(이를 통해 터치 입력이 수신됨)로서 구성될 수 있다.
[0030] 컴퓨팅 디바이스(102)는 또한 오브젝트들과의 근접성을 감지하는 근접 센서들(216)을 포함할 수 있다. 근접 센서들은 임의의 적절한 타입의 센서, 이를테면 정전 용량형 센서 또는 적외선(IR:infrared) 센서로 구현될 수 있다. 일부 경우들에서, 근접 센서는 단거리 IR 이미터 및 수신기로서 구성된다. 이러한 경우들에서, 근접 센서는 사용자의 얼굴 또는 손과의 근접성을 검출하기 위해 컴퓨팅 디바이스(102)의 스크린 또는 하우징 내에 위치될 수 있다. 예컨대, 스마트-폰의 근접 센서(216)는, 의도치 않은(inadvertent) 사용자 입력의 수신을 방지하도록 스마트-폰의 터치 스크린을 디스에이블링하기 위해, 이를테면 음성 콜 동안 사용자의 얼굴의 검출을 인에이블링할 수 있다.
[0031] 컴퓨팅 디바이스(102)의 주변 광 센서(218)는 환경들에 대한 광의 강도, 품질 또는 변경들을 감지하도록 구성된 포토-다이오드 또는 다른 광학 센서들을 포함할 수 있다. 광 센서들은 주변 광 또는 지향 광을 감지하는 것이 가능하며, 이어서 이 주변 광 또는 지향 광은 디바이스의 환경의 양상들을 결정하기 위해 컴퓨팅 디바이스(102)에 의해(예컨대, DSP를 통해) 프로세싱될 수 있다. 예컨대, 주변 광의 변경들은 사용자가 컴퓨팅 디바이스(102)를 픽업했다는 것 또는 컴퓨팅 디바이스(102)가 사용자의 포켓로부터 제거되었다는 것을 표시할 수 있다.
[0032] 이 예에서, 컴퓨팅 디바이스는 또한 RGB 센서(red-green-blue sensor)(220) 및 적외선 센서(222)를 포함한다. RGB 센서(220)는 이미지들 또는 비디오의 형태로 이미저리를 캡처하도록 구성된 카메라 센서로서 구현될 수 있다. 일부 경우들에서, RGB 센서(220)는 낮은-광 환경들에서 이미저리의 광도(luminosity)를 증가시키는 LED(light-emitting diode) 플래시와 연관된다. 적어도 일부 실시예들에서, RGB 센서(220)는, 사용자, 이를테면 사용자의 얼굴 또는 사용자의 식별을 인에이블링하는 다른 물리적 특징과 연관된 이미저리를 캡처하도록 구현될 수 있다.
[0033] 적외선 센서(222)는 적외선 주파수 스펙트럼의 데이터를 캡처하도록 구성되며, 열 변동들을 감지하도록 또는 IR(infrared) 카메라로서 구성될 수 있다. 예컨대, 적외선 센서(222)는 디바이스의 환경에서 사용자 또는 다른 사람과 연관된 열 데이터를 감지하도록 구성될 수 있다. 대안적으로 또는 부가적으로, 적외선 센서는 IR LED와 연관될 수 있으며, 오브젝트와의 근접성 또는 오브젝트와의 거리를 감지하도록 구성될 수 있다.
[0034] 일부 실시예들에서, 컴퓨팅 디바이스는 깊이 센서(224)를 포함하며, 이 깊이 센서(224)는 RGB-향상 깊이 정보를 제공하기 위해 RGB 센서(220)와 함께 구현될 수 있다. 깊이 센서(222)는 단일 모듈 또는 별개의 컴포넌트들, 이를테면 IR 이미터, IR 카메라 및 깊이 프로세서로서 구현될 수 있다. 별개로 구현될 때, IR 이미터는 IR 카메라에 의해 수신되는 IR 광을 방사하며, 이는 깊이 프로세서에 IR 이미저리 데이터를 제공한다. 알려진 변수들, 이를테면 광속(speed of light)에 기반하여, 깊이 센서(224)의 깊이 프로세서는 타겟에 대한 거리를 분석(resolve)할 수 있다(예컨대, ToF(time-of-flight) 카메라). 대안적으로 또는 부가적으로, 깊이 센서(224)는 컴퓨팅 디바이스의 환경 또는 오브젝트의 표면의 3차원 깊이 맵을 분석할 수 있다.
[0035] 전력 소비 관점에서, 센서들(118) 각각은 동작하는 동안 상이한 개개의 전력량을 소비할 수 있다. 예컨대, 자기력계(208) 또는 음향 센서(212)는 동작을 위해 수십 밀리암페어를 소비할 수 있는 반면, RGB 센서, 적외선 센서(222), 또는 깊이 센서(224)는 동작을 위해 수백 밀리암페어를 소비할 수 있다. 일부 실시예들에서, 전력을 소비하는 동안 특정 타입들의 데이터를 획득하기 위해, 다른 센서들 대신 더 낮은 전력 센서들이 활성화될 수 있도록, 센서들(118) 중 하나 또는 그 초과의 센서들의 전력 소비가 미리 정의되거나 알려져 있다. 많은 경우들에서, 레이더 센서(120)는, 센서들(118)보다 적은 전력을 소비하면서 다양한 데이터를 획득하기 위해 연속적으로 또는 간헐적으로 동작할 수 있다. 이러한 경우들에서, 레이더 센서(120)는, 컴퓨팅 디바이스(102)의 전력을 보존하기 위해, 센서들(118) 전부 또는 대부분이 파워-다운되는 동안 동작할 수 있다. 대안적으로 또는 부가적으로, 레이더 센서(120)에 의해 제공되는 데이터에 기반하여, 센서들(118) 중 하나를 활성화하여 추가적 센서 데이터를 획득하는 결정이 이루어질 수 있다.
[0036] 도 3은, 레이더 센서(120) 및 이에 의해 제공되는 레이더 필드들의 예시적인 구성들을 일반적으로 300으로 예시한다. 도 3의 맥락에서, 레이더 센서(302-1)가 게이밍 시스템(304)에 임베딩되는 제1 예시적인 구성 및 레이더 센서(302-2)가 텔레비전(306)에 임베딩되는 제2 예시적인 구성인 레이더 센서(120)의 2개의 예시적인 구성들이 예시된다. 레이더 센서들(302-1 및 302-2)은 서로 또는 본원에서 다른 곳에 설명된 레이더 센서들과 유사하게 또는 상이하게 구현될 수 있다. 제1 예에서 레이더 센서(302-1)는 게이밍 시스템(304)과 상호작용하기 위한 근거리(near) 레이더 필드를 제공하고, 제2 예에서 레이더 센서(302-2)는 텔레비전(306)과 상호작용하기 위해 중간 레이더 필드(예컨대, 룸 사이즈)를 제공한다. 이러한 레이더 센서들(302-1 및 302-2)은 근거리 레이더 필드(308-1) 및 중간 레이더 필드(308-2)을 각각 제공하고, 아래에서 설명된다.
[0037] 게이밍 시스템(304)은, 레이더 센서(302-1)를 포함하거나, 또는 레이더 센서(302-1)와 연관된다. 이러한 디바이스들은 게이밍 시스템(304)과의 사용자 상호작용을 개선시키기 위해 함께 작동한다. 예컨대, 게이밍 시스템(304)은 콘텐츠 디스플레이 및 사용자 상호작용이 수행될 수 있게 하는 터치 스크린(310)을 포함하는 것으로 가정한다. 이러한 터치 스크린(310)은, 스크린을 터치할 수 있게 하기 위해 특정 방향, 이를테면, 똑바로(upright) 및 앞쪽으로 사람이 앉아있게 할 필요가 있는 것과 같은 몇 가지 난제들을 사용자들에게 제시할 수 있다. 게다가, 터치 스크린(310)을 통해 제어들을 선택하기 위한 사이즈는 일부 사용자들에게 상호작용을 어렵게 할 수 있고 시간-소모적일 수 있다. 그러나, 사용자의 손들이 이를테면, 3차원에서 그리고 1개의 손 또는 2개의 손들을 사용하는 제스처들을 포함하는 작은 또는 큰, 간단한 또는 복잡한 제스처들로 데스크톱 컴퓨터(304)와 상호작용하게 하는 것을 가능하게 하는 근거리 레이더 필드(308-1)를 제공하는 레이더 센서(302-1)를 고려하자. 쉽게 알 수 있는 바와 같이, 사용자가 선택들을 행할 수 있는 큰 볼륨은 실질적으로 더 쉬울 수 있으며 평평한 표면, 이를테면, 터치 스크린(310)의 평평한 표면 위에서 더 나은 경험을 제공할 수 있다.
[0038] 유사하게, 중간 레이더 필드(308-2)를 제공하는 레이더 센서(302-2)를 고려한다. 레이더-필드를 제공하는 것은 텔레비전의 정면에 위치한 사용자와 다양한 상호작용들을 가능하게 할 수 있다. 예컨대, 사용자는 손 제스처들로부터 팔 제스처들 내지는 전체-신체 제스처들의 범위에 걸친 다양한 제스처들을 통해 그리고 거리를 두고 텔레비전(306)과 상호작용할 수 있다. 그렇게 함으로써, 사용자 선택들은 평평한 표면(예컨대, 터치 스크린(310)), 원격 제어(예컨대, 게이밍 또는 텔레비전 원격), 및 다른 종래의 제어 메커니즘들보다 더 간단하고 더 쉽게 행해질 수 있다. 대안적으로 또는 부가적으로, 텔레비전(306)은, 다른 기능들(예컨대, 콘텐츠 제어)을 구현하기 위해 센서-기반 애플리케이션들에 제공될 수 있는 사용자의 아이덴티티를 레이더 센서(302-2)를 통해 결정할 수 있다.
[0039] 도 4는 레이더 센서 및 이에 의해 제공되는 관통하는 레이더 필드의 다른 예시적인 구성을 400으로 예시한다. 이러한 특정 예에서, 레이더 필드가 적용되는 표면은 인간 조직이다. 도시된 바와 같이, 손(402)은, 랩톱(406)에 포함된 (도 1의) 레이더 센서(120)에 의해 제공되는 표면 레이더 필드(404)를 갖는다. 레이더-방사 엘리먼트(122)(미도시)는 의자(408)를 관통하고 손(402)에 적용되는 표면 레이더 필드(404)를 제공한다. 이 경우, 안테나들(124)은 의자(408)를 관통하는(예컨대, 관통하여 다시 반사하는), 손(402)의 표면상에서의 상호작용에 의해 야기된 반사를 수신하도록 구성된다. 대안적으로, 레이더 센서(120)는, 스마트-폰이 사용자의 포켓에 배치될 때와 같이, 직물을 관통하는 반사들을 제공하고수신하도록 구성될 수 있다. 따라서, 레이더 센서(120)는 광학 폐색, 이를테면, 직물, 의류, 및 다른 불투명 물질을 관통하여 공간들을 맵핑하거나 스캔할 수 있다.
[0040] 일부 실시예들에서, 디지털 신호 프로세서(126)는 손(402)을 식별하고 그리고/또는 그에 의해 행해지는 제스처를 결정하는 데 유용한 레이더 데이터를 제공하기에 충분한, 표면으로부터의 수신된 반사 신호를 프로세싱하도록 구성된다. 표면 레이더 필드(404)를 통해, 다른 손이 식별될 수 있거나, 또는 다른 손이 제스처들을 수행하도록, 이를테면, 손(402)의 표면을 탭하도록 상호작용하여, 그에 의해 표면 레이더 필드(404)와 상호작용할 수 있다는 점에 유의해야 한다. 예시적인 제스처들은 단일 및 다중-핑거 스와이프(swipe), 스프레드(spread), 스퀴즈(squeeze), 비-선형 이동들 등을 포함한다. 또는, 손(402)은 또한 반사들을 야기하기 위해 단순하게 이동되거나 또는 형상을 변경시키고, 그로 인해 폐색된 제스처를 또한 수행할 수 있다.
[0041] 인간-조직 반사에 대해, 레이더 필드들을 반사시키는 것은, 인간-조직 반사에 기반하여 식별 표시(identifying indicia)를 결정하기 위해, 그리고 식별 표시가 사람에 대한 레코딩된 식별 표시, 이를테면, 대응하는 컴퓨팅 디바이스를 제어하도록 허용된 사람에 대한 인증과 매칭한다고 확인하기 위해, 이 레이더 필드들을 프로세싱할 수 있다. 이러한 식별 표시는, 다양한 바이오메트릭 식별자들, 이를테면, 사람 또는 사람의 일부분(이를테면, 사람의 손)에 대한 사이즈, 형상, 사이즈들의 비율, 연골 구조, 및 뼈 구조를 포함할 수 있다. 이러한 식별 표시는 또한, 고유하거나 또는 카피가-어려운 반사를 갖는 디바이스와 같은, 모바일 컴퓨팅 디바이스를 제어하도록 허용된 사람이 착용한 디바이스(예컨대, 특정 방식으로 레이더를 반사시키는, 14 캐럿 금 또는 3개의 다이아몬드들의 결혼 반지)와 연관될 수 있다.
[0042] 게다가, 레이더 센서 시스템들은, 개인적으로 식별가능한 정보가 제거되도록 구성될 수 있다. 예컨대, 사용자에 대해 개인적으로 식별가능한 어떠한 정보도 결정될 수 없도록 사용자의 아이덴티티가 처리될 수 있거나, 또는 사용자의 특정 위치가 결정될 수 없도록 위치 정보가 획득된 곳(이를테면, 도시, ZIP 코드, 또는 주(state) 레벨)으로 사용자의 지리적 위치가 일반화될 수 있다. 따라서, 사용자는, 사용자에 관한 수집되는 정보의 종류, 정보가 사용되는 방법, 및 사용자에게 제공되는 정보의 종류를 제어할 수 있다.
[0043] 도 5는, 센서 퓨전 엔진(110) 및 콘텍스트 관리자(112)를 포함하는, 레이더-사용가능 센서 퓨전을 구현할 수 있는 컴포넌트들의 예시적인 구성을 일반적으로 500으로 예시한다. 비록 별개의 엔티티들이 도시된다고 할지라도, 레이더 센서(120), 센서 퓨전 엔진(110), 콘텍스트 관리자(112), 및 다른 엔티티들은 서로 조합될 수 있거나, 상이하게 조직될 수 있거나, 또는 직접적으로 또는 도시되지 않은 인터커넥션들 또는 데이터 버스들을 통해 간접적으로 통신할 수 있다. 그에 따라서, 도 5에 도시된 센서 퓨전 엔진(110) 및 콘텍스트 관리자(112)의 구현은, 이러한 엔티티들 및 본원에서 설명된 다른 것들이 레이더-사용가능 센서 퓨전을 구현하도록 상호작용할 수 있는 방식들의 비-제한적인 예를 제공하도록 의도된다.
[0044] 이 예에서, 센서 퓨전 엔진은 레이더 신호 트랜스포머(502)(신호 트랜스포머(502)) 및 레이더 특징 추출기(504)(특징 추출기(504))를 포함한다. 비록 센서 퓨전 엔진(110) 상에 구현된 별개의 엔티티들로서 도시되더라도, 신호 트랜스포머(502) 및 특징 추출기(504)는 또한, 레이더 센서(120)의 디지털 신호 프로세서(126)에 의해 또는 그 내에 구현될 수 있다. 센서 퓨전 엔진(110)은 센서들(118)과 통신가능하게 커플링되며, 이 센서들(118)로부터, 센서 데이터(506)가 수신된다. 센서 데이터(506)는 임의의 적절한 타입의 원(raw) 또는 사전-처리된 센서 데이터, 이를테면 본원에서 설명된 센서들 중 임의의 타입에 대응하는 데이터를 포함할 수 있다. 센서 퓨전 엔진(110)은 또한, 레이더 센서(120)와 동작가능하게 커플링되며, 이 레이더 센서(120)는 레이더 데이터(508)를 센서 퓨전 엔진(110)에 제공한다. 대안적으로 또는 부가적으로, 레이더 센서(120)에 의해 제공되는 레이더 데이터(508)는 실시간 레이더 데이터, 이를테면 레이더 필드의 반사 신호들이 레이더 센서(120)에 의해 수신될 때 이 레이더 필드의 반사 신호들을 표현하는 원 데이터를 포함할 수 있다.
[0045] 일부 실시예들에서, 신호 트랜스포머(502)는 반사 신호들을 표현하는 원 레이더 데이터를 레이더 데이터 표현들로 변환한다. 일부 경우들에서, 이는 원 레이더 데이터에 대한 신호 사전-처리를 수행하는 것을 포함한다. 예컨대, 안테나가 반사된 신호들을 수신할 때, 일부 실시예들은 원(raw) 착신 신호들의 디지털 표현을 생성하기 위해 신호들을 샘플링한다. 일단 원 데이터가 생성되면, 신호 트랜스포머(502)는, 신호들을 클리닝 업하거나 또는 원하는 주파수 대역 또는 원하는 데이터 포맷으로 신호들의 버전들을 생성하기 위해, 원 데이터를 사전-처리한다. 대안적으로 또는 부가적으로, 원 데이터를 사전-처리하는 것은, 잡음 플로어를 감소시키거나 또는 에일리어싱을 제거하기 위해 원 데이터를 필터링하는 것, 상이한 샘플 레이트에 대해 획득하기 위해 데이터를 리샘플링하는 것, 신호들의 복소수 표현을 생성하는 것 등을 포함할 수 있다. 신호 트랜스포머(502)가 디폴트 파라미터들에 기반하여 원 데이터를 사전-처리할 수 있는 반면에, 다른 경우들에서, 사전-처리의 타입 및 파라미터들은 이를테면 센서 퓨전 엔진(110) 또는 콘텍스트 관리자(112)에 의해 구성가능하다.
[0046] 신호 트랜스포머(502)는 수신된 신호 데이터를 하나 또는 그 초과의 상이한 데이터 표현들 또는 데이터 변환으로 변환한다. 일부 경우들에서, 신호 트랜스포머(502)는 다수의 경로들 및 대응하는 안테나들로부터의 데이터를 결합한다. 결합된 데이터는 송신 경로들, 수신 경로들, 또는 레이더 센서(120)의 결합된 트랜시버 경로들의 다양한 조합들로부터의 데이터를 포함할 수 있다. 임의의 적절한 타입의 데이터 퓨전 기법, 이를테면, 휴리스틱(예컨대, SNR(signal-to-noise) 비 또는 MMSE(minimum mean square error))을 최적화하기 위한 가중된 통합, 빔형성, 삼각측량 등이 사용될 수 있다.
[0047] 신호 트랜스포머(502)는 또한, 상이한 타입들의 특징 추출을 위해 신호 데이터의 다수의 조합들을 생성할 수 있으며, 그리고/또는 특징 추출에 대한 프리커서로서, 신호 데이터를 다른 표현으로 변환한다. 예컨대, 신호 트랜스포머(502)는, 타겟 오브젝트의 3차원(3D) 공간 프로파일을 생성하기 위해, 결합된 신호 데이터를 프로세싱할 수 있다. 그러나, 원 데이터의 뷰, 추상 또는 버전을 생성하기 위해, 임의의 적절한 타입의 알고리즘 또는 변환, 이를테면 타겟 오브젝트에 관련된 위상 및 진폭 정보를 포함하는 복소 벡터를 산출하는 I/Q 변환, 제스처 센서 디바이스의 레인지 내에서 타겟 오브젝트들의 공간 표현을 산출하는 빔형성 변환, 또는 타겟 속도 및 방향을 산출하는 레인지-도플러 알고리즘이 사용될 수 있다. 다른 타입들의 알고리즘들 및 변환은, 타겟 인식 정보를 산출하는 레인지 프로파일 알고리즘, 고-해상도 타겟 인식 정보를 산출하는 마이크로-도플러 알고리즘, 및 대응하는 주파수들의 시각적 표현을 산출하는 스펙트로그램 알고리즘 등을 포함할 수 있다.
[0048] 본원에서 설명된 바와 같이, 원 레이더 데이터는, 개개의 변형들 또는 결합된 신호 데이터를 생성하기 위해, 몇몇 방식들로 프로세싱될 수 있다. 일부 경우들에서, 동일한 원 데이터가 다수의 방식들로 분석되거나 또는 변환될 수 있다. 예컨대, 3D 프로파일, 타겟 속도 정보, 및 타겟 지향성 이동 정보를 생성하기 위해, 원 데이터의 동일한 캡처가 프로세싱될 수 있다. 원 데이터의 변형들을 생성하는 것 외에도, 레이더 신호 트랜스포머는, 타겟 오브젝트의 기본 분류, 이를테면 타겟 오브젝트의 존재, 형상, 사이즈, 방향, 시간에 따른 속도 등에 관한 정보를 식별하는 것을 수행할 수 있다. 예컨대, 일부 실시예들은 신호 트랜스포머(502)를 사용하여, 시간에 따라 손에서 반사되는 에너지량을 측정함으로써 손의 기본 방향을 식별한다.
[0049] 이들 변형들 및 기본 분류들은 하드웨어, 소프트웨어, 펌웨어, 또는 임의의 적절한 조합으로 수행될 수 있다. 때때로, 변형들 및 기본 분류들은 디지털 신호 프로세서(126) 및/또는 센서 퓨전 엔진(110)에 의해 수행된다. 일부 경우들에서, 신호 트랜스포머(502)가 디폴트 파라미터들에 기반하여 원 레이더 데이터를 변환하거나 또는 기본 분류를 수행하는 반면에, 다른 경우들에서, 변형들 또는 분류들은 이를테면 센서 퓨전 엔진(110) 또는 콘텍스트 관리자(112)를 통해 구성가능하다.
[0050] 특징 추출기(504)는 신호 트랜스포머(502)로부터 레이더 데이터의 변환된 표현들을 수신한다. 이들 데이터 변환들로부터, 특징 추출기(504)는 하나 또는 그 초과의 레이더 특징들(510)을 분석하거나, 추출하거나, 또는 식별한다. 이들 레이더 특징들(510)은 타겟의 다양한 특성들, 다이나믹스, 또는 특징들을 표시하며, 이 예에서, 검출 특징들(512), 반사 특징들(514), 모션 특징들(516), 위치 특징들(518), 및 형상 특징들(520)을 포함할 수 있다. 이들 특징들은 단지 예로서 설명되며, 센서 퓨전 엔진이 원(raw) 또는 변환된 레이더 데이터로부터 특징 또는 제스처 정보를 추출하는 방식들을 제한하는 것으로 의도되지 않는다. 예컨대, 레이더 특징 추출기(504)는 신호 트랜스포머(502)에 의해 제공되는 레이더 데이터 표현들로부터 대안적인 레이더 특징들, 이를테면 레인지 특징들 또는 이미지 특징들을 추출할 수 있다.
[0051] 검출 특징들(512)은 센서 퓨전 엔진(110)이 컴퓨팅 디바이스(102)의 환경에서 사용자, 다른 사람들, 또는 오브젝트들의 존재를 검출하는 것을 가능하게 할 수 있다. 일부 경우들에서, 검출 특징은, 레이더 필드의 다수의 타겟들 또는 레이더 필드에 의해 스위핑되는 룸 또는 공간의 다수의 타겟들을 표시한다. 반사 특징들(514)은 타겟에 의해 반사되는 에너지, 이를테면 시간에 따라 반사되는 에너지의 프로파일을 표시할 수 있다. 이는 타겟의 모션의 속도가 시간에 따라 추적되는 것을 가능하게 하는데 효과적일 수 있다. 대안적으로 또는 부가적으로, 반사 특징은 최강 컴포넌트의 에너지 또는 이동하는 타겟의 총 에너지를 표시할 수 있다.
[0052] 모션 특징들(516)은 퓨전 엔진(110)이 레이더 필드에서의 또는 이 레이더 필드를 통하는 타겟의 이동 또는 모션을 추적하는 것을 가능하게 할 수 있다. 일부 경우들에서, 모션 특징(516)는 1차원 또는 3차원의 속도 센트로이드, 또는 1차원의 위상-기반 미세 타겟 변위를 포함한다. 대안적으로 또는 부가적으로, 모션 특징은 타겟 속도 또는 1D 속도 분산을 포함할 수 있다. 일부 실시예들에서, 위치 특징들(518)은 타겟 오브젝트의 공간 2D 또는 3D 좌표들을 포함한다. 위치 특징들(518)은 또한, 타겟 오브젝트까지의 거리를 레인지하거나(range) 또는 결정하기에 유용할 수 있다.
[0053] 형상 특징들(520)은 타겟 또는 표면의 형상을 표시할 수 있으며, 공간 분산을 포함할 수 있다. 일부 경우들에서, 센서 퓨전 엔진(110)은 컴퓨팅 디바이스(102)의 타겟 또는 환경들의 3D 표현을 구축하기 위해 상이한 레이더 필드들을 스캔하거나 또는 빔형성할 수 있다. 예컨대, 형상 특징들(520) 및 다른 레이더 특징들(510)은, 특정 룸 또는 공간의 고유 식별자(예컨대, 지문)를 구성하기 위해 센서 퓨전 엔진(110)에 의해 결합될 수 있다.
[0054] 일부 실시예들에서, 특징 추출기(504)는 특징 추출 또는 추상을 위해 신호 트랜스포머(502)에 의해 식별된 기본 분류를 기반으로 한다. 신호 트랜스포머(502)가 타겟 오브젝트를 손으로서 분류하는 위의 예를 고려해보기로 한다. 특징 추출기(504)는 이 기본 분류로부터 구축되어 손의 하위 해상도 특징들을 추출할 수 있다. 다시 말해서, 만약 특징 추출기(504)에 타겟 오브젝트를 손으로서 식별하는 정보가 제공되면, 특징 추출기(504)는, 이 정보를 사용하여, 머리-관련된 특징들(예컨대, 눈 깜빡임, 단어 말하기, 또는 머리-흔들기 이동) 대신에 손-관련된 특징들(예컨대, 손가락 탭핑, 형상 제스처들, 또는 스와이프 이동들)을 찾을 수 있다.
[0055] 다른 예로서, 신호 트랜스포머(502)가 시간이 지남에 따라 원 레이더 데이터를 타겟 오브젝트의 속도의 척도로 변환하는 시나리오를 고려해보기로 한다. 차례로, 특징 추출기(504)는, 이 정보를 사용하여, 타겟 오브젝트의 가속 속도를 임계값, 슬로우-탭 특징 등과 비교하기 위해 임계값을 사용함으로써 손가락 패스트-탭 모션을 식별한다. 임의의 적절한 타입의 알고리즘은 디지털 신호 프로세서(126)의 기계-학습 컴포넌트(도시되지 않음)에 의해 구현된 특징, 이를테면, 기계-학습 알고리즘들을 추출하기 위해 사용될 수 있다.
[0056] 다양한 실시예들에서, 센서 퓨전 엔진(110)은 레이더 특징들(510)을 센서들(118)로부터의 센서 데이터(506)와 결합하거나 또는 증강시킨다. 예컨대, 센서 퓨전 엔진(110)은 특징을 추출, 식별 또는 분류하기 위해 단일 알고리즘을 적용시키거나, 또는 단일 특징 또는 다수의 특징들을 추출하기 위해 다수의 알고리즘들을 적용시킬 수 있다. 따라서, 상이한 알고리즘들이 데이터의 동일한 세트 또는 데이터의 상이한 세트들 상에서 상이한 타입들의 특징들을 추출하기 위해 적용될 수 있다. 레이더 특징에 기반하여, 센서 퓨전 엔진(110)은 레이더 특징을 보완하는 또는 보충하는 데이터를 제공하기 위해 특정 센서를 활성화할 수 있다. 그렇게 함으로써, 센서 데이터를 사용하여 레이더 특징들의 정확도 또는 유효성이 개선될 수 있다.
[0057] 센서 퓨전 엔진(110)은 센서 데이터(506), 레이더 데이터(508), 또는 이들의 다양한 조합들을 센서-기반 애플리케이션들(108) 및 콘텍스트 관리자(112)에 제공하거나 또는 노출한다. 예컨대, 센서 퓨전 엔진(110)은 센서 데이터로 증강된 레이더 데이터 또는 센서 데이터에 기반하여 검증된 레이더 데이터를 센서-기반 애플리케이션들(108)에 제공할 수 있다. 센서-기반 애플리케이션들(108)은 디바이스 기능성들을 제공하기 위해 또는 디바이스 동작들을 변경하기 위해 컴퓨팅 디바이스(102)의 환경 또는 그에 대한 관계에 대한 정보 또는 지식을 레버리지하는 임의의 적절한 애플리케이션, 함수, 유틸리티 또는 알고리즘을 포함할 수 있다.
[0058] 이러한 특정 예에서, 센서-기반 애플리케이션들(108)은 근접성 검출(522), 사용자 검출(524), 및 액티비티 검출(526)을 포함한다. 근접성 검출 애플리케이션(522)은 센서 데이터 또는 레이더 데이터에 기반하여 사용자 또는 다른 오브젝트들과의 근접성을 검출할 수 있다. 예컨대, 근접성 검출 애플리케이션(522)은 검출 레이더 특징들(512)을 사용하여 접근하는 오브젝트를 검출하고, 이어서, 근접 센서 데이터로 스위칭하여 사용자와의 근접성을 확인할 수 있다. 대안적으로 또는 부가적으로, 애플리케이션은 접근하는 오브젝트가 다른 유사한 사이즈가 정해진 큰 신체 오브젝트가 아닌 사용자의 얼굴임을 검증하기 위해 형상 레이더 특징(520)를 레버리지할 수 있다.
[0059] 사용자 검출 애플리케이션(524)은 센서 데이터 또는 레이더 데이터에 기반하여 사용자의 존재를 검출할 수 있다. 일부 경우들에서, 사용자 검출 애플리케이션(524)은 또한, 사용자가 환경에서 검출될 때 사용자를 추적한다. 예컨대, 사용자 검출 애플리케이션(524)은 사용자의 알려진 3D 프로파일과 매칭하는 검출 레이더 특징(512) 및 형상 레이더 특징(520)에 기반하여 그 존재를 검출할 수 있다. 사용자 검출 애플리케이션(524)은 또한, RGB 센서(220)에 의해 제공된 이미지 데이터 또는 음향 센서들(212)에 의해 제공된 음성 데이터를 통해 사용자의 검출을 검증할 수 있다.
[0060] 일부 실시예들에서, 액티비티 검출 애플리케이션(526)은 센서 데이터 및 레이더 데이터를 사용하여 컴퓨팅 디바이스(102)의 환경에서의 액티비티를 검출한다. 액티비티 검출 애플리케이션(526)은 검출 특징들(512) 및 모션 특징들(516)에 대한 레이더를 모니터링할 수 있다. 대안적으로 또는 부가적으로, 액티비티 검출 애플리케이션(526)은 음향 센서들(212)을 사용하여 잡음을 검출하고, RGB 센서(220) 또는 깊이 센서(224)를 사용하여 이동을 모니터링할 수 있다.
[0061] 센서-기반 애플리케이션들은 또한, 바이오메트릭 인식(528), 생리적 모니터(530) 및 모션 식별(532)을 포함할 수 있다. 바이오메트릭 인식 애플리케이션(528)은 센서 데이터 및 레이더 데이터를 사용하여, 사용자를 식별하는데 유용한 사용자의 바이오메트릭 특징들을 캡처 또는 획득, 이를테면, 표정 인식을 구현할 수 있다. 예컨대, 바이오메트릭 인식 애플리케이션(528)은 형상 레이더 특징(520)를 사용하여, 사용자의 얼굴의 골격 구조의 3D 맵 및 RGB 센서(220)로부터의 컬러 이미지를 획득하여 사용자의 아이덴티티를 확인할 수 있다. 따라서, 만약 사칭자가 사용자의 외형을 위조할 수 있었다하더라도, 사칭자는 사용자의 정확한 표정 구조를 복제할 수 없으며, 따라서, 바이오메트릭 인식 애플리케이션(528)을 통한 식별을 실패할 수 있다.
[0062] 생리적 모니터 애플리케이션(530)은 사용자의 의학적 양상들, 이를테면, 호흡, 심박수, 반사들, 소근육 운동들 등을 검출 또는 모니터링할 수 있다. 그렇게 하기 위해, 생리적 모니터 애플리케이션(530)은 레이더 데이터를 사용하여, 이를테면, 사용자의 흉부의 모션을 추적하고, 동맥 흐름, 피하층 근육 수축을 모니터링하는 것 등을 할 수 있다. 생리적 모니터 애플리케이션(530)은 보충 데이터, 이를테면, 음향, 열(예컨대, 온도), 이미지(예컨대, 피부 또는 눈 색깔), 및 모션(예컨대, 떨림들) 데이터에 대해 디바이스의 다른 센서들을 모니터링할 수 있다. 예컨대, 생리적 모니터 애플리케이션(530)은 레이더 모션 특징들(516), 음향 센서들(212)에 의해 레코딩된 호흡 잡음들 및 적외선 센서(222)에 의해 캡처된 호기(exhaled air)의 열 시그니처들을 사용하여 사용자의 호흡 패턴들을 모니터링할 수 있다.
[0063] 모션 식별 애플리케이션(532)은 레이더 데이터 및 센서 데이터를 사용하여 다양한 모션 시그니처들을 식별할 수 있다. 일부 경우들에서, 모션 레이더 특징들(516) 또는 다른 레이더 특징들은 모션 추적에 유용하다. 그러한 경우들에서, 모션들은 RGB 센서(220) 또는 깊이 센서(224)에 의해 정확하게 캡처하기에는 너무 빠를 수 있다. 매우 빠른 모션을 추적할 수 있는 레이더 특징들을 사용함으로써, 모션 식별 애플리케이션(532)은, 모션을 추적하고 RGB 센서(220)로부터의 이미지 데이터를 레버리지하여 추가적인 공간 정보를 제공할 수 있다. 따라서, 센서 퓨전 엔진(110) 및 모션 식별 애플리케이션(532)은 대응하는 공간 정보와 함께 빠르게 이동하는 오브젝트를 추적할 수 있다.
[0064] 센서-기반 애플리케이션들(108)의 제스처 검출 애플리케이션(534)은 인식 및 맵핑을 수행한다. 예컨대, 손가락 탭 모션 특징이 추출된 경우를 고려한다. 제스처 검출 애플리케이션(534)은 이 정보, 음향 센서들(212)로부터의 사운드 데이터 또는 RGB 센서(220)로부터의 이미지 데이터를 사용하여, 특징을 더블-클릭 제스처로서 식별할 수 있다. 제스처 검출 애플리케이션(534)은, 센서 퓨전 엔진(110)에 의해 제공된 레이더 데이터 및 센서 데이터에 기반하여 어느 제스처가 가장 발생할 가능성이 높은지, 및 이 정보가 다양한 제스처들의 하나 또는 그 초과의 사전에 학습된 특징들 또는 특징들과 어떻게 관련되는지에 대한 확률적 결정을 사용할 수 있다. 예컨대, 기계-학습 알고리즘은 다양한 수신된 특징들을 가중하는 방법을 결정하여, 이들 특징들이 특정 제스처들(또는 제스처들의 컴포넌트들)에 대응할 가능성을 결정하는데 사용될 수 있다.
[0065] 콘텍스트 관리자(112)는 센서-기반 애플리케이션들(108), 센서 데이터(506) 또는 센서 퓨전 엔진(110)의 레이더 특징들(510)에 액세스하여 레이더-기반 콘텍스추얼 감지를 구현할 수 있다. 일부 실시예들에서, 컴퓨팅 디바이스(102)가 동작하는 공간들 또는 룸들의 맵들을 제공하기 위해, 레이더 데이터(508)는 센서 데이터(506)와 결합될 수 있다. 예컨대, 3D 레이더 이미저리를 캡처 및 메싱하기 위한 합성 개구 기술들을 구현하기 위해 위치 및 관성 센서 데이터는 레버리지될 수 있다. 따라서, 디바이스가 환경을 지나갈 때, 콘텍스트 관리자(112)는 다양한 공간들 및 룸들의 상세한 또는 높은 해상도의 3D 맵들을 구성할 수 있다. 대안적으로 또는 부가적으로, 3D 이미저리는, 광학 폐색들을 통해 캡처되거나 또는 액티비티 인식을 개선하기 위해 센서 퓨전의 다른 기법들과 조합하여 사용될 수 있다.
[0066] 이 특정 예에서, 콘텍스트 관리자(112)는 콘텍스트 모델들(536), 디바이스 콘텍스트들(538) 및 콘텍스트 세팅들(540)을 포함한다. 콘텍스트 모델들(536)은 다양한 공간들의 물리 모델들, 이를테면 특정 룸의 차원들, 지오메트리 또는 특징들을 포함한다. 다시 말해서, 콘텍스트 모델은 3D 지문과 같은 특정 공간의 고유 캐릭터(unique character)를 설명하기 위해 고려될 수 있다. 일부 경우들에서, 콘텍스트 모델들(536)을 구축하는 것은 기계 학습 기법들을 통해 구현되고, 디바이스가 특정 공간에 진입하거나 통과할 때 수동적으로 수행될 수 있다. 디바이스 콘텍스트들(538)은, 컴퓨팅 디바이스(102)가 동작할 수 있는 다수의 콘텍스트들을 포함하고 설명할 수 있다. 이들 콘텍스트들은 워크 콘텍스트들의 표준 세트, 이를테면 "미팅", "방해하지 말 것", "사용가능", "보안", "사설" 등을 포함할 수 있다. 예컨대, "미팅" 콘텍스트는 다수의 다른 공동 작업자들 및 고객들이 존재하는 회의실에 있는 디바이스와 연관될 수 있다. 대안적으로 또는 부가적으로, 디바이스 콘텍스트들(538)은 사용자 프로그램가능하거나 또는 맞춤형일 수 있는데, 이를테면 집의 상이한 룸들에 대한 콘텍스트들일 수 있고, 각각의 콘텍스트는 그 콘텍스트와 연관된 프라이버시 또는 보안의 개개의 레벨을 표시한다.
[0067] 콘텍스트 세팅들(540)은 콘텍스트 또는 다른 환경 특성들에 기반하여 구성가능한 다양한 디바이스 또는 시스템 세팅들을 포함한다. 콘텍스트 세팅들(540)은 임의의 적절한 타입의 디바이스 세팅, 이를테면 링거 볼륨, 링거 모드, 디스플레이 모드들, 네트워크들 또는 다른 디바이스들에 대한 연결성 등을 포함할 수 있다. 대안적으로 또는 부가적으로, 콘텍스트 세팅들(540)은 임의의 적절한 타입의 시스템 세팅들, 이를테면 보안 세팅들, 프라이버시 세팅들, 네트워크 또는 디바이스 연결 세팅들, 원격 제어 특징들 등을 포함할 수 있다. 예컨대, 사용자가 자신의 홈 씨어터로 걸어가면, 콘텍스트 관리자(112)는 이 콘텍스트(예컨대, "홈 씨어터")를 인지할 수 있고, 디바이스의 경고들을 뮤팅시키고 홈 씨어터의 오디오/비디오 장비를 제어하도록 디바이스의 무선 인터페이스를 구성함으로써 콘텍스트 세팅들을 구성할 수 있다. 이는, 콘텍스트 관리자(112)가 콘텍스트에 기반하여 디바이스를 결정 및 구성할 수 있는 방법에 대한 단지 일예이다.
[0068] 하나 또는 그 초과의 실시예들에 따른 컴퓨팅 디바이스(102), 센서 퓨전 엔진(110) 및 콘텍스트 관리자(112)의 개개의 예들을 설명하였고, 이제, 레이더-사용가능 센서 퓨전을 구현하기 위해 본원에서 설명되는 것들 및 다른 엔티티들에 의해 구현될 수 있는 기법들의 논의를 고려한다.
예시적인 방법들
[0069] 도 6, 도 8, 도 10, 도 11, 도 13 및 도 14는 레이더-사용가능 센서 퓨전 및/또는 레이더-기반 콘텍스추얼 감지를 구현하기 위한 방법들을 도시한다. 이들 방법은, 수행되는 동작들을 특정하는 블록들의 세트들로 도시되지만, 개개의 블록들에 의한 동작들을 수행하기 위해 반드시 도시된 순서 또는 조합들로 제한되는 것은 아니다. 예컨대, 상이한 방법들의 동작들이 임의의 순서로 조합되어, 본원에서 설명된 개념들을 벗어나지 않고 대안적인 방법들을 구현할 수 있다. 다음의 논의의 부분들에서는 오직 예로서 이루어진 도 1 내지 도 5를 참조로 하여 기법들이 설명될 것이다. 기법들은 하나의 디바이스 상에서 동작하는 다수의 엔티티들 또는 하나의 엔티티 또는 이들 도면들에서 설명된 것들에 의한 성능으로 제한되지 않는다.
[0070] 도 6은 레이더 센서(120), 센서 퓨전 엔진(110) 또는 콘텍스트 관리자(112)에 의해 수행되는 동작들을 포함하는, 보충 센서 데이터로 레이더 데이터를 증강하기 위한 예시적인 방법(600)을 도시한다.
[0071] 602에서, 도 2 또는 도 3에 도시된 레이더 필드들 중 하나와 같은 레이더 필드가 제공된다. 레이더 필드는 레이더 시스템 또는 레이더 센서에 의해 제공될 수 있고, 이는 도 1의 레이더 센서(120) 및 레이더-방사 엘리먼트(122)와 유사하거나 상이하게 구현될 수 있다. 제공된 레이더 필드는 전체 인접하는 레이더 필드인 광범위한 빔 또는 스캐닝된 레이더 필드인 지향된 좁은 빔을 포함할 수 있다. 일부 경우들에서, 레이더 필드는 대략 60 GHz 대역, 이를테면, 57-64 GHz 또는 59-61 GHz의 주파수로 제공될 수 있지만, 다른 주파수 대역들이 사용될 수 있다.
[0072] 예로써, 700에서, 랩톱 컴퓨터(102-5)가 레이더 센서(120)를 포함하고 레이더-사용가능 센서 퓨전을 구현할 수 있는 도 7을 고려한다. 여기서, 사용자(702)는 1인칭 슈터(FPS: first person shooter) 비디오 게임을 플레이하기 위해 랩톱(102-5)의 제스처 구동 제어 메뉴를 사용하고 있다고 가정한다. 레이더 센서(120)는 사용자(702)의 이동을 캡처하여 게임 제어를 인에이블링하게 하는 레이더 필드(704)를 제공한다.
[0073] 604에서, 레이더 필드 내의 타겟에 대응하는 하나 또는 그 초과의 반사 신호들이 수신된다. 레이더 반사 신호들은, 레이더 필드 내의 또는 레이드 필드를 통과하는 사람 또는 오브젝트와 같은 레이더 필드 내의 타겟 오브젝트의 다수의 포인트들의 중첩으로서 수신될 수 있다. 본 예의 맥락에서, 사용자의 손으로부터의 반사 신호들이 레이더 센서(120)에 의해 수신된다.
[0074] 606에서, 하나 또는 그 초과의 반사 신호들이 레이더 데이터 표현들로 변환된다. 반사 신호들은 임의의 적절한 신호 프로세싱을 사용하여, 이를테면, 레인지-도플러 변환, 레인지 프로파일 변환, 마이크로-도플러 변환, I/Q 변환 또는 스펙트로그램 변환을 수행함으로써 변환될 수 있다. 진행 중인 예에 계속하여, 레이더 센서는 사용자의 손에 대한 타겟 속도 및 방향 정보를 제공하기 위해 레인지-도플러 변환을 수행한다.
[0075] 608에서, 타겟의 특징을 나타내는 레이더 특징은 레이더 데이터로부터 추출된다. 레이더 특징은 타겟의 특징, 타겟의 위치 또는 타겟의 다이나믹스의 실시간 측정을 제공할 수 있다. 레이더 특징은 임의의 적절한 타입의 특징, 이를테면, 검출 특징, 반사 특징, 모션 특징, 위치 특징 또는 형상 특징을 포함할 수 있고, 이들의 예들은 본원에서 설명된다. 본 예의 맥락에서, 사용자의 손의 반사 레이더 특징들 및 모션 레이더 특징들이 레이더 데이터로부터 추출된다.
[0076] 610에서, 센서는 레이더 특징에 기반하여 활성화된다. 센서는 보충 데이터를 제공하기 위해 활성화될 수 있다. 일부 경우들에서, 센서는 레이더 특징 또는 레이더 특징의 타입에 기반한 활성화에 대해 선택된다. 예컨대, RGB 또는 적외선 센서는 표면 특징 또는 모션 특징에 대한 보충 센서 데이터를 제공하기 위해 활성화될 수 있다. 다른 경우들에서, 가속도계 또는 자이로스코프가, 모션 특징 또는 위치 특징에 대한 보충 데이터를 획득하기 위해 활성화될 수 있다. 또 다른 경우들에서, 검출 특징을 개선하기 위해, 데이터가 마이크로폰 또는 깊이 센서로부터 수신될 수 있다. 진행 중인 예에 계속하여, 센서 퓨전 엔진(110)은, 공간 정보를 캡처하기 위해 랩톱(102-5)의 RGB 센서(220)를 활성화시킨다.
[0077] 612에서, 레이더 특징은 보충 센서 데이터로 증강된다. 이는, 더욱 정확한 또는 더욱 정밀한 레이더 특징을 제공하기 위해, 레이더 특징 또는 센서 데이터를 결합 또는 퓨징하는 것을 포함할 수 있다. 레이더 특징을 증강하는 것은, 보충 또는 보완 센서 데이터에 기반하여 레이더 특징의 정확도 또는 해상도를 개선시키는 것을 포함할 수 있다. 이 센서 퓨전의 예들은, 레이더 특징의 위치 정확도를 증가시키거나, 레이더 특징에 기인하는 허위 검출을 완화시키거나, 레이더 특징의 공간 해상도를 증가시키거나, 레이더 특징의 표면 해상도를 증가시키거나, 또는 레이더 특징의 분류 정밀도를 개선하기 위해 센서 데이터를 사용하는 것을 포함할 수 있다. 본 예의 맥락에서, 센서 퓨전 엔진(110)은, 매우 빠른 이동을 공간적으로 캡처하는 센서 정보를 제공하기 위해 모션 레이더 특징들(516) 및 RGB 정보를 결합한다. 일부 경우들에서, RGB 센서(220)는 센서의 내재적인 제한으로 인해 이러한 모션을 검출하거나 캡처하지 못할 수 있을 것이다.
[0078] 614에서, 증강된 레이더 특징이 센서-기반 애플리케이션에 제공된다. 이는 센서-기반 애플리케이션의 성능을 증가시키는데 효과적일 수 있다. 일부 경우들에서, 증강된 레이더 특징은 검출 애플리케이션들, 이를테면 근접성 검출, 사용자 검출, 액티비티 검출, 제스처 검출 등의 정확도를 증가시킨다. 이러한 경우들에서, 센서 데이터는, 이를테면, 타겟의 검출을 확인 또는 오류 입증함으로써 허위 검출을 제거하는데 사용될 수 있다. 다른 경우들에서, 증강된 레이더 특징은 애플리케이션의 일관성을 개선할 수 있다. 본 예를 결론지으면, 퓨징된 레이더 데이터 특징들이 제스처 검출 애플리케이션(534)에 전달되고, 이는 제스처를 게임 제어 입력으로서 FPS 비디오 게임에 전달한다.
[0079] 도 8은 레이더 센서(120), 센서 퓨전 엔진(110) 또는 콘텍스트 관리자(112)에 의해 수행된 동작들을 포함하는 저-전력 센서 퓨전을 위한 예시적인 방법을 예시한다.
[0080] 802에서, 디바이스의 레이더 센서는 레이더 필드의 반사된 신호들에서의 변경들에 대해 모니터링된다. 레이더 센서는, 연속하는 또는 간헐적인 레이더 필드 ― 반사된 신호들이 이 레이더 필드로부터 수신됨 ― 를 제공할 수 있다. 일부 경우들에서, 레이더 센서는 디바이스의 저-전력 센서이며, 이는 동작 동안 디바이스의 다른 센서들보다 더 적은 저력을 소비한다. 반사된 신호들의 변경들이, 디바이스의 환경 내에서 디바이스의 이동 또는 타겟의 이동에 의해 유발될 수 있다. 예로써, 레이더-사용가능 텔레비전(902)이 거실 룸의 제1 사용자(904)에 의해 시청되고 있는 도 9의 환경들(900)을 고려한다. 여기서, 사용자(904)가 잡지를 읽기 시작했고, 제2 사용자(906)가 거실 룸에 진입했다고 가정한다. 텔레비전의 레이더 센서(120)는, 제1 사용자 및 제2 사용자의 이 액션들에 의해 유발되는 반사된 레이더 신호들에서의 변경들을 검출한다.
[0081] 804에서, 반사된 신호들이 레이더 필드에서 타겟을 검출하기 위해 변환된다. 일부 경우들에서, 검출 특징들이 레이더 필드 내의 타겟의 검출을 확인하기 위해 변환된 레이더 데이터로부터 추출된다. 다른 경우들에서, 형상 특징들 또는 모션 특징들이, 레이더 필드 내의 타겟의 물리적 특징들 또는 타겟의 이동을 식별하기 위해 변환된 레이더 데이터로부터 추출된다. 본 예의 맥락에서, 제1 사용자 및 제2 사용자에 대한 검출 레이더 특징들이 반사된 레이더 신호들로부터 추출된다.
[0082] 806에서, 반사된 신호들에서 타겟의 검출에 대한 응답으로, 고-전력 센서는 타겟-관련된 센서 데이터를 획득하기 위하여 저-전력 상태로부터 활성화된다. 예컨대, 레이더 검출 특징이 레이더 필드 내에서 사용자의 이동 또는 존재를 표시하면, RGB 센서는 사용자의 이미저리를 캡처하기 위하여 활성화될 수 있다. 다른 경우들에서, 디바이스의 GPS 모듈은 디바이스가 이동하고 있는 것을 표시하는 위치 레이더 특징들 또는 반사 레이더 특징들에 대한 응답으로 활성화될 수 있다. 진행중인 예를 계속하면, 센서 퓨전 엔진(110)은 텔레비전(902)의 RGB 센서(220)를 활성화시킨다. RGB 센서(220)는 제1 사용자(904)의 얼굴 이미지 데이터(908) 및 제2 사용자(906)의 얼굴 이미지 데이터(910)를 획득한다. 이 이미지 데이터는 눈 추적 또는 다른 동적 표정 인식 특징들을 인에이블링하는 것과 같은, 사용자의 얼굴들의 정적 이미지들 또는 비디오일 수 있다.
[0083] 808에서, 타겟-관련 센서 데이터는 센서-기반 애플리케이션으로 전달된다. 센서-기반 애플리케이션은 본원에서 설명된 것들 같은 임의의 적절한 애플리케이션을 포함할 수 있다. 일부 경우들에서, 센서-기반 애플리케이션의 실행은 레이더 필드 내에서 특정 액티비티 또는 타겟을 검출한 것에 대한 응답으로 개시되거나 재개된다. 예컨대, 감시 애플리케이션은 제어된 영역에 진입하는 비인가된 사람을 표시하는 감지 액티비티 특징들에 대한 응답으로 재개될 수 있다. 이어서, RGB 센서는 이미지 데이터를 감시 애플리케이션에 전달할 수 있다. 도 9의 본 예의 콘텍스트에서, RGB 센서는 얼굴 이미지 데이터(908) 및 얼굴 이미지 데이터(910)를 바이오메트릭 인식 애플리케이션(528)에 전달한다.
[0084] 선택적으로 810에서, 변환된 레이더 데이터로부터 추출된 레이더 특징들은 센서-기반 애플리케이션으로 전달된다. 일부 경우들에서, 레이더 특징들은 센서-기반 애플리케이션에 전달된 센서 데이터에 대한 부가적인 콘텍스트를 제공한다. 예컨대, 위치 레이더 특징은 애플리케이션 수신 RGB 이미저리에 전달되어 애플리케이션이 개개의 위치 정보로 이미저리의 타겟들을 태그하게 할 수 있다.
[0085] 진행중인 예를 계속하면, 센서 퓨전 엔진(110)은 사용자의 얼굴들의 개개의 레이더 표면 특징들을 바이오메트릭 인식 애플리케이션(528)에 전달한다. 여기서, 애플리케이션은, 제1 사용자(904)가 텔레비전을 시청(예컨대, 눈 추적)하지 않는 것을 결정하고, 그리고 제2 사용자(906)가 텔레비전(902)을 시청하는데 관심이 있다는 것을 결정할 수 있다. 얼굴 이미지 데이터(910)를 사용하여, 센서 퓨전 엔진(110)은 제2 사용자(906)를 식별하고 그의 아이덴티티를 기반하여, 이 아이덴티티와 연관된 뷰잉 히스토리를 리트리브할 수 있다. 콘텍스트 관리자(112)는 텔레비전의 채널을 제2 사용자(906)가 본 마지막 채널로 변경하도록 이 뷰잉 히스토리를 레버리지한다.
[0086] 812에서, 고-전력 센서는 저-전력 상태로 리턴된다. 센서 데이터가 센서-기반 애플리케이션으로 전달되면, 고-전력 센서는 디바이스의 전력을 보존하기 위하여 저-전력 상태로 리턴될 수 있다. 성능들의 어레이를 제공하는 동안 레이더 센서가 비교적 적은 전력을 소비하기 때문에, 다른 센서들은, 더 많은 센서-특정 데이터가 획득될 필요가 있을 때까지 저-전력 상태들로 남겨질 수 있다. 그렇게 함으로써, 디바이스의 전력 소비가 감소될 수 있고, 이는 배터리 동작 디바이스들에 대한 실행 시간들을 증가시키는데 효과적이다. 동작(812)으로부터, 방법(800)은 레이더 필드의 반사된 신호들의 후속적인 변경들을 위하여 레이더 센서를 모니터링하기 위한 동작(802)으로 리턴할 수 있다. 본 예를 결론내리면, RGB 센서(220)는, 텔레비전의 채널을 변경한 이후 저-전력 상태로 리턴되고, 추가 액티비티가 레이더 센서(120)에 의해 검출될 때까지 저-전력 상태에 상주할 수 있다.
[0087] 도 10은 레이더 센서(120), 센서 퓨전 엔진(110), 또는 콘텍스트 관리자(112)에 의해 수행된 동작들을 포함하여, 레이더 특징들로 센서 데이터를 향상시키기 위한 예시적인 방법을 예시한다.
[0088] 1002에서, 디바이스의 센서가 환경 변화들에 대해 모니터링된다. 센서는 도 2를 참조하여 설명되고 본원의 다른 곳에서 설명된 것들 같은 임의의 적절한 타입의 센서를 포함할 수 있다. 센서들은 디바이스의 물리적 상태의 변화들, 이를테면 디바이스 모션, 또는 디바이스와 관계가 없는 변화, 이를테면 주변 잡음 또는 광을 모니터링하도록 구성될 수 있다. 일부 경우들에서, 센서는 디바이스 전력을 보존하기 위해 디바이스의 저-전력 프로세서에 의해 또는 디바이스가 저-전력 상태에 있는 동안 모니터링된다.
[0089] 1004에서, 환경 변화가 센서를 통해 검출된다. 환경 변화는 임의의 적합한 타입의 변화, 이를테면 사용자의 음성, 주변 잡음, 디바이스 모션, 사용자 근접성, 온도 변경, 주변 광의 변경 등을 포함할 수 있다. 검출된 환경 변화는 특정 콘텍스트, 액티비티, 사용자 등과 연관될 수 있다. 예컨대, 환경 변화는, 디바이스를 슬립 상태로부터 깨우고 사용을 위해 디바이스를 언록킹하기 위한, 사용자로부터의 음성 커맨드를 포함할 수 있다.
[0090] 1006에서, 환경 변화를 검출한 것에 대한 응답으로, 레이더 센서는 레이더 필드를 제공하도록 활성화된다. 디바이스의 레이더 센서는 센서에 의해 제공된 데이터를 보충하거나 보완하는 레이더 데이터를 제공하도록 활성화될 수 있다. 일부 경우들에서, 레이더 필드는 환경 변화를 검출하는 센서의 타입 또는 환경 변화를 특징으로 하는 센서 데이터에 기반하여 구성된다. 예컨대, 사용자 근접성이 검출되면, 레이더 센서는 사용자를 식별하는데 적절한 단-거리 레이더 필드를 제공하도록 구성된다. 다른 경우들에서, 레이더 센서는 주변 잡음 또는 진동들을 검출한 것에 대한 응답으로 스위핑 장-거리 레이더 필드를 제공하도록 구성될 수 있다. 그런 경우들에서, 장-거리 레이더 필드는 잡음의 소스와 연관된 액티비티 또는 위치를 검출하기 위하여 사용될 수 있다.
[0091] 1008에서, 레이더 필드로부터의 반사 신호들은 레이더 데이터를 제공하도록 변환된다. 반사 신호들은 임의의 적절한 신호 프로세싱을 사용하여, 이를테면 레인지-도플러 변환, 레인지 프로파일 변환, 마이크로-도플러 변환, I/Q 변환, 또는 스펙트로그램 변환을 수행함으로써 변환될 수 있다. 일부 경우들에서, 레이더 데이터를 제공하기 위하여 사용되는 변환의 타입은 환경 변화를 검출하는 센서의 타입 또는 센서에 의해 제공된 데이터에 기반하여 선택된다.
[0092] 1010에서, 레이더 특징은 레이더 데이터로부터 추출된다. 레이더 특징은 환경 변화에 기반하여 추출될 수 있다. 일부 경우들에서, 레이더 특징의 타입은 환경 변화 또는 환경 변화의 타입에 기반하여 선택된다. 예컨대, 검출 특징 또는 모션 특징은 주변 잡음을 검출하는 음향 센서에 대한 응답으로 선택될 수 있다. 다른 경우들에서, 레이더 센서는 디바이스의 이동을 감지하는 가속도계에 대한 응답으로 위치 특징 또는 형상 특징을 추출할 수 있다.
[0093] 1012에서, 센서 데이터는, 향상된 센서 데이터를 제공하기 위해 레이더 특징을 사용하여 증강된다. 이것은, 센서 데이터와 연관된 정확도 또는 신뢰성 레이트를 증가시키는데 효과적일 수 있다. 다시 말해서, 만약 센서가 정확도, 레인지, 또는 다른 측정에 대해 약점을 갖는다면, 레이더 데이터는 이러한 단점들을 보상하고, 센서 데이터의 품질을 개선시킬 수 있다. 예컨대, 사용자의 얼굴의 표면 특징은, 사용자의 아이덴티티 및 디바이스를 언록하기 위해 수신된 음성 커맨드의 유효성을 확인할 수 있다.
[0094] 1014에서, 향상된 센서 데이터가 센서-기반 애플리케이션에 노출된다. 이것은, 애플리케이션의 정확도를 개선시키고, 애플리케이션에 의해 사용된 센서 데이터의 양을 감소시키고, 애플리케이션의 기능성을 확장시키는 것 등에 의해 센서-기반 애플리케이션의 성능을 개선시키는데 효과적일 수 있다. 예컨대, 이동에 대한 응답으로 디바이스를 어웨이크하는 모션-기반 전력 상태 애플리케이션은 또한, 모션 데이터 및 사용자의 안면 구조의 표면 특징을 포함하는 향상된 센서 데이터에 기반하여 사용자를 인증하고 디바이스를 언록할 수 있다.
[0095] 도 11은, 레이더 센서(120), 센서 퓨전 엔진(110), 또는 콘텍스트 관리자(112)에 의해 수행되는 동작들을 포함하는, 관심 공간에 대한 3D 콘텍스트 모델을 생성하기 위한 예시적인 방법을 예시한다.
[0096] 1102에서, 디바이스의 레이더 센서는 관심 공간 또는 영역에 대한 레이더 데이터를 획득하기 위해 활성화된다. 레이더 센서는 디바이스의 이동, 이를테면, 디바이스가 그 공간 또는 영역으로 이동하고 있다는 것을 표시하는 관성 데이터 또는 GPS 데이터에 대한 응답으로 활성화될 수 있다. 일부 경우들에서, 레이더 센서는, 디바이스의 무선 인터페이스에 의해 검출가능한 데이터를 송신하는 알려지지 않은 디바이스들, 이를테면 무선 액세스 포인트들, 무선 기기들, 또는 공간 내의 다른 무선 디바이스들을 검출하는 것에 대한 응답으로 활성화된다.
[0097] 예로서, 사용자(1202)가 자신의 포켓에 자신의 스마트-폰(102-3)을 갖고 거실 룸에 들어가는 도 12의 환경(1200)을 고려한다. 여기서, 사용자(1202)가 전에 이러한 공간에 있지 않았고, 따라서, 스마트-폰(102-2)이 이러한 공간과 연관된 어떠한 사전의 콘텍스트 정보도 갖지 않는다고 가정한다. 텔레비전(1204)의 무선 데이터 송신들 또는 개방 영역을 감지하는 것에 대한 응답으로, 스마트-폰(102-3)의 레이더 센서(120)는 레이더-투명 포켓 물질을 통해 룸을 스캔하고 레이더 데이터를 획득하는 것을 시작한다. 사용자가 룸에서 방향을 변경할 때, 레이더 센서(120)는 부가적인 레이더 데이터를 획득하기 위해 룸을 계속 스캔한다.
[0098] 1104에서, 3D 레이더 특징들은 레이더 데이터로부터 추출된다. 3D 레이더 특징들은, 3D 레이더 특징들 또는, 3D 레이더 특징들을 구성하는데 유용한 1D 및 2D 특징들의 조합을 포함할 수 있다. 3D 레이더 특징들은, 관심 공간 또는 영역의 물리적 양상들을 캡처하는 레이더 반사 특징들, 모션 특징들, 또는 형상 특징들을 포함할 수 있다. 예컨대, 3D 레이더 특징들은 공간의 타겟들, 이를테면 가구, 벽들, 기기들, 바닥 깔개들, 아키텍처 특징들 등에 대한 레인징, 위치, 또는 형상 정보를 포함할 수 있다. 본 예의 맥락에서, 콘텍스트 관리자(112)는 룸의 타겟들, 이를테면 텔레비전(1204), 식물(1206), 도어(1208), 램프(1210), 그림(1212), 및 소파(1214)의 위치 및 표면 레이더 특징들을 추출한다. 레이더 형상들은 룸의 각각의 타겟의 대략적인 형상, 표면 텍스처, 또는 (절대적인 또는 다른 타겟들에 상대적인) 위치를 표시할 수 있다.
[0099] 1106에서, 위치 데이터가 디바이스의 센서들로부터 수신된다. 위치 데이터는 방향 데이터, 관성 데이터, 모션 데이터, 지향성 데이터 등을 포함할 수 있다. 일부 경우들에서, 위치 데이터는, 레이더 스캐닝 또는 레이더 이미징을 위해 합성 개구 기술들을 구현하는데 유용하다. 대안적으로 또는 부가적으로, 디바이스의 다른 센서들은 공간의 환경을 표시하는 데이터를 제공할 수 있다. 예컨대, 음향 센서는, 공간에 존재하는 주변 잡음(예컨대, 팬 잡음 또는 기계 소음)을 식별하는데 유용한 데이터를 제공할 수 있다. 진행중인 예를 계속하면, 스마트-폰(102-3)의 가속도계(202)는, 사용자가 룸 전체에 걸쳐 이동할 때, 관성 및 방향 데이터를 센서 퓨전 엔진(110)에 제공한다.
[0100] 1108에서, 3D 레이더 특징들의 공간 관계는 위치 데이터에 기반하여 결정된다. 주목되는 바와 같이, 위치 데이터는, 레이더 센서가 관심 영역을 스캔할 수 있게 하는 합성 개구를 제공하기 위해 레버리지될 수 있다. 다시 말해서, 디바이스가 공간을 지나갈 때, 레이더 센서는 룸의 물리적 특징들을 다수의 3D 레이더 특징들로서 캡처할 수 있다. 이어서, 센서로부터 수신된 위치 데이터는, 다수의 3D 특징들 간의 공간 관계들 또는 이들 특징들이 3D 공간에 어떻게 피팅되는지를 결정하기 위해 사용될 수 있다. 본 예의 맥락에서, 콘텍스트 관리자(112)는 가속도계(202)의 관성 및 방향 데이터를 사용함으로써 룸의 타겟들 간의 공간 관계들을 결정한다.
[0101] 1110에서, 3D 맵의 일부는 3D 레이더 특징들 및 그의 공간 관계들에 기반하여 생성된다. 3D 맵은 레이더 특징들에 의해 캡처된 랜드마크들에 기반하여 공간 또는 룸의 일부에 대해 생성될 수 있다. 이들 랜드마크들은 공간의 식별가능한 물리적 특징들, 이를테면 가구, 공간의 기본 형상 및 지오메트리, 표면들의 반사율 등을 포함할 수 있다. 동작(1110)으로부터, 방법(1100)은, 공간의 3D 맵의 다른 부분을 생성하기 위한 동작(1102)으로 리턴하거나 또는 동작(1112)로 진행할 수 있다. 진행중인 예를 계속하면 그리고 센서 퓨전 엔진이 룸의 대부분을 스캔했다고 가정하면, 콘텍스트 관리자(112)는, 룸의 타겟들(1204 내지 1214)의 레이더 특징들 및/또는 룸의 전체 차원들에 기반하여 룸의 3D 맵의 다수의 부분들을 생성한다.
[0102] 1112에서, 3D 맵의 부분들은 공간의 3D 모델을 생성하기 위해 결합된다. 일부 경우들에서, 3D 맵의 부분들은 개개의 에지들을 오버랩함으로써 어셈블링되거나 메시될 수 있다. 다른 경우들에서, 3D 맵의 부분들은 사전에 획득된 위치 데이터에 기반하여 결합될 수 있다. 공간의 3D 맵은 레이더 데이터로부터 추출된 다수의 실용적인 3D 레이더 특징들에 의존하여 완전하거나 또는 부분적일 수 있다. 본 예의 맥락에서, 콘텍스트 관리자(112)는 거실 룸의 3D 모델을 제공하기 위해, 사전에 생성된 부분들을 메시한다.
[0103] 1114에서, 공간의 3D 모델은 공간의 콘텍스트와 연관된다. 이것은, 공간의 3D 콘텍스트 모델을 생성하는데 효과적일 수 있다. 콘텍스트는 임의의 적절한 타입의 콘텍스트, 이를테면 룸의 타입, 보안 레벨, 프라이버시 레벨, 디바이스 동작 모드 등일 수 있다. 일부 경우들에서, 콘텍스트는 사용자 정의되며, 이는, 사용자가 미리 정의된 콘텍스트들의 리스트로부터 선택하도록 촉진하는 것을 포함할 수 있다. 다른 경우들에서, 기계 학습 툴들은 맵핑 동작들을 구현하며, 공간의 물리적 특징들에 기반하여 콘텍스트를 할당할 수 있다. 진행중인 예를 계속하면, 콘텍스트 관리자(112)는, 텔레비전(1204) 및 소파(1214)의 존재에 기반하여, "거실 룸" 콘텍스트를 공간에 연관시킨다. 이러한 콘텍스트는, 영역이 사설이고, 보안 위험들이 낮으며, 텔레비전(1204)이 미디어 가능하고, 무선 또는 제스처-구동 제어 기능들을 통해 제어될 수 있다는 것을 표시한다. 예컨대, 스마트-폰(102-3) 상에서의 미디어 플레이백은 거실 룸으로의 진입 시에 텔레비전(1204)으로 전달될 수 있다.
[0104] 1116에서, 공간의 3D 콘텍스트 모델이 디바이스에 의해 저장된다. 3D 콘텍스트 모델은, 디바이스 또는 다른 디바이스들에 의한 액세스를 가능하게 하도록, 로컬 메모리에 저장되거나 클라우드에 업로딩될 수 있다. 일부 경우들에서, 3D 콘텍스트 모델을 저장하는 것은, 레이더 센서를 통한 공간의 후속적인 식별을 가능하게 한다. 예컨대, 디바이스는, 공간들 및 그와 연관된 콘텍스트들을 디바이스가 학습 및 기억할 수 있게 하는 3D 콘텍스트 모델들의 라이브러리를 유지할 수 있다. 본 예를 결론지으면, 콘텍스트 관리자(112)는 후속적인 액세스 및 디바이스 구성을 가능하게 하기 위해 거실 룸의 3D 콘텍스트 모델을 저장하며, 그 예가 본원에서 설명된다.
[0105] 도 13은 3D 콘텍스트 모델에 기반하여 디바이스의 콘텍스트 세팅들을 구성하기 위한 예시적인 방법을 예시하며, 방법은, 레이더 센서(120), 센서 퓨전 엔진(110), 또는 콘텍스트 관리자(112)에 의해 수행되는 동작들을 포함한다.
[0106] 1302에서, 관심 공간 또는 영역에 대한 레이더 데이터를 획득하기 위해 디바이스의 레이더 센서가 활성화된다. 레이더 센서는, 디바이스의 이동, 이를테면 디바이스가 그 공간 또는 영역 내로 이동한다는 것을 표시하는 관성 데이터 또는 GPS 데이터에 대한 응답으로 활성화될 수 있다. 일부 경우들에서, 레이더 센서는 디바이스가 사전에 연관되었던 알려진 디바이스들, 이를테면 무선 액세스 포인트들, 무선 기기들, 또는 공간 내의 다른 무선 디바이스들을 검출하는 것에 대한 응답으로 활성화된다.
[0107] 1304에서, 레이더 데이터로부터 3D 레이더 특징들이 추출된다. 3D 레이더 특징들은, 3D 레이더 특징들, 또는 3D 레이더 특징들을 구성하는 데 유용한 1D 및 2D 특징들의 조합을 포함할 수 있다. 3D 레이더 특징들은, 관심 공간 또는 영역의 물리적 양상들을 캡처한 레이더 반사 특징들, 모션 특징들, 또는 형상 특징들을 포함할 수 있다. 예컨대, 3D 레이더 특징들은, 공간 내의 타겟들, 이를테면 가구, 벽들, 기기들, 바닥 깔개들, 아키텍처 특징들 등에 대한 레인징, 위치, 또는 형상 정보를 포함할 수 있다.
[0108] 1306에서, 디바이스의 센서들로부터 위치 데이터가 수신된다. 위치 데이터는, 방향 데이터, 관성 데이터, 모션 데이터, 지향성 데이터 등을 포함할 수 있다. 일부 경우들에서, 위치 데이터는, 레이더 스캐닝 또는 레이더 이미징을 위한 합성 개구 기술들을 구현하는 데 유용하다. 대안적으로 또는 부가적으로, 디바이스의 다른 센서들이 공간의 환경을 표시하는 데이터를 제공할 수 있다. 예컨대, 음향 센서는, 공간에 존재하는 주변 잡음(예컨대, 팬 잡음 또는 기계 소음)을 식별하는 데 유용한 데이터를 제공할 수 있다.
[0109] 1308에서, 센서들에 의해 제공되는 위치 데이터에 기반하여 3D 레이더 특징들의 공간 관계가 결정된다. 언급된 바와 같이, 위치 데이터는, 레이더 센서가 관심 영역을 스캔할 수 있게 하는 합성 개구를 제공하도록 레버리지될 수 있다. 다시 말해서, 디바이스가 공간을 지나감에 따라, 레이더 센서는 다수의 3D 레이더 특징들로서 룸의 물리적 특징들을 캡처할 수 있다. 이어서, 센서로부터 수신된 위치 데이터는, 다수의 3D 특징들 간의 공간 관계들 또는 이러한 특징들이 3D 공간에서 어떻게 서로 피팅되는지를 결정하는 데 사용될 수 있다.
[0110] 1310에서, 3D 레이더 특징들 및 그 특징들의 공간 방향에 기반하여 공간의 3D 랜드마크들의 세트가 생성된다. 이러한 랜드마크들은, 공간의 식별가능한 물리적 특징들, 이를테면 가구, 공간의 기본 형상 및 지오메트리, 표면들의 반사율 등을 포함할 수 있다. 예컨대, 컨퍼런스 룸의 3D 랜드마크들은, 특정 형상의 다리들을 갖는 테이블, 및 천장으로부터 돌출된 마스트에 장착된 오버헤드 프로젝터를 포함할 수 있다.
[0111] 1312에서, 3D 랜드마크들의 세트가 알려진 3D 콘텍스트 모델들에 비교된다. 이것은, 알려진 3D 콘텍스트 모델에 기반하여 디바이스가 동작 중인 공간을 식별하는 데 효과적일 수 있다. 일부 경우들에서, 3D 랜드마크들의 세트가 3D 콘텍스트 모델의 것들에 대응할 때, 알려진 3D 콘텍스트 모델에 대한 매치가 결정된다. 가구의 이동 또는 교체와 같은 시간의 경과에 따른 변동성을 처리하기 위해, 매치는, 충분한 3D 랜드마크들이 미리 정의된 신뢰성 임계치를 충족시키도록 매칭할 때 결정될 수 있다. 그러한 경우들에서, 동적 랜드마크들이 모델 매칭 레이트들에 대해 가질 수 있는 영향을 최소화하기 위해, 룸 지오메트리 및 고정 아키텍처(예컨대, 계단들)를 포함할 수 있는 정적 3D 랜드마크들이 더 무겁게 가중될 수 있다.
[0112] 1314에서, 매칭하는 3D 콘텍스트 모델에 기반하여, 공간과 연관된 콘텍스트가 리트리브된다. 일단 공간에 대한 매치가 결정되면, 디바이스에 적용할 콘텍스트가 디바이스에 의해 액세스되거나 리트리브될 수 있다. 콘텍스트는, 프라이버시, 미팅, 약속, 또는 보안 콘텍스트와 같은 임의의 적절한 타입의 콘텍스트일 수 있다. 대안적으로 또는 부가적으로, 3D 콘텍스트 모델의 콘텍스트가 현재 디바이스 세팅들과 호환가능하지 않거나 오래된(out-of-date) 경우, 사용자는, 공간에 대한 콘텍스트를 선택하거나, 콘텍스트를 생성하거나, 또는 콘텍스트를 업데이트하도록 프롬프팅될 수 있다.
[0113] 1316에서, 공간과 연관된 콘텍스트에 기반하여 콘텍스트 세팅들이 구성된다. 구성된 콘텍스트 세팅들은, 임의의 적절한 타입의 세팅들, 이를테면, 링거 볼륨, 링거 모드, 디스플레이 모드들, 네트워크들 또는 다른 디바이스들에 대한 연결성 등을 포함할 수 있다. 추가로, 보안 또는 사설 콘텐츠의 디스플레이를 가능하게 하거나 제한하기 위해, 디바이스의 보안 세팅들 또는 프라이버시 세팅들이 구성될 수 있다.
[0114] 도 14는 콘텍스트의 변경에 대한 응답으로 콘텍스트 세팅들을 변경하기 위한 예시적인 방법을 예시하며, 방법은, 레이더 센서(120), 센서 퓨전 엔진(110), 또는 콘텍스트 관리자(112)에 의해 수행되는 동작들을 포함한다.
[0115] 1402에서, 관심 영역에 대한 레이더 데이터를 획득하기 위해 디바이스의 레이더 센서가 활성화된다. 레이더 센서는 연속하는 또는 지향성 레이더 필드를 방사할 수 있으며, 이러한 레이더 필드로부터, 영역 내의 타겟들에 의해 신호들이 반사된다. 영역 내의 타겟들은 임의의 적절한 타입의 오브젝트, 이를테면, 벽들, 가구, 윈도우들, 바닥 깔개들, 기기들, 룸 지오메트리 등을 포함할 수 있다. 예로서, 사용자(1502)가 태블릿 컴퓨터(102-4)에 의해 디스플레이되는 디지털 콘텐츠를 읽고 있는 도 15의 환경(1500)을 고려한다. 여기서, 콘텍스트 관리자(112)는, 태블릿 컴퓨터가 동작하고 있는 룸에 대한 레이더 데이터를 획득하기 위해, 태블릿 컴퓨터(102-4)의 레이더 센서(120)를 활성화시킨다.
[0116] 1404에서, 레이더 데이터로부터 레이더 특징들이 추출된다. 3D 레이더 특징들은, 3D 레이더 특징들, 또는 3D 레이더 특징들을 구성하는 데 유용한 1D 및 2D 특징들의 조합을 포함할 수 있다. 3D 레이더 특징들은, 관심 공간 또는 영역의 물리적 양상들을 캡처한 레이더 반사 특징들, 모션 특징들, 또는 형상 특징들을 포함할 수 있다. 예컨대, 3D 레이더 특징들은, 공간 내의 타겟들에 대한 레인징, 위치, 또는 형상 정보를 포함할 수 있다. 본 예의 맥락에서, 태블릿 컴퓨터(102-4)의 센서 퓨전 엔진(110)은, 환경(1500)의 거실 룸의 지오메트리 및 그 내부의 타겟들을 식별하는 데 유용한 레이더 특징들을 추출한다.
[0117] 선택적으로, 1406에서, 데이터는 디바이스의 센서로부터 수신된다. 일부 경우들에서, 센서 데이터는 공간에 대한 콘텍스트를 결정하는 데 유용하다. 예컨대, 음향 센서는 공간의 식별가능한 주변 잡음, 이를테면 분수의 흐르는 물 또는 팬 잡음의 특정 주파수와 연관된 데이터를 제공할 수 있다. 다른 경우들에서, 기기들 또는 전자 디바이스들은, 특정 공간에 대한 식별 데이터를 제공하기 위해 음향 센서들에 의해 검출될 수 있는 특정 와인(whine), 소음(hum), 또는 초음파 잡음을 방사할 수 있다.
[0118] 1408에서, 공간에 대한 콘텍스트는 적어도 레이더 특징들에 기반하여 결정된다. 일부 경우들에서, 디바이스에 대한 콘텍스트는 레이더 특징들로부터 유도된 기하학적 구조들 및 점유들에 기반하여 결정된다. 예컨대, 콘텍스트 관리자는 디바이스 둘레에 프라이버시 버블을 세팅하기 위해, 공간의 사이즈, 다른 점유자들의 수, 및 그러한 점유자들에 대한 거리들을 결정할 수 있다. 다른 경우들에서, 레이더 특징들의 랜드마크들의 세트는 알려진 3D 콘텍스트 모델들과 비교된다. 이는, 알려진 3D 콘텍스트 모델에 기반하여 디바이스가 동작하는 공간을 식별하는 데 효과적일 수 있다.
[0119] 알려진 것으로 설명될지라도, 3D 콘텍스트 모델들은 또한, 이를테면, 디바이스 위치(예컨대, GPS)에 기반하여, 디바이스에 액세스되거나 다운로드될 수 있다. 대안적으로 또는 부가적으로, 다른 타입들의 센서 데이터는 알려진 3D 콘텍스트 모델들의 센서 데이터와 비교될 수 있다. 예컨대, 디바이스에 의해 검출된 사운드들 및 무선 네트워크들은 알려진 3D 콘텍스트 모델들의 음향 및 네트워크 데이터와 비교될 수 있다. 진행중인 예를 계속하면, 태블릿 컴퓨터(102-4)의 콘텍스트 관리자(112)는 환경(1500)의 콘텍스트를 "거실 룸", 즉, 사설 준-보안 콘텍스트로 결정한다.
[0120] 1410에서, 디바이스의 콘텍스트 세팅들은 결정된 콘텍스트에 기반하여 구성된다. 구성된 콘텍스트 세팅들은 임의의 적절한 타입의 세팅, 이를테면, 링거 볼륨, 링거 모드, 디스플레이 모드들, 네트워크들 또는 다른 디바이스들에 대한 연결성 등을 포함할 수 있다. 또한, 디바이스의 보안 세팅들 또는 프라이버시 세팅들은 보안 또는 사설 콘텐츠의 디스플레이를 인에이블링하거나 제한하도록 구성될 수 있다. 본 예의 맥락에서, 알려지지 않은 사람(1504)이 룸에 진입하기 전에, 콘텍스트 관리자(112)는 태블릿 컴퓨터(102-4)의 디스플레이, 보안, 및 경고 세팅들을, 그러한 세팅들이 완전히 인에이블링되거나 개방된 사설 콘텍스트에 대해 구성한다고 가정한다.
[0121] 1412에서, 공간은 레이더 센서를 통해 액티비티에 대해 모니터링된다. 레이더 센서는, 반사된 신호들이 수신되는 연속하는 또는 간헐적인 레이더 필드를 제공할 수 있다. 일부 경우들에서, 레이더 센서는 반사된 신호들의 변경들에 대한 응답으로 레이더 필드에서 액티비티 또는 타겟들을 검출한다. 진행중인 예를 계속하면, 레이더 센서(120)는 콘텍스트의 변경을 표시할 수 있는 임의의 액티비티 또는 검출 이벤트들에 대해 환경(1500)을 모니터링한다.
[0122] 1414에서, 레이더 특징들은 공간에서 액티비티의 소스를 식별하기 위해 레이더 데이터로부터 추출된다. 이는 공간에서 타겟들을 식별하기 위해 검출, 모션, 또는 형상 레이더 특징들을 추출하는 것을 포함할 수 있다. 일부 경우들에서, 액티비티의 소스는, 공간을 떠나는 타겟, 이를테면, 룸을 떠나는 누군가이다. 다른 경우들에서, 액티비티의 소스는 공간에 진입하는 사람들 또는 오브젝트들을 포함할 수 있다. 본 예의 맥락에서, 알려지지 않은 사람(1504)이 룸에 진입하여 사용자(1502)에게 접근한다고 가정한다. 이에 대한 응답으로, 레이더 센서(120)는 알려지지 않은 사람(1504)의 식별을 가능하게 하기 위해 검출 및 형상 레이더 특징들(1506)을 제공한다.
[0123] 1416에서, 액티비티의 소스가 공간의 콘텍스트를 변경한다고 결정된다. 일부 경우들에서, 공간을 떠나는 다른 사람들은 사용자 프라이버시를 증가시키거나 또는 디바이스에 대한 잡음 제약들을 감소시키며, 그에 따라, 더-개방된 콘텍스트를 초래한다. 다른 경우들에서, 공간에 진입하는 또는 디바이스에 더 가까이 이동하는 사람들은 사용자 프라이버시를 감소시키거나 또는 디바이스 및 사용자에 대한 보안 우려들을 증가시킬 수 있다. 이러한 프라이버시의 감소 또는 보안에 대한 증가된 필요성에 따라, 디바이스의 콘텍스트는 더 많이 사설 및 보안 지향적이게 될 수 있다. 진행중인 예를 계속하면, 형상 레이더 특징들(1506)은, 표정 인식을 통해, 알려지지 않은 사람(1504)을 식별하기 위한 시도에서 사용된다. 여기서, 그 표정 인식이 실패하고, 그리고 콘텍스트 관리자(112)는 알려지지 않은 엔티티의 존재가 프라이버시 및 보안에 대해 공간의 콘텍스트를 변경한다는 것을 결정한다고 가정한다.
[0124] 1418에서, 디바이스의 콘텍스트 세팅들은 공간의 콘텍스트의 변경에 기반하여 변경된다. 콘텍스트의 변경에 대한 응답으로, 콘텍스트 변경들을 보상하기 위해 디바이스의 콘텍스트 세팅들이 변경될 수 있다. 디바이스의 콘텍스트가 프라이버시 또는 보안을 증가시킬 때, 콘텍스트 세팅들을 변경하는 것은, 이를테면, 디스플레이를 디밍하거나, 특정 애플리케이션들을 디스에이블링하거나, 디스플레이 편광에 영향을 미치거나, 디바이스의 무선 연결성을 제한하거나, 또는 오디오 플레이백 볼륨을 감소시킴으로써, 디바이스에 의해 노출되는 콘텐츠를 제한하는 것을 포함할 수 있다. 본 예를 결론지으면, 콘텍스트의 변경을 검출하는 것에 대한 응답으로, 콘텍스트 관리자(112)는, 알려지지 않은 사람이 태블릿의 콘텐츠를 파악할 수 없게 하기 위해, 이를테면, 보안 애플리케이션들을 폐쇄하거나, 경고들 및 디바이스 오디오의 볼륨을 감소시키거나, 또는 디스플레이되는 콘텐츠의 폰트 사이즈를 감소시킴으로써, 태블릿 컴퓨터(102-4)의 프라이버시 및 보안 세팅들을 증가시킨다.
예시적 컴퓨팅 시스템
[0125] 도 16은 레이더-사용가능 센서 퓨전을 구현하기 위해, 이전의 도 1-15를 참조하여 설명된 바와 같이, 임의의 타입의 클라이언트, 서버, 및/또는 컴퓨팅 디바이스로서 구현될 수 있는 예시적 컴퓨팅 시스템(1600)의 다양한 컴포넌트들을 예시한다.
[0126] 컴퓨팅 시스템(1600)은, 디바이스 데이터(1604)(예컨대, 수신된 데이터, 수신되고 있는 데이터, 브로드캐스트를 위해 스케줄링된 데이터, 데이터의 데이터 패킷들 등)의 유선 및/또는 무선 통신을 인에이블링하는 통신 디바이스들(1602)을 포함한다. 디바이스 데이터(1604) 또는 다른 디바이스 콘텐츠는 디바이스의 구성 세팅들, 디바이스 상에 저장된 미디어 콘텐츠, 및/또는 디바이스의 사용자와 연관된 정보(예컨대, 제스처를 수행하는 행위자(actor)의 아이덴티티)를 포함할 수 있다. 컴퓨팅 시스템(1600) 상에 저장된 미디어 콘텐츠는 임의의 타입의 오디오, 비디오, 및/또는 이미지 데이터를 포함할 수 있다. 컴퓨팅 시스템(1600)은 하나 또는 그 초과의 데이터 입력들(1606)을 포함하며, 이를 통해, 임의의 타입의 데이터, 미디어 콘텐츠, 및/또는 입력들, 이를테면, 인간 발언들, 레이더 필드와의 상호작용들, 사용자-선택가능 입력들(명시적 또는 묵시적), 메시지들, 뮤직, 텔레비전 미디어 콘텐츠, 레코딩된 비디오 콘텐츠, 및 임의의 콘텐츠 및/또는 데이터 소스로부터 수신된 임의의 다른 타입의 오디오, 비디오, 및/또는 이미지 데이터가 수신될 수 있다.
[0127] 컴퓨팅 시스템(1600)은 또한 통신 인터페이스들(1608)을 포함하는데, 이들은 직렬 및/또는 병렬 인터페이스, 무선 인터페이스, 임의의 타입의 네트워크 인터페이스, 모뎀 중 임의의 하나 또는 그 초과로서, 그리고 임의의 다른 타입의 통신 인터페이스로서 구현될 수 있다. 통신 인터페이스들(1608)은 컴퓨팅 시스템(1600)과 통신 네트워크 간의 연결 및/또는 통신 링크들을 제공하는데, 이들에 의해 다른 전자, 컴퓨팅 및 통신 디바이스들이 컴퓨팅 시스템(1600)과 데이터를 통신한다.
[0128] 컴퓨팅 시스템(1600)은 하나 또는 그 초과의 프로세서들(1610)(예컨대, 마이크로프로세서들, 제어기들 등 중 임의의 것)을 포함하는데, 이들은 컴퓨팅 시스템(1600)의 동작을 제어하도록 그리고 레이더-사용가능 센서 퓨전을 위한 또는 레이더-사용가능 센서 퓨전이 구현될 수 있는 기법들을 가능하게 하도록 다양한 컴퓨터-실행가능한 명령들을 프로세싱한다. 대안적으로 또는 추가적으로, 컴퓨팅 시스템(1600)은, 일반적으로 1612로 식별되는 프로세싱 및 제어 회로들과 관련하여 구현되는 하드웨어, 펌웨어, 또는 고정 로직 회로 중 임의의 하나 또는 이들의 조합으로 구현될 수 있다. 비록 도시되지 않을지라도, 컴퓨팅 시스템(1600)은 디바이스 내의 다양한 컴포넌트들을 커플링하는 시스템 버스 또는 데이터 전달 시스템을 포함할 수 있다. 시스템 버스는 상이한 버스 구조들, 이를테면 메모리 버스 또는 메모리 제어기, 주변 장치 버스, 범용 직렬 버스, 및/또는 다양한 버스 아키텍처들 중 임의의 버스 아키텍처를 활용하는 프로세서 또는 로컬 버스 중 임의의 하나 또는 이들의 조합을 포함할 수 있다.
[0129] 컴퓨팅 시스템(1600)은 또한 컴퓨터-판독가능 매체(1614), 이를테면 영구적 그리고/또는 비-일시적 데이터 저장(즉, 단순 신호 송신과는 대조적으로)을 인에이블링하는 하나 또는 그 초과의 메모리 디바이스들을 포함하며, 그 예들은 RAM(random access memory), 비-휘발성 메모리(예컨대, ROM(read-only memory), 플래시 메모리, EPROM, EEPROM 등 중 임의의 하나 또는 그 초과) 및 디스크 저장 디바이스를 포함한다. 디스크 저장 디바이스는 임의의 타입의 자기 또는 광학 저장 디바이스, 이를테면 하드 디스크 드라이브, 레코딩 가능한 그리고/또는 재기록가능한 CD(compact disc), 임의의 타입의 DVD(digital versatile disc) 등으로서 구현될 수 있다. 컴퓨팅 시스템(1600)은 또한 대용량 저장 매체 디바이스(저장 매체)(1616)를 포함할 수 있다.
[0130] 컴퓨터-판독가능 매체(1614)는 디바이스 데이터(1604)를 저장하기 위한 데이터 저장 메커니즘들뿐만 아니라, 다양한 디바이스 애플리케이션들(1618) 및 컴퓨팅 시스템(1600)의 동작 양상들에 관련된 임의의 다른 타입들의 정보 및/또는 데이터를 제공한다. 예컨대, 운영 체제(1620)는 컴퓨터-판독가능 매체(1614)에 컴퓨터 애플리케이션으로서 유지되며 프로세서들(1610) 상에서 실행될 수 있다. 디바이스 애플리케이션들(1618)은 디바이스 관리자, 이를테면 임의의 형태의 제어 애플리케이션, 소프트웨어 애플리케이션, 신호-프로세싱 및 제어 모듈, 특정 디바이스에 고유한 코드, 추상 모듈 또는 제스처 모듈 등을 포함할 수 있다. 디바이스 애플리케이션들(1618)은 또한 레이더-사용가능 센서 퓨전을 구현하기 위한 시스템 컴포넌트들, 엔진들 또는 관리자들, 이를테면 센서-기반 애플리케이션들(108), 센서 퓨전 엔진(110) 및 콘텍스트 관리자(112)를 포함한다.
[0131] 컴퓨팅 시스템(1600)은 또한 레이더 시스템들 또는 센서들 중 하나 또는 그 초과, 이를테면 레이더-방사 엘리먼트(122), 레이더-수신 엘리먼트 및 안테나들(124)을 갖는 레이더 센서 칩(1622)을 포함하거나 이에 액세스할 수 있다. 도시되지 않았지만, 센서 퓨전 엔진(110) 또는 콘텍스트 관리자(112)의 하나 또는 그 초과의 엘리먼트들은 전체적으로 또는 부분적으로, 하드웨어 또는 펌웨어를 통해 구현될 수 있다.
결론
[0132] 레이더-사용가능 센서 퓨전을 사용하는 기법들 및 레이더-사용가능 센서 퓨전을 포함하는 장치들이 특징들 및/또는 방법들에 특정적인 언어로 설명되었을지라도, 첨부된 청구항들의 요지는 설명된 특정 특징들 또는 방법들로 반드시 제한되는 것은 아니라는 것이 이해되어야 한다. 그보다는, 특정 특징들 및 방법들은 레이더-사용가능 센서 퓨전이 구현될 수 있는 예시적인 방식들로서 개시된다.

Claims (20)

  1. 레이더-사용가능 센서 퓨전을 위한 컴퓨터-구현 방법으로서,
    디바이스의 레이더-방사 엘리먼트를 통해 레이더 필드를 제공하는 단계;
    상기 디바이스의 레이더-수신 엘리먼트를 통해, 상기 레이더 필드의 타겟에 대응하는 하나 또는 그 초과의 반사 신호들을 수신하는 단계;
    레이더 데이터를 제공하기 위하여, 상기 하나 또는 그 초과의 반사 신호들을 변환하는 단계;
    상기 타겟에 관한 공간 정보를 상기 레이더 데이터로부터 추출하는 단계;
    다수의 개개의 타입들의 환경 변화들을 감지하기 위해 상기 디바이스의 다수의 센서들로부터 하나 또는 그 초과의 센서들을, 상기 공간 정보의 타입에 기반하여, 선택하는 단계;
    상기 공간 정보와 연관된 보충 센서 데이터를 제공하기 위하여 상기 디바이스의 상기 선택된 하나 또는 그 초과의 센서들을 활성화하는 단계; 및
    상기 공간 정보 및 상기 보충 센서 데이터를 사용하여 상기 타겟에 관한 상세한 공간 정보를 검출하는 센서-기반 애플리케이션에 상기 공간 정보 및 상기 보충 센서 데이터를 제공하는 단계를 포함하는,
    레이더-사용가능 센서 퓨전을 위한 컴퓨터-구현 방법.
  2. 제1 항에 있어서,
    상기 공간 정보는 타겟 존재, 타겟 반사, 타겟 모션, 타겟 위치 또는 타겟 형상 중 하나를 포함하는,
    레이더-사용가능 센서 퓨전을 위한 컴퓨터-구현 방법.
  3. 제2 항에 있어서,
    상기 공간 정보는 타겟들의 수, 총 반사된 에너지, 이동 에너지, 1차원 속도, 1차원 속도 분산(velocity dispersion), 3차원 공간 좌표들 또는 1차원 공간 분산(spatial dispersion)을 표시하는,
    레이더-사용가능 센서 퓨전을 위한 컴퓨터-구현 방법.
  4. 제1 항에 있어서,
    상기 하나 또는 그 초과의 반사 신호들을 변환하는 단계는 레인지-도플러 변환, 레인지 프로파일 변환, 마이크로-도플러 변환, I/Q 변환 또는 스펙트로그램 변환 중 하나를 수행하는 단계를 포함하는,
    레이더-사용가능 센서 퓨전을 위한 컴퓨터-구현 방법.
  5. 제1 항에 있어서,
    상기 센서-기반 애플리케이션은 근접성 검출, 사용자 검출, 사용자 추적, 액티비티 검출, 표정 인식, 호흡 검출, 또는 모션 시그니처 식별을 포함하는,
    레이더-사용가능 센서 퓨전을 위한 컴퓨터-구현 방법.
  6. 제1 항에 있어서,
    상기 다수의 센서들은 가속도계, 자이로스코프, 홀 효과 센서, 자기력계, 온도 센서, 마이크로폰, 정전 용량형 센서, 근접성 센서, 주변 광 센서, RGB(red-green-blue) 이미지 센서, 적외선 센서 또는 깊이 센서 중 둘 또는 그 초과를 포함하는,
    레이더-사용가능 센서 퓨전을 위한 컴퓨터-구현 방법.
  7. 제1 항에 있어서,
    상기 상세한 공간 정보를 검출하는 것은,
    상기 공간 정보의 위치 정확도를 증가시키는 것;
    상기 공간 정보에 기인한 허위 포지티브 검출을 완화시키는 것;
    상기 공간 정보의 공간 해상도를 증가시키는 것;
    상기 공간 정보의 표면 해상도를 증가시키는 것; 또는
    상기 공간 정보의 분류 정밀도를 개선시키는 것을 포함하는,
    레이더-사용가능 센서 퓨전을 위한 컴퓨터-구현 방법.
  8. 제1 항에 있어서,
    상기 디바이스의 레이더 센서는 상기 레이더-방사 엘리먼트 및 레이더-수신 엘리먼트를 포함하며, 상기 레이더 센서는 활성화되는 상기 선택된 하나 또는 그 초과의 센서들보다 더 적은 전력을 소비하며, 상기 레이더 센서는 상기 하나 또는 그 초과의 반사 신호들의 변경이 검출될 때까지 상기 선택된 하나 또는 그 초과의 센서들이 저전력 상태에 있는 동안 동작하는,
    레이더-사용가능 센서 퓨전을 위한 컴퓨터-구현 방법.
  9. 레이더-사용가능 센서 퓨전을 위한 장치로서,
    하나 또는 그 초과의 컴퓨터 프로세서들;
    레이더 센서 ― 상기 레이더 센서는,
    레이더 필드를 제공하도록 구성된 레이더-방사 엘리먼트, 및
    상기 레이더 필드에 대응하는 하나 또는 그 초과의 반사 신호들을 수신하도록 구성된 레이더-수신 엘리먼트를 포함함 ―;
    상기 장치의 다수의 개개의 타입들의 환경 변화들을 감지하도록 구성된 다수의 센서들; 및
    명령들이 저장된 하나 또는 그 초과의 컴퓨터-판독가능 저장 매체를 포함하며,
    상기 명령들은, 상기 하나 또는 그 초과의 컴퓨터 프로세서들에 의한 실행에 대한 응답으로, 센서 퓨전 엔진이:
    디바이스의 레이더-방사 엘리먼트를 통해 레이더 필드를 제공하며;
    상기 디바이스의 레이더-수신 엘리먼트를 통해, 상기 레이더 필드의 타겟에 대응하는 하나 또는 그 초과의 반사 신호들을 수신하며;
    레이더 데이터를 제공하기 위하여, 상기 하나 또는 그 초과의 반사 신호들을 변환하며;
    상기 타겟에 관한 공간 정보를 상기 레이더 데이터부터 추출하며;
    보충 센서 데이터를 제공하도록 활성화할, 상기 다수의 센서들로부터의 하나 또는 그 초과의 센서들을, 상기 공간 정보의 타입에 기반하여, 선택하며;
    상기 공간 정보에 대한 보충 센서 데이터를 제공하기 위하여 상기 공간 정보에 기반하여 상기 디바이스의 상기 선택된 하나 또는 그 초과의 센서들을 활성화하며; 그리고
    상기 공간 정보 및 상기 보충 센서 데이터를 사용하여 상기 타겟에 관한 상세한 공간 정보를 검출하는 센서-기반 애플리케이션에 상기 공간 정보를 제공하도록 구현하는,
    장치.
  10. 삭제
  11. 제9 항에 있어서,
    상기 환경 변화를 감지하도록 구성된 상기 다수의 센서들은 가속도계, 자이로스코프, 홀 효과 센서, 자기력계, 온도 센서, 마이크로폰, 정전 용량형 센서, 근접성 센서, 주변 광 센서, RGB(red-green-blue) 이미지 센서, 적외선 센서 또는 깊이 센서 중 둘 또는 그 초과를 포함하는,
    장치.
  12. 제9 항에 있어서,
    상기 공간 정보는 상기 레이더 필드에서의 타겟들의 수, 총 반사된 에너지, 이동 에너지, 1차원 속도, 1차원 속도 분산, 3차원 공간 좌표들 또는 1차원 공간 분산을 표시하는,
    장치.
  13. 제9 항에 있어서,
    상기 레이더 센서는 안테나 어레이를 더 포함하며;
    상기 안테나 어레이를 통해, 상기 레이더-방사 엘리먼트는 상기 레이더 필드를 제공하며, 상기 레이더-수신 엘리먼트는 상기 하나 또는 그 초과의 반사 신호들을 수신하는,
    장치.
  14. 제13 항에 있어서,
    상기 안테나 어레이는 상기 레이더-방사 엘리먼트에 직접 커플링된 적어도 2개의 안테나들 및 상기 레이더-수신 엘리먼트에 직접 커플링된 적어도 2개의 안테나들을 포함하는,
    장치.
  15. 제9 항에 있어서,
    상기 장치는 스마트-폰, 스마트-안경, 스마트-시계, 태블릿 컴퓨터, 랩톱 컴퓨터, 셋톱 박스, 스마트-기기, 홈 자동화 제어기 또는 텔레비전으로서 구현되는,
    장치.
  16. 레이더-사용가능 센서 퓨전을 위한 시스템-온-칩으로서,
    레이더 필드를 제공하도록 구성된 레이더-방사 엘리먼트;
    반사 신호들을 수신하도록 구성된 레이더-수신 엘리먼트;
    안테나 어레이 ― 상기 레이더 필드가 상기 안테나 어레이를 통해 제공되며 상기 반사 신호들이 상기 안테나 어레이를 통해 수신됨 ―;
    다수의 센서들과의 통신을 가능하게(enable) 하도록 구성된 데이터 인터페이스; 및
    명령들이 저장된 컴퓨터-판독가능 저장 매체를 포함하며,
    상기 명령들은, 컴퓨터 프로세서에 의한 실행에 대한 응답으로, 센서 퓨전 엔진으로 하여금:
    상기 레이더-방사 엘리먼트가 레이더 필드를 제공하게 하며;
    상기 레이더 필드에 대응하는 상기 반사 신호들 중 하나 또는 그 초과를 상기 레이더-수신 엘리먼트를 통해 수신하며;
    레이더 데이터를 제공하기 위하여, 상기 하나 또는 그 초과의 반사 신호들을 변환하며;
    상기 레이더 데이터를 상기 시스템-온-칩을 둘러싼 환경에 관한 공간 정보로 분석(resolve)하며;
    다수의 개개의 타입들의 환경 변화들을 감지하기 위해 상기 다수의 센서들로부터 하나 또는 그 초과의 센서들을, 상기 공간 정보의 타입에 기반하여, 선택하며;
    상기 선택된 하나 또는 그 초과의 센서들로부터, 환경 변화를 표시하는 센서 데이터를 수신하며; 그리고
    상기 하나 또는 그 초과의 센서들로부터의 상기 공간 정보 및 보충 센서 데이터를 사용하여 상기 환경에 관한 상세한 공간 정보를 검출하는 센서-기반 애플리케이션에 상기 공간 정보를 제공시키도록 구현하는,
    레이더-사용가능 센서 퓨전을 위한 시스템-온-칩.
  17. 제16 항에 있어서,
    상기 공간 정보는 타겟 존재, 타겟 반사, 타겟 모션, 타겟 위치 또는 타겟 형상 중 하나를 포함하는,
    레이더-사용가능 센서 퓨전을 위한 시스템-온-칩.
  18. 제16 항에 있어서,
    상기 다수의 센서들은 가속도계, 자이로스코프, 홀 효과 센서, 자기력계, 온도 센서, 마이크로폰, 정전 용량형 센서, 근접성 센서, 주변 광 센서, RGB(red-green-blue) 이미지 센서, 적외선 센서 또는 깊이 센서 중 하나를 포함하는,
    레이더-사용가능 센서 퓨전을 위한 시스템-온-칩.
  19. 제16 항에 있어서,
    상기 안테나 어레이는 상기 레이더-방사 엘리먼트에 동작가능하게 연결된 적어도 2개의 온-칩 안테나들 및 상기 레이더-수신 엘리먼트에 동작가능하게 연결된 적어도 2개의 온-칩 안테나들을 포함하는,
    레이더-사용가능 센서 퓨전을 위한 시스템-온-칩.
  20. 제19 항에 있어서,
    레이더 필드를 제공하도록 구성된 상기 레이더-방사 엘리먼트, 상기 레이더-수신 엘리먼트 및 안테나 어레이는 레이더 데이터의 적어도 4개의 채널들로 변환하기에 적절한 반사된 신호들을 제공하도록 추가로 구성되는,
    레이더-사용가능 센서 퓨전을 위한 시스템-온-칩.
KR1020187004283A 2015-10-06 2016-10-06 레이더-사용가능 센서 퓨전 KR102245190B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020217011901A KR102352236B1 (ko) 2015-10-06 2016-10-06 레이더-사용가능 센서 퓨전

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562237975P 2015-10-06 2015-10-06
US62/237,975 2015-10-06
US15/286,512 2016-10-05
US15/286,512 US10401490B2 (en) 2015-10-06 2016-10-05 Radar-enabled sensor fusion
PCT/US2016/055671 WO2017062566A1 (en) 2015-10-06 2016-10-06 Radar-enabled sensor fusion

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020217011901A Division KR102352236B1 (ko) 2015-10-06 2016-10-06 레이더-사용가능 센서 퓨전

Publications (2)

Publication Number Publication Date
KR20180030123A KR20180030123A (ko) 2018-03-21
KR102245190B1 true KR102245190B1 (ko) 2021-04-26

Family

ID=58446760

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020217011901A KR102352236B1 (ko) 2015-10-06 2016-10-06 레이더-사용가능 센서 퓨전
KR1020227001176A KR102377488B1 (ko) 2015-10-06 2016-10-06 레이더-사용가능 센서 퓨전
KR1020187004283A KR102245190B1 (ko) 2015-10-06 2016-10-06 레이더-사용가능 센서 퓨전

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020217011901A KR102352236B1 (ko) 2015-10-06 2016-10-06 레이더-사용가능 센서 퓨전
KR1020227001176A KR102377488B1 (ko) 2015-10-06 2016-10-06 레이더-사용가능 센서 퓨전

Country Status (6)

Country Link
US (26) US10817065B1 (ko)
EP (1) EP3359976A1 (ko)
JP (3) JP6694053B2 (ko)
KR (3) KR102352236B1 (ko)
CN (2) CN113655471B (ko)
WO (1) WO2017062566A1 (ko)

Families Citing this family (202)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6021189B2 (ja) 2011-02-21 2016-11-09 トランスロボティックス,インク. 距離および/または移動を感知するためのシステムおよび方法
WO2014052329A1 (en) * 2012-09-25 2014-04-03 Scoot Networks, Inc. Systems and methods for regulating vehicle access
WO2014055755A1 (en) 2012-10-05 2014-04-10 TransRobotics, Inc. Systems and methods for high resolution distance sensing and applications
US9575560B2 (en) 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
US9921660B2 (en) 2014-08-07 2018-03-20 Google Llc Radar-based gesture recognition
US9811164B2 (en) 2014-08-07 2017-11-07 Google Inc. Radar-based gesture sensing and data transmission
US9588625B2 (en) 2014-08-15 2017-03-07 Google Inc. Interactive textiles
US10268321B2 (en) 2014-08-15 2019-04-23 Google Llc Interactive textiles within hard objects
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
US9600080B2 (en) 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition
DE102015201317A1 (de) * 2015-01-27 2016-07-28 Bayerische Motoren Werke Aktiengesellschaft Vermessen einer Abmessung auf einer Oberfläche
US10016162B1 (en) 2015-03-23 2018-07-10 Google Llc In-ear health monitoring
US9983747B2 (en) 2015-03-26 2018-05-29 Google Llc Two-layer interactive textiles
EP3289432B1 (en) 2015-04-30 2019-06-12 Google LLC Rf-based micro-motion tracking for gesture tracking and recognition
CN107466389B (zh) 2015-04-30 2021-02-12 谷歌有限责任公司 用于确定类型不可知的rf信号表示的方法和装置
EP3289434A1 (en) 2015-04-30 2018-03-07 Google LLC Wide-field radar-based gesture recognition
US9693592B2 (en) 2015-05-27 2017-07-04 Google Inc. Attaching electronic components to interactive textiles
US10088908B1 (en) 2015-05-27 2018-10-02 Google Llc Gesture detection and interactions
US11906659B2 (en) * 2015-07-17 2024-02-20 Origin Wireless, Inc. Method, apparatus, and system for wireless micro motion monitoring
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
WO2017079484A1 (en) 2015-11-04 2017-05-11 Google Inc. Connectors for connecting electronics embedded in garments to external devices
CN105938399B (zh) * 2015-12-04 2019-04-12 深圳大学 基于声学的智能设备的文本输入识别方法
US10492302B2 (en) 2016-05-03 2019-11-26 Google Llc Connecting an electronic component to an interactive textile
US11003345B2 (en) 2016-05-16 2021-05-11 Google Llc Control-article-based control of a user interface
US10285456B2 (en) 2016-05-16 2019-05-14 Google Llc Interactive fabric
US10175781B2 (en) 2016-05-16 2019-01-08 Google Llc Interactive object with multiple electronics modules
EP3267220A1 (en) * 2016-07-08 2018-01-10 Autoliv Development AB A vehicle radar system
US10934764B2 (en) 2016-09-08 2021-03-02 Magna Closures Inc. Radar detection system for non-contact human activation of powered closure member
US11067667B2 (en) 2016-09-08 2021-07-20 Magna Closures Inc. Radar detection system for non-contact human activation of powered closure member
US10572024B1 (en) * 2016-09-28 2020-02-25 Facebook Technologies, Llc Hand tracking using an ultrasound sensor on a head-mounted display
US11380118B2 (en) * 2016-11-21 2022-07-05 George Shaker System and method for sensing with millimeter waves
US10579150B2 (en) 2016-12-05 2020-03-03 Google Llc Concurrent detection of absolute distance and relative movement for sensing action gestures
US10466772B2 (en) * 2017-01-09 2019-11-05 Infineon Technologies Ag System and method of gesture detection for a remote device
US11243293B2 (en) * 2017-02-07 2022-02-08 Samsung Electronics Company, Ltd. Radar-based system for sensing touch and in-the-air interactions
US11435739B2 (en) 2017-02-08 2022-09-06 L. Samuel A Kassatly Interface and method for controlling the operation of an autonomously travelling object
US11048407B1 (en) 2017-02-08 2021-06-29 Michelle M Kassatly Interface and method for self-correcting a travel path of a physical object
DE102018202343A1 (de) * 2017-02-17 2018-08-23 Magna Closures Inc. Kraft-schwenktür mit virtual-handgriff -gestensteuerung
US11867833B2 (en) * 2017-03-01 2024-01-09 The University Court Of The University Of St Andrews Classification method and device
US10684693B2 (en) * 2017-03-02 2020-06-16 Samsung Electronics Co., Ltd. Method for recognizing a gesture and an electronic device thereof
WO2018165485A1 (en) * 2017-03-08 2018-09-13 Praesidium, Inc. Home occupant detection and monitoring system
US11918330B2 (en) 2017-03-08 2024-03-05 Praesidium, Inc. Home occupant detection and monitoring system
WO2018183546A1 (en) * 2017-03-28 2018-10-04 Sri International Identification system for subject or activity identification using range and velocity data
CN110476158A (zh) * 2017-03-28 2019-11-19 日本电气株式会社 数据分析设备、数据分析方法和数据分析程序
US10551935B2 (en) * 2017-04-07 2020-02-04 University Of South Carolina Wearable computing device featuring machine-learning-based smoking detection
US10914834B2 (en) * 2017-05-10 2021-02-09 Google Llc Low-power radar
US10795009B2 (en) * 2017-05-31 2020-10-06 Google Llc Digital beamforming for radar sensing using wireless communication chipset
US10782390B2 (en) 2017-05-31 2020-09-22 Google Llc Full-duplex operation for radar sensing using wireless communication chipset
US10754005B2 (en) 2017-05-31 2020-08-25 Google Llc Radar modulation for radar sensing using a wireless communication chipset
US20210103031A1 (en) * 2017-06-27 2021-04-08 Intel Corporation Gesture recognition radar systems and methods
EP3431002B1 (en) * 2017-07-20 2021-11-03 Nokia Technologies Oy Rf based monitoring of user activity
US11030289B2 (en) * 2017-07-31 2021-06-08 Stmicroelectronics, Inc. Human presence detection
US11845440B2 (en) * 2017-08-02 2023-12-19 Red Bend Ltd. Contactless detection and monitoring system of vital signs of vehicle occupants
US11079289B2 (en) 2017-08-18 2021-08-03 Google Llc Radar-based force sensing
WO2019117833A2 (en) * 2017-08-25 2019-06-20 Radarsan Radar Teknolojileri San Tic A.S A modular electronic control system
EP3454079B1 (en) * 2017-09-12 2023-11-01 Aptiv Technologies Limited Method to determine the suitablility of a radar target as a positional landmark
US10677905B2 (en) * 2017-09-26 2020-06-09 Infineon Technologies Ag System and method for occupancy detection using a millimeter-wave radar sensor
CN107895139B (zh) * 2017-10-19 2021-09-21 金陵科技学院 一种基于多特征融合的sar图像目标识别方法
US10641888B2 (en) 2017-11-06 2020-05-05 Veoneer Us Inc. Cued automobile sensor fusion
US10474934B1 (en) * 2017-11-26 2019-11-12 Jasmin Cosic Machine learning for computing enabled systems and/or devices
US10725161B2 (en) 2017-12-15 2020-07-28 Google Llc Seamless authentication using radar
US10935651B2 (en) 2017-12-15 2021-03-02 Google Llc Radar angular ambiguity resolution
JP6870607B2 (ja) * 2017-12-28 2021-05-12 トヨタ自動車株式会社 自動運転システム
US10423964B2 (en) * 2017-12-29 2019-09-24 Scott Kimmel User controlled event record system
US11167771B2 (en) * 2018-01-05 2021-11-09 Magna Mirrors Of America, Inc. Vehicular gesture monitoring system
CN110018522B (zh) * 2018-01-09 2023-09-01 松下知识产权经营株式会社 推定装置及推定方法
DE102018200814B3 (de) * 2018-01-18 2019-07-18 Audi Ag Verfahren zum Betrieb eines zur vollständig automatischen Führung eines Kraftfahrzeugs ausgebildeten Fahrzeugführungssystems des Kraftfahrzeugs und Kraftfahrzeug
US11140813B1 (en) * 2018-01-24 2021-10-12 Scythe Robotics, Inc. Moisture and vegetative health mapping
KR102116604B1 (ko) * 2018-01-26 2020-05-28 한양대학교 산학협력단 레이더를 이용한 제스처 인식 장치 및 방법
CN110113468B (zh) * 2018-02-01 2021-02-12 中兴通讯股份有限公司 一种状态检测装置和方法
US20190244062A1 (en) * 2018-02-04 2019-08-08 KaiKuTek Inc. Gesture recognition method, gesture recognition system, and performing device therefore
US10432779B2 (en) * 2018-02-23 2019-10-01 Motorola Mobility Llc Communication session modifications based on a proximity context
US11550046B2 (en) * 2018-02-26 2023-01-10 Infineon Technologies Ag System and method for a voice-controllable apparatus
US11169251B2 (en) 2018-03-28 2021-11-09 Qualcomm Incorporated Proximity detection using multiple power levels
CN111433627B (zh) 2018-04-05 2023-09-22 谷歌有限责任公司 使用机器学习执行角估计的基于智能设备的雷达系统
US11465557B2 (en) * 2018-04-06 2022-10-11 Magna Closures Inc. Vehicle latch with integrated radar module
EP3553551B1 (en) * 2018-04-10 2022-06-01 Aptiv Technologies Limited Method for the recognition of an object
EP3553559B1 (en) 2018-04-11 2022-06-01 Aptiv Technologies Limited Method for the recognition of objects
EP3553552B1 (en) 2018-04-11 2022-05-25 Aptiv Technologies Limited Method for the recognition of a moving pedestrian
WO2019204144A1 (en) 2018-04-16 2019-10-24 Bird Rides, Inc. On-demand rental of electric vehicles
US10713343B2 (en) * 2018-05-10 2020-07-14 Lenovo (Singapore) Pte. Ltd. Methods, devices and systems for authenticated access to electronic device in a closed configuration
US11391817B2 (en) 2018-05-11 2022-07-19 Qualcomm Incorporated Radio frequency (RF) object detection using radar and machine learning
US10772511B2 (en) * 2018-05-16 2020-09-15 Qualcomm Incorporated Motion sensor using cross coupling
US10802133B2 (en) * 2018-05-17 2020-10-13 Infineon Technologies Ag Diverse sensing using different types of sensors
KR102511292B1 (ko) 2018-07-11 2023-03-17 삼성전자주식회사 전자 장치의 객체 인증 장치 및 방법
GB2576213A (en) * 2018-08-10 2020-02-12 Sony Corp A method for mapping an object to a location in virtual space
US10794997B2 (en) * 2018-08-21 2020-10-06 Google Llc Smartphone-based power-efficient radar processing and memory provisioning for detecting gestures
US10890653B2 (en) * 2018-08-22 2021-01-12 Google Llc Radar-based gesture enhancement for voice interfaces
US10770035B2 (en) * 2018-08-22 2020-09-08 Google Llc Smartphone-based radar system for facilitating awareness of user presence and orientation
US10698603B2 (en) 2018-08-24 2020-06-30 Google Llc Smartphone-based radar system facilitating ease and accuracy of user interactions with displayed objects in an augmented-reality interface
US20200082014A1 (en) * 2018-09-12 2020-03-12 Veoneer Us, Inc. Systems and methods for remote object classification
KR102535839B1 (ko) * 2018-09-14 2023-05-24 삼성전자주식회사 안테나 어레이를 이용하여 외부 객체를 감지하는 전자 장치 및 그의 동작 방법
IT201800009299A1 (it) * 2018-10-09 2020-04-09 Cover Sistemi Srl Un metodo di regolazione di uno o piu’ dispositivi ad uso domestico o industriale
US10536156B1 (en) * 2018-10-16 2020-01-14 Microchip Technology Incorporated Analog-to-digital converter controllers including configurable contexts
US10788880B2 (en) * 2018-10-22 2020-09-29 Google Llc Smartphone-based radar system for determining user intention in a lower-power mode
KR20210141440A (ko) * 2018-10-25 2021-11-23 트랜스로보틱스, 인크. 기회적 합성 개구 레이더를 위한 기술
EP3647910A1 (en) * 2018-10-30 2020-05-06 Infineon Technologies AG An improved apparatus for user interaction
US10761611B2 (en) * 2018-11-13 2020-09-01 Google Llc Radar-image shaper for radar-based applications
US11406892B2 (en) * 2018-12-04 2022-08-09 Sony Interactive Entertainment Inc. Information processing apparatus
US11310226B2 (en) * 2018-12-19 2022-04-19 Paypal, Inc. Gesture and motion detection using a device radar component for user authentication
US11327155B2 (en) 2018-12-21 2022-05-10 Robert Bosch Gmbh Radar sensor misalignment detection for a vehicle
US11748903B2 (en) * 2019-01-02 2023-09-05 Zebra Technologies Corporation System and method for robotic object detection using a convolutional neural network
KR102140045B1 (ko) * 2019-01-10 2020-07-31 세종대학교 산학협력단 미러 패딩을 이용한 손 동작 인식 장치 및 그 방법
CN111507361B (zh) * 2019-01-30 2023-11-21 富士通株式会社 基于微波雷达的动作识别装置、方法及系统
US11226406B1 (en) * 2019-02-07 2022-01-18 Facebook Technologies, Llc Devices, systems, and methods for radar-based artificial reality tracking
US11626010B2 (en) * 2019-02-28 2023-04-11 Nortek Security & Control Llc Dynamic partition of a security system
CN110018470A (zh) * 2019-03-01 2019-07-16 北京纵目安驰智能科技有限公司 基于多传感器前融合的实例标注方法、模型、终端和存储介质
US11555915B2 (en) * 2019-03-01 2023-01-17 Samsung Electronics Co., Ltd. Determining relevant signals using multi-dimensional radar signals
US20220146662A1 (en) * 2019-03-12 2022-05-12 Sony Group Corporation Information processing apparatus and information processing method
US11017209B2 (en) * 2019-03-15 2021-05-25 Samsung Electronics Co., Ltd. Millimeter wave radar and camera fusion based face authentication system
US11550031B2 (en) 2019-03-18 2023-01-10 Samsung Electronics Co., Ltd. Method and apparatus for biometric authentication using face radar signal
US10643420B1 (en) 2019-03-20 2020-05-05 Capital One Services, Llc Contextual tapping engine
US11734401B1 (en) * 2019-03-21 2023-08-22 United Services Automobile Association (Usaa) Environment based authentication
KR102021531B1 (ko) * 2019-03-28 2019-11-04 세종대학교 산학협력단 연속파 레이더를 이용한 미세 손 동작 인식 장치 및 그 방법
WO2020193733A1 (en) * 2019-03-28 2020-10-01 Ams Ag Optical sensor having directional sensitivity
US11703593B2 (en) 2019-04-04 2023-07-18 TransRobotics, Inc. Technologies for acting based on object tracking
US11715228B2 (en) 2019-04-04 2023-08-01 Battelle Memorial Institute Imaging systems and related methods including radar imaging with moving arrays or moving targets
US11853472B2 (en) * 2019-04-05 2023-12-26 Hewlett-Packard Development Company, L.P. Modify audio based on physiological observations
CN110034375A (zh) * 2019-04-19 2019-07-19 Oppo广东移动通信有限公司 天线模组及电子设备
US11442550B2 (en) * 2019-05-06 2022-09-13 Samsung Electronics Co., Ltd. Methods for gesture recognition and control
BR112021019115A2 (pt) 2019-05-20 2021-11-30 Google Llc Sistema de radar baseado em dispositivo móvel para fornecer uma interface multimodo e método para o mesmo
WO2020256692A1 (en) 2019-06-17 2020-12-24 Google Llc Mobile device-based radar system for applying different power modes to a multi-mode interface
CN113924568A (zh) * 2019-06-26 2022-01-11 谷歌有限责任公司 基于雷达的认证状态反馈
GB2585074B (en) * 2019-06-28 2023-11-15 Xmos Ltd Indirect radar detection
KR20210002989A (ko) 2019-07-01 2021-01-11 삼성전자주식회사 사물 인식을 위한 골레이 시퀀스 길이 조절 방법 및 그 전자 장치
EP3770632A1 (de) * 2019-07-25 2021-01-27 VEGA Grieshaber KG Kombinierte radarsensoren mit einem radarensor zur füllstandsmessung und einem radasensor zur umgebungsüberwachung
WO2021013356A1 (de) * 2019-07-25 2021-01-28 Vega Grieshaber Kg Kombinierte radarsensoren mit einem radarensor zur füllstandsmessung und einem radasensor zur umgebungsüberwachung
US11385722B2 (en) 2019-07-26 2022-07-12 Google Llc Robust radar-based gesture-recognition by user equipment
CN113853566B (zh) * 2019-07-26 2024-05-28 谷歌有限责任公司 基于雷达的姿势识别的情境敏感控制
EP3966662B1 (en) 2019-07-26 2024-01-10 Google LLC Reducing a state based on imu and radar
WO2021021220A1 (en) * 2019-07-26 2021-02-04 Google Llc Authentication management through imu and radar
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment
WO2021021224A1 (en) * 2019-07-26 2021-02-04 Google Llc Context-sensitive control of radar-based gesture-recognition
CN113906367B (zh) * 2019-07-26 2024-03-29 谷歌有限责任公司 通过imu和雷达的认证管理
US20210042545A1 (en) * 2019-08-07 2021-02-11 EyeVerify, Inc. Microwave biometric authentication using machine learning
KR20210020632A (ko) * 2019-08-16 2021-02-24 삼성전자주식회사 밀리미터 웨이브를 이용하여 객체의 속성을 식별하는 전자 장치 및 그 제어 방법
KR102119346B1 (ko) * 2019-08-22 2020-06-26 고종민 초소형 복합센서 모듈
US11467672B2 (en) 2019-08-30 2022-10-11 Google Llc Context-sensitive control of radar-based gesture-recognition
CN118192796A (zh) 2019-08-30 2024-06-14 谷歌有限责任公司 移动设备的输入方法
WO2021040748A1 (en) 2019-08-30 2021-03-04 Google Llc Visual indicator for paused radar gestures
KR20220098805A (ko) 2019-08-30 2022-07-12 구글 엘엘씨 다중 입력 모드에 대한 입력 모드 통지
CN110597390B (zh) * 2019-09-12 2022-05-20 Oppo广东移动通信有限公司 控制方法、电子装置和存储介质
CN110609282B (zh) * 2019-09-19 2020-11-17 中国人民解放军军事科学院国防科技创新研究院 基于后向投影的太赫兹孔径编码三维成像方法及装置
DE102019125348A1 (de) * 2019-09-20 2021-03-25 365FarmNet Group GmbH & Co. KG Verfahren zur Unterstützung eines Benutzers bei einer landwirtschaftlichen Tätigkeit
KR20210034843A (ko) * 2019-09-23 2021-03-31 삼성전자주식회사 차량의 제어 장치 및 방법
CN112666572A (zh) * 2019-09-30 2021-04-16 北京声智科技有限公司 基于雷达的唤醒方法、唤醒装置、电子设备及存储介质
CN110515092B (zh) * 2019-10-23 2020-01-10 南京甄视智能科技有限公司 基于激光雷达的平面触摸方法
KR20210048725A (ko) 2019-10-24 2021-05-04 삼성전자주식회사 카메라 제어를 위한 방법 및 이를 위한 전자 장치
US11747462B1 (en) * 2019-12-04 2023-09-05 Meta Platforms Technologies, Llc Devices, systems, and methods for radar-based artificial reality tracking
WO2021116944A1 (en) 2019-12-09 2021-06-17 Thales Canada Inc. Stationary status resolution system
KR20210074749A (ko) * 2019-12-12 2021-06-22 삼성전자주식회사 라이브니스 검사 방법 및 라이브니스 검사 장치
EP4078212A1 (en) * 2019-12-19 2022-10-26 Google LLC Smart-device-based radar system performing symmetric doppler interference mitigation
DE112021000497T5 (de) 2020-01-10 2022-11-24 Magna Electronics, Inc. Kommunikationssystem und -verfahren
CN113138557B (zh) * 2020-01-17 2023-11-28 北京小米移动软件有限公司 家居设备控制方法、装置以及存储介质
US11567580B2 (en) * 2020-01-29 2023-01-31 Samsung Electronics Co., Ltd. Adaptive thresholding and noise reduction for radar data
US11467254B2 (en) * 2020-02-27 2022-10-11 Samsung Electronics Co., Ltd. Method and apparatus of radar-based activity detection
US11756129B1 (en) 2020-02-28 2023-09-12 State Farm Mutual Automobile Insurance Company Systems and methods for light detection and ranging (LIDAR) based generation of an inventory list of personal belongings
US11789140B2 (en) * 2020-04-07 2023-10-17 Beijing Xiaomi Mobile Software Co., Ltd. Radar antenna array, mobile user equipment, and method and device for identifying gesture
CN111427036A (zh) * 2020-04-14 2020-07-17 南京莱斯电子设备有限公司 一种短基线多雷达信号级融合检测方法
US11663550B1 (en) 2020-04-27 2023-05-30 State Farm Mutual Automobile Insurance Company Systems and methods for commercial inventory mapping including determining if goods are still available
CN111624572B (zh) * 2020-05-26 2023-07-18 京东方科技集团股份有限公司 一种人体手部与人体手势识别的方法及装置
IL275524B (en) 2020-06-18 2021-12-01 Elbit Systems C4I And Cyber Ltd System and method for measuring parameters without contact
US11989965B2 (en) * 2020-06-24 2024-05-21 AR & NS Investment, LLC Cross-correlation system and method for spatial detection using a network of RF repeaters
US11283510B2 (en) 2020-06-24 2022-03-22 AR & NS Investment, LLC Phase noise removal in a network of radio frequency (RF) repeaters
US11605228B2 (en) 2020-06-26 2023-03-14 Nxp Usa, Inc. System and method for sensor fusion system having distributed convolutional neural network
US11946996B2 (en) 2020-06-30 2024-04-02 Apple, Inc. Ultra-accurate object tracking using radar in multi-object environment
CN111813224B (zh) * 2020-07-09 2022-03-25 电子科技大学 一种基于超高分辨率雷达精细手势库的建立与识别方法
US11563783B2 (en) 2020-08-14 2023-01-24 Cisco Technology, Inc. Distance-based framing for an online conference session
US11555920B2 (en) * 2020-10-28 2023-01-17 GM Global Technology Operations LLC Estimating vehicle velocity using radar data
US11961009B2 (en) * 2020-11-02 2024-04-16 The Government Of The United States, As Represented By The Secretary Of The Army Artificial intelligence algorithm access to multiple users
CN114488153A (zh) * 2020-11-13 2022-05-13 华为技术有限公司 雷达认证方法及装置、计算机存储介质
US20220221573A1 (en) * 2021-01-08 2022-07-14 Google Llc Systems and methods for managing sensors of an electronic device, and associated electronic devices
US11782149B2 (en) 2021-01-08 2023-10-10 Google Llc Systems and methods for managing motion detection of an electronic device, and associated electronic devices
CN112774181B (zh) * 2021-01-11 2023-11-10 北京星汉云图文化科技有限公司 雷达数据的处理方法、处理系统以及计算机存储介质
JP2024508843A (ja) 2021-02-25 2024-02-28 チェリッシュ ヘルス インコーポレイテッド 定義区域内の対象物を追跡する技術
KR102351551B1 (ko) * 2021-03-12 2022-01-18 (주)디지탈엣지 다기능 레이더 시스템 및 그의 신호 처리방법
EP4060366A1 (en) * 2021-03-19 2022-09-21 Infineon Technologies AG Methods, device, local device and server for monitoring a user performing a physical exercise
US11592908B2 (en) * 2021-03-19 2023-02-28 Google Llc Hand gesture recognition based on detected wrist muscular movements
US11543890B2 (en) * 2021-03-22 2023-01-03 KaiKuTek Inc. Custom gesture collection and recognition system having machine learning accelerator
US11804077B2 (en) * 2021-04-01 2023-10-31 KaiKuTek Inc. Generic gesture detecting method and generic gesture detecting device
EP4071586A1 (de) * 2021-04-09 2022-10-12 Fresenius Medical Care Deutschland GmbH Berührungsloses bedienen medizintechnischer geräte
US11467675B1 (en) * 2021-04-29 2022-10-11 Facebook Technologies, Llc Multi-component detection of gestures
US20220365200A1 (en) * 2021-05-12 2022-11-17 California State University Fresno Foundation System and method for human and animal detection in low visibility
CN115412104A (zh) * 2021-05-28 2022-11-29 北京小米移动软件有限公司 手势识别方法及装置、移动终端、计算机可读存储介质
CN115412837A (zh) * 2021-05-28 2022-11-29 北京三星通信技术研究有限公司 确定ue指向设备的方法及相关设备
KR102645313B1 (ko) * 2021-07-13 2024-03-11 한국전자기술연구원 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치
CN113561911B (zh) * 2021-08-12 2023-03-17 森思泰克河北科技有限公司 车辆控制方法、装置、毫米波雷达及存储介质
CN113791411B (zh) * 2021-09-07 2024-05-28 北京航空航天大学杭州创新研究院 一种基于轨迹判断的毫米波雷达手势识别方法及装置
US11963110B2 (en) 2021-10-26 2024-04-16 Dell Products Lp Method and apparatus for detecting, managing antenna proximity, and user privacy by sharing radar sensing telemetry
US11893205B2 (en) * 2021-11-01 2024-02-06 Microsoft Technology Licensing, Llc Real-time gestures in shared electronic canvases
US20230136270A1 (en) * 2021-11-03 2023-05-04 Microsoft Technology Licensing, Llc Synthetic aperture radar for head mounted displays
US20230143374A1 (en) * 2021-11-05 2023-05-11 Crystal D. Rhodes Feature extraction, labelling, and object feature map
US11914093B2 (en) * 2021-12-07 2024-02-27 Microsoft Technology Licensing, Llc RF antenna scanning for human movement classification
CN116414045A (zh) * 2021-12-31 2023-07-11 施耐德电气(澳大利亚)有限公司 感测节点、感测网络、智能楼宇控制系统和相关联的方法
GB202204096D0 (en) * 2022-03-23 2022-05-04 British Telecomm A secure authentication token
US20230333660A1 (en) * 2022-04-13 2023-10-19 Samsung Electronics Co., Ltd. Dynamic gesture recognition using mmwave radar
US20230359468A1 (en) * 2022-05-05 2023-11-09 Microsoft Technology Licensing, Llc User engagement surfaced through an application programming interface (api)
US11822736B1 (en) * 2022-05-18 2023-11-21 Google Llc Passive-accessory mediated gesture interaction with a head-mounted device
CN115378591B (zh) * 2022-07-18 2023-04-07 咚咚数字科技有限公司 一种基于融合的匿名生物特征密钥传输方法
DE102022121913A1 (de) * 2022-08-30 2024-02-29 Brose Fahrzeugteile Se & Co. Kommanditgesellschaft, Bamberg Verfahren zum Betrieb einer motorischen Klappenanordnung eines Kraftfahrzeugs
CN117519474B (zh) * 2023-11-06 2024-05-14 中国人民解放军陆军工程大学 一种考虑运动先验的雷达手势特征获取方法
CN117473456B (zh) * 2023-12-28 2024-02-27 北京卓视智通科技有限责任公司 一种雷视智能融合的方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120280900A1 (en) * 2011-05-06 2012-11-08 Nokia Corporation Gesture recognition using plural sensors
US20150185314A1 (en) * 2013-12-26 2015-07-02 International Business Machines Corporation Radar integration with handheld electronic devices

Family Cites Families (721)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3570312A (en) 1968-06-21 1971-03-16 Frank Kreith Skin temperature sensing device
US3610874A (en) 1969-11-21 1971-10-05 Western Electric Co Laser welding technique
US3752017A (en) 1971-04-08 1973-08-14 Pace Inc Thermal hand tools
US3953706A (en) 1974-03-29 1976-04-27 Martin Marietta Corporation Laser bent beam controlled dwell wire stripper
US4104012A (en) 1976-10-12 1978-08-01 Ferrante Michael R Improved wire stripping apparatus
US4281645A (en) 1977-06-28 1981-08-04 Duke University, Inc. Method and apparatus for monitoring metabolism in body organs
GB2070469B (en) 1980-02-29 1983-06-08 Raychem Gmbh Electrical interconnection
US6513833B2 (en) 1992-05-05 2003-02-04 Automotive Technologies International, Inc. Vehicular occupant motion analysis system
GB8411480D0 (en) 1984-05-04 1984-06-13 Raychem Corp Sensor array
DE3432735A1 (de) 1984-09-06 1986-03-06 Philips Patentverwaltung Gmbh, 2000 Hamburg Verfahren und vorrichtung zum ordnen und ausrichten flexibler, isolierter leiter
US4700044A (en) 1986-07-31 1987-10-13 Hutchinson Technology Inc. Laser soldering apparatus and method
US4838797A (en) 1987-06-19 1989-06-13 The United States Of America As Represented By The Secretary Of The Navy Underwater connect and disconnect plug and receptacle
JP2826337B2 (ja) 1988-04-12 1998-11-18 シチズン時計株式会社 放射体温計
US4986277A (en) 1988-08-24 1991-01-22 Sackner Marvin A Method and apparatus for non-invasive monitoring of central venous pressure
US5016500A (en) 1990-04-10 1991-05-21 Teledyne Kinetics Battery powered temperature-controlled wire stripper
DE59107232D1 (de) 1990-07-18 1996-02-22 Avl Medical Instr Ag Einrichtung und Verfahren zur Blutdruckmessung
US5121124A (en) 1991-05-01 1992-06-09 Thermo Electron Technologies Corp. Microwave camera
JP3144030B2 (ja) 1992-02-24 2001-03-07 東陶機器株式会社 健康管理ネットワークシステム
US5298715A (en) 1992-04-27 1994-03-29 International Business Machines Corporation Lasersonic soldering of fine insulated wires to heat-sensitive substrates
US5497546A (en) 1992-09-21 1996-03-12 Matsushita Electric Works, Ltd. Method for mounting lead terminals to circuit board
US5564571A (en) 1993-07-19 1996-10-15 Cembre S.P.A. Strip for electrical connectors
US5341979A (en) 1993-09-03 1994-08-30 Motorola, Inc. Method of bonding a semiconductor substrate to a support substrate and structure therefore
US6835898B2 (en) 1993-11-16 2004-12-28 Formfactor, Inc. Electrical contact structures formed by configuring a flexible wire to have a springable shape and overcoating the wire with at least one layer of a resilient conductive material, methods of mounting the contact structures to electronic components, and applications for employing the contact structures
US5468917A (en) 1994-03-23 1995-11-21 International Business Machines Corporation Circuitized structure including flexible circuit with elastomeric member bonded thereto
US5517251A (en) 1994-04-28 1996-05-14 The Regents Of The University Of California Acquisition of video images simultaneously with analog signals
US5724707A (en) 1996-06-17 1998-03-10 The United States Of America As Represented By The Secretary Of The Army Interlock attaching strap system
CH690686A5 (de) 1996-07-01 2000-12-15 Spoerry & Co Ag Verfahren zur Herstellung eines elektrisch leitenden Garnes, elektrisch leitendes Garn und Verwendung des elektrisch leitenden Garnes.
US6179785B1 (en) 1996-10-17 2001-01-30 Sherwood Services, Ag Ambient sensing feature for thermometer recalibration system
US6747632B2 (en) 1997-03-06 2004-06-08 Harmonic Research, Inc. Wireless control device
US5959529A (en) 1997-03-07 1999-09-28 Kail, Iv; Karl A. Reprogrammable remote sensor monitoring system
TW389837B (en) 1997-07-16 2000-05-11 Terumo Corp Ear type clinical thermometer
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
JP3052286B2 (ja) 1997-08-28 2000-06-12 防衛庁技術研究本部長 飛行システムおよび航空機用擬似視界形成装置
US6210771B1 (en) 1997-09-24 2001-04-03 Massachusetts Institute Of Technology Electrically active textiles and articles made therefrom
JP3829220B2 (ja) 1997-10-09 2006-10-04 オムロンヘルスケア株式会社 心機能監視装置
WO1999028811A1 (en) 1997-12-04 1999-06-10 Northern Telecom Limited Contextual gesture interface
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
JPH11237477A (ja) 1998-02-20 1999-08-31 Nagano Japan Radio Co 短波または超短波を用いた海洋レーダおよび短波または超短波を用いた海洋レーダシステム
JP3176580B2 (ja) 1998-04-09 2001-06-18 太陽誘電株式会社 電子部品の実装方法及び実装装置
US6080690A (en) 1998-04-29 2000-06-27 Motorola, Inc. Textile fabric with integrated sensing device and clothing fabricated thereof
FR2779859B1 (fr) 1998-04-30 2001-06-22 Jean Chretien Favreau Ecran matriciel tactile
JP2982792B2 (ja) 1998-05-22 1999-11-29 セイコーエプソン株式会社 薄膜トランジスタの製造方法
US6129673A (en) 1998-06-08 2000-10-10 Advanced Monitors, Corp. Infrared thermometer
US6037893A (en) 1998-07-31 2000-03-14 Litton Systems, Inc. Enhanced motion compensation technique in synthetic aperture radar systems
US6369804B1 (en) 1998-09-26 2002-04-09 Eleksen Limited Detector constructed from fabric having non-uniform conductivity
CN1299637C (zh) 1998-10-20 2007-02-14 欧姆龙健康医疗事业株式会社 红外线温度计
US6854985B1 (en) 1998-12-16 2005-02-15 Paricon Technologies Corporation Elastomeric interconnection device and methods for making same
US6791580B1 (en) 1998-12-18 2004-09-14 Tangis Corporation Supplying notifications related to supply and consumption of user context data
US6303924B1 (en) 1998-12-21 2001-10-16 Microsoft Corporation Image sensing operator input device
US6313825B1 (en) 1998-12-28 2001-11-06 Gateway, Inc. Virtual input device
CA2337159A1 (en) 1999-05-20 2000-11-30 Electrotextiles Company Limited Detecting mechanical interactions
JP2000333910A (ja) 1999-05-25 2000-12-05 Nippon Colin Co Ltd 心機能監視装置
US8921473B1 (en) 2004-04-30 2014-12-30 Sydney Hyman Image making medium
ES2256985T3 (es) 1999-07-03 2006-07-16 Siemens Schweiz Ag Avisador de movimiento segun el principio doppler.
CA2387441A1 (en) 1999-10-12 2001-04-19 Shengke Zeng Image-synchronized multichannel biomedical data acquisition system
JP2003512734A (ja) 1999-10-18 2003-04-02 マサチューセッツ・インスティテュート・オブ・テクノロジー 可撓性電子回路及びその製造方法
US6524239B1 (en) 1999-11-05 2003-02-25 Wcr Company Apparatus for non-instrusively measuring health parameters of a subject and method of use thereof
US6802720B2 (en) 1999-12-16 2004-10-12 Paricon Technologies Corporation Pin-array, separable, compliant electrical contact member
US7223105B2 (en) 1999-12-16 2007-05-29 Paricon Technologies Corporation Cable connector incorporating anisotropically conductive elastomer
US6590519B2 (en) 1999-12-22 2003-07-08 Hot/Shot Radar Inspections, Llc Method and system for identification of subterranean objects
JP2001208828A (ja) 2000-01-26 2001-08-03 Mitsubishi Electric Corp レーダ装置
US6590529B2 (en) 2000-02-14 2003-07-08 Mysky Communications Individualized, location specific weather forecasting system
US6440593B2 (en) 2000-02-16 2002-08-27 The University Of Massachusetts Molded article
DE10011263A1 (de) * 2000-03-08 2001-09-13 Bosch Gmbh Robert Objektdetektionssystem
US7194371B1 (en) 2000-03-27 2007-03-20 Cardiobeat.Com Medical testing system and method
ES2214403T3 (es) 2000-04-03 2004-09-16 Intelligent Textiles Limited Textil conductor sensible a la presion.
US6616613B1 (en) 2000-04-27 2003-09-09 Vitalsines International, Inc. Physiological signal monitoring system
US7148879B2 (en) 2000-07-06 2006-12-12 At&T Corp. Bioacoustic control system, method and apparatus
AU2001276991A1 (en) 2000-07-20 2002-02-05 J. Alexander Marchosky Patient-controlled automated medical record, diagnosis, and treatment system andmethod
DE10053061A1 (de) 2000-10-26 2002-05-08 Dornier Gmbh Verfahren zur adaptiven Zielverarbeitung in einem kraftfahrzeugradar
US8023796B2 (en) 2000-11-07 2011-09-20 Panasonic Corporation Video signal producing system and video signal recording/reproducing device in that system
US7030861B1 (en) 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
US6608585B2 (en) 2001-03-02 2003-08-19 Massachusetts Institute Of Technology High-definition imaging apparatus and method
JP2002262438A (ja) 2001-03-05 2002-09-13 Yazaki Corp 補機モジュール用中継部品および補機モジュール
JP2002298940A (ja) 2001-03-30 2002-10-11 Jst Mfg Co Ltd 樹脂ハンダを用いた電気接触子、電気コネクタ及びこれらのプリント配線板への接続方法
WO2002082999A1 (en) 2001-04-10 2002-10-24 Battelle Memorial Institute Image analysis system and method for discriminating movements of an individual
WO2002093344A1 (en) 2001-05-14 2002-11-21 Koninklijke Philips Electronics N.V. Device for interacting with real-time streams of content
WO2002091910A2 (en) 2001-05-17 2002-11-21 Thermal Technologies, Inc. Blood flow monitor for shock and resuscitation
US20020170897A1 (en) 2001-05-21 2002-11-21 Hall Frank L. Methods for preparing ball grid array substrates via use of a laser
US7266532B2 (en) 2001-06-01 2007-09-04 The General Hospital Corporation Reconfigurable autonomous device networks
JP3731071B2 (ja) 2001-07-02 2006-01-05 関西ティー・エル・オー株式会社 血行動態測定方法
US7158943B2 (en) 2001-09-04 2007-01-02 Ramon Van Der Riet Marketing communication and transaction/distribution services platform for building and managing personalized customer relationships
AU2002350237A1 (en) 2001-11-24 2003-06-10 Delphi Technologies, Inc. Improvements in wire harnesses
CN1862601A (zh) 2001-12-10 2006-11-15 欧姆龙株式会社 物体探测装置及控制装置
DE10161527A1 (de) 2001-12-14 2003-07-03 Infineon Technologies Ag Aufbau- und Verbindungstechnik in textilen Strukturen
WO2003052541A2 (de) 2001-12-14 2003-06-26 Infineon Technologies Ag Keypad in textilien mit kapazativer ausleseschaltung
US6997882B1 (en) 2001-12-21 2006-02-14 Barron Associates, Inc. 6-DOF subject-monitoring device and method
US7845022B1 (en) 2002-02-14 2010-12-07 Nike, Inc. Deposition of electronic circuits on fibers and other materials
US7249954B2 (en) 2002-02-26 2007-07-31 Paricon Technologies Corporation Separable electrical interconnect with anisotropic conductive elastomer for translating footprint
JP2003280049A (ja) 2002-03-26 2003-10-02 Tdk Corp 機能性ファイバーおよび機能性ファイバーを用いた織編物
US7592276B2 (en) 2002-05-10 2009-09-22 Sarnoff Corporation Woven electronic textile, yarn and article
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
WO2004003273A2 (en) 2002-06-28 2004-01-08 North Carolina State University Fabric and yarn structures for improving signal integrity in fabric based electrical circuits
AUPS335302A0 (en) 2002-07-03 2002-07-25 Uscom Pty Ltd Intergrated pressure and volume measurement method and apparatus
US6707418B2 (en) 2002-07-12 2004-03-16 Itt Manufacturing Enterprises, Inc. Correlating single continuous wave radar space object observation for initial orbit determination
US8509736B2 (en) 2002-08-08 2013-08-13 Global Tel*Link Corp. Telecommunication call management and monitoring system with voiceprint verification
US8190239B2 (en) 2002-09-03 2012-05-29 Fujitsu Limited Individual identification device
US20070030195A1 (en) 2002-09-12 2007-02-08 L-3 Communications Cyterra Corporation Concealed object detection
US20090177068A1 (en) 2002-10-09 2009-07-09 Stivoric John M Method and apparatus for providing derived glucose information utilizing physiological and/or contextual parameters
US7602413B2 (en) 2002-10-18 2009-10-13 Sony Corporation Information processing system and method, information processing apparatus, image-capturing device and method, recording medium, and program
US20080065291A1 (en) 2002-11-04 2008-03-13 Automotive Technologies International, Inc. Gesture-Based Control of Vehicular Components
WO2004042544A1 (en) 2002-11-07 2004-05-21 Personics A/S Control system including an adaptive motion detector
US7280864B2 (en) 2002-11-27 2007-10-09 Ge Medical Systems Information Technologies, Inc. Method and apparatus for automated selection of correct image for quantitative analysis
JP3795856B2 (ja) 2002-12-09 2006-07-12 株式会社スクウェア・エニックス ビデオゲーム装置、ビデオゲームの進行制御方法、プログラム及び記録媒体
US7600234B2 (en) 2002-12-10 2009-10-06 Fisher-Rosemount Systems, Inc. Method for launching applications
GB0229316D0 (en) 2002-12-17 2003-01-22 Koninkl Philips Electronics Nv Electro-optic filament or fibre
US6929484B2 (en) 2003-01-09 2005-08-16 Roger E. Weiss Apparatus for applying a mechanically-releasable balanced compressive load to an assembly such as a compliant anisotropic conductive elastomer electrical connector
DE10307505B4 (de) 2003-02-21 2005-03-03 Infineon Technologies Ag Textilgewebestruktur, Flächenverkleidungsstruktur und Verfahren zum Bestimmen eines Abstands von Mikroelektronikelementen der Textilgewebestruktur zu mindestens einer Referenzposition
KR100571811B1 (ko) 2003-05-09 2006-04-17 삼성전자주식회사 귀속형 생체 신호 측정 장치
GB0311320D0 (en) 2003-05-19 2003-06-25 Univ Manchester Knitted transducer devices
US20040249250A1 (en) 2003-06-04 2004-12-09 Mcgee Michael D. System and apparatus for monitoring and prompting medical self-care events and communicating medical self-care status
JP2005019393A (ja) 2003-06-05 2005-01-20 Sharp Corp 異方性導電物、表示装置、表示装置の製造方法および導電部材
JP2005051129A (ja) 2003-07-30 2005-02-24 Sony Corp 電子機器
JP2006514382A (ja) 2003-08-18 2006-04-27 フィコ ミロールス,エセ ア 自動車の外部環境を監視するためのシステム及び方法
PL1659936T3 (pl) 2003-08-20 2008-06-30 Newcardio Inc Urządzenie i sposób bezprzewodowej rejestracji i transmisji telekomunikacyjnej trzech specjalnych odprowadzeń EKG oraz ich przetwarzanie
WO2005022556A2 (en) 2003-09-02 2005-03-10 Integral Technologies, Inc. Very low resistance electrical interfaces to conductive loaded resin-based materials
DE10344285A1 (de) 2003-09-24 2005-05-12 Infineon Technologies Ag Prozessor-Anordnung, Textilgewebestruktur, Flächenverkleidungsstruktur und Verfahren zum Weiterleiten von elektrischer Energieversorgung zwischen einer Vielzahl einander örtlich benachbart angeordneter Prozessorelemente
JP2005103863A (ja) 2003-09-29 2005-04-21 Pentel Corp 塗布具
WO2005033387A2 (en) 2003-09-30 2005-04-14 Milliken & Company Wrapped conductive yarn
GB0325622D0 (en) 2003-11-03 2003-12-10 Cambridge Consultants System for determining positional information
US7199749B2 (en) 2003-12-12 2007-04-03 Georgia Tech Research Corporation Radar detection device employing a scanning antenna system
GB0329566D0 (en) 2003-12-20 2004-01-28 Koninkl Philips Electronics Nv Woven material and display device constructed therefrom
US7299964B2 (en) 2004-01-15 2007-11-27 Georgia Tech Research Corp. Method and apparatus to create electrical junctions for information routing in textile structures
DE602004028870D1 (de) 2004-01-20 2010-10-07 Bae Systems Information Verfahren und vorrichtung zur erkennung durch die wand unter verwendung von cw-radar
US7205932B2 (en) 2004-01-29 2007-04-17 Bae Systems Information And Electronic Systems Integration Inc. Method and apparatus for improved determination of range and angle of arrival utilizing a two tone CW radar
DE102004004604B4 (de) 2004-01-29 2016-12-29 Siemens Healthcare Gmbh Verfahren und Bildgebungssystem zur Kompensation von Patientenbewegungen bei Serienaufnahmen in der medizinischen Bildgebung
US7961909B2 (en) 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
JP2005231450A (ja) 2004-02-18 2005-09-02 Honda Motor Co Ltd 車両用障害物検出装置
GB0404137D0 (en) 2004-02-25 2004-03-31 Koninkl Philips Electronics Nv A fabric
GB0404419D0 (en) 2004-02-27 2004-03-31 Intelligent Textiles Ltd Electrical components and circuits constructed as textiles
US7369100B2 (en) * 2004-03-04 2008-05-06 Eastman Kodak Company Display system and method with multi-person presentation function
US7148836B2 (en) 2004-03-05 2006-12-12 The Regents Of The University Of California Obstacle penetrating dynamic radar imaging system
KR100853605B1 (ko) 2004-03-23 2008-08-22 후지쯔 가부시끼가이샤 핸드헬드 장치에서의 경사 및 평행 이동 운동 성분들의구별
US7129887B2 (en) 2004-04-15 2006-10-31 Lockheed Martin Ms2 Augmented reality traffic control center
GB0408607D0 (en) 2004-04-17 2004-05-19 Koninkl Philips Electronics Nv Electrical connector
JP4299189B2 (ja) 2004-05-27 2009-07-22 アロカ株式会社 超音波診断装置及び画像処理方法
US7786980B2 (en) 2004-06-29 2010-08-31 Koninklijke Philips Electronics N.V. Method and device for preventing staining of a display device
US20070197878A1 (en) 2004-07-09 2007-08-23 Dror Shklarski Wearable device, system and method for monitoring physiological and/or environmental parameters
US8560972B2 (en) 2004-08-10 2013-10-15 Microsoft Corporation Surface UI for gesture-based interaction
US7942744B2 (en) 2004-08-19 2011-05-17 Igt Virtual input system
US7295904B2 (en) 2004-08-31 2007-11-13 International Business Machines Corporation Touch gesture based interface for motor vehicle
US7307575B2 (en) 2004-09-14 2007-12-11 Bae Systems Information And Electronic Systems Integration Inc. Through-the-wall frequency stepped imaging system utilizing near field multiple antenna positions, clutter rejection and corrections for frequency dependent wall effects
US20060061504A1 (en) 2004-09-23 2006-03-23 The Regents Of The University Of California Through wall detection and tracking system
US7158076B2 (en) 2004-10-01 2007-01-02 Bae Systems Information And Electronic Systems Integration Inc. Method and apparatus for correcting velocity-induced range estimate phase errors in a two-tone monopulse CW radar
US6970128B1 (en) 2004-10-06 2005-11-29 Raytheon Company Motion compensated synthetic aperture imaging system and methods for imaging
EP2039460A3 (de) 2004-11-02 2014-07-02 HID Global GmbH Verlegevorrichtung, Kontaktiervorrichtung, Zustellsystem, Verlege- und Kontaktiereinheit, herstellungsanlage, Verfahren zur Herstellung und eine Transpondereinheit
JP2006163886A (ja) 2004-12-08 2006-06-22 Canon Inc 情報入力方法及び情報入力装置
US7250853B2 (en) 2004-12-10 2007-07-31 Honeywell International Inc. Surveillance system
US20060136997A1 (en) 2004-12-21 2006-06-22 Eastman Kodak Company Authentication system and method
JP5149015B2 (ja) 2004-12-28 2013-02-20 ハイパーメツド・イメージング・インコーポレイテツド 全身生理機能およびショックの決定、評価および監視におけるハイパースペクトル/マルチスペクトルイメージング
US7531203B2 (en) 2005-01-06 2009-05-12 The Hong Kong Polytechnic University Method for the production of conductive flexible textile arrays
US7809171B2 (en) 2005-01-10 2010-10-05 Battelle Memorial Institute Facial feature evaluation based on eye location
JP2006196802A (ja) 2005-01-17 2006-07-27 Sony Corp 半導体装置および半導体装置の製造方法
CN101238244B (zh) 2005-01-24 2011-03-30 株式会社昭和 采用阳极电解氧化处理的结晶性氧化钛被膜的制造方法
DE102005003370A1 (de) 2005-01-24 2006-07-27 Juma Pcb Gmbh Verfahren zur durchgehenden Verlegung eines Leitungsdrahtes auf einer Leiterplatte und Vorrichtung zur Durchführung des Verfahrens
US20060183980A1 (en) 2005-02-14 2006-08-17 Chang-Ming Yang Mental and physical health status monitoring, analyze and automatic follow up methods and its application on clothing
JP2006234716A (ja) 2005-02-28 2006-09-07 Aichi Prefecture シート状センサ装置
KR100687737B1 (ko) 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
US7019682B1 (en) 2005-04-12 2006-03-28 Trex Enterprises Corp. Imaging millimeter wave radar system
US7327308B2 (en) 2005-04-28 2008-02-05 Chung Shan Institute Of Science And Technology, Armaments Bureau, M.N.D. Programmable method and test device for generating target for FMCW radar
US7544627B2 (en) 2005-05-12 2009-06-09 The Hong Kong Polytechnic University Pressure sensing fabric
EP1727408A1 (de) 2005-05-13 2006-11-29 Eidgenössische Technische Hochschule Zürich Textil mit einem Leiterbahnsystem und Verfahren zu dessen Herstellung
ATE483835T1 (de) 2005-06-02 2010-10-15 Bekaert Sa Nv Elektrisch leitfähiges elastisches verbundgarn
JP2007011873A (ja) 2005-07-01 2007-01-18 Toshiba Corp インタフェース装置およびインタフェース方法
US7462035B2 (en) 2005-07-27 2008-12-09 Physical Optics Corporation Electrical connector configured as a fastening element
US20070027369A1 (en) 2005-07-28 2007-02-01 Guido Pagnacco Apparatus and methods for assessing human physical performance
US7674231B2 (en) 2005-08-22 2010-03-09 Massachusetts Institute Of Technology Wearable pulse wave velocity blood pressure sensor and methods of calibration thereof
IL170689A (en) 2005-09-06 2011-08-31 Camero Tech Ltd Imaging device through a wall
US7791700B2 (en) 2005-09-16 2010-09-07 Kent Displays Incorporated Liquid crystal display on a printed circuit board
EP1946146A2 (en) 2005-10-14 2008-07-23 BAE SYSTEMS Information and Electronic Systems Integration Inc. Motion detection system using cw radar in combination with additional sensors
US7733224B2 (en) 2006-06-30 2010-06-08 Bao Tran Mesh network personal emergency response appliance
JP2007132768A (ja) 2005-11-10 2007-05-31 Hitachi Ltd 通信機能を有する車載レーダー装置
US20070118043A1 (en) 2005-11-23 2007-05-24 Microsoft Corporation Algorithms for computing heart rate and movement speed of a user from sensor data
JP4682028B2 (ja) 2005-11-28 2011-05-11 Hoya株式会社 導電層の製造方法、導電層、及び、信号伝送基板
EP1951910A4 (en) 2005-11-30 2010-02-03 Univ North Carolina IDENTIFICATION OF SOMATOSENSORY SUFFERED ASSOCIATED GENETIC POLYMORPHIC VARIANTS AND METHOD OF USE THEREOF
US7834276B2 (en) 2005-12-16 2010-11-16 Unitech Printed Circuit Board Corp. Structure for connecting a USB communication interface in a flash memory card by the height difference of a rigid flexible board
US7317416B2 (en) 2005-12-22 2008-01-08 Leonard Flom Skeletal topography imaging radar for unique individual identification
US20080015422A1 (en) 2005-12-29 2008-01-17 Guidance Interactive Healthcare, Inc. Combined peripheral and health monitoring devices
US20070161921A1 (en) 2006-01-07 2007-07-12 Rausch Jeffrey L Bio-accurate temperature measurement device and method of quantitatively normalizing a body temperature measurement to determine a physiologically significant temperature event
FI119456B (fi) 2006-01-31 2008-11-14 Polar Electro Oy Liitinmekanismi
US8531396B2 (en) 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US7395717B2 (en) 2006-02-10 2008-07-08 Milliken & Company Flexible capacitive sensor
KR100729676B1 (ko) 2006-02-17 2007-06-18 한국생산기술연구원 금속 필라멘트를 이용한 정보통신용 디지털사의 제조방법,제조장치 및 이에 의하여 제조된 디지털사
ATE435584T1 (de) 2006-02-24 2009-07-15 Sefar Ag Flächenheizelement und verfahren zur herstellung eines flächenheizelementes
CA2646279C (en) 2006-03-23 2015-12-08 Becton, Dickinson And Company System and methods for improved diabetes data management and use employing wireless connectivity between patients and healthcare providers and repository of diabetes management information
JP4516042B2 (ja) 2006-03-27 2010-08-04 株式会社東芝 機器操作装置および機器操作方法
US8374668B1 (en) 2007-10-23 2013-02-12 Abbott Diabetes Care Inc. Analyte sensor with lag compensation
US7860343B2 (en) 2006-04-10 2010-12-28 Nokia Corporation Constructing image panorama using frame selection
DE102006018445B4 (de) 2006-04-18 2008-04-24 Imedos Gmbh Vorrichtung und Verfahren zur Bestimmung arterio-venöser Verhältniswerte durch quantitative Analyse retinaler Gefäße
GB2437997B (en) 2006-04-27 2011-07-27 Eleksen Ltd Manually operable position sensor
US7558622B2 (en) 2006-05-24 2009-07-07 Bao Tran Mesh network stroke monitoring appliance
US9814425B2 (en) 2006-05-12 2017-11-14 Koninklijke Philips N.V. Health monitoring appliance
US8326313B2 (en) 2006-05-12 2012-12-04 Shared Spectrum Company Method and system for dynamic spectrum access using detection periods
EP2018628A1 (en) 2006-05-15 2009-01-28 Telefonaktiebolaget LM Ericsson (PUBL) A method and system for automatic classification of objects
US20080077015A1 (en) 2006-05-17 2008-03-27 Olga Boric-Lubecke Determining presence and/or physiological motion of one or more subjects with multiple receiver Doppler radar systems
US7993275B2 (en) 2006-05-25 2011-08-09 Sotera Wireless, Inc. Bilateral device, system and method for monitoring vital signs
US9149192B2 (en) 2006-05-26 2015-10-06 Sotera Wireless, Inc. System for measuring vital signs using bilateral pulse transit time
EP3616611B1 (en) 2006-06-01 2020-12-30 ResMed Sensor Technologies Limited Apparatus, system, and method for monitoring physiological signs
JP5162849B2 (ja) 2006-06-11 2013-03-13 株式会社豊田中央研究所 不動点位置記録装置
WO2007147069A2 (en) 2006-06-14 2007-12-21 Advanced Brain Monitoring, Inc. Method for measuring central venous pressure or respiratory effort
US8972902B2 (en) 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition
GB2440568A (en) 2006-07-28 2008-02-06 Eleksen Ltd Interface apparatus connecting fabric sensor and electronic device
US9511877B2 (en) 2006-08-09 2016-12-06 Angela Masson Electronic kit bag
US8169404B1 (en) 2006-08-15 2012-05-01 Navisense Method and device for planary sensory detection
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7725547B2 (en) 2006-09-06 2010-05-25 International Business Machines Corporation Informing a user of gestures made by others out of the user's line of sight
GB2443208A (en) 2006-10-27 2008-04-30 Studio 1 Ventures Ltd Textile pressure sensor
WO2008061385A2 (de) 2006-11-20 2008-05-29 Gerhard Staufert Leitertextil
NZ551819A (en) 2006-12-04 2009-03-31 Zephyr Technology Ltd Impact detection system
US20080134102A1 (en) * 2006-12-05 2008-06-05 Sony Ericsson Mobile Communications Ab Method and system for detecting movement of an object
JPWO2008069275A1 (ja) 2006-12-07 2010-03-25 日本電気株式会社 配線板およびその製造方法
US20080136775A1 (en) 2006-12-08 2008-06-12 Conant Carson V Virtual input device for computing
US8344949B2 (en) 2008-03-31 2013-01-01 Golba Llc Wireless positioning approach using time-delay of signals with a known transmission pattern
US8229506B2 (en) 2007-01-04 2012-07-24 At&T Intellectual Property I, L.P. Enhanced connection acquisition using an array antenna
US7877707B2 (en) 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
US10437459B2 (en) 2007-01-07 2019-10-08 Apple Inc. Multitouch data fusion
US8607167B2 (en) 2007-01-07 2013-12-10 Apple Inc. Portable multifunction device, method, and graphical user interface for providing maps and directions
GB0701869D0 (en) 2007-01-31 2007-03-14 Cambridge Consultants Adaptive radar
US20090017910A1 (en) 2007-06-22 2009-01-15 Broadcom Corporation Position and motion tracking of an object
US7846104B2 (en) 2007-02-08 2010-12-07 Heart Force Medical Inc. Monitoring physiological condition and detecting abnormalities
US8918153B2 (en) 2007-02-16 2014-12-23 Mespere Lifesciences Inc. Method and device for measuring parameters of cardiac function
US8639309B2 (en) 2007-07-31 2014-01-28 J&M Shuler, Inc. Method and system for monitoring oxygenation levels of compartments and tissue
KR101184170B1 (ko) 2007-04-20 2012-09-19 소프트키네틱 에스.에이. 볼륨 인식 방법 및 시스템
WO2008140780A1 (en) 2007-05-10 2008-11-20 Grigore Burdea Periodic evaluation and telerehabilitation systems and methods
KR100888864B1 (ko) 2007-05-21 2009-03-17 한국과학기술원 바이오 레이더와 기울기 센서를 이용한 문자 입력 장치
US20080294012A1 (en) 2007-05-22 2008-11-27 Kurtz Andrew F Monitoring physiological conditions
US20080289885A1 (en) 2007-05-22 2008-11-27 Elwell James K Force-Based Input Device Having a Dynamic User Interface
US20110057164A1 (en) 2007-06-18 2011-03-10 California Institute Of Technology Carbon nanotube field emission device with overhanging gate
US8302033B2 (en) 2007-06-22 2012-10-30 Apple Inc. Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information
US7692571B2 (en) 2007-06-29 2010-04-06 Trex Enterprises Corp. Millimeter wave imager with visible or infrared overlay for brownout assist
JP5060186B2 (ja) 2007-07-05 2012-10-31 株式会社東芝 脈波処理装置及び方法
US20090017799A1 (en) 2007-07-13 2009-01-15 Sony Ericsson Mobile Communications Ab System, device and method for transmitting a file by use of a throwing gesture to a mobile terminal
WO2009017362A2 (en) 2007-07-31 2009-02-05 Seoul National University Industry Foundation Electrically conductive metal composite embroidery yarn and embroidered circuit using thereof
JP5207513B2 (ja) 2007-08-02 2013-06-12 公立大学法人首都大学東京 制御機器操作ジェスチャ認識装置、制御機器操作ジェスチャ認識システムおよび制御機器操作ジェスチャ認識プログラム
US8926509B2 (en) 2007-08-24 2015-01-06 Hmicro, Inc. Wireless physiological sensor patches and systems
WO2009032073A1 (en) 2007-08-28 2009-03-12 Woolsthorpe, Llc Non-invasive method and system for determining physiological characteristics
US20090058820A1 (en) 2007-09-04 2009-03-05 Microsoft Corporation Flick-based in situ search from ink, text, or an empty selection region
WO2009036369A1 (en) 2007-09-14 2009-03-19 Corventis, Inc. System and methods for wireless body fluid monitoring
US8655004B2 (en) 2007-10-16 2014-02-18 Apple Inc. Sports monitoring system for headphones, earbuds and/or headsets
JP4858400B2 (ja) 2007-10-17 2012-01-18 ソニー株式会社 情報提供システム、情報提供装置、情報提供方法
US9513699B2 (en) 2007-10-24 2016-12-06 Invention Science Fund I, LL Method of selecting a second content based on a user's reaction to a first content
US20120029369A1 (en) 2007-10-31 2012-02-02 Icove David J Passive Microwave Assessment of Human Body Core to Surface Temperature Gradients and Basal Metabolic Rate
US10235827B2 (en) 2007-11-09 2019-03-19 Ball Gaming, Inc. Interaction with 3D space in a gaming system
US8193929B1 (en) 2007-11-09 2012-06-05 Oceanit Laboratories, Inc. Integrated adaptive wireless mesh sensor platform and energy visualization and management system
JP5385555B2 (ja) 2007-11-14 2014-01-08 日立コンシューマエレクトロニクス株式会社 生体検査システム、生体検査装置および生体検査方法
JP4337929B2 (ja) 2007-12-25 2009-09-30 トヨタ自動車株式会社 移動状態推定装置
GB0725316D0 (en) 2007-12-28 2008-02-06 Nokia Corp A controller
WO2009108228A1 (en) 2008-02-25 2009-09-03 Kingsdown, Inc. Systems and methods for controlling a bedroom environment and for providing sleep data
KR100982533B1 (ko) 2008-02-26 2010-09-16 한국생산기술연구원 디지털 밴드를 이용한 디지털 가먼트 및 그 제조 방법
US8218871B2 (en) 2008-03-05 2012-07-10 International Business Machines Corporation Detecting behavioral deviations by measuring respiratory patterns in cohort groups
US8341762B2 (en) 2008-03-21 2013-01-01 Alfiero Balzano Safety vest assembly including a high reliability communication system
US20090292468A1 (en) 2008-03-25 2009-11-26 Shunguang Wu Collision avoidance method and system using stereo vision and radar sensor fusion
US20100152600A1 (en) 2008-04-03 2010-06-17 Kai Sensors, Inc. Non-contact physiologic motion sensors and methods for use
WO2009134862A2 (en) 2008-04-29 2009-11-05 University Of Miami System and method for using interactive voice-recognition to automate a patient-centered best practice approach to disease evaluation and management
US20090295712A1 (en) 2008-05-29 2009-12-03 Sony Ericsson Mobile Communications Ab Portable projector and method of operating a portable projector
EP2283177B1 (en) 2008-05-29 2016-04-13 Kimberly-Clark Worldwide, Inc. Conductive webs containing electrical pathways and method for making same
US8177721B2 (en) 2008-06-02 2012-05-15 The United States Of America As Represented By The Secretary Of The Navy Remote blood pressure waveform sensing method and apparatus
JP4318056B1 (ja) 2008-06-03 2009-08-19 島根県 画像認識装置および操作判定方法
WO2009150570A1 (en) 2008-06-10 2009-12-17 Koninklijke Philips Electronics N.V. Electronic textile
KR101652535B1 (ko) 2008-06-18 2016-08-30 오블롱 인더스트리즈, 인크 차량 인터페이스를 위한 제스처 기반 제어 시스템
US8467991B2 (en) 2008-06-20 2013-06-18 Microsoft Corporation Data services based on gesture and location information of device
KR101248517B1 (ko) 2008-07-11 2013-04-03 고쿠리쯔 다이가쿠 호징 츠쿠바 다이가쿠 혈관특성 계측장치 및 혈관특성 계측방법
US8154428B2 (en) 2008-07-15 2012-04-10 International Business Machines Corporation Gesture recognition control of electronic devices using a multi-touch device
JP2010048583A (ja) 2008-08-19 2010-03-04 Hosiden Corp 回転センサ
US8154435B2 (en) 2008-08-22 2012-04-10 Microsoft Corporation Stability monitoring using synthetic aperture radar
JP4899108B2 (ja) 2008-08-24 2012-03-21 照彦 矢上 腕時計型電子メモ装置
CN101349943B (zh) 2008-08-26 2010-08-04 中国人民解放军总后勤部军需装备研究所 织物操作控制器
US20100053151A1 (en) 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
WO2010032173A1 (en) 2008-09-19 2010-03-25 Koninklijke Philips Electronics N.V. Electronic textile and method for determining a functional area of an electronic textile
US9758907B2 (en) 2008-09-22 2017-09-12 Intel Corporation Method and apparatus for attaching chip to a textile
US20100094141A1 (en) 2008-10-14 2010-04-15 Amal Lesly Puswella Jugular venous pressure ruler
US7952512B1 (en) 2008-10-14 2011-05-31 Sprint Communications Company L.P. Mobile device enabled radar tags
US8516397B2 (en) 2008-10-27 2013-08-20 Verizon Patent And Licensing Inc. Proximity interface apparatuses, systems, and methods
DE102008060862B4 (de) 2008-12-09 2010-10-28 Werthschützky, Roland, Prof. Dr.-Ing.habil. Verfahren zur miniaturisierbaren Kontaktierung isolierter Drähte
US20120123232A1 (en) 2008-12-16 2012-05-17 Kayvan Najarian Method and apparatus for determining heart rate variability using wavelet transformation
CN101751126A (zh) 2008-12-17 2010-06-23 孙骏恭 使用多个传感器空间的免提的基于手势的接口
US8688467B2 (en) 2009-01-09 2014-04-01 Cerner Innovation, Inc. Automated analysis of data collected by in-vivo devices
US9971063B2 (en) 2009-01-15 2018-05-15 Duke University Broadband metamaterial apparatus, methods, systems, and computer readable media
US20130035563A1 (en) 2010-01-26 2013-02-07 Angelides Kimon J Progressively Personalized Wireless-Based Interactive Diabetes Treatment
US8444564B2 (en) 2009-02-02 2013-05-21 Jointvue, Llc Noninvasive diagnostic system
US9569001B2 (en) 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
US10282563B2 (en) 2009-02-06 2019-05-07 Tobii Ab Video-based privacy supporting system
EP2216866A3 (en) 2009-02-06 2011-07-13 HID Global GmbH Method to strip a portion of an insulated wire
US9526429B2 (en) 2009-02-06 2016-12-27 Resmed Sensor Technologies Limited Apparatus, system and method for chronic disease monitoring
US9164168B2 (en) 2009-03-20 2015-10-20 Wright State University Systems for detecting movement of a target
US9002427B2 (en) 2009-03-30 2015-04-07 Lifewave Biomedical, Inc. Apparatus and method for continuous noninvasive measurement of respiratory function and events
TWM365363U (en) 2009-04-08 2009-09-21 Fu-Biau Hsu Illuminating textile article
US9498718B2 (en) 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US8289185B2 (en) 2009-05-05 2012-10-16 Advanced Technologies Group, LLC Sports telemetry system for collecting performance metrics and data
KR101127991B1 (ko) 2009-05-20 2012-03-29 주식회사 아모그린텍 은합연사와 이를 이용한 기능성 원단 및 그 제조방법
US8856691B2 (en) 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
JP5374642B2 (ja) 2009-06-03 2013-12-25 ジーエルティー テクノヴェーションズ、エルエルシー 容量性タッチスクリーンと共に利用される材料
US8020290B2 (en) 2009-06-14 2011-09-20 Jayna Sheats Processes for IC fabrication
US8759713B2 (en) 2009-06-14 2014-06-24 Terepac Corporation Methods for interconnecting bonding pads between components
US9775529B2 (en) 2009-06-17 2017-10-03 Sotera Wireless, Inc. Body-worn pulse oximeter
US8821350B2 (en) 2009-07-02 2014-09-02 Richard J. Maertz Exercise and communications system and associated methods
KR20110010906A (ko) 2009-07-27 2011-02-08 삼성전자주식회사 사용자 인터랙션을 이용한 전자기기 제어 방법 및 장치
US8346354B2 (en) 2009-07-28 2013-01-01 The Invention Science Fund I, Llc Determining a neuromodulation treatment regimen in response to contactlessly acquired information
CN101655561A (zh) * 2009-09-14 2010-02-24 南京莱斯信息技术股份有限公司 基于联合卡尔曼滤波的多点定位数据与雷达数据融合方法
GB0916707D0 (en) 2009-09-23 2009-11-04 Elliptic Laboratories As Acoustic motion determination
US20110073353A1 (en) 2009-09-29 2011-03-31 Tex-Ray Industrial Co., Ltd. Conductive fabric and method for forming the same
US8312392B2 (en) 2009-10-02 2012-11-13 Qualcomm Incorporated User interface gestures and methods for providing file sharing functionality
JP5493070B2 (ja) 2009-10-15 2014-05-14 株式会社槌屋 導電性織物
JP5668966B2 (ja) 2009-10-15 2015-02-12 株式会社槌屋 導電性織物及び導電性織物を使用したタッチセンサ装置
US9400548B2 (en) 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
US8367942B2 (en) 2009-10-27 2013-02-05 Hon Hai Precision Ind. Co., Ltd. Low profile electrical interposer of woven structure and method of making same
US9832019B2 (en) 2009-11-17 2017-11-28 Unho Choi Authentication in ubiquitous environment
US8843857B2 (en) 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
WO2011066343A2 (en) 2009-11-24 2011-06-03 Next Holdings Limited Methods and apparatus for gesture recognition mode control
US20110213218A1 (en) 2009-12-17 2011-09-01 Weiner Bert A Patient healthcare monitoring/maintenance system
US20150301167A1 (en) * 2009-12-18 2015-10-22 Christopher Gary Sentelle Detection of movable objects
EP2947476B1 (en) 2009-12-18 2018-08-15 L-3 Communications Cyterra Corporation Moving entity detection
US9229102B1 (en) 2009-12-18 2016-01-05 L-3 Communications Security And Detection Systems, Inc. Detection of movable objects
US8232990B2 (en) 2010-01-05 2012-07-31 Apple Inc. Working with 3D objects
US20110166940A1 (en) 2010-01-05 2011-07-07 Searete Llc Micro-impulse radar detection of a human demographic and delivery of targeted media content
US9069067B2 (en) 2010-09-17 2015-06-30 The Invention Science Fund I, Llc Control of an electronic apparatus using micro-impulse radar
US10385487B2 (en) 2010-01-14 2019-08-20 Byung-Ok Jeon Electrically conductive fabric and manufacturing method and apparatus thereof
KR101325817B1 (ko) 2010-01-14 2013-11-05 실버레이 주식회사 도전성 직조물, 그 제조방법 및 제조장치
US20110181510A1 (en) 2010-01-26 2011-07-28 Nokia Corporation Gesture Control
US9335825B2 (en) * 2010-01-26 2016-05-10 Nokia Technologies Oy Gesture control
FR2955972B1 (fr) 2010-02-03 2012-03-09 Commissariat Energie Atomique Procede d'assemblage d'au moins une puce avec un tissu incluant un dispositif a puce
US8659658B2 (en) 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US8522308B2 (en) 2010-02-11 2013-08-27 Verizon Patent And Licensing Inc. Systems and methods for providing a spatial-input-based multi-user shared display experience
EP2545426A4 (en) 2010-03-12 2017-05-17 Nuance Communications, Inc. Multimodal text input system, such as for use with touch screens on mobile phones
US20140297006A1 (en) 2010-03-12 2014-10-02 Rajendra Padma Sadhu System and method for providing physiological feedback and rewards for engaging user and retention of customer
US8599061B2 (en) 2010-03-17 2013-12-03 George Mason Intellectual Properties, Inc. Cavity detection
CA2792336C (en) 2010-03-19 2018-07-24 Digimarc Corporation Intuitive computing methods and systems
JP2011204019A (ja) 2010-03-25 2011-10-13 Sony Corp ジェスチャ入力装置、ジェスチャ入力方法およびプログラム
US9477324B2 (en) 2010-03-29 2016-10-25 Hewlett-Packard Development Company, L.P. Gesture processing
US20110245688A1 (en) 2010-03-31 2011-10-06 General Electric Company System and method of performing electrocardiography with motion detection
WO2011123833A1 (en) * 2010-04-01 2011-10-06 Yanntek, Inc. Immersive multimedia terminal
US8102306B2 (en) 2010-05-13 2012-01-24 The United States Of America As Represented By The Secretary Of The Navy Active-radar-assisted passive composite imagery for aiding navigation or detecting threats
US8457353B2 (en) 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
JP2011253241A (ja) 2010-05-31 2011-12-15 Toyota Motor Corp 物体検出装置
US9642536B2 (en) 2010-06-07 2017-05-09 Affectiva, Inc. Mental state analysis using heart rate collection based on video imagery
US8301232B2 (en) 2010-06-08 2012-10-30 Alivecor, Inc. Wireless, ultrasonic personal health monitoring system
US8509882B2 (en) 2010-06-08 2013-08-13 Alivecor, Inc. Heart monitoring system usable with a smartphone or computer
US20110307842A1 (en) 2010-06-14 2011-12-15 I-Jen Chiang Electronic reading device
US20120200600A1 (en) 2010-06-23 2012-08-09 Kent Demaine Head and arm detection for virtual immersion systems and methods
US20110318985A1 (en) 2010-06-23 2011-12-29 Mcdermid William James Touch Sensor Fabric
US20110316888A1 (en) 2010-06-28 2011-12-29 Invensense, Inc. Mobile device user interface combining input from motion sensors and other controls
US8907929B2 (en) 2010-06-29 2014-12-09 Qualcomm Incorporated Touchless sensing and gesture recognition using continuous wave ultrasound signals
JP5726446B2 (ja) 2010-07-01 2015-06-03 京セラ株式会社 携帯電子機器
JP2012018583A (ja) 2010-07-08 2012-01-26 Canon Inc ソフトウェア開発支援装置及びその処理方法
TW201205404A (en) 2010-07-16 2012-02-01 Elan Microelectronics Corp Three-dimensional touch sensor and application thereof
JP2012028015A (ja) 2010-07-20 2012-02-09 Toshiba Corp 照明制御システムおよび照明制御方法
JP5659595B2 (ja) 2010-07-21 2015-01-28 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
EP2417908A1 (en) 2010-08-12 2012-02-15 Philips Intellectual Property & Standards GmbH Device, system and method for measuring vital signs
US9075434B2 (en) 2010-08-20 2015-07-07 Microsoft Technology Licensing, Llc Translating user motion into multiple object responses
US8785778B2 (en) 2010-08-23 2014-07-22 Foster-Miller, Inc. PALS compliant routing system
WO2012026013A1 (ja) 2010-08-26 2012-03-01 京セミ株式会社 半導体素子付き織網基材の製造方法、その製造装置及び半導体素子付き織網基材
WO2012028884A1 (en) 2010-09-02 2012-03-08 Elliptic Laboratories As Motion feedback
US20130161078A1 (en) 2010-09-03 2013-06-27 Hui Hong Jim Kery Li Rigid-flex circuit board and manufacturing method
JP2012058921A (ja) 2010-09-07 2012-03-22 Sony Corp 情報処理装置、情報処理方法およびプログラム
EP2428814A1 (en) 2010-09-13 2012-03-14 France Telecom Object detection method, device and system
DE102010045657A1 (de) * 2010-09-17 2012-03-22 Wabco Gmbh Umfeld-Überwachungssystem für ein Fahrzeug
US9148949B2 (en) 2010-09-21 2015-09-29 Koninklijke Philips N.V. Electronic textile and method of manufacturing an electronic textile
US8560029B2 (en) 2011-09-21 2013-10-15 Mobile Joose, Inc Isolation enhancement between planar antenna elements
JP5167523B2 (ja) 2010-09-22 2013-03-21 島根県 操作入力装置および操作判定方法並びにプログラム
JP5515067B2 (ja) 2011-07-05 2014-06-11 島根県 操作入力装置および操作判定方法並びにプログラム
EP2621902B1 (en) 2010-09-28 2017-04-12 Panacea Biotec Ltd 3-azabicyclo[3.1.0]hexane compounds useful for the treatment of cns disorders
US8483617B2 (en) * 2010-09-30 2013-07-09 Broadcom Corporation Portable computing device with high-speed data communication
US9569003B2 (en) 2010-09-30 2017-02-14 Broadcom Corporation Portable computing device including a three-dimensional touch screen
US9262002B2 (en) 2010-11-03 2016-02-16 Qualcomm Incorporated Force sensing touch screen
WO2012064847A1 (en) 2010-11-09 2012-05-18 Smule, Inc. System and method for capture and rendering of performance on synthetic string instrument
WO2012065885A1 (en) 2010-11-15 2012-05-24 Movea Smart air mouse
KR20130137005A (ko) 2010-11-16 2013-12-13 퀄컴 인코포레이티드 초음파 반사된 신호들에 기초한 오브젝트 포지션 추정을 위한 시스템 및 방법
EP2641146A4 (en) 2010-11-20 2017-05-03 Nuance Communications, Inc. Performing actions on a computing device using a contextual keyboard
US9557413B2 (en) 2010-12-06 2017-01-31 The University Of Memphis Research Foundation Surveillance and tracking system and method
US9015007B2 (en) 2010-12-13 2015-04-21 Southwest Research Institute Sensor array processor with multichannel reconstruction from random array sampling
KR101778127B1 (ko) 2010-12-14 2017-09-13 엘지전자 주식회사 터치 패널 및 터치 패널을 포함하는 디스플레이 장치
JP5510302B2 (ja) 2010-12-15 2014-06-04 トヨタ紡織株式会社 接続部材、その製造方法及び接続構造体
US9104308B2 (en) 2010-12-17 2015-08-11 The Hong Kong University Of Science And Technology Multi-touch finger registration and its applications
US8475367B1 (en) 2011-01-09 2013-07-02 Fitbit, Inc. Biometric monitoring device having a body weight sensor, and methods of operating same
US8730190B2 (en) 2011-01-13 2014-05-20 Qualcomm Incorporated Detect motion generated from gestures used to execute functionality associated with a computer system
US20120191223A1 (en) 2011-01-25 2012-07-26 Honeywell International Inc. System and method for automatically selecting sensors
EP2667769B1 (en) 2011-01-27 2020-07-22 The Board of Trustees of the Leland Stanford Junior University Systems for monitoring the circulatory system
DE102011009577A1 (de) 2011-01-27 2012-08-02 Texas Instruments Deutschland Gmbh RFID-Transponder und Verfahren zum Verbinden eines Halbleiter-Dies mit einer Antenne
WO2012112407A1 (en) 2011-02-14 2012-08-23 Chung Wayne Wireless physiological sensor system and method
JP5889539B2 (ja) * 2011-03-28 2016-03-22 独立行政法人石油天然ガス・金属鉱物資源機構 炭化水素の製造方法
JP5865597B2 (ja) 2011-03-29 2016-02-17 京セラ株式会社 携帯電子機器
US9318884B2 (en) 2011-03-30 2016-04-19 Illinois Tool Works Inc. Induction heating wire insulation heating and removal
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US8681122B2 (en) 2011-04-19 2014-03-25 Cypress Semiconductor Corporation Capacitive sensing with programmable logic for touch sense arrays
US20120270564A1 (en) 2011-04-19 2012-10-25 Qualcomm Incorporated Methods and apparatuses for use in a mobile device to detect signaling apertures within an environment
KR20120119420A (ko) 2011-04-21 2012-10-31 한국전자통신연구원 지능형 운동체 제어 장치 및 방법
US9103899B2 (en) 2011-04-29 2015-08-11 The Invention Science Fund I, Llc Adaptive control of a personal electronic device responsive to a micro-impulse radar
DE102011075725A1 (de) 2011-05-12 2012-11-15 Robert Bosch Gmbh Verfahren zum Erkennen von Gesten
CN103534664B (zh) 2011-05-12 2016-08-31 苹果公司 存在感测
US20140139616A1 (en) 2012-01-27 2014-05-22 Intouch Technologies, Inc. Enhanced Diagnostics for a Telepresence Robot
IL213125A0 (en) 2011-05-24 2011-10-31 Bird Aerosystems Ltd System, device and method of protecting aircrafts against incoming missiles and threats
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US20120310665A1 (en) 2011-06-01 2012-12-06 Xerox Corporation Personalized medical record
WO2012174584A1 (en) 2011-06-24 2012-12-27 Surveillance Guard Co Limited An accident prevention system and a vehicle including the accident prevention system
US8851372B2 (en) 2011-07-18 2014-10-07 Tiger T G Zhou Wearable personal digital device with changeable bendable battery and expandable display used as standalone electronic payment card
US8576110B2 (en) * 2011-07-07 2013-11-05 Raytheon Company Fast ray trace to identify radar multipaths
KR101235432B1 (ko) 2011-07-11 2013-02-22 김석중 3차원 모델링된 전자기기의 가상터치를 이용한 원격 조작 장치 및 방법
US9069164B2 (en) 2011-07-12 2015-06-30 Google Inc. Methods and systems for a virtual input device
US8179604B1 (en) 2011-07-13 2012-05-15 Google Inc. Wearable marker for passive interaction
WO2013016453A2 (en) 2011-07-25 2013-01-31 Ips Group Inc. Low-power vehicle detection
FR2978607A1 (fr) 2011-07-28 2013-02-01 Commissariat Energie Atomique Procede d'assemblage d'un dispositif a puce micro-electronique dans un tissu, dispositif a puce, et tissu incorporant un dispositif a puce serti
KR101330809B1 (ko) 2011-08-03 2013-12-19 주식회사 팬택 터치 패널 및 이를 구비한 전자기기
US8740793B2 (en) 2011-08-29 2014-06-03 General Electric Company Radar based systems and methods for monitoring a subject
CA3079864C (en) 2011-09-09 2022-06-21 Accipiter Radar Technologies, Inc. Device and method for 3d sampling with avian radar
US10027923B1 (en) 2011-09-09 2018-07-17 Huan Chang Methods and system for recording, searching and faithful reproduction of sensations
US9632102B2 (en) 2011-09-25 2017-04-25 Theranos, Inc. Systems and methods for multi-purpose analysis
WO2013040493A1 (en) 2011-09-16 2013-03-21 Qualcomm Incorporated Detecting that a mobile device is riding with a vehicle
US20130076788A1 (en) 2011-09-26 2013-03-28 Eyeducation A. Y. Ltd Apparatus, method and software products for dynamic content management
US8723824B2 (en) 2011-09-27 2014-05-13 Apple Inc. Electronic devices with sidewall displays
US8617081B2 (en) 2011-09-28 2013-12-31 Xerox Corporation Estimating cardiac pulse recovery from multi-channel source data via constrained source separation
WO2013049861A1 (en) 2011-09-29 2013-04-04 Magic Leap, Inc. Tactile glove for human-computer interaction
US9268406B2 (en) 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
CN103917704A (zh) 2011-10-06 2014-07-09 Iee国际电子工程股份公司 用于乘用人感测和/或加热应用的导电性织物
TW201315438A (zh) 2011-10-14 2013-04-16 Ind Tech Res Inst 非接觸式之心脈量測方法及其系統
CN102660988B (zh) 2011-10-18 2014-03-12 北京盈胜泰科技术有限公司 智能坐便器
US20130104084A1 (en) 2011-10-21 2013-04-25 Digital Artforms, Inc. Systems and methods for human-computer interaction using a two handed interface
EP2587347A3 (en) 2011-10-25 2016-01-20 Broadcom Corporation Portable computing device including a three-dimensional touch screen
EP3258671B1 (en) 2011-10-28 2018-09-05 Magic Leap, Inc. System and method for augmented and virtual reality
US20130106710A1 (en) 2011-10-31 2013-05-02 Nokia Corporation Methods, apparatuses, and computer program products for adjusting touchscreen sensitivity
JP2013101526A (ja) 2011-11-09 2013-05-23 Sony Corp 情報処理装置、表示制御方法、およびプログラム
US10082950B2 (en) 2011-11-09 2018-09-25 Joseph T. LAPP Finger-mapped character entry systems
WO2013077883A1 (en) 2011-11-23 2013-05-30 Intel Corporation Gesture input with multiple views, displays and physics
US8869115B2 (en) 2011-11-23 2014-10-21 General Electric Company Systems and methods for emotive software usability
WO2013075270A1 (zh) 2011-11-25 2013-05-30 Yang Chang-Ming 一种侦测心跳或电极接触良好与否的物品、方法及系统
JP6125526B2 (ja) 2011-12-07 2017-05-10 フィリップス ライティング ホールディング ビー ヴィ 廃棄物選別を容易化する手段を備えた電子織物
EP2788838A4 (en) 2011-12-09 2015-10-14 Nokia Technologies Oy METHOD AND APPARATUS FOR IDENTIFYING A GESTURE AFTER THE FUSION OF MULTIPLE SENSOR SIGNALS
US20130147933A1 (en) 2011-12-09 2013-06-13 Charles J. Kulas User image insertion into a text message
US9323379B2 (en) 2011-12-09 2016-04-26 Microchip Technology Germany Gmbh Electronic device with a user interface that has more than two degrees of freedom, the user interface comprising a touch-sensitive surface and contact-free detection means
CN106342197B (zh) 2011-12-14 2013-02-13 中国电子科技集团公司第二十七研究所 一种用于对激光设备进行远近距离动态精度指标测试的系统
US9389681B2 (en) 2011-12-19 2016-07-12 Microsoft Technology Licensing, Llc Sensor fusion interface for multiple sensor input
US8749485B2 (en) 2011-12-20 2014-06-10 Microsoft Corporation User control gesture detection
WO2013141923A2 (en) * 2011-12-20 2013-09-26 Sadar 3D, Inc. Scanners, targets, and methods for surveying
US9684379B2 (en) 2011-12-23 2017-06-20 Intel Corporation Computing system utilizing coordinated two-hand command gestures
US20130169471A1 (en) 2011-12-28 2013-07-04 Hrl Laboratories, Llc Coded aperture beam analysis method and apparatus
US9141194B1 (en) 2012-01-04 2015-09-22 Google Inc. Magnetometer-based gesture sensing with a wearable device
JP5673568B2 (ja) 2012-01-16 2015-02-18 トヨタ自動車株式会社 物体検出装置
US8682395B2 (en) 2012-01-27 2014-03-25 Blackberry Limited Communications device and method having non-touch based input screen
US8527146B1 (en) 2012-01-30 2013-09-03 Google Inc. Systems and methods for updating vehicle behavior and settings based on the locations of vehicle passengers
KR101849373B1 (ko) 2012-01-31 2018-04-17 한국전자통신연구원 인체의 관절구조를 추정하기 위한 장치 및 방법
US20130194173A1 (en) 2012-02-01 2013-08-01 Ingeonix Corporation Touch free control of electronic systems and associated methods
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
US20130207962A1 (en) 2012-02-10 2013-08-15 Float Hybrid Entertainment Inc. User interactive kiosk with three-dimensional display
KR101330810B1 (ko) 2012-02-24 2013-11-18 주식회사 팬택 원거리 제스쳐 인식 기능을 갖는 디바이스 및 그 방법
US9389690B2 (en) 2012-03-01 2016-07-12 Qualcomm Incorporated Gesture detection based on information from multiple types of sensors
US9412273B2 (en) 2012-03-14 2016-08-09 Autoconnect Holdings Llc Radar sensing and emergency response vehicle detection
US20140309872A1 (en) 2013-04-15 2014-10-16 Flextronics Ap, Llc Customization of vehicle user interfaces based on user intelligence
EP2650754A3 (en) 2012-03-15 2014-09-24 Omron Corporation Gesture recognition apparatus, electronic device, gesture recognition method, control program, and recording medium
JP2013196047A (ja) 2012-03-15 2013-09-30 Omron Corp ジェスチャ入力装置、制御プログラム、コンピュータ読み取り可能な記録媒体、電子機器、ジェスチャ入力システム、および、ジェスチャ入力装置の制御方法
US20130249793A1 (en) 2012-03-22 2013-09-26 Ingeonix Corporation Touch free user input recognition
US9125456B2 (en) 2012-03-26 2015-09-08 Chong Sun CHOW Object-containing button
JP5928069B2 (ja) 2012-03-28 2016-06-01 トヨタ紡織株式会社 織物
US20140104206A1 (en) 2012-03-29 2014-04-17 Glen J. Anderson Creation of three-dimensional graphics using gestures
CN106012222B (zh) 2012-03-30 2018-01-16 英威达技术有限公司 具有控制纱系统的拉伸机织织物
US9575652B2 (en) 2012-03-31 2017-02-21 Microsoft Technology Licensing, Llc Instantiable gesture objects
US8933912B2 (en) 2012-04-02 2015-01-13 Microsoft Corporation Touch sensitive user interface with three dimensional input sensor
US9170674B2 (en) 2012-04-09 2015-10-27 Qualcomm Incorporated Gesture-based device control using pressure-sensitive sensors
JP5024495B1 (ja) 2012-04-17 2012-09-12 オムロン株式会社 ジェスチャ入力装置およびジェスチャ入力装置の制御方法
US9448636B2 (en) 2012-04-18 2016-09-20 Arb Labs Inc. Identifying gestures using gesture data compressed by PCA, principal joint variable analysis, and compressed feature matrices
US20130283203A1 (en) 2012-04-24 2013-10-24 Yahoo! Inc. Method and system for displaying search results
JP5721662B2 (ja) 2012-04-26 2015-05-20 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 入力受付方法、入力受付プログラム、及び入力装置
US9552503B2 (en) * 2012-05-01 2017-01-24 5D Robotics, Inc. Distributed positioning and collaborative behavior determination
US9411042B2 (en) 2012-05-09 2016-08-09 Duke University Multi-sensor compressive imaging
US20140121540A1 (en) 2012-05-09 2014-05-01 Aliphcom System and method for monitoring the health of a user
US8939367B2 (en) 2012-05-24 2015-01-27 Kenneth James Hintz Cavity axis orientation measurement device
US8897522B2 (en) 2012-05-30 2014-11-25 Xerox Corporation Processing a video for vascular pattern detection and cardiac function analysis
US8793046B2 (en) * 2012-06-01 2014-07-29 Google Inc. Inferring state of traffic signal and other aspects of a vehicle's environment based on surrogate data
MX2014015052A (es) 2012-06-12 2015-03-03 Koninkl Philips Nv Sistema para medicion de signos vitales basado en camara.
US9183310B2 (en) 2012-06-12 2015-11-10 Microsoft Technology Licensing, Llc Disambiguating intents within search engine result pages
US20130338460A1 (en) 2012-06-18 2013-12-19 David Da He Wearable Device for Continuous Cardiac Monitoring
SG10201610627QA (en) 2012-06-19 2017-01-27 Univ Singapore System and method for remote encounter and status assessment using parallel data and voice communication paths
US9042971B2 (en) 2012-06-22 2015-05-26 Fitbit, Inc. Biometric monitoring device with heart rate measurement activated by a single user-gesture
US9005129B2 (en) 2012-06-22 2015-04-14 Fitbit, Inc. Wearable heart rate monitor
US8768438B2 (en) 2012-06-25 2014-07-01 Xerox Corporation Determining cardiac arrhythmia from a video of a subject being monitored for cardiac function
US9582933B1 (en) 2012-06-26 2017-02-28 The Mathworks, Inc. Interacting with a model via a three-dimensional (3D) spatial environment
US10326678B2 (en) 2012-06-27 2019-06-18 Ubiquiti Networks, Inc. Method and apparatus for controlling power to an electrical load based on sensor data
JP5915414B2 (ja) * 2012-06-29 2016-05-11 ブラザー工業株式会社 プログラムおよび携帯端末
FR2992784B1 (fr) 2012-06-29 2015-08-07 Laselec Dispositif de denudage de cables electriques utilisant des diodes laser violettes ou bleues
KR101387190B1 (ko) 2012-07-05 2014-04-21 최재홍 천년초 선인장을 이용한 발효산물을 제조하는 방법
CN102819315B (zh) 2012-07-23 2016-04-13 中兴通讯股份有限公司 一种3d人机交互方法及系统
US9140782B2 (en) 2012-07-23 2015-09-22 Google Technology Holdings LLC Inter-vehicle alert system with nagable video look ahead
US9223494B1 (en) 2012-07-27 2015-12-29 Rockwell Collins, Inc. User interfaces for wearable computers
US9235241B2 (en) 2012-07-29 2016-01-12 Qualcomm Incorporated Anatomical gestures detection system using radio signals
US20150261310A1 (en) 2012-08-01 2015-09-17 Whirlscape, Inc. One-dimensional input system and method
MX360005B (es) 2012-08-03 2018-10-18 Safie Holdings LLC Aparato portátil de advertencia de colisión.
US8819812B1 (en) 2012-08-16 2014-08-26 Amazon Technologies, Inc. Gesture recognition for device input
US9323985B2 (en) 2012-08-16 2016-04-26 Microchip Technology Incorporated Automatic gesture recognition for a sensor system
US20140049487A1 (en) 2012-08-17 2014-02-20 Qualcomm Incorporated Interactive user interface for clothing displays
US20140051941A1 (en) 2012-08-17 2014-02-20 Rare Light, Inc. Obtaining physiological measurements using a portable device
DE102012214852B4 (de) 2012-08-21 2024-01-18 Robert Bosch Gmbh Verfahren und Vorrichtung zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs
KR20140027837A (ko) 2012-08-27 2014-03-07 삼성전자주식회사 모바일 디바이스 및 모바일 디바이스에서 사용자 인터페이스 방법
US9230160B1 (en) 2012-08-27 2016-01-05 Amazon Technologies, Inc. Method, medium, and system for online ordering using sign language
WO2014036436A1 (en) 2012-08-30 2014-03-06 Alivecor, Inc. Cardiac performance monitoring system for use with mobile communications devices
WO2014032984A1 (en) 2012-09-03 2014-03-06 Sony Corporation Hand-held security scanning device
WO2014039567A1 (en) 2012-09-04 2014-03-13 Bobo Analytics, Inc. Systems, devices and methods for continuous heart rate monitoring and interpretation
US9811901B2 (en) 2012-09-07 2017-11-07 Massachusetts Institute Of Technology Linear-based Eulerian motion modulation
US9817440B2 (en) 2012-09-11 2017-11-14 L.I.F.E. Corporation S.A. Garments having stretchable and conductive ink
US8948839B1 (en) 2013-08-06 2015-02-03 L.I.F.E. Corporation S.A. Compression garments having stretchable and conductive ink
ES2705526T3 (es) 2012-09-11 2019-03-25 Life Corp Sa Plataforma de comunicación ponible
US8945328B2 (en) 2012-09-11 2015-02-03 L.I.F.E. Corporation S.A. Methods of making garments having stretchable and conductive ink
US20140073969A1 (en) 2012-09-12 2014-03-13 Neurosky, Inc. Mobile cardiac health monitoring
US9036865B2 (en) 2012-09-12 2015-05-19 International Business Machines Corporation Location determination for an object using visual data
US9877650B2 (en) 2012-09-20 2018-01-30 Masimo Corporation Physiological monitor with mobile computing device connectivity
US9002174B2 (en) 2012-10-01 2015-04-07 Microsoft Technology Licensing, Llc Semantic zoom for related content
WO2014107203A2 (en) 2012-10-04 2014-07-10 Hooper William W Proximity sensor
US11099652B2 (en) 2012-10-05 2021-08-24 Microsoft Technology Licensing, Llc Data and user interaction based on device proximity
WO2014055755A1 (en) 2012-10-05 2014-04-10 TransRobotics, Inc. Systems and methods for high resolution distance sensing and applications
US9870056B1 (en) 2012-10-08 2018-01-16 Amazon Technologies, Inc. Hand and hand pose detection
US8860602B2 (en) 2012-10-09 2014-10-14 Accipiter Radar Technologies Inc. Device and method for cognitive radar information network
US20150280102A1 (en) 2012-10-12 2015-10-01 Kansai University Piezoelectric element
CN202887794U (zh) 2012-10-12 2013-04-17 上海斯麟特种设备工程有限公司 一种涂胶棉纱编织电缆
US9632574B2 (en) 2012-10-31 2017-04-25 Sony Corporation Device and method for authenticating a user
EP2917820B1 (en) 2012-11-06 2020-07-01 Nokia Technologies Oy Method and apparatus for creating motion effect for image
US9729986B2 (en) 2012-11-07 2017-08-08 Fairchild Semiconductor Corporation Protection of a speaker using temperature calibration
WO2014072461A1 (de) 2012-11-11 2014-05-15 Grönemeyer Medical GmbH & Co. KG Verfahren und vorrichtung zur bestimmung von vitalparametern
TWI471756B (zh) 2012-11-16 2015-02-01 Quanta Comp Inc 虛擬觸控方法
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
US9477313B2 (en) 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device
US9529439B2 (en) 2012-11-27 2016-12-27 Qualcomm Incorporated Multi device pairing and sharing via gestures
EP2925214A4 (en) 2012-11-30 2016-09-21 Kinsa Inc MOBILE HEALTH SYSTEM
GB2508626B (en) 2012-12-05 2014-10-29 R & D Core Ltd Contact sensor
TW201425974A (zh) 2012-12-17 2014-07-01 Ind Tech Res Inst 姿態感測裝置與方法
US9075429B1 (en) 2012-12-19 2015-07-07 Amazon Technologies, Inc. Distortion correction for device display
CN103903146A (zh) 2012-12-26 2014-07-02 北大方正集团有限公司 一种防伪信息验证的方法及装置
US20140188989A1 (en) 2012-12-27 2014-07-03 Google Inc. Exchanging content across multiple devices
FI124657B (en) 2012-12-31 2014-11-28 Suunto Oy Male connector for telemetric receiver
AU2014204252B2 (en) 2013-01-03 2017-12-14 Meta View, Inc. Extramissive spatial imaging digital eye glass for virtual or augmediated vision
US20140191939A1 (en) 2013-01-09 2014-07-10 Microsoft Corporation Using nonverbal communication in determining actions
CN103091667B (zh) 2013-01-10 2014-12-10 清华大学 一种车载雷达标定装置及标定方法
EP2943126B1 (en) 2013-01-14 2019-09-04 Uscom Limited Combined blood flow and pressure monitoring system and method
US10241639B2 (en) 2013-01-15 2019-03-26 Leap Motion, Inc. Dynamic user interactions for display control and manipulation of display objects
EP2948880A1 (en) 2013-01-25 2015-12-02 Vanderbilt University Smart mobile health monitoring system and related methods
DE102013201359A1 (de) 2013-01-29 2014-07-31 Robert Bosch Gmbh Verfahren und Vorrichtung zum Steuern eines Werkstattgeräts
US9146668B2 (en) * 2013-01-31 2015-09-29 Hewlett-Packard Development Company, L.P. Graphical element placement on a display surface
WO2014124520A1 (en) 2013-02-13 2014-08-21 Mespere Lifesciences Inc. Method and device for measuring venous blood oxygenation
US10261612B2 (en) 2013-02-22 2019-04-16 Samsung Electronics Co., Ltd. Apparatus and method for recognizing proximity motion using sensors
IN2013CH00818A (ko) 2013-02-25 2015-08-14 Cognizant Technology Solutions India Pvt Ltd
US9203835B2 (en) 2013-03-01 2015-12-01 Paypal, Inc. Systems and methods for authenticating a user based on a biometric model associated with the user
US20160012198A1 (en) 2013-03-05 2016-01-14 Vtm, Llc Medical Telecommunications System
BR112015021277A2 (pt) 2013-03-06 2017-07-18 Koninklijke Philips Nv sistema para determinar informações de sinais vitais de um indivíduo, método para determinar as informações de sinais vitais de um indivíduo e programa de computador
US9519351B2 (en) 2013-03-08 2016-12-13 Google Inc. Providing a gesture-based interface
CN104035552B (zh) 2013-03-08 2017-08-25 广州三星通信技术研究有限公司 三维操作方法和三维操作装置
US9913415B2 (en) 2013-03-13 2018-03-06 Federal-Mogul Powertrain Llc EMI shielding textile fabric, wrappable sleeve constructed therefrom and method of construction thereof
US9432361B2 (en) 2013-03-13 2016-08-30 Lookout, Inc. System and method for changing security behavior of a device based on proximity to another device
US11044451B2 (en) 2013-03-14 2021-06-22 Jawb Acquisition Llc Proximity-based control of media devices for media presentations
US20140276104A1 (en) 2013-03-14 2014-09-18 Nongjian Tao System and method for non-contact monitoring of physiological parameters
US8925807B2 (en) 2013-03-14 2015-01-06 Daniel Utley Audio port power generation circuit and auxiliary device
US20140280295A1 (en) 2013-03-14 2014-09-18 Microsoft Corporation Multi-language information retrieval and advertising
WO2014144269A1 (en) 2013-03-15 2014-09-18 Mary Hogue Barrett Managing and accounting for privacy settings through tiered cookie set access
WO2014144261A2 (en) 2013-03-15 2014-09-18 Medusa Scientific Llc Electric field sensing and e field visualization
US20140281975A1 (en) 2013-03-15 2014-09-18 Glen J. Anderson System for adaptive selection and presentation of context-based media in communications
US20140364711A1 (en) 2013-03-27 2014-12-11 AkibaH Health Corporation All-in-one analyte sensor in a detachable external mobile device case
GB201305812D0 (en) 2013-03-28 2013-05-15 Univ Warwick Gesture tracking and classification
US9971414B2 (en) 2013-04-01 2018-05-15 University Of Washington Through Its Center For Commercialization Devices, systems, and methods for detecting gestures using wireless communication signals
US9170324B2 (en) 2013-04-04 2015-10-27 Raytheon Company Statistical movement analysis
GB201306475D0 (en) 2013-04-10 2013-05-22 Elliptic Laboratories As Touchless interaction devices
CN105142504B (zh) 2013-04-10 2018-04-06 皇家飞利浦有限公司 用于基于心脏活动来增强睡眠慢波活动的系统和方法
US20140309855A1 (en) 2013-04-12 2014-10-16 Bao Tran Smart car with automatic signalling
US10201278B2 (en) 2013-04-18 2019-02-12 California Institute Of Technology Life detecting radars
KR101373633B1 (ko) 2013-04-23 2014-03-13 상명대학교서울산학협력단 항복강력이 증가된 도전성금속복합사의 제조방법과, 이 제조방법에 의해 제조된 도전성금속복합사와, 이 도전성금속복합사를 이용하여 제조되는 자수회로제품
US10203405B2 (en) 2013-04-25 2019-02-12 The United States Of America As Represented By The Secretary Of The Army Multitone radar with range determination and method of use
US20140329567A1 (en) 2013-05-01 2014-11-06 Elwha Llc Mobile device with automatic volume control
WO2014183262A1 (en) 2013-05-14 2014-11-20 Empire Technology Development Llc Detection of user gestures
US20160103500A1 (en) 2013-05-21 2016-04-14 Stanley Innovation, Inc. System and method for a human machine interface utilizing near-field quasi-state electrical field sensing technology
KR101999958B1 (ko) 2013-05-22 2019-07-15 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US20140357369A1 (en) 2013-06-04 2014-12-04 Microsoft Corporation Group inputs via image sensor system
US10031586B2 (en) 2013-06-12 2018-07-24 Amazon Technologies, Inc. Motion-based gestures for a computing device
US9055879B2 (en) 2013-06-14 2015-06-16 Suunto Oy Device and method for assembling an electronic device and a flexible element for facilitating assembly of electronic components
WO2014204323A1 (en) 2013-06-17 2014-12-24 Stretchsense Limited Stretchable fabric sensors
US9436984B2 (en) 2013-06-21 2016-09-06 Xerox Corporation Compensating for motion induced artifacts in a physiological signal extracted from a single video
CN105518576B (zh) 2013-06-28 2019-04-16 陈家铭 根据手势的控制装置操作
KR20150006195A (ko) 2013-07-08 2015-01-16 엘지전자 주식회사 웨어러블 디바이스 및 그 제어 방법
US20150029050A1 (en) 2013-07-25 2015-01-29 Elwha Llc Wearable radar reflectors
US20150068069A1 (en) 2013-07-27 2015-03-12 Alexander Bach Tran Personally powered appliance
US8903568B1 (en) 2013-07-31 2014-12-02 SZ DJI Technology Co., Ltd Remote control method and terminal
US9529513B2 (en) 2013-08-05 2016-12-27 Microsoft Technology Licensing, Llc Two-hand interaction with natural user interface
US20150042789A1 (en) 2013-08-07 2015-02-12 Blackberry Limited Determining the distance of an object to an electronic device
US20170202463A1 (en) 2013-08-07 2017-07-20 Koninklijke Philips N.V. Monitoring system and method for monitoring the hemodynamic status of a subject
US20150046183A1 (en) 2013-08-12 2015-02-12 James V. Cireddu Remote, virtual physical exam acquisition and distribution
US10119208B2 (en) 2013-08-16 2018-11-06 Footfalls And Heartbeats Limited Method for making electrically conductive textiles and textile sensor
WO2015038684A1 (en) 2013-09-10 2015-03-19 Polyera Corporation Attachable article with signaling, split display and messaging features
US9244578B2 (en) 2013-09-12 2016-01-26 Intel Corporation Detecting gestures on the side of a computing device
JP6304257B2 (ja) 2013-09-12 2018-04-04 パナソニック株式会社 レーダ装置、車両及び移動体速度検出方法
FI126008B (en) 2013-09-13 2016-05-31 Murata Manufacturing Co cardiac monitoring system
US20150077345A1 (en) 2013-09-16 2015-03-19 Microsoft Corporation Simultaneous Hover and Touch Interface
US9383426B2 (en) 2013-09-17 2016-07-05 Farrokh Mohamadi Real-time, two dimensional (2-D) tracking of first responders with identification inside premises
EP3047357B1 (en) 2013-09-17 2019-12-11 Nokia Technologies Oy Determination of a display angle of a display
US20150085060A1 (en) 2013-09-20 2015-03-26 Microsoft Corporation User experience for conferencing with a touch screen display
KR102065417B1 (ko) 2013-09-23 2020-02-11 엘지전자 주식회사 웨어러블 이동단말기 및 그 제어방법
US9001082B1 (en) 2013-09-27 2015-04-07 Sensel, Inc. Touch sensor detector system and method
WO2015048582A1 (en) 2013-09-27 2015-04-02 Sensel, Inc. Resistive touch sensor system and method
US9224237B2 (en) 2013-09-27 2015-12-29 Amazon Technologies, Inc. Simulating three-dimensional views using planes of content
US20150095987A1 (en) 2013-10-01 2015-04-02 Certify Global LLC Systems and methods of verifying an authentication using dynamic scoring
US10152761B2 (en) 2013-10-04 2018-12-11 Iqvia Inc. Facilitating transactions for health applications designed for mobile devices
US9588591B2 (en) 2013-10-10 2017-03-07 Google Technology Holdings, LLC Primary device that interfaces with a secondary device based on gesture commands
WO2015052588A2 (en) 2013-10-10 2015-04-16 Itay Katz Systems, devices, and methods for touch-free typing
JP5929870B2 (ja) 2013-10-17 2016-06-08 株式会社デンソー 物標検出装置
CA2928197A1 (en) 2013-10-23 2015-04-30 Quanttus, Inc. Consumer biometric devices
US10228801B2 (en) 2013-10-24 2019-03-12 University Of Maryland, Baltimore County System and method for proximity-based position, movement and gesture detection using capacitive sensor arrays
US20160262685A1 (en) 2013-11-12 2016-09-15 Highland Instruments, Inc. Motion analysis systemsand methods of use thereof
WO2015078735A1 (en) 2013-11-27 2015-06-04 Koninklijke Philips N.V. Device and method for obtaining pulse transit time and/or pulse wave velocity information of a subject
US20180160943A1 (en) 2013-12-10 2018-06-14 4Iiii Innovations Inc. Signature based monitoring systems and methods
US20150177866A1 (en) 2013-12-23 2015-06-25 Microsoft Corporation Multiple Hover Point Gestures
US9322908B2 (en) 2013-12-23 2016-04-26 Elwha Llc Systems and methods for concealed radar imaging
US20160192039A1 (en) 2013-12-28 2016-06-30 Intel Corporation System and method for device action and configuration based on user context detection from sensors in peripheral devices
US20150205358A1 (en) 2014-01-20 2015-07-23 Philip Scott Lyren Electronic Device with Touchless User Interface
WO2015112512A1 (en) 2014-01-21 2015-07-30 California Institute Of Technology Portable electronic hemodynamic sensor systems
US20150226004A1 (en) 2014-02-10 2015-08-13 Michael C. Thompson Technique to verify underground targets utilizing virtual reality imaging and controlled excavation
FR3017722A1 (fr) 2014-02-17 2015-08-21 Tounwendsida Ulysse Philippe Semde Dispositif permettant a toutes personnes valide, ou handicapee moteur, ou sourde-muette d'editer, modifier et publier un logiciel informatique, de facon autonome, sans connaissances prealables en informatique et sans contact physique avec le terminal
WO2015126095A1 (ko) 2014-02-21 2015-08-27 삼성전자 주식회사 전자 장치
US10429888B2 (en) 2014-02-25 2019-10-01 Medibotics Llc Wearable computer display devices for the forearm, wrist, and/or hand
US9594443B2 (en) 2014-02-26 2017-03-14 Lenovo (Singapore) Pte. Ltd. Wearable device authentication and operation
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US20150257653A1 (en) 2014-03-14 2015-09-17 Elwha Llc Device, system, and method for determining blood pressure in a mammalian subject
EP2923642B1 (en) 2014-03-25 2017-03-15 Ulrich Scholten Application agnostic sensor, control computer and methods for operating
US9921657B2 (en) 2014-03-28 2018-03-20 Intel Corporation Radar-based gesture recognition
CN106537623A (zh) 2014-04-16 2017-03-22 帝人株式会社 使用了纤维的将电信号作为输出或输入的换能器
US9346167B2 (en) 2014-04-29 2016-05-24 Brain Corporation Trainable convolutional network apparatus and methods for operating a robotic vehicle
CN103926584B (zh) * 2014-04-30 2016-07-06 电子科技大学 一种空间-频率-极化组合协同探测方法
US9365213B2 (en) 2014-04-30 2016-06-14 Here Global B.V. Mode transition for an autonomous vehicle
CN106415454A (zh) 2014-04-30 2017-02-15 Lg伊诺特有限公司 触控设备、具有该触控设备的可穿戴设备及触控识别方法
US9766715B2 (en) 2014-05-01 2017-09-19 Seiko Epson Corporation Head-mount type display device, control system, method of controlling head-mount type display device, and computer program
US10613627B2 (en) 2014-05-12 2020-04-07 Immersion Corporation Systems and methods for providing haptic feedback for remote interactions
CA2949088C (en) 2014-05-15 2023-01-24 Federal Express Corporation Wearable devices for courier processing and methods of use thereof
US10250799B2 (en) 2014-05-21 2019-04-02 Google Technology Holdings LLC Enhanced image capture
US10782657B2 (en) 2014-05-27 2020-09-22 Ultrahaptics IP Two Limited Systems and methods of gestural interaction in a pervasive computing environment
US9485266B2 (en) 2014-06-02 2016-11-01 Bastille Network, Inc. Security measures based on signal strengths of radio frequency signals
US9575560B2 (en) 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
US9331422B2 (en) 2014-06-09 2016-05-03 Apple Inc. Electronic device with hidden connector
US9354709B1 (en) 2014-06-17 2016-05-31 Amazon Technologies, Inc. Tilt gesture detection
US9678506B2 (en) 2014-06-19 2017-06-13 Skydio, Inc. Magic wand interface and other user interaction paradigms for a flying digital assistant
WO2015200710A2 (en) 2014-06-25 2015-12-30 University Of Washington Devices, systems, and methods for detecting gestures using multiple antennas and/or reflections of signals transmitted by the detecting device
US10099315B2 (en) 2014-06-27 2018-10-16 Jabil Inc. System, apparatus and method for hybrid function micro welding
KR20160004073A (ko) * 2014-07-02 2016-01-12 삼성전자주식회사 비휘발성 메모리 장치 및 그 구동 방법
GB2528044B (en) 2014-07-04 2018-08-22 Arc Devices Ni Ltd Non-touch optical detection of vital signs
JP6282188B2 (ja) 2014-07-04 2018-02-21 クラリオン株式会社 情報処理装置
US9552069B2 (en) 2014-07-11 2017-01-24 Microsoft Technology Licensing, Llc 3D gesture recognition
US10234952B2 (en) 2014-07-18 2019-03-19 Maxim Integrated Products, Inc. Wearable device for using human body as input mechanism
US9921660B2 (en) 2014-08-07 2018-03-20 Google Llc Radar-based gesture recognition
US9378353B2 (en) 2014-08-07 2016-06-28 Verizon Patent And Licensing Inc. Methods and systems for determining a user identity by analysis of reflected radio frequency signals received by an antenna array
US9811164B2 (en) 2014-08-07 2017-11-07 Google Inc. Radar-based gesture sensing and data transmission
WO2016023027A1 (en) 2014-08-08 2016-02-11 Orn, Inc. Garment including integrated sensor components and feedback components
US10268321B2 (en) 2014-08-15 2019-04-23 Google Llc Interactive textiles within hard objects
US9588625B2 (en) 2014-08-15 2017-03-07 Google Inc. Interactive textiles
WO2016025961A1 (en) 2014-08-15 2016-02-18 California Institute Of Technology Herma - heartbeat microwave authentication
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
US20160054792A1 (en) 2014-08-22 2016-02-25 Google Inc. Radar-Based Biometric Recognition
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
US20160062571A1 (en) 2014-09-02 2016-03-03 Apple Inc. Reduced size user interface
US10931934B2 (en) 2014-09-02 2021-02-23 FLIR Belgium BVBA Watercraft thermal monitoring systems and methods
US11181637B2 (en) 2014-09-02 2021-11-23 FLIR Belgium BVBA Three dimensional target selection systems and methods
US11137490B2 (en) * 2014-09-16 2021-10-05 Teknologian Tutkimuskeskus Vtt Navigational aid with adaptive radar
US9849588B2 (en) 2014-09-17 2017-12-26 Brain Corporation Apparatus and methods for remotely controlling robotic devices
US9821470B2 (en) 2014-09-17 2017-11-21 Brain Corporation Apparatus and methods for context determination using real time sensor data
US20160085296A1 (en) 2014-09-23 2016-03-24 Intel Corporation Wearable input device
JP6206674B2 (ja) 2014-09-24 2017-10-04 富士フイルム株式会社 診療支援装置、診療支援装置の作動方法および作動プログラム、並びに診療支援システム
US10694960B2 (en) 2014-09-29 2020-06-30 Microsoft Technology Licensing, Llc Wearable pulse pressure wave sensing device
EP3202240B1 (en) 2014-09-29 2024-04-17 IMEC vzw Smart textile product and method for fabricating the same
US9315197B1 (en) 2014-09-30 2016-04-19 Continental Automotive Systems, Inc. Hands accelerating control system
CN114296574A (zh) 2014-09-30 2022-04-08 苹果公司 织物感测设备
US9600080B2 (en) 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition
US9630318B2 (en) 2014-10-02 2017-04-25 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
GB201417536D0 (en) 2014-10-03 2014-11-19 Microsoft Corp Adapting quantization
US20160106328A1 (en) 2014-10-16 2016-04-21 Xerox Corporation Determining arterial pulse transit time from time-series signals obtained at proximal and distal arterial sites
US10055064B2 (en) 2014-10-29 2018-08-21 Sony Corporation Controlling multiple devices with a wearable input device
WO2016073655A2 (en) 2014-11-04 2016-05-12 North Carolina State University Smart sensing systems and related methods
US9398422B2 (en) 2014-11-05 2016-07-19 Beco, Inc. Systems, methods and apparatus for light enabled indoor positioning and reporting
KR102202600B1 (ko) 2014-11-10 2021-01-13 한국전자통신연구원 레이더 신호 처리를 위한 빔 형성 장치 및 그 방법
US11069257B2 (en) 2014-11-13 2021-07-20 Smartdrive Systems, Inc. System and method for detecting a vehicle event and generating review criteria
US9733340B2 (en) 2014-11-21 2017-08-15 Texas Instruments Incorporated Techniques for high arrival angle resolution using multiple nano-radars
US20160090839A1 (en) 2014-11-26 2016-03-31 Larry G. Stolarczyk Method of protecting the health and well-being of coal mine machine operators
US9830073B2 (en) 2014-12-12 2017-11-28 Alpine Electronics, Inc. Gesture assistive zoomable selector for screen
US20160306034A1 (en) 2014-12-23 2016-10-20 Infineon Technologies Ag RF System with an RFIC and Antenna System
US10064582B2 (en) 2015-01-19 2018-09-04 Google Llc Noninvasive determination of cardiac health and other functional states and trends for human physiological systems
KR101560282B1 (ko) 2015-03-06 2015-10-14 주식회사 휴이노 생체 신호 측정 및 측정된 생체 신호에 기초한 실시간 혈압 추정 모니터링 기능을 구비한 모바일 단말기
US9552097B2 (en) 2015-01-28 2017-01-24 Qualcomm Incorporated Techniques for discerning between intended and unintended gestures on wearable touch-sensitive fabric
US9753136B2 (en) 2015-02-11 2017-09-05 Motorola Mobility Llc Portable electronic device with proximity sensors for gesture control and contact detection
US10132920B2 (en) 2015-02-16 2018-11-20 Kenneth J Hintz Dispersive object detector and clutter reduction device
US9699663B1 (en) 2015-02-20 2017-07-04 Kathryn Jovancevic Spectrum sharing system
US9817109B2 (en) 2015-02-27 2017-11-14 Texas Instruments Incorporated Gesture recognition using frequency modulated continuous wave (FMCW) radar with low angle resolution
US10660382B2 (en) 2015-02-27 2020-05-26 Honeywell Safety Products Usa, Inc. Apparatus, systems and methods for optimizing and masking compression in a biosensing garment
US10168785B2 (en) 2015-03-03 2019-01-01 Nvidia Corporation Multi-sensor based user interface
US10016162B1 (en) 2015-03-23 2018-07-10 Google Llc In-ear health monitoring
US9983747B2 (en) 2015-03-26 2018-05-29 Google Llc Two-layer interactive textiles
US20160284436A1 (en) 2015-03-26 2016-09-29 Google Inc. Conductive Thread for Interactive Textiles
US20160283101A1 (en) 2015-03-26 2016-09-29 Google Inc. Gestures for Interactive Textiles
JP6421935B2 (ja) 2015-03-31 2018-11-14 パナソニックIpマネジメント株式会社 車両移動推定装置および車両移動推定方法
US10709383B2 (en) 2015-04-02 2020-07-14 Microsoft Technology Licnesing, Llc Wrist-worn pulse transit time sensor
US9848780B1 (en) 2015-04-08 2017-12-26 Google Inc. Assessing cardiovascular function using an optical sensor
EP3943971A1 (en) 2015-04-20 2022-01-26 ResMed Sensor Technologies Limited Detection and identification of a human from characteristic signals
US20160321428A1 (en) 2015-04-29 2016-11-03 Google, Inc. Customizable Health Monitoring
CN107466389B (zh) 2015-04-30 2021-02-12 谷歌有限责任公司 用于确定类型不可知的rf信号表示的方法和装置
EP3289432B1 (en) 2015-04-30 2019-06-12 Google LLC Rf-based micro-motion tracking for gesture tracking and recognition
EP3289434A1 (en) 2015-04-30 2018-03-07 Google LLC Wide-field radar-based gesture recognition
US10080528B2 (en) 2015-05-19 2018-09-25 Google Llc Optical central venous pressure measurement
US20160338599A1 (en) 2015-05-22 2016-11-24 Google, Inc. Synchronizing Cardiovascular Sensors for Cardiovascular Monitoring
US9693592B2 (en) 2015-05-27 2017-07-04 Google Inc. Attaching electronic components to interactive textiles
US10088908B1 (en) 2015-05-27 2018-10-02 Google Llc Gesture detection and interactions
US20160349845A1 (en) 2015-05-28 2016-12-01 Google Inc. Gesture Detection Haptics and Virtual Tools
US10376195B1 (en) 2015-06-04 2019-08-13 Google Llc Automated nursing assessment
US9778353B2 (en) 2015-06-24 2017-10-03 Htc Corporation Handheld device, object positioning method and computer-readable recording medium
US20180296163A1 (en) 2015-07-27 2018-10-18 Google Inc. Altering Physiological Signals Based On Patient Movement
US9807619B2 (en) 2015-08-04 2017-10-31 Network Performance Research Group Llc Methods and apparatuses for use of simultaneous multiple channels in the dynamic frequency selection band in wireless networks
KR101938215B1 (ko) 2015-08-26 2019-01-14 주식회사 퓨처플레이 스마트 인터렉션 장치
US10063427B1 (en) 2015-09-14 2018-08-28 Amazon Technologies, Inc. Visualizing and interacting with resources of an infrastructure provisioned in a network
CN107066128A (zh) 2015-09-15 2017-08-18 新益先创科技股份有限公司 具电容感应功能的穿戴式装置及交互式机器宠物
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
US20170097684A1 (en) 2015-10-06 2017-04-06 Google, Inc. Compressed Sensing for Gesture Tracking and Recognition with Radar
US9864918B2 (en) 2015-11-04 2018-01-09 Ford Global Technologies, Llc Predicting vehicle movements based on driver body language
WO2017079484A1 (en) 2015-11-04 2017-05-11 Google Inc. Connectors for connecting electronics embedded in garments to external devices
KR102137213B1 (ko) 2015-11-16 2020-08-13 삼성전자 주식회사 자율 주행을 위한 모델 학습 장치 및 방법과 자율 주행 장치
US9990078B2 (en) 2015-12-11 2018-06-05 Immersion Corporation Systems and methods for position-based haptic effects
US10492302B2 (en) 2016-05-03 2019-11-26 Google Llc Connecting an electronic component to an interactive textile
US11003345B2 (en) 2016-05-16 2021-05-11 Google Llc Control-article-based control of a user interface
US10285456B2 (en) 2016-05-16 2019-05-14 Google Llc Interactive fabric
US10175781B2 (en) 2016-05-16 2019-01-08 Google Llc Interactive object with multiple electronics modules
US20170329412A1 (en) 2016-05-16 2017-11-16 Google Inc. Systems and Methods of Gesture-Based Control
US20180005766A1 (en) 2016-07-01 2018-01-04 Wisconsin Alumni Research Foundation Conductive textiles and related devices
CN106154270A (zh) 2016-09-07 2016-11-23 深圳市保千里电子有限公司 雷达分时检测目标的方法
US20180113032A1 (en) 2016-10-11 2018-04-26 North Carolina State University Flexible stretchable capacitive sensor
US10579150B2 (en) 2016-12-05 2020-03-03 Google Llc Concurrent detection of absolute distance and relative movement for sensing action gestures
JP7496203B2 (ja) 2019-11-28 2024-06-06 株式会社Lixil 便器装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120280900A1 (en) * 2011-05-06 2012-11-08 Nokia Corporation Gesture recognition using plural sensors
US20150185314A1 (en) * 2013-12-26 2015-07-02 International Business Machines Corporation Radar integration with handheld electronic devices

Also Published As

Publication number Publication date
US10300370B1 (en) 2019-05-28
JP2018527558A (ja) 2018-09-20
US11385721B2 (en) 2022-07-12
US10401490B2 (en) 2019-09-03
US11698439B2 (en) 2023-07-11
US20200393912A1 (en) 2020-12-17
US20170097413A1 (en) 2017-04-06
US10705185B1 (en) 2020-07-07
US20230273298A1 (en) 2023-08-31
JP6889293B2 (ja) 2021-06-18
US20220066567A1 (en) 2022-03-03
US10310621B1 (en) 2019-06-04
JP2020101560A (ja) 2020-07-02
JP7257447B2 (ja) 2023-04-13
KR102352236B1 (ko) 2022-01-14
US11132065B2 (en) 2021-09-28
US11481040B2 (en) 2022-10-25
US20200089314A1 (en) 2020-03-19
US20190321719A1 (en) 2019-10-24
JP2021131396A (ja) 2021-09-09
US20210326642A1 (en) 2021-10-21
CN107710012B (zh) 2021-08-27
US20190232156A1 (en) 2019-08-01
US11698438B2 (en) 2023-07-11
CN107710012A (zh) 2018-02-16
US10908696B2 (en) 2021-02-02
US20190257939A1 (en) 2019-08-22
WO2017062566A1 (en) 2017-04-13
US10222469B1 (en) 2019-03-05
US20210365124A1 (en) 2021-11-25
US10823841B1 (en) 2020-11-03
US11256335B2 (en) 2022-02-22
US11175743B2 (en) 2021-11-16
KR102377488B1 (ko) 2022-03-21
US20220019291A1 (en) 2022-01-20
US20220043519A1 (en) 2022-02-10
US20220066568A1 (en) 2022-03-03
US20200278422A1 (en) 2020-09-03
JP6694053B2 (ja) 2020-05-13
US10459080B1 (en) 2019-10-29
CN113655471A (zh) 2021-11-16
US11693092B2 (en) 2023-07-04
CN113655471B (zh) 2024-03-29
US11080556B1 (en) 2021-08-03
US10379621B2 (en) 2019-08-13
US11592909B2 (en) 2023-02-28
US11656336B2 (en) 2023-05-23
US20190011989A1 (en) 2019-01-10
KR20210047964A (ko) 2021-04-30
KR20180030123A (ko) 2018-03-21
US10540001B1 (en) 2020-01-21
KR20220011218A (ko) 2022-01-27
US10503883B1 (en) 2019-12-10
US10817065B1 (en) 2020-10-27
EP3359976A1 (en) 2018-08-15
US10768712B2 (en) 2020-09-08
US20210096653A1 (en) 2021-04-01

Similar Documents

Publication Publication Date Title
KR102245190B1 (ko) 레이더-사용가능 센서 퓨전
US11561519B2 (en) Systems and methods of gestural interaction in a pervasive computing environment
US11914792B2 (en) Systems and methods of tracking moving hands and recognizing gestural interactions
EP3855599A1 (en) Systems and methods of object detection in wireless power charging systems
CN110301118A (zh) 用于智能助理计算设备的位置校准
CN110178101A (zh) 虚拟传感器配置
Grosse-Puppendahl Capacitive sensing and communication for ubiquitous interaction and environmental perception
US20200264769A1 (en) System, method and devices for touch, user and object sensing for iot experiences

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant