KR20210047964A - 레이더-사용가능 센서 퓨전 - Google Patents
레이더-사용가능 센서 퓨전 Download PDFInfo
- Publication number
- KR20210047964A KR20210047964A KR1020217011901A KR20217011901A KR20210047964A KR 20210047964 A KR20210047964 A KR 20210047964A KR 1020217011901 A KR1020217011901 A KR 1020217011901A KR 20217011901 A KR20217011901 A KR 20217011901A KR 20210047964 A KR20210047964 A KR 20210047964A
- Authority
- KR
- South Korea
- Prior art keywords
- radar
- sensor
- motion
- feature
- detection
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
- G01S13/52—Discriminating between fixed and moving objects or between objects moving at different speeds
- G01S13/56—Discriminating between fixed and moving objects or between objects moving at different speeds for presence detection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/415—Identification of targets based on measurements of movement associated with the target
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/24—Constructional details thereof, e.g. game controllers with detachable joystick handles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/887—Radar or analogous systems specially adapted for specific applications for detection of concealed objects, e.g. contraband or weapons
- G01S13/888—Radar or analogous systems specially adapted for specific applications for detection of concealed objects, e.g. contraband or weapons through wall detection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
- G01S13/90—Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
- G01S13/90—Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
- G01S13/904—SAR modes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
- G01S7/4004—Means for monitoring or calibrating of parts of a radar system
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/411—Identification of targets based on measurements of radar reflectivity
- G01S7/412—Identification of targets based on measurements of radar reflectivity based on a comparison between measured values and known or stored values
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/40—Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
- G06F18/41—Interactive pattern learning with a human teacher
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G06K9/00201—
-
- G06K9/629—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C17/00—Arrangements for transmitting signals characterised by the use of a wireless electrical link
- G08C17/02—Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04Q—SELECTING
- H04Q9/00—Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W16/00—Network planning, e.g. coverage or traffic planning tools; Network deployment, e.g. resource partitioning or cells structures
- H04W16/24—Cell structures
- H04W16/28—Cell structures using beam steering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/80—Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8082—Virtual reality
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9322—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0384—Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2221/00—Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/21—Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F2221/2105—Dual mode as a secondary aspect
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C2201/00—Transmission systems of control signals via wireless link
- G08C2201/90—Additional features
- G08C2201/93—Remote control using other portable devices, e.g. mobile phone, PDA, laptop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04Q—SELECTING
- H04Q2209/00—Arrangements in telecontrol or telemetry systems
- H04Q2209/80—Arrangements in the sub-station, i.e. sensing device
- H04Q2209/88—Providing power supply at the sub-station
- H04Q2209/883—Providing power supply at the sub-station where the sensing device enters an active or inactive mode
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Electromagnetism (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Security & Cryptography (AREA)
- Computer Hardware Design (AREA)
- Computing Systems (AREA)
- Bioethics (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- User Interface Of Digital Computer (AREA)
- Radar Systems Or Details Thereof (AREA)
- Position Input By Displaying (AREA)
- Traffic Control Systems (AREA)
Abstract
본 문헌은 레이더-사용가능 센서 퓨전을 위한 장치들 및 기법들을 설명한다. 일부 양상들에서, 레이더 필드가 제공되고, 레이더 필드의 타겟에 대응하는 반사 신호들이 수신된다. 레이더 데이터를 제공하기 위하여 반사 신호들이 변환되고, 그 레이더 데이터로부터, 타겟의 물리적 특징을 표시하는 레이더 특징이 추출된다. 물리적 특징과 연관된 보충 센서 데이터를 제공하기 위하여 레이더 특징들에 기반하여 센서가 활성화된다. 이어서, 이를테면, 레이더 특징의 정확도 또는 해상도를 증가시킴으로써, 레이더 특징을 향상시키기 위하여 보충 센서 데이터를 사용하여 레이더 특징이 증강된다. 그렇게 함으로써, 향상된 레이더 특징들에 의존하는, 센서-기반 애플리케이션들의 성능이 개선될 수 있다.
Description
[0001]
본 출원은 2015년 10월 6일에 출원된 미국 가특허 출원번호 제62/237,975호를 우선권으로 주장하며, 상기 출원의 개시내용은 그 전체가 인용에 의해 본원에 통합된다.
[0002]
많은 컴퓨팅 디바이스들 및 전자 디바이스들은 디바이스의 주변들에 기반하여 완벽하고 직관적인(seamless and intuitive) 사용자 경험을 제공하기 위한 센서들을 포함한다. 예컨대, 디바이스는 가속도계가 디바이스 이동을 표시하는 것에 대한 응답으로 슬립 상태에서 나갈 수 있거나 또는 디바이스의 터치 스크린은 사용자의 얼굴과의 근접성을 표시하는 근접 센서에 대한 응답으로 디스에이블링될 수 있다. 그러나, 이러한 대부분의 센서들은 정확도, 레인지 또는 기능성이 제한되어 있으며, 단지 디바이스의 주변들의 개략적이거나 또는 급격한 변경을 감지할 수 있을 뿐이다. 따라서, 정확한 센서 입력이 없는 상태에서, 디바이스는 종종, 상이한 타입들의 사용자 상호작용 또는 심지어 사용자가 존재하는지 여부만을 추론하는데, 이는 부정확한 사용자 입력, 사용자의 잘못된 검출 또는 사용자의 비-검출, 및 사용자 불만을 초래한다.
[0003]
위의 맥락에서 센서 부정확성의 예들은, 가속도계가 비-사용자 관련 이동(예컨대, 이동하는 운송수단)을 감지하는 것에 대한 응답으로 부정확하게 슬립 상태로부터 나가고 사용자가 디바이스를 부정확하게 잡아서 근접 센서를 부분적으로 방해하는 것에 대한 응답으로 터치 스크린을 디스에이블링하는 디바이스를 포함한다. 이러한 경우들에서, 의도하지 않은 전력 상태 트랜지션(transition)들로 인해 디바이스의 배터리가 다 떨어질 수 있고 사용자가 그의 손을 움직일 때까지 터치 스크린을 통한 사용자 입력이 중단된다. 이들은 디바이스와의 사용자의 인터랙티브 경험(interactive experience)을 방해할 수 있는 센서 부정확성의 몇 가지 예들일 뿐이다.
[0004]
이 개시내용은 레이더-사용가능 센서 퓨전을 위한 장치들 및 기법들을 설명한다. 일부 실시예들에서, 레이더 필드가 제공되고, 레이더 필드의 타겟에 대응하는 반사 신호들이 수신된다. 레이더 데이터를 제공하기 위하여 반사 신호들이 변환되며, 타겟의 물리적 특징을 표시하는 레이더 특징이 레이더 데이터로부터 추출된다. 물리적 특징과 연관된 보충 센서 데이터를 제공하기 위하여 레이더 특징들에 기반하여 센서가 활성화된다. 이어서, 이를테면 레이더 특징의 정확도 또는 해상도를 증가시킴으로써 레이더 특징을 향상시키기 위하여, 보충 센서 데이터를 사용하여 레이더 특징이 증강된다. 이렇게 함으로써, 향상된 레이더 특징들에 의존하는 센서-기반 애플리케이션들의 성능이 개선될 수 있다.
[0005]
다른 양상들에서, 디바이스의 레이더 센서는 관심 공간에 대한 레이더 데이터를 획득하기 위해 활성화된다. 3차원(3D) 레이더 특징들이 레이더 데이터로부터 추출되고, 위치 데이터가 센서들로부터 수신된다. 위치 데이터에 기반하여, 공간에 대한 3D 랜드마크들의 세트를 생성하기 위해 3D 레이더 특징들의 공간 관계가 결정된다. 이 3D 랜드마크들의 세트는, 3D 랜드마크들과 매칭하는 3D 콘텍스트 모델을 식별하기 위해 알려진 3D 콘텍스트 모델들과 비교된다. 매칭 3D 콘텍스트 모델에 기반하여, 디바이스의 콘텍스추얼 세팅(contextual setting)들을 구성하기 위해 공간에 대한 콘텍스트가 리트리브되고 사용된다.
[0006]
본 요약은 레이더-사용가능 센서 퓨전에 관한 단순화된 개념들을 소개하기 위해 제공되며, 이는 상세한 설명에서 아래에 추가로 설명된다. 본 요약은 청구된 청구대상의 본질적인 특징들을 식별하도록 의도되지 않으며, 청구된 청구대상의 범위를 결정하는 데 사용하도록 의도되지도 않는다.
[0007]
레이더-사용가능 센서 퓨전의 실시예들은 다음 도면들을 참조하여 설명된다. 유사한 특징들 및 컴포넌트들을 참조하기 위해 도면들 전체에 걸쳐 유사한 도면부호들이 사용되었다.
도 1은 레이더 센서 및 추가 센서들을 갖는 컴퓨팅 디바이스를 포함하는 예시적인 환경을 예시한다.
도 2는 도 1에 도시된 센서들의 예시적인 타입들 및 구성들을 예시한다.
도 3은 도 1에 도시된 레이더 센서 및 대응하는 레이더 필드들의 예시적인 구현들을 예시한다.
도 4는 도 1에 도시된 레이더 센서 및 관통하는 레이더 필드의 다른 예시적인 구현을 예시한다.
도 5는 레이더-사용가능 센서 퓨전을 구현할 수 있는 컴포넌트들의 구성의 예를 예시한다.
도 6은 보충 센서 데이터로 레이더 데이터를 증강시키기 위한 예시적인 방법을 예시한다.
도 7은 향상된 레이더 특징들을 사용한 모션 추적의 구현의 예를 예시한다.
도 8은 하나 또는 그 초과의 실시예들에 따른 저-전력 센서 퓨전을 위한 예시적인 방법을 예시한다.
도 9는 센서-퓨전 엔진을 포함하는 스마트-텔레비전에 의해 구현된 저-전력 센서 퓨전의 예를 예시한다.
도 10은 보완 센서 데이터를 사용하여 레이더 특징을 검증(verify)하기 위한 예시적인 방법을 예시한다.
도 11은 관심 공간에 대한 콘텍스트 모델을 생성하기 위한 예시적인 방법을 예시한다.
도 12는 하나 또는 그 초과의 실시예들에 따라 전후 관계에 따라 맵핑되는 룸의 예를 예시한다.
도 13은 공간과 연관된 콘텍스트에 기반하여 콘텍스트 세팅들을 구성하기 위한 예시적인 방법을 예시한다.
도 14는 변경되고 있는공간의 콘텍스트에 대한 응답으로 콘텍스추얼 세팅들을 변경하는 예시적인 방법을 예시한다.
도 15는 콘텍스트의 변경에 대한 응답으로 컴퓨팅 디바이스의 콘텍스추얼 세팅들을 변경하는 예를 예시한다.
도 16은 레이더-사용가능 센서 퓨전의 기법들이 구현될 수 있는 예시적인 컴퓨팅 시스템을 예시한다.
도 1은 레이더 센서 및 추가 센서들을 갖는 컴퓨팅 디바이스를 포함하는 예시적인 환경을 예시한다.
도 2는 도 1에 도시된 센서들의 예시적인 타입들 및 구성들을 예시한다.
도 3은 도 1에 도시된 레이더 센서 및 대응하는 레이더 필드들의 예시적인 구현들을 예시한다.
도 4는 도 1에 도시된 레이더 센서 및 관통하는 레이더 필드의 다른 예시적인 구현을 예시한다.
도 5는 레이더-사용가능 센서 퓨전을 구현할 수 있는 컴포넌트들의 구성의 예를 예시한다.
도 6은 보충 센서 데이터로 레이더 데이터를 증강시키기 위한 예시적인 방법을 예시한다.
도 7은 향상된 레이더 특징들을 사용한 모션 추적의 구현의 예를 예시한다.
도 8은 하나 또는 그 초과의 실시예들에 따른 저-전력 센서 퓨전을 위한 예시적인 방법을 예시한다.
도 9는 센서-퓨전 엔진을 포함하는 스마트-텔레비전에 의해 구현된 저-전력 센서 퓨전의 예를 예시한다.
도 10은 보완 센서 데이터를 사용하여 레이더 특징을 검증(verify)하기 위한 예시적인 방법을 예시한다.
도 11은 관심 공간에 대한 콘텍스트 모델을 생성하기 위한 예시적인 방법을 예시한다.
도 12는 하나 또는 그 초과의 실시예들에 따라 전후 관계에 따라 맵핑되는 룸의 예를 예시한다.
도 13은 공간과 연관된 콘텍스트에 기반하여 콘텍스트 세팅들을 구성하기 위한 예시적인 방법을 예시한다.
도 14는 변경되고 있는공간의 콘텍스트에 대한 응답으로 콘텍스추얼 세팅들을 변경하는 예시적인 방법을 예시한다.
도 15는 콘텍스트의 변경에 대한 응답으로 컴퓨팅 디바이스의 콘텍스추얼 세팅들을 변경하는 예를 예시한다.
도 16은 레이더-사용가능 센서 퓨전의 기법들이 구현될 수 있는 예시적인 컴퓨팅 시스템을 예시한다.
개요
[0008]
종래의 센서 기법들은 주어진 타입의 센서와 연관된 내재적인 약점들로 인해 종종 제한적이고 부정확하다. 예컨대, 모션이 가속도계에 의해 제공되는 데이터를 통해 감지될 수 있지만 가속도계 데이터는 모션의 소스를 결정하는 데 유용하지 않을 수 있다. 다른 경우들에, 근접 센서는 오브젝트와의 근접성을 검출하기에 충분한 데이터를 제공할 수 있지만, 오브젝트의 아이덴티티는 근접성 데이터로부터 결정 가능하지 않을 수 있다. 따라서, 종래의 센서들은 사용자에 대한 디바이스의 관계를 포함하여 디바이스의 주변을 부정확하거나 불완전한 감지를 초래할 수 있는 약점들 또는 사각 지대들을 갖는다.
[0009]
레이더-사용 가능 센서 퓨전을 구현하는 장치들 및 기법들이 본원에서 설명된다. 일부 실시예들에서, 센서들의 개개의 세기들은 레이더와 결합되어 각각의 센서의 개개의 약점을 완화시킨다. 예컨대, 사용자의 얼굴의 표면 레이더 특징은 표정 인식 애플리케이션의 정확도를 개선하기 위해 RGB(red-green-blue) 카메라의 이미저리와 결합될 수 있다. 다른 경우들에서, 빠른 모션을 추적할 수 있는 레이더 모션 특징은, 빠른 공간 이동들을 검출하는 것이 가능한 애플리케이션을 제공하도록, RGB 센서의 이미저리와 결합되며, 이는 공간 정보를 캡처하는데 있어서 탁월하다.
[0010]
또 다른 경우들에서, 레이더 표면 특징들은 디바이스의 환경(예컨대, 룸들 또는 공간들)의 맵핑을 인에이블링하도록 가속도계로부터의 방향 또는 지향성 정보로 증강될 수 있다. 그러한 경우들에서, 디바이스는, 디바이스가 동작하는 콘텍스트들을 학습하거나 검출할 수 있고 그리하여 디바이스의 다양한 콘텍스추얼 특징들 및 세팅들을 인에이블링한다. 이들은 센서 퓨전 또는 콘텍스추얼 감지를 위해 레이더가 레버리지될 수 있는 방식들 중 몇 개의 예일 뿐이며, 이들은 본원에서 설명된다. 다음의 논의는 먼저 동작 환경을 설명하고, 이 환경에서 사용될 수 있는 기법들이 이어지며, 예시적인 시스템들로 끝난다.
동작 환경
[0011]
도 1은 레이더-사용 가능 센서 퓨전이 인에이블링될 수 있는 컴퓨팅 디바이스를 예시한다. 컴퓨팅 디바이스(102)는 다양한 비-제한적인 예시적인 디바이스들, 스마트-안경(102-1), 스마트-시계(102-2), 스마트폰(102-3), 태블릿(102-4), 랩톱 컴퓨터(102-5) 및 게이밍 시스템(102-6)으로 예시되지만, 다른 디바이스들, 이를테면, 홈 자동화 및 제어 시스템들, 엔터테인먼트 시스템들, 오디오 시스템들, 다른 가전 기기들, 보안 시스템들, 넷북들, 자동차들, 스마트-기기들 및 e-리더들이 또한 사용될 수 있다. 컴퓨팅 디바이스(102)는 착용 가능하거나, 착용 불가능지만 이동가능하거나 또는 비교적 움직이기 어려울 수 있다는(예컨대, 데스크톱들 및 기기들)것에 유의한다.
[0012]
컴퓨팅 디바이스(102)는 하나 또는 그 초과의 컴퓨터 프로세서들(104) 및 컴퓨터-판독가능 매체(106)를 포함하며, 컴퓨터-판독가능 매체(106)는 메모리 매체 및 저장 매체를 포함한다. 컴퓨터 판독가능 매체(106) 상에 컴퓨터-판독가능 명령들로서 구현된 애플리케이들 및/또는 운영 체제(도시되지 않음)는 본원에서 설명된 기능성들 중 일부를 제공하도록 프로세서들(104)에 의해 실행될 수 있다. 컴퓨터-판독가능 매체(106)는 또한 아래에서 설명되는 센서-기반 애플리케이션들(108), 센서 퓨전 엔진(110) 및 콘텍스트 관리자(112)를 포함한다.
[0013]
또한, 컴퓨팅 디바이스(102)는 유선, 무선 또는 광학 네트워크들을 통해 데이터를 통신하기 위한 하나 또는 그 초과의 네트워크 인터페이스들(114), 및 및 디스플레이(116)를 포함할 수 있다. 네트워크 인터페이스(114)는 LAN(local-area-network), WLAN(wireless local-area-network), PAN(personal-area-network), WAN(wide-area-network), 인트라넷, 인터넷, 피어-투-피어 네트워크, 포인트-투-포인트 네트워크, 메시 네트워크 등을 통해 데이터를 통신할 수 있다. 디스플레이(116)는 컴퓨팅 디바이스(102)와 일체형이거나 그와 연관될 수 있으며, 이를테면, 게이밍 시스템(102-6)과 일체형이거나 그와 연관될 수 있다.
[0014]
컴퓨팅 디바이스(102)는, 컴퓨팅 디바이스(102)가 동작하는 환경의 다양한 특성들, 변화들, 자극들 또는 특징들을 컴퓨팅 디바이스(102)가 감지하는 것을 가능하게 하는 하나 또는 그 초과의 센서들(118)을 포함한다. 예컨대, 센서들(118)은 다양한 모션 센서들, 광 센서들, 음향 센서들 및 자기 센서들을 포함할 수 있다. 대안적으로 또는 부가적으로, 센서들(118)은 컴퓨팅 디바이스(102)의 사용자와의 상호작용을 가능하게 하거나 사용자로부터의 입력을 수신한다. 센서들(118)의 사용 및 구현은 변하며 아래에서 설명된다.
[0015]
컴퓨팅 디바이스(102)는 또한 레이더 센서(120)와 연관되거나 레이더 센서(120)를 포함할 수 있다. 레이더 센서(120)는 RF(radio frequency) 또는 레이더 신호들의 송신 및 수신을 통해 타겟들을 무선으로 검출하는 기능성을 대표한다. 레이더 센서(120)는 SoC(System-on-Chip) 또는 센서-온-칩과 같이 컴퓨팅 디바이스(102) 내에 내장된 시스템 및/또는 레이더-사용 가능 컴포넌트로서 구현될 수 있다. 그러나, 레이더 센서(120)는 임의의 다른 적절한 방식으로, 이를테면 하나 또는 그 초과의 IC(Integrated Circuit)들로, 프로세서 명령들이 내장되어 있거나 또는 프로세서 명령들이 저장되어 있는 메모리에 액세스하도록 구성된 프로세서로서, 펌웨어가 내장된 하드웨어, 다양한 하드웨어 컴포넌트들을 갖는 인쇄 회로 보드 어셈블리로서 또는 이들의 임의의 결합으로 구현될 수 있다는 것이 인지될 것이다. 여기서, 레이더 센서(120)는 컴퓨팅 디바이스(102)의 환경에서 다양한 타입들의 타겟들을 무선으로 검출하기 위해 함께 사용될 수 있는 레이더-방사 엘리먼트(122), 안테나(들)(124) 및 디지털 신호 프로세서(126)를 포함한다.
[0016]
일반적으로, 레이더-방사 엘리먼트(122)는 레이더 필드를 제공하도록 구성된다. 일부 경우들에서, 레이더 필드는 하나 또는 그 초과의 타겟 오브젝트들에서 적어도 부분적으로 반사하도록 구성된다. 일부 경우들에서, 타겟 오브젝트들은 디바이스 사용자들 또는 컴퓨팅 디바이스(102)의 환경에 존재하는 다른 사람들을 포함한다. 다른 경우들에서, 타겟 오브젝트들은 사용자의 물리적 특징들, 이를테면 손 모션, 호흡률 또는 다른 생리적 특징들을 포함한다. 레이더 필드는 또한 직물이나 다른 장애물을 관통하고 인간 조직으로부터 반사되도록 구성될 수 있다. 이러한 직물들 또는 장애물들은 목재, 유리, 플라스틱, 면, 양모, 나일론 및 유사한 섬유들 등을 포함할 수 있는 반면에, 인간 조직들, 이를테면, 사람의 손으로부터 반사된다.
[0017]
레이더-방사 엘리먼트(122)에 의해 제공되는 레이더 필드는 작은 사이즈, 이를테면, 0 또는 1 밀리미터 내지 1.5 미터, 또는 중간 사이즈, 이를테면, 1 내지 30 미터일 수 있다. 이들 사이즈들이 단지 논의를 위한 것이고, 레이더 필드의 임의의 다른 적절한 사이즈 또는 레인지가 사용될 수 있다는 것이 인지된다. 예컨대, 레이더 필드가 중간 사이즈를 가질 때, 레이더 센서(120)는 신체, 팔 또는 다리 이동들에 의해 야기되는 인간 조직으로부터의 반사들에 기반하여 큰 신체 제스처들을 제공하기 위해 레이더 필드의 반사들을 수신하여 프로세싱하도록 구성될 수 있다.
[0018]
일부 양상들에서, 레이더 필드는 레이더 센서(120)가 더 작고 더 정확한 제스처들, 이를테면, 마이크로-제스처들을 검출하는 것을 가능하게 하도록 구성될 수 있다. 예시적인 중간-사이즈 레이더 필드들은, 사용자가 소파에서 텔레비전을 제어하고, 룸 전체에 걸쳐 스테레오로부터의 노래 또는 볼륨을 변경하고, 오븐 또는 오븐 타이머를 턴오프하고(여기서 근접 필드(near field )가 또한 유용할 것임), 룸의 조명들을 턴온 또는 턴오프하는 것 등을 위해 제스처들을 취하는 레이더 필드들을 포함한다. 레이더 센서(120) 또는 그의 이미터는 변조된 방사, 초광대역 방사, 또는 서브-밀리미터 주파수 방사를 연속적으로 방사하도록 구성될 수 있다.
[0019]
안테나(들)(124)는 레이더 센서(120)의 RF 신호들을 송신 및 수신한다. 일부 경우들에서, 레이더-방사 엘리먼트(122)는 레이더 필드를 송신하기 위해 안테나들(124)과 커플링된다. 당업자자 인지할 바와 같이, 이것은 송신을 위해 전기 신호들을 전자기 파들로 변환하고, 수신을 위해 그 역으로 변환함으로써 달성된다. 레이더 센서(120)는 임의의 적절한 구성으로 임의의 적절한 수의 안테나들 중 하나 또는 이들의 어레이를 포함할 수 있다. 예컨대, 안테나들(124) 중 임의의 안테나는 쌍극 안테나, 파라볼라 안테나, 헬리컬 안테나, 평면 안테나, 인버팅된-F 안테나, 단극 안테나 등으로서 구성될 수 있다. 일부 실시예들에서, 안테나들(124)은 온-칩으로(예컨대, SoC의 부분으로서) 구성되거나 형성되는 반면에, 다른 실시예들에서, 안테나들(124)은 레이더 센서(120)에 어태치되거나 레이더 센서(120)에 포함되는 별개의 컴포넌트들, 금속, 유전체들, 하드웨어 등이다.
[0020]
제1 안테나(124)는 단일-목적(예컨대, 제1 안테나는 신호들을 송신하는 것과 관련될 수 있으며, 제2 안테나(124)는 신호들을 수신하는 것과 관련될 수 있음)이거나, 다중-목적(예컨대, 안테나는 신호들을 송신 및 수신하는 것과 관련됨)일 수 있다. 따라서, 일부 실시예들, 이를테면, 수신을 위해 구성된 4 개의 단일-목적 안테나들과 결합하여 송신을 위해 구성된 2 개의 단일-목적 안테나들을 활용하는 실시예는 안테나들의 다양한 조합들을 활용하였다. 안테나들(124)의 배치, 사이즈, 및/또는 형상은 특정 송신 패턴 또는 다이버시티 방식, 이를테면, 본원에서 추가로 설명되는 바와 같이, 환경들에 관한 정보를 캡처하도록 설계된 패턴 또는 방식을 향상시키도록 선택될 수 있다.
[0021]
일부 경우들에서, 안테나들(124)은, 레이더 센서(120)가 상이한 채널들, 상이한 라디오 주파수들 및 상이한 거리들을 통해 타겟 오브젝트로 지향되는 신호들을 집합적으로 송신하고 수신하도록 허용하는 거리만큼 서로로부터 물리적으로 분리될 수 있다. 일부 경우들에서, 안테나들(124)은 삼각측량 기법들을 지원하도록 공간적으로 분산되는 반면에, 다른 경우들에서, 안테나들은 빔형성 기법들을 지원하도록 코로케이팅된다. 예시되지 않지만, 각각의 안테나는, 송신을 위한 발신 신호들 및 캡처 및 분석을 위한 착신 신호들을 물리적으로 라우팅하고 관리하는 개개의 트랜시버 경로에 대응할 수 있다.
[0022]
디지털 신호 프로세서(126)(DSP)(또는 디지털 신호 프로세싱 컴포넌트)는 일반적으로 신호를 디지털로 캡처하여 프로세싱하는 것에 관련된 동작들을 대표한다. 예컨대, 디지털 신호 프로세서(126)는, RF 신호들을 표현하는 레이더 데이터(예컨대, 디지털 샘플들)를 생성하기 위해 안테나(들)(124)에 의해 수신되는 아날로그 RF 신호들을 샘플링하고, 이어서 타겟 오브젝트에 관한 정보를 추출하기 위해 이러한 레이더 데이터를 프로세싱한다. 일부 경우들에서, 디지털 신호 프로세서(126)는 타겟 특징들, 위치 또는 다이나믹스(dynamics)를 설명하는 레이더 특징을 제공하기 위해 레이더 데이터에 대해 변환을 수행한다. 대안적으로 또는 부가적으로, 디지털 신호 프로세서(126)는 레이더-방사 엘리먼트(122) 및/또는 안테나들(124)에 의해 생성되고 송신되는 신호들의 구성, 이를테면, 특정 다이버시티 또는 빔형성 방식을 형성하기 위해 복수의 신호들을 구성하는 것을 제어한다.
[0023]
일부 경우들에서, 디지털 신호 프로세서(126)는, 이를테면, 센서-기반 애플리케이션들(108), 센서 퓨전 엔진(110), 또는 콘텍스트 관리자(112)를 통해, RF 신호의 송신 파라미터들(예컨대, 주파수 채널, 전력 레벨 등)을 제어하는 입력 구성 파라미터들을 수신한다. 차례로, 디지털 신호 프로세서(126)는 입력 구성 파라미터에 기반하여 RF 신호를 수정한다. 때때로, 디지털 신호 프로세서(126)의 신호 프로세싱 기능들은, 센서-기반 애플리케이션들(108) 또는 애플리케이션 프로그래밍 인터페이스들(API들)을 통해 또한 액세스가능하고 그리고/또는 구성가능한 신호 프로세싱 기능들 또는 알고리즘들의 라이브러리에 포함된다. 디지털 신호 프로세서(126)는 하드웨어, 소프트웨어, 펌웨어 또는 이들의 임의의 조합으로 구현될 수 있다.
[0024]
도 2는 일반적으로 200에서 레이더-사용가능 센서 퓨전의 실시예들을 구현하는데 사용될 수 있는 센서들(118)의 예시적인 타입들을 및 구성들을 예시한다. 이러한 센서들(118)은 컴퓨팅 디바이스(102)가 동작하는 환경의 다양한 특성들, 변화들, 자극들, 또는 특징들을 컴퓨팅 디바이스(102)가 감지하는 것을 가능하게 한다. 센서들(118)에 의해 제공되는 데이터는 컴퓨팅 디바이스의 다른 엔티티들, 이를테면, 센서 퓨전 엔진(110) 또는 콘텍스트 관리자(112)가 액세스할 수 있다. 비록 도시되지 않지만, 센서들(118)은 또한 글로벌-포지셔닝 모듈들, MEMS(micro-electromechanical system)들, 저항성 터치 센서들 등을 포함할 수 있다. 대안적으로 또는 부가적으로, 센서들(118)은 컴퓨팅 디바이스(102)의 사용자와의 상호작용을 가능하게 하거나, 사용자로부터의 입력을 수신할 수 있다. 그러한 경우에, 센서들(118)은 압전 센서들, 터치 센서들, 또는 하드웨어 스위치들(예컨대, 키보드들, 스냅-돔들, 또는 다이얼-패드들)과 연관된 입력 감지-로직 등을 포함할 수 있다.
[0025]
이러한 특정 예에서, 센서들(118)은 가속도계(202) 및 자이로스코프(204)를 포함한다. 이들 및 다른 모션 및 위치 센서들, 이를테면, 모션 감지 MEMS 또는 GPS(global positioning system)들(미도시)는 컴퓨팅 디바이스(102)의 이동 또는 방향을 감지하도록 구성된다. 가속도계(202) 또는 자이로스코프(204)는 임의의 적절한 양상, 이를테면, 1차원, 2차원, 3차원, 다중-축, 결합된 다중-축 등에서 디바이스의 이동 또는 방향을 감지할 수 있다. 대안적으로 또는 부가적으로, 위치 센서, 이를테면, GPS는 컴퓨팅 디바이스(102)의 이동된 거리, 이동 레이트(rate of travel), 또는 절대 또는 상대적인 위치를 표시할 수 있다. 일부 실시예들에서, 가속도계(202) 또는 자이로스코프(204)는, 사용자가 특정 방식으로 컴퓨팅 디바이스(102)를 이동시킬 때 이루어지는 제스처 입력들(예컨대, 일련의 위치 및/또는 방향 변경들)을 컴퓨팅 디바이스(102)가 감지하는 것을 가능하게 한다.
[0026]
컴퓨팅 디바이스(102)는 또한 홀 효과 센서(206) 및 자기력계(208)를 포함한다. 비록 도시되지 않았지만, 컴퓨팅 디바이스(102)는 또한 자기-다이오드(magneto-diode), 자기-트랜지스터(magneto-transistor), 자기 감지 MEMS 등을 포함할 수 있다. 이러한 자기장-기반 센서들은 컴퓨팅 디바이스(102) 주위의 자기장 특징들을 감지하도록 구성된다. 예컨대, 자기력계(208)는 자기장 세기, 자기장 방향 또는 자기장 방향의 변경을 감지할 수 있다. 일부 실시예들에서, 컴퓨팅 디바이스(102)는 자기장-기반 센서들로부터 수신되는 입력들에 기반하여 사용자 또는 다른 디바이스와의 근접성을 결정한다.
[0027]
컴퓨팅 디바이스(102)의 온도 센서(210)는 디바이스의 하우징의 온도 또는 디바이스의 환경의 주변 온도를 감지할 수 있다. 비록 도시되지 않았지만, 온도 센서(210)는 또한, 수분 레벨들이 결정될 수 있게 하는 습도 센서와 함께 구현될 수 있다. 일부 경우들에서, 온도 센서는 컴퓨팅 디바이스(102)를 보유, 착용 또는 휴대하고 있는 사용자의 온도를 감지할 수 있다. 대안적으로 또는 부가적으로, 컴퓨팅 디바이스는 관심 오브젝트와의 물리적 접촉 없이 또는 원격으로 온도를 감지할 수 있는 적외선 열 센서를 포함할 수 있다.
[0028]
컴퓨팅 디바이스(102)는 또한, 하나 또는 그 초과의 음향 센서들(212)을 포함한다. 음향 센서들은, 컴퓨팅 디바이스(102)가 동작하는 환경의 사운드를 모니터링하도록 구성된 음향파 센서들 또는 마이크로폰들로서 구현될 수 있다. 음향 센서들(212)은 사용자의 음성 입력을 수신하는 것이 가능하며, 이어서, 이 사용자의 음성 입력은 컴퓨팅 디바이스(102)의 프로세서 또는 DSP에 의해 프로세싱될 수 있다. 음향 센서들(212)에 의해 캡처되는 사운드는 임의의 적절한 컴포넌트, 이를테면 음색(pitch), 음질(timbre), 배음(harmonics), 음량(loudness), 리듬(rhythm), 엔벨로프 특징(envelope characteristic)들(예컨대, 공격, 지속, 감쇠) 등에 대해 분석되거나 측정될 수 있다. 일부 실시예들에서, 컴퓨팅 디바이스(102)는 음향 센서들(212)로부터 수신된 데이터에 기반하여 사용자를 식별하거나 구분한다.
[0029]
정전 용량형 센서들(214)은, 컴퓨팅 디바이스(102)가 커패시턴스의 변경들을 감지하는 것을 가능하게 한다. 일부 경우들에서, 커패시턴스 센서들(214)은 터치 입력을 수신하거나 사용자와의 근접성을 결정할 수 있는 터치 센서들로서 구성된다. 다른 경우들에서, 커패시턴스 센서들(214)은 컴퓨팅 디바이스(102)의 하우징 근위의 물질들의 특성들을 감지하도록 구성된다. 예컨대, 커패시턴스 센서들(214)은 표면(예컨대, 테이블 또는 데스크), 사용자의 신체 또는 사용자의 의류(예컨대, 의류 포켓 또는 소매)에 대한 디바이스 근접성을 표시하는 데이터를 제공할 수 있다. 대안적으로 또는 부가적으로, 정전 용량형 센서들은 컴퓨팅 디바이스(102)의 터치 스크린 또는 다른 입력 센서(이를 통해 터치 입력이 수신됨)로서 구성될 수 있다.
[0030]
컴퓨팅 디바이스(102)는 또한 오브젝트들과의 근접성을 감지하는 근접 센서들(216)을 포함할 수 있다. 근접 센서들은 임의의 적절한 타입의 센서, 이를테면 정전 용량형 센서 또는 적외선(IR:infrared) 센서로 구현될 수 있다. 일부 경우들에서, 근접 센서는 단거리 IR 이미터 및 수신기로서 구성된다. 이러한 경우들에서, 근접 센서는 사용자의 얼굴 또는 손과의 근접성을 검출하기 위해 컴퓨팅 디바이스(102)의 스크린 또는 하우징 내에 위치될 수 있다. 예컨대, 스마트-폰의 근접 센서(216)는, 의도치 않은(inadvertent) 사용자 입력의 수신을 방지하도록 스마트-폰의 터치 스크린을 디스에이블링하기 위해, 이를테면 음성 콜 동안 사용자의 얼굴의 검출을 인에이블링할 수 있다.
[0031]
컴퓨팅 디바이스(102)의 주변 광 센서(218)는 환경들에 대한 광의 강도, 품질 또는 변경들을 감지하도록 구성된 포토-다이오드 또는 다른 광학 센서들을 포함할 수 있다. 광 센서들은 주변 광 또는 지향 광을 감지하는 것이 가능하며, 이어서 이 주변 광 또는 지향 광은 디바이스의 환경의 양상들을 결정하기 위해 컴퓨팅 디바이스(102)에 의해(예컨대, DSP를 통해) 프로세싱될 수 있다. 예컨대, 주변 광의 변경들은 사용자가 컴퓨팅 디바이스(102)를 픽업했다는 것 또는 컴퓨팅 디바이스(102)가 사용자의 포켓로부터 제거되었다는 것을 표시할 수 있다.
[0032]
이 예에서, 컴퓨팅 디바이스는 또한 RGB 센서(red-green-blue sensor)(220) 및 적외선 센서(222)를 포함한다. RGB 센서(220)는 이미지들 또는 비디오의 형태로 이미저리를 캡처하도록 구성된 카메라 센서로서 구현될 수 있다. 일부 경우들에서, RGB 센서(220)는 낮은-광 환경들에서 이미저리의 광도(luminosity)를 증가시키는 LED(light-emitting diode) 플래시와 연관된다. 적어도 일부 실시예들에서, RGB 센서(220)는, 사용자, 이를테면 사용자의 얼굴 또는 사용자의 식별을 인에이블링하는 다른 물리적 특징과 연관된 이미저리를 캡처하도록 구현될 수 있다.
[0033]
적외선 센서(222)는 적외선 주파수 스펙트럼의 데이터를 캡처하도록 구성되며, 열 변동들을 감지하도록 또는 IR(infrared) 카메라로서 구성될 수 있다. 예컨대, 적외선 센서(222)는 디바이스의 환경에서 사용자 또는 다른 사람과 연관된 열 데이터를 감지하도록 구성될 수 있다. 대안적으로 또는 부가적으로, 적외선 센서는 IR LED와 연관될 수 있으며, 오브젝트와의 근접성 또는 오브젝트와의 거리를 감지하도록 구성될 수 있다.
[0034]
일부 실시예들에서, 컴퓨팅 디바이스는 깊이 센서(224)를 포함하며, 이 깊이 센서(224)는 RGB-향상 깊이 정보를 제공하기 위해 RGB 센서(220)와 함께 구현될 수 있다. 깊이 센서(222)는 단일 모듈 또는 별개의 컴포넌트들, 이를테면 IR 이미터, IR 카메라 및 깊이 프로세서로서 구현될 수 있다. 별개로 구현될 때, IR 이미터는 IR 카메라에 의해 수신되는 IR 광을 방사하며, 이는 깊이 프로세서에 IR 이미저리 데이터를 제공한다. 알려진 변수들, 이를테면 광속(speed of light)에 기반하여, 깊이 센서(224)의 깊이 프로세서는 타겟에 대한 거리를 분석(resolve)할 수 있다(예컨대, ToF(time-of-flight) 카메라). 대안적으로 또는 부가적으로, 깊이 센서(224)는 컴퓨팅 디바이스의 환경 또는 오브젝트의 표면의 3차원 깊이 맵을 분석할 수 있다.
[0035]
전력 소비 관점에서, 센서들(118) 각각은 동작하는 동안 상이한 개개의 전력량을 소비할 수 있다. 예컨대, 자기력계(208) 또는 음향 센서(212)는 동작을 위해 수십 밀리암페어를 소비할 수 있는 반면, RGB 센서, 적외선 센서(222), 또는 깊이 센서(224)는 동작을 위해 수백 밀리암페어를 소비할 수 있다. 일부 실시예들에서, 전력을 소비하는 동안 특정 타입들의 데이터를 획득하기 위해, 다른 센서들 대신 더 낮은 전력 센서들이 활성화될 수 있도록, 센서들(118) 중 하나 또는 그 초과의 센서들의 전력 소비가 미리 정의되거나 알려져 있다. 많은 경우들에서, 레이더 센서(120)는, 센서들(118)보다 적은 전력을 소비하면서 다양한 데이터를 획득하기 위해 연속적으로 또는 간헐적으로 동작할 수 있다. 이러한 경우들에서, 레이더 센서(120)는, 컴퓨팅 디바이스(102)의 전력을 보존하기 위해, 센서들(118) 전부 또는 대부분이 파워-다운되는 동안 동작할 수 있다. 대안적으로 또는 부가적으로, 레이더 센서(120)에 의해 제공되는 데이터에 기반하여, 센서들(118) 중 하나를 활성화하여 추가적 센서 데이터를 획득하는 결정이 이루어질 수 있다.
[0036]
도 3은, 레이더 센서(120) 및 이에 의해 제공되는 레이더 필드들의 예시적인 구성들을 일반적으로 300으로 예시한다. 도 3의 맥락에서, 레이더 센서(302-1)가 게이밍 시스템(304)에 임베딩되는 제1 예시적인 구성 및 레이더 센서(302-2)가 텔레비전(306)에 임베딩되는 제2 예시적인 구성인 레이더 센서(120)의 2개의 예시적인 구성들이 예시된다. 레이더 센서들(302-1 및 302-2)은 서로 또는 본원에서 다른 곳에 설명된 레이더 센서들과 유사하게 또는 상이하게 구현될 수 있다. 제1 예에서 레이더 센서(302-1)는 게이밍 시스템(304)과 상호작용하기 위한 근거리(near) 레이더 필드를 제공하고, 제2 예에서 레이더 센서(302-2)는 텔레비전(306)과 상호작용하기 위해 중간 레이더 필드(예컨대, 룸 사이즈)를 제공한다. 이러한 레이더 센서들(302-1 및 302-2)은 근거리 레이더 필드(308-1) 및 중간 레이더 필드(308-2)을 각각 제공하고, 아래에서 설명된다.
[0037]
게이밍 시스템(304)은, 레이더 센서(302-1)를 포함하거나, 또는 레이더 센서(302-1)와 연관된다. 이러한 디바이스들은 게이밍 시스템(304)과의 사용자 상호작용을 개선시키기 위해 함께 작동한다. 예컨대, 게이밍 시스템(304)은 콘텐츠 디스플레이 및 사용자 상호작용이 수행될 수 있게 하는 터치 스크린(310)을 포함하는 것으로 가정한다. 이러한 터치 스크린(310)은, 스크린을 터치할 수 있게 하기 위해 특정 방향, 이를테면, 똑바로(upright) 및 앞쪽으로 사람이 앉아있게 할 필요가 있는 것과 같은 몇 가지 난제들을 사용자들에게 제시할 수 있다. 게다가, 터치 스크린(310)을 통해 제어들을 선택하기 위한 사이즈는 일부 사용자들에게 상호작용을 어렵게 할 수 있고 시간-소모적일 수 있다. 그러나, 사용자의 손들이 이를테면, 3차원에서 그리고 1개의 손 또는 2개의 손들을 사용하는 제스처들을 포함하는 작은 또는 큰, 간단한 또는 복잡한 제스처들로 데스크톱 컴퓨터(304)와 상호작용하게 하는 것을 가능하게 하는 근거리 레이더 필드(308-1)를 제공하는 레이더 센서(302-1)를 고려하자. 쉽게 알 수 있는 바와 같이, 사용자가 선택들을 행할 수 있는 큰 볼륨은 실질적으로 더 쉬울 수 있으며 평평한 표면, 이를테면, 터치 스크린(310)의 평평한 표면 위에서 더 나은 경험을 제공할 수 있다.
[0038]
유사하게, 중간 레이더 필드(308-2)를 제공하는 레이더 센서(302-2)를 고려한다. 레이더-필드를 제공하는 것은 텔레비전의 정면에 위치한 사용자와 다양한 상호작용들을 가능하게 할 수 있다. 예컨대, 사용자는 손 제스처들로부터 팔 제스처들 내지는 전체-신체 제스처들의 범위에 걸친 다양한 제스처들을 통해 그리고 거리를 두고 텔레비전(306)과 상호작용할 수 있다. 그렇게 함으로써, 사용자 선택들은 평평한 표면(예컨대, 터치 스크린(310)), 원격 제어(예컨대, 게이밍 또는 텔레비전 원격), 및 다른 종래의 제어 메커니즘들보다 더 간단하고 더 쉽게 행해질 수 있다. 대안적으로 또는 부가적으로, 텔레비전(306)은, 다른 기능들(예컨대, 콘텐츠 제어)을 구현하기 위해 센서-기반 애플리케이션들에 제공될 수 있는 사용자의 아이덴티티를 레이더 센서(302-2)를 통해 결정할 수 있다.
[0039]
도 4는 레이더 센서 및 이에 의해 제공되는 관통하는 레이더 필드의 다른 예시적인 구성을 400으로 예시한다. 이러한 특정 예에서, 레이더 필드가 적용되는 표면은 인간 조직이다. 도시된 바와 같이, 손(402)은, 랩톱(406)에 포함된 (도 1의) 레이더 센서(120)에 의해 제공되는 표면 레이더 필드(404)를 갖는다. 레이더-방사 엘리먼트(122)(미도시)는 의자(408)를 관통하고 손(402)에 적용되는 표면 레이더 필드(404)를 제공한다. 이 경우, 안테나들(124)은 의자(408)를 관통하는(예컨대, 관통하여 다시 반사하는), 손(402)의 표면상에서의 상호작용에 의해 야기된 반사를 수신하도록 구성된다. 대안적으로, 레이더 센서(120)는, 스마트-폰이 사용자의 포켓에 배치될 때와 같이, 직물을 관통하는 반사들을 제공하고수신하도록 구성될 수 있다. 따라서, 레이더 센서(120)는 광학 폐색, 이를테면, 직물, 의류, 및 다른 불투명 물질을 관통하여 공간들을 맵핑하거나 스캔할 수 있다.
[0040]
일부 실시예들에서, 디지털 신호 프로세서(126)는 손(402)을 식별하고 그리고/또는 그에 의해 행해지는 제스처를 결정하는 데 유용한 레이더 데이터를 제공하기에 충분한, 표면으로부터의 수신된 반사 신호를 프로세싱하도록 구성된다. 표면 레이더 필드(404)를 통해, 다른 손이 식별될 수 있거나, 또는 다른 손이 제스처들을 수행하도록, 이를테면, 손(402)의 표면을 탭하도록 상호작용하여, 그에 의해 표면 레이더 필드(404)와 상호작용할 수 있다는 점에 유의해야 한다. 예시적인 제스처들은 단일 및 다중-핑거 스와이프(swipe), 스프레드(spread), 스퀴즈(squeeze), 비-선형 이동들 등을 포함한다. 또는, 손(402)은 또한 반사들을 야기하기 위해 단순하게 이동되거나 또는 형상을 변경시키고, 그로 인해 폐색된 제스처를 또한 수행할 수 있다.
[0041]
인간-조직 반사에 대해, 레이더 필드들을 반사시키는 것은, 인간-조직 반사에 기반하여 식별 표시(identifying indicia)를 결정하기 위해, 그리고 식별 표시가 사람에 대한 레코딩된 식별 표시, 이를테면, 대응하는 컴퓨팅 디바이스를 제어하도록 허용된 사람에 대한 인증과 매칭한다고 확인하기 위해, 이 레이더 필드들을 프로세싱할 수 있다. 이러한 식별 표시는, 다양한 바이오메트릭 식별자들, 이를테면, 사람 또는 사람의 일부분(이를테면, 사람의 손)에 대한 사이즈, 형상, 사이즈들의 비율, 연골 구조, 및 뼈 구조를 포함할 수 있다. 이러한 식별 표시는 또한, 고유하거나 또는 카피가-어려운 반사를 갖는 디바이스와 같은, 모바일 컴퓨팅 디바이스를 제어하도록 허용된 사람이 착용한 디바이스(예컨대, 특정 방식으로 레이더를 반사시키는, 14 캐럿 금 또는 3개의 다이아몬드들의 결혼 반지)와 연관될 수 있다.
[0042]
게다가, 레이더 센서 시스템들은, 개인적으로 식별가능한 정보가 제거되도록 구성될 수 있다. 예컨대, 사용자에 대해 개인적으로 식별가능한 어떠한 정보도 결정될 수 없도록 사용자의 아이덴티티가 처리될 수 있거나, 또는 사용자의 특정 위치가 결정될 수 없도록 위치 정보가 획득된 곳(이를테면, 도시, ZIP 코드, 또는 주(state) 레벨)으로 사용자의 지리적 위치가 일반화될 수 있다. 따라서, 사용자는, 사용자에 관한 수집되는 정보의 종류, 정보가 사용되는 방법, 및 사용자에게 제공되는 정보의 종류를 제어할 수 있다.
[0043]
도 5는, 센서 퓨전 엔진(110) 및 콘텍스트 관리자(112)를 포함하는, 레이더-사용가능 센서 퓨전을 구현할 수 있는 컴포넌트들의 예시적인 구성을 일반적으로 500으로 예시한다. 비록 별개의 엔티티들이 도시된다고 할지라도, 레이더 센서(120), 센서 퓨전 엔진(110), 콘텍스트 관리자(112), 및 다른 엔티티들은 서로 조합될 수 있거나, 상이하게 조직될 수 있거나, 또는 직접적으로 또는 도시되지 않은 인터커넥션들 또는 데이터 버스들을 통해 간접적으로 통신할 수 있다. 그에 따라서, 도 5에 도시된 센서 퓨전 엔진(110) 및 콘텍스트 관리자(112)의 구현은, 이러한 엔티티들 및 본원에서 설명된 다른 것들이 레이더-사용가능 센서 퓨전을 구현하도록 상호작용할 수 있는 방식들의 비-제한적인 예를 제공하도록 의도된다.
[0044]
이 예에서, 센서 퓨전 엔진은 레이더 신호 트랜스포머(502)(신호 트랜스포머(502)) 및 레이더 특징 추출기(504)(특징 추출기(504))를 포함한다. 비록 센서 퓨전 엔진(110) 상에 구현된 별개의 엔티티들로서 도시되더라도, 신호 트랜스포머(502) 및 특징 추출기(504)는 또한, 레이더 센서(120)의 디지털 신호 프로세서(126)에 의해 또는 그 내에 구현될 수 있다. 센서 퓨전 엔진(110)은 센서들(118)과 통신가능하게 커플링되며, 이 센서들(118)로부터, 센서 데이터(506)가 수신된다. 센서 데이터(506)는 임의의 적절한 타입의 원(raw) 또는 사전-처리된 센서 데이터, 이를테면 본원에서 설명된 센서들 중 임의의 타입에 대응하는 데이터를 포함할 수 있다. 센서 퓨전 엔진(110)은 또한, 레이더 센서(120)와 동작가능하게 커플링되며, 이 레이더 센서(120)는 레이더 데이터(508)를 센서 퓨전 엔진(110)에 제공한다. 대안적으로 또는 부가적으로, 레이더 센서(120)에 의해 제공되는 레이더 데이터(508)는 실시간 레이더 데이터, 이를테면 레이더 필드의 반사 신호들이 레이더 센서(120)에 의해 수신될 때 이 레이더 필드의 반사 신호들을 표현하는 원 데이터를 포함할 수 있다.
[0045]
일부 실시예들에서, 신호 트랜스포머(502)는 반사 신호들을 표현하는 원 레이더 데이터를 레이더 데이터 표현들로 변환한다. 일부 경우들에서, 이는 원 레이더 데이터에 대한 신호 사전-처리를 수행하는 것을 포함한다. 예컨대, 안테나가 반사된 신호들을 수신할 때, 일부 실시예들은 원(raw) 착신 신호들의 디지털 표현을 생성하기 위해 신호들을 샘플링한다. 일단 원 데이터가 생성되면, 신호 트랜스포머(502)는, 신호들을 클리닝 업하거나 또는 원하는 주파수 대역 또는 원하는 데이터 포맷으로 신호들의 버전들을 생성하기 위해, 원 데이터를 사전-처리한다. 대안적으로 또는 부가적으로, 원 데이터를 사전-처리하는 것은, 잡음 플로어를 감소시키거나 또는 에일리어싱을 제거하기 위해 원 데이터를 필터링하는 것, 상이한 샘플 레이트에 대해 획득하기 위해 데이터를 리샘플링하는 것, 신호들의 복소수 표현을 생성하는 것 등을 포함할 수 있다. 신호 트랜스포머(502)가 디폴트 파라미터들에 기반하여 원 데이터를 사전-처리할 수 있는 반면에, 다른 경우들에서, 사전-처리의 타입 및 파라미터들은 이를테면 센서 퓨전 엔진(110) 또는 콘텍스트 관리자(112)에 의해 구성가능하다.
[0046]
신호 트랜스포머(502)는 수신된 신호 데이터를 하나 또는 그 초과의 상이한 데이터 표현들 또는 데이터 변환으로 변환한다. 일부 경우들에서, 신호 트랜스포머(502)는 다수의 경로들 및 대응하는 안테나들로부터의 데이터를 결합한다. 결합된 데이터는 송신 경로들, 수신 경로들, 또는 레이더 센서(120)의 결합된 트랜시버 경로들의 다양한 조합들로부터의 데이터를 포함할 수 있다. 임의의 적절한 타입의 데이터 퓨전 기법, 이를테면, 휴리스틱(예컨대, SNR(signal-to-noise) 비 또는 MMSE(minimum mean square error))을 최적화하기 위한 가중된 통합, 빔형성, 삼각측량 등이 사용될 수 있다.
[0047]
신호 트랜스포머(502)는 또한, 상이한 타입들의 특징 추출을 위해 신호 데이터의 다수의 조합들을 생성할 수 있으며, 그리고/또는 특징 추출에 대한 프리커서로서, 신호 데이터를 다른 표현으로 변환한다. 예컨대, 신호 트랜스포머(502)는, 타겟 오브젝트의 3차원(3D) 공간 프로파일을 생성하기 위해, 결합된 신호 데이터를 프로세싱할 수 있다. 그러나, 원 데이터의 뷰, 추상 또는 버전을 생성하기 위해, 임의의 적절한 타입의 알고리즘 또는 변환, 이를테면 타겟 오브젝트에 관련된 위상 및 진폭 정보를 포함하는 복소 벡터를 산출하는 I/Q 변환, 제스처 센서 디바이스의 레인지 내에서 타겟 오브젝트들의 공간 표현을 산출하는 빔형성 변환, 또는 타겟 속도 및 방향을 산출하는 레인지-도플러 알고리즘이 사용될 수 있다. 다른 타입들의 알고리즘들 및 변환은, 타겟 인식 정보를 산출하는 레인지 프로파일 알고리즘, 고-해상도 타겟 인식 정보를 산출하는 마이크로-도플러 알고리즘, 및 대응하는 주파수들의 시각적 표현을 산출하는 스펙트로그램 알고리즘 등을 포함할 수 있다.
[0048]
본원에서 설명된 바와 같이, 원 레이더 데이터는, 개개의 변형들 또는 결합된 신호 데이터를 생성하기 위해, 몇몇 방식들로 프로세싱될 수 있다. 일부 경우들에서, 동일한 원 데이터가 다수의 방식들로 분석되거나 또는 변환될 수 있다. 예컨대, 3D 프로파일, 타겟 속도 정보, 및 타겟 지향성 이동 정보를 생성하기 위해, 원 데이터의 동일한 캡처가 프로세싱될 수 있다. 원 데이터의 변형들을 생성하는 것 외에도, 레이더 신호 트랜스포머는, 타겟 오브젝트의 기본 분류, 이를테면 타겟 오브젝트의 존재, 형상, 사이즈, 방향, 시간에 따른 속도 등에 관한 정보를 식별하는 것을 수행할 수 있다. 예컨대, 일부 실시예들은 신호 트랜스포머(502)를 사용하여, 시간에 따라 손에서 반사되는 에너지량을 측정함으로써 손의 기본 방향을 식별한다.
[0049]
이들 변형들 및 기본 분류들은 하드웨어, 소프트웨어, 펌웨어, 또는 임의의 적절한 조합으로 수행될 수 있다. 때때로, 변형들 및 기본 분류들은 디지털 신호 프로세서(126) 및/또는 센서 퓨전 엔진(110)에 의해 수행된다. 일부 경우들에서, 신호 트랜스포머(502)가 디폴트 파라미터들에 기반하여 원 레이더 데이터를 변환하거나 또는 기본 분류를 수행하는 반면에, 다른 경우들에서, 변형들 또는 분류들은 이를테면 센서 퓨전 엔진(110) 또는 콘텍스트 관리자(112)를 통해 구성가능하다.
[0050]
특징 추출기(504)는 신호 트랜스포머(502)로부터 레이더 데이터의 변환된 표현들을 수신한다. 이들 데이터 변환들로부터, 특징 추출기(504)는 하나 또는 그 초과의 레이더 특징들(510)을 분석하거나, 추출하거나, 또는 식별한다. 이들 레이더 특징들(510)은 타겟의 다양한 특성들, 다이나믹스, 또는 특징들을 표시하며, 이 예에서, 검출 특징들(512), 반사 특징들(514), 모션 특징들(516), 위치 특징들(518), 및 형상 특징들(520)을 포함할 수 있다. 이들 특징들은 단지 예로서 설명되며, 센서 퓨전 엔진이 원(raw) 또는 변환된 레이더 데이터로부터 특징 또는 제스처 정보를 추출하는 방식들을 제한하는 것으로 의도되지 않는다. 예컨대, 레이더 특징 추출기(504)는 신호 트랜스포머(502)에 의해 제공되는 레이더 데이터 표현들로부터 대안적인 레이더 특징들, 이를테면 레인지 특징들 또는 이미지 특징들을 추출할 수 있다.
[0051]
검출 특징들(512)은 센서 퓨전 엔진(110)이 컴퓨팅 디바이스(102)의 환경에서 사용자, 다른 사람들, 또는 오브젝트들의 존재를 검출하는 것을 가능하게 할 수 있다. 일부 경우들에서, 검출 특징은, 레이더 필드의 다수의 타겟들 또는 레이더 필드에 의해 스위핑되는 룸 또는 공간의 다수의 타겟들을 표시한다. 반사 특징들(514)은 타겟에 의해 반사되는 에너지, 이를테면 시간에 따라 반사되는 에너지의 프로파일을 표시할 수 있다. 이는 타겟의 모션의 속도가 시간에 따라 추적되는 것을 가능하게 하는데 효과적일 수 있다. 대안적으로 또는 부가적으로, 반사 특징은 최강 컴포넌트의 에너지 또는 이동하는 타겟의 총 에너지를 표시할 수 있다.
[0052]
모션 특징들(516)은 퓨전 엔진(110)이 레이더 필드에서의 또는 이 레이더 필드를 통하는 타겟의 이동 또는 모션을 추적하는 것을 가능하게 할 수 있다. 일부 경우들에서, 모션 특징(516)는 1차원 또는 3차원의 속도 센트로이드, 또는 1차원의 위상-기반 미세 타겟 변위를 포함한다. 대안적으로 또는 부가적으로, 모션 특징은 타겟 속도 또는 1D 속도 분산을 포함할 수 있다. 일부 실시예들에서, 위치 특징들(518)은 타겟 오브젝트의 공간 2D 또는 3D 좌표들을 포함한다. 위치 특징들(518)은 또한, 타겟 오브젝트까지의 거리를 레인지하거나(range) 또는 결정하기에 유용할 수 있다.
[0053]
형상 특징들(520)은 타겟 또는 표면의 형상을 표시할 수 있으며, 공간 분산을 포함할 수 있다. 일부 경우들에서, 센서 퓨전 엔진(110)은 컴퓨팅 디바이스(102)의 타겟 또는 환경들의 3D 표현을 구축하기 위해 상이한 레이더 필드들을 스캔하거나 또는 빔형성할 수 있다. 예컨대, 형상 특징들(520) 및 다른 레이더 특징들(510)은, 특정 룸 또는 공간의 고유 식별자(예컨대, 지문)를 구성하기 위해 센서 퓨전 엔진(110)에 의해 결합될 수 있다.
[0054]
일부 실시예들에서, 특징 추출기(504)는 특징 추출 또는 추상을 위해 신호 트랜스포머(502)에 의해 식별된 기본 분류를 기반으로 한다. 신호 트랜스포머(502)가 타겟 오브젝트를 손으로서 분류하는 위의 예를 고려해보기로 한다. 특징 추출기(504)는 이 기본 분류로부터 구축되어 손의 하위 해상도 특징들을 추출할 수 있다. 다시 말해서, 만약 특징 추출기(504)에 타겟 오브젝트를 손으로서 식별하는 정보가 제공되면, 특징 추출기(504)는, 이 정보를 사용하여, 머리-관련된 특징들(예컨대, 눈 깜빡임, 단어 말하기, 또는 머리-흔들기 이동) 대신에 손-관련된 특징들(예컨대, 손가락 탭핑, 형상 제스처들, 또는 스와이프 이동들)을 찾을 수 있다.
[0055]
다른 예로서, 신호 트랜스포머(502)가 시간이 지남에 따라 원 레이더 데이터를 타겟 오브젝트의 속도의 척도로 변환하는 시나리오를 고려해보기로 한다. 차례로, 특징 추출기(504)는, 이 정보를 사용하여, 타겟 오브젝트의 가속 속도를 임계값, 슬로우-탭 특징 등과 비교하기 위해 임계값을 사용함으로써 손가락 패스트-탭 모션을 식별한다. 임의의 적절한 타입의 알고리즘은 디지털 신호 프로세서(126)의 기계-학습 컴포넌트(도시되지 않음)에 의해 구현된 특징, 이를테면, 기계-학습 알고리즘들을 추출하기 위해 사용될 수 있다.
[0056]
다양한 실시예들에서, 센서 퓨전 엔진(110)은 레이더 특징들(510)을 센서들(118)로부터의 센서 데이터(506)와 결합하거나 또는 증강시킨다. 예컨대, 센서 퓨전 엔진(110)은 특징을 추출, 식별 또는 분류하기 위해 단일 알고리즘을 적용시키거나, 또는 단일 특징 또는 다수의 특징들을 추출하기 위해 다수의 알고리즘들을 적용시킬 수 있다. 따라서, 상이한 알고리즘들이 데이터의 동일한 세트 또는 데이터의 상이한 세트들 상에서 상이한 타입들의 특징들을 추출하기 위해 적용될 수 있다. 레이더 특징에 기반하여, 센서 퓨전 엔진(110)은 레이더 특징을 보완하는 또는 보충하는 데이터를 제공하기 위해 특정 센서를 활성화할 수 있다. 그렇게 함으로써, 센서 데이터를 사용하여 레이더 특징들의 정확도 또는 유효성이 개선될 수 있다.
[0057]
센서 퓨전 엔진(110)은 센서 데이터(506), 레이더 데이터(508), 또는 이들의 다양한 조합들을 센서-기반 애플리케이션들(108) 및 콘텍스트 관리자(112)에 제공하거나 또는 노출한다. 예컨대, 센서 퓨전 엔진(110)은 센서 데이터로 증강된 레이더 데이터 또는 센서 데이터에 기반하여 검증된 레이더 데이터를 센서-기반 애플리케이션들(108)에 제공할 수 있다. 센서-기반 애플리케이션들(108)은 디바이스 기능성들을 제공하기 위해 또는 디바이스 동작들을 변경하기 위해 컴퓨팅 디바이스(102)의 환경 또는 그에 대한 관계에 대한 정보 또는 지식을 레버리지하는 임의의 적절한 애플리케이션, 함수, 유틸리티 또는 알고리즘을 포함할 수 있다.
[0058]
이러한 특정 예에서, 센서-기반 애플리케이션들(108)은 근접성 검출(522), 사용자 검출(524), 및 액티비티 검출(526)을 포함한다. 근접성 검출 애플리케이션(522)은 센서 데이터 또는 레이더 데이터에 기반하여 사용자 또는 다른 오브젝트들과의 근접성을 검출할 수 있다. 예컨대, 근접성 검출 애플리케이션(522)은 검출 레이더 특징들(512)을 사용하여 접근하는 오브젝트를 검출하고, 이어서, 근접 센서 데이터로 스위칭하여 사용자와의 근접성을 확인할 수 있다. 대안적으로 또는 부가적으로, 애플리케이션은 접근하는 오브젝트가 다른 유사한 사이즈가 정해진 큰 신체 오브젝트가 아닌 사용자의 얼굴임을 검증하기 위해 형상 레이더 특징(520)를 레버리지할 수 있다.
[0059]
사용자 검출 애플리케이션(524)은 센서 데이터 또는 레이더 데이터에 기반하여 사용자의 존재를 검출할 수 있다. 일부 경우들에서, 사용자 검출 애플리케이션(524)은 또한, 사용자가 환경에서 검출될 때 사용자를 추적한다. 예컨대, 사용자 검출 애플리케이션(524)은 사용자의 알려진 3D 프로파일과 매칭하는 검출 레이더 특징(512) 및 형상 레이더 특징(520)에 기반하여 그 존재를 검출할 수 있다. 사용자 검출 애플리케이션(524)은 또한, RGB 센서(220)에 의해 제공된 이미지 데이터 또는 음향 센서들(212)에 의해 제공된 음성 데이터를 통해 사용자의 검출을 검증할 수 있다.
[0060]
일부 실시예들에서, 액티비티 검출 애플리케이션(526)은 센서 데이터 및 레이더 데이터를 사용하여 컴퓨팅 디바이스(102)의 환경에서의 액티비티를 검출한다. 액티비티 검출 애플리케이션(526)은 검출 특징들(512) 및 모션 특징들(516)에 대한 레이더를 모니터링할 수 있다. 대안적으로 또는 부가적으로, 액티비티 검출 애플리케이션(526)은 음향 센서들(212)을 사용하여 잡음을 검출하고, RGB 센서(220) 또는 깊이 센서(224)를 사용하여 이동을 모니터링할 수 있다.
[0061]
센서-기반 애플리케이션들은 또한, 바이오메트릭 인식(528), 생리적 모니터(530) 및 모션 식별(532)을 포함할 수 있다. 바이오메트릭 인식 애플리케이션(528)은 센서 데이터 및 레이더 데이터를 사용하여, 사용자를 식별하는데 유용한 사용자의 바이오메트릭 특징들을 캡처 또는 획득, 이를테면, 표정 인식을 구현할 수 있다. 예컨대, 바이오메트릭 인식 애플리케이션(528)은 형상 레이더 특징(520)를 사용하여, 사용자의 얼굴의 골격 구조의 3D 맵 및 RGB 센서(220)로부터의 컬러 이미지를 획득하여 사용자의 아이덴티티를 확인할 수 있다. 따라서, 만약 사칭자가 사용자의 외형을 위조할 수 있었다하더라도, 사칭자는 사용자의 정확한 표정 구조를 복제할 수 없으며, 따라서, 바이오메트릭 인식 애플리케이션(528)을 통한 식별을 실패할 수 있다.
[0062]
생리적 모니터 애플리케이션(530)은 사용자의 의학적 양상들, 이를테면, 호흡, 심박수, 반사들, 소근육 운동들 등을 검출 또는 모니터링할 수 있다. 그렇게 하기 위해, 생리적 모니터 애플리케이션(530)은 레이더 데이터를 사용하여, 이를테면, 사용자의 흉부의 모션을 추적하고, 동맥 흐름, 피하층 근육 수축을 모니터링하는 것 등을 할 수 있다. 생리적 모니터 애플리케이션(530)은 보충 데이터, 이를테면, 음향, 열(예컨대, 온도), 이미지(예컨대, 피부 또는 눈 색깔), 및 모션(예컨대, 떨림들) 데이터에 대해 디바이스의 다른 센서들을 모니터링할 수 있다. 예컨대, 생리적 모니터 애플리케이션(530)은 레이더 모션 특징들(516), 음향 센서들(212)에 의해 레코딩된 호흡 잡음들 및 적외선 센서(222)에 의해 캡처된 호기(exhaled air)의 열 시그니처들을 사용하여 사용자의 호흡 패턴들을 모니터링할 수 있다.
[0063]
모션 식별 애플리케이션(532)은 레이더 데이터 및 센서 데이터를 사용하여 다양한 모션 시그니처들을 식별할 수 있다. 일부 경우들에서, 모션 레이더 특징들(516) 또는 다른 레이더 특징들은 모션 추적에 유용하다. 그러한 경우들에서, 모션들은 RGB 센서(220) 또는 깊이 센서(224)에 의해 정확하게 캡처하기에는 너무 빠를 수 있다. 매우 빠른 모션을 추적할 수 있는 레이더 특징들을 사용함으로써, 모션 식별 애플리케이션(532)은, 모션을 추적하고 RGB 센서(220)로부터의 이미지 데이터를 레버리지하여 추가적인 공간 정보를 제공할 수 있다. 따라서, 센서 퓨전 엔진(110) 및 모션 식별 애플리케이션(532)은 대응하는 공간 정보와 함께 빠르게 이동하는 오브젝트를 추적할 수 있다.
[0064]
센서-기반 애플리케이션들(108)의 제스처 검출 애플리케이션(534)은 인식 및 맵핑을 수행한다. 예컨대, 손가락 탭 모션 특징이 추출된 경우를 고려한다. 제스처 검출 애플리케이션(534)은 이 정보, 음향 센서들(212)로부터의 사운드 데이터 또는 RGB 센서(220)로부터의 이미지 데이터를 사용하여, 특징을 더블-클릭 제스처로서 식별할 수 있다. 제스처 검출 애플리케이션(534)은, 센서 퓨전 엔진(110)에 의해 제공된 레이더 데이터 및 센서 데이터에 기반하여 어느 제스처가 가장 발생할 가능성이 높은지, 및 이 정보가 다양한 제스처들의 하나 또는 그 초과의 사전에 학습된 특징들 또는 특징들과 어떻게 관련되는지에 대한 확률적 결정을 사용할 수 있다. 예컨대, 기계-학습 알고리즘은 다양한 수신된 특징들을 가중하는 방법을 결정하여, 이들 특징들이 특정 제스처들(또는 제스처들의 컴포넌트들)에 대응할 가능성을 결정하는데 사용될 수 있다.
[0065]
콘텍스트 관리자(112)는 센서-기반 애플리케이션들(108), 센서 데이터(506) 또는 센서 퓨전 엔진(110)의 레이더 특징들(510)에 액세스하여 레이더-기반 콘텍스추얼 감지를 구현할 수 있다. 일부 실시예들에서, 컴퓨팅 디바이스(102)가 동작하는 공간들 또는 룸들의 맵들을 제공하기 위해, 레이더 데이터(508)는 센서 데이터(506)와 결합될 수 있다. 예컨대, 3D 레이더 이미저리를 캡처 및 메싱하기 위한 합성 개구 기술들을 구현하기 위해 위치 및 관성 센서 데이터는 레버리지될 수 있다. 따라서, 디바이스가 환경을 지나갈 때, 콘텍스트 관리자(112)는 다양한 공간들 및 룸들의 상세한 또는 높은 해상도의 3D 맵들을 구성할 수 있다. 대안적으로 또는 부가적으로, 3D 이미저리는, 광학 폐색들을 통해 캡처되거나 또는 액티비티 인식을 개선하기 위해 센서 퓨전의 다른 기법들과 조합하여 사용될 수 있다.
[0066]
이 특정 예에서, 콘텍스트 관리자(112)는 콘텍스트 모델들(536), 디바이스 콘텍스트들(538) 및 콘텍스트 세팅들(540)을 포함한다. 콘텍스트 모델들(536)은 다양한 공간들의 물리 모델들, 이를테면 특정 룸의 차원들, 지오메트리 또는 특징들을 포함한다. 다시 말해서, 콘텍스트 모델은 3D 지문과 같은 특정 공간의 고유 캐릭터(unique character)를 설명하기 위해 고려될 수 있다. 일부 경우들에서, 콘텍스트 모델들(536)을 구축하는 것은 기계 학습 기법들을 통해 구현되고, 디바이스가 특정 공간에 진입하거나 통과할 때 수동적으로 수행될 수 있다. 디바이스 콘텍스트들(538)은, 컴퓨팅 디바이스(102)가 동작할 수 있는 다수의 콘텍스트들을 포함하고 설명할 수 있다. 이들 콘텍스트들은 워크 콘텍스트들의 표준 세트, 이를테면 "미팅", "방해하지 말 것", "사용가능", "보안", "사설" 등을 포함할 수 있다. 예컨대, "미팅" 콘텍스트는 다수의 다른 공동 작업자들 및 고객들이 존재하는 회의실에 있는 디바이스와 연관될 수 있다. 대안적으로 또는 부가적으로, 디바이스 콘텍스트들(538)은 사용자 프로그램가능하거나 또는 맞춤형일 수 있는데, 이를테면 집의 상이한 룸들에 대한 콘텍스트들일 수 있고, 각각의 콘텍스트는 그 콘텍스트와 연관된 프라이버시 또는 보안의 개개의 레벨을 표시한다.
[0067]
콘텍스트 세팅들(540)은 콘텍스트 또는 다른 환경 특성들에 기반하여 구성가능한 다양한 디바이스 또는 시스템 세팅들을 포함한다. 콘텍스트 세팅들(540)은 임의의 적절한 타입의 디바이스 세팅, 이를테면 링거 볼륨, 링거 모드, 디스플레이 모드들, 네트워크들 또는 다른 디바이스들에 대한 연결성 등을 포함할 수 있다. 대안적으로 또는 부가적으로, 콘텍스트 세팅들(540)은 임의의 적절한 타입의 시스템 세팅들, 이를테면 보안 세팅들, 프라이버시 세팅들, 네트워크 또는 디바이스 연결 세팅들, 원격 제어 특징들 등을 포함할 수 있다. 예컨대, 사용자가 자신의 홈 씨어터로 걸어가면, 콘텍스트 관리자(112)는 이 콘텍스트(예컨대, "홈 씨어터")를 인지할 수 있고, 디바이스의 경고들을 뮤팅시키고 홈 씨어터의 오디오/비디오 장비를 제어하도록 디바이스의 무선 인터페이스를 구성함으로써 콘텍스트 세팅들을 구성할 수 있다. 이는, 콘텍스트 관리자(112)가 콘텍스트에 기반하여 디바이스를 결정 및 구성할 수 있는 방법에 대한 단지 일예이다.
[0068]
하나 또는 그 초과의 실시예들에 따른 컴퓨팅 디바이스(102), 센서 퓨전 엔진(110) 및 콘텍스트 관리자(112)의 개개의 예들을 설명하였고, 이제, 레이더-사용가능 센서 퓨전을 구현하기 위해 본원에서 설명되는 것들 및 다른 엔티티들에 의해 구현될 수 있는 기법들의 논의를 고려한다.
예시적인 방법들
[0069]
도 6, 도 8, 도 10, 도 11, 도 13 및 도 14는 레이더-사용가능 센서 퓨전 및/또는 레이더-기반 콘텍스추얼 감지를 구현하기 위한 방법들을 도시한다. 이들 방법은, 수행되는 동작들을 특정하는 블록들의 세트들로 도시되지만, 개개의 블록들에 의한 동작들을 수행하기 위해 반드시 도시된 순서 또는 조합들로 제한되는 것은 아니다. 예컨대, 상이한 방법들의 동작들이 임의의 순서로 조합되어, 본원에서 설명된 개념들을 벗어나지 않고 대안적인 방법들을 구현할 수 있다. 다음의 논의의 부분들에서는 오직 예로서 이루어진 도 1 내지 도 5를 참조로 하여 기법들이 설명될 것이다. 기법들은 하나의 디바이스 상에서 동작하는 다수의 엔티티들 또는 하나의 엔티티 또는 이들 도면들에서 설명된 것들에 의한 성능으로 제한되지 않는다.
[0070]
도 6은 레이더 센서(120), 센서 퓨전 엔진(110) 또는 콘텍스트 관리자(112)에 의해 수행되는 동작들을 포함하는, 보충 센서 데이터로 레이더 데이터를 증강하기 위한 예시적인 방법(600)을 도시한다.
[0071]
602에서, 도 2 또는 도 3에 도시된 레이더 필드들 중 하나와 같은 레이더 필드가 제공된다. 레이더 필드는 레이더 시스템 또는 레이더 센서에 의해 제공될 수 있고, 이는 도 1의 레이더 센서(120) 및 레이더-방사 엘리먼트(122)와 유사하거나 상이하게 구현될 수 있다. 제공된 레이더 필드는 전체 인접하는 레이더 필드인 광범위한 빔 또는 스캐닝된 레이더 필드인 지향된 좁은 빔을 포함할 수 있다. 일부 경우들에서, 레이더 필드는 대략 60 GHz 대역, 이를테면, 57-64 GHz 또는 59-61 GHz의 주파수로 제공될 수 있지만, 다른 주파수 대역들이 사용될 수 있다.
[0072]
예로써, 700에서, 랩톱 컴퓨터(102-5)가 레이더 센서(120)를 포함하고 레이더-사용가능 센서 퓨전을 구현할 수 있는 도 7을 고려한다. 여기서, 사용자(702)는 1인칭 슈터(FPS: first person shooter) 비디오 게임을 플레이하기 위해 랩톱(102-5)의 제스처 구동 제어 메뉴를 사용하고 있다고 가정한다. 레이더 센서(120)는 사용자(702)의 이동을 캡처하여 게임 제어를 인에이블링하게 하는 레이더 필드(704)를 제공한다.
[0073]
604에서, 레이더 필드 내의 타겟에 대응하는 하나 또는 그 초과의 반사 신호들이 수신된다. 레이더 반사 신호들은, 레이더 필드 내의 또는 레이드 필드를 통과하는 사람 또는 오브젝트와 같은 레이더 필드 내의 타겟 오브젝트의 다수의 포인트들의 중첩으로서 수신될 수 있다. 본 예의 맥락에서, 사용자의 손으로부터의 반사 신호들이 레이더 센서(120)에 의해 수신된다.
[0074]
606에서, 하나 또는 그 초과의 반사 신호들이 레이더 데이터 표현들로 변환된다. 반사 신호들은 임의의 적절한 신호 프로세싱을 사용하여, 이를테면, 레인지-도플러 변환, 레인지 프로파일 변환, 마이크로-도플러 변환, I/Q 변환 또는 스펙트로그램 변환을 수행함으로써 변환될 수 있다. 진행 중인 예에 계속하여, 레이더 센서는 사용자의 손에 대한 타겟 속도 및 방향 정보를 제공하기 위해 레인지-도플러 변환을 수행한다.
[0075]
608에서, 타겟의 특징을 나타내는 레이더 특징은 레이더 데이터로부터 추출된다. 레이더 특징은 타겟의 특징, 타겟의 위치 또는 타겟의 다이나믹스의 실시간 측정을 제공할 수 있다. 레이더 특징은 임의의 적절한 타입의 특징, 이를테면, 검출 특징, 반사 특징, 모션 특징, 위치 특징 또는 형상 특징을 포함할 수 있고, 이들의 예들은 본원에서 설명된다. 본 예의 맥락에서, 사용자의 손의 반사 레이더 특징들 및 모션 레이더 특징들이 레이더 데이터로부터 추출된다.
[0076]
610에서, 센서는 레이더 특징에 기반하여 활성화된다. 센서는 보충 데이터를 제공하기 위해 활성화될 수 있다. 일부 경우들에서, 센서는 레이더 특징 또는 레이더 특징의 타입에 기반한 활성화에 대해 선택된다. 예컨대, RGB 또는 적외선 센서는 표면 특징 또는 모션 특징에 대한 보충 센서 데이터를 제공하기 위해 활성화될 수 있다. 다른 경우들에서, 가속도계 또는 자이로스코프가, 모션 특징 또는 위치 특징에 대한 보충 데이터를 획득하기 위해 활성화될 수 있다. 또 다른 경우들에서, 검출 특징을 개선하기 위해, 데이터가 마이크로폰 또는 깊이 센서로부터 수신될 수 있다. 진행 중인 예에 계속하여, 센서 퓨전 엔진(110)은, 공간 정보를 캡처하기 위해 랩톱(102-5)의 RGB 센서(220)를 활성화시킨다.
[0077]
612에서, 레이더 특징은 보충 센서 데이터로 증강된다. 이는, 더욱 정확한 또는 더욱 정밀한 레이더 특징을 제공하기 위해, 레이더 특징 또는 센서 데이터를 결합 또는 퓨징하는 것을 포함할 수 있다. 레이더 특징을 증강하는 것은, 보충 또는 보완 센서 데이터에 기반하여 레이더 특징의 정확도 또는 해상도를 개선시키는 것을 포함할 수 있다. 이 센서 퓨전의 예들은, 레이더 특징의 위치 정확도를 증가시키거나, 레이더 특징에 기인하는 허위 검출을 완화시키거나, 레이더 특징의 공간 해상도를 증가시키거나, 레이더 특징의 표면 해상도를 증가시키거나, 또는 레이더 특징의 분류 정밀도를 개선하기 위해 센서 데이터를 사용하는 것을 포함할 수 있다. 본 예의 맥락에서, 센서 퓨전 엔진(110)은, 매우 빠른 이동을 공간적으로 캡처하는 센서 정보를 제공하기 위해 모션 레이더 특징들(516) 및 RGB 정보를 결합한다. 일부 경우들에서, RGB 센서(220)는 센서의 내재적인 제한으로 인해 이러한 모션을 검출하거나 캡처하지 못할 수 있을 것이다.
[0078]
614에서, 증강된 레이더 특징이 센서-기반 애플리케이션에 제공된다. 이는 센서-기반 애플리케이션의 성능을 증가시키는데 효과적일 수 있다. 일부 경우들에서, 증강된 레이더 특징은 검출 애플리케이션들, 이를테면 근접성 검출, 사용자 검출, 액티비티 검출, 제스처 검출 등의 정확도를 증가시킨다. 이러한 경우들에서, 센서 데이터는, 이를테면, 타겟의 검출을 확인 또는 오류 입증함으로써 허위 검출을 제거하는데 사용될 수 있다. 다른 경우들에서, 증강된 레이더 특징은 애플리케이션의 일관성을 개선할 수 있다. 본 예를 결론지으면, 퓨징된 레이더 데이터 특징들이 제스처 검출 애플리케이션(534)에 전달되고, 이는 제스처를 게임 제어 입력으로서 FPS 비디오 게임에 전달한다.
[0079]
도 8은 레이더 센서(120), 센서 퓨전 엔진(110) 또는 콘텍스트 관리자(112)에 의해 수행된 동작들을 포함하는 저-전력 센서 퓨전을 위한 예시적인 방법을 예시한다.
[0080]
802에서, 디바이스의 레이더 센서는 레이더 필드의 반사된 신호들에서의 변경들에 대해 모니터링된다. 레이더 센서는, 연속하는 또는 간헐적인 레이더 필드 ― 반사된 신호들이 이 레이더 필드로부터 수신됨 ― 를 제공할 수 있다. 일부 경우들에서, 레이더 센서는 디바이스의 저-전력 센서이며, 이는 동작 동안 디바이스의 다른 센서들보다 더 적은 저력을 소비한다. 반사된 신호들의 변경들이, 디바이스의 환경 내에서 디바이스의 이동 또는 타겟의 이동에 의해 유발될 수 있다. 예로써, 레이더-사용가능 텔레비전(902)이 거실 룸의 제1 사용자(904)에 의해 시청되고 있는 도 9의 환경들(900)을 고려한다. 여기서, 사용자(904)가 잡지를 읽기 시작했고, 제2 사용자(906)가 거실 룸에 진입했다고 가정한다. 텔레비전의 레이더 센서(120)는, 제1 사용자 및 제2 사용자의 이 액션들에 의해 유발되는 반사된 레이더 신호들에서의 변경들을 검출한다.
[0081]
804에서, 반사된 신호들이 레이더 필드에서 타겟을 검출하기 위해 변환된다. 일부 경우들에서, 검출 특징들이 레이더 필드 내의 타겟의 검출을 확인하기 위해 변환된 레이더 데이터로부터 추출된다. 다른 경우들에서, 형상 특징들 또는 모션 특징들이, 레이더 필드 내의 타겟의 물리적 특징들 또는 타겟의 이동을 식별하기 위해 변환된 레이더 데이터로부터 추출된다. 본 예의 맥락에서, 제1 사용자 및 제2 사용자에 대한 검출 레이더 특징들이 반사된 레이더 신호들로부터 추출된다.
[0082]
806에서, 반사된 신호들에서 타겟의 검출에 대한 응답으로, 고-전력 센서는 타겟-관련된 센서 데이터를 획득하기 위하여 저-전력 상태로부터 활성화된다. 예컨대, 레이더 검출 특징이 레이더 필드 내에서 사용자의 이동 또는 존재를 표시하면, RGB 센서는 사용자의 이미저리를 캡처하기 위하여 활성화될 수 있다. 다른 경우들에서, 디바이스의 GPS 모듈은 디바이스가 이동하고 있는 것을 표시하는 위치 레이더 특징들 또는 반사 레이더 특징들에 대한 응답으로 활성화될 수 있다. 진행중인 예를 계속하면, 센서 퓨전 엔진(110)은 텔레비전(902)의 RGB 센서(220)를 활성화시킨다. RGB 센서(220)는 제1 사용자(904)의 얼굴 이미지 데이터(908) 및 제2 사용자(906)의 얼굴 이미지 데이터(910)를 획득한다. 이 이미지 데이터는 눈 추적 또는 다른 동적 표정 인식 특징들을 인에이블링하는 것과 같은, 사용자의 얼굴들의 정적 이미지들 또는 비디오일 수 있다.
[0083]
808에서, 타겟-관련 센서 데이터는 센서-기반 애플리케이션으로 전달된다. 센서-기반 애플리케이션은 본원에서 설명된 것들 같은 임의의 적절한 애플리케이션을 포함할 수 있다. 일부 경우들에서, 센서-기반 애플리케이션의 실행은 레이더 필드 내에서 특정 액티비티 또는 타겟을 검출한 것에 대한 응답으로 개시되거나 재개된다. 예컨대, 감시 애플리케이션은 제어된 영역에 진입하는 비인가된 사람을 표시하는 감지 액티비티 특징들에 대한 응답으로 재개될 수 있다. 이어서, RGB 센서는 이미지 데이터를 감시 애플리케이션에 전달할 수 있다. 도 9의 본 예의 콘텍스트에서, RGB 센서는 얼굴 이미지 데이터(908) 및 얼굴 이미지 데이터(910)를 바이오메트릭 인식 애플리케이션(528)에 전달한다.
[0084]
선택적으로 810에서, 변환된 레이더 데이터로부터 추출된 레이더 특징들은 센서-기반 애플리케이션으로 전달된다. 일부 경우들에서, 레이더 특징들은 센서-기반 애플리케이션에 전달된 센서 데이터에 대한 부가적인 콘텍스트를 제공한다. 예컨대, 위치 레이더 특징은 애플리케이션 수신 RGB 이미저리에 전달되어 애플리케이션이 개개의 위치 정보로 이미저리의 타겟들을 태그하게 할 수 있다.
[0085]
진행중인 예를 계속하면, 센서 퓨전 엔진(110)은 사용자의 얼굴들의 개개의 레이더 표면 특징들을 바이오메트릭 인식 애플리케이션(528)에 전달한다. 여기서, 애플리케이션은, 제1 사용자(904)가 텔레비전을 시청(예컨대, 눈 추적)하지 않는 것을 결정하고, 그리고 제2 사용자(906)가 텔레비전(902)을 시청하는데 관심이 있다는 것을 결정할 수 있다. 얼굴 이미지 데이터(910)를 사용하여, 센서 퓨전 엔진(110)은 제2 사용자(906)를 식별하고 그의 아이덴티티를 기반하여, 이 아이덴티티와 연관된 뷰잉 히스토리를 리트리브할 수 있다. 콘텍스트 관리자(112)는 텔레비전의 채널을 제2 사용자(906)가 본 마지막 채널로 변경하도록 이 뷰잉 히스토리를 레버리지한다.
[0086]
812에서, 고-전력 센서는 저-전력 상태로 리턴된다. 센서 데이터가 센서-기반 애플리케이션으로 전달되면, 고-전력 센서는 디바이스의 전력을 보존하기 위하여 저-전력 상태로 리턴될 수 있다. 성능들의 어레이를 제공하는 동안 레이더 센서가 비교적 적은 전력을 소비하기 때문에, 다른 센서들은, 더 많은 센서-특정 데이터가 획득될 필요가 있을 때까지 저-전력 상태들로 남겨질 수 있다. 그렇게 함으로써, 디바이스의 전력 소비가 감소될 수 있고, 이는 배터리 동작 디바이스들에 대한 실행 시간들을 증가시키는데 효과적이다. 동작(812)으로부터, 방법(800)은 레이더 필드의 반사된 신호들의 후속적인 변경들을 위하여 레이더 센서를 모니터링하기 위한 동작(802)으로 리턴할 수 있다. 본 예를 결론내리면, RGB 센서(220)는, 텔레비전의 채널을 변경한 이후 저-전력 상태로 리턴되고, 추가 액티비티가 레이더 센서(120)에 의해 검출될 때까지 저-전력 상태에 상주할 수 있다.
[0087]
도 10은 레이더 센서(120), 센서 퓨전 엔진(110), 또는 콘텍스트 관리자(112)에 의해 수행된 동작들을 포함하여, 레이더 특징들로 센서 데이터를 향상시키기 위한 예시적인 방법을 예시한다.
[0088]
1002에서, 디바이스의 센서가 환경 변화들에 대해 모니터링된다. 센서는 도 2를 참조하여 설명되고 본원의 다른 곳에서 설명된 것들 같은 임의의 적절한 타입의 센서를 포함할 수 있다. 센서들은 디바이스의 물리적 상태의 변화들, 이를테면 디바이스 모션, 또는 디바이스와 관계가 없는 변화, 이를테면 주변 잡음 또는 광을 모니터링하도록 구성될 수 있다. 일부 경우들에서, 센서는 디바이스 전력을 보존하기 위해 디바이스의 저-전력 프로세서에 의해 또는 디바이스가 저-전력 상태에 있는 동안 모니터링된다.
[0089]
1004에서, 환경 변화가 센서를 통해 검출된다. 환경 변화는 임의의 적합한 타입의 변화, 이를테면 사용자의 음성, 주변 잡음, 디바이스 모션, 사용자 근접성, 온도 변경, 주변 광의 변경 등을 포함할 수 있다. 검출된 환경 변화는 특정 콘텍스트, 액티비티, 사용자 등과 연관될 수 있다. 예컨대, 환경 변화는, 디바이스를 슬립 상태로부터 깨우고 사용을 위해 디바이스를 언록킹하기 위한, 사용자로부터의 음성 커맨드를 포함할 수 있다.
[0090]
1006에서, 환경 변화를 검출한 것에 대한 응답으로, 레이더 센서는 레이더 필드를 제공하도록 활성화된다. 디바이스의 레이더 센서는 센서에 의해 제공된 데이터를 보충하거나 보완하는 레이더 데이터를 제공하도록 활성화될 수 있다. 일부 경우들에서, 레이더 필드는 환경 변화를 검출하는 센서의 타입 또는 환경 변화를 특징으로 하는 센서 데이터에 기반하여 구성된다. 예컨대, 사용자 근접성이 검출되면, 레이더 센서는 사용자를 식별하는데 적절한 단-거리 레이더 필드를 제공하도록 구성된다. 다른 경우들에서, 레이더 센서는 주변 잡음 또는 진동들을 검출한 것에 대한 응답으로 스위핑 장-거리 레이더 필드를 제공하도록 구성될 수 있다. 그런 경우들에서, 장-거리 레이더 필드는 잡음의 소스와 연관된 액티비티 또는 위치를 검출하기 위하여 사용될 수 있다.
[0091]
1008에서, 레이더 필드로부터의 반사 신호들은 레이더 데이터를 제공하도록 변환된다. 반사 신호들은 임의의 적절한 신호 프로세싱을 사용하여, 이를테면 레인지-도플러 변환, 레인지 프로파일 변환, 마이크로-도플러 변환, I/Q 변환, 또는 스펙트로그램 변환을 수행함으로써 변환될 수 있다. 일부 경우들에서, 레이더 데이터를 제공하기 위하여 사용되는 변환의 타입은 환경 변화를 검출하는 센서의 타입 또는 센서에 의해 제공된 데이터에 기반하여 선택된다.
[0092]
1010에서, 레이더 특징은 레이더 데이터로부터 추출된다. 레이더 특징은 환경 변화에 기반하여 추출될 수 있다. 일부 경우들에서, 레이더 특징의 타입은 환경 변화 또는 환경 변화의 타입에 기반하여 선택된다. 예컨대, 검출 특징 또는 모션 특징은 주변 잡음을 검출하는 음향 센서에 대한 응답으로 선택될 수 있다. 다른 경우들에서, 레이더 센서는 디바이스의 이동을 감지하는 가속도계에 대한 응답으로 위치 특징 또는 형상 특징을 추출할 수 있다.
[0093]
1012에서, 센서 데이터는, 향상된 센서 데이터를 제공하기 위해 레이더 특징을 사용하여 증강된다. 이것은, 센서 데이터와 연관된 정확도 또는 신뢰성 레이트를 증가시키는데 효과적일 수 있다. 다시 말해서, 만약 센서가 정확도, 레인지, 또는 다른 측정에 대해 약점을 갖는다면, 레이더 데이터는 이러한 단점들을 보상하고, 센서 데이터의 품질을 개선시킬 수 있다. 예컨대, 사용자의 얼굴의 표면 특징은, 사용자의 아이덴티티 및 디바이스를 언록하기 위해 수신된 음성 커맨드의 유효성을 확인할 수 있다.
[0094]
1014에서, 향상된 센서 데이터가 센서-기반 애플리케이션에 노출된다. 이것은, 애플리케이션의 정확도를 개선시키고, 애플리케이션에 의해 사용된 센서 데이터의 양을 감소시키고, 애플리케이션의 기능성을 확장시키는 것 등에 의해 센서-기반 애플리케이션의 성능을 개선시키는데 효과적일 수 있다. 예컨대, 이동에 대한 응답으로 디바이스를 어웨이크하는 모션-기반 전력 상태 애플리케이션은 또한, 모션 데이터 및 사용자의 안면 구조의 표면 특징을 포함하는 향상된 센서 데이터에 기반하여 사용자를 인증하고 디바이스를 언록할 수 있다.
[0095]
도 11은, 레이더 센서(120), 센서 퓨전 엔진(110), 또는 콘텍스트 관리자(112)에 의해 수행되는 동작들을 포함하는, 관심 공간에 대한 3D 콘텍스트 모델을 생성하기 위한 예시적인 방법을 예시한다.
[0096]
1102에서, 디바이스의 레이더 센서는 관심 공간 또는 영역에 대한 레이더 데이터를 획득하기 위해 활성화된다. 레이더 센서는 디바이스의 이동, 이를테면, 디바이스가 그 공간 또는 영역으로 이동하고 있다는 것을 표시하는 관성 데이터 또는 GPS 데이터에 대한 응답으로 활성화될 수 있다. 일부 경우들에서, 레이더 센서는, 디바이스의 무선 인터페이스에 의해 검출가능한 데이터를 송신하는 알려지지 않은 디바이스들, 이를테면 무선 액세스 포인트들, 무선 기기들, 또는 공간 내의 다른 무선 디바이스들을 검출하는 것에 대한 응답으로 활성화된다.
[0097]
예로서, 사용자(1202)가 자신의 포켓에 자신의 스마트-폰(102-3)을 갖고 거실 룸에 들어가는 도 12의 환경(1200)을 고려한다. 여기서, 사용자(1202)가 전에 이러한 공간에 있지 않았고, 따라서, 스마트-폰(102-2)이 이러한 공간과 연관된 어떠한 사전의 콘텍스트 정보도 갖지 않는다고 가정한다. 텔레비전(1204)의 무선 데이터 송신들 또는 개방 영역을 감지하는 것에 대한 응답으로, 스마트-폰(102-3)의 레이더 센서(120)는 레이더-투명 포켓 물질을 통해 룸을 스캔하고 레이더 데이터를 획득하는 것을 시작한다. 사용자가 룸에서 방향을 변경할 때, 레이더 센서(120)는 부가적인 레이더 데이터를 획득하기 위해 룸을 계속 스캔한다.
[0098]
1104에서, 3D 레이더 특징들은 레이더 데이터로부터 추출된다. 3D 레이더 특징들은, 3D 레이더 특징들 또는, 3D 레이더 특징들을 구성하는데 유용한 1D 및 2D 특징들의 조합을 포함할 수 있다. 3D 레이더 특징들은, 관심 공간 또는 영역의 물리적 양상들을 캡처하는 레이더 반사 특징들, 모션 특징들, 또는 형상 특징들을 포함할 수 있다. 예컨대, 3D 레이더 특징들은 공간의 타겟들, 이를테면 가구, 벽들, 기기들, 바닥 깔개들, 아키텍처 특징들 등에 대한 레인징, 위치, 또는 형상 정보를 포함할 수 있다. 본 예의 맥락에서, 콘텍스트 관리자(112)는 룸의 타겟들, 이를테면 텔레비전(1204), 식물(1206), 도어(1208), 램프(1210), 그림(1212), 및 소파(1214)의 위치 및 표면 레이더 특징들을 추출한다. 레이더 형상들은 룸의 각각의 타겟의 대략적인 형상, 표면 텍스처, 또는 (절대적인 또는 다른 타겟들에 상대적인) 위치를 표시할 수 있다.
[0099]
1106에서, 위치 데이터가 디바이스의 센서들로부터 수신된다. 위치 데이터는 방향 데이터, 관성 데이터, 모션 데이터, 지향성 데이터 등을 포함할 수 있다. 일부 경우들에서, 위치 데이터는, 레이더 스캐닝 또는 레이더 이미징을 위해 합성 개구 기술들을 구현하는데 유용하다. 대안적으로 또는 부가적으로, 디바이스의 다른 센서들은 공간의 환경을 표시하는 데이터를 제공할 수 있다. 예컨대, 음향 센서는, 공간에 존재하는 주변 잡음(예컨대, 팬 잡음 또는 기계 소음)을 식별하는데 유용한 데이터를 제공할 수 있다. 진행중인 예를 계속하면, 스마트-폰(102-3)의 가속도계(202)는, 사용자가 룸 전체에 걸쳐 이동할 때, 관성 및 방향 데이터를 센서 퓨전 엔진(110)에 제공한다.
[0100]
1108에서, 3D 레이더 특징들의 공간 관계는 위치 데이터에 기반하여 결정된다. 주목되는 바와 같이, 위치 데이터는, 레이더 센서가 관심 영역을 스캔할 수 있게 하는 합성 개구를 제공하기 위해 레버리지될 수 있다. 다시 말해서, 디바이스가 공간을 지나갈 때, 레이더 센서는 룸의 물리적 특징들을 다수의 3D 레이더 특징들로서 캡처할 수 있다. 이어서, 센서로부터 수신된 위치 데이터는, 다수의 3D 특징들 간의 공간 관계들 또는 이들 특징들이 3D 공간에 어떻게 피팅되는지를 결정하기 위해 사용될 수 있다. 본 예의 맥락에서, 콘텍스트 관리자(112)는 가속도계(202)의 관성 및 방향 데이터를 사용함으로써 룸의 타겟들 간의 공간 관계들을 결정한다.
[0101]
1110에서, 3D 맵의 일부는 3D 레이더 특징들 및 그의 공간 관계들에 기반하여 생성된다. 3D 맵은 레이더 특징들에 의해 캡처된 랜드마크들에 기반하여 공간 또는 룸의 일부에 대해 생성될 수 있다. 이들 랜드마크들은 공간의 식별가능한 물리적 특징들, 이를테면 가구, 공간의 기본 형상 및 지오메트리, 표면들의 반사율 등을 포함할 수 있다. 동작(1110)으로부터, 방법(1100)은, 공간의 3D 맵의 다른 부분을 생성하기 위한 동작(1102)으로 리턴하거나 또는 동작(1112)로 진행할 수 있다. 진행중인 예를 계속하면 그리고 센서 퓨전 엔진이 룸의 대부분을 스캔했다고 가정하면, 콘텍스트 관리자(112)는, 룸의 타겟들(1204 내지 1214)의 레이더 특징들 및/또는 룸의 전체 차원들에 기반하여 룸의 3D 맵의 다수의 부분들을 생성한다.
[0102]
1112에서, 3D 맵의 부분들은 공간의 3D 모델을 생성하기 위해 결합된다. 일부 경우들에서, 3D 맵의 부분들은 개개의 에지들을 오버랩함으로써 어셈블링되거나 메시될 수 있다. 다른 경우들에서, 3D 맵의 부분들은 사전에 획득된 위치 데이터에 기반하여 결합될 수 있다. 공간의 3D 맵은 레이더 데이터로부터 추출된 다수의 실용적인 3D 레이더 특징들에 의존하여 완전하거나 또는 부분적일 수 있다. 본 예의 맥락에서, 콘텍스트 관리자(112)는 거실 룸의 3D 모델을 제공하기 위해, 사전에 생성된 부분들을 메시한다.
[0103]
1114에서, 공간의 3D 모델은 공간의 콘텍스트와 연관된다. 이것은, 공간의 3D 콘텍스트 모델을 생성하는데 효과적일 수 있다. 콘텍스트는 임의의 적절한 타입의 콘텍스트, 이를테면 룸의 타입, 보안 레벨, 프라이버시 레벨, 디바이스 동작 모드 등일 수 있다. 일부 경우들에서, 콘텍스트는 사용자 정의되며, 이는, 사용자가 미리 정의된 콘텍스트들의 리스트로부터 선택하도록 촉진하는 것을 포함할 수 있다. 다른 경우들에서, 기계 학습 툴들은 맵핑 동작들을 구현하며, 공간의 물리적 특징들에 기반하여 콘텍스트를 할당할 수 있다. 진행중인 예를 계속하면, 콘텍스트 관리자(112)는, 텔레비전(1204) 및 소파(1214)의 존재에 기반하여, "거실 룸" 콘텍스트를 공간에 연관시킨다. 이러한 콘텍스트는, 영역이 사설이고, 보안 위험들이 낮으며, 텔레비전(1204)이 미디어 가능하고, 무선 또는 제스처-구동 제어 기능들을 통해 제어될 수 있다는 것을 표시한다. 예컨대, 스마트-폰(102-3) 상에서의 미디어 플레이백은 거실 룸으로의 진입 시에 텔레비전(1204)으로 전달될 수 있다.
[0104]
1116에서, 공간의 3D 콘텍스트 모델이 디바이스에 의해 저장된다. 3D 콘텍스트 모델은, 디바이스 또는 다른 디바이스들에 의한 액세스를 가능하게 하도록, 로컬 메모리에 저장되거나 클라우드에 업로딩될 수 있다. 일부 경우들에서, 3D 콘텍스트 모델을 저장하는 것은, 레이더 센서를 통한 공간의 후속적인 식별을 가능하게 한다. 예컨대, 디바이스는, 공간들 및 그와 연관된 콘텍스트들을 디바이스가 학습 및 기억할 수 있게 하는 3D 콘텍스트 모델들의 라이브러리를 유지할 수 있다. 본 예를 결론지으면, 콘텍스트 관리자(112)는 후속적인 액세스 및 디바이스 구성을 가능하게 하기 위해 거실 룸의 3D 콘텍스트 모델을 저장하며, 그 예가 본원에서 설명된다.
[0105]
도 13은 3D 콘텍스트 모델에 기반하여 디바이스의 콘텍스트 세팅들을 구성하기 위한 예시적인 방법을 예시하며, 방법은, 레이더 센서(120), 센서 퓨전 엔진(110), 또는 콘텍스트 관리자(112)에 의해 수행되는 동작들을 포함한다.
[0106]
1302에서, 관심 공간 또는 영역에 대한 레이더 데이터를 획득하기 위해 디바이스의 레이더 센서가 활성화된다. 레이더 센서는, 디바이스의 이동, 이를테면 디바이스가 그 공간 또는 영역 내로 이동한다는 것을 표시하는 관성 데이터 또는 GPS 데이터에 대한 응답으로 활성화될 수 있다. 일부 경우들에서, 레이더 센서는 디바이스가 사전에 연관되었던 알려진 디바이스들, 이를테면 무선 액세스 포인트들, 무선 기기들, 또는 공간 내의 다른 무선 디바이스들을 검출하는 것에 대한 응답으로 활성화된다.
[0107]
1304에서, 레이더 데이터로부터 3D 레이더 특징들이 추출된다. 3D 레이더 특징들은, 3D 레이더 특징들, 또는 3D 레이더 특징들을 구성하는 데 유용한 1D 및 2D 특징들의 조합을 포함할 수 있다. 3D 레이더 특징들은, 관심 공간 또는 영역의 물리적 양상들을 캡처한 레이더 반사 특징들, 모션 특징들, 또는 형상 특징들을 포함할 수 있다. 예컨대, 3D 레이더 특징들은, 공간 내의 타겟들, 이를테면 가구, 벽들, 기기들, 바닥 깔개들, 아키텍처 특징들 등에 대한 레인징, 위치, 또는 형상 정보를 포함할 수 있다.
[0108]
1306에서, 디바이스의 센서들로부터 위치 데이터가 수신된다. 위치 데이터는, 방향 데이터, 관성 데이터, 모션 데이터, 지향성 데이터 등을 포함할 수 있다. 일부 경우들에서, 위치 데이터는, 레이더 스캐닝 또는 레이더 이미징을 위한 합성 개구 기술들을 구현하는 데 유용하다. 대안적으로 또는 부가적으로, 디바이스의 다른 센서들이 공간의 환경을 표시하는 데이터를 제공할 수 있다. 예컨대, 음향 센서는, 공간에 존재하는 주변 잡음(예컨대, 팬 잡음 또는 기계 소음)을 식별하는 데 유용한 데이터를 제공할 수 있다.
[0109]
1308에서, 센서들에 의해 제공되는 위치 데이터에 기반하여 3D 레이더 특징들의 공간 관계가 결정된다. 언급된 바와 같이, 위치 데이터는, 레이더 센서가 관심 영역을 스캔할 수 있게 하는 합성 개구를 제공하도록 레버리지될 수 있다. 다시 말해서, 디바이스가 공간을 지나감에 따라, 레이더 센서는 다수의 3D 레이더 특징들로서 룸의 물리적 특징들을 캡처할 수 있다. 이어서, 센서로부터 수신된 위치 데이터는, 다수의 3D 특징들 간의 공간 관계들 또는 이러한 특징들이 3D 공간에서 어떻게 서로 피팅되는지를 결정하는 데 사용될 수 있다.
[0110]
1310에서, 3D 레이더 특징들 및 그 특징들의 공간 방향에 기반하여 공간의 3D 랜드마크들의 세트가 생성된다. 이러한 랜드마크들은, 공간의 식별가능한 물리적 특징들, 이를테면 가구, 공간의 기본 형상 및 지오메트리, 표면들의 반사율 등을 포함할 수 있다. 예컨대, 컨퍼런스 룸의 3D 랜드마크들은, 특정 형상의 다리들을 갖는 테이블, 및 천장으로부터 돌출된 마스트에 장착된 오버헤드 프로젝터를 포함할 수 있다.
[0111]
1312에서, 3D 랜드마크들의 세트가 알려진 3D 콘텍스트 모델들에 비교된다. 이것은, 알려진 3D 콘텍스트 모델에 기반하여 디바이스가 동작 중인 공간을 식별하는 데 효과적일 수 있다. 일부 경우들에서, 3D 랜드마크들의 세트가 3D 콘텍스트 모델의 것들에 대응할 때, 알려진 3D 콘텍스트 모델에 대한 매치가 결정된다. 가구의 이동 또는 교체와 같은 시간의 경과에 따른 변동성을 처리하기 위해, 매치는, 충분한 3D 랜드마크들이 미리 정의된 신뢰성 임계치를 충족시키도록 매칭할 때 결정될 수 있다. 그러한 경우들에서, 동적 랜드마크들이 모델 매칭 레이트들에 대해 가질 수 있는 영향을 최소화하기 위해, 룸 지오메트리 및 고정 아키텍처(예컨대, 계단들)를 포함할 수 있는 정적 3D 랜드마크들이 더 무겁게 가중될 수 있다.
[0112]
1314에서, 매칭하는 3D 콘텍스트 모델에 기반하여, 공간과 연관된 콘텍스트가 리트리브된다. 일단 공간에 대한 매치가 결정되면, 디바이스에 적용할 콘텍스트가 디바이스에 의해 액세스되거나 리트리브될 수 있다. 콘텍스트는, 프라이버시, 미팅, 약속, 또는 보안 콘텍스트와 같은 임의의 적절한 타입의 콘텍스트일 수 있다. 대안적으로 또는 부가적으로, 3D 콘텍스트 모델의 콘텍스트가 현재 디바이스 세팅들과 호환가능하지 않거나 오래된(out-of-date) 경우, 사용자는, 공간에 대한 콘텍스트를 선택하거나, 콘텍스트를 생성하거나, 또는 콘텍스트를 업데이트하도록 프롬프팅될 수 있다.
[0113]
1316에서, 공간과 연관된 콘텍스트에 기반하여 콘텍스트 세팅들이 구성된다. 구성된 콘텍스트 세팅들은, 임의의 적절한 타입의 세팅들, 이를테면, 링거 볼륨, 링거 모드, 디스플레이 모드들, 네트워크들 또는 다른 디바이스들에 대한 연결성 등을 포함할 수 있다. 추가로, 보안 또는 사설 콘텐츠의 디스플레이를 가능하게 하거나 제한하기 위해, 디바이스의 보안 세팅들 또는 프라이버시 세팅들이 구성될 수 있다.
[0114]
도 14는 콘텍스트의 변경에 대한 응답으로 콘텍스트 세팅들을 변경하기 위한 예시적인 방법을 예시하며, 방법은, 레이더 센서(120), 센서 퓨전 엔진(110), 또는 콘텍스트 관리자(112)에 의해 수행되는 동작들을 포함한다.
[0115]
1402에서, 관심 영역에 대한 레이더 데이터를 획득하기 위해 디바이스의 레이더 센서가 활성화된다. 레이더 센서는 연속하는 또는 지향성 레이더 필드를 방사할 수 있으며, 이러한 레이더 필드로부터, 영역 내의 타겟들에 의해 신호들이 반사된다. 영역 내의 타겟들은 임의의 적절한 타입의 오브젝트, 이를테면, 벽들, 가구, 윈도우들, 바닥 깔개들, 기기들, 룸 지오메트리 등을 포함할 수 있다. 예로서, 사용자(1502)가 태블릿 컴퓨터(102-4)에 의해 디스플레이되는 디지털 콘텐츠를 읽고 있는 도 15의 환경(1500)을 고려한다. 여기서, 콘텍스트 관리자(112)는, 태블릿 컴퓨터가 동작하고 있는 룸에 대한 레이더 데이터를 획득하기 위해, 태블릿 컴퓨터(102-4)의 레이더 센서(120)를 활성화시킨다.
[0116]
1404에서, 레이더 데이터로부터 레이더 특징들이 추출된다. 3D 레이더 특징들은, 3D 레이더 특징들, 또는 3D 레이더 특징들을 구성하는 데 유용한 1D 및 2D 특징들의 조합을 포함할 수 있다. 3D 레이더 특징들은, 관심 공간 또는 영역의 물리적 양상들을 캡처한 레이더 반사 특징들, 모션 특징들, 또는 형상 특징들을 포함할 수 있다. 예컨대, 3D 레이더 특징들은, 공간 내의 타겟들에 대한 레인징, 위치, 또는 형상 정보를 포함할 수 있다. 본 예의 맥락에서, 태블릿 컴퓨터(102-4)의 센서 퓨전 엔진(110)은, 환경(1500)의 거실 룸의 지오메트리 및 그 내부의 타겟들을 식별하는 데 유용한 레이더 특징들을 추출한다.
[0117]
선택적으로, 1406에서, 데이터는 디바이스의 센서로부터 수신된다. 일부 경우들에서, 센서 데이터는 공간에 대한 콘텍스트를 결정하는 데 유용하다. 예컨대, 음향 센서는 공간의 식별가능한 주변 잡음, 이를테면 분수의 흐르는 물 또는 팬 잡음의 특정 주파수와 연관된 데이터를 제공할 수 있다. 다른 경우들에서, 기기들 또는 전자 디바이스들은, 특정 공간에 대한 식별 데이터를 제공하기 위해 음향 센서들에 의해 검출될 수 있는 특정 와인(whine), 소음(hum), 또는 초음파 잡음을 방사할 수 있다.
[0118]
1408에서, 공간에 대한 콘텍스트는 적어도 레이더 특징들에 기반하여 결정된다. 일부 경우들에서, 디바이스에 대한 콘텍스트는 레이더 특징들로부터 유도된 기하학적 구조들 및 점유들에 기반하여 결정된다. 예컨대, 콘텍스트 관리자는 디바이스 둘레에 프라이버시 버블을 세팅하기 위해, 공간의 사이즈, 다른 점유자들의 수, 및 그러한 점유자들에 대한 거리들을 결정할 수 있다. 다른 경우들에서, 레이더 특징들의 랜드마크들의 세트는 알려진 3D 콘텍스트 모델들과 비교된다. 이는, 알려진 3D 콘텍스트 모델에 기반하여 디바이스가 동작하는 공간을 식별하는 데 효과적일 수 있다.
[0119]
알려진 것으로 설명될지라도, 3D 콘텍스트 모델들은 또한, 이를테면, 디바이스 위치(예컨대, GPS)에 기반하여, 디바이스에 액세스되거나 다운로드될 수 있다. 대안적으로 또는 부가적으로, 다른 타입들의 센서 데이터는 알려진 3D 콘텍스트 모델들의 센서 데이터와 비교될 수 있다. 예컨대, 디바이스에 의해 검출된 사운드들 및 무선 네트워크들은 알려진 3D 콘텍스트 모델들의 음향 및 네트워크 데이터와 비교될 수 있다. 진행중인 예를 계속하면, 태블릿 컴퓨터(102-4)의 콘텍스트 관리자(112)는 환경(1500)의 콘텍스트를 "거실 룸", 즉, 사설 준-보안 콘텍스트로 결정한다.
[0120]
1410에서, 디바이스의 콘텍스트 세팅들은 결정된 콘텍스트에 기반하여 구성된다. 구성된 콘텍스트 세팅들은 임의의 적절한 타입의 세팅, 이를테면, 링거 볼륨, 링거 모드, 디스플레이 모드들, 네트워크들 또는 다른 디바이스들에 대한 연결성 등을 포함할 수 있다. 또한, 디바이스의 보안 세팅들 또는 프라이버시 세팅들은 보안 또는 사설 콘텐츠의 디스플레이를 인에이블링하거나 제한하도록 구성될 수 있다. 본 예의 맥락에서, 알려지지 않은 사람(1504)이 룸에 진입하기 전에, 콘텍스트 관리자(112)는 태블릿 컴퓨터(102-4)의 디스플레이, 보안, 및 경고 세팅들을, 그러한 세팅들이 완전히 인에이블링되거나 개방된 사설 콘텍스트에 대해 구성한다고 가정한다.
[0121]
1412에서, 공간은 레이더 센서를 통해 액티비티에 대해 모니터링된다. 레이더 센서는, 반사된 신호들이 수신되는 연속하는 또는 간헐적인 레이더 필드를 제공할 수 있다. 일부 경우들에서, 레이더 센서는 반사된 신호들의 변경들에 대한 응답으로 레이더 필드에서 액티비티 또는 타겟들을 검출한다. 진행중인 예를 계속하면, 레이더 센서(120)는 콘텍스트의 변경을 표시할 수 있는 임의의 액티비티 또는 검출 이벤트들에 대해 환경(1500)을 모니터링한다.
[0122]
1414에서, 레이더 특징들은 공간에서 액티비티의 소스를 식별하기 위해 레이더 데이터로부터 추출된다. 이는 공간에서 타겟들을 식별하기 위해 검출, 모션, 또는 형상 레이더 특징들을 추출하는 것을 포함할 수 있다. 일부 경우들에서, 액티비티의 소스는, 공간을 떠나는 타겟, 이를테면, 룸을 떠나는 누군가이다. 다른 경우들에서, 액티비티의 소스는 공간에 진입하는 사람들 또는 오브젝트들을 포함할 수 있다. 본 예의 맥락에서, 알려지지 않은 사람(1504)이 룸에 진입하여 사용자(1502)에게 접근한다고 가정한다. 이에 대한 응답으로, 레이더 센서(120)는 알려지지 않은 사람(1504)의 식별을 가능하게 하기 위해 검출 및 형상 레이더 특징들(1506)을 제공한다.
[0123]
1416에서, 액티비티의 소스가 공간의 콘텍스트를 변경한다고 결정된다. 일부 경우들에서, 공간을 떠나는 다른 사람들은 사용자 프라이버시를 증가시키거나 또는 디바이스에 대한 잡음 제약들을 감소시키며, 그에 따라, 더-개방된 콘텍스트를 초래한다. 다른 경우들에서, 공간에 진입하는 또는 디바이스에 더 가까이 이동하는 사람들은 사용자 프라이버시를 감소시키거나 또는 디바이스 및 사용자에 대한 보안 우려들을 증가시킬 수 있다. 이러한 프라이버시의 감소 또는 보안에 대한 증가된 필요성에 따라, 디바이스의 콘텍스트는 더 많이 사설 및 보안 지향적이게 될 수 있다. 진행중인 예를 계속하면, 형상 레이더 특징들(1506)은, 표정 인식을 통해, 알려지지 않은 사람(1504)을 식별하기 위한 시도에서 사용된다. 여기서, 그 표정 인식이 실패하고, 그리고 콘텍스트 관리자(112)는 알려지지 않은 엔티티의 존재가 프라이버시 및 보안에 대해 공간의 콘텍스트를 변경한다는 것을 결정한다고 가정한다.
[0124]
1418에서, 디바이스의 콘텍스트 세팅들은 공간의 콘텍스트의 변경에 기반하여 변경된다. 콘텍스트의 변경에 대한 응답으로, 콘텍스트 변경들을 보상하기 위해 디바이스의 콘텍스트 세팅들이 변경될 수 있다. 디바이스의 콘텍스트가 프라이버시 또는 보안을 증가시킬 때, 콘텍스트 세팅들을 변경하는 것은, 이를테면, 디스플레이를 디밍하거나, 특정 애플리케이션들을 디스에이블링하거나, 디스플레이 편광에 영향을 미치거나, 디바이스의 무선 연결성을 제한하거나, 또는 오디오 플레이백 볼륨을 감소시킴으로써, 디바이스에 의해 노출되는 콘텐츠를 제한하는 것을 포함할 수 있다. 본 예를 결론지으면, 콘텍스트의 변경을 검출하는 것에 대한 응답으로, 콘텍스트 관리자(112)는, 알려지지 않은 사람이 태블릿의 콘텐츠를 파악할 수 없게 하기 위해, 이를테면, 보안 애플리케이션들을 폐쇄하거나, 경고들 및 디바이스 오디오의 볼륨을 감소시키거나, 또는 디스플레이되는 콘텐츠의 폰트 사이즈를 감소시킴으로써, 태블릿 컴퓨터(102-4)의 프라이버시 및 보안 세팅들을 증가시킨다.
예시적 컴퓨팅 시스템
[0125]
도 16은 레이더-사용가능 센서 퓨전을 구현하기 위해, 이전의 도 1-15를 참조하여 설명된 바와 같이, 임의의 타입의 클라이언트, 서버, 및/또는 컴퓨팅 디바이스로서 구현될 수 있는 예시적 컴퓨팅 시스템(1600)의 다양한 컴포넌트들을 예시한다.
[0126]
컴퓨팅 시스템(1600)은, 디바이스 데이터(1604)(예컨대, 수신된 데이터, 수신되고 있는 데이터, 브로드캐스트를 위해 스케줄링된 데이터, 데이터의 데이터 패킷들 등)의 유선 및/또는 무선 통신을 인에이블링하는 통신 디바이스들(1602)을 포함한다. 디바이스 데이터(1604) 또는 다른 디바이스 콘텐츠는 디바이스의 구성 세팅들, 디바이스 상에 저장된 미디어 콘텐츠, 및/또는 디바이스의 사용자와 연관된 정보(예컨대, 제스처를 수행하는 행위자(actor)의 아이덴티티)를 포함할 수 있다. 컴퓨팅 시스템(1600) 상에 저장된 미디어 콘텐츠는 임의의 타입의 오디오, 비디오, 및/또는 이미지 데이터를 포함할 수 있다. 컴퓨팅 시스템(1600)은 하나 또는 그 초과의 데이터 입력들(1606)을 포함하며, 이를 통해, 임의의 타입의 데이터, 미디어 콘텐츠, 및/또는 입력들, 이를테면, 인간 발언들, 레이더 필드와의 상호작용들, 사용자-선택가능 입력들(명시적 또는 묵시적), 메시지들, 뮤직, 텔레비전 미디어 콘텐츠, 레코딩된 비디오 콘텐츠, 및 임의의 콘텐츠 및/또는 데이터 소스로부터 수신된 임의의 다른 타입의 오디오, 비디오, 및/또는 이미지 데이터가 수신될 수 있다.
[0127]
컴퓨팅 시스템(1600)은 또한 통신 인터페이스들(1608)을 포함하는데, 이들은 직렬 및/또는 병렬 인터페이스, 무선 인터페이스, 임의의 타입의 네트워크 인터페이스, 모뎀 중 임의의 하나 또는 그 초과로서, 그리고 임의의 다른 타입의 통신 인터페이스로서 구현될 수 있다. 통신 인터페이스들(1608)은 컴퓨팅 시스템(1600)과 통신 네트워크 간의 연결 및/또는 통신 링크들을 제공하는데, 이들에 의해 다른 전자, 컴퓨팅 및 통신 디바이스들이 컴퓨팅 시스템(1600)과 데이터를 통신한다.
[0128]
컴퓨팅 시스템(1600)은 하나 또는 그 초과의 프로세서들(1610)(예컨대, 마이크로프로세서들, 제어기들 등 중 임의의 것)을 포함하는데, 이들은 컴퓨팅 시스템(1600)의 동작을 제어하도록 그리고 레이더-사용가능 센서 퓨전을 위한 또는 레이더-사용가능 센서 퓨전이 구현될 수 있는 기법들을 가능하게 하도록 다양한 컴퓨터-실행가능한 명령들을 프로세싱한다. 대안적으로 또는 추가적으로, 컴퓨팅 시스템(1600)은, 일반적으로 1612로 식별되는 프로세싱 및 제어 회로들과 관련하여 구현되는 하드웨어, 펌웨어, 또는 고정 로직 회로 중 임의의 하나 또는 이들의 조합으로 구현될 수 있다. 비록 도시되지 않을지라도, 컴퓨팅 시스템(1600)은 디바이스 내의 다양한 컴포넌트들을 커플링하는 시스템 버스 또는 데이터 전달 시스템을 포함할 수 있다. 시스템 버스는 상이한 버스 구조들, 이를테면 메모리 버스 또는 메모리 제어기, 주변 장치 버스, 범용 직렬 버스, 및/또는 다양한 버스 아키텍처들 중 임의의 버스 아키텍처를 활용하는 프로세서 또는 로컬 버스 중 임의의 하나 또는 이들의 조합을 포함할 수 있다.
[0129]
컴퓨팅 시스템(1600)은 또한 컴퓨터-판독가능 매체(1614), 이를테면 영구적 그리고/또는 비-일시적 데이터 저장(즉, 단순 신호 송신과는 대조적으로)을 인에이블링하는 하나 또는 그 초과의 메모리 디바이스들을 포함하며, 그 예들은 RAM(random access memory), 비-휘발성 메모리(예컨대, ROM(read-only memory), 플래시 메모리, EPROM, EEPROM 등 중 임의의 하나 또는 그 초과) 및 디스크 저장 디바이스를 포함한다. 디스크 저장 디바이스는 임의의 타입의 자기 또는 광학 저장 디바이스, 이를테면 하드 디스크 드라이브, 레코딩 가능한 그리고/또는 재기록가능한 CD(compact disc), 임의의 타입의 DVD(digital versatile disc) 등으로서 구현될 수 있다. 컴퓨팅 시스템(1600)은 또한 대용량 저장 매체 디바이스(저장 매체)(1616)를 포함할 수 있다.
[0130]
컴퓨터-판독가능 매체(1614)는 디바이스 데이터(1604)를 저장하기 위한 데이터 저장 메커니즘들뿐만 아니라, 다양한 디바이스 애플리케이션들(1618) 및 컴퓨팅 시스템(1600)의 동작 양상들에 관련된 임의의 다른 타입들의 정보 및/또는 데이터를 제공한다. 예컨대, 운영 체제(1620)는 컴퓨터-판독가능 매체(1614)에 컴퓨터 애플리케이션으로서 유지되며 프로세서들(1610) 상에서 실행될 수 있다. 디바이스 애플리케이션들(1618)은 디바이스 관리자, 이를테면 임의의 형태의 제어 애플리케이션, 소프트웨어 애플리케이션, 신호-프로세싱 및 제어 모듈, 특정 디바이스에 고유한 코드, 추상 모듈 또는 제스처 모듈 등을 포함할 수 있다. 디바이스 애플리케이션들(1618)은 또한 레이더-사용가능 센서 퓨전을 구현하기 위한 시스템 컴포넌트들, 엔진들 또는 관리자들, 이를테면 센서-기반 애플리케이션들(108), 센서 퓨전 엔진(110) 및 콘텍스트 관리자(112)를 포함한다.
[0131]
컴퓨팅 시스템(1600)은 또한 레이더 시스템들 또는 센서들 중 하나 또는 그 초과, 이를테면 레이더-방사 엘리먼트(122), 레이더-수신 엘리먼트 및 안테나들(124)을 갖는 레이더 센서 칩(1622)을 포함하거나 이에 액세스할 수 있다. 도시되지 않았지만, 센서 퓨전 엔진(110) 또는 콘텍스트 관리자(112)의 하나 또는 그 초과의 엘리먼트들은 전체적으로 또는 부분적으로, 하드웨어 또는 펌웨어를 통해 구현될 수 있다.
결론
[0132]
레이더-사용가능 센서 퓨전을 사용하는 기법들 및 레이더-사용가능 센서 퓨전을 포함하는 장치들이 특징들 및/또는 방법들에 특정적인 언어로 설명되었을지라도, 첨부된 청구항들의 요지는 설명된 특정 특징들 또는 방법들로 반드시 제한되는 것은 아니라는 것이 이해되어야 한다. 그보다는, 특정 특징들 및 방법들은 레이더-사용가능 센서 퓨전이 구현될 수 있는 예시적인 방식들로서 개시된다.
Claims (20)
- 장치로서,
적어도 하나의 컴퓨터 프로세서들;
적어도 하나의 레이더 센서 ― 상기 적어도 하나의 레이더 센서는:
레이더 필드를 제공하도록 구성된 적어도 하나의 레이더-방사 엘리먼트; 및
상기 레이더 필드 내의 오브젝트들로부터의 레이더 필드의 반사들로부터 야기되는 레이더 반사 신호들을 수신하도록 구성된 적어도 하나의 레이더-수신 엘리먼트를 포함함 ―;
복수의 센서들 ― 상기 센서들 각각은 상기 장치의 개개의 환경 변화를 감지하도록 구성되는 별개의 타입의 센서를 포함함 ―; 및
명령들이 저장된 적어도 하나의 컴퓨터-판독가능 저장 매체를 포함하며,
상기 명령들은, 상기 컴퓨터 프로세서에 의한 실행에 대한 응답으로, 상기 장치로 하여금:
상기 레이더-방사 엘리먼트를 통해, 레이더 필드를 제공하고;
상기 레이더-수신 엘리먼트를 통해, 상기 레이더 필드 내의 오브젝트로부터의 레이더 필드의 반사로부터 야기되는 반사 신호를 수신하고;
상기 수신된 반사 신호에 기반하여, 상기 오브젝트의 레이더 검출 특징, 레이더 반사 특징, 레이더 모션 특징, 레이더 위치 특징, 또는 레이더 형상 특징 중 적어도 하나를 결정하고;
보충 센서 데이터를 제공하기 위해, 상기 오브젝트의 결정된 레이더 검출, 모션, 위치, 또는 형상 특징이 상기 오브젝트의 제1 타입의 결정된 레이더 검출, 모션, 위치, 또는 형상 특징임에 기반하여, 상기 센서들 중 제1 센서를 선택하거나; 또는
상기 보충 센서 데이터를 제공하기 위해, 상기 오브젝트의 결정된 레이더 검출, 모션, 위치, 또는 형상 특징이 상기 오브젝트의 제2 타입의 결정된 레이더 검출, 모션, 위치, 또는 형상 특징임에 기반하여, 상기 센서들 중 제2 센서를 선택하고;
상기 선택된 제1 또는 제2 센서를 저 전력 상태로부터 활성화시키고;
상기 활성화된 제1 또는 제2 센서로부터 상기 보충 센서 데이터를 수신하고;
상기 오브젝트의 상기 레이더 검출, 모션, 위치, 또는 형상 특징을 향상시키기 위해 상기 보충 센서 데이터를 이용하여 상기 오브젝트의 상기 레이더 검출, 모션, 위치, 또는 형상 특징을 증강하고; 그리고
센서-기반 애플리케이션의 성능을 개선하는데 효과적인 상기 오브젝트의 향상된 레이더 검출, 모션, 위치, 또는 형상 특징을 상기 센서-기반 애플리케이션에 제공하게 하는,
장치. - 제1 항에 있어서,
상기 명령들은 추가로 상기 장치로 하여금, 상기 반사 신호에 기반하여 오브젝트들의 수, 총 반사된 에너지, 이동 에너지, 1차원 속도, 1차원 속도 분산(velocity dispersion), 3차원 공간 좌표들 또는 1차원 공간 분산(spatial dispersion)의 표시를 결정하게 하고; 그리고
상기 제1 또는 제2 센서의 선택은 상기 오브젝트들의 수, 상기 총 반사된 에너지, 상기 이동 에너지, 상기 1차원 속도, 상기 1차원 속도 분산, 상기 3차원 공간 좌표들 또는 상기 1차원 공간 분산의 표시에 추가로 기반하는,
장치. - 제1 항 또는 제2 항에 있어서,
상기 명령들은 추가로 상기 장치로 하여금, 상기 반사 신호 상에서 레인지-도플러 변환, 레인지 프로파일 변환, 마이크로-도플러 변환, I/Q 변환 또는 스펙트로그램 변환을 수행하게 하고; 그리고
상기 오브젝트의 상기 레이더 검출 특징, 상기 레이더 반사 특징, 상기 레이더 모션 특징, 상기 레이더 위치 특징, 또는 상기 레이더 형상 특징 중 적어도 하나의 결정은 수행된 상기 레인지-도플러 변환, 레인지 프로파일 변환, 마이크로-도플러 변환, I/Q 변환 또는 스펙트로그램 변환에 추가로 기반하는,
장치. - 제1 항 또는 제2 항에 있어서,
상기 센서-기반 애플리케이션은 근접 검출, 사용자 검출, 사용자 추적, 액티비티 검출, 표정 인식, 호흡 검출, 또는 모션 시그니처 식별 애플리케이션을 포함하는,
장치. - 제1 항 또는 제2 항에 있어서,
상기 센서들은 가속도계, 자이로스코프, 홀 효과 센서, 자기력계, 온도 센서, 마이크로폰, 정전 용량형 센서, 근접 센서, 주변 광 센서, RGB(red-green-blue) 이미지 센서, 적외선 센서 또는 깊이 센서 중 둘 또는 그 초과를 포함하는,
장치. - 제1 항 또는 제2 항에 있어서,
상기 오브젝트의 레이더 검출, 모션, 위치, 또는 형상 특징의 증강은:
상기 오브젝트의 레이더 검출, 모션, 위치, 또는 형상 특징의 위치 정확도를 증가시키는 것;
상기 오브젝트의 레이더 검출, 모션, 위치, 또는 형상 특징에 기인한 허위 포지티브 검출을 완화시키는 것;
상기 오브젝트의 레이더 검출, 모션, 위치, 또는 형상 특징의 공간 해상도를 증가시키는 것;
상기 오브젝트의 레이더 검출, 모션, 위치, 또는 형상 특징의 표면 해상도를 증가시키는 것; 또는
상기 오브젝트의 레이더 검출, 모션, 위치, 또는 형상 특징의 분류 정밀도를 개선시키는 것
에 의해 상기 오브젝트의 레이더 검출, 모션, 위치, 또는 형상 특징을 향상하는데 효과적인,
장치. - 제1 항 또는 제2 항에 있어서,
상기 레이더 센서는 상기 제1 및 제2 센서들보다 더 적은 전력을 소비하는,
장치. - 제1 항 또는 제2 항에 있어서,
상기 장치는 스마트-폰, 스마트-안경, 스마트-시계, 태블릿 컴퓨터, 랩톱 컴퓨터, 셋톱 박스, 스마트-기기, 홈 자동화 제어기 또는 텔레비전으로서 구현되는,
장치. - 제1 항 또는 제2 항에 있어서,
상기 레이더-수신 엘리먼트는 복수의 안테나들을 포함하며; 그리고
상기 명령들은 추가로 상기 장치로 하여금 빔형성 기법들을 사용하여 상기 안테나들을 통해 상기 반사 신호를 수신하게 하는,
장치. - 방법으로서,
디바이스의 적어도 하나의 레이더-방사 엘리먼트를 통해, 레이더 필드를 제공하는 단계;
상기 디바이스의 적어도 하나의 레이더-수신 엘리먼트를 통해, 상기 레이더 필드 내의 오브젝트로부터의 상기 레이더 필드의 반사에 의해 야기되는 반사 신호를 수신하는 단계;
상기 반사 신호로부터, 상기 오브젝트의 물리적 특징을 표시하는 레이더 특징을 추출하는 단계;
상기 레이더 특징이 제1 타입의 레이더 특징임에 기반하여, 상기 디바이스의 복수의 센서들 중 제1 센서를 선택하는 단계; 또는
상기 레이더 특징이 제2 타입의 레이더 특징임에 기반하여, 상기 제1 센서와 상이한 타입의 센서인, 상기 디바이스의 센서들 중 제2 센서를 선택하는 단계;
상기 선택된 제1 또는 제2 센서를 저 전력 상태로부터 활성화시키는 단계;
상기 활성화된 제1 또는 제2 센서로부터 보충 센서 데이터를 수신하는 단계 ― 상기 보충 센서 데이터는 상기 오브젝트의 물리적 특징을 추가로 표시하는 상이한 타입의 선택된 센서에 대응하는 환경 변화를 표시함 ―;
상기 보충 센서 데이터를 이용하여 상기 레이더 특징을 증강하는 단계;
센서-기반 애플리케이션에 상기 증강된 레이더 특징을 제공하는 단계
를 포함하는,
방법. - 제10 항에 있어서,
상기 제1 센서는 상기 오브젝트 주위의 제1 환경 변화를 검출하도록 구성되고, 그리고 상기 제2 센서는 상기 오브젝트 주위의 제2 환경 변화를 검출하도록 구성되는,
방법. - 제10 항 또는 제11 항에 있어서,
상기 제1 또는 제2 타입의 레이더 특징은 표면 특징, 모션 특징, 위치 특징, 또는 검출 특징을 포함하는,
방법. - 제10 항 또는 제11 항에 있어서,
상기 디바이스의 센서들은 가속도계, 자이로스코프, 홀 효과 센서, 자기력계, 온도 센서, 마이크로폰, 정전 용량형 센서, 근접 센서, 주변 광 센서, RGB(red-green-blue) 이미지 센서, 적외선 센서 또는 깊이 센서 중 적어도 두 개를 포함하는,
방법. - 제10 항 또는 제11 항에 있어서,
상기 레이더 특징은 상기 레이더 필드 내의 오브젝트들의 수, 총 반사된 에너지, 이동 에너지, 1차원 속도, 1차원 속도 분산, 3차원 공간 좌표들 또는 1차원 공간 분산을 표시하는,
방법. - 명령들을 포함하는 프로그램으로서, 상기 명령들은 컴퓨터에 의해 실행될 때, 상기 컴퓨터로 하여금:
적어도 하나의 레이더-방사 엘리먼트로 하여금 레이더 필드를 제공하게 하고;
적어도 하나의 레이더-수신 엘리먼트를 통해, 상기 레이더 필드 내의 오브젝트로부터의 상기 레이더 필드의 반사에 의해 야기되는 반사 신호를 수신하고;
상기 반사 신호를 상기 반사 신호를 야기하는 상기 오브젝트의 레이더 검출 특징, 레이더 반사 특징, 레이더 모션 특징, 레이더 위치 특징, 또는 레이더 형상 특징 중 적어도 하나로 분석하고;
상기 오브젝트의 레이더 검출, 반사, 모션, 위치, 또는 형상 특징을 위한 보충 센서 데이터를 제공하기 위해, 상기 오브젝트의 레이더 검출, 반사, 모션, 위치, 또는 형상 특징에 기반하여, 적어도 하나의 센서를 선택하고 ― 상기 보충 센서 데이터는 상기 오브젝트 주위의 적어도 하나의 환경 변화를 표시함 ―;
상기 선택된 센서를 저 전력 상태로부터 활성화시키고;
상기 활성화된 센서로부터 상기 환경 변화를 표시하는 상기 보충 센서 데이터를 수신하고;
오브젝트의 향상된 레이더 검출, 반사, 모션, 위치, 또는 형상 특징을 제공하기 위해 상기 환경 변화를 표시하는 상기 보충 센서 데이터를 이용하여 상기 오브젝트의 레이더 검출, 반사, 모션, 위치, 또는 형상 특징을 증강하고;
센서-기반 애플리케이션의 성능을 개선하는데 효과적인 상기 오브젝트의 상기 향상된 레이더 검출, 모션, 위치, 또는 형상 특징을 상기 센서-기반 애플리케이션에 노출시키게
하기 위한 것인,
프로그램. - 제15 항에 있어서,
상기 명령들은 추가로 상기 컴퓨터로 하여금:
상기 레이더-방사 엘리먼트가 다른 레이더 필드를 제공하게 하고;
상기 레이더-수신 엘리먼트를 통해, 상기 다른 레이더 필드 내의 상기 오브젝트 또는 다른 오브젝트로부터의 다른 레이더 필드의 반사에 의해 야기되는 다른 반사 신호를 수신하고;
상기 다른 반사 신호를 상기 다른 반사 신호를 야기하는 상기 오브젝트 또는 상기 다른 오브젝트의 다른 레이더 검출 특징, 다른 레이더 반사 특징, 다른 레이더 모션 특징, 다른 레이더 위치 특징, 또는 다른 레이더 형상 특징 중 적어도 하나로 분석하고;
상기 오브젝트 또는 상기 다른 오브젝트의 상기 다른 레이더 검출, 반사, 모션, 위치, 또는 형상 특징을 위한 다른 보충 센서 데이터를 제공하기 위해, 상기 오브젝트의 다른 레이더 검출, 반사, 모션, 위치, 또는 형상 특징에 기반하여, 상기 센서와 상이한 타입인 적어도 하나의 다른 센서를 선택하고 ― 상기 다른 보충 센서 데이터는 상기 오브젝트 주위의 환경 변화와 다른, 상기 오브젝트 또는 상기 다른 오브젝트 주위의 적어도 하나의 다른 환경 변화를 표시함 ―;
상기 선택된 다른 센서를 저 전력 상태로부터 활성화시키고;
상기 활성화된 다른 센서로부터 상기 다른 환경 변화를 표시하는 상기 다른 보충 센서 데이터를 수신하고;
상기 오브젝트 또는 상기 다른 오브젝트의 다른 향상된 레이더 검출, 반사, 모션, 위치, 또는 형상 특징을 제공하기 위해 상기 다른 환경 변화를 표시하는 상기 다른 보충 센서 데이터를 이용하여 상기 오브젝트 또는 상기 다른 오브젝트의 상기 다른 레이더 검출, 반사, 모션, 위치, 또는 형상 특징을 증강하고; 그리고
센서-기반 애플리케이션 또는 다른 센서-기반 애플리케이션의 성능을 개선하는데 효과적인 상기 오브젝트의 상기 다른 향상된 레이더 검출, 반사, 모션, 위치, 또는 형상 특징을 상기 센서-기반 애플리케이션 또는 상기 다른 센서-기반 애플리케이션에 노출시키게
하기 위한 것인,
프로그램. - 제15 항 또는 제16 항에 있어서,
상기 명령들은 추가로 상기 컴퓨터로 하여금, 상기 반사 신호에 기반하여 오브젝트들의 수, 총 반사된 에너지, 이동 에너지, 1차원 속도, 1차원 속도 분산, 3차원 공간 좌표들 또는 1차원 공간 분산의 표시를 결정하게 하고; 그리고
센서의 상기 선택은 상기 오브젝트들의 수, 총 반사된 에너지, 이동 에너지, 1차원 속도, 1차원 속도 분산, 3차원 공간 좌표들 또는 1차원 공간 분산의 표시에 추가로 기반하는,
프로그램. - 제15 항 또는 제16 항에 있어서,
상기 명령들은 추가로 상기 컴퓨터로 하여금, 상기 반사 신호 상에서 레인지-도플러 변환, 레인지 프로파일 변환, 마이크로-도플러 변환, I/Q 변환 또는 스펙트로그램 변환을 수행하게 하고; 그리고
상기 반사 신호의 해상도는 상기 레인지-도플러 변환, 레인지 프로파일 변환, 마이크로-도플러 변환, I/Q 변환 또는 스펙트로그램 변환에 기반하는,
프로그램. - 제15 항 또는 제16 항에 있어서,
상기 센서-기반 애플리케이션은 근접 검출, 사용자 검출, 사용자 추적, 액티비티 검출, 표정 인식, 호흡 검출, 또는 모션 시그니처 식별 애플리케이션을 포함하는,
프로그램. - 제15 항 또는 제16 항에 있어서,
상기 오브젝트의 상기 레이더 검출, 모션, 위치, 또는 형상 특징의 증강은:
상기 오브젝트의 레이더 검출, 모션, 위치, 또는 형상 특징의 위치 정확도를 증가시키는 것;
상기 오브젝트의 레이더 검출, 모션, 위치, 또는 형상 특징에 기인한 허위 포지티브 검출을 완화시키는 것;
상기 오브젝트의 레이더 검출, 모션, 위치, 또는 형상 특징의 공간 해상도를 증가시키는 것;
상기 오브젝트의 레이더 검출, 모션, 위치, 또는 형상 특징의 표면 해상도를 증가시키는 것; 또는
상기 오브젝트의 레이더 검출, 모션, 위치, 또는 형상 특징의 분류 정밀도를 개선시키는 것
에 의해 상기 오브젝트의 상기 레이더 검출, 모션, 위치, 또는 형상 특징을 향상하는데 효과적인,
프로그램.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020227001176A KR102377488B1 (ko) | 2015-10-06 | 2016-10-06 | 레이더-사용가능 센서 퓨전 |
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562237975P | 2015-10-06 | 2015-10-06 | |
US62/237,975 | 2015-10-06 | ||
US15/286,512 | 2016-10-05 | ||
US15/286,512 US10401490B2 (en) | 2015-10-06 | 2016-10-05 | Radar-enabled sensor fusion |
PCT/US2016/055671 WO2017062566A1 (en) | 2015-10-06 | 2016-10-06 | Radar-enabled sensor fusion |
KR1020187004283A KR102245190B1 (ko) | 2015-10-06 | 2016-10-06 | 레이더-사용가능 센서 퓨전 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020187004283A Division KR102245190B1 (ko) | 2015-10-06 | 2016-10-06 | 레이더-사용가능 센서 퓨전 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020227001176A Division KR102377488B1 (ko) | 2015-10-06 | 2016-10-06 | 레이더-사용가능 센서 퓨전 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210047964A true KR20210047964A (ko) | 2021-04-30 |
KR102352236B1 KR102352236B1 (ko) | 2022-01-14 |
Family
ID=58446760
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020187004283A KR102245190B1 (ko) | 2015-10-06 | 2016-10-06 | 레이더-사용가능 센서 퓨전 |
KR1020217011901A KR102352236B1 (ko) | 2015-10-06 | 2016-10-06 | 레이더-사용가능 센서 퓨전 |
KR1020227001176A KR102377488B1 (ko) | 2015-10-06 | 2016-10-06 | 레이더-사용가능 센서 퓨전 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020187004283A KR102245190B1 (ko) | 2015-10-06 | 2016-10-06 | 레이더-사용가능 센서 퓨전 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020227001176A KR102377488B1 (ko) | 2015-10-06 | 2016-10-06 | 레이더-사용가능 센서 퓨전 |
Country Status (6)
Country | Link |
---|---|
US (26) | US10817065B1 (ko) |
EP (1) | EP3359976A1 (ko) |
JP (3) | JP6694053B2 (ko) |
KR (3) | KR102245190B1 (ko) |
CN (2) | CN113655471B (ko) |
WO (1) | WO2017062566A1 (ko) |
Families Citing this family (214)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3312629A3 (en) | 2011-02-21 | 2018-06-13 | Transrobotics, Inc. | System and method for sensing an object's dimensions |
WO2014052329A1 (en) * | 2012-09-25 | 2014-04-03 | Scoot Networks, Inc. | Systems and methods for regulating vehicle access |
EP3828591A1 (en) | 2012-10-05 | 2021-06-02 | Transrobotics, Inc. | Systems and methods for high resolution distance sensing and applications |
US9575560B2 (en) | 2014-06-03 | 2017-02-21 | Google Inc. | Radar-based gesture-recognition through a wearable device |
US9921660B2 (en) | 2014-08-07 | 2018-03-20 | Google Llc | Radar-based gesture recognition |
US9811164B2 (en) | 2014-08-07 | 2017-11-07 | Google Inc. | Radar-based gesture sensing and data transmission |
US9588625B2 (en) | 2014-08-15 | 2017-03-07 | Google Inc. | Interactive textiles |
US10268321B2 (en) | 2014-08-15 | 2019-04-23 | Google Llc | Interactive textiles within hard objects |
US11169988B2 (en) | 2014-08-22 | 2021-11-09 | Google Llc | Radar recognition-aided search |
US9778749B2 (en) | 2014-08-22 | 2017-10-03 | Google Inc. | Occluded gesture recognition |
US9600080B2 (en) | 2014-10-02 | 2017-03-21 | Google Inc. | Non-line-of-sight radar-based gesture recognition |
DE102015201317A1 (de) * | 2015-01-27 | 2016-07-28 | Bayerische Motoren Werke Aktiengesellschaft | Vermessen einer Abmessung auf einer Oberfläche |
US10016162B1 (en) | 2015-03-23 | 2018-07-10 | Google Llc | In-ear health monitoring |
US9983747B2 (en) | 2015-03-26 | 2018-05-29 | Google Llc | Two-layer interactive textiles |
KR102236958B1 (ko) | 2015-04-30 | 2021-04-05 | 구글 엘엘씨 | 제스처 추적 및 인식을 위한 rf―기반 마이크로―모션 추적 |
US10139916B2 (en) | 2015-04-30 | 2018-11-27 | Google Llc | Wide-field radar-based gesture recognition |
KR102327044B1 (ko) | 2015-04-30 | 2021-11-15 | 구글 엘엘씨 | 타입-애그노스틱 rf 신호 표현들 |
US10088908B1 (en) | 2015-05-27 | 2018-10-02 | Google Llc | Gesture detection and interactions |
US9693592B2 (en) | 2015-05-27 | 2017-07-04 | Google Inc. | Attaching electronic components to interactive textiles |
US11906659B2 (en) * | 2015-07-17 | 2024-02-20 | Origin Wireless, Inc. | Method, apparatus, and system for wireless micro motion monitoring |
US10817065B1 (en) | 2015-10-06 | 2020-10-27 | Google Llc | Gesture recognition using multiple antenna |
WO2017079484A1 (en) | 2015-11-04 | 2017-05-11 | Google Inc. | Connectors for connecting electronics embedded in garments to external devices |
CN105938399B (zh) * | 2015-12-04 | 2019-04-12 | 深圳大学 | 基于声学的智能设备的文本输入识别方法 |
WO2017192167A1 (en) | 2016-05-03 | 2017-11-09 | Google Llc | Connecting an electronic component to an interactive textile |
US11003345B2 (en) | 2016-05-16 | 2021-05-11 | Google Llc | Control-article-based control of a user interface |
WO2017200949A1 (en) | 2016-05-16 | 2017-11-23 | Google Llc | Interactive fabric |
WO2017200570A1 (en) | 2016-05-16 | 2017-11-23 | Google Llc | Interactive object with multiple electronics modules |
EP3267220A1 (en) * | 2016-07-08 | 2018-01-10 | Autoliv Development AB | A vehicle radar system |
US10934764B2 (en) | 2016-09-08 | 2021-03-02 | Magna Closures Inc. | Radar detection system for non-contact human activation of powered closure member |
US11067667B2 (en) | 2016-09-08 | 2021-07-20 | Magna Closures Inc. | Radar detection system for non-contact human activation of powered closure member |
US10572024B1 (en) * | 2016-09-28 | 2020-02-25 | Facebook Technologies, Llc | Hand tracking using an ultrasound sensor on a head-mounted display |
US11380118B2 (en) * | 2016-11-21 | 2022-07-05 | George Shaker | System and method for sensing with millimeter waves |
US10579150B2 (en) | 2016-12-05 | 2020-03-03 | Google Llc | Concurrent detection of absolute distance and relative movement for sensing action gestures |
US10466772B2 (en) * | 2017-01-09 | 2019-11-05 | Infineon Technologies Ag | System and method of gesture detection for a remote device |
US11243293B2 (en) * | 2017-02-07 | 2022-02-08 | Samsung Electronics Company, Ltd. | Radar-based system for sensing touch and in-the-air interactions |
US11435739B2 (en) | 2017-02-08 | 2022-09-06 | L. Samuel A Kassatly | Interface and method for controlling the operation of an autonomously travelling object |
US11048407B1 (en) | 2017-02-08 | 2021-06-29 | Michelle M Kassatly | Interface and method for self-correcting a travel path of a physical object |
DE102018202343A1 (de) * | 2017-02-17 | 2018-08-23 | Magna Closures Inc. | Kraft-schwenktür mit virtual-handgriff -gestensteuerung |
EP3589973A1 (en) * | 2017-03-01 | 2020-01-08 | University Court of The University of St Andrews | Classification method and device |
US10684693B2 (en) * | 2017-03-02 | 2020-06-16 | Samsung Electronics Co., Ltd. | Method for recognizing a gesture and an electronic device thereof |
US11918330B2 (en) | 2017-03-08 | 2024-03-05 | Praesidium, Inc. | Home occupant detection and monitoring system |
US10989806B2 (en) * | 2017-03-08 | 2021-04-27 | Praesidium, Inc. | Home occupant detection and monitoring system |
WO2018180197A1 (ja) * | 2017-03-28 | 2018-10-04 | 日本電気株式会社 | データ解析装置、データ解析方法およびデータ解析プログラム |
WO2018183546A1 (en) * | 2017-03-28 | 2018-10-04 | Sri International | Identification system for subject or activity identification using range and velocity data |
US10551935B2 (en) * | 2017-04-07 | 2020-02-04 | University Of South Carolina | Wearable computing device featuring machine-learning-based smoking detection |
US10845477B2 (en) * | 2017-05-10 | 2020-11-24 | Google Llc | Power management using a low-power radar |
US10782390B2 (en) | 2017-05-31 | 2020-09-22 | Google Llc | Full-duplex operation for radar sensing using wireless communication chipset |
US10795009B2 (en) | 2017-05-31 | 2020-10-06 | Google Llc | Digital beamforming for radar sensing using wireless communication chipset |
US10754005B2 (en) | 2017-05-31 | 2020-08-25 | Google Llc | Radar modulation for radar sensing using a wireless communication chipset |
EP3646052A4 (en) * | 2017-06-27 | 2021-04-28 | Apple Inc. | GESTUAL RECOGNITION RADAR SYSTEMS AND METHODS |
EP3431002B1 (en) * | 2017-07-20 | 2021-11-03 | Nokia Technologies Oy | Rf based monitoring of user activity |
US11030289B2 (en) * | 2017-07-31 | 2021-06-08 | Stmicroelectronics, Inc. | Human presence detection |
WO2019026076A1 (en) * | 2017-08-02 | 2019-02-07 | Caaresys Ltd | SYSTEM FOR NON-CONTACT DETECTION AND MONITORING OF VITAL SIGNS OF OCCUPANTS OF A VEHICLE |
US11079289B2 (en) | 2017-08-18 | 2021-08-03 | Google Llc | Radar-based force sensing |
EP3673385A4 (en) * | 2017-08-25 | 2021-06-09 | Radarsan Radar Teknolojileri San. Tic. A.S. | MODULAR ELECTRONIC CONTROL SYSTEM |
EP3454079B1 (en) * | 2017-09-12 | 2023-11-01 | Aptiv Technologies Limited | Method to determine the suitablility of a radar target as a positional landmark |
US10677905B2 (en) | 2017-09-26 | 2020-06-09 | Infineon Technologies Ag | System and method for occupancy detection using a millimeter-wave radar sensor |
CN107895139B (zh) * | 2017-10-19 | 2021-09-21 | 金陵科技学院 | 一种基于多特征融合的sar图像目标识别方法 |
US10641888B2 (en) | 2017-11-06 | 2020-05-05 | Veoneer Us Inc. | Cued automobile sensor fusion |
US10474934B1 (en) * | 2017-11-26 | 2019-11-12 | Jasmin Cosic | Machine learning for computing enabled systems and/or devices |
US10935651B2 (en) | 2017-12-15 | 2021-03-02 | Google Llc | Radar angular ambiguity resolution |
US10725161B2 (en) | 2017-12-15 | 2020-07-28 | Google Llc | Seamless authentication using radar |
JP6870607B2 (ja) * | 2017-12-28 | 2021-05-12 | トヨタ自動車株式会社 | 自動運転システム |
US10423964B2 (en) * | 2017-12-29 | 2019-09-24 | Scott Kimmel | User controlled event record system |
US11167771B2 (en) * | 2018-01-05 | 2021-11-09 | Magna Mirrors Of America, Inc. | Vehicular gesture monitoring system |
US10969479B2 (en) * | 2018-01-09 | 2021-04-06 | Panasonic Intellectual Property Management Co., Ltd. | Estimation device and estimation method |
DE102018200814B3 (de) * | 2018-01-18 | 2019-07-18 | Audi Ag | Verfahren zum Betrieb eines zur vollständig automatischen Führung eines Kraftfahrzeugs ausgebildeten Fahrzeugführungssystems des Kraftfahrzeugs und Kraftfahrzeug |
US11140813B1 (en) * | 2018-01-24 | 2021-10-12 | Scythe Robotics, Inc. | Moisture and vegetative health mapping |
KR102116604B1 (ko) * | 2018-01-26 | 2020-05-28 | 한양대학교 산학협력단 | 레이더를 이용한 제스처 인식 장치 및 방법 |
CN110113468B (zh) * | 2018-02-01 | 2021-02-12 | 中兴通讯股份有限公司 | 一种状态检测装置和方法 |
US20190244062A1 (en) * | 2018-02-04 | 2019-08-08 | KaiKuTek Inc. | Gesture recognition method, gesture recognition system, and performing device therefore |
US10432779B2 (en) | 2018-02-23 | 2019-10-01 | Motorola Mobility Llc | Communication session modifications based on a proximity context |
US11550046B2 (en) * | 2018-02-26 | 2023-01-10 | Infineon Technologies Ag | System and method for a voice-controllable apparatus |
US11169251B2 (en) | 2018-03-28 | 2021-11-09 | Qualcomm Incorporated | Proximity detection using multiple power levels |
CN111433627B (zh) | 2018-04-05 | 2023-09-22 | 谷歌有限责任公司 | 使用机器学习执行角估计的基于智能设备的雷达系统 |
US11465557B2 (en) * | 2018-04-06 | 2022-10-11 | Magna Closures Inc. | Vehicle latch with integrated radar module |
EP3553551B1 (en) * | 2018-04-10 | 2022-06-01 | Aptiv Technologies Limited | Method for the recognition of an object |
EP3553559B1 (en) | 2018-04-11 | 2022-06-01 | Aptiv Technologies Limited | Method for the recognition of objects |
EP3553552B1 (en) | 2018-04-11 | 2022-05-25 | Aptiv Technologies Limited | Method for the recognition of a moving pedestrian |
US11468503B2 (en) | 2018-04-16 | 2022-10-11 | Bird Rides, Inc. | On-demand rental of electric vehicles |
EP3564086B1 (en) * | 2018-05-01 | 2022-12-07 | The Hi-Tech Robotic Systemz Ltd | Managing drive modes of a vehicle |
US10713343B2 (en) * | 2018-05-10 | 2020-07-14 | Lenovo (Singapore) Pte. Ltd. | Methods, devices and systems for authenticated access to electronic device in a closed configuration |
US11391817B2 (en) | 2018-05-11 | 2022-07-19 | Qualcomm Incorporated | Radio frequency (RF) object detection using radar and machine learning |
US10772511B2 (en) * | 2018-05-16 | 2020-09-15 | Qualcomm Incorporated | Motion sensor using cross coupling |
US10802133B2 (en) * | 2018-05-17 | 2020-10-13 | Infineon Technologies Ag | Diverse sensing using different types of sensors |
KR102511292B1 (ko) * | 2018-07-11 | 2023-03-17 | 삼성전자주식회사 | 전자 장치의 객체 인증 장치 및 방법 |
GB2576213A (en) * | 2018-08-10 | 2020-02-12 | Sony Corp | A method for mapping an object to a location in virtual space |
US10794997B2 (en) * | 2018-08-21 | 2020-10-06 | Google Llc | Smartphone-based power-efficient radar processing and memory provisioning for detecting gestures |
US10890653B2 (en) * | 2018-08-22 | 2021-01-12 | Google Llc | Radar-based gesture enhancement for voice interfaces |
US10770035B2 (en) | 2018-08-22 | 2020-09-08 | Google Llc | Smartphone-based radar system for facilitating awareness of user presence and orientation |
US10698603B2 (en) | 2018-08-24 | 2020-06-30 | Google Llc | Smartphone-based radar system facilitating ease and accuracy of user interactions with displayed objects in an augmented-reality interface |
US20200082014A1 (en) * | 2018-09-12 | 2020-03-12 | Veoneer Us, Inc. | Systems and methods for remote object classification |
KR102535839B1 (ko) | 2018-09-14 | 2023-05-24 | 삼성전자주식회사 | 안테나 어레이를 이용하여 외부 객체를 감지하는 전자 장치 및 그의 동작 방법 |
IT201800009299A1 (it) * | 2018-10-09 | 2020-04-09 | Cover Sistemi Srl | Un metodo di regolazione di uno o piu’ dispositivi ad uso domestico o industriale |
US10536156B1 (en) * | 2018-10-16 | 2020-01-14 | Microchip Technology Incorporated | Analog-to-digital converter controllers including configurable contexts |
US10788880B2 (en) * | 2018-10-22 | 2020-09-29 | Google Llc | Smartphone-based radar system for determining user intention in a lower-power mode |
EP3871002A1 (en) * | 2018-10-25 | 2021-09-01 | Transrobotics, Inc. | Technologies for opportunistic synthetic aperture radar |
EP3647910A1 (en) * | 2018-10-30 | 2020-05-06 | Infineon Technologies AG | An improved apparatus for user interaction |
US10761611B2 (en) * | 2018-11-13 | 2020-09-01 | Google Llc | Radar-image shaper for radar-based applications |
US11406892B2 (en) * | 2018-12-04 | 2022-08-09 | Sony Interactive Entertainment Inc. | Information processing apparatus |
US11310226B2 (en) | 2018-12-19 | 2022-04-19 | Paypal, Inc. | Gesture and motion detection using a device radar component for user authentication |
US11327155B2 (en) | 2018-12-21 | 2022-05-10 | Robert Bosch Gmbh | Radar sensor misalignment detection for a vehicle |
US11748903B2 (en) * | 2019-01-02 | 2023-09-05 | Zebra Technologies Corporation | System and method for robotic object detection using a convolutional neural network |
KR102140045B1 (ko) * | 2019-01-10 | 2020-07-31 | 세종대학교 산학협력단 | 미러 패딩을 이용한 손 동작 인식 장치 및 그 방법 |
CN111507361B (zh) * | 2019-01-30 | 2023-11-21 | 富士通株式会社 | 基于微波雷达的动作识别装置、方法及系统 |
US11226406B1 (en) | 2019-02-07 | 2022-01-18 | Facebook Technologies, Llc | Devices, systems, and methods for radar-based artificial reality tracking |
US20200279473A1 (en) * | 2019-02-28 | 2020-09-03 | Nortek Security & Control Llc | Virtual partition of a security system |
US11626010B2 (en) * | 2019-02-28 | 2023-04-11 | Nortek Security & Control Llc | Dynamic partition of a security system |
CN110018470A (zh) * | 2019-03-01 | 2019-07-16 | 北京纵目安驰智能科技有限公司 | 基于多传感器前融合的实例标注方法、模型、终端和存储介质 |
US11555915B2 (en) * | 2019-03-01 | 2023-01-17 | Samsung Electronics Co., Ltd. | Determining relevant signals using multi-dimensional radar signals |
WO2020183602A1 (ja) * | 2019-03-12 | 2020-09-17 | ソニー株式会社 | 情報処理装置および情報処理方法 |
US11017209B2 (en) * | 2019-03-15 | 2021-05-25 | Samsung Electronics Co., Ltd. | Millimeter wave radar and camera fusion based face authentication system |
US11550031B2 (en) | 2019-03-18 | 2023-01-10 | Samsung Electronics Co., Ltd. | Method and apparatus for biometric authentication using face radar signal |
US10643420B1 (en) | 2019-03-20 | 2020-05-05 | Capital One Services, Llc | Contextual tapping engine |
US11734401B1 (en) * | 2019-03-21 | 2023-08-22 | United Services Automobile Association (Usaa) | Environment based authentication |
KR102021531B1 (ko) * | 2019-03-28 | 2019-11-04 | 세종대학교 산학협력단 | 연속파 레이더를 이용한 미세 손 동작 인식 장치 및 그 방법 |
WO2020193733A1 (en) * | 2019-03-28 | 2020-10-01 | Ams Ag | Optical sensor having directional sensitivity |
US12026907B2 (en) * | 2019-04-04 | 2024-07-02 | Battelle Memorial Institute | Imaging systems and related methods including radar imaging with moving arrays or moving targets |
US11703593B2 (en) | 2019-04-04 | 2023-07-18 | TransRobotics, Inc. | Technologies for acting based on object tracking |
WO2020204934A1 (en) * | 2019-04-05 | 2020-10-08 | Hewlett-Packard Development Company, L.P. | Modify audio based on physiological observations |
CN110034375A (zh) * | 2019-04-19 | 2019-07-19 | Oppo广东移动通信有限公司 | 天线模组及电子设备 |
US11442550B2 (en) * | 2019-05-06 | 2022-09-13 | Samsung Electronics Co., Ltd. | Methods for gesture recognition and control |
KR102710585B1 (ko) | 2019-05-20 | 2024-09-27 | 구글 엘엘씨 | 멀티 모드 인터페이스를 제공하기 위한 모바일 디바이스 기반 레이더 시스템 |
EP3928181B1 (en) | 2019-06-17 | 2024-09-18 | Google LLC | Mobile device-based radar system for applying different power modes to a multi-mode interface |
EP3991067A1 (en) | 2019-06-26 | 2022-05-04 | Google LLC | Radar-based authentication status feedback |
GB2585074B (en) * | 2019-06-28 | 2023-11-15 | Xmos Ltd | Indirect radar detection |
KR20210002989A (ko) | 2019-07-01 | 2021-01-11 | 삼성전자주식회사 | 사물 인식을 위한 골레이 시퀀스 길이 조절 방법 및 그 전자 장치 |
DE112019007565A5 (de) * | 2019-07-25 | 2022-04-21 | Vega Grieshaber Kg | Radarsensor, austauschbare Radar-Sensoranordnung, Feldgerät und Behälter |
EP3770632A1 (de) * | 2019-07-25 | 2021-01-27 | VEGA Grieshaber KG | Kombinierte radarsensoren mit einem radarensor zur füllstandsmessung und einem radasensor zur umgebungsüberwachung |
EP4004686A1 (en) | 2019-07-26 | 2022-06-01 | Google LLC | Authentication management through imu and radar |
WO2021021220A1 (en) * | 2019-07-26 | 2021-02-04 | Google Llc | Authentication management through imu and radar |
US11868537B2 (en) | 2019-07-26 | 2024-01-09 | Google Llc | Robust radar-based gesture-recognition by user equipment |
JP7292437B2 (ja) | 2019-07-26 | 2023-06-16 | グーグル エルエルシー | Imuおよびレーダーに基づいて状態を下げること |
US11385722B2 (en) | 2019-07-26 | 2022-07-12 | Google Llc | Robust radar-based gesture-recognition by user equipment |
JP7346595B2 (ja) | 2019-07-26 | 2023-09-19 | グーグル エルエルシー | レーダーベースのジェスチャー認識の状況感知型制御 |
WO2021021224A1 (en) * | 2019-07-26 | 2021-02-04 | Google Llc | Context-sensitive control of radar-based gesture-recognition |
US12061284B2 (en) * | 2019-08-07 | 2024-08-13 | Jumio Corporation | Microwave biometric authentication using machine learning |
KR20210020632A (ko) * | 2019-08-16 | 2021-02-24 | 삼성전자주식회사 | 밀리미터 웨이브를 이용하여 객체의 속성을 식별하는 전자 장치 및 그 제어 방법 |
KR102119346B1 (ko) * | 2019-08-22 | 2020-06-26 | 고종민 | 초소형 복합센서 모듈 |
KR20220098805A (ko) * | 2019-08-30 | 2022-07-12 | 구글 엘엘씨 | 다중 입력 모드에 대한 입력 모드 통지 |
US11467672B2 (en) | 2019-08-30 | 2022-10-11 | Google Llc | Context-sensitive control of radar-based gesture-recognition |
KR20210151957A (ko) | 2019-08-30 | 2021-12-14 | 구글 엘엘씨 | 모바일 디바이스에 대한 입력 방법 |
KR102479012B1 (ko) | 2019-08-30 | 2022-12-20 | 구글 엘엘씨 | 일시정지된 레이더 제스처에 대한 시각적 표시자 |
CN110597390B (zh) * | 2019-09-12 | 2022-05-20 | Oppo广东移动通信有限公司 | 控制方法、电子装置和存储介质 |
CN110609282B (zh) * | 2019-09-19 | 2020-11-17 | 中国人民解放军军事科学院国防科技创新研究院 | 基于后向投影的太赫兹孔径编码三维成像方法及装置 |
DE102019125348A1 (de) * | 2019-09-20 | 2021-03-25 | 365FarmNet Group GmbH & Co. KG | Verfahren zur Unterstützung eines Benutzers bei einer landwirtschaftlichen Tätigkeit |
KR20210034843A (ko) * | 2019-09-23 | 2021-03-31 | 삼성전자주식회사 | 차량의 제어 장치 및 방법 |
CN112666572A (zh) * | 2019-09-30 | 2021-04-16 | 北京声智科技有限公司 | 基于雷达的唤醒方法、唤醒装置、电子设备及存储介质 |
CN110515092B (zh) * | 2019-10-23 | 2020-01-10 | 南京甄视智能科技有限公司 | 基于激光雷达的平面触摸方法 |
KR20210048725A (ko) | 2019-10-24 | 2021-05-04 | 삼성전자주식회사 | 카메라 제어를 위한 방법 및 이를 위한 전자 장치 |
US11747462B1 (en) * | 2019-12-04 | 2023-09-05 | Meta Platforms Technologies, Llc | Devices, systems, and methods for radar-based artificial reality tracking |
US11852714B2 (en) | 2019-12-09 | 2023-12-26 | Thales Canada Inc. | Stationary status resolution system |
KR20210074749A (ko) * | 2019-12-12 | 2021-06-22 | 삼성전자주식회사 | 라이브니스 검사 방법 및 라이브니스 검사 장치 |
WO2021126209A1 (en) * | 2019-12-19 | 2021-06-24 | Google Llc | Smart-device-based radar system performing symmetric doppler interference mitigation |
DE112021000497T5 (de) | 2020-01-10 | 2022-11-24 | Magna Electronics, Inc. | Kommunikationssystem und -verfahren |
CN113138557B (zh) * | 2020-01-17 | 2023-11-28 | 北京小米移动软件有限公司 | 家居设备控制方法、装置以及存储介质 |
US11567580B2 (en) * | 2020-01-29 | 2023-01-31 | Samsung Electronics Co., Ltd. | Adaptive thresholding and noise reduction for radar data |
US11467254B2 (en) * | 2020-02-27 | 2022-10-11 | Samsung Electronics Co., Ltd. | Method and apparatus of radar-based activity detection |
US11734767B1 (en) | 2020-02-28 | 2023-08-22 | State Farm Mutual Automobile Insurance Company | Systems and methods for light detection and ranging (lidar) based generation of a homeowners insurance quote |
CN113495267B (zh) * | 2020-04-07 | 2024-06-21 | 北京小米移动软件有限公司 | 雷达天线阵列、移动终端、手势识别方法及装置 |
CN111427036A (zh) * | 2020-04-14 | 2020-07-17 | 南京莱斯电子设备有限公司 | 一种短基线多雷达信号级融合检测方法 |
US12118846B2 (en) | 2020-04-22 | 2024-10-15 | Igt | Enhanced personalized gesture inputs at an electronic gaming machine |
US11900535B1 (en) * | 2020-04-27 | 2024-02-13 | State Farm Mutual Automobile Insurance Company | Systems and methods for a 3D model for visualization of landscape design |
CN111624572B (zh) * | 2020-05-26 | 2023-07-18 | 京东方科技集团股份有限公司 | 一种人体手部与人体手势识别的方法及装置 |
IL275524B (en) | 2020-06-18 | 2021-12-01 | Elbit Systems C4I And Cyber Ltd | System and method for measuring parameters without contact |
US11283510B2 (en) | 2020-06-24 | 2022-03-22 | AR & NS Investment, LLC | Phase noise removal in a network of radio frequency (RF) repeaters |
US11989965B2 (en) * | 2020-06-24 | 2024-05-21 | AR & NS Investment, LLC | Cross-correlation system and method for spatial detection using a network of RF repeaters |
US11605228B2 (en) | 2020-06-26 | 2023-03-14 | Nxp Usa, Inc. | System and method for sensor fusion system having distributed convolutional neural network |
US11946996B2 (en) | 2020-06-30 | 2024-04-02 | Apple, Inc. | Ultra-accurate object tracking using radar in multi-object environment |
CN111813224B (zh) * | 2020-07-09 | 2022-03-25 | 电子科技大学 | 一种基于超高分辨率雷达精细手势库的建立与识别方法 |
US11563783B2 (en) | 2020-08-14 | 2023-01-24 | Cisco Technology, Inc. | Distance-based framing for an online conference session |
US11555920B2 (en) * | 2020-10-28 | 2023-01-17 | GM Global Technology Operations LLC | Estimating vehicle velocity using radar data |
US11961009B2 (en) * | 2020-11-02 | 2024-04-16 | The Government Of The United States, As Represented By The Secretary Of The Army | Artificial intelligence algorithm access to multiple users |
WO2022099604A1 (zh) * | 2020-11-13 | 2022-05-19 | 华为技术有限公司 | 雷达认证方法及装置、计算机存储介质 |
US11782149B2 (en) | 2021-01-08 | 2023-10-10 | Google Llc | Systems and methods for managing motion detection of an electronic device, and associated electronic devices |
US12099112B2 (en) | 2021-01-08 | 2024-09-24 | Google Llc | Systems and methods for managing sensors of an electronic device, and associated electronic devices |
CN112774181B (zh) * | 2021-01-11 | 2023-11-10 | 北京星汉云图文化科技有限公司 | 雷达数据的处理方法、处理系统以及计算机存储介质 |
WO2022182933A1 (en) | 2021-02-25 | 2022-09-01 | Nagpal Sumit Kumar | Technologies for tracking objects within defined areas |
KR102351551B1 (ko) * | 2021-03-12 | 2022-01-18 | (주)디지탈엣지 | 다기능 레이더 시스템 및 그의 신호 처리방법 |
US11592908B2 (en) * | 2021-03-19 | 2023-02-28 | Google Llc | Hand gesture recognition based on detected wrist muscular movements |
EP4060366A1 (en) * | 2021-03-19 | 2022-09-21 | Infineon Technologies AG | Methods, device, local device and server for monitoring a user performing a physical exercise |
US11543890B2 (en) * | 2021-03-22 | 2023-01-03 | KaiKuTek Inc. | Custom gesture collection and recognition system having machine learning accelerator |
US11804077B2 (en) * | 2021-04-01 | 2023-10-31 | KaiKuTek Inc. | Generic gesture detecting method and generic gesture detecting device |
EP4071586A1 (de) * | 2021-04-09 | 2022-10-12 | Fresenius Medical Care Deutschland GmbH | Berührungsloses bedienen medizintechnischer geräte |
JP2024514614A (ja) | 2021-04-13 | 2024-04-02 | アップル インコーポレイテッド | 環境内で没入型体験を提供するための方法 |
US11467675B1 (en) * | 2021-04-29 | 2022-10-11 | Facebook Technologies, Llc | Multi-component detection of gestures |
US12050261B2 (en) * | 2021-05-12 | 2024-07-30 | California State University Fresno Foundation | System and method for human and animal detection in low visibility |
CN115412104A (zh) * | 2021-05-28 | 2022-11-29 | 北京小米移动软件有限公司 | 手势识别方法及装置、移动终端、计算机可读存储介质 |
CN115412837A (zh) * | 2021-05-28 | 2022-11-29 | 北京三星通信技术研究有限公司 | 确定ue指向设备的方法及相关设备 |
US20220391022A1 (en) * | 2021-06-03 | 2022-12-08 | Arris Enterprises Llc | System and method for human-device radar-enabled interface |
KR102645313B1 (ko) * | 2021-07-13 | 2024-03-11 | 한국전자기술연구원 | 다수의 사용자들을 위한 차량 내에서의 콘텐츠 제어 방법 및 콘텐츠 제어 장치 |
CN113561911B (zh) * | 2021-08-12 | 2023-03-17 | 森思泰克河北科技有限公司 | 车辆控制方法、装置、毫米波雷达及存储介质 |
CN113791411B (zh) * | 2021-09-07 | 2024-05-28 | 北京航空航天大学杭州创新研究院 | 一种基于轨迹判断的毫米波雷达手势识别方法及装置 |
US11963110B2 (en) | 2021-10-26 | 2024-04-16 | Dell Products Lp | Method and apparatus for detecting, managing antenna proximity, and user privacy by sharing radar sensing telemetry |
US11893205B2 (en) * | 2021-11-01 | 2024-02-06 | Microsoft Technology Licensing, Llc | Real-time gestures in shared electronic canvases |
US20230136270A1 (en) * | 2021-11-03 | 2023-05-04 | Microsoft Technology Licensing, Llc | Synthetic aperture radar for head mounted displays |
US11914093B2 (en) * | 2021-12-07 | 2024-02-27 | Microsoft Technology Licensing, Llc | RF antenna scanning for human movement classification |
CN116414045A (zh) * | 2021-12-31 | 2023-07-11 | 施耐德电气(澳大利亚)有限公司 | 感测节点、感测网络、智能楼宇控制系统和相关联的方法 |
GB202204096D0 (en) * | 2022-03-23 | 2022-05-04 | British Telecomm | A secure authentication token |
US12026319B2 (en) * | 2022-04-13 | 2024-07-02 | Samsung Electronics Co., Ltd. | Dynamic gesture recognition using mmWave radar |
US20230350049A1 (en) * | 2022-04-29 | 2023-11-02 | Google Llc | Fingertip tracking using radar |
US20230359468A1 (en) * | 2022-05-05 | 2023-11-09 | Microsoft Technology Licensing, Llc | User engagement surfaced through an application programming interface (api) |
US11822736B1 (en) * | 2022-05-18 | 2023-11-21 | Google Llc | Passive-accessory mediated gesture interaction with a head-mounted device |
CN115378591B (zh) * | 2022-07-18 | 2023-04-07 | 咚咚数字科技有限公司 | 一种基于融合的匿名生物特征密钥传输方法 |
DE102022121913A1 (de) * | 2022-08-30 | 2024-02-29 | Brose Fahrzeugteile Se & Co. Kommanditgesellschaft, Bamberg | Verfahren zum Betrieb einer motorischen Klappenanordnung eines Kraftfahrzeugs |
US12112011B2 (en) | 2022-09-16 | 2024-10-08 | Apple Inc. | System and method of application-based three-dimensional refinement in multi-user communication sessions |
US12099653B2 (en) | 2022-09-22 | 2024-09-24 | Apple Inc. | User interface response based on gaze-holding event assessment |
EP4365859A1 (en) * | 2022-11-04 | 2024-05-08 | Tata Consultancy Services Limited | Systems and methods for real-time tracking of trajectories using motion sensors |
US12108012B2 (en) | 2023-02-27 | 2024-10-01 | Apple Inc. | System and method of managing spatial states and display modes in multi-user communication sessions |
US12118200B1 (en) | 2023-06-02 | 2024-10-15 | Apple Inc. | Fuzzy hit testing |
US12113948B1 (en) | 2023-06-04 | 2024-10-08 | Apple Inc. | Systems and methods of managing spatial groups in multi-user communication sessions |
CN117519474B (zh) * | 2023-11-06 | 2024-05-14 | 中国人民解放军陆军工程大学 | 一种考虑运动先验的雷达手势特征获取方法 |
CN117473456B (zh) * | 2023-12-28 | 2024-02-27 | 北京卓视智通科技有限责任公司 | 一种雷视智能融合的方法及系统 |
CN118522056B (zh) * | 2024-07-22 | 2024-10-01 | 江西师范大学 | 一种基于双重辅助监督的轻量化人脸活体检测方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120280900A1 (en) * | 2011-05-06 | 2012-11-08 | Nokia Corporation | Gesture recognition using plural sensors |
US20150185314A1 (en) * | 2013-12-26 | 2015-07-02 | International Business Machines Corporation | Radar integration with handheld electronic devices |
Family Cites Families (724)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3570312A (en) | 1968-06-21 | 1971-03-16 | Frank Kreith | Skin temperature sensing device |
US3610874A (en) | 1969-11-21 | 1971-10-05 | Western Electric Co | Laser welding technique |
US3752017A (en) | 1971-04-08 | 1973-08-14 | Pace Inc | Thermal hand tools |
US3953706A (en) | 1974-03-29 | 1976-04-27 | Martin Marietta Corporation | Laser bent beam controlled dwell wire stripper |
US4104012A (en) | 1976-10-12 | 1978-08-01 | Ferrante Michael R | Improved wire stripping apparatus |
US4281645A (en) | 1977-06-28 | 1981-08-04 | Duke University, Inc. | Method and apparatus for monitoring metabolism in body organs |
GB2070469B (en) | 1980-02-29 | 1983-06-08 | Raychem Gmbh | Electrical interconnection |
US6513833B2 (en) | 1992-05-05 | 2003-02-04 | Automotive Technologies International, Inc. | Vehicular occupant motion analysis system |
GB8411480D0 (en) | 1984-05-04 | 1984-06-13 | Raychem Corp | Sensor array |
DE3432735A1 (de) | 1984-09-06 | 1986-03-06 | Philips Patentverwaltung Gmbh, 2000 Hamburg | Verfahren und vorrichtung zum ordnen und ausrichten flexibler, isolierter leiter |
US4700044A (en) | 1986-07-31 | 1987-10-13 | Hutchinson Technology Inc. | Laser soldering apparatus and method |
US4838797A (en) | 1987-06-19 | 1989-06-13 | The United States Of America As Represented By The Secretary Of The Navy | Underwater connect and disconnect plug and receptacle |
JP2826337B2 (ja) | 1988-04-12 | 1998-11-18 | シチズン時計株式会社 | 放射体温計 |
US4986277A (en) | 1988-08-24 | 1991-01-22 | Sackner Marvin A | Method and apparatus for non-invasive monitoring of central venous pressure |
US5016500A (en) | 1990-04-10 | 1991-05-21 | Teledyne Kinetics | Battery powered temperature-controlled wire stripper |
ATE132720T1 (de) | 1990-07-18 | 1996-01-15 | Avl Medical Instr Ag | Einrichtung und verfahren zur blutdruckmessung |
US5121124A (en) | 1991-05-01 | 1992-06-09 | Thermo Electron Technologies Corp. | Microwave camera |
JP3144030B2 (ja) | 1992-02-24 | 2001-03-07 | 東陶機器株式会社 | 健康管理ネットワークシステム |
US5298715A (en) | 1992-04-27 | 1994-03-29 | International Business Machines Corporation | Lasersonic soldering of fine insulated wires to heat-sensitive substrates |
US5497546A (en) | 1992-09-21 | 1996-03-12 | Matsushita Electric Works, Ltd. | Method for mounting lead terminals to circuit board |
US5564571A (en) | 1993-07-19 | 1996-10-15 | Cembre S.P.A. | Strip for electrical connectors |
US5341979A (en) | 1993-09-03 | 1994-08-30 | Motorola, Inc. | Method of bonding a semiconductor substrate to a support substrate and structure therefore |
US6835898B2 (en) | 1993-11-16 | 2004-12-28 | Formfactor, Inc. | Electrical contact structures formed by configuring a flexible wire to have a springable shape and overcoating the wire with at least one layer of a resilient conductive material, methods of mounting the contact structures to electronic components, and applications for employing the contact structures |
US5468917A (en) | 1994-03-23 | 1995-11-21 | International Business Machines Corporation | Circuitized structure including flexible circuit with elastomeric member bonded thereto |
US5517251A (en) | 1994-04-28 | 1996-05-14 | The Regents Of The University Of California | Acquisition of video images simultaneously with analog signals |
US5724707A (en) | 1996-06-17 | 1998-03-10 | The United States Of America As Represented By The Secretary Of The Army | Interlock attaching strap system |
CH690686A5 (de) | 1996-07-01 | 2000-12-15 | Spoerry & Co Ag | Verfahren zur Herstellung eines elektrisch leitenden Garnes, elektrisch leitendes Garn und Verwendung des elektrisch leitenden Garnes. |
US6179785B1 (en) | 1996-10-17 | 2001-01-30 | Sherwood Services, Ag | Ambient sensing feature for thermometer recalibration system |
US6747632B2 (en) | 1997-03-06 | 2004-06-08 | Harmonic Research, Inc. | Wireless control device |
US5959529A (en) | 1997-03-07 | 1999-09-28 | Kail, Iv; Karl A. | Reprogrammable remote sensor monitoring system |
EP1304555B1 (en) | 1997-07-16 | 2007-05-23 | Terumo Kabushiki Kaisha | Ear type clinical thermometer |
US6720949B1 (en) | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
JP3052286B2 (ja) | 1997-08-28 | 2000-06-12 | 防衛庁技術研究本部長 | 飛行システムおよび航空機用擬似視界形成装置 |
US6210771B1 (en) | 1997-09-24 | 2001-04-03 | Massachusetts Institute Of Technology | Electrically active textiles and articles made therefrom |
JP3829220B2 (ja) | 1997-10-09 | 2006-10-04 | オムロンヘルスケア株式会社 | 心機能監視装置 |
WO1999028811A1 (en) | 1997-12-04 | 1999-06-10 | Northern Telecom Limited | Contextual gesture interface |
US9292111B2 (en) | 1998-01-26 | 2016-03-22 | Apple Inc. | Gesturing with a multipoint sensing device |
JPH11237477A (ja) | 1998-02-20 | 1999-08-31 | Nagano Japan Radio Co | 短波または超短波を用いた海洋レーダおよび短波または超短波を用いた海洋レーダシステム |
JP3176580B2 (ja) | 1998-04-09 | 2001-06-18 | 太陽誘電株式会社 | 電子部品の実装方法及び実装装置 |
US6080690A (en) | 1998-04-29 | 2000-06-27 | Motorola, Inc. | Textile fabric with integrated sensing device and clothing fabricated thereof |
FR2779859B1 (fr) | 1998-04-30 | 2001-06-22 | Jean Chretien Favreau | Ecran matriciel tactile |
JP2982792B2 (ja) | 1998-05-22 | 1999-11-29 | セイコーエプソン株式会社 | 薄膜トランジスタの製造方法 |
US6129673A (en) | 1998-06-08 | 2000-10-10 | Advanced Monitors, Corp. | Infrared thermometer |
US6037893A (en) | 1998-07-31 | 2000-03-14 | Litton Systems, Inc. | Enhanced motion compensation technique in synthetic aperture radar systems |
US6369804B1 (en) | 1998-09-26 | 2002-04-09 | Eleksen Limited | Detector constructed from fabric having non-uniform conductivity |
ATE362614T1 (de) | 1998-10-20 | 2007-06-15 | Omron Healthcare Co Ltd | Infrarotthermometer |
US6854985B1 (en) | 1998-12-16 | 2005-02-15 | Paricon Technologies Corporation | Elastomeric interconnection device and methods for making same |
US6791580B1 (en) | 1998-12-18 | 2004-09-14 | Tangis Corporation | Supplying notifications related to supply and consumption of user context data |
US6303924B1 (en) | 1998-12-21 | 2001-10-16 | Microsoft Corporation | Image sensing operator input device |
US6313825B1 (en) | 1998-12-28 | 2001-11-06 | Gateway, Inc. | Virtual input device |
JP2003500758A (ja) | 1999-05-20 | 2003-01-07 | エレクセン リミテッド | 布から構成された検出装置 |
JP2000333910A (ja) | 1999-05-25 | 2000-12-05 | Nippon Colin Co Ltd | 心機能監視装置 |
US8921473B1 (en) | 2004-04-30 | 2014-12-30 | Sydney Hyman | Image making medium |
ATE316658T1 (de) | 1999-07-03 | 2006-02-15 | Siemens Schweiz Ag | Bewegungsmelder nach dem doppler-prinzip |
CA2387441A1 (en) | 1999-10-12 | 2001-04-19 | Shengke Zeng | Image-synchronized multichannel biomedical data acquisition system |
JP2003512734A (ja) | 1999-10-18 | 2003-04-02 | マサチューセッツ・インスティテュート・オブ・テクノロジー | 可撓性電子回路及びその製造方法 |
US6524239B1 (en) | 1999-11-05 | 2003-02-25 | Wcr Company | Apparatus for non-instrusively measuring health parameters of a subject and method of use thereof |
US7223105B2 (en) | 1999-12-16 | 2007-05-29 | Paricon Technologies Corporation | Cable connector incorporating anisotropically conductive elastomer |
US6590519B2 (en) | 1999-12-22 | 2003-07-08 | Hot/Shot Radar Inspections, Llc | Method and system for identification of subterranean objects |
JP2001208828A (ja) | 2000-01-26 | 2001-08-03 | Mitsubishi Electric Corp | レーダ装置 |
US6590529B2 (en) | 2000-02-14 | 2003-07-08 | Mysky Communications | Individualized, location specific weather forecasting system |
US6440593B2 (en) | 2000-02-16 | 2002-08-27 | The University Of Massachusetts | Molded article |
DE10011263A1 (de) * | 2000-03-08 | 2001-09-13 | Bosch Gmbh Robert | Objektdetektionssystem |
US7194371B1 (en) | 2000-03-27 | 2007-03-20 | Cardiobeat.Com | Medical testing system and method |
AU770743B2 (en) | 2000-04-03 | 2004-03-04 | Intelligent Textiles Limited | Conductive pressure sensitive textile |
US6616613B1 (en) | 2000-04-27 | 2003-09-09 | Vitalsines International, Inc. | Physiological signal monitoring system |
US7148879B2 (en) | 2000-07-06 | 2006-12-12 | At&T Corp. | Bioacoustic control system, method and apparatus |
WO2002008941A1 (en) | 2000-07-20 | 2002-01-31 | Marchosky J Alexander | Patient-controlled automated medical record, diagnosis, and treatment system and method |
DE10053061A1 (de) | 2000-10-26 | 2002-05-08 | Dornier Gmbh | Verfahren zur adaptiven Zielverarbeitung in einem kraftfahrzeugradar |
US8023796B2 (en) | 2000-11-07 | 2011-09-20 | Panasonic Corporation | Video signal producing system and video signal recording/reproducing device in that system |
US7030861B1 (en) | 2001-02-10 | 2006-04-18 | Wayne Carl Westerman | System and method for packing multi-touch gestures onto a hand |
WO2002071096A2 (en) | 2001-03-02 | 2002-09-12 | Massachusetts Institute Of Technology | High-definition imaging apparatus and method |
JP2002262438A (ja) | 2001-03-05 | 2002-09-13 | Yazaki Corp | 補機モジュール用中継部品および補機モジュール |
JP2002298940A (ja) | 2001-03-30 | 2002-10-11 | Jst Mfg Co Ltd | 樹脂ハンダを用いた電気接触子、電気コネクタ及びこれらのプリント配線板への接続方法 |
WO2002082999A1 (en) | 2001-04-10 | 2002-10-24 | Battelle Memorial Institute | Image analysis system and method for discriminating movements of an individual |
US20040174431A1 (en) | 2001-05-14 | 2004-09-09 | Stienstra Marcelle Andrea | Device for interacting with real-time streams of content |
CA2445450C (en) | 2001-05-17 | 2008-08-12 | Thermal Technologies, Inc. | Blood flow monitor for shock and resuscitation |
US20020170897A1 (en) | 2001-05-21 | 2002-11-21 | Hall Frank L. | Methods for preparing ball grid array substrates via use of a laser |
US7266532B2 (en) | 2001-06-01 | 2007-09-04 | The General Hospital Corporation | Reconfigurable autonomous device networks |
JP3731071B2 (ja) | 2001-07-02 | 2006-01-05 | 関西ティー・エル・オー株式会社 | 血行動態測定方法 |
US7158943B2 (en) | 2001-09-04 | 2007-01-02 | Ramon Van Der Riet | Marketing communication and transaction/distribution services platform for building and managing personalized customer relationships |
WO2003045616A1 (en) | 2001-11-24 | 2003-06-05 | Delphi Technologies, Inc. | Improvements in wire harnesses |
CN1862601A (zh) | 2001-12-10 | 2006-11-15 | 欧姆龙株式会社 | 物体探测装置及控制装置 |
DE10161527A1 (de) | 2001-12-14 | 2003-07-03 | Infineon Technologies Ag | Aufbau- und Verbindungstechnik in textilen Strukturen |
EP1456739A2 (de) | 2001-12-14 | 2004-09-15 | Infineon Technologies AG | Keypad in textilien mit kapazativer ausleseschaltung |
US6997882B1 (en) | 2001-12-21 | 2006-02-14 | Barron Associates, Inc. | 6-DOF subject-monitoring device and method |
US7845022B1 (en) | 2002-02-14 | 2010-12-07 | Nike, Inc. | Deposition of electronic circuits on fibers and other materials |
US7249954B2 (en) | 2002-02-26 | 2007-07-31 | Paricon Technologies Corporation | Separable electrical interconnect with anisotropic conductive elastomer for translating footprint |
JP2003280049A (ja) | 2002-03-26 | 2003-10-02 | Tdk Corp | 機能性ファイバーおよび機能性ファイバーを用いた織編物 |
US7592276B2 (en) | 2002-05-10 | 2009-09-22 | Sarnoff Corporation | Woven electronic textile, yarn and article |
US7348963B2 (en) | 2002-05-28 | 2008-03-25 | Reactrix Systems, Inc. | Interactive video display system |
AU2003279888A1 (en) | 2002-06-28 | 2004-01-19 | North Carolina State University | Fabric and yarn structures for improving signal integrity in fabric based electrical circuits |
AUPS335302A0 (en) | 2002-07-03 | 2002-07-25 | Uscom Pty Ltd | Intergrated pressure and volume measurement method and apparatus |
US6707418B2 (en) | 2002-07-12 | 2004-03-16 | Itt Manufacturing Enterprises, Inc. | Correlating single continuous wave radar space object observation for initial orbit determination |
US8509736B2 (en) | 2002-08-08 | 2013-08-13 | Global Tel*Link Corp. | Telecommunication call management and monitoring system with voiceprint verification |
US8190239B2 (en) | 2002-09-03 | 2012-05-29 | Fujitsu Limited | Individual identification device |
US20070030195A1 (en) | 2002-09-12 | 2007-02-08 | L-3 Communications Cyterra Corporation | Concealed object detection |
US20090177068A1 (en) | 2002-10-09 | 2009-07-09 | Stivoric John M | Method and apparatus for providing derived glucose information utilizing physiological and/or contextual parameters |
US7602413B2 (en) | 2002-10-18 | 2009-10-13 | Sony Corporation | Information processing system and method, information processing apparatus, image-capturing device and method, recording medium, and program |
US20080065291A1 (en) | 2002-11-04 | 2008-03-13 | Automotive Technologies International, Inc. | Gesture-Based Control of Vehicular Components |
AU2002342592A1 (en) | 2002-11-07 | 2004-06-07 | Personics A/S | Control system including an adaptive motion detector |
US7280864B2 (en) | 2002-11-27 | 2007-10-09 | Ge Medical Systems Information Technologies, Inc. | Method and apparatus for automated selection of correct image for quantitative analysis |
JP3795856B2 (ja) | 2002-12-09 | 2006-07-12 | 株式会社スクウェア・エニックス | ビデオゲーム装置、ビデオゲームの進行制御方法、プログラム及び記録媒体 |
US7600234B2 (en) | 2002-12-10 | 2009-10-06 | Fisher-Rosemount Systems, Inc. | Method for launching applications |
GB0229316D0 (en) | 2002-12-17 | 2003-01-22 | Koninkl Philips Electronics Nv | Electro-optic filament or fibre |
US6929484B2 (en) | 2003-01-09 | 2005-08-16 | Roger E. Weiss | Apparatus for applying a mechanically-releasable balanced compressive load to an assembly such as a compliant anisotropic conductive elastomer electrical connector |
DE10307505B4 (de) | 2003-02-21 | 2005-03-03 | Infineon Technologies Ag | Textilgewebestruktur, Flächenverkleidungsstruktur und Verfahren zum Bestimmen eines Abstands von Mikroelektronikelementen der Textilgewebestruktur zu mindestens einer Referenzposition |
KR100571811B1 (ko) | 2003-05-09 | 2006-04-17 | 삼성전자주식회사 | 귀속형 생체 신호 측정 장치 |
GB0311320D0 (en) | 2003-05-19 | 2003-06-25 | Univ Manchester | Knitted transducer devices |
US20040249250A1 (en) | 2003-06-04 | 2004-12-09 | Mcgee Michael D. | System and apparatus for monitoring and prompting medical self-care events and communicating medical self-care status |
JP2005019393A (ja) | 2003-06-05 | 2005-01-20 | Sharp Corp | 異方性導電物、表示装置、表示装置の製造方法および導電部材 |
AU2003247705A1 (en) | 2003-07-02 | 2005-02-15 | Paricon Technologies Corporation | Pin-array, separable, compliant electrical contact member |
JP2005051129A (ja) | 2003-07-30 | 2005-02-24 | Sony Corp | 電子機器 |
WO2005017554A1 (es) | 2003-08-18 | 2005-02-24 | Fico Mirrors, Sa | Sistema y método para la supervisión de un ambiente exterior de un vehículo automóvil |
US7647093B2 (en) | 2003-08-20 | 2010-01-12 | New Cardio, Inc. | Apparatus and method for cordless recording and telecommunication transmission of three special ECG leads and their processing |
WO2005022556A2 (en) | 2003-09-02 | 2005-03-10 | Integral Technologies, Inc. | Very low resistance electrical interfaces to conductive loaded resin-based materials |
DE10344285A1 (de) | 2003-09-24 | 2005-05-12 | Infineon Technologies Ag | Prozessor-Anordnung, Textilgewebestruktur, Flächenverkleidungsstruktur und Verfahren zum Weiterleiten von elektrischer Energieversorgung zwischen einer Vielzahl einander örtlich benachbart angeordneter Prozessorelemente |
JP2005103863A (ja) | 2003-09-29 | 2005-04-21 | Pentel Corp | 塗布具 |
WO2005033387A2 (en) | 2003-09-30 | 2005-04-14 | Milliken & Company | Wrapped conductive yarn |
GB0325622D0 (en) | 2003-11-03 | 2003-12-10 | Cambridge Consultants | System for determining positional information |
US7199749B2 (en) | 2003-12-12 | 2007-04-03 | Georgia Tech Research Corporation | Radar detection device employing a scanning antenna system |
GB0329566D0 (en) | 2003-12-20 | 2004-01-28 | Koninkl Philips Electronics Nv | Woven material and display device constructed therefrom |
US7299964B2 (en) | 2004-01-15 | 2007-11-27 | Georgia Tech Research Corp. | Method and apparatus to create electrical junctions for information routing in textile structures |
EP1714167B1 (en) | 2004-01-20 | 2010-08-25 | BAE Systems Information and Electronic | Method and apparatus for through-the-wall motion detection utilizing cw radar |
US7205932B2 (en) | 2004-01-29 | 2007-04-17 | Bae Systems Information And Electronic Systems Integration Inc. | Method and apparatus for improved determination of range and angle of arrival utilizing a two tone CW radar |
DE102004004604B4 (de) | 2004-01-29 | 2016-12-29 | Siemens Healthcare Gmbh | Verfahren und Bildgebungssystem zur Kompensation von Patientenbewegungen bei Serienaufnahmen in der medizinischen Bildgebung |
US7961909B2 (en) | 2006-03-08 | 2011-06-14 | Electronic Scripting Products, Inc. | Computer interface employing a manipulated object with absolute pose detection component and a display |
JP2005231450A (ja) | 2004-02-18 | 2005-09-02 | Honda Motor Co Ltd | 車両用障害物検出装置 |
GB0404137D0 (en) | 2004-02-25 | 2004-03-31 | Koninkl Philips Electronics Nv | A fabric |
GB0404419D0 (en) | 2004-02-27 | 2004-03-31 | Intelligent Textiles Ltd | Electrical components and circuits constructed as textiles |
US7369100B2 (en) * | 2004-03-04 | 2008-05-06 | Eastman Kodak Company | Display system and method with multi-person presentation function |
US7148836B2 (en) | 2004-03-05 | 2006-12-12 | The Regents Of The University Of California | Obstacle penetrating dynamic radar imaging system |
JP2007531113A (ja) | 2004-03-23 | 2007-11-01 | 富士通株式会社 | 携帯装置の傾斜及び並進運動成分の識別 |
US7129887B2 (en) | 2004-04-15 | 2006-10-31 | Lockheed Martin Ms2 | Augmented reality traffic control center |
GB0408607D0 (en) | 2004-04-17 | 2004-05-19 | Koninkl Philips Electronics Nv | Electrical connector |
JP4299189B2 (ja) | 2004-05-27 | 2009-07-22 | アロカ株式会社 | 超音波診断装置及び画像処理方法 |
US7786980B2 (en) | 2004-06-29 | 2010-08-31 | Koninklijke Philips Electronics N.V. | Method and device for preventing staining of a display device |
WO2006006159A1 (en) | 2004-07-09 | 2006-01-19 | Aerotel Medical Systems (1998) Ltd. | A wearable device, system and method for monitoring physiological and/or environmental parameters |
US8560972B2 (en) | 2004-08-10 | 2013-10-15 | Microsoft Corporation | Surface UI for gesture-based interaction |
US7942744B2 (en) | 2004-08-19 | 2011-05-17 | Igt | Virtual input system |
US7295904B2 (en) | 2004-08-31 | 2007-11-13 | International Business Machines Corporation | Touch gesture based interface for motor vehicle |
US7307575B2 (en) | 2004-09-14 | 2007-12-11 | Bae Systems Information And Electronic Systems Integration Inc. | Through-the-wall frequency stepped imaging system utilizing near field multiple antenna positions, clutter rejection and corrections for frequency dependent wall effects |
US20060061504A1 (en) | 2004-09-23 | 2006-03-23 | The Regents Of The University Of California | Through wall detection and tracking system |
US7158076B2 (en) | 2004-10-01 | 2007-01-02 | Bae Systems Information And Electronic Systems Integration Inc. | Method and apparatus for correcting velocity-induced range estimate phase errors in a two-tone monopulse CW radar |
US6970128B1 (en) | 2004-10-06 | 2005-11-29 | Raytheon Company | Motion compensated synthetic aperture imaging system and methods for imaging |
EP2014406A3 (de) | 2004-11-02 | 2010-06-02 | HID Global GmbH | Verlegevorrichtung, Kontaktiervorrichtung, Zustellsystem, Verlege- und Kontaktiereinheit Herstellungsanlage, Verfahren zur herstellung und eine Transpondereinheit |
JP2006163886A (ja) | 2004-12-08 | 2006-06-22 | Canon Inc | 情報入力方法及び情報入力装置 |
US7250853B2 (en) | 2004-12-10 | 2007-07-31 | Honeywell International Inc. | Surveillance system |
US20060136997A1 (en) | 2004-12-21 | 2006-06-22 | Eastman Kodak Company | Authentication system and method |
EP1835845A4 (en) | 2004-12-28 | 2008-09-10 | Hypermed Inc | HYPERSPECTRAL / MULTISPECTRAL IMAGERY FOR THE DETERMINATION, EVALUATION AND MONITORING OF SYSTEMIC PHYSIOLOGY OR IMPACT CONDITIONS |
US7531203B2 (en) | 2005-01-06 | 2009-05-12 | The Hong Kong Polytechnic University | Method for the production of conductive flexible textile arrays |
US7809171B2 (en) | 2005-01-10 | 2010-10-05 | Battelle Memorial Institute | Facial feature evaluation based on eye location |
JP2006196802A (ja) | 2005-01-17 | 2006-07-27 | Sony Corp | 半導体装置および半導体装置の製造方法 |
CN101238244B (zh) | 2005-01-24 | 2011-03-30 | 株式会社昭和 | 采用阳极电解氧化处理的结晶性氧化钛被膜的制造方法 |
DE102005003370A1 (de) | 2005-01-24 | 2006-07-27 | Juma Pcb Gmbh | Verfahren zur durchgehenden Verlegung eines Leitungsdrahtes auf einer Leiterplatte und Vorrichtung zur Durchführung des Verfahrens |
US20060183980A1 (en) | 2005-02-14 | 2006-08-17 | Chang-Ming Yang | Mental and physical health status monitoring, analyze and automatic follow up methods and its application on clothing |
JP2006234716A (ja) | 2005-02-28 | 2006-09-07 | Aichi Prefecture | シート状センサ装置 |
KR100687737B1 (ko) | 2005-03-19 | 2007-02-27 | 한국전자통신연구원 | 양손 제스쳐에 기반한 가상 마우스 장치 및 방법 |
US7019682B1 (en) | 2005-04-12 | 2006-03-28 | Trex Enterprises Corp. | Imaging millimeter wave radar system |
US7327308B2 (en) | 2005-04-28 | 2008-02-05 | Chung Shan Institute Of Science And Technology, Armaments Bureau, M.N.D. | Programmable method and test device for generating target for FMCW radar |
US7544627B2 (en) | 2005-05-12 | 2009-06-09 | The Hong Kong Polytechnic University | Pressure sensing fabric |
EP1727408A1 (de) | 2005-05-13 | 2006-11-29 | Eidgenössische Technische Hochschule Zürich | Textil mit einem Leiterbahnsystem und Verfahren zu dessen Herstellung |
EP1885925B1 (en) | 2005-06-02 | 2010-10-06 | NV Bekaert SA | Electrically conductive elastic composite yarn |
JP2007011873A (ja) | 2005-07-01 | 2007-01-18 | Toshiba Corp | インタフェース装置およびインタフェース方法 |
US7462035B2 (en) | 2005-07-27 | 2008-12-09 | Physical Optics Corporation | Electrical connector configured as a fastening element |
US20070027369A1 (en) | 2005-07-28 | 2007-02-01 | Guido Pagnacco | Apparatus and methods for assessing human physical performance |
US7674231B2 (en) | 2005-08-22 | 2010-03-09 | Massachusetts Institute Of Technology | Wearable pulse wave velocity blood pressure sensor and methods of calibration thereof |
IL170689A (en) | 2005-09-06 | 2011-08-31 | Camero Tech Ltd | Imaging device through a wall |
US7791700B2 (en) | 2005-09-16 | 2010-09-07 | Kent Displays Incorporated | Liquid crystal display on a printed circuit board |
WO2007047419A2 (en) | 2005-10-14 | 2007-04-26 | Bae Systems Information And Electronic Systems Integration Inc. | Motion detection system using cw radar in combination with additional sensors |
US7733224B2 (en) | 2006-06-30 | 2010-06-08 | Bao Tran | Mesh network personal emergency response appliance |
JP2007132768A (ja) | 2005-11-10 | 2007-05-31 | Hitachi Ltd | 通信機能を有する車載レーダー装置 |
US20070118043A1 (en) | 2005-11-23 | 2007-05-24 | Microsoft Corporation | Algorithms for computing heart rate and movement speed of a user from sensor data |
JP4682028B2 (ja) | 2005-11-28 | 2011-05-11 | Hoya株式会社 | 導電層の製造方法、導電層、及び、信号伝送基板 |
WO2007070252A2 (en) | 2005-11-30 | 2007-06-21 | The University Of North Carolina At Chapel Hill | Identification of genetic polymorphic variants associated with somatosensory disorders and methods of using the same |
US7834276B2 (en) | 2005-12-16 | 2010-11-16 | Unitech Printed Circuit Board Corp. | Structure for connecting a USB communication interface in a flash memory card by the height difference of a rigid flexible board |
US7317416B2 (en) | 2005-12-22 | 2008-01-08 | Leonard Flom | Skeletal topography imaging radar for unique individual identification |
US20080015422A1 (en) | 2005-12-29 | 2008-01-17 | Guidance Interactive Healthcare, Inc. | Combined peripheral and health monitoring devices |
US20070161921A1 (en) | 2006-01-07 | 2007-07-12 | Rausch Jeffrey L | Bio-accurate temperature measurement device and method of quantitatively normalizing a body temperature measurement to determine a physiologically significant temperature event |
FI119456B (fi) | 2006-01-31 | 2008-11-14 | Polar Electro Oy | Liitinmekanismi |
US8531396B2 (en) | 2006-02-08 | 2013-09-10 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US20090278915A1 (en) | 2006-02-08 | 2009-11-12 | Oblong Industries, Inc. | Gesture-Based Control System For Vehicle Interfaces |
US7395717B2 (en) | 2006-02-10 | 2008-07-08 | Milliken & Company | Flexible capacitive sensor |
KR100729676B1 (ko) | 2006-02-17 | 2007-06-18 | 한국생산기술연구원 | 금속 필라멘트를 이용한 정보통신용 디지털사의 제조방법,제조장치 및 이에 의하여 제조된 디지털사 |
ATE435584T1 (de) | 2006-02-24 | 2009-07-15 | Sefar Ag | Flächenheizelement und verfahren zur herstellung eines flächenheizelementes |
ES2736954T3 (es) | 2006-03-23 | 2020-01-09 | Becton Dickinson Co | Procedimiento de gestión y utilización mejoradas de datos de diabetes utilizando conectividad inalámbrica entre pacientes y proveedores de atención sanitaria, y repositorio de información de gestión de la diabetes |
JP4516042B2 (ja) | 2006-03-27 | 2010-08-04 | 株式会社東芝 | 機器操作装置および機器操作方法 |
US8374668B1 (en) | 2007-10-23 | 2013-02-12 | Abbott Diabetes Care Inc. | Analyte sensor with lag compensation |
US7860343B2 (en) | 2006-04-10 | 2010-12-28 | Nokia Corporation | Constructing image panorama using frame selection |
DE102006018445B4 (de) | 2006-04-18 | 2008-04-24 | Imedos Gmbh | Vorrichtung und Verfahren zur Bestimmung arterio-venöser Verhältniswerte durch quantitative Analyse retinaler Gefäße |
GB2437997B (en) | 2006-04-27 | 2011-07-27 | Eleksen Ltd | Manually operable position sensor |
US8326313B2 (en) | 2006-05-12 | 2012-12-04 | Shared Spectrum Company | Method and system for dynamic spectrum access using detection periods |
US7558622B2 (en) | 2006-05-24 | 2009-07-07 | Bao Tran | Mesh network stroke monitoring appliance |
US9814425B2 (en) | 2006-05-12 | 2017-11-14 | Koninklijke Philips N.V. | Health monitoring appliance |
EP2018628A1 (en) | 2006-05-15 | 2009-01-28 | Telefonaktiebolaget LM Ericsson (PUBL) | A method and system for automatic classification of objects |
US20080074307A1 (en) | 2006-05-17 | 2008-03-27 | Olga Boric-Lubecke | Determining presence and/or physiological motion of one or more subjects within a doppler radar system |
US7993275B2 (en) | 2006-05-25 | 2011-08-09 | Sotera Wireless, Inc. | Bilateral device, system and method for monitoring vital signs |
US9149192B2 (en) | 2006-05-26 | 2015-10-06 | Sotera Wireless, Inc. | System for measuring vital signs using bilateral pulse transit time |
US8562526B2 (en) | 2006-06-01 | 2013-10-22 | Resmed Sensor Technologies Limited | Apparatus, system, and method for monitoring physiological signs |
JP5162849B2 (ja) | 2006-06-11 | 2013-03-13 | 株式会社豊田中央研究所 | 不動点位置記録装置 |
US7691067B2 (en) | 2006-06-14 | 2010-04-06 | Advanced Brain Monitoring, Inc. | Method for measuring central venous pressure or respiratory effort |
US8972902B2 (en) | 2008-08-22 | 2015-03-03 | Northrop Grumman Systems Corporation | Compound gesture recognition |
GB2440568A (en) | 2006-07-28 | 2008-02-06 | Eleksen Ltd | Interface apparatus connecting fabric sensor and electronic device |
US9511877B2 (en) | 2006-08-09 | 2016-12-06 | Angela Masson | Electronic kit bag |
US8169404B1 (en) | 2006-08-15 | 2012-05-01 | Navisense | Method and device for planary sensory detection |
US8564544B2 (en) | 2006-09-06 | 2013-10-22 | Apple Inc. | Touch screen device, method, and graphical user interface for customizing display of content category icons |
US7725547B2 (en) | 2006-09-06 | 2010-05-25 | International Business Machines Corporation | Informing a user of gestures made by others out of the user's line of sight |
GB2443208A (en) | 2006-10-27 | 2008-04-30 | Studio 1 Ventures Ltd | Textile pressure sensor |
WO2008061385A2 (de) | 2006-11-20 | 2008-05-29 | Gerhard Staufert | Leitertextil |
NZ551819A (en) | 2006-12-04 | 2009-03-31 | Zephyr Technology Ltd | Impact detection system |
US20080134102A1 (en) * | 2006-12-05 | 2008-06-05 | Sony Ericsson Mobile Communications Ab | Method and system for detecting movement of an object |
WO2008069275A1 (ja) | 2006-12-07 | 2008-06-12 | Nec Corporation | 配線板およびその製造方法 |
US20080136775A1 (en) | 2006-12-08 | 2008-06-12 | Conant Carson V | Virtual input device for computing |
US8344949B2 (en) | 2008-03-31 | 2013-01-01 | Golba Llc | Wireless positioning approach using time-delay of signals with a known transmission pattern |
US8229506B2 (en) | 2007-01-04 | 2012-07-24 | At&T Intellectual Property I, L.P. | Enhanced connection acquisition using an array antenna |
US7877707B2 (en) | 2007-01-06 | 2011-01-25 | Apple Inc. | Detecting and interpreting real-world and security gestures on touch and hover sensitive devices |
US8607167B2 (en) | 2007-01-07 | 2013-12-10 | Apple Inc. | Portable multifunction device, method, and graphical user interface for providing maps and directions |
US10437459B2 (en) | 2007-01-07 | 2019-10-08 | Apple Inc. | Multitouch data fusion |
US20090017910A1 (en) | 2007-06-22 | 2009-01-15 | Broadcom Corporation | Position and motion tracking of an object |
GB0701869D0 (en) | 2007-01-31 | 2007-03-14 | Cambridge Consultants | Adaptive radar |
US7846104B2 (en) | 2007-02-08 | 2010-12-07 | Heart Force Medical Inc. | Monitoring physiological condition and detecting abnormalities |
US8918153B2 (en) | 2007-02-16 | 2014-12-23 | Mespere Lifesciences Inc. | Method and device for measuring parameters of cardiac function |
US8639309B2 (en) | 2007-07-31 | 2014-01-28 | J&M Shuler, Inc. | Method and system for monitoring oxygenation levels of compartments and tissue |
EP2095296B1 (en) | 2007-04-20 | 2014-01-01 | Softkinetic Software | A method and system for providing a three-dimensional model of an object of interest. |
CA2686958A1 (en) | 2007-05-10 | 2008-11-20 | Grigore Burdea | Periodic evaluation and telerehabilitation systems and methods |
KR100888864B1 (ko) | 2007-05-21 | 2009-03-17 | 한국과학기술원 | 바이오 레이더와 기울기 센서를 이용한 문자 입력 장치 |
US20080294012A1 (en) | 2007-05-22 | 2008-11-27 | Kurtz Andrew F | Monitoring physiological conditions |
WO2008147920A2 (en) | 2007-05-22 | 2008-12-04 | Qsi Corporation | Force-based input device having a dynamic user interface |
US20110057164A1 (en) | 2007-06-18 | 2011-03-10 | California Institute Of Technology | Carbon nanotube field emission device with overhanging gate |
US8302033B2 (en) | 2007-06-22 | 2012-10-30 | Apple Inc. | Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information |
US7692571B2 (en) | 2007-06-29 | 2010-04-06 | Trex Enterprises Corp. | Millimeter wave imager with visible or infrared overlay for brownout assist |
JP5060186B2 (ja) | 2007-07-05 | 2012-10-31 | 株式会社東芝 | 脈波処理装置及び方法 |
US20090017799A1 (en) | 2007-07-13 | 2009-01-15 | Sony Ericsson Mobile Communications Ab | System, device and method for transmitting a file by use of a throwing gesture to a mobile terminal |
US8505474B2 (en) | 2007-07-31 | 2013-08-13 | Snu R&Db Foundation | Electrically conductive metal composite embroidery yarn and embroidered circuit using thereof |
JP5207513B2 (ja) | 2007-08-02 | 2013-06-12 | 公立大学法人首都大学東京 | 制御機器操作ジェスチャ認識装置、制御機器操作ジェスチャ認識システムおよび制御機器操作ジェスチャ認識プログラム |
US8926509B2 (en) | 2007-08-24 | 2015-01-06 | Hmicro, Inc. | Wireless physiological sensor patches and systems |
WO2009032073A1 (en) | 2007-08-28 | 2009-03-12 | Woolsthorpe, Llc | Non-invasive method and system for determining physiological characteristics |
US20090058820A1 (en) | 2007-09-04 | 2009-03-05 | Microsoft Corporation | Flick-based in situ search from ink, text, or an empty selection region |
EP2200499B1 (en) | 2007-09-14 | 2019-05-01 | Medtronic Monitoring, Inc. | Multi-sensor patient monitor to detect impending cardiac decompensation |
US8655004B2 (en) | 2007-10-16 | 2014-02-18 | Apple Inc. | Sports monitoring system for headphones, earbuds and/or headsets |
JP4858400B2 (ja) | 2007-10-17 | 2012-01-18 | ソニー株式会社 | 情報提供システム、情報提供装置、情報提供方法 |
US9513699B2 (en) | 2007-10-24 | 2016-12-06 | Invention Science Fund I, LL | Method of selecting a second content based on a user's reaction to a first content |
US20120029369A1 (en) | 2007-10-31 | 2012-02-02 | Icove David J | Passive Microwave Assessment of Human Body Core to Surface Temperature Gradients and Basal Metabolic Rate |
US8193929B1 (en) | 2007-11-09 | 2012-06-05 | Oceanit Laboratories, Inc. | Integrated adaptive wireless mesh sensor platform and energy visualization and management system |
WO2009062153A1 (en) | 2007-11-09 | 2009-05-14 | Wms Gaming Inc. | Interaction with 3d space in a gaming system |
JP5385555B2 (ja) | 2007-11-14 | 2014-01-08 | 日立コンシューマエレクトロニクス株式会社 | 生体検査システム、生体検査装置および生体検査方法 |
JP4337929B2 (ja) | 2007-12-25 | 2009-09-30 | トヨタ自動車株式会社 | 移動状態推定装置 |
GB0725316D0 (en) | 2007-12-28 | 2008-02-06 | Nokia Corp | A controller |
WO2009108228A1 (en) | 2008-02-25 | 2009-09-03 | Kingsdown, Inc. | Systems and methods for controlling a bedroom environment and for providing sleep data |
KR100982533B1 (ko) | 2008-02-26 | 2010-09-16 | 한국생산기술연구원 | 디지털 밴드를 이용한 디지털 가먼트 및 그 제조 방법 |
US8218871B2 (en) | 2008-03-05 | 2012-07-10 | International Business Machines Corporation | Detecting behavioral deviations by measuring respiratory patterns in cohort groups |
US8341762B2 (en) | 2008-03-21 | 2013-01-01 | Alfiero Balzano | Safety vest assembly including a high reliability communication system |
US20090292468A1 (en) | 2008-03-25 | 2009-11-26 | Shunguang Wu | Collision avoidance method and system using stereo vision and radar sensor fusion |
US20100152600A1 (en) | 2008-04-03 | 2010-06-17 | Kai Sensors, Inc. | Non-contact physiologic motion sensors and methods for use |
US20090270690A1 (en) | 2008-04-29 | 2009-10-29 | University Of Miami | System and method for using interactive voice-recognition to automate a patient-centered best practice approach to disease evaluation and management |
KR101608100B1 (ko) | 2008-05-29 | 2016-03-31 | 킴벌리-클라크 월드와이드, 인크. | 전기 경로를 포함하는 전도성 웨브 및 이를 제조하는 방법 |
US20090295712A1 (en) | 2008-05-29 | 2009-12-03 | Sony Ericsson Mobile Communications Ab | Portable projector and method of operating a portable projector |
US8177721B2 (en) | 2008-06-02 | 2012-05-15 | The United States Of America As Represented By The Secretary Of The Navy | Remote blood pressure waveform sensing method and apparatus |
JP4318056B1 (ja) | 2008-06-03 | 2009-08-19 | 島根県 | 画像認識装置および操作判定方法 |
WO2009150570A1 (en) | 2008-06-10 | 2009-12-17 | Koninklijke Philips Electronics N.V. | Electronic textile |
US8467991B2 (en) | 2008-06-20 | 2013-06-18 | Microsoft Corporation | Data services based on gesture and location information of device |
JP5283700B2 (ja) | 2008-07-11 | 2013-09-04 | 国立大学法人 筑波大学 | 血管特性計測装置及び血管特性計測方法 |
US8154428B2 (en) | 2008-07-15 | 2012-04-10 | International Business Machines Corporation | Gesture recognition control of electronic devices using a multi-touch device |
JP2010048583A (ja) | 2008-08-19 | 2010-03-04 | Hosiden Corp | 回転センサ |
US8154435B2 (en) | 2008-08-22 | 2012-04-10 | Microsoft Corporation | Stability monitoring using synthetic aperture radar |
JP4899108B2 (ja) | 2008-08-24 | 2012-03-21 | 照彦 矢上 | 腕時計型電子メモ装置 |
CN101349943B (zh) | 2008-08-26 | 2010-08-04 | 中国人民解放军总后勤部军需装备研究所 | 织物操作控制器 |
US20100053151A1 (en) | 2008-09-02 | 2010-03-04 | Samsung Electronics Co., Ltd | In-line mediation for manipulating three-dimensional content on a display device |
WO2010032173A1 (en) | 2008-09-19 | 2010-03-25 | Koninklijke Philips Electronics N.V. | Electronic textile and method for determining a functional area of an electronic textile |
US9758907B2 (en) | 2008-09-22 | 2017-09-12 | Intel Corporation | Method and apparatus for attaching chip to a textile |
US20100094141A1 (en) | 2008-10-14 | 2010-04-15 | Amal Lesly Puswella | Jugular venous pressure ruler |
US7952512B1 (en) | 2008-10-14 | 2011-05-31 | Sprint Communications Company L.P. | Mobile device enabled radar tags |
US8516397B2 (en) | 2008-10-27 | 2013-08-20 | Verizon Patent And Licensing Inc. | Proximity interface apparatuses, systems, and methods |
DE102008060862B4 (de) | 2008-12-09 | 2010-10-28 | Werthschützky, Roland, Prof. Dr.-Ing.habil. | Verfahren zur miniaturisierbaren Kontaktierung isolierter Drähte |
US20120123232A1 (en) | 2008-12-16 | 2012-05-17 | Kayvan Najarian | Method and apparatus for determining heart rate variability using wavelet transformation |
CN101751126A (zh) | 2008-12-17 | 2010-06-23 | 孙骏恭 | 使用多个传感器空间的免提的基于手势的接口 |
US8688467B2 (en) | 2009-01-09 | 2014-04-01 | Cerner Innovation, Inc. | Automated analysis of data collected by in-vivo devices |
WO2010120395A2 (en) | 2009-01-15 | 2010-10-21 | Duke University | Broadband metamaterial apparatus, methods, systems, and computer readable media |
US20130035563A1 (en) | 2010-01-26 | 2013-02-07 | Angelides Kimon J | Progressively Personalized Wireless-Based Interactive Diabetes Treatment |
US8444564B2 (en) | 2009-02-02 | 2013-05-21 | Jointvue, Llc | Noninvasive diagnostic system |
US9569001B2 (en) | 2009-02-03 | 2017-02-14 | Massachusetts Institute Of Technology | Wearable gestural interface |
EP2216866A3 (en) | 2009-02-06 | 2011-07-13 | HID Global GmbH | Method to strip a portion of an insulated wire |
US9526429B2 (en) | 2009-02-06 | 2016-12-27 | Resmed Sensor Technologies Limited | Apparatus, system and method for chronic disease monitoring |
AU2010221722A1 (en) | 2009-02-06 | 2011-08-18 | Oculis Labs, Inc. | Video-based privacy supporting system |
US9164168B2 (en) | 2009-03-20 | 2015-10-20 | Wright State University | Systems for detecting movement of a target |
US9002427B2 (en) | 2009-03-30 | 2015-04-07 | Lifewave Biomedical, Inc. | Apparatus and method for continuous noninvasive measurement of respiratory function and events |
TWM365363U (en) | 2009-04-08 | 2009-09-21 | Fu-Biau Hsu | Illuminating textile article |
US9498718B2 (en) | 2009-05-01 | 2016-11-22 | Microsoft Technology Licensing, Llc | Altering a view perspective within a display environment |
US8289185B2 (en) | 2009-05-05 | 2012-10-16 | Advanced Technologies Group, LLC | Sports telemetry system for collecting performance metrics and data |
KR101127991B1 (ko) | 2009-05-20 | 2012-03-29 | 주식회사 아모그린텍 | 은합연사와 이를 이용한 기능성 원단 및 그 제조방법 |
US8856691B2 (en) | 2009-05-29 | 2014-10-07 | Microsoft Corporation | Gesture tool |
JP5374642B2 (ja) | 2009-06-03 | 2013-12-25 | ジーエルティー テクノヴェーションズ、エルエルシー | 容量性タッチスクリーンと共に利用される材料 |
US8759713B2 (en) | 2009-06-14 | 2014-06-24 | Terepac Corporation | Methods for interconnecting bonding pads between components |
US8020290B2 (en) | 2009-06-14 | 2011-09-20 | Jayna Sheats | Processes for IC fabrication |
US9596999B2 (en) | 2009-06-17 | 2017-03-21 | Sotera Wireless, Inc. | Body-worn pulse oximeter |
US8821350B2 (en) | 2009-07-02 | 2014-09-02 | Richard J. Maertz | Exercise and communications system and associated methods |
KR20110010906A (ko) | 2009-07-27 | 2011-02-08 | 삼성전자주식회사 | 사용자 인터랙션을 이용한 전자기기 제어 방법 및 장치 |
US8346354B2 (en) | 2009-07-28 | 2013-01-01 | The Invention Science Fund I, Llc | Determining a neuromodulation treatment regimen in response to contactlessly acquired information |
CN101655561A (zh) * | 2009-09-14 | 2010-02-24 | 南京莱斯信息技术股份有限公司 | 基于联合卡尔曼滤波的多点定位数据与雷达数据融合方法 |
GB0916707D0 (en) | 2009-09-23 | 2009-11-04 | Elliptic Laboratories As | Acoustic motion determination |
US20110073353A1 (en) | 2009-09-29 | 2011-03-31 | Tex-Ray Industrial Co., Ltd. | Conductive fabric and method for forming the same |
US8312392B2 (en) | 2009-10-02 | 2012-11-13 | Qualcomm Incorporated | User interface gestures and methods for providing file sharing functionality |
JP5493070B2 (ja) | 2009-10-15 | 2014-05-14 | 株式会社槌屋 | 導電性織物 |
JP5668966B2 (ja) | 2009-10-15 | 2015-02-12 | 株式会社槌屋 | 導電性織物及び導電性織物を使用したタッチセンサ装置 |
US9400548B2 (en) | 2009-10-19 | 2016-07-26 | Microsoft Technology Licensing, Llc | Gesture personalization and profile roaming |
US8367942B2 (en) | 2009-10-27 | 2013-02-05 | Hon Hai Precision Ind. Co., Ltd. | Low profile electrical interposer of woven structure and method of making same |
US9832019B2 (en) | 2009-11-17 | 2017-11-28 | Unho Choi | Authentication in ubiquitous environment |
US8843857B2 (en) | 2009-11-19 | 2014-09-23 | Microsoft Corporation | Distance scalable no touch computing |
CN102713794A (zh) | 2009-11-24 | 2012-10-03 | 奈克斯特控股公司 | 用于手势识别模式控制的方法和装置 |
US20110213218A1 (en) | 2009-12-17 | 2011-09-01 | Weiner Bert A | Patient healthcare monitoring/maintenance system |
US9229102B1 (en) | 2009-12-18 | 2016-01-05 | L-3 Communications Security And Detection Systems, Inc. | Detection of movable objects |
US20150301167A1 (en) * | 2009-12-18 | 2015-10-22 | Christopher Gary Sentelle | Detection of movable objects |
EP2513666B1 (en) | 2009-12-18 | 2015-02-18 | L-3 Communications Cyterra Corporation | Moving entity detection |
US8232990B2 (en) | 2010-01-05 | 2012-07-31 | Apple Inc. | Working with 3D objects |
US9069067B2 (en) | 2010-09-17 | 2015-06-30 | The Invention Science Fund I, Llc | Control of an electronic apparatus using micro-impulse radar |
US20110166940A1 (en) | 2010-01-05 | 2011-07-07 | Searete Llc | Micro-impulse radar detection of a human demographic and delivery of targeted media content |
KR101325817B1 (ko) | 2010-01-14 | 2013-11-05 | 실버레이 주식회사 | 도전성 직조물, 그 제조방법 및 제조장치 |
US10385487B2 (en) | 2010-01-14 | 2019-08-20 | Byung-Ok Jeon | Electrically conductive fabric and manufacturing method and apparatus thereof |
US20110181510A1 (en) | 2010-01-26 | 2011-07-28 | Nokia Corporation | Gesture Control |
US9335825B2 (en) * | 2010-01-26 | 2016-05-10 | Nokia Technologies Oy | Gesture control |
FR2955972B1 (fr) | 2010-02-03 | 2012-03-09 | Commissariat Energie Atomique | Procede d'assemblage d'au moins une puce avec un tissu incluant un dispositif a puce |
US8659658B2 (en) | 2010-02-09 | 2014-02-25 | Microsoft Corporation | Physical interaction zone for gesture-based user interfaces |
US8522308B2 (en) | 2010-02-11 | 2013-08-27 | Verizon Patent And Licensing Inc. | Systems and methods for providing a spatial-input-based multi-user shared display experience |
JP5642809B2 (ja) | 2010-03-12 | 2014-12-17 | ニュアンス コミュニケーションズ, インコーポレイテッド | 携帯電話のタッチスクリーンとの使用等のためのマルチモーダルテキスト入力システム |
US20140297006A1 (en) | 2010-03-12 | 2014-10-02 | Rajendra Padma Sadhu | System and method for providing physiological feedback and rewards for engaging user and retention of customer |
US8599061B2 (en) | 2010-03-17 | 2013-12-03 | George Mason Intellectual Properties, Inc. | Cavity detection |
EP2559030B1 (en) | 2010-03-19 | 2017-06-21 | Digimarc Corporation | Intuitive computing methods and systems |
JP2011204019A (ja) | 2010-03-25 | 2011-10-13 | Sony Corp | ジェスチャ入力装置、ジェスチャ入力方法およびプログラム |
US9477324B2 (en) | 2010-03-29 | 2016-10-25 | Hewlett-Packard Development Company, L.P. | Gesture processing |
US20110245688A1 (en) | 2010-03-31 | 2011-10-06 | General Electric Company | System and method of performing electrocardiography with motion detection |
US20110242305A1 (en) * | 2010-04-01 | 2011-10-06 | Peterson Harry W | Immersive Multimedia Terminal |
US8102306B2 (en) | 2010-05-13 | 2012-01-24 | The United States Of America As Represented By The Secretary Of The Navy | Active-radar-assisted passive composite imagery for aiding navigation or detecting threats |
US8457353B2 (en) | 2010-05-18 | 2013-06-04 | Microsoft Corporation | Gestures and gesture modifiers for manipulating a user-interface |
JP2011253241A (ja) | 2010-05-31 | 2011-12-15 | Toyota Motor Corp | 物体検出装置 |
US9642536B2 (en) | 2010-06-07 | 2017-05-09 | Affectiva, Inc. | Mental state analysis using heart rate collection based on video imagery |
US8700137B2 (en) | 2012-08-30 | 2014-04-15 | Alivecor, Inc. | Cardiac performance monitoring system for use with mobile communications devices |
US8509882B2 (en) | 2010-06-08 | 2013-08-13 | Alivecor, Inc. | Heart monitoring system usable with a smartphone or computer |
US8301232B2 (en) | 2010-06-08 | 2012-10-30 | Alivecor, Inc. | Wireless, ultrasonic personal health monitoring system |
US20110307842A1 (en) | 2010-06-14 | 2011-12-15 | I-Jen Chiang | Electronic reading device |
US20120200600A1 (en) | 2010-06-23 | 2012-08-09 | Kent Demaine | Head and arm detection for virtual immersion systems and methods |
US20110318985A1 (en) | 2010-06-23 | 2011-12-29 | Mcdermid William James | Touch Sensor Fabric |
US20110316888A1 (en) | 2010-06-28 | 2011-12-29 | Invensense, Inc. | Mobile device user interface combining input from motion sensors and other controls |
US8907929B2 (en) | 2010-06-29 | 2014-12-09 | Qualcomm Incorporated | Touchless sensing and gesture recognition using continuous wave ultrasound signals |
JP5726446B2 (ja) | 2010-07-01 | 2015-06-03 | 京セラ株式会社 | 携帯電子機器 |
JP2012018583A (ja) | 2010-07-08 | 2012-01-26 | Canon Inc | ソフトウェア開発支援装置及びその処理方法 |
TW201205404A (en) | 2010-07-16 | 2012-02-01 | Elan Microelectronics Corp | Three-dimensional touch sensor and application thereof |
JP2012028015A (ja) | 2010-07-20 | 2012-02-09 | Toshiba Corp | 照明制御システムおよび照明制御方法 |
JP5659595B2 (ja) | 2010-07-21 | 2015-01-28 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
EP2417908A1 (en) | 2010-08-12 | 2012-02-15 | Philips Intellectual Property & Standards GmbH | Device, system and method for measuring vital signs |
US9075434B2 (en) | 2010-08-20 | 2015-07-07 | Microsoft Technology Licensing, Llc | Translating user motion into multiple object responses |
WO2012026974A2 (en) | 2010-08-23 | 2012-03-01 | Foster-Miller, Inc. | Pals compliant routing system |
WO2012026013A1 (ja) | 2010-08-26 | 2012-03-01 | 京セミ株式会社 | 半導体素子付き織網基材の製造方法、その製造装置及び半導体素子付き織網基材 |
WO2012028884A1 (en) | 2010-09-02 | 2012-03-08 | Elliptic Laboratories As | Motion feedback |
US20130161078A1 (en) | 2010-09-03 | 2013-06-27 | Hui Hong Jim Kery Li | Rigid-flex circuit board and manufacturing method |
JP2012058921A (ja) | 2010-09-07 | 2012-03-22 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
EP2428814A1 (en) | 2010-09-13 | 2012-03-14 | France Telecom | Object detection method, device and system |
DE102010045657A1 (de) * | 2010-09-17 | 2012-03-22 | Wabco Gmbh | Umfeld-Überwachungssystem für ein Fahrzeug |
EP2620042A1 (en) | 2010-09-21 | 2013-07-31 | Koninklijke Philips Electronics N.V. | Electronic textile and method of manufacturing an electronic textile |
JP5515067B2 (ja) | 2011-07-05 | 2014-06-11 | 島根県 | 操作入力装置および操作判定方法並びにプログラム |
US8560029B2 (en) | 2011-09-21 | 2013-10-15 | Mobile Joose, Inc | Isolation enhancement between planar antenna elements |
JP5167523B2 (ja) | 2010-09-22 | 2013-03-21 | 島根県 | 操作入力装置および操作判定方法並びにプログラム |
BR112013007566A2 (pt) | 2010-09-28 | 2016-08-02 | Panacea Biotec Ltd | novos compostos bicíclicos |
US9569003B2 (en) | 2010-09-30 | 2017-02-14 | Broadcom Corporation | Portable computing device including a three-dimensional touch screen |
US8483617B2 (en) * | 2010-09-30 | 2013-07-09 | Broadcom Corporation | Portable computing device with high-speed data communication |
US9262002B2 (en) | 2010-11-03 | 2016-02-16 | Qualcomm Incorporated | Force sensing touch screen |
WO2012064847A1 (en) | 2010-11-09 | 2012-05-18 | Smule, Inc. | System and method for capture and rendering of performance on synthetic string instrument |
CN103262008B (zh) | 2010-11-15 | 2017-03-08 | 莫韦公司 | 智能无线鼠标 |
EP2641105B1 (en) | 2010-11-16 | 2015-01-21 | Qualcomm Incorporated | System and method for object position estimation based on ultrasonic reflected signals |
KR20140001957A (ko) | 2010-11-20 | 2014-01-07 | 뉘앙스 커뮤니케이션즈, 인코포레이티드 | 입력된 텍스트를 이용하여 상황 정보에 액세스하여 이를 처리하기 위한 시스템들 및 방법들 |
US9557413B2 (en) | 2010-12-06 | 2017-01-31 | The University Of Memphis Research Foundation | Surveillance and tracking system and method |
US9015007B2 (en) | 2010-12-13 | 2015-04-21 | Southwest Research Institute | Sensor array processor with multichannel reconstruction from random array sampling |
KR101778127B1 (ko) | 2010-12-14 | 2017-09-13 | 엘지전자 주식회사 | 터치 패널 및 터치 패널을 포함하는 디스플레이 장치 |
JP5510302B2 (ja) | 2010-12-15 | 2014-06-04 | トヨタ紡織株式会社 | 接続部材、その製造方法及び接続構造体 |
US9104308B2 (en) | 2010-12-17 | 2015-08-11 | The Hong Kong University Of Science And Technology | Multi-touch finger registration and its applications |
US8475367B1 (en) | 2011-01-09 | 2013-07-02 | Fitbit, Inc. | Biometric monitoring device having a body weight sensor, and methods of operating same |
US8730190B2 (en) | 2011-01-13 | 2014-05-20 | Qualcomm Incorporated | Detect motion generated from gestures used to execute functionality associated with a computer system |
US20120191223A1 (en) | 2011-01-25 | 2012-07-26 | Honeywell International Inc. | System and method for automatically selecting sensors |
DE102011009577A1 (de) | 2011-01-27 | 2012-08-02 | Texas Instruments Deutschland Gmbh | RFID-Transponder und Verfahren zum Verbinden eines Halbleiter-Dies mit einer Antenne |
EP2667769B1 (en) | 2011-01-27 | 2020-07-22 | The Board of Trustees of the Leland Stanford Junior University | Systems for monitoring the circulatory system |
US20120220835A1 (en) | 2011-02-14 | 2012-08-30 | Wayne Chung | Wireless physiological sensor system and method |
WO2012117570A1 (ja) | 2011-03-03 | 2012-09-07 | オムロン株式会社 | ジェスチャ入力装置およびジェスチャ入力装置の制御方法 |
JP5889539B2 (ja) * | 2011-03-28 | 2016-03-22 | 独立行政法人石油天然ガス・金属鉱物資源機構 | 炭化水素の製造方法 |
JP5865597B2 (ja) | 2011-03-29 | 2016-02-17 | 京セラ株式会社 | 携帯電子機器 |
US9318884B2 (en) | 2011-03-30 | 2016-04-19 | Illinois Tool Works Inc. | Induction heating wire insulation heating and removal |
US9298287B2 (en) | 2011-03-31 | 2016-03-29 | Microsoft Technology Licensing, Llc | Combined activation for natural user interface systems |
US20120270564A1 (en) | 2011-04-19 | 2012-10-25 | Qualcomm Incorporated | Methods and apparatuses for use in a mobile device to detect signaling apertures within an environment |
US8681122B2 (en) | 2011-04-19 | 2014-03-25 | Cypress Semiconductor Corporation | Capacitive sensing with programmable logic for touch sense arrays |
KR20120119420A (ko) | 2011-04-21 | 2012-10-31 | 한국전자통신연구원 | 지능형 운동체 제어 장치 및 방법 |
US9103899B2 (en) | 2011-04-29 | 2015-08-11 | The Invention Science Fund I, Llc | Adaptive control of a personal electronic device responsive to a micro-impulse radar |
DE102011075725A1 (de) | 2011-05-12 | 2012-11-15 | Robert Bosch Gmbh | Verfahren zum Erkennen von Gesten |
WO2012155105A1 (en) | 2011-05-12 | 2012-11-15 | Apple Inc. | Presence sensing |
US20140139616A1 (en) | 2012-01-27 | 2014-05-22 | Intouch Technologies, Inc. | Enhanced Diagnostics for a Telepresence Robot |
IL213125A0 (en) | 2011-05-24 | 2011-10-31 | Bird Aerosystems Ltd | System, device and method of protecting aircrafts against incoming missiles and threats |
US8760395B2 (en) | 2011-05-31 | 2014-06-24 | Microsoft Corporation | Gesture recognition techniques |
US20120310665A1 (en) | 2011-06-01 | 2012-12-06 | Xerox Corporation | Personalized medical record |
DK2723615T3 (da) | 2011-06-24 | 2023-05-01 | Surveillance Guard Co Ltd | Ulykkesbekæmpelsessystem og køretøj, der indbefatter ulykkesbekæmpelsessystemet |
US8851372B2 (en) | 2011-07-18 | 2014-10-07 | Tiger T G Zhou | Wearable personal digital device with changeable bendable battery and expandable display used as standalone electronic payment card |
US8576110B2 (en) * | 2011-07-07 | 2013-11-05 | Raytheon Company | Fast ray trace to identify radar multipaths |
KR101235432B1 (ko) | 2011-07-11 | 2013-02-22 | 김석중 | 3차원 모델링된 전자기기의 가상터치를 이용한 원격 조작 장치 및 방법 |
US9069164B2 (en) | 2011-07-12 | 2015-06-30 | Google Inc. | Methods and systems for a virtual input device |
US8179604B1 (en) | 2011-07-13 | 2012-05-15 | Google Inc. | Wearable marker for passive interaction |
WO2013016453A2 (en) | 2011-07-25 | 2013-01-31 | Ips Group Inc. | Low-power vehicle detection |
FR2978607A1 (fr) | 2011-07-28 | 2013-02-01 | Commissariat Energie Atomique | Procede d'assemblage d'un dispositif a puce micro-electronique dans un tissu, dispositif a puce, et tissu incorporant un dispositif a puce serti |
KR101330809B1 (ko) | 2011-08-03 | 2013-12-19 | 주식회사 팬택 | 터치 패널 및 이를 구비한 전자기기 |
US8740793B2 (en) | 2011-08-29 | 2014-06-03 | General Electric Company | Radar based systems and methods for monitoring a subject |
US10027923B1 (en) | 2011-09-09 | 2018-07-17 | Huan Chang | Methods and system for recording, searching and faithful reproduction of sensations |
WO2013036727A2 (en) | 2011-09-09 | 2013-03-14 | Accipiter Radar Technologies, Inc. | Device and method for 3d sampling with avian radar |
US9632102B2 (en) | 2011-09-25 | 2017-04-25 | Theranos, Inc. | Systems and methods for multi-purpose analysis |
IN2014CN01893A (ko) | 2011-09-16 | 2015-05-29 | Qualcomm Inc | |
US20130076788A1 (en) | 2011-09-26 | 2013-03-28 | Eyeducation A. Y. Ltd | Apparatus, method and software products for dynamic content management |
US8723824B2 (en) | 2011-09-27 | 2014-05-13 | Apple Inc. | Electronic devices with sidewall displays |
US8617081B2 (en) | 2011-09-28 | 2013-12-31 | Xerox Corporation | Estimating cardiac pulse recovery from multi-channel source data via constrained source separation |
US10795448B2 (en) | 2011-09-29 | 2020-10-06 | Magic Leap, Inc. | Tactile glove for human-computer interaction |
US9268406B2 (en) | 2011-09-30 | 2016-02-23 | Microsoft Technology Licensing, Llc | Virtual spectator experience with a personal audio/visual apparatus |
CN103917704A (zh) | 2011-10-06 | 2014-07-09 | Iee国际电子工程股份公司 | 用于乘用人感测和/或加热应用的导电性织物 |
TW201315438A (zh) | 2011-10-14 | 2013-04-16 | Ind Tech Res Inst | 非接觸式之心脈量測方法及其系統 |
CN102660988B (zh) | 2011-10-18 | 2014-03-12 | 北京盈胜泰科技术有限公司 | 智能坐便器 |
US20130104084A1 (en) | 2011-10-21 | 2013-04-25 | Digital Artforms, Inc. | Systems and methods for human-computer interaction using a two handed interface |
EP2587347A3 (en) | 2011-10-25 | 2016-01-20 | Broadcom Corporation | Portable computing device including a three-dimensional touch screen |
RU2017115669A (ru) | 2011-10-28 | 2019-01-28 | Мэджик Лип, Инк. | Система и способ для дополненной и виртуальной реальности |
US20130106710A1 (en) | 2011-10-31 | 2013-05-02 | Nokia Corporation | Methods, apparatuses, and computer program products for adjusting touchscreen sensitivity |
JP2013101526A (ja) | 2011-11-09 | 2013-05-23 | Sony Corp | 情報処理装置、表示制御方法、およびプログラム |
US10082950B2 (en) | 2011-11-09 | 2018-09-25 | Joseph T. LAPP | Finger-mapped character entry systems |
EP2783269B1 (en) | 2011-11-23 | 2018-10-31 | Intel Corporation | GESTURE INPUT WITH MULTIPLE VIEWS and DISPLAYS |
US8869115B2 (en) | 2011-11-23 | 2014-10-21 | General Electric Company | Systems and methods for emotive software usability |
WO2013075270A1 (zh) | 2011-11-25 | 2013-05-30 | Yang Chang-Ming | 一种侦测心跳或电极接触良好与否的物品、方法及系统 |
JP6125526B2 (ja) | 2011-12-07 | 2017-05-10 | フィリップス ライティング ホールディング ビー ヴィ | 廃棄物選別を容易化する手段を備えた電子織物 |
US20130147933A1 (en) | 2011-12-09 | 2013-06-13 | Charles J. Kulas | User image insertion into a text message |
EP2788838A4 (en) | 2011-12-09 | 2015-10-14 | Nokia Technologies Oy | METHOD AND APPARATUS FOR IDENTIFYING A GESTURE AFTER THE FUSION OF MULTIPLE SENSOR SIGNALS |
US9323379B2 (en) | 2011-12-09 | 2016-04-26 | Microchip Technology Germany Gmbh | Electronic device with a user interface that has more than two degrees of freedom, the user interface comprising a touch-sensitive surface and contact-free detection means |
CN106342197B (zh) | 2011-12-14 | 2013-02-13 | 中国电子科技集团公司第二十七研究所 | 一种用于对激光设备进行远近距离动态精度指标测试的系统 |
US9389681B2 (en) | 2011-12-19 | 2016-07-12 | Microsoft Technology Licensing, Llc | Sensor fusion interface for multiple sensor input |
WO2013141922A2 (en) * | 2011-12-20 | 2013-09-26 | Sadar 3D, Inc. | Systems, apparatus, and methods for data acquisiton and imaging |
US8749485B2 (en) | 2011-12-20 | 2014-06-10 | Microsoft Corporation | User control gesture detection |
WO2013095679A1 (en) | 2011-12-23 | 2013-06-27 | Intel Corporation | Computing system utilizing coordinated two-hand command gestures |
US20130169471A1 (en) | 2011-12-28 | 2013-07-04 | Hrl Laboratories, Llc | Coded aperture beam analysis method and apparatus |
US9141194B1 (en) | 2012-01-04 | 2015-09-22 | Google Inc. | Magnetometer-based gesture sensing with a wearable device |
JP5673568B2 (ja) | 2012-01-16 | 2015-02-18 | トヨタ自動車株式会社 | 物体検出装置 |
US8682395B2 (en) | 2012-01-27 | 2014-03-25 | Blackberry Limited | Communications device and method having non-touch based input screen |
US8527146B1 (en) | 2012-01-30 | 2013-09-03 | Google Inc. | Systems and methods for updating vehicle behavior and settings based on the locations of vehicle passengers |
KR101849373B1 (ko) | 2012-01-31 | 2018-04-17 | 한국전자통신연구원 | 인체의 관절구조를 추정하기 위한 장치 및 방법 |
US20130194173A1 (en) | 2012-02-01 | 2013-08-01 | Ingeonix Corporation | Touch free control of electronic systems and associated methods |
US8854433B1 (en) | 2012-02-03 | 2014-10-07 | Aquifi, Inc. | Method and system enabling natural user interface gestures with an electronic system |
US20130207962A1 (en) | 2012-02-10 | 2013-08-15 | Float Hybrid Entertainment Inc. | User interactive kiosk with three-dimensional display |
KR101330810B1 (ko) | 2012-02-24 | 2013-11-18 | 주식회사 팬택 | 원거리 제스쳐 인식 기능을 갖는 디바이스 및 그 방법 |
US9389690B2 (en) | 2012-03-01 | 2016-07-12 | Qualcomm Incorporated | Gesture detection based on information from multiple types of sensors |
US20140309876A1 (en) | 2013-04-15 | 2014-10-16 | Flextronics Ap, Llc | Universal vehicle voice command system |
US9412273B2 (en) | 2012-03-14 | 2016-08-09 | Autoconnect Holdings Llc | Radar sensing and emergency response vehicle detection |
JP2013196047A (ja) | 2012-03-15 | 2013-09-30 | Omron Corp | ジェスチャ入力装置、制御プログラム、コンピュータ読み取り可能な記録媒体、電子機器、ジェスチャ入力システム、および、ジェスチャ入力装置の制御方法 |
EP2650754A3 (en) | 2012-03-15 | 2014-09-24 | Omron Corporation | Gesture recognition apparatus, electronic device, gesture recognition method, control program, and recording medium |
US20130249793A1 (en) | 2012-03-22 | 2013-09-26 | Ingeonix Corporation | Touch free user input recognition |
US9125456B2 (en) | 2012-03-26 | 2015-09-08 | Chong Sun CHOW | Object-containing button |
JP5928069B2 (ja) | 2012-03-28 | 2016-06-01 | トヨタ紡織株式会社 | 織物 |
JP5902346B2 (ja) | 2012-03-29 | 2016-04-13 | インテル コーポレイション | ジェスチャーを用いた3次元グラフィックスの作成 |
TWI604097B (zh) | 2012-03-30 | 2017-11-01 | 英威達技術有限公司 | 具有控制紗線系統之拉伸梭織物及其製備方法 |
US9575652B2 (en) | 2012-03-31 | 2017-02-21 | Microsoft Technology Licensing, Llc | Instantiable gesture objects |
US8933912B2 (en) | 2012-04-02 | 2015-01-13 | Microsoft Corporation | Touch sensitive user interface with three dimensional input sensor |
US9170674B2 (en) | 2012-04-09 | 2015-10-27 | Qualcomm Incorporated | Gesture-based device control using pressure-sensitive sensors |
JP5024495B1 (ja) | 2012-04-17 | 2012-09-12 | オムロン株式会社 | ジェスチャ入力装置およびジェスチャ入力装置の制御方法 |
US9448636B2 (en) | 2012-04-18 | 2016-09-20 | Arb Labs Inc. | Identifying gestures using gesture data compressed by PCA, principal joint variable analysis, and compressed feature matrices |
US20130283203A1 (en) | 2012-04-24 | 2013-10-24 | Yahoo! Inc. | Method and system for displaying search results |
JP5721662B2 (ja) | 2012-04-26 | 2015-05-20 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 入力受付方法、入力受付プログラム、及び入力装置 |
US9552503B2 (en) * | 2012-05-01 | 2017-01-24 | 5D Robotics, Inc. | Distributed positioning and collaborative behavior determination |
US20140121540A1 (en) | 2012-05-09 | 2014-05-01 | Aliphcom | System and method for monitoring the health of a user |
US9411042B2 (en) | 2012-05-09 | 2016-08-09 | Duke University | Multi-sensor compressive imaging |
US8939367B2 (en) | 2012-05-24 | 2015-01-27 | Kenneth James Hintz | Cavity axis orientation measurement device |
US8897522B2 (en) | 2012-05-30 | 2014-11-25 | Xerox Corporation | Processing a video for vascular pattern detection and cardiac function analysis |
US8793046B2 (en) * | 2012-06-01 | 2014-07-29 | Google Inc. | Inferring state of traffic signal and other aspects of a vehicle's environment based on surrogate data |
JP2015523132A (ja) | 2012-06-12 | 2015-08-13 | コーニンクレッカ フィリップス エヌ ヴェ | カメラによる生命徴候測定システム |
US9183310B2 (en) | 2012-06-12 | 2015-11-10 | Microsoft Technology Licensing, Llc | Disambiguating intents within search engine result pages |
US20130338460A1 (en) | 2012-06-18 | 2013-12-19 | David Da He | Wearable Device for Continuous Cardiac Monitoring |
IN2014DN10880A (ko) | 2012-06-19 | 2015-09-11 | Univ Singapore | |
US9042971B2 (en) | 2012-06-22 | 2015-05-26 | Fitbit, Inc. | Biometric monitoring device with heart rate measurement activated by a single user-gesture |
US9005129B2 (en) | 2012-06-22 | 2015-04-14 | Fitbit, Inc. | Wearable heart rate monitor |
US8768438B2 (en) | 2012-06-25 | 2014-07-01 | Xerox Corporation | Determining cardiac arrhythmia from a video of a subject being monitored for cardiac function |
US9582933B1 (en) | 2012-06-26 | 2017-02-28 | The Mathworks, Inc. | Interacting with a model via a three-dimensional (3D) spatial environment |
US9183163B2 (en) | 2012-06-27 | 2015-11-10 | Ubiquiti Networks, Inc. | Method and apparatus for distributed control of an interfacing-device network |
FR2992784B1 (fr) | 2012-06-29 | 2015-08-07 | Laselec | Dispositif de denudage de cables electriques utilisant des diodes laser violettes ou bleues |
JP5915414B2 (ja) * | 2012-06-29 | 2016-05-11 | ブラザー工業株式会社 | プログラムおよび携帯端末 |
KR101387190B1 (ko) | 2012-07-05 | 2014-04-21 | 최재홍 | 천년초 선인장을 이용한 발효산물을 제조하는 방법 |
CN102819315B (zh) | 2012-07-23 | 2016-04-13 | 中兴通讯股份有限公司 | 一种3d人机交互方法及系统 |
US9140782B2 (en) | 2012-07-23 | 2015-09-22 | Google Technology Holdings LLC | Inter-vehicle alert system with nagable video look ahead |
US9223494B1 (en) | 2012-07-27 | 2015-12-29 | Rockwell Collins, Inc. | User interfaces for wearable computers |
US9235241B2 (en) | 2012-07-29 | 2016-01-12 | Qualcomm Incorporated | Anatomical gestures detection system using radio signals |
US20150261310A1 (en) | 2012-08-01 | 2015-09-17 | Whirlscape, Inc. | One-dimensional input system and method |
CA2880902C (en) | 2012-08-03 | 2020-07-28 | Charles Rashid | Portable collision warning apparatus |
US8819812B1 (en) | 2012-08-16 | 2014-08-26 | Amazon Technologies, Inc. | Gesture recognition for device input |
US9323985B2 (en) | 2012-08-16 | 2016-04-26 | Microchip Technology Incorporated | Automatic gesture recognition for a sensor system |
US20140049487A1 (en) | 2012-08-17 | 2014-02-20 | Qualcomm Incorporated | Interactive user interface for clothing displays |
US20140051941A1 (en) | 2012-08-17 | 2014-02-20 | Rare Light, Inc. | Obtaining physiological measurements using a portable device |
DE102012214852B4 (de) | 2012-08-21 | 2024-01-18 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs |
US9230160B1 (en) | 2012-08-27 | 2016-01-05 | Amazon Technologies, Inc. | Method, medium, and system for online ordering using sign language |
KR20140027837A (ko) | 2012-08-27 | 2014-03-07 | 삼성전자주식회사 | 모바일 디바이스 및 모바일 디바이스에서 사용자 인터페이스 방법 |
WO2014032984A1 (en) | 2012-09-03 | 2014-03-06 | Sony Corporation | Hand-held security scanning device |
EP2892421A1 (en) | 2012-09-04 | 2015-07-15 | Whoop, Inc. | Systems, devices and methods for continuous heart rate monitoring and interpretation |
US9811901B2 (en) | 2012-09-07 | 2017-11-07 | Massachusetts Institute Of Technology | Linear-based Eulerian motion modulation |
US8945328B2 (en) | 2012-09-11 | 2015-02-03 | L.I.F.E. Corporation S.A. | Methods of making garments having stretchable and conductive ink |
US8948839B1 (en) | 2013-08-06 | 2015-02-03 | L.I.F.E. Corporation S.A. | Compression garments having stretchable and conductive ink |
US9817440B2 (en) | 2012-09-11 | 2017-11-14 | L.I.F.E. Corporation S.A. | Garments having stretchable and conductive ink |
WO2014041032A1 (en) | 2012-09-11 | 2014-03-20 | L.I.F.E. Corporation S.A. | Wearable communication platform |
US20140073969A1 (en) | 2012-09-12 | 2014-03-13 | Neurosky, Inc. | Mobile cardiac health monitoring |
US9036865B2 (en) | 2012-09-12 | 2015-05-19 | International Business Machines Corporation | Location determination for an object using visual data |
US9877650B2 (en) | 2012-09-20 | 2018-01-30 | Masimo Corporation | Physiological monitor with mobile computing device connectivity |
US9002174B2 (en) | 2012-10-01 | 2015-04-07 | Microsoft Technology Licensing, Llc | Semantic zoom for related content |
US20150285906A1 (en) | 2012-10-04 | 2015-10-08 | Technology Service Corporation | Proximity sensor |
EP3828591A1 (en) | 2012-10-05 | 2021-06-02 | Transrobotics, Inc. | Systems and methods for high resolution distance sensing and applications |
US11099652B2 (en) | 2012-10-05 | 2021-08-24 | Microsoft Technology Licensing, Llc | Data and user interaction based on device proximity |
US9870056B1 (en) | 2012-10-08 | 2018-01-16 | Amazon Technologies, Inc. | Hand and hand pose detection |
US8860602B2 (en) | 2012-10-09 | 2014-10-14 | Accipiter Radar Technologies Inc. | Device and method for cognitive radar information network |
CN202887794U (zh) | 2012-10-12 | 2013-04-17 | 上海斯麟特种设备工程有限公司 | 一种涂胶棉纱编织电缆 |
EP2908357B1 (en) | 2012-10-12 | 2018-08-29 | Teijin Limited | Piezoelectric element |
US9170800B2 (en) | 2012-10-16 | 2015-10-27 | Citrix Systems, Inc. | Application wrapping for application management framework |
US9632574B2 (en) | 2012-10-31 | 2017-04-25 | Sony Corporation | Device and method for authenticating a user |
CN104781779B (zh) | 2012-11-06 | 2018-06-15 | 诺基亚技术有限公司 | 用于创建针对图像的运动效果的方法和装置 |
CN103813236A (zh) | 2012-11-07 | 2014-05-21 | 飞兆半导体公司 | 扬声器保护的相关方法及装置 |
CN105338890B (zh) | 2012-11-11 | 2018-10-09 | 肯库有限责任公司 | 确定生命参数的方法和装置 |
TWI471756B (zh) | 2012-11-16 | 2015-02-01 | Quanta Comp Inc | 虛擬觸控方法 |
US10551928B2 (en) | 2012-11-20 | 2020-02-04 | Samsung Electronics Company, Ltd. | GUI transitions on wearable electronic device |
US9477313B2 (en) | 2012-11-20 | 2016-10-25 | Samsung Electronics Co., Ltd. | User gesture input to wearable electronic device involving outward-facing sensor of device |
US9529439B2 (en) | 2012-11-27 | 2016-12-27 | Qualcomm Incorporated | Multi device pairing and sharing via gestures |
EP2925214A4 (en) | 2012-11-30 | 2016-09-21 | Kinsa Inc | MOBILE HEALTH SYSTEM |
GB2508626B (en) | 2012-12-05 | 2014-10-29 | R & D Core Ltd | Contact sensor |
TW201425974A (zh) | 2012-12-17 | 2014-07-01 | Ind Tech Res Inst | 姿態感測裝置與方法 |
US9075429B1 (en) | 2012-12-19 | 2015-07-07 | Amazon Technologies, Inc. | Distortion correction for device display |
CN103903146A (zh) | 2012-12-26 | 2014-07-02 | 北大方正集团有限公司 | 一种防伪信息验证的方法及装置 |
US20140188989A1 (en) | 2012-12-27 | 2014-07-03 | Google Inc. | Exchanging content across multiple devices |
FI124657B (en) | 2012-12-31 | 2014-11-28 | Suunto Oy | Male connector for telemetric receiver |
AU2014204252B2 (en) | 2013-01-03 | 2017-12-14 | Meta View, Inc. | Extramissive spatial imaging digital eye glass for virtual or augmediated vision |
US20140191939A1 (en) | 2013-01-09 | 2014-07-10 | Microsoft Corporation | Using nonverbal communication in determining actions |
CN103091667B (zh) | 2013-01-10 | 2014-12-10 | 清华大学 | 一种车载雷达标定装置及标定方法 |
WO2014107769A1 (en) | 2013-01-14 | 2014-07-17 | Uscom Limited | Combined blood flow and pressure monitoring system and method |
US9696867B2 (en) | 2013-01-15 | 2017-07-04 | Leap Motion, Inc. | Dynamic user interactions for display control and identifying dominant gestures |
CA2897791A1 (en) | 2013-01-25 | 2014-07-31 | Vanderbilt Universtiy | Smart mobile health monitoring system and related methods |
DE102013201359A1 (de) | 2013-01-29 | 2014-07-31 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Steuern eines Werkstattgeräts |
US9146668B2 (en) * | 2013-01-31 | 2015-09-29 | Hewlett-Packard Development Company, L.P. | Graphical element placement on a display surface |
CN105163662A (zh) | 2013-02-13 | 2015-12-16 | 米斯比尔生命科学公司 | 用于测量静脉血氧的方法和装置 |
US10261612B2 (en) | 2013-02-22 | 2019-04-16 | Samsung Electronics Co., Ltd. | Apparatus and method for recognizing proximity motion using sensors |
IN2013CH00818A (ko) | 2013-02-25 | 2015-08-14 | Cognizant Technology Solutions India Pvt Ltd | |
US9203835B2 (en) | 2013-03-01 | 2015-12-01 | Paypal, Inc. | Systems and methods for authenticating a user based on a biometric model associated with the user |
US20160012198A1 (en) | 2013-03-05 | 2016-01-14 | Vtm, Llc | Medical Telecommunications System |
RU2697291C2 (ru) | 2013-03-06 | 2019-08-13 | Конинклейке Филипс Н.В. | Система и способ определения информации об основных показателях состояния организма |
CN104035552B (zh) | 2013-03-08 | 2017-08-25 | 广州三星通信技术研究有限公司 | 三维操作方法和三维操作装置 |
US9519351B2 (en) | 2013-03-08 | 2016-12-13 | Google Inc. | Providing a gesture-based interface |
US9913415B2 (en) | 2013-03-13 | 2018-03-06 | Federal-Mogul Powertrain Llc | EMI shielding textile fabric, wrappable sleeve constructed therefrom and method of construction thereof |
WO2014165230A1 (en) | 2013-03-13 | 2014-10-09 | Lookout, Inc. | System and method for changing security behavior of a device based on proximity to another device |
US20140280295A1 (en) | 2013-03-14 | 2014-09-18 | Microsoft Corporation | Multi-language information retrieval and advertising |
US20140276104A1 (en) | 2013-03-14 | 2014-09-18 | Nongjian Tao | System and method for non-contact monitoring of physiological parameters |
US8925807B2 (en) | 2013-03-14 | 2015-01-06 | Daniel Utley | Audio port power generation circuit and auxiliary device |
US11044451B2 (en) | 2013-03-14 | 2021-06-22 | Jawb Acquisition Llc | Proximity-based control of media devices for media presentations |
US20150268027A1 (en) | 2013-03-15 | 2015-09-24 | Medusa Scientific Llc | Electric field sensing and e field visualization |
US20140281975A1 (en) | 2013-03-15 | 2014-09-18 | Glen J. Anderson | System for adaptive selection and presentation of context-based media in communications |
US9654506B2 (en) | 2013-03-15 | 2017-05-16 | Global 9-Times-5, Llc | Managing and accounting for privacy settings through tiered cookie set access |
US20140364711A1 (en) | 2013-03-27 | 2014-12-11 | AkibaH Health Corporation | All-in-one analyte sensor in a detachable external mobile device case |
GB201305812D0 (en) | 2013-03-28 | 2013-05-15 | Univ Warwick | Gesture tracking and classification |
US9971414B2 (en) | 2013-04-01 | 2018-05-15 | University Of Washington Through Its Center For Commercialization | Devices, systems, and methods for detecting gestures using wireless communication signals |
US9170324B2 (en) | 2013-04-04 | 2015-10-27 | Raytheon Company | Statistical movement analysis |
WO2014167457A1 (en) | 2013-04-10 | 2014-10-16 | Koninklijke Philips N.V. | System and method for enhancing sleep slow wave activity based on cardiac activity |
GB201306475D0 (en) | 2013-04-10 | 2013-05-22 | Elliptic Laboratories As | Touchless interaction devices |
US20140309855A1 (en) | 2013-04-12 | 2014-10-16 | Bao Tran | Smart car with automatic signalling |
WO2014172668A1 (en) | 2013-04-18 | 2014-10-23 | California Institute Of Technology | Life detecting radars |
KR101373633B1 (ko) | 2013-04-23 | 2014-03-13 | 상명대학교서울산학협력단 | 항복강력이 증가된 도전성금속복합사의 제조방법과, 이 제조방법에 의해 제조된 도전성금속복합사와, 이 도전성금속복합사를 이용하여 제조되는 자수회로제품 |
US10203405B2 (en) | 2013-04-25 | 2019-02-12 | The United States Of America As Represented By The Secretary Of The Army | Multitone radar with range determination and method of use |
US20140329567A1 (en) | 2013-05-01 | 2014-11-06 | Elwha Llc | Mobile device with automatic volume control |
WO2014183262A1 (en) | 2013-05-14 | 2014-11-20 | Empire Technology Development Llc | Detection of user gestures |
WO2014190018A1 (en) | 2013-05-21 | 2014-11-27 | Stanley Innovation, Inc. | A system and method for a human machine interface utilizing near-field quasi-state electrical field sensing technology |
KR101999958B1 (ko) | 2013-05-22 | 2019-07-15 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어 방법 |
US20140357369A1 (en) | 2013-06-04 | 2014-12-04 | Microsoft Corporation | Group inputs via image sensor system |
US10031586B2 (en) | 2013-06-12 | 2018-07-24 | Amazon Technologies, Inc. | Motion-based gestures for a computing device |
GB2515104B (en) | 2013-06-14 | 2015-07-22 | Suunto Oy | A device and a method for assembling an electronic device and a flexible element for facilitating assembly of electronic components |
WO2014204323A1 (en) | 2013-06-17 | 2014-12-24 | Stretchsense Limited | Stretchable fabric sensors |
US9436984B2 (en) | 2013-06-21 | 2016-09-06 | Xerox Corporation | Compensating for motion induced artifacts in a physiological signal extracted from a single video |
US9423879B2 (en) | 2013-06-28 | 2016-08-23 | Chia Ming Chen | Systems and methods for controlling device operation according to hand gestures |
KR20150006195A (ko) | 2013-07-08 | 2015-01-16 | 엘지전자 주식회사 | 웨어러블 디바이스 및 그 제어 방법 |
US20150029050A1 (en) | 2013-07-25 | 2015-01-29 | Elwha Llc | Wearable radar reflectors |
US20150068069A1 (en) | 2013-07-27 | 2015-03-12 | Alexander Bach Tran | Personally powered appliance |
US8903568B1 (en) | 2013-07-31 | 2014-12-02 | SZ DJI Technology Co., Ltd | Remote control method and terminal |
US9529513B2 (en) | 2013-08-05 | 2016-12-27 | Microsoft Technology Licensing, Llc | Two-hand interaction with natural user interface |
US20150042789A1 (en) | 2013-08-07 | 2015-02-12 | Blackberry Limited | Determining the distance of an object to an electronic device |
MX358093B (es) | 2013-08-07 | 2018-08-06 | Koninklijke Philips Nv | Sistema de monitoreo y metodo para monitoreo del estado hemodinamico de un sujeto. |
US20150046183A1 (en) | 2013-08-12 | 2015-02-12 | James V. Cireddu | Remote, virtual physical exam acquisition and distribution |
WO2015022671A1 (en) | 2013-08-16 | 2015-02-19 | Footfalls And Heartbeats Limited | Method for making electrically conductive textiles and textile sensor |
WO2015038684A1 (en) | 2013-09-10 | 2015-03-19 | Polyera Corporation | Attachable article with signaling, split display and messaging features |
US9244578B2 (en) | 2013-09-12 | 2016-01-26 | Intel Corporation | Detecting gestures on the side of a computing device |
EP3045934A4 (en) | 2013-09-12 | 2016-10-19 | Panasonic Corp | RADAR DEVICE, VEHICLE AND METHOD FOR DETECTING THE SPEED OF A MOVING BODY |
FI126008B (en) | 2013-09-13 | 2016-05-31 | Murata Manufacturing Co | cardiac monitoring system |
US20150077345A1 (en) | 2013-09-16 | 2015-03-19 | Microsoft Corporation | Simultaneous Hover and Touch Interface |
US9383426B2 (en) | 2013-09-17 | 2016-07-05 | Farrokh Mohamadi | Real-time, two dimensional (2-D) tracking of first responders with identification inside premises |
CN105683875B (zh) | 2013-09-17 | 2019-09-24 | 诺基亚技术有限公司 | 操作的确定 |
US20150085060A1 (en) | 2013-09-20 | 2015-03-26 | Microsoft Corporation | User experience for conferencing with a touch screen display |
KR102065417B1 (ko) | 2013-09-23 | 2020-02-11 | 엘지전자 주식회사 | 웨어러블 이동단말기 및 그 제어방법 |
US9001082B1 (en) | 2013-09-27 | 2015-04-07 | Sensel, Inc. | Touch sensor detector system and method |
US9224237B2 (en) | 2013-09-27 | 2015-12-29 | Amazon Technologies, Inc. | Simulating three-dimensional views using planes of content |
KR102242768B1 (ko) | 2013-09-27 | 2021-04-22 | 센셀, 인크. | 터치 센서 검출기 시스템 및 방법 |
US20150095987A1 (en) | 2013-10-01 | 2015-04-02 | Certify Global LLC | Systems and methods of verifying an authentication using dynamic scoring |
US10152761B2 (en) | 2013-10-04 | 2018-12-11 | Iqvia Inc. | Facilitating transactions for health applications designed for mobile devices |
CN105980965A (zh) | 2013-10-10 | 2016-09-28 | 视力移动科技公司 | 用于非接触式打字的系统、设备和方法 |
US9588591B2 (en) | 2013-10-10 | 2017-03-07 | Google Technology Holdings, LLC | Primary device that interfaces with a secondary device based on gesture commands |
JP5929870B2 (ja) | 2013-10-17 | 2016-06-08 | 株式会社デンソー | 物標検出装置 |
US20150112158A1 (en) | 2013-10-23 | 2015-04-23 | Quanttus, Inc. | Health Metrics |
US10228801B2 (en) | 2013-10-24 | 2019-03-12 | University Of Maryland, Baltimore County | System and method for proximity-based position, movement and gesture detection using capacitive sensor arrays |
EP3068301A4 (en) | 2013-11-12 | 2017-07-12 | Highland Instruments, Inc. | Analysis suite |
EP3073905B1 (en) | 2013-11-27 | 2017-04-12 | Koninklijke Philips N.V. | Device and method for obtaining pulse transit time and/or pulse wave velocity information of a subject |
WO2015087164A1 (en) | 2013-12-10 | 2015-06-18 | 4Iiii Innovations Inc. | Signature based monitoring systems and methods |
US20150177866A1 (en) | 2013-12-23 | 2015-06-25 | Microsoft Corporation | Multiple Hover Point Gestures |
US9322908B2 (en) | 2013-12-23 | 2016-04-26 | Elwha Llc | Systems and methods for concealed radar imaging |
KR101839396B1 (ko) | 2013-12-28 | 2018-03-16 | 인텔 코포레이션 | 주변 디바이스들에서의 센서들로부터의 사용자 컨텍스트 검출에 기초한 디바이스 액션 및 구성을 위한 시스템 및 방법 |
US20150205358A1 (en) | 2014-01-20 | 2015-07-23 | Philip Scott Lyren | Electronic Device with Touchless User Interface |
CN105916439B (zh) | 2014-01-21 | 2020-03-31 | 加州理工学院 | 便携式电子血液动力传感器系统 |
US20150226004A1 (en) | 2014-02-10 | 2015-08-13 | Michael C. Thompson | Technique to verify underground targets utilizing virtual reality imaging and controlled excavation |
FR3017722A1 (fr) | 2014-02-17 | 2015-08-21 | Tounwendsida Ulysse Philippe Semde | Dispositif permettant a toutes personnes valide, ou handicapee moteur, ou sourde-muette d'editer, modifier et publier un logiciel informatique, de facon autonome, sans connaissances prealables en informatique et sans contact physique avec le terminal |
WO2015126095A1 (ko) | 2014-02-21 | 2015-08-27 | 삼성전자 주식회사 | 전자 장치 |
US10429888B2 (en) | 2014-02-25 | 2019-10-01 | Medibotics Llc | Wearable computer display devices for the forearm, wrist, and/or hand |
US9594443B2 (en) | 2014-02-26 | 2017-03-14 | Lenovo (Singapore) Pte. Ltd. | Wearable device authentication and operation |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US20150257653A1 (en) | 2014-03-14 | 2015-09-17 | Elwha Llc | Device, system, and method for determining blood pressure in a mammalian subject |
EP2923642B1 (en) | 2014-03-25 | 2017-03-15 | Ulrich Scholten | Application agnostic sensor, control computer and methods for operating |
US9921657B2 (en) | 2014-03-28 | 2018-03-20 | Intel Corporation | Radar-based gesture recognition |
WO2015159832A1 (ja) | 2014-04-16 | 2015-10-22 | 帝人株式会社 | 繊維を用いた電気信号を出力または入力とするトランスデューサー |
US9346167B2 (en) | 2014-04-29 | 2016-05-24 | Brain Corporation | Trainable convolutional network apparatus and methods for operating a robotic vehicle |
CN106415454A (zh) | 2014-04-30 | 2017-02-15 | Lg伊诺特有限公司 | 触控设备、具有该触控设备的可穿戴设备及触控识别方法 |
US9365213B2 (en) | 2014-04-30 | 2016-06-14 | Here Global B.V. | Mode transition for an autonomous vehicle |
CN103926584B (zh) * | 2014-04-30 | 2016-07-06 | 电子科技大学 | 一种空间-频率-极化组合协同探测方法 |
US9766715B2 (en) | 2014-05-01 | 2017-09-19 | Seiko Epson Corporation | Head-mount type display device, control system, method of controlling head-mount type display device, and computer program |
US10613627B2 (en) | 2014-05-12 | 2020-04-07 | Immersion Corporation | Systems and methods for providing haptic feedback for remote interactions |
EP3143474B1 (en) | 2014-05-15 | 2020-10-07 | Federal Express Corporation | Wearable devices for courier processing and methods of use thereof |
US9628702B2 (en) | 2014-05-21 | 2017-04-18 | Google Technology Holdings LLC | Enhanced image capture |
US10782657B2 (en) | 2014-05-27 | 2020-09-22 | Ultrahaptics IP Two Limited | Systems and methods of gestural interaction in a pervasive computing environment |
US9485266B2 (en) | 2014-06-02 | 2016-11-01 | Bastille Network, Inc. | Security measures based on signal strengths of radio frequency signals |
US9575560B2 (en) | 2014-06-03 | 2017-02-21 | Google Inc. | Radar-based gesture-recognition through a wearable device |
US9331422B2 (en) | 2014-06-09 | 2016-05-03 | Apple Inc. | Electronic device with hidden connector |
US9354709B1 (en) | 2014-06-17 | 2016-05-31 | Amazon Technologies, Inc. | Tilt gesture detection |
US9678506B2 (en) | 2014-06-19 | 2017-06-13 | Skydio, Inc. | Magic wand interface and other user interaction paradigms for a flying digital assistant |
WO2015200710A2 (en) | 2014-06-25 | 2015-12-30 | University Of Washington | Devices, systems, and methods for detecting gestures using multiple antennas and/or reflections of signals transmitted by the detecting device |
US10099315B2 (en) | 2014-06-27 | 2018-10-16 | Jabil Inc. | System, apparatus and method for hybrid function micro welding |
KR20160004073A (ko) * | 2014-07-02 | 2016-01-12 | 삼성전자주식회사 | 비휘발성 메모리 장치 및 그 구동 방법 |
JP6282188B2 (ja) | 2014-07-04 | 2018-02-21 | クラリオン株式会社 | 情報処理装置 |
GB2528044B (en) | 2014-07-04 | 2018-08-22 | Arc Devices Ni Ltd | Non-touch optical detection of vital signs |
US9552069B2 (en) | 2014-07-11 | 2017-01-24 | Microsoft Technology Licensing, Llc | 3D gesture recognition |
US10234952B2 (en) | 2014-07-18 | 2019-03-19 | Maxim Integrated Products, Inc. | Wearable device for using human body as input mechanism |
US9921660B2 (en) | 2014-08-07 | 2018-03-20 | Google Llc | Radar-based gesture recognition |
US9811164B2 (en) | 2014-08-07 | 2017-11-07 | Google Inc. | Radar-based gesture sensing and data transmission |
US9378353B2 (en) | 2014-08-07 | 2016-06-28 | Verizon Patent And Licensing Inc. | Methods and systems for determining a user identity by analysis of reflected radio frequency signals received by an antenna array |
WO2016023027A1 (en) | 2014-08-08 | 2016-02-11 | Orn, Inc. | Garment including integrated sensor components and feedback components |
US10268321B2 (en) | 2014-08-15 | 2019-04-23 | Google Llc | Interactive textiles within hard objects |
US9588625B2 (en) | 2014-08-15 | 2017-03-07 | Google Inc. | Interactive textiles |
US9870457B2 (en) | 2014-08-15 | 2018-01-16 | California Institute Of Technology | HERMA—heartbeat microwave authentication |
US20160054792A1 (en) | 2014-08-22 | 2016-02-25 | Google Inc. | Radar-Based Biometric Recognition |
US9778749B2 (en) | 2014-08-22 | 2017-10-03 | Google Inc. | Occluded gesture recognition |
US11169988B2 (en) | 2014-08-22 | 2021-11-09 | Google Llc | Radar recognition-aided search |
US11181637B2 (en) | 2014-09-02 | 2021-11-23 | FLIR Belgium BVBA | Three dimensional target selection systems and methods |
US10931934B2 (en) | 2014-09-02 | 2021-02-23 | FLIR Belgium BVBA | Watercraft thermal monitoring systems and methods |
US10073590B2 (en) | 2014-09-02 | 2018-09-11 | Apple Inc. | Reduced size user interface |
US11137490B2 (en) * | 2014-09-16 | 2021-10-05 | Teknologian Tutkimuskeskus Vtt | Navigational aid with adaptive radar |
US9849588B2 (en) | 2014-09-17 | 2017-12-26 | Brain Corporation | Apparatus and methods for remotely controlling robotic devices |
US9821470B2 (en) | 2014-09-17 | 2017-11-21 | Brain Corporation | Apparatus and methods for context determination using real time sensor data |
US20160085296A1 (en) | 2014-09-23 | 2016-03-24 | Intel Corporation | Wearable input device |
JP6206674B2 (ja) | 2014-09-24 | 2017-10-04 | 富士フイルム株式会社 | 診療支援装置、診療支援装置の作動方法および作動プログラム、並びに診療支援システム |
EP3202240B1 (en) | 2014-09-29 | 2024-04-17 | IMEC vzw | Smart textile product and method for fabricating the same |
US10694960B2 (en) | 2014-09-29 | 2020-06-30 | Microsoft Technology Licensing, Llc | Wearable pulse pressure wave sensing device |
US9315197B1 (en) | 2014-09-30 | 2016-04-19 | Continental Automotive Systems, Inc. | Hands accelerating control system |
JP6623218B2 (ja) | 2014-09-30 | 2019-12-18 | アップル インコーポレイテッドApple Inc. | ファブリック感知デバイス |
US9630318B2 (en) | 2014-10-02 | 2017-04-25 | Brain Corporation | Feature detection apparatus and methods for training of robotic navigation |
US9600080B2 (en) | 2014-10-02 | 2017-03-21 | Google Inc. | Non-line-of-sight radar-based gesture recognition |
GB201417536D0 (en) | 2014-10-03 | 2014-11-19 | Microsoft Corp | Adapting quantization |
US20160106328A1 (en) | 2014-10-16 | 2016-04-21 | Xerox Corporation | Determining arterial pulse transit time from time-series signals obtained at proximal and distal arterial sites |
US10055064B2 (en) | 2014-10-29 | 2018-08-21 | Sony Corporation | Controlling multiple devices with a wearable input device |
US10945663B2 (en) | 2014-11-04 | 2021-03-16 | North Carolina State University | Smart sensing systems and related methods |
US9398422B2 (en) | 2014-11-05 | 2016-07-19 | Beco, Inc. | Systems, methods and apparatus for light enabled indoor positioning and reporting |
KR102202600B1 (ko) | 2014-11-10 | 2021-01-13 | 한국전자통신연구원 | 레이더 신호 처리를 위한 빔 형성 장치 및 그 방법 |
US11069257B2 (en) | 2014-11-13 | 2021-07-20 | Smartdrive Systems, Inc. | System and method for detecting a vehicle event and generating review criteria |
US9733340B2 (en) | 2014-11-21 | 2017-08-15 | Texas Instruments Incorporated | Techniques for high arrival angle resolution using multiple nano-radars |
US20160090839A1 (en) | 2014-11-26 | 2016-03-31 | Larry G. Stolarczyk | Method of protecting the health and well-being of coal mine machine operators |
US9830073B2 (en) | 2014-12-12 | 2017-11-28 | Alpine Electronics, Inc. | Gesture assistive zoomable selector for screen |
US20160306034A1 (en) | 2014-12-23 | 2016-10-20 | Infineon Technologies Ag | RF System with an RFIC and Antenna System |
US10064582B2 (en) | 2015-01-19 | 2018-09-04 | Google Llc | Noninvasive determination of cardiac health and other functional states and trends for human physiological systems |
KR101560282B1 (ko) | 2015-03-06 | 2015-10-14 | 주식회사 휴이노 | 생체 신호 측정 및 측정된 생체 신호에 기초한 실시간 혈압 추정 모니터링 기능을 구비한 모바일 단말기 |
US9552097B2 (en) | 2015-01-28 | 2017-01-24 | Qualcomm Incorporated | Techniques for discerning between intended and unintended gestures on wearable touch-sensitive fabric |
US9753136B2 (en) | 2015-02-11 | 2017-09-05 | Motorola Mobility Llc | Portable electronic device with proximity sensors for gesture control and contact detection |
US10132920B2 (en) | 2015-02-16 | 2018-11-20 | Kenneth J Hintz | Dispersive object detector and clutter reduction device |
US9699663B1 (en) | 2015-02-20 | 2017-07-04 | Kathryn Jovancevic | Spectrum sharing system |
US10660382B2 (en) | 2015-02-27 | 2020-05-26 | Honeywell Safety Products Usa, Inc. | Apparatus, systems and methods for optimizing and masking compression in a biosensing garment |
US9817109B2 (en) | 2015-02-27 | 2017-11-14 | Texas Instruments Incorporated | Gesture recognition using frequency modulated continuous wave (FMCW) radar with low angle resolution |
US10168785B2 (en) | 2015-03-03 | 2019-01-01 | Nvidia Corporation | Multi-sensor based user interface |
US10016162B1 (en) | 2015-03-23 | 2018-07-10 | Google Llc | In-ear health monitoring |
US20160284436A1 (en) | 2015-03-26 | 2016-09-29 | Google Inc. | Conductive Thread for Interactive Textiles |
US9983747B2 (en) | 2015-03-26 | 2018-05-29 | Google Llc | Two-layer interactive textiles |
US20160283101A1 (en) | 2015-03-26 | 2016-09-29 | Google Inc. | Gestures for Interactive Textiles |
JP6421935B2 (ja) | 2015-03-31 | 2018-11-14 | パナソニックIpマネジメント株式会社 | 車両移動推定装置および車両移動推定方法 |
US10709383B2 (en) | 2015-04-02 | 2020-07-14 | Microsoft Technology Licnesing, Llc | Wrist-worn pulse transit time sensor |
US9848780B1 (en) | 2015-04-08 | 2017-12-26 | Google Inc. | Assessing cardiovascular function using an optical sensor |
CN114545355A (zh) | 2015-04-20 | 2022-05-27 | 瑞思迈传感器技术有限公司 | 由特征信号对人类的检测和识别 |
US20160321428A1 (en) | 2015-04-29 | 2016-11-03 | Google, Inc. | Customizable Health Monitoring |
KR102236958B1 (ko) | 2015-04-30 | 2021-04-05 | 구글 엘엘씨 | 제스처 추적 및 인식을 위한 rf―기반 마이크로―모션 추적 |
KR102327044B1 (ko) | 2015-04-30 | 2021-11-15 | 구글 엘엘씨 | 타입-애그노스틱 rf 신호 표현들 |
US10139916B2 (en) | 2015-04-30 | 2018-11-27 | Google Llc | Wide-field radar-based gesture recognition |
US10080528B2 (en) | 2015-05-19 | 2018-09-25 | Google Llc | Optical central venous pressure measurement |
US20160338599A1 (en) | 2015-05-22 | 2016-11-24 | Google, Inc. | Synchronizing Cardiovascular Sensors for Cardiovascular Monitoring |
US10088908B1 (en) | 2015-05-27 | 2018-10-02 | Google Llc | Gesture detection and interactions |
US9693592B2 (en) | 2015-05-27 | 2017-07-04 | Google Inc. | Attaching electronic components to interactive textiles |
US20160349845A1 (en) | 2015-05-28 | 2016-12-01 | Google Inc. | Gesture Detection Haptics and Virtual Tools |
US10376195B1 (en) | 2015-06-04 | 2019-08-13 | Google Llc | Automated nursing assessment |
US9778353B2 (en) | 2015-06-24 | 2017-10-03 | Htc Corporation | Handheld device, object positioning method and computer-readable recording medium |
US20180296163A1 (en) | 2015-07-27 | 2018-10-18 | Google Inc. | Altering Physiological Signals Based On Patient Movement |
US9807619B2 (en) | 2015-08-04 | 2017-10-31 | Network Performance Research Group Llc | Methods and apparatuses for use of simultaneous multiple channels in the dynamic frequency selection band in wireless networks |
KR101938215B1 (ko) | 2015-08-26 | 2019-01-14 | 주식회사 퓨처플레이 | 스마트 인터렉션 장치 |
US10063427B1 (en) | 2015-09-14 | 2018-08-28 | Amazon Technologies, Inc. | Visualizing and interacting with resources of an infrastructure provisioned in a network |
CN107066128A (zh) | 2015-09-15 | 2017-08-18 | 新益先创科技股份有限公司 | 具电容感应功能的穿戴式装置及交互式机器宠物 |
US20170097684A1 (en) | 2015-10-06 | 2017-04-06 | Google, Inc. | Compressed Sensing for Gesture Tracking and Recognition with Radar |
US10817065B1 (en) | 2015-10-06 | 2020-10-27 | Google Llc | Gesture recognition using multiple antenna |
US9864918B2 (en) | 2015-11-04 | 2018-01-09 | Ford Global Technologies, Llc | Predicting vehicle movements based on driver body language |
WO2017079484A1 (en) | 2015-11-04 | 2017-05-11 | Google Inc. | Connectors for connecting electronics embedded in garments to external devices |
KR102137213B1 (ko) | 2015-11-16 | 2020-08-13 | 삼성전자 주식회사 | 자율 주행을 위한 모델 학습 장치 및 방법과 자율 주행 장치 |
US9990078B2 (en) | 2015-12-11 | 2018-06-05 | Immersion Corporation | Systems and methods for position-based haptic effects |
WO2017192167A1 (en) | 2016-05-03 | 2017-11-09 | Google Llc | Connecting an electronic component to an interactive textile |
WO2017200570A1 (en) | 2016-05-16 | 2017-11-23 | Google Llc | Interactive object with multiple electronics modules |
US20170329412A1 (en) | 2016-05-16 | 2017-11-16 | Google Inc. | Systems and Methods of Gesture-Based Control |
WO2017200949A1 (en) | 2016-05-16 | 2017-11-23 | Google Llc | Interactive fabric |
US11003345B2 (en) | 2016-05-16 | 2021-05-11 | Google Llc | Control-article-based control of a user interface |
US20180005766A1 (en) | 2016-07-01 | 2018-01-04 | Wisconsin Alumni Research Foundation | Conductive textiles and related devices |
CN106154270A (zh) | 2016-09-07 | 2016-11-23 | 深圳市保千里电子有限公司 | 雷达分时检测目标的方法 |
US20180113032A1 (en) | 2016-10-11 | 2018-04-26 | North Carolina State University | Flexible stretchable capacitive sensor |
US10579150B2 (en) | 2016-12-05 | 2020-03-03 | Google Llc | Concurrent detection of absolute distance and relative movement for sensing action gestures |
US11514573B2 (en) | 2019-11-27 | 2022-11-29 | Shanghai United Imaging Intelligence Co., Ltd. | Estimating object thickness with neural networks |
JP7496203B2 (ja) | 2019-11-28 | 2024-06-06 | 株式会社Lixil | 便器装置 |
-
2016
- 2016-04-07 US US15/093,533 patent/US10817065B1/en active Active
- 2016-04-29 US US15/142,471 patent/US10823841B1/en active Active
- 2016-10-05 US US15/286,152 patent/US10379621B2/en active Active
- 2016-10-05 US US15/286,495 patent/US10300370B1/en active Active
- 2016-10-05 US US15/286,512 patent/US10401490B2/en active Active
- 2016-10-06 KR KR1020187004283A patent/KR102245190B1/ko active IP Right Grant
- 2016-10-06 JP JP2018501256A patent/JP6694053B2/ja active Active
- 2016-10-06 CN CN202110884929.5A patent/CN113655471B/zh active Active
- 2016-10-06 US US15/287,394 patent/US10705185B1/en active Active
- 2016-10-06 US US15/287,155 patent/US10459080B1/en active Active
- 2016-10-06 US US15/287,308 patent/US10503883B1/en active Active
- 2016-10-06 KR KR1020217011901A patent/KR102352236B1/ko active IP Right Grant
- 2016-10-06 CN CN201680038897.4A patent/CN107710012B/zh active Active
- 2016-10-06 US US15/287,200 patent/US10222469B1/en active Active
- 2016-10-06 KR KR1020227001176A patent/KR102377488B1/ko active IP Right Grant
- 2016-10-06 US US15/287,253 patent/US10540001B1/en active Active
- 2016-10-06 EP EP16784352.3A patent/EP3359976A1/en active Pending
- 2016-10-06 US US15/286,837 patent/US10310621B1/en active Active
- 2016-10-06 US US15/287,359 patent/US11080556B1/en active Active
- 2016-10-06 WO PCT/US2016/055671 patent/WO2017062566A1/en unknown
-
2019
- 2019-04-10 US US16/380,245 patent/US10908696B2/en active Active
- 2019-05-02 US US16/401,611 patent/US10768712B2/en active Active
- 2019-07-03 US US16/503,234 patent/US11132065B2/en active Active
- 2019-11-20 US US16/689,519 patent/US11256335B2/en active Active
-
2020
- 2020-02-20 JP JP2020027181A patent/JP6889293B2/ja active Active
- 2020-05-15 US US16/875,427 patent/US11385721B2/en active Active
- 2020-08-27 US US17/005,207 patent/US11175743B2/en active Active
- 2020-12-11 US US17/119,312 patent/US11656336B2/en active Active
-
2021
- 2021-05-20 JP JP2021085256A patent/JP7257447B2/ja active Active
- 2021-06-29 US US17/361,824 patent/US11481040B2/en active Active
- 2021-08-04 US US17/394,241 patent/US12117560B2/en active Active
- 2021-09-28 US US17/488,015 patent/US11698438B2/en active Active
- 2021-10-13 US US17/500,747 patent/US11698439B2/en active Active
- 2021-10-20 US US17/506,605 patent/US11592909B2/en active Active
- 2021-11-10 US US17/523,051 patent/US11693092B2/en active Active
-
2023
- 2023-05-04 US US18/312,509 patent/US12085670B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120280900A1 (en) * | 2011-05-06 | 2012-11-08 | Nokia Corporation | Gesture recognition using plural sensors |
US20150185314A1 (en) * | 2013-12-26 | 2015-07-02 | International Business Machines Corporation | Radar integration with handheld electronic devices |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102245190B1 (ko) | 레이더-사용가능 센서 퓨전 | |
US11561519B2 (en) | Systems and methods of gestural interaction in a pervasive computing environment | |
US11914792B2 (en) | Systems and methods of tracking moving hands and recognizing gestural interactions | |
CN110301118A (zh) | 用于智能助理计算设备的位置校准 | |
EP3855599A1 (en) | Systems and methods of object detection in wireless power charging systems | |
CN110178101A (zh) | 虚拟传感器配置 | |
Grosse-Puppendahl | Capacitive sensing and communication for ubiquitous interaction and environmental perception | |
US11630569B2 (en) | System, method and devices for touch, user and object sensing for IoT experiences |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |