JP2024504041A - ウェアラブル脳波センサーおよびそれを用いた機器制御方法 - Google Patents
ウェアラブル脳波センサーおよびそれを用いた機器制御方法 Download PDFInfo
- Publication number
- JP2024504041A JP2024504041A JP2023540799A JP2023540799A JP2024504041A JP 2024504041 A JP2024504041 A JP 2024504041A JP 2023540799 A JP2023540799 A JP 2023540799A JP 2023540799 A JP2023540799 A JP 2023540799A JP 2024504041 A JP2024504041 A JP 2024504041A
- Authority
- JP
- Japan
- Prior art keywords
- features
- image
- electronic device
- images
- machine learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 127
- 210000004556 brain Anatomy 0.000 title claims abstract description 23
- 230000007177 brain activity Effects 0.000 claims abstract description 41
- 230000008569 process Effects 0.000 claims abstract description 12
- 238000001514 detection method Methods 0.000 claims abstract description 7
- 238000010801 machine learning Methods 0.000 claims description 73
- 238000004891 communication Methods 0.000 claims description 45
- 230000004044 response Effects 0.000 claims description 41
- 238000012549 training Methods 0.000 claims description 32
- 238000012545 processing Methods 0.000 claims description 23
- 230000015654 memory Effects 0.000 claims description 18
- 238000005259 measurement Methods 0.000 claims description 15
- 238000013528 artificial neural network Methods 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 12
- 210000000624 ear auricle Anatomy 0.000 claims description 4
- 238000010586 diagram Methods 0.000 abstract description 6
- 230000006870 function Effects 0.000 description 20
- 238000003384 imaging method Methods 0.000 description 18
- 238000013135 deep learning Methods 0.000 description 13
- 210000003128 head Anatomy 0.000 description 11
- 230000033001 locomotion Effects 0.000 description 7
- 230000004913 activation Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 230000007423 decrease Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 238000001816 cooling Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 239000000499 gel Substances 0.000 description 3
- 230000004886 head movement Effects 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000009849 deactivation Effects 0.000 description 2
- 229920001971 elastomer Polymers 0.000 description 2
- 239000000806 elastomer Substances 0.000 description 2
- 210000001652 frontal lobe Anatomy 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 229920001296 polysiloxane Polymers 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 210000004761 scalp Anatomy 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- 210000003478 temporal lobe Anatomy 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 230000001054 cortical effect Effects 0.000 description 1
- 238000000537 electroencephalography Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000003306 harvesting Methods 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000009428 plumbing Methods 0.000 description 1
- 239000012858 resilient material Substances 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 210000003625 skull Anatomy 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05B—ELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
- H05B47/00—Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
- H05B47/10—Controlling the light source
- H05B47/105—Controlling the light source in response to determined parameters
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05B—ELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
- H05B47/00—Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
- H05B47/10—Controlling the light source
- H05B47/175—Controlling the light source by remote control
- H05B47/19—Controlling the light source by remote control via wireless transmission
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Computer Hardware Design (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Neurology (AREA)
- Dermatology (AREA)
- Neurosurgery (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
Abstract
【要約】本明細書では、検出された脳活動に基づいて電子装置を制御するシステムおよび方法が開示される。たとえば、システムには、一連の乾式EEGセンサー、カメラ、プロセッサ、およびプログラミング命令を備えたウェアラブル耳かけ型電子装置が含まれる。プログラミング命令により、プロセッサはカメラから画像を受信し、その画像を処理して既知の装置に対応する特徴を識別し、EEGセンサーから脳波信号を受信する。このシステムは、脳波信号を比較して脳活動のレベルを測定する。(a)既知の装置に対応する特徴と、(b)少なくとも閾値レベルだけベースラインから逸脱する脳活動レベルの両方が検出されると、システムは、既知の装置を作動させ、前記既知の装置のコントローラにコマンド信号を送信させるように構成されたコマンド信号を生成する。【選択図】 図1
Description
(関連出願への相互参照)
本出願は、2021年11月5日に出願された米国特許出願第17/520,255号および2021年11月5日に出願された米国特許出願第17/520,237号に対する優先権を主張し、両出願は、2020年12月30日に提出された米国仮出願第63/132,001号の35U.S.C.§119(e)に基づく優先権を主張し、その開示内容全体が参照により本明細書に組み込まれる。
本出願は、2021年11月5日に出願された米国特許出願第17/520,255号および2021年11月5日に出願された米国特許出願第17/520,237号に対する優先権を主張し、両出願は、2020年12月30日に提出された米国仮出願第63/132,001号の35U.S.C.§119(e)に基づく優先権を主張し、その開示内容全体が参照により本明細書に組み込まれる。
脳波検査は、人間の頭皮上の電気活動を非侵襲的に記録する電気生理学的モニタリング方法であり、その下の脳の表層の巨視的な活動を表すことが示されている。ブレイン・コンピュータ・インターフェイス(BCI)は、脳信号をマシンコマンドに変換することにより、ユーザーが外部環境と対話するのに役立つ通信システムである。脳波(EEG)信号の使用は、その使いやすさと信頼性により、BCIの最も一般的なアプローチとなっている。しかし、既存のBCIは、通常の日常活動中に着用するには不快、不体裁、および/または扱いにくい傾向がある。
本明細書は、上述したような問題および/または他の問題に対処する方法およびシステムについて説明する。
本開示は、ウェアラブル脳波センサーおよび関連する装置制御方法、および環境内の制御可能な物体のデータベースを開発する方法に関する実施形態を説明する。一実施形態では、人の脳波を検出するシステムが開示される。このシステムは、人の耳にフィットするように構成されたハウジングを含む。ハウジングは、耳上のブリッジと、ブリッジから人のこめかみ上の位置まで前方に延びる第1の部分と、ブリッジから後方に延びる第2の部分とを含む。このシステムはさらに、第2の部分に配置された第1の乾式脳波(EEG)センサーと、第1の部分に配置された第2の乾式EEGセンサーと、電源と、プロセッサと、プロセッサと通信するカメラと、プロセッサと通信する送信機とを含む。
本開示の実装には、以下の任意選択の機能が1つ以上含まれてよい。いくつかの実施形態では、カメラは第1の部分に配置され、ハウジングを耳に装着したときに人の視野内の物体の画像を取り込むように構成される。いくつかの実装形態では、システムは、ハウジングから下方に延在し、人が装着したときに耳たぶの下にフィットするように配置された可撓性イヤピースと、可撓性イヤピース内に配置された第3の乾式EEGセンサーとを含む。このシステムは、ハウジング内に配置された位置センサーまたは配向センサーをさらに含むことができる。いくつかの例では、システムは、ハウジング内に配置されたメモリを含む。メモリは、既知の装置に関連付けられた特徴、つまり既知の装置の取り込まれた画像から抽出された特徴を表すデータを含むデータストアを保持することができる。
一実施形態では、環境内の1つ以上の物体を制御する方法が開示される。この方法は、電子装置のプロセッサによって、EEGセンサーを有する電子装置のカメラから画像を受信する工程と、既知の装置に対応する特徴を識別するために画像を処理するステップとを含む。この方法は、少なくとも2つのEEGセンサーから脳波信号を受信する工程と、脳波信号を比較して脳活動のレベルを測定する工程とを含む。(a)既知の装置に対応する特徴と、(b)少なくとも閾値レベルだけベースラインから逸脱する脳活動レベルの両方が検出されると、この方法は、既知の装置を作動させるように構成されたコマンド信号を生成し、コマンド信号を既知の装置(または既知の装置のコントローラ)に送信する工程を含む。
本開示の実装には、以下の任意選択の特徴のうちの1つまたは複数を含めることができる。いくつかの実装形態では、既知の装置に対応する特徴を識別するために画像を処理する工程は、画像から1つ以上の画像特徴を抽出する工程と、その画像特徴を、既知の装置の以前に取り込まれた画像から抽出された1つ以上の既知の特徴と比較する工程を含む。画像特徴を1つ以上の既知の特徴と比較する工程は、少なくとも閾値数の画像特徴が既知の特徴に対応することを決定する工程を含む。この特徴には、既知の装置の表面に刻印されたシンボルまたはシンボルのパターンを含んでもよい。この方法は、画像を毎秒少なくとも2回の速度で受信する工程をさらに含むことができる。
いくつかの例では、電子装置は、慣性測定ユニット(IMU)を含み、方法は、既知の装置が調整可能な設定点を有するとの決定に応答して、IMUを使用して設定点を調整する工程をさらに含む。いくつかの例では、電子装置は慣性測定ユニット(IMU)を含み、方法は、既知の装置が電子ユーザーインターフェースであるとの決定に応答して、IMUを使用して、作動が起こる電子ユーザーインターフェース上の位置を選択する工程をさらに含む。
一実施形態では、環境内の1つ以上の物体を制御するシステムが開示される。このシステムには、一組の乾式EEGセンサー、カメラ、プロセッサ、およびプログラミング命令を備えたウェアラブル耳かけ型電子装置が含まれる。プログラミング命令は、プロセッサがカメラから画像を受信し、その画像を処理して既知の装置に対応する特徴を識別し、少なくとも2つのEEGセンサーから脳波信号を受信するように構成される。このシステムは脳波信号を比較して脳活動のレベルを測定する。(a)既知の装置に対応する特徴と、(b)少なくとも閾値レベルだけベースラインから逸脱した脳活動レベルの両方が検出されると、システムは既知の装置を作動させるように構成されたコマンド信号を生成し、既知の装置(または既知の装置のコントローラ)へコマンド信号を送信する。
本開示の実装には、以下の任意選択の機能が1つ以上含まれてもよい。脳波信号にはベータ波信号が含まれてもよい。既知の装置に対応する特徴には、既知の装置の表面の形状が含まれ得る。この特徴には、既知の装置の表面に刻印されたシンボルまたはシンボルのパターンが含まれる場合がある。いくつかの例では、システムは、慣性測定ユニット(IMU)と、既知の装置が調整可能な設定点を有するとの決定に応答して、プロセッサに、IMUを使用して設定点を調整させるように構成された追加のプログラミング命令とをさらに含む。いくつかの例では、システムは、慣性測定ユニット(IMU)と、既知の装置が電子ユーザーインターフェースであるとの決定に応答してプロセッサに、IMUを使用して作動が起こる電子ユーザーインターフェイス上の位置を選択させるように構成された追加のプログラミング命令とをさらに含む。
ウェアラブル耳かけ型電子装置は、人の耳にフィットするように構成されたハウジングをさらに含むことができ、ハウジングは、耳の上にブリッジを含み、ブリッジから人のこめかみ上の位置まで前方に延在する第1の部分、およびブリッジから後方に延びる第2の部分をさらに含む。ウェアラブル耳かけ型電子装置は、第2の部分に配置された第1の乾式脳波(EEG)センサーと、第1の部分に配置された第2の乾式EEGセンサーと、電源と、プロセッサと通信する送信機とをさらに含み得る。
ウェアラブル耳かけ型電子装置は、既知の装置に対応する既知の特徴を含むデータストアをさらに含んでもよく、既知の特徴は、既知の装置の以前に取り込まれた画像から抽出されたものである。プログラミング命令は、受信した画像から1つ以上の画像特徴を抽出し、その画像特徴を既知の特徴と比較して既知の装置を識別するための命令を含むことができる。画像特徴を既知の特徴と比較する命令は、閾値数の画像特徴が既知の特徴に対応することを決定する命令を含むことができる。
一実施形態では、環境内の物体のデータベースを開発する方法が開示される。この方法は、カメラを備えたモバイル装置を使用して、環境内の物体の画像を取り込む工程を含む。各物体について、この方法は、ユーザーインターフェースを介して、物体のユーザーによる選択を受信する工程と、ユーザーによる選択の受信に応答して、物体の認識可能な特徴のパターンを作成する工程とを含む。認識可能な特徴のパターンは、1つ以上の画像内の物体に関連する特徴を識別し、その特徴をモバイル装置とウェアラブル電子装置の間の通信リンクを介してウェアラブル電子装置に送信し、パターンをウェアラブル電子装置のデータストアに保存することによって作成される。
本開示の実装には、以下の任意選択の機能が1つ以上含まれる場合がある。いくつかの例では、方法は、選択された物体に関連付けられた実行可能コマンドを受信する工程と、通信リンクを介して実行可能コマンドをウェアラブル電子装置に送信する工程とをさらに含み、これにより、ウェアラブル電子装置に実行可能コマンドをパターンに関連付けさせる。実行可能コマンドは、ウェアラブル電子装置によって実行されると、ウェアラブル電子装置に物体の設定を調整させることができる。特徴を識別する工程は、1つ以上の画像内の1つ以上のキーポイントを特定する工程と、キーポイントに識別子を割り当てる工程を含むことができる。識別子には、バイナリロバスト独立基本特徴(BRIEF)記述子が含まれる場合がある。物体のユーザーによる選択を受信する工程は、物体の画像のユーザーによる選択を受信する工程を含んでもよい。
一実施形態では、機械学習モデルをトレーニングする方法が開示される。この方法は、カメラを備えたモバイル装置を使用して、環境内の物体の画像を取り込む工程を含む。各物体について、この方法は、ユーザーインターフェースを介して物体のユーザーによる選択を受信する工程と、選択された物体に関連付けられたコマンドを受信する工程と、ユーザーによる選択の受信に応答して、物体を認識するように機械学習モデルをトレーニングする工程とを含む。この方法は、物体の複数の画像を受け取り、複数の画像に基づいて機械学習モデルをトレーニングすることによって、物体を認識するように機械学習モデルをトレーニングする。この方法は、モバイル装置とウェアラブル電子装置との間の通信リンクを介して、トレーニングされたモデルおよびコマンドをウェアラブル電子装置に送信し、ウェアラブル電子装置にトレーニングされた機械学習モデルをウェアラブル電子装置内のデータストアに保存させ、コマンドをトレーニングされた機械学習モデルに関連付けさせる工程を含む。
本開示の実装には、以下の任意選択の機能が1つ以上含まれる場合がある。ウェアラブル電子装置にコマンドをトレーニングされた機械学習モデルに関連付けさせる工程は、トレーニングされた機械学習モデルがウェアラブル電子装置によって取り込まれた画像内の物体を認識することに応答して、ウェアラブル電子装置にコマンドを実行させることができる。コマンドが実行されると、物体が第1の状態から別の状態に変化してもよい。機械学習モデルにはニューラルネットワークが含まれる場合がある。複数の画像を受信する工程は、複数の角度で物体のビデオを撮影することを含むことができる。機械学習モデルは、物体が画像内に存在する確率を決定するように構成されることができ、機械学習モデルは、決定された確率が確率閾値を満たす場合に物体を認識するようにさらに構成されてもよい。
この方法は、複数の画像のうちの1つ以上の関心領域を決定することと、1つ以上の関心領域内の複数の画像の部分に基づいて機械学習モデルをトレーニングすることとをさらに含み得る。いくつかの例では、この方法は、選択された物体の基準画像を受信することと、基準画像内の選択された物体に関連する基準特徴を識別することとを含む。この方法は、複数の画像のうちの1つ以上の画像内の物体の周囲に境界ボックスを構築すること、境界ボックス内の各画像の部分から特徴を抽出すること、および抽出された特徴を基準特徴と比較することをさらに含むことができる。基準特徴と一致する抽出された特徴の閾値数に応じて、この方法は、境界ボックス内の画像の部分について機械学習モデルをトレーニングすることを含むことができる。いくつかの例では、方法は、抽出された特徴の閾値数が基準特徴と一致するまで、物体の周囲の境界ボックスの寸法、位置、または向きを調整することを含む。この方法は、複数の画像のうちの1つ以上の画像内の物体の周囲に境界ボックスを構築する工程と、境界ボックス内の各画像の部分から特徴を抽出する工程と、抽出された特徴を基準特徴と比較する工程とをさらに含む。閾値数の抽出された特徴が基準特徴と一致することに応じて、この方法は、境界ボックス内の画像の部分について機械学習モデルをトレーニングする工程をさらに含む。いくつかの例では、方法は、閾値数の抽出された特徴が基準特徴と一致するまで、物体の周囲の境界ボックスの寸法、位置、または向きを調整する工程を含む。
一実施形態では、機械学習モデルをトレーニングするためのシステムが開示される。このシステムは、環境内の物体の画像を取り込むためのカメラを備えたモバイル装置を含む。モバイル装置は、ユーザーインターフェースを介して物体のユーザーによる選択を受信し、選択された物体に関連付けられたコマンドを受信し、物体を認識するように機械学習モデルをトレーニングするように構成されている。このシステムは、物体の複数の画像を受信し、複数の画像に基づいて機械学習モデルをトレーニングし、トレーニングされたモデルとコマンドをモバイル装置とウェアラブル電子装置の間の通信リンクを介してウェアラブル電子装置に送信し、ウェアラブル電子装置に、トレーニングされた機械学習モデルをウェアラブル電子装置内のデータストアに保存し、コマンドをトレーニングされた機械学習モデルに関連付けさせることによって、物体を認識するように機械学習モデルをトレーニングする。
本開示の実装には、以下の任意選択の機能が1つ以上含まれてもよい。複数の画像を受信することは、複数の角度で物体のビデオを撮影することを含むことができる。モバイル装置は、複数の画像のうちの1つ以上の関心領域を決定し、1つ以上の関心領域内の複数の画像の部分に基づいて機械学習モデルをトレーニングするようにさらに構成される。いくつかの例では、モバイル装置は、選択された物体の基準画像を受信し、基準画像内の選択された物体に関連する基準特徴を識別するように構成される。モバイル装置は、複数の画像のうちの1つ以上の画像内の物体の周囲に境界ボックスを構築し、境界ボックス内の各画像の部分から特徴を抽出し、抽出された特徴を基準特徴と比較することができる。閾値数の抽出された特徴が基準特徴に一致することに応じて、モバイル装置は、境界ボックス内の画像の部分について機械学習モデルをトレーニングすることができる。モバイル装置は、閾値数の抽出された特徴が基準特徴と一致するまで、物体の周囲の境界ボックスの寸法、位置、または向きを調整するように構成される。
本明細書で使用されている単数形「a」、「an」、「the」には、文脈上明らかに別段の指示がない限り、複数形も含まれる。他に定義されない限り、本明細書で使用されるすべての技術用語および科学用語は、当業者によって一般に理解されるのと同じ意味を有する。本明細書で使用される「comprising有する」(または「comprises」)という用語は、「including含む(またはincludes)」が、これに限定されないことを意味する。本明細書で使用される「例示的な」という用語は、「例として」を意味するものであり、特定の例示的な項目が好ましい、または必要であることを示すものではない。
本明細書では、「第1」や「第2」などの用語が名詞や語句を修飾するために使用される場合、そのような使用は単にある項目を別の項目から区別することを目的としており、特に記載がない限り、順序を要求することを意図したものではない。「約」という用語は、数値に関連して使用される場合、その数値に近いが、正確には数値ではない値を含むことを意図している。例えば、いくつかの実施形態では、「約」という用語は、その値の±10パーセント以内の値を含み得る。
本開示は、一般に、環境内の制御可能な物体のデータベースを開発し、脳活動を検出し、検出された脳活動に基づいて1つ以上の電気または電子装置を制御するための方法およびシステムに関する。図1は、脳活動に基づいて装置130を制御するための例示的な環境100を示す。環境100は、ウェアラブルEEG装置200に関連付けられたユーザー102を含む。ここで、ウェアラブルEEG装置200は、ユーザー102の耳に取り付けられ、1つ以上のEEGセンサー220(図2)によって脳活動をモニターするようの構成されている。ウェアラブルEEG装置200は、装置130の1つ以上の機能または特性を制御できる装置コントローラ120と無線通信している。無線通信は、近距離無線通信(NFC)、ブルートゥース(登録商標)、WiFi、赤外線(IrDA)などの通信プロトコル、または情報を無線で送信および/または受信できるその他の技術に準拠することができる。装置コントローラ120は、命令を受信し、その命令の受信に応答して、その命令に従って装置130を制御、動作、または調整することができる。この例では、装置コントローラ120は、電球をオンおよびオフにすることができる。他の例では、装置コントローラ120は、環境制御システムの温度設定、またはテレビまたはオーディオシステムの放送局および/または音量などの設定値を調整することができる。装置コントローラ120は、設定の時間プロファイルなど、より複雑なパラメータを調整することができる。装置コントローラ120はまた、コンピュータ画面上のカーソルまたは他の物体の位置、またはカウントダウンタイマーの残り時間などの仮想設定を調整することもできる。装置コントローラ120は、装置130の状態を変化させることができるスイッチ、トランジスタ、または別の装置(マイクロプロセッサまたは集積回路など)を含む。例えば、装置コントローラ120は、装置130と電源とを含む回路を閉じ、また装置130と電源との間の回路を開いて、装置をオンおよびオフにすることができる。装置コントローラ120はまた、光の明るさ制御、音量制御、ファン速度制御、または他の制御装置など、装置130の1つ以上の機能を調整できる回路を含んでもよい。装置コントローラ120によって制御され得る装置130の他の例には、遠隔制御のドア、窓、天窓、ブラインドまたはシェードなど、トースター、ブレンダー、オーブン、レンジトップ、生ごみ処理機、ゴミ圧縮機等のキッチン家電、シンク、シャワー、トイレなどの配管装置、スマートプラグなどのモノのインターネット(IoT)装置、およびコンピュータを使用して制御できるその他の装置が含まれる。
いくつかの実施形態では、ウェアラブルEEG装置200は、ユーザー102に関連付けられたコンピューティング装置104と無線通信する。コンピューティング装置104は、装置130の1つ以上の機能または特性を直接制御することができる。有線または無線の通信チャネルを使用して装置に命令を送信する。例えば、コンピューティング装置104は、オーディオ、ビデオ、または他の電子機器を制御するために、例えば装置の状態を変更させるために、赤外線またはRF信号を送信することができる。たとえば、装置がテレビの場合、コマンドは、テレビの電源スイッチを操作して、オンからオフに切り替えること、またはその逆、または別の局に変更することができる。コンピューティング装置104は、仮想アシスタントなどの音声制御装置に音声信号を送信することもできる。あるいは、コンピューティング装置104は、装置コントローラ120と通信し、コンピューティング装置104が装置コントローラ120を介して装置130の1つ以上の機能または特性を制御できるようにしてもよい。例えば、コンピューティング装置104は、スマートコンセントをオンまたはオフにするため、またはオーブン、ポット、衣類洗濯機/乾燥機、冷蔵庫、ガレージドアオープナー、食器洗い機、掃除機、警報システム、空調システムなどのスマート家電を制御するための信号(光信号または命令による通信など)を送信することができる。コンピューティング装置の例には、スマートフォン、タブレット、ラップトップコンピュータ、またはウェアラブルEEG装置200と無線通信し、装置コントローラ120とインターフェースすることによって装置130の1つ以上の機能または特性を直接的または間接的に制御することができる他の装置が含まれる。
ウェアラブルEEG装置200はまた、撮像システム240の視野114内の物体の画像を受信することができるカメラなどの撮像システム240(図2)を含む。撮像システム240は、ユーザーの視野内の物体の画像を取り込むように構成される。ここで、電球は撮像システム240の視野114内にある。ウェアラブルEEG装置200は、ユーザー102がユーザーの視野内の物体に焦点を合わせていることを示すユーザー102の脳活動を検出することができる(例:電球)。脳活動の検出に応答して、ウェアラブルEEG装置200は、装置コントローラ120に信号を送信し、装置コントローラ120に照明を点灯させることができる。この信号は、装置コントローラ120のプロセッサによって受信されると、プロセッサが装置コントローラ120に動作(装置130のオンまたはオフ等)を開始させるなどのアクションを実行させる、プログラミング命令および/またはエンコードされたデータパケットを転送するデジタル信号であってもよい。この信号はまた、装置コントローラ120によって受信され、そのプロセッサによって認識されると、プロセッサに装置のアクティブ化または非アクティブ化、または装置130の状態の変更を引き起こすパルスの時限シーケンス(変調された赤外線信号のパルスなど)であってもよい。
図2は、ウェアラブルEEG装置200の一例を示す。装置200は、装置200の他の構成要素を支持および/または収容するハウジング210を含む。ハウジング210は、ユーザー102の耳に装着されるように構成される。プラスチックなどの硬質または半硬質の材料から形成され、ユーザーの頭の側面に適合するように湾曲またはその他の形状にすることができる。
ハウジング210は、前部セクション211、中央セクション212、および後部セクション213を備えた細長い構造であってもよい。装置がユーザーの耳に装着されると、前部セクション211はユーザーの耳からユーザーの顔に向かって延び、そして後部セクション211は、ユーザーの耳からユーザーの後頭部および/または首の後ろに向かって延びる。中央セクション212は、前方セクション211と後方セクション213を結合することによってユーザーの耳の上のブリッジとして機能し、耳の上、耳輪の後ろ(および任意選択で耳輪から上方に延びる)に配置されるようにサイズ設定および配置された半円形のくぼみ230を含む。任意選択で、半円形のくぼみ230は、より快適なフィット感を提供し、使用中にユーザーの耳から装置の落下を防止するために、ゲル、シリコーンなどのエラストマー、または他の弾性もしくはゴム状材料、または他の弾性材料で形成されたライナー235を含んでもよい。
ハウジング210は、2つ以上のEEGセンサーおよび撮像システム240のための取り付け位置を含み得る。ここでは、乾式EEGセンサーである3つのEEGセンサー220a、220b、220cがハウジング210に取り付けられる(本明細書では、番号220を使ってまとめてEEGセンサーを指す)。乾式EEGセンサーは、導電性ゲルまたはペーストを使用せずに動作できる。しかしながら、湿式EEGセンサーであるEEGセンサーも本開示の範囲内である。いくつかの例では、ウェアラブルEEG装置200は、頭皮電極の位置を記述する国際10-20システムの位置T4、F8、およびA2の近くに3つのEEGセンサー220a、220b、220cをそれぞれ配置するように構成されている。
図示されるように、第1のEEGセンサー220aは、ウェアラブルEEG装置200がユーザー102によって着用されるときに、第1のEEGセンサー220aがユーザーの脳の側頭葉の上のユーザーの耳の後ろの位置でユーザー102と接触するように(つまり、耳輪の下、または耳輪とユーザーの頭の後ろの間の位置)、ハウジング210の中央セクション212に取り付けられる。
第2のEEGセンサー220bは、第2のEEGセンサー220bがユーザーの脳の前頭葉上のユーザーのこめかみまたはその近くの位置でユーザー102と接触するように、ハウジング210の前部セクション211に取り付けられる。
第3のEEGセンサー220cは、第3のEEGセンサー220cが、第1のEEGセンサー220aおよび第2のEEGセンサーの位置よりもユーザーの頭部の相対的に低い位置でユーザー102に接触するように、ハウジング210に取り付けられる。例えば、第3のEEGセンサー220cの位置は、装着時にユーザーの耳たぶの下にある位置に対応してもよい。
いくつかの例では、第3のEEGセンサー220cは、ハウジング210の中央セクション212または後部セクション213のいずれかから離れて(例えば、下方に)延在する可撓性イヤピース250上に取り付けられる。可撓性イヤピース250は、ゲル、シリコーンなどのエラストマー、または他の弾性もしくはゴム状材料、または他の材料から形成されてもよく、ライナー235と一体であっても、ライナー235とは別個であってもよい。可撓性イヤピース250は、ハウジング210内の電気部品から第3のEEGセンサー220cにつながる配線を含んでもよい。
いくつかの例では、配線はBenecreatのアルミニウム配線を含む。可撓性イヤピース250は、さらなる快適さを提供するために布および/またはパッドで覆われてもよい。可撓性イヤピース250は、ウェアラブルEEG装置200をユーザー102の耳の上に配置し、ウェアラブルEEG装置200をユーザー102にしっかりと取り付けることを容易にするために曲げることができる。いくつかの例では、可撓性イヤピース250は、活発な活動中であっても、ウェアラブルEEG装置をユーザー102に固定することができる。可撓性イヤピース250は、ユーザー102がウェアラブルEEG装置200を装着しているときに、ユーザー102の耳にグリップ力を加え得る。いくつかの例では、ハウジング210は、可撓性イヤピース250のグリップ力をEEGセンサー220に移すように構成され、これにより、EEGセンサー220がユーザー102にしっかりと押し付けられ、強力なEEG信号の受信が容易になる。
図1および図2を一緒に参照すると、撮像システム240は、ハウジング210の前部セクション211の前部に取り付けられており、レンズはユーザーの顔に向かって配置され、撮像の視野114内の物体の画像を取り込むように構成されている。撮像システム240は、ユーザー102がウェアラブルEEG装置200を装着しているときに、視野114がユーザー102の目の視野内にある装置130を含むように、ハウジング210に取り付けられてもよい。
ハウジング210は、例えばコンポーネントを損傷または危険にさらされることから保護するために、ウェアラブルEEG装置200の他のコンポーネントを囲んでもよい。コンポーネントには、図10に示されるような部品が含まれてもよく、送信機を含む通信装置1010、送信機と通信するプロセッサ1005、EEGセンサー(図2の220、図10の1020)、および撮像システム(図2の240、図10の1040)を含む。コンポーネントには、信号調整コンポーネント(例えば、バンドパスフィルタ)などの配線およびインターフェースコンポーネントも含まれ得、その一部は、ハウジング210内に封入されたプリント回路基板(PCB)上に実装できる。プロセッサ1005は、関連するメモリを有してもよく、これには、実行されるとプロセッサ1005に、脳活動を検出し、検出された脳活動に基づいて1つ以上の装置130を制御するなどの方法を実行させるプログラミング命令を含む。構成要素はまた、ウェアラブルEEG装置200の電気部品に電力を供給する電源1080(例えば、充電式バッテリ)を含んでもよい。バッテリは、充電の間にウェアラブルEEG装置200を長時間使用できるようにサイズ設定され得る。さらに、プロセッサ1005は、例えば携帯電話で使用するために設計された低電力コンポーネントであってもよい。バッテリは、電気接続を通じて、または誘導無線充電によって充電することができ、ウェアラブルEEG装置200は、再充電間の時間を延長するために環境からエネルギーを収集することができる。いくつかの例では、ウェアラブルEEG装置200は、ハウジング210の一部に配置された光起電装置を含む。
上述したように、いくつかの例では、3つのEEGセンサー220は、これらのEEGセンサー220がユーザーの頭部の特定の位置でユーザー102と接触するように、ハウジング210上に配置される。例えば、第3のEEGセンサー220cは、ユーザー102の耳の下、EEG信号強度の低い場所でユーザーに接触してもよい。この位置では、第3のEEGセンサー220cは、外側半球の皮質活動がほとんど検出されない、頭蓋骨の正中矢状面上またはその近くに配置されることによって、他の2つのEEGセンサー220a、220bに対する接地基準として機能することができる。第2のEEGセンサー220bは、ユーザーのこめかみ付近の比較的高いEEG信号強度の場所でユーザーと接触することができる。いくつかの例では、バンドパスフィルタなどのフィルタが、第2のセンサー220bからの関連性の低い信号を減衰させる。例えば、バンドパスフィルタは、デルタ波、シータ波、ガンマ波、およびアルファ波を減衰させながら、ベータ波(例えば、20~30Hzの範囲の信号)を通過させることができる。いくつかの例では、プロセッサ1005は、例えば、ベータ波信号の代わりにアルファ波信号を通過させる、またはアルファ波信号を通過させるのとベータ波信号を通過させるのを切り替えるために、フィルタのパラメータを調整することができる。第1のEEGセンサー220aは、第2のEEGセンサー220bの位置よりも比較的低いEEG信号強度の位置でユーザーの耳の後ろに接触することができる。
装置の一部のバリエーションでは、別の場所に追加のEEGセンサーが配置されている場合がある。他の装置にはセンサーが3つ未満しかない場合がある。例えば、システムは、ユーザーのこめかみおよび前頭葉の上に配置された第1のEEGセンサー220aと、接地基準を提供する第3のEEGセンサー220cのみで動作することができる。あるいは、システムは、第2のEEGセンサー220bのみがユーザーの耳輪の下で側頭葉の上に配置され、第3のEEGセンサー220cが接地基準を提供する状態で動作してもよい。
図3は、装置のユーザーの脳活動がユーザーの集中力の増加を示す時を決定するために脳活動を検出する方法300を示す。工程302で、方法300は、ウェアラブルEEG装置、またはウェアラブルEEG装置と通信しそれに近接する別個の電子装置のプロセッサによって、1つ以上のEEGセンサー220からフィルタリングされたEEG信号を受信する工程を含む。プロセッサは、例えばアナログデジタル変換器(ADC)を使用してフィルタリングされた脳波信号をサンプリングして、通過帯域における脳波信号の代表的な振幅304を決定することができる。代表的な振幅は、二乗平均平方根(rms)値、または通過帯域の周波数範囲内の脳活動のレベルを表す他の値であってもよい。いくつかの例では、時間が経過するにつれて、プロセッサは、第1のEEGセンサー220aと第2のEEGセンサー220bからの脳波信号の代表的な振幅の差306を決定し、脳活動のレベルを決定する。フィルタおよびADCは、プロセッサPCBとインターフェースされるドーターPCB上に配置され得る。いくつかの例では、EEGセンサーは、脳波信号をフィルタリングおよびサンプリングし、シリアルまたはパラレルデータバス等を介して信号のデジタル表現をプロセッサに提供する。プロセッサは、1秒あたり2回など、不規則または規則的な時間間隔で302個のEEG信号を受信することができる。工程306で、プロセッサはさらに、第1の間隔の1つのレベルを前の(または後の)間隔の第2のレベルと比較することによって、間隔間の脳活動の代表的なレベルの変化を測定することができる。
いくつかの例では、プロセッサは、脳活動の代表的なレベルの測定された変化を閾値308と比較する。脳活動の代表的なレベルの変化が閾値を超えると、プロセッサは、ユーザーの集中力が高まったと判断することができる。閾値は、ユーザーの脳活動のベースラインレベルに基づくことができる。いくつかの例では、ユーザーは、例えばハウジング上のボタンを押すことによって、例えばコンピューティング装置上で実行されるアプリケーション710(図7)を通じて、またはウェアラブルEEG装置200上のアクチュエータを通じて、ウェアラブルEEG装置200をトリガして、ユーザーの脳活動のベースラインレベルを決定する。他の例では、ウェアラブルEEG装置200は、ユーザー102の脳活動のベースラインレベルを、例えば一定期間にわたるユーザー102の脳活動の代表的なレベル中の変動を伴うその期間の平均レベルとして自動的に決定する。
いくつかの例では、ウェアラブルEEG装置200は、既知の装置に関する記述情報を含むデータストア800(図8)を含む。図2に示されるように、撮像システム240は、撮像システム240の視野114内の物体の画像を取り込むように構成される。装置130が撮像システム240の視野内にあるとき、ウェアラブルEEG装置200は、撮像システム240によって捕捉された画像に基づいて装置130を認識し、データストア800に含まれる既知の装置から装置130を選択することができる。画像認識方法の例については、以下の図4の説明で説明する。
工程310で、ユーザーの集中力の増加に応答して、プロセッサ1005は、選択された装置130を制御する機能を実行することができる。いくつかの例では、データストア800は、既知の各装置に関連付けられたパターンまたは特徴808(図8)も含む。パターンは、装置130の以前に取り込まれた画像であってもよく、またはパターンは、例えば画像処理によって、装置130の以前に取り込まれた画像から抽出された装置130の特徴を含んでもよい。抽出された特徴には、装置130の表面の色、装置130の検出されたエッジなどの幾何学的特徴、または装置130の表面のパターン、テクスチャもしくは形状が含まれ得る。いくつかの例では、パターンはエイプリルタグ、バーコード、QRコード、または装置130に関連付けられた、例えば装置の表面に貼り付けられた他の形式のコンピュータ可読データを含む。いくつかの例では、抽出された特徴には、ロゴなど、装置130の表面に刻印されたシンボルまたはシンボルのパターンが含まれる。抽出された特徴には、装置130に関連付けられたノブ、スイッチ、または他のコントロール、または装置130に関連付けられたテキストまたは他の表示情報が含まれ得る。
図4は、検出装置130を制御する方法400を示す。工程402で、プロセッサ1005は、撮像システム240から画像を受信し、工程404で、受信した画像から特徴を抽出することができる。特徴には、全体的な形状、コーナー、エッジ、コーナーとエッジの間の関係、色、パターンなどの画像の特徴が含まれ得る。いくつかの例では、プロセッサ1005は、スケール不変特徴変換(SIFT)または同様のアルゴリズムを実行して、画像の1つ以上の「キーポイント」を見つける。「キーポイント」は、画像内の形状のサイズ、アスペクト比、またはその他の非対称性の影響を受けない特徴である。プロセッサは、キーポイントがスケールに依存しないこと、キーポイントが回転不変(画像の向きの影響を受けない)であることを確実にし、キーポイントに一意の識別子を割り当てるために、スケール空間を構築することができる。いくつかの実施形態では、固有の識別子は、128ビットまたは256ビットのバイナリロバスト独立基本特徴(BRIEF)記述子であってもよい。いくつかの例では、プロセッサは、高速セグメントテスト(FAST)のコーナー検出アルゴリズムからの特徴を実行して、特徴を抽出する。プロセッサ1005は、特徴抽出を行うために、パイソンモジュールORB(Oriented FASTおよびRotated BRIEF)などのソフトウェアライブラリの機能を実行することができる。プロセッサ1005は、工程406で、受信画像および/または受信画像から抽出された特徴を、データストア800に含まれる既知の装置に関連する特徴と比較することができる。
例えば、プロセッサ1005は、画像のキーポイントに割り当てられた一意の識別子を既知の装置で以前に取り込まれた画像のキーポイントに割り当てられた一意の識別子と比較することができる。プロセッサ1005は、抽出された特徴の閾値数が以前に取り込まれた画像の特徴と一致する場合、工程408で既知の装置から装置130を選択することができる。例えば、データストア800に含まれる各既知の画像は、例えば、以前に取り込まれた装置130の画像から抽出された30以上の特徴808を含むことができる。この例では、10 個以上の特徴が一致する場合、プロセッサ1005は、既知の装置から装置130を選択することができる。プロセッサ1005はまた、既知の装置のうちの2つ以上が装置130の取り込まれた画像から抽出された閾値数を超える一致特徴を有する場合、最大数の一致特徴を有する装置130を選択することもできる。
あるいは、408で装置を分類するために、ウェアラブルEEG装置200は、機械学習アルゴリズムを使用して装置130を認識してもよい。例えば、プロセッサ1005は、受信した画像を既知の物体を認識するようにトレーニングされた畳み込みニューラルネットワーク(CNN)などの深層学習ニューラルネットワークに提供してもよい。図5は、制御すべき既知の装置130を認識するために機械学習モデル(深層学習ニューラルネットワークなど)をトレーニングする方法500を示す。いくつかの例では、ユーザー(または他の監督されたトレーナー)は、既知の物体のいくつかの画像を使用して深層学習ニューラルネットワークをトレーニングする。工程502で、方法500は、物体選択を受信する工程を含む。例えば、ユーザーは、アプリケーション710(図7)を通じて物体の画像を取得することによって、システムにシーン内の物体を既知の装置130として選択させることができる。ユーザーは、アプリケーション710を介して、選択された物体にラベルを付けるか注釈を付けることができる。システムは、まず物体の単一の基準画像を取得し、上述のように画像から特徴を抽出することができる。工程504で、方法500は、物体画像を受信する工程を含む。例えば、ユーザーは、システムに1つ以上の静止画像を取得させたり、10秒などの一定期間、毎秒60フレームなどの固定フレームレートで連続ビデオを取得させたりすることができる。システムは、物体に対して様々な角度で、物体から様々な距離で、様々な照明条件下で、および/または画像内の物体の外観の変化を提供する他の状況で、追加の画像を取得することができる。例えば、システムは、ユーザーが物体の周りを歩き回り、および/または物体に向かってまたは物体から遠ざかりながら、および/または物体を照らす光を増減しながら、物体のビデオを取得することができる。いくつかの例では、システムは、物体の画像のデータストアから追加の画像を受信する。これらの追加画像は、物体を既知の装置130として認識するように深層学習ネットワークをトレーニングするための追加トレーニング画像として機能する。
いくつかの例では、システムはその後、追加画像に対して画像処理を実行して、トレーニング画像として使用するための追加画像を準備する。例えば、システムは、既知の装置の周囲の関心領域を決定し、既知の装置に関係のない追加画像の部分を切り出すことができる。いくつかの例では、ユーザーが追加画像内の既知の装置の周囲に境界ボックスを描画する場合があり、これに応じてシステムは境界ボックスの外側の画像部分を無視する。
いくつかの例では、境界ボックスは画像処理を使用して自動的に決定される。例えば、システムは、画像処理アルゴリズムを適用して、第1の(基準)画像内の物体のキーポイントなどの特徴を抽出することができる。次に、システムは、基準画像から抽出された特徴を追加画像から抽出された特徴と比較することができる。システムは、追加画像に1つまたは複数の境界ボックスを適用し、境界ボックス内の追加画像の部分から抽出された特徴のしきい値数が基準画像から抽出された特徴と一致するまで、寸法や向きなどの境界ボックスの側面を調整することができる。例えば、システムは、画像を処理する間に、境界ボックスの寸法を上下、境界ボックスの位置または向きを上下、前後、および/または線形値または角度値の範囲にわたって、スケール変更することができる。システムは、一致する特徴の閾値数に関連付けられていない境界ボックスの寸法および/または角度の範囲を破棄する場合がある。一致する特徴の閾値数に関連付けられた一組の寸法および/または向きが、トレーニングのために保持され得る。境界ボックスが閾値数の一致する特徴をもたらさない場合(すなわち、閾値数の一致する特徴を画像全体から抽出できない場合)、システムは基準画像自体を破棄してもよい。したがって、画像処理アルゴリズムを実装するためにシステムが従うプロセスでは、深層学習ネットワークをトレーニングする前に、既知の装置に関係のない画像または追加画像の一部が無視される。工程506で、方法500は、機械学習モデルをトレーニングすることを含む。境界ボックス内に含まれる追加画像の一部は、深層学習ニューラルネットワークに入力され、さまざまな状況(たとえば、さまざまな倍率、向き、照明などを含む)で既知の装置を認識するように深層学習ニューラルネットワークをトレーニングすることができる。トレーニングの後、深層学習ニューラルネットワークは、新しく取得した画像に既知の装置が含まれる確率を予測することができる。工程508で、方法500は、トレーニングされた深層学習ニューラルネットワークをウェアラブルEEG装置200に送信する工程を含む。1つ以上のトレーニングされた深層学習ニューラルネットワークは、ウェアラブルEEG装置200のデータストア800に格納され、ウェアラブルEEG装置200によって取得された画像に適用され得る。いくつかの例では、1つ以上の深層学習ニューラルネットワークは、既知の装置130が新たに取得された画像内に存在する確率を決定することができる。1つ以上の深層学習ニューラルネットワークは、予測確率が閾値を満たすか、または閾値を超える場合に、既知の装置130が新たに取得された画像内にあることを検出することができる。工程510および512で、方法500は、既知の装置130に関連付けられたコマンドを受信する工程と、関連付けられたコマンドをウェアラブルEEG装置200に送信する工程とを含む。ユーザーは、図8で説明されるように、1つ以上の深層学習ニューラルネットワークに関連付けられたコマンドまたは機能を提供することができ、それにより、ウェアラブルEEG装置200は、深層学習ニューラルネットワークが物体を認識すると、関連するコマンドまたは機能を実行する。
ウェアラブルEEG装置200が物体を分類し、その物体が1つ以上の他の閾値条件を満たす場合、410で、システムは、EEG装置200が制御する物体として装置を選択することができる。たとえば、システムは、EEG装置のカメラの視野内で複数の装置を検出することができる。どの装置を制御するかを決定するために、システムは、制御される装置が視野の中心点の上、または視野の中心点からしきい値距離内など、視野内の中央に少なくともしきい値期間の間、配置されることを要求する場合がある。システムは、制御する装置を選択するために、装置が中央の領域または視野内にある間にユーザーの集中力が高まっていることを要求する場合もある。(集中力が高まったかどうかを決定する方法は、図3の説明で上述した)。EEG装置220が装置130を制御対象の装置として選択すると、ウェアラブルEEG装置200は、装置130の1つ以上の機能または特性を制御できる(412)。
ウェアラブルEEG装置200は、プロセッサ1005と通信し、プロセッサ1005に位置/方位情報を提供する、加速度計、慣性測定ユニット(IMU)、または他の位置/方位センサー260(図2)をさらに含み得る。例えば、IMUは、ハウジング210内のユーザーの耳とこめかみの間の位置、またはユーザーの頭の動きによく追跡する他の適切な位置に配置される。プロセッサ1005は、装置130が位置/配向情報を受信できる電子インターフェースを含むと判断することができる。例えば、プロセッサ1005は、装置130がBluetooth(登録商標)マウス、トラックボール、または他の無線位置制御コンピュータ周辺機器を発見できると判断することができる。プロセッサ1005は、ウェアラブルEEG装置200に装置130とインターフェース(例えば、ペアリング)させ、位置/配向センサー260からの情報を使用して、装置130に関連付けられたカーソル位置または他の集中点を制御することができる。例えば、ウェアラブルEEG装置200は、例えばBluetoothヒューマンインターフェース装置(HID)プロファイルに従って、相対的なX軸およびY軸データを装置130に送信することができる。X軸とY軸のデータは、装置のカーソルを現在の位置から移動するためのピクセル数を示す場合がある。EEG装置200のユーザー102は、ウェアラブルEEG装置200の向きを変更することによって表示画面上のカーソルの位置を調整し、それにより位置/配向センサー260の向きを変更することができる。たとえば、ユーザーの頭を上下に傾けると、それに応じてIMUの向きが変化する。システムは、ユーザーの頭が上下に傾いたときの位置/配向の1つ以上の値の変化を測定する。システムは、位置/配向の測定された変化を比例定数によってスケールして、カーソルを上下に移動するピクセル数を決定する。次に、システムは、スケーリングされた測定データを、例えば相対的なY軸データとして装置130に送信し、ユーザーの頭が上下に傾くのに応じてカーソルを上下に移動させる。同様に、システムは、ユーザーの頭が左右に動き、装置のカーソルが前後に動くと、相対的なX軸データを装置130に送信することができる。
例えば、図6Aは、コンピュータシステムの制御可能な表示画面602上のカーソル604の位置を制御するための環境例600を示す。環境600は、選択可能なウィンドウ606およびカーソル604を表示するコンピュータシステムの制御可能な表示画面602を含む。コンピュータシステムは、装置コントローラアプリケーションを含み、近距離または他の無線通信プロトコルを介してEEG装置と直接通信することができる。あるいは、環境600は、装置コントローラアプリケーションがインストールされた携帯電子装置614を含むこともできる。EEG装置200が、図4の説明で上述したようなプロセスを使用して表示画面602を認識すると、EEG装置200の動きを使用して、カーソル604の動きおよび起動を制御することができる。カーソル604は、図6Aの表示画面602の右下隅近くに位置するように示されているが、実際には、カーソル604は表示画面602の任意の位置から開始することができる。
EEG装置200のユーザー102は、ウェアラブルEEG装置200の向きを変更することによって表示画面上のカーソル位置を調整することができ、これにより、位置/配向センサー260の向きを変更することができる。携帯電子装置614またはコンピュータシステムの装置コントローラアプリケーションは、位置/配向センサーの動きに対応する位置にカーソルを移動するコマンドを生成する。
EEG装置200のユーザー102は、ウェアラブルEEG装置200の向きを変更することによって表示画面上のカーソル位置を調整することができ、これにより、位置/配向センサー260の向きを変更することができる。携帯電子装置614またはコンピュータシステムの装置コントローラアプリケーションは、位置/配向センサーの動きに対応する位置にカーソルを移動するコマンドを生成する。
例えば、図6Bでは、ウェアラブルEEG装置200が上方に傾斜することに応答して、カーソル604がコンピュータ画面602上のより高い位置に移動されている。いくつかの例では、システムは、ユーザーの集中力が少なくとも最低限の時間の間、閾値以上に留まっていたという決定、またはカーソル604および/または表示画面602が、少なくとも最低限の時間の間、EEG装置200の撮像システムの視野の中心に位置する(すなわち、中心点の閾値範囲内)という決定などの特定のトリガーを検出したときに、表示画面602上のカーソル604の位置などの基準点を決定する。トリガーが発生すると、システムは EEG装置の位置/配向センサーの初期位置および/または配向値を決定し、その情報をオンボードメモリに保存する。システムは、基準点と比較した位置/配向センサーの1つ以上の値の変化を測定する。
プロセッサはさらに、例えばブルートゥースのヒューマンインターフェース装置(HID)プロファイルに従って、装置130が選択イベント(例えばマウスの左クリック)を受信できることを決定することができる。プロセッサは、ユーザーの集中力が高まったことの決定に応答して、ウェアラブルEEG装置200に選択イベントを装置130に送信させることができる。図示の例では、ユーザーはカーソル604をウィンドウ606内に(例えば、ウィンドウのタイトルバーにXとして示される選択可能な閉じるボタンの上に)配置し、ウィンドウまたはウィンドウの機能(例えば、ウィンドウを閉じる、閉じる機能を選択)を選択することができる。
このようにして、ウェアラブルEEG装置200は、大型プレゼンテーション画面、ビデオゲーム、スマートフォンなどのモバイルコンピューティングプラットフォーム、スマートテレビ、自動車インフォテインメントシステム、および可動カーソルを備えた他の電子装置を制御することができる。ユーザー102は、カーソルを所望の位置に置き、その位置に集中点を合わせることで、画面上の位置または物体を選択させることができる。いくつかの例では、ウェアラブルEEG装置200は、複数の装置130と同時にペアリングすることになる。いくつかの例では、ウェアラブルEEG装置200は、装置130がウェアラブルEEG装置200のデータストア800に含まれており、ウェアラブルEEG装置200によって認識される場合にのみ、装置130とペアリングすることになる。
図7は、ウェアラブルEEG装置200のデータストア800を管理するための例示的な環境700を示す。ここで、ユーザー102に関連付けられたコンピューティング装置104は、ウェアラブルEEG装置200のデータストア800内の既知の装置を管理するアプリケーション710を実行することができる。いくつかの例では、アプリケーション710は、ユーザー102がコンピューティング装置104を介してアクセスするウェブサーバなどのリモートサーバ上で実行される。アプリケーション710は、コンピューティング装置104の撮像システムの視野714内の装置130などの物体の画像を取り込み、例えば画像処理によって装置130の取り込まれた画像から特徴を抽出することができる。
いくつかの例では、装置130の画像は、コンピュータネットワークまたはバスを介してコンピューティング装置104にアップロードされる。アプリケーション710は、装置130の画像をユーザー102に提示することができる。これに応答して、ユーザー102は、ウェアラブルEEG装置200のデータストア800に含めるべき既知の装置として装置130を選択することができる。これに応答して、アプリケーション710は、コンピューティング装置104に、選択された装置130(および選択された装置130に関連付けられたパターン)をウェアラブルEEG装置200に送信させることができる。ウェアラブルEEG装置200は、選択された装置と、取り込まれた画像および/または抽出された特徴など、選択された装置に関連付けられたパターン808とをデータストア800に追加することができる。いくつかの例では、コンピューティング装置104は、ウェアラブルEEG装置200のデータストア800に含まれる既知の装置のリストを受信する。アプリケーション710は、ユーザー102にリストを提示し、その結果、ユーザー102は、リストから削除する装置を選択することができる。ユーザー102による選択に応答して、アプリケーション710は、コンピューティング装置104に、選択された装置をウェアラブルEEG装置200に送信させ、ウェアラブルEEG装置200に、選択された装置をデータストア800から削除させることができる。このようにアプリケーション710を使用することにより、ユーザーは、ウェアラブルEEG装置200のデータストア800に含まれる既知の装置のリストに含まれる物体を追加、削除、および更新することができる。
図8は、データストア800の詳細を示す。各既知の装置130は、関連付けられた装置ID802を有することができる。いくつかの例では、既知の装置のリストは、各装置130に関連付けられた機能804を含む。例示的な機能には、アクティブ化/非アクティブ化、開閉、順番の次の要素または位置への工程(例えば、ラジオまたはテレビ受信機を次の局に合わせる、または環境制御システムの冷房、オフ、および暖房の設定、または冷却ファンの速度の切り替え)が含まれる。一部の装置130は、複数の関連機能804を有し得る。たとえば、複数のファン速度を持つ冷却ファンには、オン/オフできる照明が含まれる場合もある。図7に示すように、電球はオン状態とオフ状態との間で切り替えることができる。さらに、電球に関連付けられた動きセンサー(照明の近くの動きを検出すると照明を点灯できる)も、アクティブ状態と非アクティブ状態の間で切り替えることができる。いくつかの例では、アプリケーション710は、ユーザー102が、ユーザーの集中力の増加に応じてウェアラブルEEG装置200によって実行される機能を選択できるようにする。ここでは、電球の状態を表す機能を選択する。アプリケーション710は、ユーザーが選択できるように、既知の各装置に関連付けられた機能のリストを提供することができる。アプリケーション710は、ユーザーが各既知の装置(または既知の装置のグループ)に関連付けられた追加機能804を定義できるようにすることができる。例えば、アプリケーション710は、TCL、perl、またはpythonなどのコマンド言語またはスクリプト言語の構文に従って、またはJavaなどの汎用コンピューティング言語の構文に従って、ユーザーが追加の機能を入力できるようにすることができる。アプリケーション710は、コンピューティング装置104に、定義されたおよび/または選択された機能をウェアラブルEEG装置200に送信させ、ウェアラブルEEG装置200に、ユーザーの集中力の増加に応答してその機能を実行させることができる。いくつかの例では、アプリケーション710は、装置または装置のクラスに関連付けられた機能のリポジトリから機能をダウンロードすることができる。アプリケーション710はまた、例えば適切な程度のテストの後、機能をリポジトリにアップロードすることもできる。
いくつかの例では、既知の装置のリストは、各装置130に関連付けられた設定806を含む。プロセッサ1005は、例えば、位置/方位センサー260から受信した情報に基づいて、ウェアラブルEEG装置200の位置または方位の変化を決定し得る。位置または向きの変化の決定に応答して、プロセッサ1005は、選択された装置130の設定を制御する機能を実行することができる。例えば、ユーザーの頭が下向きの位置からより上向きの位置に移動することに応答して、プロセッサ1005は、プロセッサ1005は、選択された装置130の音量設定を上げることができる。同様に、ユーザーの頭が上向き位置からより下向き位置に移動することに応答して、プロセッサ1005は、選択された装置130の音量設定を下げることができる。装置130に関連付けられた機能の場合と同様に、アプリケーション710は、ユーザー102が、各既知の装置(または既知の装置のグループ)に関連付けられた追加機能804を定義し、ウェアラブルEEG装置200によって制御する設定を位置や向きの変化に反応して選択できるようにすることができる。このようにして、ユーザー102は、集中レベルに基づいて装置130をアクティブ化または非アクティブ化することができ、また、ユーザーの頭の動きに基づいて装置130の設定を調整することができる。
図9Aは、装置130に関連付けられた設定806を制御するための環境900の一例を示す。環境900は、装置コントローラ120によって制御される電球130を含む。装置コントローラ120は、電球130をオンまたはオフに、電球130のスイッチを入れることができる起動コントローラ904と、電球130の明るさを電球130に流れる電流を調整するなどして、調整可能な調光コントローラ906を含む。ここで、調光コントローラ906の設定806は、低レベルの明るさに対応する比較的低い値である。図9Bに示されるように、調光コントローラ906の設定806は、ウェアラブルEEG装置200が上方に傾斜することに応答して、より高い値に移動されている。装置を検出するプロセスおよびウェアラブルEEG装置の動きを検出するプロセスは、上述したとおりであり得る。たとえば、システムは、装置のヨーの増減量に一致する(またはその関数となる)ように、明るさの増減を計算することができる。前述のように、脳活動の検出に応答して、ウェアラブルEEG装置200はまた、装置コントローラ120に信号を送信し、装置コントローラ120に起動コントローラ904を介して照明をオンまたはオフにすることもできる。このようにウェアラブルEEG装置200を使用すると、ユーザー102は、集中レベルに基づいて照明130をオンまたはオフにすることができ、ユーザーは、ユーザーの頭の動きに基づいて照明130の明るさを調整することができる。ウェアラブルEEG装置200は、ファンのオンとオフおよび速度の制御、オーディオ機器のアクティブ化/非アクティブ化および音量の調整、クライメイトコントロールシステムのアクティブ化/非アクティブ化を含む、様々な装置130のアクティブ化/非アクティブ化および温度調整等、様々は装置130のアクティブ化/非アクティブ化、及び設定の調整に使用され得る。図9Aおよび9Bは、装置130およびその装置コントローラ120と直接通信するウェアラブルEEG装置200を示すが、通信は、図1、6A、6B、7に示されるような1つ以上の中間装置を介してルーティングされ得る。
図10は、ウェアラブルEEG装置200の内部処理システムなど、システムの電子コンポーネントのいずれかに含まれ得る例示的なハードウェアを示す。電気バス1000は、ハードウェアの他の図示されたコンポーネントを相互接続する情報ハイウェイとして機能する。プロセッサ1005はシステムの中央処理装置であり、プログラミング命令を実行するために必要な計算および論理演算を実行するように構成されている。本明細書および特許請求の範囲で使用される「プロセッサ」および「処理装置」という用語は、単一のプロセッサ1005、または中央処理装置(CPU)、グラフィックスプロセッシングユニット(GPU)、リモートサーバー、またはこれらの組み合わせなどの一連の動作を集合的に実行する一連のプロセッサ内の任意の数のプロセッサを指し得る。読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、フラッシュメモリ、ハードドライブ、および電子データを記憶できる他の装置は、メモリ装置1025の例を構成する。メモリ装置には、データおよび/または命令が格納される単一の装置または装置の集合が含まれてもよい。本発明の様々な実施形態は、1つ以上のプロセッサに、前の図の文脈で説明した機能を実行させるように構成されたプログラミング命令を含むコンピュータ可読媒体を含み得る。
オプションの表示インターフェース1030により、バス1000からの情報を、車両のダッシュボード内表示システムなどの表示装置1035上に視覚、グラフィック、または英数字形式で表示できるようにすることができる。オーディオインターフェイスおよびオーディオ出力(スピーカーなど)も提供可能である。外部装置との通信は、無線アンテナ、無線周波数識別(RFID)タグ、および/または短距離または近距離通信トランシーバなどの様々な通信装置1010を使用して行うことができ、それらのそれぞれは、任意選択で、1つ以上の通信システムを介して装置の他のコンポーネントと通信可能に接続することができる。通信装置1010は、送信機、トランシーバ、またはインターネット、WiーFiまたはローカルエリアネットワークまたは携帯電話データネットワークなどの通信ネットワークに通信可能に接続されるように構成された他の装置を含んでもよい。または、Bluetoothトランスミッターや赤外線発光器など、近くにある1つ以上の装置との直接通信接続を確立する。
ハードウェアはまた、キーボードまたはキーパッド、ジョイスティック、タッチスクリーン、タッチパッド、リモコン、ポインティング装置および/またはマイクなどの入力装置1050からのデータの受信を可能にするユーザーインターフェースセンサー1045を含んでもよい。デジタル画像フレームは、ビデオおよび/または静止画像を取り込むことができるカメラ1040から受信することもできる。システムはまた、EEGセンサー220などの1つ以上のセンサー1020、および慣性測定センサーなどの動き/位置センサー1070からデータを受信することもできる。
第1の実施形態では、システムは人の耳にフィットするように構成されたハウジングを含む。ハウジングは、耳上のブリッジと、ブリッジから人のこめかみ上の位置まで前方に延びる第1の部分と、ブリッジから後方に延びる第2の部分とを含む。このシステムはさらに、第2の部分に配置された第1の乾式脳波(EEG)センサーと、第1の部分に配置された第2の乾式EEGセンサーと、電源と、プロセッサと、プロセッサと通信するカメラと、プロセッサと通信する送信機とを含む。
任意選択で、上記の実施形態では、カメラは第1の部分に配置され、ハウジングを耳の上に装着したときに人の視野内の物体の画像を取り込むように構成される。
任意選択で、または上記の実施形態のいずれかにおいて、システムは、ハウジングから下方に延在し、人が装着したときに耳たぶの下にフィットするように配置された可撓性イヤピースと、可撓性イヤピース内に配置された第3の乾式EEGセンサーとを含む。
任意選択で、または上記の実施形態のいずれかにおいて、システムは、ハウジング内に配置された位置センサーまたは配向センサーをさらに含む。
任意選択で、または上記の実施形態のいずれかにおいて、システムは、ハウジング内に配置されたメモリを含む。任意選択で、メモリは、既知の装置に関連付けられた特徴、つまり既知の装置の取り込まれた画像から抽出された特徴を表すデータを含むデータストアを保持する。
第2の実施形態では、環境内の1つ以上の物体を制御する方法は、電子装置のプロセッサによって、EEGセンサーを有する電子装置のカメラから画像を受信する工程と、既知の装置に対応する特徴を識別するために画像を処理する工程とを含む。この方法は、少なくとも2つのEEGセンサーから脳波信号を受信する工程と、脳波信号を比較して脳活動のレベルを測定する工程とを含む。(a)既知の装置に対応する特徴と、(b)少なくとも閾値レベルだけベースラインから逸脱する脳活動レベルの両方が検出されると、この方法は、既知の装置を作動させるように構成されたコマンド信号を生成し、コマンド信号を既知の装置(または既知の装置のコントローラ)に送信する。
任意選択で、上記の実施形態では、既知の装置に対応する特徴を識別するために画像を処理する工程は、画像から1つ以上の画像特徴を抽出する工程と、その画像特徴を既知の装置に対応する1つ以上の既知の特徴と比較する工程とを含み、ここで、既知の特徴は、既知の装置の以前に取り込まれた画像から抽出されたものである。
任意選択で、または上記の実施形態のいずれかにおいて、画像特徴を1つ以上の既知の特徴と比較する工程は、少なくとも閾値数の画像特徴が既知の装置に対応する既知の特徴に対応することを決定する工程を含む。
任意選択で、または上記の実施形態のいずれかにおいて、特徴は、既知の装置の表面に刻印されたシンボルまたはシンボルのパターンを含む。
任意選択で、または上記の実施形態のいずれかにおいて、この方法は、1秒当たり少なくとも2回の速度で画像を受信する工程をさらに含む。
任意選択で、または上記の実施形態のいずれかにおいて、電子装置は慣性測定ユニット(IMU)を含み、方法は、既知の装置が調整可能な設定点を有するとの決定に応答して、IMUを使用して設定点を調整する工程をさらに含む。
任意選択で、または上記の実施形態のいずれかにおいて、電子装置は、慣性測定ユニット(IMU)を含み、方法は、既知の装置が電子ユーザーインターフェースであるとの決定に応答して、作動が起こる電子ユーザーインターフェース上の位置をIMUを使用してを選択するステップをさらに含む。
第3の実施形態では、環境システム内の1つ以上の物体を制御するシステムは、一組の乾式EEGセンサー、カメラ、プロセッサ、およびプログラミング命令を有するウェアラブル耳かけ型電子装置を含む。プログラミング命令は、プロセッサがカメラから画像を受信し、その画像を処理して既知の装置に対応する特徴を識別し、少なくとも2つのEEGセンサーから脳波信号を受信するように構成される。このシステムは脳波信号を比較して脳活動のレベルを測定する。(a)既知の装置に対応する特徴と、(b)少なくとも閾値レベルだけベースラインから逸脱した脳活動レベルの両方が検出されると、システムは既知の装置を作動させるように構成されたコマンド信号を生成し、既知の装置(または既知の装置のコントローラ)へコマンド信号を送信する。
任意選択で、上記の実施形態では、脳波信号はベータ波信号を含む。
任意選択で、または上記の実施形態のいずれかにおいて、既知の装置に対応する特徴には、既知の装置の表面の形状が含まれる。
任意選択で、または上記の実施形態のいずれかにおいて、特徴は、既知の装置の表面に刻印されたシンボルまたはシンボルのパターンを含む。
任意選択で、または上記の実施形態のいずれかにおいて、システムは、慣性測定ユニット(IMU)と、既知の装置が調整可能な設定点を有するとの決定に応答して、プロセッサに、IMUを使用して設定値を調整する追加のプログラミング命令を含む。
任意選択で、または上記の実施形態のいずれかにおいて、システムは、慣性測定ユニット(IMU)と、既知の装置が電子ユーザーインターフェースであるとの決定に応答して、プロセッサにIMUを使用して、作動が発生する電子ユーザーインターフェイス上の位置を選択させる追加のプログラミング命令を含む。
任意選択で、または上記の実施形態のいずれかにおいて、ウェアラブル耳かけ型電子装置は、人の耳にフィットするように構成されたハウジングをさらに含み、ハウジングは、耳上のブリッジを含み、ブリッジから人のこめかみ上の位置までの部分まで前方に延びる第1の部分と、ブリッジから後方に延びる第2の部分とを含む。
任意選択で、または上記の実施形態のいずれかにおいて、ウェアラブル耳かけ型電子装置は、第2の部分に配置された第1の乾式脳波(EEG)センサーと、第1の部分に配置された第2の乾式EEGセンサーと、電源と、プロセッサと通信する送信機とをさらに有する。
任意選択で、または上記の実施形態のいずれかにおいて、ウェアラブル耳かけ型電子装置は、既知の装置に対応する既知の特徴を含むデータストアをさらに含み、既知の特徴は、既知の装置の以前に取り込まれた画像から抽出されたものである。プログラミング命令には、受信した画像から1つ以上の画像特徴を抽出し、その画像特徴を既知の特徴と比較して既知の装置を識別するための命令が含まれる。任意選択で、画像特徴を既知の特徴と比較するための命令は、閾値数の画像特徴が既知の特徴に対応することを決定するための命令を含む。
第4の実施形態では、環境内の物体のデータベースを開発する方法は、カメラを有するモバイル装置を使用して環境内の物体の画像を取り込むことを含む。各物体について、この方法は、ユーザーインターフェースを介して、物体のユーザーによる選択を受信する工程と、ユーザーによる選択の受信に応答して、物体の認識可能な特徴のパターンを作成する工程とを含む。認識可能な特徴のパターンは、1つ以上の画像内の物体に関連する特徴を識別し、その特徴をモバイル装置とウェアラブル電子装置の間の通信リンクを介してウェアラブル電子装置に送信し、パターンをウェアラブル電子装置のデータストアに保存させることによって生成する。
任意選択で、上記の実施形態では、本方法は、選択された物体に関連付けられた実行可能コマンドを受信する工程と、通信リンクを介して実行可能コマンドをウェアラブル電子装置に送信する工程とをさらに含み、これにより、ウェアラブル電子装置に実行可能コマンドをパターンに関連付けさせる。任意選択で、実行可能コマンドは、ウェアラブル電子装置によって実行されると、ウェアラブル電子装置に物体の設定を調整させる。
任意選択で、または上記の実施形態のいずれかにおいて、特徴を識別する工程は、1つ以上の画像内の1つ以上のキーポイントを特定し、キーポイントに識別子を割り当てる工程を含む。任意選択で、識別子にはBRIEF(バイナリロバスト独立基本特徴)記述子が含まれる。
任意選択で、または上記の実施形態のいずれかにおいて、物体のユーザーによる選択を受信する工程は、物体画像のユーザーによる選択を受信する工程を含む。
第5の実施形態では、機械学習モデルをトレーニングする方法は、環境内の物体の画像を取り込むためのカメラを有するモバイル装置を使用する工程を含む。各物体について、この方法は、ユーザーインターフェースを介して物体のユーザーによる選択を受信する工程と、選択された物体に関連付けられたコマンドを受信する工程と、ユーザーによる選択の受信に応答して、物体を認識するように機械学習モデルをトレーニングする工程とを含む。
この方法は、物体の複数の画像を受信し、複数の画像に基づいて機械学習モデルをトレーニングすることによって、物体を認識するように機械学習モデルをトレーニングする。この方法は、モバイル装置とウェアラブル電子装置との間の通信リンクを介して、トレーニングされたモデルおよびコマンドをウェアラブル電子装置に送信し、ウェアラブル電子装置にトレーニングされた機械学習モデルをウェアラブル電子装置内のデータストアに保存させ、コマンドをトレーニングされた機械学習モデルに関連付けさせる工程を含む。
任意選択で、上記の実施形態では、ウェアラブル電子装置にコマンドをトレーニングされた機械学習モデルに関連付けさせる工程は、トレーニングされた機械学習モデルがウェアラブル電子装置によって取り込まれた画像内の物体を認識することに応答して、ウェアラブル電子装置にコマンドを実行させる。任意選択で、コマンドが実行されると、物体が第1の状態から別の状態に変化する。
任意選択で、または上記の実施形態のいずれかにおいて、機械学習モデルはニューラルネットワークを含む。
任意選択で、または上記の実施形態のいずれかにおいて、複数の画像を受信する工程は、複数の角度で物体のビデオを取り込む工程を含む。
任意選択で、または上記の実施形態のいずれかにおいて、機械学習モデルは、物体が画像内に存在する確率を決定するように構成され、機械学習モデルはさらに、決定された確率が確率の閾値を満たす場合に物体を認識するように構成されている。
任意選択で、または上記の実施形態のいずれかにおいて、方法は、複数の画像のうちの1つ以上の画像の1つ以上の複数の関心領域を決定する工程と、1つ以上の関心領域内で複数の画像の一部に基づいて機械学習モデルをトレーニングする工程とをさらに含む。
任意選択で、または上記の実施形態のいずれかにおいて、方法は、選択された物体の基準画像を受信する工程と、基準画像内の選択された物体に関連する基準特徴を識別する工程とを含む。
任意選択で、または上記の実施形態のいずれかにおいて、方法は、複数の画像のうちの1つ以上の物体の周囲に境界ボックスを構築する工程と、境界ボックス内の各画像の部分から特徴を抽出する工程と、抽出された特徴を基準特徴と比較する工程とをさらに含む。閾値数の抽出された特徴が基準特徴と一致することに応じて、この方法は、境界ボックス内の画像の部分について機械学習モデルをトレーニングする工程を含む。
任意選択で、または上記の実施形態のいずれかにおいて、方法は、閾値数の抽出された特徴が基準特徴と一致するまで、物体の周囲の境界ボックスの寸法、位置、または向きを調整する工程を含む。
第6の実施形態では、機械学習モデルをトレーニングするためのシステムは、環境内の物体の画像を取り込むためのカメラを有するモバイル装置を含む。モバイル装置は、ユーザーインターフェースを介して物体のユーザーによる選択を受信し、選択された物体に関連付けられたコマンドを受信し、物体を認識するように機械学習モデルをトレーニングするように構成されている。このシステムは、物体の複数の画像を受信し、複数の画像に基づいて機械学習モデルをトレーニングし、トレーニングされたモデルとコマンドをモバイル装置とウェアラブル電子装置の間の通信リンクを介してウェアラブル電子装置に送信し、ウェアラブル電子装置に、トレーニングされた機械学習モデルをウェアラブル電子装置内のデータストアに保存させ、コマンドをトレーニングされた機械学習モデルに関連付けさせて、機械学習モデルが物体を認識するようにトレーニングする。
任意選択で、上記の実施形態では、複数の画像を受信する工程は、複数の角度で物体のビデオを取り込む工程を含む。
任意選択で、または上記の実施形態のいずれかにおいて、モバイル装置はさらに、複数の画像のうちの1つ以上の画像の1つ以上の関心領域を決定し、1つ以上の関心領域内の複数の画像の一部に基づいて機械学習モデルをトレーニングするように構成される。
任意選択で、または上記の実施形態のいずれかにおいて、モバイル装置は、選択された物体の基準画像を受信し、基準画像内の選択された物体に関連する既知の特徴を識別するように構成される。モバイル装置は、複数の画像のうちの1つ以上の画像内の物体の周囲に境界ボックスを構築し、境界ボックス内の各画像の部分から特徴を抽出し、抽出された特徴を既知の特徴と比較する。閾値数の抽出された特徴が既知の特徴と一致することに応じて、モバイル 装置は境界ボックス内の画像の部分で機械学習モデルをトレーニングする。
任意選択で、または上記の実施形態のいずれかにおいて、モバイル装置は、抽出された閾値数の特徴が既知の特徴と一致するまで、物体の周囲の境界ボックスの寸法、位置、または向きを調整するように構成される。
本明細書では、「電子装置」または「コンピューティング装置」とは、プロセッサおよびメモリを含む装置を指す。各装置は独自のプロセッサおよび/またはメモリを備えていてもよく、またはプロセッサおよび/またはメモリは、仮想マシンまたはコンテナ構成のように他の装置と共有されていてもよい。メモリは、プロセッサによって実行されると、電子装置にプログラミング命令に従って1つ以上の動作を実行させるプログラミング命令を格納または受信する。
「メモリ」、「メモリ装置」、「コンピュータ可読媒体」、「データストア」、「データ記憶設備」などの用語はそれぞれ、コンピュータ可読データ、プログラミング命令またはその両方が保存される非一時的な装置を指す。特に明記しない限り、「メモリ」、「メモリ装置」、「コンピュータ可読媒体」、「データストア」、「データ記憶設備」などは、単一の装置の実施形態、複数のメモリを備えた実施形態を含むことを意図し、装置は、一連のデータや命令だけでなく、そのような装置内の個々のセクターも一緒に、またはまとめて格納する。コンピュータプログラム製品は、プログラミング命令が格納されたメモリ装置です。
「プロセッサ」および「処理装置」という用語は、マイクロプロセッサまたは他の論理回路など、プログラミング命令を実行するように構成された電子装置のハードウェアコンポーネントを指す。プロセッサおよびメモリは、マイクロコントローラ、カスタム構成可能な集積回路、プログラム可能なシステムオンチップ、またはさまざまな機能を実行するようにプログラムできる他の電子装置の要素であってもよい。特に明記しない限り、「プロセッサ」または「処理装置」という単数の用語は、単一の処理装置の実施形態と、複数の処理装置が一緒にまたは集合的にプロセスを実行する実施形態の両方を含むことを意図している。
「撮像システム」とは、物体を光学的に観察し、その物体の解釈を電子信号に変換できる任意の装置またはシステムである。撮像装置の一例はデジタルカメラである。
「機械学習モデル」または「モデル」とは、現実世界のプロセスの出力(例えば、物体の識別または分類)を明示的にプログラムされていない入力機能のセットに基づいて予測できる一連のアルゴリズムルーチンおよびパラメータを指す。ソフトウェアルーチンの構造(例えば、サブルーチンの数とそれらの間の関係)および/またはパラメータの値は、モデル化されている現実世界のプロセスの実際の結果を使用できるトレーニングプロセスで決定できる。このようなシステムやモデルは必然的にコンピュータ技術に根ざしていると理解されており、実際、コンピューティング技術がなければ実装できず、存在することさえできない。機械学習システムはさまざまな種類の統計分析を利用するが、機械学習システムは、明示的なプログラミングを行わずに学習できることと、コンピュータテクノロジーに根ざしているという点で統計分析とは区別される。機械学習モデルは、サンプル データセット(「トレーニングデータ」と呼ばれる)でトレーニングできる。
「境界ボックス」という用語は、物体の位置を表す長方形のボックスを指す。境界ボックスは、ボックスの第1のコーナー(右上角など)に対応するx軸およびy軸の座標[xmax,ymax]と、第1のコーナーの反対側にある長方形のコーナー(左下角など)に対応するx軸およびy軸の座標[xmin,ymin]によってデータで表すことができる。これは、物体のすべての点を含む最小の長方形として計算され、任意選択で誤差の範囲を考慮して追加のスペースを加えることもできる。物体の点は、カメラによって取り込まれた画像のピクセルなど、1つまたは複数のセンサーによって検出された点であってもよい。
本明細書では、「無線通信」という用語は、送信元と宛先の間の通信経路の少なくとも一部に、物理的な導体を介した信号の送信ではなく、Wi-Fiネットワーク、Bluetooth接続、または別の短距離または近距離通信プロトコルを介した、空気を介した信号の送信が関わる通信プロトコルを指す。ただし、「無線通信」という用語は、通信経路全体が無線であることを必ずしも必要とするわけではなく、通信経路の一部には、経路の無線位置にわたる通信を容易にする送信機の前または受信機の後に配置された物理導体を含むことができる。
本明細書において、「前」と「後」、または「前方」と「後」などの位置に関する相対的な用語を使用する場合、それは、装置が人によって装着され、人が前方または正面とみなされる方向を向いている配置をカバーすることを意図している。
本発明を特定の実施形態を用いて説明してきたが、当業者には他の代替案、変更形態、および変形形態が明らかである。したがって、添付の特許請求の範囲の精神および範囲内にそのような代替案、修正案、および変形案をすべて含むことが意図される。
Claims (40)
- 人の脳波を検出するためのシステムであって、
人の耳上にフィットするように構成されたハウジングであって、
耳上のブリッジと、
前記ブリッジから人のこめかみ上の位置まで前方に延びる第1の部分と、
前記ブリッジから後方に延びる第2の部分と、
を有する、ハウジングと、
前記第2の部分に配置された第1の乾式脳波(EEG)センサーと、
前記第1の部分に配置された第2の乾式EEGセンサーと、
電源と、
プロセッサと、
前記プロセッサと通信するカメラと、
前記プロセッサと通信する送信機と、
を有する、システム。 - 請求項1記載のシステムにおいて、前記カメラは、前記第1の部分に配置され、前記ハウジングを耳上に装着したときに人の視野内の物体の画像を取り込むように構成されるものである、システム。
- 請求項1に記載のシステムにおいて、さらに、
前記ハウジングから下方に延び、人が装着したときに耳たぶの下にフィットするように配置される可撓性のイヤピースと、
前記可撓性のイヤピースに配置された第3の乾式EEGセンサーと、
を有するものである、システム。 - 請求項1に記載のシステムにおいて、
前記ハウジング内に配置された位置センサーまたは配向センサーをさらに備えるものである、システム。 - 請求項1に記載のシステムにおいて、
前記ハウジング内に配置されたメモリをさらに備え、前記メモリは、既知の装置に関連付けられた特徴を表すデータを含むデータストアを保持し、前記特徴は、前記既知の装置の取り込まれた画像から抽出されるものである、システム。 - 環境内の1つ以上の物体を制御する方法であって、電子装置のプロセッサによる以下の工程:
前記電子装置のカメラから画像を受信する工程であって、前記電子装置はEEGセンサーを有する、受信する工程と、
前記画像を処理して既知の装置に対応する特徴を識別する工程と、
少なくとも2つの前記EEGセンサーから脳波信号を受信し、前記脳波信号を比較して脳活動のレベルを測定する工程と、
(a)前記既知の装置に対応する特徴と、(b)少なくとも閾値レベルだけベースラインから逸脱した脳活動レベル、の両方が検出されると、前記既知の装置を作動させるように構成されたコマンド信号を生成する工程と、
前記コマンド信号を前記既知の装置、または前記既知の装置のコントローラに送信する工程と、
を有する、方法。 - 請求項6記載の方法において、
前記画像を処理して既知の装置に対応する特徴を識別する工程は、
前記画像から1つ以上の画像特徴を抽出する工程と、
前記画像特徴を、前記既知の装置に対応する1つ以上の既知の特徴と比較する工程であって、前記既知の特徴は、前記既知の装置の以前に取り込まれた画像から抽出されたものである、比較する工程と、
を有するものである、方法。 - 請求項7記載の方法において、前記画像特徴を、前記既知の装置に対応する1つ以上の既知の特徴と比較する工程は、少なくとも閾値数の画像特徴が、前記既知の装置に対応する既知の特徴に対応すると決定する工程を含むものである、方法。
- 請求項6の方法において、
前記電子装置は、慣性測定ユニット(IMU)をさらに有し、
この方法は、前記既知の装置が調整可能な設定値を備えているとの決定に応答して、IMUを使用して前記設定値を調整する工程をさらに含むものである、方法。 - 請求項6に記載の方法であって、
前記電子装置は、慣性測定ユニット(IMU)をさらに有し、
この方法は、前記既知の装置が電子ユーザーインターフェースであるとの決定に応答して、前記IMUを使用して、作動が起こる前記電子ユーザーインターフェース上の位置を選択する工程をさらに有するものである、方法。 - 請求項6記載の方法において、前記画像を少なくとも毎秒2回の速度で受信する工程をさらに含むものである、方法。
- 請求項6記載の方法において、前記特徴は、前記既知の装置の表面に刻印されたシンボルまたはシンボルのパターンを含むものである、方法。
- 環境内の1つ以上の物体を制御するためのシステムであって、
一連の乾式脳波(EEG)センサーと、カメラと、プロセッサと、このプロセッサに次の工程を行わせるように構成されたプログラミング命令とを備えたウェアラブル耳かけ型電子装置であって、前記工程は、
前記カメラから画像を受信する工程と、
前記画像を処理して既知の装置に対応する特徴を識別する工程と、
少なくとも2つの前記EEGセンサーから脳波信号を受信し、脳波信号を比較して脳活動のレベルを測定する工程と、
(a)前記既知の装置に対応する特徴と、(b)少なくとも閾値レベルだけベースラインから逸脱した脳活動レベル、の両方が検出されると、前記既知の装置を作動させるように構成されたコマンド信号を生成する工程と、
前記コマンド信号を前記既知の装置または前記既知の装置のコントローラに送信する工程と、
を有するものである、システム。 - 請求項13記載のシステムにおいて、前記ウェアラブル耳かけ型電子装置は、
人の耳上にフィットするように構成されたハウジングであって、耳上のブリッジと、前記ブリッジから人のこめかみ上の位置まで前方に延びる第1の部分と、前記ブリッジから後方に延びる第2の部分と、を有する、ハウジングと、
前記第2の部分に配置された第1の乾式脳波(EEG)センサーと、
前記第1の部分に配置された第2の乾式EEGセンサーと、
電源と、
前記プロセッサと通信する送信機と
を有するものである、システム。 - 請求項13記載のシステムにおいて、さらに、
慣性測定ユニット(IMU)と、
追加のプログラミング命令であって、前記既知の装置が調整可能な設定値を備えているとの決定に応答して、前記プロセッサに前記IMUを使用させて、前記設定値を調整するように構成されている、追加のプログラミング命令と、
を有するものである、システム。 - 請求項13記載のシステムにおいて、さらに、
慣性測定ユニット(IMU)と、
追加のプログラミング命令であって、前記既知の装置が電子ユーザーインターフェースであるとの決定に応答して、前記プロセッサに前記IMUを使用させて、前記作動が発生する電子ユーザーインターフェース上の位置を選択するように構成されている、追加のプログラミング命令と、
を有するものである、システム。 - 請求項13記載のシステムにおいて、前記ウェアラブル耳かけ型電子装置がさらに、
前記既知の装置に対応する既知の特徴を含むデータストアであって、この既知の特徴は、前記既知の装置の以前に取り込まれた画像から抽出されるものである、データストアを有し、
前記プログラミング命令は、
前記受信した画像から1つ以上の画像特徴を抽出し、
前記画像特徴を前記既知の特徴と比較して、前記既知の装置を識別する、
命令を有するものである。 - 請求項17記載のシステムにおいて、前記画像特徴を前記既知の特徴と比較する命令は、閾値数の画像特徴が既知の特徴に対応することを決定する命令を含むものである、システム。
- 請求項13記載システムにおいて、前記脳波信号はベータ波信号を含むものである、システム。
- 請求項13記載システムにおいて、
前記特徴は、前記既知の装置の表面の形状を含むものである、システム。 - 環境内の物体のデータベースを開発する方法であって、
カメラを備えたモバイル装置を使用して前記環境内の物体の画像を取り込む工程と、
物体ごとに
ユーザーインターフェースを介して、前記物体のユーザーによる選択を受信する工程と、
前記ユーザーによる選択の受信に応答して、前記物体の認識可能な特徴のパターンを作成する工程であって、
1つ以上の前記画像内の物体に関連する特徴を識別し、
前記モバイル装置とウェアラブル電子装置との間の通信リンクを介して前記特徴を前記ウェアラブル電子装置に送信し、これにより前記ウェアラブル電子装置に前記パターンを前記ウェアラブル電子装置内のデータストアに保存させることにより、特徴のパターンを作成する工程と、
を有するものである、方法。 - 請求項21に記載の方法において、さらに、
前記選択された物体に関連付けられた実行可能コマンドを受信する工程と、
前記通信リンクを介して前記実行可能コマンドを前記ウェアラブル電子装置に送信して、前記ウェアラブル電子装置に前記実行可能コマンドを前記パターンに関連付けさせる工程と、
を有するものである、方法。 - 請求項22記載の方法において、前記実行可能コマンドは、前記ウェアラブル電子装置によって実行されると、前記ウェアラブル電子装置に前記物体の設定を調整させるものである、方法。
- 請求項21記載の方法において、
前記特徴を識別する工程は、前記1つ以上の画像内の1つ以上のキーポイントを特定し、前記キーポイントに識別子を割り当てる工程を含むものである、方法。 - 請求項24記載の方法において、
前記識別子は、バイナリロバスト独立基本特徴(BRIEF)記述子を含むものである、方法。 - 請求項21記載の方法において、
前記物体のユーザーによる選択を受信する工程は、前記物体の画像のユーザーによる選択を受信する工程を含むものである、方法。 - 機械学習モデルをトレーニングする方法であって、
カメラを備えたモバイル装置を使用して、環境内の物体の画像を取り込む工程と、
物体ごとに:
ユーザーインターフェースを介して前記物体のユーザーによる選択を受信する工程と、
前記選択された物体に関連付けられたコマンドを受信する工程と
前記ユーザーによる選択の受信に応じて、前記機械学習モデルをトレーニングするために前記物体を認識する工程であって、
前記物体の複数の画像を受信する工程と、
前記複数の画像に基づいて前記機械学習モデルをトレーニングする工程と、
を有する認識する工程と、
前記モバイル装置と前記ウェアラブル電子装置との間の通信リンクを介して、前記トレーニングされたモデルおよびコマンドを前記ウェアラブル電子装置に送信し、前記ウェアラブル電子装置に前記トレーニングされた機械学習モデルを前記ウェアラブル電子装置内のデータストアに保存させ、前記コマンドを前記トレーニングされた機械学習モデルに関連付けさせる工程と、
を有するものである、方法。 - 請求項27記載の方法において、さらに、
前記複数の画像の1つ以上で1つ以上の関心領域を決定する工程を有し、
前記機械学習モデルをトレーニングする工程は、前記1つ以上の関心領域内の前記複数の画像の部分に基づくものである、方法。 - 請求項27記載の方法において、さらに、
前記選択された物体の基準画像を受信する工程と
前記基準画像内の前記選択された物体に関連する基準特徴を識別する工程と、
前記複数の画像の1つ以上で前記物体の周囲に境界ボックスを構築する工程と、
前記境界ボックス内の前記画像のそれぞれの部分から特徴を抽出する工程と、
前記抽出された特徴を前記基準特徴と比較する工程と、
閾値数の抽出された特徴が基準特徴に一致することに応じて、前記境界ボックス内の画像の部分で前記機械学習モデルをトレーニングする工程と、
を有する、方法。 - 請求項29に記載の方法において、さらに、
前記閾値数の抽出された特徴が基準特徴と一致するまで、前記物体の周囲の境界ボックスの寸法、位置、または向きを調整する工程と
を有するものである、方法。 - 請求項27に記載の方法において、
前記複数の画像を受信する工程は、複数の角度で前記物体のビデオを取り込む工程を含むものである、方法。 - 請求項27に記載の方法において、
前記ウェアラブル電子装置に前記コマンドを前記トレーニングされた機械学習モデルに関連付けさせる工程はさらに、前記トレーニングされた機械学習モデルが、前記ウェアラブル電子装置によって取り込まれた画像内で前記物体を認識することに応答して、前記ウェアラブル電子装置に前記コマンドを実行させる工程を有するものである、方法。 - 請求項32記載の方法において、前記コマンドは、これが実行されると、前記物体を第1の状態から別の状態に変化させるものである、方法。
- 請求項27記載の方法において、
前記機械学習モデルは、ニューラルネットワークを含むものである、方法。 - 請求項27記載の方法において、
前記機械学習モデルは、前記物体が前記画像内に存在する確率を決定するように構成され、前記機械学習モデルはさらに、前記決定された確率が確率閾値を満たす場合に、前記物体を認識するようにさらに構成されているものである、方法。 - 機械学習モデルをトレーニングするためのシステムであって、
環境内の物体の画像を取り込むカメラを有するモバイル装置であって、このモバイル装置は、
ユーザーインターフェースを介して、物体のユーザーによる選択を受信する工程と、
前記選択された物体に関連付けられたコマンドを受信する工程と、
次の方法で物体を認識するように機械学習モデルをトレーニングする工程であって、
物体の複数の画像を受信する工程と、
前記複数の画像に基づいて前記機械学習モデルをトレーニングする工程と、
前記モバイル装置と前記ウェアラブル電子装置との間の通信リンクを介して、前記トレーニングされたモデルおよびコマンドを前記ウェアラブル電子装置に送信して、前記ウェアラブル電子装置に前記トレーニングされた機械学習モデルを前記ウェアラブル電子装置内のデータストアに保存させ、前記コマンドを前記トレーニングされた機械学習モデルに関連付けさせるものである、物体を認識するように機械学習モデルをトレーニングする工程と、
を有する、方法。 - 請求項36記載のシステムにおいて、前記モバイル装置はさらに、
前記複数の画像のうちの1つ以上の画像で1つ以上の関心領域を決定し、
前記1つ以上の関心領域内の前記複数の画像の部分に基づいて前記機械学習モデルをトレーニングするように構成されたものである、システム。 - 請求項36記載のシステムにおいて、前記モバイル装置はさらに、
前記選択された物体の基準画像を受信し、
前記基準画像内の前記選択された物体に関連する既知の特徴を識別し、
前記複数の画像のうちの1つ以上の画像で前記物体の周囲に境界ボックスを構築し、
前記境界ボックス内の前記画像のそれぞれの部分から特徴を抽出し、
前記抽出された特徴を前記既知の特徴と比較し、
閾値数の抽出された特徴が既知の特徴と一致することに応じて、前記境界ボックス内の前記画像の部分について機械学習モデルをトレーニングするように構成されたものである、システム。 - 請求項38記載のシステムにおいて、前記モバイル装置はさらに、
前記閾値数の抽出された特徴が既知の特徴と一致するまで、前記物体の周囲の前記境界ボックスの寸法、位置、向きを調整するように構成されたものである、システム。 - 請求項36記載のシステムにおいて、
前記複数の画像を受信することは、複数の角度で前記物体のビデオを取り込むことを含むものである、システム。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063132001P | 2020-12-30 | 2020-12-30 | |
US63/132,001 | 2020-12-30 | ||
US17/520,255 | 2021-11-05 | ||
US17/520,237 | 2021-11-05 | ||
US17/520,237 US11461991B2 (en) | 2020-12-30 | 2021-11-05 | Method of developing a database of controllable objects in an environment |
US17/520,255 US11500463B2 (en) | 2020-12-30 | 2021-11-05 | Wearable electroencephalography sensor and device control methods using same |
PCT/US2021/073077 WO2022147412A1 (en) | 2020-12-30 | 2021-12-22 | Wearable electroencephalography sensor and device control methods using same |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024504041A true JP2024504041A (ja) | 2024-01-30 |
Family
ID=82117264
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023540799A Pending JP2024504041A (ja) | 2020-12-30 | 2021-12-22 | ウェアラブル脳波センサーおよびそれを用いた機器制御方法 |
Country Status (6)
Country | Link |
---|---|
US (4) | US11461991B2 (ja) |
EP (1) | EP4268124A4 (ja) |
JP (1) | JP2024504041A (ja) |
KR (1) | KR20230134508A (ja) |
CN (1) | CN117337421A (ja) |
WO (1) | WO2022147412A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11461991B2 (en) * | 2020-12-30 | 2022-10-04 | Imagine Technologies, Inc. | Method of developing a database of controllable objects in an environment |
WO2024020408A1 (en) * | 2022-07-19 | 2024-01-25 | Imagine Technologies, Inc. | Method of developing a data set of objects from images and uses thereof |
CN118101358A (zh) * | 2022-11-15 | 2024-05-28 | 神基科技股份有限公司 | 物联网装备管理系统及其运作方法 |
Family Cites Families (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8291346B2 (en) * | 2006-11-07 | 2012-10-16 | Apple Inc. | 3D remote control system employing absolute and relative position detection |
US11471091B2 (en) | 2010-07-29 | 2022-10-18 | Kulangara Sivadas | Mind strength trainer |
US8766783B1 (en) * | 2010-11-05 | 2014-07-01 | Google Inc. | Methods and systems for remotely controlling electronics |
TW201238562A (en) | 2011-03-25 | 2012-10-01 | Univ Southern Taiwan | Brain wave control system and method |
GB2514726B (en) | 2012-03-27 | 2017-05-03 | Myndplay Ltd | Improvements relating to control mechanisms |
WO2013177592A2 (en) * | 2012-05-25 | 2013-11-28 | Emotiv Lifesciences, Inc. | System and method for providing and aggregating biosignals and action data |
US9814426B2 (en) | 2012-06-14 | 2017-11-14 | Medibotics Llc | Mobile wearable electromagnetic brain activity monitor |
US11662819B2 (en) * | 2015-05-12 | 2023-05-30 | Medibotics | Method for interpreting a word, phrase, and/or command from electromagnetic brain activity |
US9968297B2 (en) * | 2012-06-14 | 2018-05-15 | Medibotics Llc | EEG glasses (electroencephalographic eyewear) |
US20140250397A1 (en) | 2013-03-04 | 2014-09-04 | Honeywell International Inc. | User interface and method |
US9996154B2 (en) | 2013-05-09 | 2018-06-12 | Samsung Electronics Co., Ltd. | Apparatus and method of controlling display apparatus |
US10558272B2 (en) | 2013-06-20 | 2020-02-11 | Uday Parshionikar | Gesture control via eye tracking, head tracking, facial expressions and other user actions |
WO2015122846A1 (en) * | 2014-02-14 | 2015-08-20 | National University Of Singapore | System, device and methods for brainwave-based technologies |
US10520378B1 (en) * | 2014-03-20 | 2019-12-31 | Invent.Ly, Llc | Wearable user input device and sensors system to detect injury |
US10852838B2 (en) * | 2014-06-14 | 2020-12-01 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US9799301B2 (en) * | 2014-10-09 | 2017-10-24 | Nedim T. SAHIN | Method, system, and apparatus for battery life extension and peripheral expansion of a wearable data collection device |
EP3064130A1 (en) * | 2015-03-02 | 2016-09-07 | MindMaze SA | Brain activity measurement and feedback system |
KR20160126452A (ko) | 2015-04-23 | 2016-11-02 | 엘지전자 주식회사 | 복수의 디바이스에 대한 원격제어를 수행할 수 있는 원격제어장치 |
US10165949B2 (en) | 2015-06-14 | 2019-01-01 | Facense Ltd. | Estimating posture using head-mounted cameras |
US20160371884A1 (en) * | 2015-06-17 | 2016-12-22 | Microsoft Technology Licensing, Llc | Complementary augmented reality |
US20170103440A1 (en) * | 2015-08-01 | 2017-04-13 | Zhou Tian Xing | Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command |
US10289205B1 (en) * | 2015-11-24 | 2019-05-14 | Google Llc | Behind the ear gesture control for a head mountable device |
US9712736B2 (en) * | 2015-12-15 | 2017-07-18 | Intel Coprporation | Electroencephalography (EEG) camera control |
US10216998B2 (en) | 2016-01-06 | 2019-02-26 | Orcam Technologies Ltd. | Methods and systems for visual pairing of external devices with a wearable apparatus |
US20170259167A1 (en) | 2016-03-14 | 2017-09-14 | Nathan Sterling Cook | Brainwave virtual reality apparatus and method |
CN109328028B (zh) * | 2016-05-18 | 2021-11-23 | 基文影像公司 | 用于选择体内捕获到的图像以用于显示的系统和方法 |
US20170337747A1 (en) * | 2016-05-20 | 2017-11-23 | Patrick M. HULL | Systems and methods for using an avatar to market a product |
US10044712B2 (en) * | 2016-05-31 | 2018-08-07 | Microsoft Technology Licensing, Llc | Authentication based on gaze and physiological response to stimuli |
WO2018022597A1 (en) | 2016-07-25 | 2018-02-01 | Ctrl-Labs Corporation | Methods and apparatus for inferring user intent based on neuromuscular signals |
KR102529137B1 (ko) * | 2016-08-22 | 2023-05-03 | 매직 립, 인코포레이티드 | 딥 러닝 센서들을 갖는 증강 현실 디스플레이 디바이스 |
US20180095635A1 (en) * | 2016-10-04 | 2018-04-05 | Facebook, Inc. | Controls and Interfaces for User Interactions in Virtual Spaces |
US10324531B2 (en) * | 2016-12-27 | 2019-06-18 | Immersion Corporation | Haptic feedback using a field of view |
WO2018182534A1 (en) * | 2017-03-31 | 2018-10-04 | Agency For Science, Technology And Research | A computer system for acquiring a control command |
US11163416B2 (en) * | 2017-04-27 | 2021-11-02 | Magic Leap, Inc. | Light-emitting user input device for calibration or pairing |
WO2019001745A1 (en) * | 2017-06-30 | 2019-01-03 | Huawei Technologies Co., Ltd. | SYSTEM AND METHOD FOR INTERACTING WITH A USER VIA A MIRROR |
US20210264679A1 (en) * | 2017-07-25 | 2021-08-26 | Facebook Technologies, Llc | Smart sensor |
US20190054371A1 (en) | 2017-08-18 | 2019-02-21 | Lenovo Enterprise Solutions (Singapore) Pte. Ltd. | Control of a video display headset using input from sensors disposed about the brain of a user |
US10809796B2 (en) | 2017-09-29 | 2020-10-20 | Apple Inc. | Monitoring a user of a head-wearable electronic device |
US10827942B2 (en) * | 2018-01-03 | 2020-11-10 | Intel Corporation | Detecting fatigue based on electroencephalogram (EEG) data |
CN111712192B (zh) * | 2018-01-18 | 2024-07-02 | 神经股份有限公司 | 具有对于高速、准确和直观的用户交互的适配的大脑-计算机接口 |
WO2019168920A1 (en) * | 2018-02-28 | 2019-09-06 | Novel Effect, Inc. | System and method for integrating special effects with a text source |
US10901508B2 (en) * | 2018-03-20 | 2021-01-26 | X Development Llc | Fused electroencephalogram and machine learning for precognitive brain-computer interface for computer control |
US10551921B2 (en) | 2018-03-23 | 2020-02-04 | Abl Ip Holding Llc | Electroencephalography control of controllable device |
KR102651413B1 (ko) | 2018-10-17 | 2024-03-27 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 제어 방법 |
KR20200046191A (ko) * | 2018-10-19 | 2020-05-07 | 한국전자통신연구원 | 실시간 사용자 행위 분석에 의한 계층적 상황인지 및 디바이스 자율 구성 장치 및 그 방법 |
GB2579827A (en) * | 2018-12-14 | 2020-07-08 | Brainpatch Ltd | Brain interfacing apparatus and method |
US11317863B2 (en) * | 2019-02-01 | 2022-05-03 | Starkey Laboratories, Inc. | Efficient wellness measurement in ear-wearable devices |
CN111316319A (zh) | 2019-03-15 | 2020-06-19 | 深圳市大疆创新科技有限公司 | 图像处理方法、电子设备及计算机可读存储介质 |
TWI732374B (zh) | 2019-12-10 | 2021-07-01 | 財團法人工業技術研究院 | 物件辨識方法及裝置 |
US11610303B2 (en) | 2020-03-03 | 2023-03-21 | The University Court Of The University Of Edinburgh | Data processing apparatus and method |
WO2021216439A1 (en) | 2020-04-20 | 2021-10-28 | Chooch Intelligence Technologies Co. | Automated generation of training data for contextually generated perceptions |
US20220000409A1 (en) * | 2020-07-05 | 2022-01-06 | Hsin-Yin Chiang | On-ear electroencephalographic monitoring device |
WO2022015807A1 (en) * | 2020-07-14 | 2022-01-20 | Vicarious Fpc, Inc. | Method and system for object grasping |
US11461991B2 (en) * | 2020-12-30 | 2022-10-04 | Imagine Technologies, Inc. | Method of developing a database of controllable objects in an environment |
-
2021
- 2021-11-05 US US17/520,237 patent/US11461991B2/en active Active
- 2021-11-05 US US17/520,255 patent/US11500463B2/en active Active
- 2021-12-22 EP EP21916591.7A patent/EP4268124A4/en active Pending
- 2021-12-22 CN CN202180094969.8A patent/CN117337421A/zh active Pending
- 2021-12-22 WO PCT/US2021/073077 patent/WO2022147412A1/en active Application Filing
- 2021-12-22 JP JP2023540799A patent/JP2024504041A/ja active Pending
- 2021-12-22 KR KR1020237026008A patent/KR20230134508A/ko unknown
-
2022
- 2022-09-23 US US17/934,674 patent/US11816266B2/en active Active
-
2023
- 2023-10-06 US US18/482,684 patent/US20240036650A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220206576A1 (en) | 2022-06-30 |
US20220207281A1 (en) | 2022-06-30 |
US11461991B2 (en) | 2022-10-04 |
KR20230134508A (ko) | 2023-09-21 |
US20240036650A1 (en) | 2024-02-01 |
EP4268124A1 (en) | 2023-11-01 |
WO2022147412A1 (en) | 2022-07-07 |
US11500463B2 (en) | 2022-11-15 |
US11816266B2 (en) | 2023-11-14 |
EP4268124A4 (en) | 2024-05-15 |
CN117337421A (zh) | 2024-01-02 |
US20230018742A1 (en) | 2023-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11500463B2 (en) | Wearable electroencephalography sensor and device control methods using same | |
CN107576022B (zh) | 空调器的控制方法、空调器、及存储介质 | |
EP3158424B1 (en) | System and method for display enhancement | |
US20170123491A1 (en) | Computer-implemented gaze interaction method and apparatus | |
CN112771478A (zh) | 对环境中的物理对象的神经肌肉控制 | |
CN109074819A (zh) | 基于操作-声音的多模式命令的优选控制方法及应用其的电子设备 | |
CN103295028B (zh) | 手势操作控制方法、装置及智能显示终端 | |
Rantanen et al. | A Wearable, Wireless Gaze Tracker with Integrated Selection Command Source for Human‐Computer Interaction | |
US9474131B2 (en) | Lighting device, lighting system and wearable device having image processor | |
CN104793585A (zh) | 电子交互系统及其软件系统 | |
WO2015011703A1 (en) | Method and system for touchless activation of a device | |
CN111025922B (zh) | 一种目标设备控制方法及电子设备 | |
CN108036479A (zh) | 空调器的控制方法、系统、视觉控制器和存储介质 | |
CN108431731A (zh) | 用于执行基于生物计量信号的功能的方法、存储介质和电子设备 | |
CN112213951A (zh) | 一种床垫的联动控制方法及装置 | |
CN112733673B (zh) | 一种内容显示方法、装置、电子设备及可读存储介质 | |
Simoens et al. | Vision: smart home control with head-mounted sensors for vision and brain activity | |
CN108375912A (zh) | 智能家居控制方法及相关产品 | |
WO2024020408A1 (en) | Method of developing a data set of objects from images and uses thereof | |
CN208537830U (zh) | 一种穿戴式设备 | |
JP2021043549A (ja) | 情報処理装置及びプログラム | |
WO2023027578A1 (en) | Nose-operated head-mounted device | |
CN109144263A (zh) | 社交辅助方法、装置、存储介质及穿戴式设备 | |
CN107749942A (zh) | 悬浮拍摄方法、移动终端及计算机可读存储介质 | |
KR20220165092A (ko) | 제스처 분류기 학습방법 및 이를 이용한 제스처 추론 방법 |