JP2022523150A - スマートスピーカ用プライバシデバイス - Google Patents
スマートスピーカ用プライバシデバイス Download PDFInfo
- Publication number
- JP2022523150A JP2022523150A JP2021545926A JP2021545926A JP2022523150A JP 2022523150 A JP2022523150 A JP 2022523150A JP 2021545926 A JP2021545926 A JP 2021545926A JP 2021545926 A JP2021545926 A JP 2021545926A JP 2022523150 A JP2022523150 A JP 2022523150A
- Authority
- JP
- Japan
- Prior art keywords
- trigger
- microphone
- audio
- processors
- blocker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000903 blocking effect Effects 0.000 claims abstract description 309
- 238000000034 method Methods 0.000 claims abstract description 242
- 230000008569 process Effects 0.000 claims abstract description 47
- 230000001960 triggered effect Effects 0.000 claims description 132
- 238000004891 communication Methods 0.000 claims description 70
- 238000001514 detection method Methods 0.000 claims description 68
- 230000003213 activating effect Effects 0.000 claims description 55
- 238000012545 processing Methods 0.000 claims description 53
- 230000033001 locomotion Effects 0.000 claims description 49
- 230000007613 environmental effect Effects 0.000 claims description 31
- 230000003287 optical effect Effects 0.000 claims description 28
- 230000000694 effects Effects 0.000 claims description 19
- 230000015654 memory Effects 0.000 claims description 15
- 238000012544 monitoring process Methods 0.000 claims description 15
- 230000005540 biological transmission Effects 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 10
- 230000008859 change Effects 0.000 claims description 9
- 230000002452 interceptive effect Effects 0.000 claims description 9
- 230000004913 activation Effects 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 238000002955 isolation Methods 0.000 claims description 5
- 230000003252 repetitive effect Effects 0.000 claims description 3
- 238000003058 natural language processing Methods 0.000 claims 1
- 230000002265 prevention Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 abstract 1
- 230000006399 behavior Effects 0.000 description 26
- 238000012549 training Methods 0.000 description 19
- 230000004044 response Effects 0.000 description 16
- 230000010354 integration Effects 0.000 description 14
- 230000008901 benefit Effects 0.000 description 10
- 238000012986 modification Methods 0.000 description 9
- 230000004048 modification Effects 0.000 description 9
- 230000003111 delayed effect Effects 0.000 description 7
- 230000000670 limiting effect Effects 0.000 description 7
- 238000012360 testing method Methods 0.000 description 7
- 230000001427 coherent effect Effects 0.000 description 6
- 239000000835 fiber Substances 0.000 description 6
- 238000003825 pressing Methods 0.000 description 6
- 238000012790 confirmation Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 125000001475 halogen functional group Chemical group 0.000 description 4
- 238000007689 inspection Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 239000006260 foam Substances 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000009413 insulation Methods 0.000 description 3
- 230000000873 masking effect Effects 0.000 description 3
- 239000000047 product Substances 0.000 description 3
- 230000002829 reductive effect Effects 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 210000000707 wrist Anatomy 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000005684 electric field Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000012528 membrane Substances 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000001681 protective effect Effects 0.000 description 2
- 230000000284 resting effect Effects 0.000 description 2
- 238000010079 rubber tapping Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 239000006227 byproduct Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000005538 encapsulation Methods 0.000 description 1
- 238000004146 energy storage Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 239000011810 insulating material Substances 0.000 description 1
- 239000012774 insulation material Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000005865 ionizing radiation Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 231100000989 no adverse effect Toxicity 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 108091008695 photoreceptors Proteins 0.000 description 1
- 235000013550 pizza Nutrition 0.000 description 1
- 230000004224 protection Effects 0.000 description 1
- 230000001012 protector Effects 0.000 description 1
- 238000010223 real-time analysis Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 230000002459 sustained effect Effects 0.000 description 1
- 230000003685 thermal hair damage Effects 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R29/00—Monitoring arrangements; Testing arrangements
- H04R29/004—Monitoring arrangements; Testing arrangements for microphones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/22—Interactive procedures; Man-machine interfaces
- G10L17/24—Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04K—SECRET COMMUNICATION; JAMMING OF COMMUNICATION
- H04K1/00—Secret communication
- H04K1/02—Secret communication by adding a second signal to make the desired signal unintelligible
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04K—SECRET COMMUNICATION; JAMMING OF COMMUNICATION
- H04K3/00—Jamming of communication; Counter-measures
- H04K3/40—Jamming having variable characteristics
- H04K3/41—Jamming having variable characteristics characterized by the control of the jamming activation or deactivation time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04K—SECRET COMMUNICATION; JAMMING OF COMMUNICATION
- H04K3/00—Jamming of communication; Counter-measures
- H04K3/40—Jamming having variable characteristics
- H04K3/45—Jamming having variable characteristics characterized by including monitoring of the target or target signal, e.g. in reactive jammers or follower jammers for example by means of an alternation of jamming phases and monitoring phases, called "look-through mode"
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04K—SECRET COMMUNICATION; JAMMING OF COMMUNICATION
- H04K3/00—Jamming of communication; Counter-measures
- H04K3/40—Jamming having variable characteristics
- H04K3/46—Jamming having variable characteristics characterized in that the jamming signal is produced by retransmitting a received signal, after delay or processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04K—SECRET COMMUNICATION; JAMMING OF COMMUNICATION
- H04K3/00—Jamming of communication; Counter-measures
- H04K3/60—Jamming involving special techniques
- H04K3/65—Jamming involving special techniques using deceptive jamming or spoofing, e.g. transmission of false signals for premature triggering of RCIED, for forced connection or disconnection to/from a network or for generation of dummy target signal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04K—SECRET COMMUNICATION; JAMMING OF COMMUNICATION
- H04K3/00—Jamming of communication; Counter-measures
- H04K3/60—Jamming involving special techniques
- H04K3/68—Jamming involving special techniques using passive jamming, e.g. by shielding or reflection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04K—SECRET COMMUNICATION; JAMMING OF COMMUNICATION
- H04K3/00—Jamming of communication; Counter-measures
- H04K3/80—Jamming or countermeasure characterized by its function
- H04K3/82—Jamming or countermeasure characterized by its function related to preventing surveillance, interception or detection
- H04K3/822—Jamming or countermeasure characterized by its function related to preventing surveillance, interception or detection by detecting the presence of a surveillance, interception or detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04K—SECRET COMMUNICATION; JAMMING OF COMMUNICATION
- H04K3/00—Jamming of communication; Counter-measures
- H04K3/80—Jamming or countermeasure characterized by its function
- H04K3/82—Jamming or countermeasure characterized by its function related to preventing surveillance, interception or detection
- H04K3/825—Jamming or countermeasure characterized by its function related to preventing surveillance, interception or detection by jamming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R5/00—Stereophonic arrangements
- H04R5/04—Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L2025/783—Detection of presence or absence of voice signals based on threshold decision
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04K—SECRET COMMUNICATION; JAMMING OF COMMUNICATION
- H04K2203/00—Jamming of communication; Countermeasures
- H04K2203/10—Jamming or countermeasure used for a particular application
- H04K2203/12—Jamming or countermeasure used for a particular application for acoustic communication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04K—SECRET COMMUNICATION; JAMMING OF COMMUNICATION
- H04K2203/00—Jamming of communication; Countermeasures
- H04K2203/10—Jamming or countermeasure used for a particular application
- H04K2203/14—Jamming or countermeasure used for a particular application for the transfer of light or images, e.g. for video-surveillance, for television or from a computer screen
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2420/00—Details of connection covered by H04R, not provided for in its groups
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2420/00—Details of connection covered by H04R, not provided for in its groups
- H04R2420/01—Input selection or mixing for amplifiers or loudspeakers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2499/00—Aspects covered by H04R or H04S not otherwise provided for in their subgroups
- H04R2499/10—General applications
- H04R2499/11—Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's
Abstract
Description
本明細書に説明されるシステムは、主に非統合様式で実装され得、ブロッカーは、リスニングデバイスの入力デバイスによって送信される通信を横取りせずに、リスニングデバイスに追加される。ブロッカーデバイス(301)は、リスニングデバイス(302)の1つ以上のマイクロフォン(306)(ブロッカーデバイスの一部および/またはブロッカーデバイスの外部であり得る)をカバーするおよび/またはその近くの場所に配置され、リスニングデバイスが環境内の音をリスニングする能力を制限する、コンピューティングデバイスなどのデバイスであり得る。
本明細書に説明されるシステムは、ブロッカーが、リスニングデバイスに追加され、リスニングデバイスの入力デバイスによって送信される通信を横取りするように構成される、統合された様式で実装され得る。ブロッカーデバイス(101)は、リスニングデバイス(102)に統合され得る。ブロッカーは、リスニングデバイスに恒久的に物理的に固定および/または装着される、クリップ(204)で一時的にクリップされる、ならびに/またはねじ込まれる、および/もしくは別様に一時的に装着される、ケーブルで緩く接続される、かつ/あるいはリスニングデバイスに物理的に接続されない場合がある。リスニングデバイスには、ブロッカーが使用されるか、またはバイパスされるかを制御する物理スイッチを有し得る。
ブロッカーデバイスは、電源にプラグ接続され得、リスニングデバイスの電力ケーブルは、ブロッカーの電力ソケットにプラグ接続され得る。ブロッカーデバイスは、プロセッサ、マイクロフォン、電力ケーブル、および電力ソケットから構成され得る。ブロッカーが遮断モードにある間、リスニングデバイスへの電力は、オフにされ得るが、ブロッカーが通過モードにある間、電力は、リスニングデバイスに利用可能であり得る。
ブロッカーのプロセッサは、ソフトウェアを実行することができる(例えば、メモリ内に記憶された)より一般的なコンピューティングデバイスの一部であり得、それによって、ソフトウェアは、トリガが発生したかどうかを処理および決定するための命令を提供する。代替的および/または追加的に、プロセッサは、トリガが発生したかどうかを決定するために最小限のソフトウェアが必要とされるか、またはソフトウェアが必要とされないように、音を処理するために特別に設計されている回路基板を備え得る。両方のアプローチが使用される場合、回路基板は、トリガが任意の所与の時間で可能性であるか、または可能性が高いかどうかも決定するように初期処理を行い得、トリガがある程度の合理的なレベルの可能性を有すると決定すると、プロセッサの一般的なコンピューティング部分をウェイクアップおよび/または別様にアクティブ化して、ソフトウェアを使用して、トリガが実際に発生したか否かをより高い信頼性で確認し得る。このアプローチは、限定されるものではないが、電力の節約、および/またはブロッカーのソフトウェアでさえ、より少ない時間の割合の環境の音へのアクセスを有する追加のプライバシ保証を提供することを含む、いくつかの利点をもたらし得る。
このドキュメント全体を通した全ての場合に、マイクロフォン(単数)およびマイクロフォン(複数)は、互換的に使用され、例えば、単一のマイクロフォンが参照される任意の場合に、単一のマイクロフォンは、複数のマイクロフォンに置換されてもよい。全てのマイクロフォンはまた、マイクロフォンアレイおよび/またはマイクロフォンからのデータを提供する中間デバイスに置換されてもよい。
能動的遮断は、非統合実装で特に有用であり得る。ブロッカーは、言語認識を使用するデバイス、人工知能システム、および/または人間による盗聴を防止するために効果的である様々な能動的遮断方法の1つまたは任意の組み合わせを採用し得る。ブロッカーは、ランダム静的ノイズを発生させ得る。ブロッカーは、リアルタイムで、および/または過去の最大数秒として測定された、環境の音の進行中の音量を決定し、決定された環境音量に基づいて、発生するノイズ音量を調整し得、それにより、発生するノイズは、周囲の音量が低下したときに人々の邪魔をせずに盗聴を防止することをより確実にする。ブロッカーは、ブラウンノイズなどの、ホワイトノイズとは異なる特性、および/または人間の発話を理解することをより困難にすることが特に知られている特性を有するノイズを発生させ得る。ブロッカーは、特定の周波数範囲の存在および/もしくは音量、音波形のタイプ、周波数の持続時間、ならびに/または人間の発話がどの程度存在するかなどの、音量の決定と同様の環境の音の他の特徴を決定し、そのような決定を使用して、発生するノイズの音量、特性、周波数の混合および/もしくは持続時間、個々の周波数の音量、ならびに/または他の特徴を変化させ得る。例えば、ブロッカーは、周囲の一般的な音量が50dbであり、男性の声が80dbの短いバーストで話していると決定し、概して60dbであるが、典型的な男性の声の周波数を有する90dbの頻繁な短いバーストを有するノイズを発生させ得る。
受動的遮断は、非統合実装における特定の用途を見出し得る。ブロッカーは、リスニングデバイスに物理的に取り付けられたときに遮音シールを形成するために、発泡体などの圧縮性材料を有し得る。リスニングデバイスに取り付くブロッカーの剛性または圧縮性部分は、様々なリスニングデバイス用に設計されている、他の形状に互換可能なアダプタから構成され得、互換可能なアダプタは、可能な設計のカタログから3Dプリントされ得る。ブロッカーは、様々な遮音材料および遮音技法を使用し得る。遮音材料は、全ての音がリスニングデバイスに到達することをブロックする必要はないが、代わりに、特定の量または範囲の音がリスニングデバイスに到達することを遮断し得る。例えば、ブロッカー上の遮音発泡体は、非常に大きな音(例えば、爆発)がリスニングデバイスに到達することを許可し得るが、発話と関連付けられた音がリスニングデバイスに到達することを弱め得る。
ブロッカーは、オーディオデータおよび/またはビデオデータがリスニングデバイスおよび/またはリスニングデバイスの構成要素(例えば、リスニングデバイス内のプロセッサ)に到達する前に、オーディオデータおよび/またはビデオデータを横取り(intercept)するように構成され得る。例えば、ブロッカーは、そのようなデータがリスニングデバイスによって受信されることを可能にするのではなく、リスニングデバイスの1つ以上のマイクロフォンおよび/または1つ以上のカメラからオーディオデータおよび/またはビデオデータを受信および処理するように構成され得る。そのような横取りは、入力デバイスと関連付けられた1つ以上の伝送経路を遮るか、短絡するか、または別様に修正することを含み得る。例えば、マイクロフォン用の配線が切断され得、切断された配線の両端がブロッカーに挿入され得る。
ブロッカーは、遮断モードが通過モードに変化されるべきであると決定するために、様々なトリガを待機および/または検出し得る。ブロッカーは、トリガが発生したかどうかを決定する際に、マイクロフォンの1つ以上からの音情報を使用し得る。ブロッカーは、周囲音の音量を使用し得、例えば、少なくとも0.5秒間、50db以上の音がトリガであり得る。ブロッカーは、特定の周波数および/もしくは音波の形状、周波数および/もしくは音波の形状の組み合わせ、ならびに/または周波数の一般的なパターンを使用し得、例えば、具体的に何のワードが話されているかを決定することを試みずに、音節を発話している成人女性の声に典型的である周波数および波形、および/または口笛を吹いている人物が、トリガになり得る。ブロッカーは、様々な音声認識技法および/または言語認識技法(例えば、音声をワードにマッピングせずに音声を認識するのではなく、特定の言語のワードを認識する)を使用して、音情報をテキストに変換し、次いで、特定のワードまたはフレーズが話されているかを決定し得、例えば、「コマンド」というワードがトリガになり得る。ブロッカーは、特定のワードまたはフレーズが発話されていた可能性がより高いことを示す周波数および波形の特定のパターンが発生したかどうかを決定し得るが、一般に音情報をテキストに変換せず、例えば、ブロッカーは、「コマンド」というワードが発話されたか否かを単純に決定し得、発話された場合、それがトリガになり得、発話されていない場合、音声分析は、必要ない。
ブロッカーは、環境の周囲音量が増加するにつれて、オーディオトリガの決定中に、より広い偽陽性許容範囲になるように構成され得る。これは、環境のノイズが増えるにつれて、偽陰性、トリガの見落としが増えることを防止し得る。ブロッカーは、周囲ノイズが人間の発話によって、または非発話ノイズによって引き起こされたかどうかを決定し得、ブロッカーは、この決定を、トリガ検出許容範囲に対する周囲音量の影響を決定する際に使用し得る。ブロッカーは、トリガ検出許容範囲に対する周囲音量の影響を決定する際に、ユーザ選好などの構成を受け入れ得る。
ブロッカーは、トリガが発生したかどうかを決定するためにリスニングデバイスの挙動を使用し得る。トリガは、通過モードを結果的にもたらす初期トリガと、初期トリガが真陽性であったことを示す後続のトリガおよび/または確認と、を含み得る。ブロッカーは、リスニングデバイスの挙動を検出するために要求される期間に限定された期間を越えて通過モードを維持するために、確認トリガを要求し得る。追加的または代替的に、確認トリガは、通過モードを追加の時間だけ延長するために使用され得る。検出された挙動は、電話を受信することに応答して鳴っている電話などの、リスニングデバイスの使用状況に基づき得る。検出された挙動は、ブロッカーとのリスニングデバイスの通信の一部として、リスニングデバイスによって実施され得る。検出された挙動は、ブロッカーの互換性および/または改善された性能のための挙動を実施するようにリスニングデバイスを構成しているユーザであり得る。
ブロッカーは、トリガが発生したかどうかを決定する際に、リスニングデバイスのユーザの取り扱いを使用し得る。これは、通過モードを結果的にもたらす初期トリガと、初期トリガが真陽性であったことを示す後続のトリガおよび/または確認と、を含み得る。検出された取り扱いは、リスニングデバイスの使用状況に基づき得る。例えば、通話中に電話を耳に当てるユーザ、および/またはGPSの画面をタッチして方向を要求するユーザ。トリガは、例えば、ブロッカーおよび/またはリスニングデバイス上のボタンを押すことによって、ブロッカーと通信するためにユーザによって実施される措置に基づいて検出され得る。いくつかの例では、トリガは、リスニングデバイスの使用状況に固有の挙動の修正された変形に基づいて検出され得る。例えば、ユーザがリスニングデバイスを非アクティブのままにする場合のリスニングデバイスの配向、または複数の取り扱いの任意の組み合わせ。ユーザの取り扱いは、本質的にポータブルである、電話、タブレット、および生体認証ウェアラブルなどの、多くのポータブルデバイスに適用され、それゆえに、顕著な運動および/または位置付け特徴を有する。ユーザの取り扱いはまた、スマート冷蔵庫ディスプレイ、スマート電子レンジ、およびスマートサーモスタットなどの静止している複数のデバイスにも適用され、触覚(例えば、タッチ)および/または操作の取り扱いを有する。いくつかのデバイスは、ユーザがそれらを取り扱っているときのみ使用され得、スマートスピーカなどの他のデバイスは、主にまたは時折、離れた場所にいるユーザによって使用される。
ボタンが押されていることとは異なり、多くのタイプのトリガについて、例えば、ユーザが「コマンド」を言ったか否かを決定する際に、トリガが発生したか否かについて複雑な決定が存在し得る。ブロッカーは、リスニングデバイスよりも音ベースのトリガでは、より低い精度の方法およびアルゴリズムを使用し得る。そのようなより低い精度は、制限された数のオーディオトリガ、および制限された数の潜在的に生じる措置のため、ブロッカープロセッサが、リスニングデバイスのプロセッサよりも非力であることを可能にし得る。ブロッカーは、偽陽性の影響が、ブロックされる音の割合の名目上の減少以外にユーザ体験に悪影響を有しない場合があるため、トリガ検出に関して偽陰性よりも多い偽陽性を可能にし得る。
ブロッカーは、様々なインジケータを使用して、通過モードをいつ終了するか、したがって、通過モードから遮断モードに戻すかを決定し得、これらのインジケータは、終了インジケータと呼ばれ得る。ブロッカーは、終了インジケータとして、通過モードに入ってからの経過時間を使用し得、例えば、通過モードは、15秒に制限され得、次いで、ブロッカーは、遮断モードに戻り得る。例えば、ブロッカーは、所定の期間の後に通過モードを停止し得る。ブロッカーは、この説明で説明されている任意のタイプのトリガを終了インジケータとして使用し得る。例えば、終了インジケータは、午後9時以降、かつ女性の声が検出されたことの両方であり得る。ブロッカーは、通過モードをトリガしたトリガに関するメタデータを使用して、どのタイプの終了インジケータおよび/またはそれらの終了インジケータのパラメータが必要とされるかを決定し得、例えば、トリガが午後4時に到達する時刻であった場合、ブロッカーは、終了インジケータのみが午後5時に到達する時刻のみであると決定するが、トリガが、発話された「コマンド」というワードであった場合、ブロッカーは、終了インジケータが、15秒経過するか、または、例えば、声の周波数または他の特徴に基づいて、異なる人物が発話を開始したことを検出し得るかのいずれかを決定し得る。ブロッカーは、終了インジケータに影響を与え得るトリガ中にユーザから追加のメタデータを受信し得、例えば、「コマンド」という用語がトリガとして発話される場合、終了インジケータは、デフォルトで15秒経過であり得るが、「コマンド1時間」および/または「コマンドロング」というフレーズがトリガとして発話された場合、終了インジケータは、トリガから1時間経過であり得る。
ブロッカーが通過モードにあるとき、ブロッカーは、マイクロフォンからの全ての音を通過させ得る、および/またはブロッカーは、音がリスニングデバイスに渡る前にマイクロフォンからの音を前処理および/または修正し得る。ブロッカーは、人間の発話の周波数などの、一部の周波数のみに音をフィルタ処理し得、例えば、電子レンジが作動している間、および/または足音が聞こえる間に人物が発話している場合、ブロッカーは、リスニングデバイスが発話している人間の音のみを受信するように、音をフィルタ処理することによってマイクロフォンからの音を修正し得る。これは、リスニングデバイスの言語認識の改善された精度を結果的にもたらし得るが、通過モード中に発生する活動をリスニングデバイスが盗聴する能力を低減させることによって、向上したプライバシも結果的にもたらし得る。ブロッカーは、特定の音量閾値に到達していない期間中に全ての音を追加的および/または代替的にフィルタ処理し、それにより、非常に静かであるとみなされ、したがって、リスニングデバイス向けのコマンドである可能性が低いと決定される音がフィルタ処理され得、例えば、通過モード中に進行中のバックグラウンド運動ノイズおよび/またはささやき声は、それらをリスニングデバイスに渡す前に音から除去され得る。
ブロッカーは、様々なやり方でブロッカーに影響を与えるために、ユーザによって構成可能であり得る。ブロッカーは、遮断モードが通過モードに変更されるべきであると決定するために、どのタイプ(複数可)のトリガがブロッカーによって使用されるべきかを決定するために、ブロッカーによって使用されるユーザからの構成情報を受け入れ得、例えば、構成情報は、ガレージドアを開く、女性の声を発話する、「コマンド」というワード、「プライバシ」というワード、検出するwifiデバイスの全て、各デバイスが有効なトリガであるか否かを含む、リストを含み得る。ブロッカーは、トリガ用の構成パラメータを受け入れ得、例えば、構成情報は、時刻および日付のスケジュールトリガ用のスケジュールを形成する複数の開始時刻および終了時刻を含み得る。ブロッカーは、ブロッカーおよび/またはリスニングデバイスの使用状況に関する様々なログ記録データを記録するためのストレージを有し得、その例において、ログは、各トリガの日付、時刻、およびタイプ、ならびにトリガした人、通過モードで発話されたワードの転写、各通過モードの最初の10秒の記録を含み得る。ブロッカーの構成可能な態様の追加の非限定的な例は、任意の所与のトリガ後に通過モードに留まるデフォルトの時間の長さ、トリガの最小音量レベル、自動的に遮断モードに戻る前の無音の長さ、ログに記録するエントリの数、トリガが発生した可能性に要求される許容範囲および/もしくは最小値、ログに記録する情報の選択、wifiへの接続の仕方の命令、ブロッカー内のwifi電子機器が有効化されるべきか否か、ブロッカーが使用するべき言語、ブロッカーのクロックにおける現在時刻設定、ならびに/または他の構成用の制限無効化としての通過モードの最大長さを含む。
ブロッカーは、ブロッカーが通過モードに入ることをリスナデバイス自体および/または他の無許可の電子機器がトリガすることを防止するために、1つ以上の方法を採用し得、例えば、リスニングデバイスは、そのスピーカを使用して「コマンド1時間」でブロッカーに無許可の盗聴を実施するように命令することを防止されることになる。ブロッカーは、方向検出マイクロフォンを使用し、リスニングデバイスの方向から来るいかなる音トリガも無視し得る。追加的および/または代替的に、ブロッカーは、より複雑な一般的な方向検出の代わりに、リスニングデバイスがオーディオを出力している(例えば、リスニングデバイスの1つ以上のスピーカを介して)、および/またはトリガすることを試行しているかどうかを検出することができ得るように、リスニングデバイスに近接して配置されている、および/またはリスニングデバイスに焦点を合わせられている、追加のマイクロフォンを使用し得る。この追加のマイクロフォンは、従来の空気マイクロフォンであり得る、および/またはそれは、固体物体を通って伝わる音のためのマイクロフォンとして機能する振動センサであり得、振動センサは、リスニングデバイスに直接的に、もしくはリスニングデバイスに触れているブロッカーに固定されることによって間接的に固定され得る。ブロッカーはまた、トリガ音が実際の人物および/または人工スピーカによって生成されたか否かを検出し得、例えば、ブロッカーは、トリガ音のスペクトル分析を行い、予想される高周波の欠如が存在し、それゆえに、トリガが無許可の電子機器によって生成されたため、トリガが無視されるべきであると決定し得る。ブロッカーはまた、無許可の電子機器および/またはリスナデバイス自体がコマンドを発行する場合に少なくとも証明が存在することを確保するために要求される組み合わせトリガとして、他のタイプのトリガの使用を行い得、例えば、ブロッカーは、人工スピーカがトリガ源になることを許可し得るが、人々が過去2秒以内にブロッカーと同じ部屋にいたことをモーション検出器が検出した場合に限る。
ブロッカーは、ブロッカーの進行中の状態、他の状態情報、および/または活動情報をユーザに示すための様々なやり方を有し得る。ブロッカーは、ブロッカーのモードおよび/または他の情報をユーザに示す1つ以上のライトを有し得、例えば、ブロッカーは、遮断モードにあるときに消灯し、通過モードにあるときに最大15秒間点滅し、15秒間を超えて通過モードにあるときに連続点灯する、1つの小さいLEDライトを有し得る。ブロッカーは、スピーカを使用して、ユーザにフィードバックを提供し得る。例えば、ブロッカーは、ブロッカーを通過モードにするトリガが検出された後、スピーカに、200ミリ秒間ビープ音を鳴らさせ得る。別の例として、ブロッカーは、通過モードが終了したときに「遮断モードが再開された」と言うか、または通過モードで1時間毎に「依然としてリスニングしている」と言ってもよい。ブロッカーは、別のデバイスに信号を送り得、その結果、ユーザに通知し、例えば、ブロッカーは、通過モードに入る毎にwifiおよび/またはBluetooth(登録商標)メッセージをスマートフォンに送り、スマートフォンは、そのようなメッセージを受信すると振動すると共に、最新のメッセージの日付および時刻の視認可能なログをユーザに提供することになる。
ブロッカー、リスニングデバイス、およびいずれかの様々な構成要素の物理的な分離および/または組み合わせは、変化し得る。ブロッカーは、リスナの内側に位置してもよく、リスナがブロッカーの内側に位置してもよく、それらは、別個であってもよい。リスナが使用するマイクロフォンは、リスナの内側、ブロッカー内、バイパスおよび設置中にリスナの内側に位置し得るプライバシモジュール内に位置し得る、ならびに/または別個の物体とすることができる。リスナが使用するスピーカは、リスナの内側、ブロッカー内、バイパスおよび設置中にリスナの内側に位置し得るプライバシモジュール内に位置し得る、ならびに/または別個の物体とすることができる。リスナが使用するマイクロフォンおよびスピーカは、同じ構成要素内に物理的に位置してもよく、および/または両方が一緒に位置するが、ブロッカーおよびリスナから別個であってもよい。
リスニングデバイスは、統合されることを意図する、および/または人間を対象とするが、統合されることができる、追加のインターフェースを有し得る。リスニングデバイスは、ミュートボタンおよび/またはスイッチを有し得、コマンドボタンおよび/またはスイッチを有し得る。ブロッカーは、「スマートボタン」に一般的に見られるものと同様に、1つ以上のロボットボタンプッシャを有し得、遮断モードと通過モードとの間のモードを切り替えるブロッカーは、ボタンプッシャに、リスニングデバイスのミュートおよび/またはアクションボタンを押させ、それによって、ミュート機能および/または異なる機能をアクティブ化する。追加的および/または代替的に、ブロッカーは、リスニングデバイスのミュート/アクションボタンとリスニングデバイスのプロセッサとの間の電気回路に接続し、ブロッカーがモードを切り替えるときはいつでも、回路のバイパス(リスニングデバイスに送られる信号)を引き起こし得る。追加的および/または代替的に、ブロッカーは、リスニングデバイスのボタンとリスニングデバイスのプロセッサとの間の中間デバイスとして機能し、ならびに/またはボタン構成要素をブロッカーおよび/もしくはブロッカーに統合されている代替構成要素と完全に置換し得、それにより、リスニングデバイスのプロセッサは、ブロッカーがモードを切り替えるときはいつでも、ボタンが押されることと同等の信号を受信する。マイクロフォンをミュートすることができるボタンとの統合は、リスニングデバイスのプロセッサとリスニングデバイスのマイクロフォンとの間の媒介であるブロッカーに対する代替であり得る。
ブロッカーは、リスニングデバイスまたはリスニングデバイスの構成要素に電力を提供するバッテリを収容し得る。リスナデバイスは、恒久的に設置されたバッテリを含むこのブロッカーを有し得るか、またはリスナデバイスは、バッテリを含む相互交換可能なブロッカーを可能にし得、例えば、いくつかの携帯電話は、バッテリを交換する能力を有し、バッテリを含むブロッカーは、同様に交換可能である。
リスニングデバイスは、実際には、マイクロフォンの代わりにカメラを含む、ウォッチングデバイス、またはリスニングおよびウォッチングデバイスの両方であり得、統合されたブロッカーは、リスニングデバイスの場合と同様に、ウォッチングデバイスのコンテキスト内で非常に類似して機能し得、そのようなシステムは、ウォッチングシステムと呼ばれ得る。ウォッチングシステムは、リスニングシステムと多くの特性を共有し得、リスニングシステムについてこの説明全体で説明されている技法の多くは、ウォッチングシステムにも同様に適用され得る。自己トリガおよび通過前処理に関連するこの説明のセクションは、そのようなウォッチングシステムに適用される必要のないセクションの例である。より具体的には、ウォッチングシステムの場合、ブロッカーは、この説明全体で概説されているものと同じ物理的統合を有し得るが、接続を通じた音データの代わりに、ビデオデータ、視覚データ、および/または視聴覚データであり得る。ブロッカーの構成要素および構成要素の場所は、この説明全体で概説されているものと同じであり得るが、マイクロフォンの代わりにカメラを含む。ブロッカーのプロセッサ、トリガのタイプ、より低い精度トリガ検出を使用する能力、通過モードを終了するための論理、ブロッカー構成可能性、ブロッカーログ記録、ユーザへのフィードバック、コンテナ、およびリスニングで利用可能な追加の統合ポイントに関するこの説明のセクションは、全て、適用可能なままであり得る。
ユーザは、ブロッカーとインターフェースするようにリスニングデバイスを修正し得、ブロッカーで提供される命令に対する修正に基づき得る。例えば、ユーザは、市販のスマートスピーカなどのリスニングデバイスを購入し、ブロッカーに提供された命令に従うことによって、ブロッカーで使用するためにリスニングデバイスの1つ以上の態様を開くおよび/または別様に修正し得る。ユーザは、それによって、ユーザが以前に購入したリスニングデバイス上に販売後のブロッカーを設置することができる。ブロッカーに提供される命令は、リスニングデバイス上にブロッカーを設置するために1つ以上の工程に関してユーザに命令し得る。例えば、命令(例えば、ブロッカーに提供される)に基づいて、ユーザは、リスニングデバイスのマイクロフォンにつながる配線を切断し得、配線の各切断端をブロッカーの一部分に挿入し得る。別の例として、ユーザは、命令に基づいて、マイクロフォンを含むリスニングデバイスの一部分を、その独自のマイクロフォンを収容し得るブロッカーと置換し得る。別の例として、ユーザは、命令に基づいて、カメラを含むリスニングデバイスの一部分を、その独自のカメラを収容し得るブロッカーと置換し得る。別の例として、ユーザは、リスニングデバイスのマイクロフォンを無効化し(例えば、物理的に破壊する)、ブロッカーを外部マイクロフォンとしてリスニングデバイスに接続する(例えば、リスニングデバイスがブロッカーに依存させられ得る)ように命令され得る。
ブロッカーによって遮断されるリスナ上の1つ以上の入力デバイスは、マイクロフォンのみである必要はない。入力デバイスは、マイクロフォン、カメラ、GPS、加速度計、近接センサ、光センサ、または別のものなどの、リスナの環境に関する情報をリスナが受信することを目的とする構成要素を含み得る。入力デバイスはまた、環境を観察していない構成要素を含み得るが、むしろ、リスナの環境に関する情報をリスナに間接的に提供し得るか、または間接的に提供し得ない、Bluetooth(登録商標)チップセットもしくはwifiチップセットなどの通信構成要素、および/またはセルラーSIMカードである。
トリガ検出は、ユーザが対話しようとしている1つ以上のリスナを区別する方法を有し得る。ブロッカーは、ユーザが対話しようとしているリスナがどれかを区別するために、複数のデバイス向けのマルチワードトリガを有し得る。例えば、「コマンド」という一般的なトリガの後に「電話」というトリガワードが続く場合があり、これは、電話に取り付けられたブロッカーのみが通過モードを続行することを示し得る。ブロッカーは、トリガの一部分が検出されると通過モードに入り、次いで、トリガの別の部分が検出されない場合、遮断モードに戻り得、第2の部分は、ブロッカーによってトリガとして同時に使用され得るが、ウェイクワードおよび/またはコマンドとしてリスナによっても使用され得る。例えば、「コマンド、ハロー、ブランドA」が、トリガ全体であり、「コマンド」というワードは、最終的に望まれるデバイスブランドがどれであっても、全てのブロッカーが通過に入ることを可能にし、ユーザが2回繰り返さなくても「ハロー、ブランドA」を受信することができ、「ブランドB」のブロッカーが遮断モードに戻る場合、プライバシの懸念が最小限に抑えられ得る。所与のブロッカーは、所与のブロッカーが意図されたものであると否定的に確認する代わりに、異なるリスナが意図されていると肯定的に確認しない限り、デフォルトで通過モードのままであり得、これは、ブロッカーが偽陰性(例えば、トリガの見落とし)を低減することを可能にし得る。
遮断モードにあるか、1つ以上のリスナのプロセッサがリスナの入力デバイスからのデータにアクセスすることを防止するブロッカーは、リスナがユーザのために含む構成選択肢と比較して、リスナおよび/またはリスナのソフトウェアアプリケーションに対するより細分化されたパーミッションをユーザに提供する利点を有し得る。例えば、リスナは、アプリケーションがカメラ入力デバイスおよび/または関連するカメラフラッシュライトの使用を行うことができるか否かを示す、アプリケーション毎に単一のソフトウェア許可設定を有し得る。しかしながら、ブロッカーによると、ユーザは、ソフトウェアアプリケーションオペレーティングシステムに、カメラおよびフラッシュライトのペア用の定義済みパーミッションを与えることができ得るが、アプリケーションは、フレッシュライトに点滅することを合図することのみができるが、遮断モード中にカメラにアクセスすることができない。別の例として、ユーザは、Bluetooth(登録商標)ビーコンが動作することを必要とするソフトウェアアプリケーション用の電話のオペレーティングシステム上のロケーションサービスを有効化することができ、ソフトウェアアプリケーションは、ユーザの位置を追跡するために使用され得、それゆえに、ロケーションサービスを要求し、ユーザは、アプリケーションがGPS測位を使用することを依然として遮断する。
以下は、本明細書に説明されるような様々な実施の形態および/または特徴を組み合わせた非限定的な例であることを意図している。
リスニングデバイスは、どのプライバシ指定をリスナと関連付けるかを決定する検査を受け得る。そのような検査は、リスナの物理的検査および/またはリスナの回路図の検査によるものであり得る。検査の工程は、本明細書にリスト化されている順序で実施する必要はない。インスペクタは、リスニング設計を検査して、プロセッサの特定のピンが、1つ以上の入力デバイス(センサ)まで直接的に通じるかどうか、および/または全長を試験され得、未試験の空隙なしの、1つ以上のセンサまでの経路を有するかどうかを決定し得る。インスペクタは、センサとプロセッサとの間の特定の構成要素がバイパスできないように、センサに直接的または間接的に接続されている回路が、十分に隔離されていることを試験し得る。インスペクタは、センサがプロセッサに信号を提供している任意の時点で、構成要素間の特定のものがユーザに十分なフィードバックを提供することを試験し得る。インスペクタは、リスニングデバイスの一次プロセッサとは別のブロッカーのマイクロプロセッサが、ブロッカーのマイクロプロセッサに接続されている回路のいずれかを通じて再プログラムされること、または更新されたソフトウェアを有することができないことを試験し得る。上記の全てが真である場合、リスニングデバイスは高いプライバシメトリックを割り当てられ得る。
リスニングデバイスのミュートボタンを押し得るロボットボタンプッシャはまた、ロボットトグルスイッチャ、カメラシャッタスライダ、および/またはリスニングデバイス上で操作される制御部に対応する様々な同等の物理的マニピュレータであってもよい。
図1~6は、以下に提供されるように、上記の特徴を実装するために使用され得る。図1は、ブロッカーデバイス101がリスニングデバイス102に統合されている例示的なシステムを図示する。図1は、例えば、リスニングデバイスに統合されたデバイスに関して上記の特徴を実装し得、本明細書の他のセクションで説明される特徴を実装し得る。リスニングデバイス102は、他の構成要素の中でも、プロセッサ103、電源接続107、1つ以上のマイクロフォン106を含み得る。プロセッサ103、およびリスニングデバイス102の他の要素は、ブロッカーデバイス101の同様の要素とは異なってもよい。例えば、リスニングデバイス102およびブロッカーデバイス101は、両方、異なるプロセッサであるとしても、プロセッサを有し得る。リスニングデバイスは、WANを介してリスニングデバイスサーバ109に接続し得る。リスニングデバイス102は、電源接続108を通じてブロッカーデバイス101に電力を提供し得る。ブロッカーは、1つ以上のマイクロフォン104を有し得、これは、通過モードおよび遮断モードの両方にある間にブロッカーによって使用され得る。1つ以上のマイクロフォン106は、媒介としてブロッカーデバイス101を通じてプロセッサ103への1つ以上の接続105を有し得、プロセッサ103は、ブロッカーデバイス101が通過モードにあるときのみ利用し得る。1つ以上のマイクロフォン106は、例えば、2つの配線105によって接続され得、ブロッカーデバイス101は、プロセッサ103と1つ以上のマイクロフォン106との間の回路の1つのセグメント(信号配線としても知られ得る、出力セグメント)と直列であることのみを必要とし得るが、一方、他の配線は、プロセッサ103に直接通じ得るが、プロセッサ103に音情報を独立して提供することができない。
以下、様々な特徴が、一連の番号付きの条項または段落で強調されることになる。これらの特徴は、本発明または本発明の概念を限定するものとして解釈されるべきではないが、そのような特徴の重要性または関連性の特定の順番を示唆せずに、本明細書に説明されるいくつかの特徴の強調として単に提供される。
本出願は、2019年2月7日出願の「Privacy Device For Smart Speakers」と題された米国特許仮出願第62/802,628号、および2020年1月7日出願の「Privacy Device for Smart Speakers」と題された米国特許仮出願第62/958,305号の優先権を主張し、それらの全体は、参照によりその全体が本明細書に組み込まれる。
Claims (190)
- 遮断デバイスであって、
環境オーディオがマイクロフォンからリスニングデバイスに送信されることを防止するように構成された横取り回路と、
前記マイクロフォンを使用して、前記環境オーディオ中のオーディオトリガを決定するように構成されたリスニング回路と、
前記オーディオトリガに基づいて、第2の環境オーディオが前記リスニングデバイスによって受信されることを可能にするように構成された出力回路と、を備える、遮断デバイス。 - 前記横取り回路が、前記マイクロフォンから前記リスニングデバイスへの信号を横取りすることによって、前記環境オーディオが前記マイクロフォンから前記リスニングデバイスに送信されることを防止するように構成されている、請求項1に記載の遮断デバイス。
- 前記信号を横取りすることが、前記リスニングデバイスの伝送媒体を遮ることを含む、請求項2に記載の遮断デバイス。
- 前記遮断デバイスが、第2のコンピューティングデバイスに設置されたときに、前記環境オーディオが前記マイクロフォンから前記リスニングデバイスに送信されることを防止するように構成されている、請求項1に記載の遮断デバイス。
- 前記横取り回路が、
所定の期間の後、および前記第2の環境オーディオが前記リスニングデバイスによって受信されることを可能にした後、第3の環境オーディオが前記リスニングデバイスによって受信されることを防止するようにさらに構成されている、請求項1に記載の遮断デバイス。 - 前記リスニングデバイスが、ネットワークに接続され、前記遮断デバイスが、前記ネットワークに接続されていない、請求項1に記載の遮断デバイス。
- 前記リスニング回路が、前記リスニングデバイスに由来するオーディオを無視するように構成されている、請求項1に記載の遮断デバイス。
- 前記オーディオトリガが、発話されたコマンドを含む、請求項1に記載の遮断デバイス。
- 前記リスニング回路が、前記発話されたコマンドに対して音声認識アルゴリズムを使用して前記オーディオトリガを決定するように構成されている、請求項8に記載の遮断デバイス。
- コンピューティングデバイスであって、
1つ以上のプロセッサと、
命令を記憶するメモリと、を備え、前記命令が、前記1つ以上のプロセッサによって実行されたときに、前記コンピューティングデバイスに、
1つ以上の音がマイクロフォンから第2のコンピューティングデバイスに送信されることを防止することと、
前記マイクロフォンを介して前記1つ以上の音を監視することと、
前記1つ以上の音がオーディオトリガと関連付けられていると決定することと、
前記オーディオトリガに基づいて、1つ以上の第2の音が前記マイクロフォンを介して前記第2のコンピューティングデバイスによって受信されることを可能にすることと、を行わせる、コンピューティングデバイス。 - 前記命令が、前記1つ以上のプロセッサによって実行されたときに、前記コンピューティングデバイスに、前記マイクロフォンから前記第2のコンピューティングデバイスに送信される信号を横取りすることによって、前記マイクロフォンを介して前記1つ以上の音を監視させる、請求項10に記載のコンピューティングデバイス。
- 前記コンピューティングデバイスが、無線ネットワークを介して前記第2のコンピューティングデバイスに接続され、前記コンピューティングデバイスが、第2のマイクロフォンとして前記第2のコンピューティングデバイスに現れるように構成されている、請求項10に記載のコンピューティングデバイス。
- 前記コンピューティングデバイスが、前記第2のコンピューティングデバイス内に設置されたモジュールである、請求項10に記載のコンピューティングデバイス。
- 前記命令が、前記1つ以上のプロセッサによって実行されたときに、前記コンピューティングデバイスに、
1つ以上の第2の音が前記第2のコンピューティングデバイスに由来すると決定することに基づいて、前記1つ以上の第2の音を無視することをさらに行わせる、請求項10に記載のコンピューティングデバイス。 - 前記命令が、前記1つ以上のプロセッサによって実行されたときに、前記コンピューティングデバイスに、
1つ以上のスピーカを介して、前記1つ以上の第2の音を、前記第2のコンピューティングデバイスと関連付けられた第2のマイクロフォンに送信させることにより、前記コンピューティングデバイスに、前記1つ以上の第2の音が前記第2のコンピューティングデバイスによって受信されることを可能にさせる、請求項10に記載のコンピューティングデバイス。 - 前記命令が、前記1つ以上のプロセッサによって実行されたときに、前記コンピューティングデバイスに、1つ以上の第3の音が前記マイクロフォンによって受信された後に、前記1つ以上の第2の音が受信されることを可能にさせる、請求項10に記載のコンピューティングデバイス。
- 前記命令が、前記1つ以上のプロセッサによって実行されたときに、前記1つ以上の第2の音に基づいて、1つ以上の第3の音を前記第2のコンピューティングデバイスに送信することにより、前記コンピューティングデバイスに、前記1つ以上の第2の音が前記第2のコンピューティングデバイスによって受信されることを可能にさせる、請求項10に記載のコンピューティングデバイス。
- 前記1つ以上の第3の音が、前記1つ以上の第2の音に基づいて生成されたテキスト音声変換データを含む、請求項17に記載のコンピューティングデバイス。
- 前記命令が、前記1つ以上のプロセッサによって実行されたときに、前記オーディオトリガと関連付けられた前記1つ以上の第2の音の一部分を除外することにより、前記コンピューティングデバイスに、前記1つ以上の第2の音が前記第2のコンピューティングデバイスによって受信されることを可能にさせる、請求項10に記載のコンピューティングデバイス。
- システムであって、
第1のコンピューティングデバイスであって、
第1のマイクロフォンと、
1つ以上の第1のプロセッサと、
命令を記憶する第1のメモリと、を含み、前記命令が、前記1つ以上の第1のプロセッサによって実行されたときに、前記第1のコンピューティングデバイスに、前記第1のマイクロフォンを介してオーディオコンテンツを受信させる、第1のコンピューティングデバイスと、
第2のコンピューティングデバイスであって、
第2のマイクロフォンと、
1つ以上の第2のプロセッサと、
命令を記憶する第2のメモリと、を含み、前記命令が、前記1つ以上の第2のプロセッサによって実行されたときに、前記第2のコンピューティングデバイスに、
前記第1のマイクロフォンから前記第1のコンピューティングデバイスへの信号を横取りすることと、
前記第2のマイクロフォンを使用して、オーディオトリガと関連付けられた1つ以上の第2の音を検出することと、
前記オーディオトリガに基づいて、前記第1のコンピューティングデバイスが1つ以上の第3の音を受信することを許可することと、を行わせる、第2のコンピューティングデバイスと、を備える、システム。 - 前記第1のコンピューティングデバイスが前記1つ以上の第3の音を受信することを許可することが、
前記1つ以上の第2の音に基づいて、前記1つ以上の第3の音を生成することを含む、請求項20に記載のシステム。 - 前記第2のコンピューティングデバイスが、前記第1のコンピューティングデバイス内に設置され、前記第1のマイクロフォンおよび前記第2のマイクロフォンが同じである、請求項20に記載のシステム。
- 前記第1のマイクロフォンから前記第1のコンピューティングデバイスへの前記信号を横取りすることが、
前記第1のコンピューティングデバイスに、1つ以上の第4の音を送信することを含む、請求項20に記載のシステム。 - 前記1つ以上の第4の音が、前記第2のコンピューティングデバイスによって記録された音に基づく、請求項23に記載のシステム。
- 前記第1のマイクロフォンから前記第1のコンピューティングデバイスへの前記信号を横取りすることが、
前記第1のコンピューティングデバイスのミュート機能をアクティブ化することを含む、請求項20に記載のシステム。 - 前記1つ以上の第2の音が、ユーザによって発話され、前記オーディオトリガが、前記ユーザによって定義される、請求項20に記載のシステム。
- 前記第1のコンピューティングデバイスが前記1つ以上の第3の音を受信することを許可することは、前記1つ以上の第3の音が前記第1のコンピューティングデバイスと関連付けられたスピーカに由来したものではなかったと決定することに基づく、請求項20に記載のシステム。
- 前記第1のマイクロフォンから前記第1のコンピューティングデバイスへの前記信号を横取りすることが、前記第1のマイクロフォンを無効化することを含む、請求項20に記載のシステム。
- 方法であって、
遮断デバイスによって、第1のマイクロフォンとリスニングデバイスとの間の通信を横取りすることであって、前記遮断デバイスは、前記第1のマイクロフォンからの1つ以上の信号が前記リスニングデバイスによって受信されることを防止することによって通信を横取りするように構成されている、横取りすることと、
前記第1のマイクロフォンを使用して、および前記遮断デバイスによって、オーディオトリガと関連付けられた1つ以上の音を検出することと、
前記オーディオトリガと関連付けられた前記1つ以上の音を検出することに基づいて、1つ以上の第2の信号が前記リスニングデバイスによって受信されることを許可することと、を含む、方法。 - 前記遮断デバイスおよび前記第1のマイクロフォンが、前記リスニングデバイス内に設置されたモジュールの一部である、請求項29に記載の方法。
- ユーザが、前記遮断デバイスに付随する命令を介して、前記リスニングデバイス内に前記モジュールを設置するように命令される、請求項30に記載の方法。
- 前記1つ以上の第2の信号が前記リスニングデバイスによって受信されることを前記許可することが、一時的な期間である、請求項29に記載の方法。
- 前記遮断デバイスが、前記リスニングデバイスの1つ以上の配線を遮ることによって通信を横取りするように構成されている、請求項29に記載の方法。
- 前記第1のマイクロフォンが、前記リスニングデバイスと関連付けられた第2のマイクロフォンを置換する、請求項29に記載の方法。
- 前記第2のマイクロフォンと前記リスニングデバイスとの間の通信を防止することをさらに含む、請求項34に記載の方法。
- 前記オーディオトリガが、前記リスニングデバイスに対するコマンドに対応する、請求項29に記載の方法。
- 前記コマンドが、1つ以上の発話されたワードである、請求項36に記載の方法。
- 前記遮断デバイスが、前記1つ以上の音を検出するように構成された回路を備える、請求項29に記載の方法。
- 前記遮断デバイスが、前記1つ以上の信号を前記リスニングデバイスに送信する前に、前記第1のマイクロフォンから前記1つ以上の信号の一部分を除去するように構成されている、請求項29に記載の方法。
- 前記遮断デバイスが、前記リスニングデバイスのインターフェースを介して設置されている、請求項29に記載の方法。
- スマートデバイスであって、
少なくとも1つのマイクロフォンと、
1つ以上のプロセッサと、
遮断回路と、を備え、前記遮断回路が、
前記1つ以上のプロセッサによる、前記遮断回路がトリガされていない状態にある間の前記少なくとも1つのマイクロフォンによって生成された第1の信号の受信を防止することであって、前記少なくとも1つのマイクロフォンと前記1つ以上のプロセッサとの間の各通信経路が、前記遮断回路を介して管理される、防止することと、
前記遮断回路の入力デバイスを使用して、前記遮断回路のアクティブ化と関連付けられた第1のトリガを検出することと、
前記第1のトリガを検出することに基づいて、トリガされた状態に一時的に入り、前記1つ以上のプロセッサによる、前記少なくとも1つのマイクロフォンによって生成された第2の信号の受信を可能にすることと、を行うように構成されている、スマートデバイス。 - 前記第1のトリガが、オーディオトリガを含む、請求項41に記載のスマートデバイス。
- 前記オーディオトリガが、所定の音量内でユーザによって発話されるコマンドを含む、請求項42に記載のスマートデバイス。
- 前記遮断回路が、少なくとも1つの第2のマイクロフォンをさらに備える、請求項42に記載のスマートデバイス。
- 音声認識アルゴリズムおよび自然言語処理アルゴリズムのうちの少なくとも1つを使用して、前記オーディオトリガを処理することと、
前記処理に基づいて、前記オーディオトリガ内の1つ以上のワードが、トリガされた状態と関連付けられていると決定することと、により、前記遮断回路が、前記遮断回路をアクティブ化することと関連付けられた前記第1のトリガを検出するように構成されている、請求項42に記載のスマートデバイス。 - 前記第1のトリガが、前記遮断回路の光学センサによって検出された運動に対応する、請求項41に記載のスマートデバイス。
- 前記第1のトリガが、ウェアラブルデバイスによって検出された運動に対応する、請求項41に記載のスマートデバイス。
- 前記第1の信号の受信を防止することが、前記少なくとも1つのマイクロフォンと関連付けられた回路の少なくとも一部分を接地することを含む、請求項41に記載のスマートデバイス。
- 前記トリガされた状態と関連付けられた期間が経過したと決定することに基づいて、前記トリガされていない状態に戻ることをさらに含む、請求項41に記載のスマートデバイス。
- 前記第1のトリガを処理して前記第1のトリガの起点を決定することに基づいて、前記スマートデバイスが前記第1のトリガを出力しなかったと決定することにより、前記遮断回路が、前記トリガされた状態に一時的に入り、前記第2の信号の受信を可能にするように構成されている、請求項41に記載のスマートデバイス。
- 前記少なくとも1つのマイクロフォンからの信号の受信を防止することが、前記1つ以上のプロセッサに、前記スマートデバイスと関連付けられた環境からの1つ以上の第2の音をエミュレートするように構成された1つ以上の第1の音を含む第3の信号を出力することを含む、請求項41に記載のスマートデバイス。
- 前記1つ以上の第1の音の第1の音量が、前記1つ以上の第2の音の第2の音量に基づく、請求項51に記載のスマートデバイス。
- 前記遮断回路が前記トリガされていない状態にある間の期間、前記1つ以上の第2の音を記録することによって、前記1つ以上の第1の音を決定することをさらに含む、請求項51に記載のスマートデバイス。
- 前記第2の信号を処理して、少なくとも1人のユーザの識別情報を隠すことと、
前記処理された第2の信号を前記1つ以上のプロセッサに出力することと、により、前記遮断回路が、前記トリガされた状態に一時的に入り、前記第2の信号の受信を可能にするように構成されている、請求項41に記載のスマートデバイス。 - 前記遮断回路および前記1つ以上のプロセッサが、同じハウジング内に位置する、請求項41に記載のスマートデバイス。
- 前記遮断回路が前記トリガされていない状態にあるとき、前記少なくとも1つのマイクロフォンと前記1つ以上のプロセッサとの間の各通信経路が接地される、請求項41に記載のスマートデバイス。
- 前記遮断回路が、前記少なくとも1つのマイクロフォンと関連付けられた電気的活動が検出されたときを示すようにさらに構成されている、請求項41に記載のスマートデバイス。
- 前記遮断回路は、前記遮断回路が前記トリガされた状態にあるときを示すようにさらに構成されている、請求項41に記載のスマートデバイス。
- 前記遮断回路が、前記スマートデバイスによって使用されるネットワークを介して通信することができない、請求項41に記載のスマートデバイス。
- 前記第1のトリガが、ユーザによって構成可能である、請求項41に記載のスマートデバイス。
- 方法であって、
遮断回路によって、スマートデバイスの1つ以上のプロセッサによる、前記遮断回路がトリガされていない状態にある間の前記スマートデバイスの少なくとも1つのマイクロフォンによって生成された第1の信号の受信を防止することであって、前記少なくとも1つのマイクロフォンと前記1つ以上のプロセッサとの間の各通信経路が、前記遮断回路を介して管理される、防止することと、
前記遮断回路によって、および前記遮断回路の入力デバイスを使用して、前記遮断回路をアクティブ化することと関連付けられた第1のトリガを検出することであって、前記第1のトリガが、前記スマートデバイスをアクティブ化することと関連付けられた第2のトリガとは異なる、検出することと、
前記第1のトリガを検出することに基づいて、前記遮断デバイスによって、トリガされた状態に一時的に入り、前記1つ以上のプロセッサによる、前記少なくとも1つのマイクロフォンによって生成された第2の信号の受信を可能にすることと、を含む、方法。 - 前記第1のトリガが、少なくとも1つの第2のマイクロフォンから受信されたオーディオトリガを含む、請求項61に記載の方法。
- 前記オーディオトリガが、前記スマートデバイスの所定の距離内でユーザによって発話されるコマンドを含む、請求項62に記載の方法。
- 前記スマートデバイスが、前記少なくとも1つの第2のマイクロフォンをさらに備える、請求項62に記載の方法。
- 前記第1のトリガを検出することが、
音声認識アルゴリズムを使用して、前記オーディオトリガを処理することと、
前記処理に基づいて、前記オーディオトリガ内の1つ以上のワードが、トリガされた状態と関連付けられていると決定することと、を含む、請求項62に記載の方法。 - 入力デバイスを備える遮断回路であって、前記遮断回路は、
スマートデバイスの1つ以上のプロセッサによる、前記遮断回路がトリガされていない状態にある間の前記スマートデバイスの少なくとも1つのマイクロフォンによって生成された第1の信号の受信を防止することであって、前記少なくとも1つのマイクロフォンと前記1つ以上のプロセッサとの間の各通信経路が、前記遮断回路を介して管理される、防止することと、
前記遮断回路の前記入力デバイスを使用して、前記遮断回路をアクティブ化することと関連付けられた第1のトリガを検出することであって、前記第1のトリガが、前記スマートデバイスをアクティブ化することと関連付けられた第2のトリガとは異なる、検出することと、
前記トリガを検出することに基づいて、トリガされた状態に一時的に入り、前記1つ以上のプロセッサによる、前記少なくとも1つのマイクロフォンによって生成された第2の信号の受信を可能にすることと、を行うように構成されている、遮断回路。 - 前記第1のトリガが、少なくとも1つの第2のマイクロフォンから受信されたオーディオトリガを含む、請求項66に記載の遮断回路。
- 前記オーディオトリガが、前記スマートデバイスの所定の距離内でユーザによって発話されるコマンドを含む、請求項67に記載の遮断回路。
- 前記スマートデバイスが、前記少なくとも1つの第2のマイクロフォンをさらに備える、請求項67に記載の遮断回路。
- 音声認識アルゴリズムを使用して、オーディオトリガを処理することと、
前記処理に基づいて、前記オーディオトリガ内の1つ以上のワードが前記トリガされた状態と関連付けられていると決定することと、により、前記遮断回路が、前記遮断回路をアクティブ化することと関連付けられた前記第1のトリガを検出するように構成されている、請求項67に記載の遮断回路。 - システムであって、
スマートデバイスであって、
少なくとも1つのマイクロフォンと、
1つ以上のプロセッサと、
遮断モジュールインターフェースと、を含む、スマートデバイスと、
前記遮断モジュールインターフェースを介して前記スマートデバイスに接続するように適合された取り外し可能な遮断デバイスと、を備え、
前記取り外し可能な遮断デバイスは、前記遮断モジュールインターフェースに接続されたときに、
前記1つ以上のプロセッサによる、前記取り外し可能な遮断デバイスがトリガされていない状態にある間の前記少なくとも1つのマイクロフォンによって生成された第1の信号の受信を防止することであって、前記少なくとも1つのマイクロフォンと前記1つ以上のプロセッサとの間の各通信経路が、前記遮断モジュールインターフェースを介して管理される、前記防止することと、
前記取り外し可能な遮断デバイスの入力デバイスを使用して、前記取り外し可能な遮断デバイスをアクティブ化することと関連付けられた第1のトリガを検出することであって、前記第1のトリガが、前記スマートデバイスをアクティブ化することと関連付けられた第2のトリガとは異なる、前記検出することと、
前記第1のトリガを検出することに基づいて、トリガされた状態に一時的に入り、前記1つ以上のプロセッサによる、および前記遮断モジュールインターフェースを介した、前記少なくとも1つのマイクロフォンによって生成された第2の信号の受信を可能にすることと、を行うように構成されている、システム。 - 前記取り外し可能な遮断デバイスが、前記遮断モジュールインターフェースから接続解除されたときに、前記1つ以上のプロセッサが、前記少なくとも1つのマイクロフォンから、および前記遮断モジュールインターフェースを介して、第3の信号を受信する、請求項71に記載のシステム。
- 前記遮断モジュールインターフェースへの前記取り外し可能な遮断デバイスの接続は、前記1つ以上のプロセッサが前記第3の信号を受信することを防止する、請求項72に記載のシステム。
- 前記第1のトリガが、少なくとも1つの第2のマイクロフォンから受信されたオーディオトリガを含む、請求項71に記載のシステム。
- 前記オーディオトリガが、前記スマートデバイスの所定の距離内でユーザによって発話されるコマンドを含む、請求項74に記載のシステム。
- 前記取り外し可能な遮断デバイスが、前記少なくとも1つの第2のマイクロフォンを備える、請求項74に記載のシステム。
- 処理に基づいて、音声認識アルゴリズムを使用して、前記オーディオトリガ内の1つ以上のワードが前記トリガされた状態と関連付けられている前記オーディオトリガを決定することにより、前記取り外し可能な遮断デバイスが、前記取り外し可能な遮断デバイスをアクティブ化することと関連付けられた前記第1のトリガを検出するように構成されている、請求項74に記載のシステム。
- 前記第1のトリガが、前記取り外し可能な遮断デバイスの光学センサによって検出された運動に対応する、請求項71に記載のシステム。
- 前記第1のトリガが、ウェアラブルデバイスによって検出された運動に対応する、請求項71に記載のシステム。
- 前記第1の信号の受信を防止することが、前記少なくとも1つのマイクロフォンと関連付けられた回路の少なくとも一部分を接地することを含む、請求項71に記載のシステム。
- 前記取り外し可能な遮断デバイスは、
前記トリガされた状態と関連付けられた期間が経過したと決定することに基づいて、前記トリガされていない状態に戻るようにさらに構成されている、請求項71に記載のシステム。 - 前記第1のトリガを処理して前記第1のトリガの起点を決定することに基づいて、前記スマートデバイスが前記第1のトリガを出力しなかったと決定することにより、前記取り外し可能な遮断デバイスが、前記トリガされた状態に一時的に入り、前記第2の信号の受信を可能にするように構成されている、請求項71に記載のシステム。
- 前記少なくとも1つのマイクロフォンからの信号の受信を防止することが、前記1つ以上のプロセッサに、前記スマートデバイスと関連付けられた環境からの1つ以上の第2の音をエミュレートするように構成された1つ以上の第1の音を含む第3の信号を出力することを含む、請求項71に記載のシステム。
- 前記1つ以上の第1の音の第1の音量が、前記1つ以上の第2の音の第2の音量に基づく、請求項83に記載のシステム。
- 前記第2の信号を処理して、少なくとも1人のユーザの識別情報を隠すことと、
前記処理された第2の信号を前記1つ以上のプロセッサに出力することと、により、前記取り外し可能な遮断デバイスが、前記トリガされた状態に一時的に入り、前記第2の信号の受信を可能にするように構成されている、請求項71に記載のシステム。 - 前記取り外し可能な遮断デバイスが前記トリガされていない状態にあるとき、前記少なくとも1つのマイクロフォンと前記1つ以上のプロセッサとの間の各通信経路が接地される、請求項71に記載のシステム。
- 前記取り外し可能な遮断デバイスが、前記少なくとも1つのマイクロフォンと関連付けられた電気的活動が検出されたときを示すようにさらに構成されている、請求項71に記載のシステム。
- 前記取り外し可能な遮断デバイスは、前記取り外し可能な遮断デバイスが前記トリガされた状態にあるときを示すようにさらに構成されている、請求項71に記載のシステム。
- 前記取り外し可能な遮断デバイスが、前記スマートデバイスによって使用されるネットワークを介して通信することができない、請求項71に記載のシステム。
- 前記第1のトリガが、ユーザによって構成可能である、請求項71に記載のシステム。
- 方法であって、
スマートデバイスの遮断モジュールインターフェースに物理的に接続された取り外し可能な遮断デバイスによって、前記スマートデバイスの1つ以上のプロセッサによる、前記取り外し可能な遮断デバイスがトリガされていない状態にある間の前記スマートデバイスの少なくとも1つのマイクロフォンによって生成された第1の信号の受信を防止することであって、前記少なくとも1つのマイクロフォンと前記1つ以上のプロセッサとの間の各通信経路が、前記遮断モジュールインターフェースを介して管理される、防止することと、
前記取り外し可能な遮断デバイスの入力デバイスを使用して、前記取り外し可能な遮断デバイスをアクティブ化することと関連付けられた第1のトリガを検出することであって、前記第1のトリガが、前記スマートデバイスをアクティブ化することと関連付けられた第2のトリガとは異なる、前記検出することと、
前記第1のトリガを検出することに基づいて、前記取り外し可能な遮断デバイスによって、トリガされた状態に一時的に入り、前記1つ以上のプロセッサによる、および前記遮断モジュールインターフェースを介した、前記少なくとも1つのマイクロフォンによって生成された第2の信号の受信を可能にすることと、を含む、方法。 - 前記遮断モジュールインターフェースを介して、前記取り外し可能な遮断デバイスを前記スマートデバイスに接続することをさらに含み、前記取り外し可能な遮断デバイスを接続することが、前記1つ以上のプロセッサによる、前記少なくとも1つのマイクロフォンからの第3の信号の受信を防止する、請求項91に記載の方法。
- 前記遮断モジュールインターフェースを介して、前記取り外し可能な遮断デバイスを前記スマートデバイスから接続解除することをさらに含み、前記取り外し可能な遮断デバイスを接続解除することが、前記1つ以上のプロセッサによる、前記少なくとも1つのマイクロフォンからの第3の信号の受信を可能にする、請求項91に記載の方法。
- 前記第1のトリガが、少なくとも1つの第2のマイクロフォンから受信されたオーディオトリガを含む、請求項91に記載の方法。
- 処理に基づいて、音声認識アルゴリズムを使用して、前記オーディオトリガ内の1つ以上のワードが前記トリガされた状態と関連付けられている前記オーディオトリガを決定することにより、前記取り外し可能な遮断デバイスが、前記取り外し可能な遮断デバイスをアクティブ化することと関連付けられた前記第1のトリガを検出するように構成されている、請求項92に記載の方法。
- 取り外し可能な遮断デバイスであって、前記取り外し可能な遮断デバイスは、スマートデバイスの遮断モジュールインターフェースに接続されたときに、
前記スマートデバイスの1つ以上のプロセッサによる、前記取り外し可能な遮断デバイスがトリガされていない状態にある間の前記スマートデバイスの少なくとも1つのマイクロフォンによって生成された第1の信号の受信を防止することであって、前記少なくとも1つのマイクロフォンと前記1つ以上のプロセッサとの間の各通信経路が、前記遮断モジュールインターフェースを介して管理される、防止することと、
前記取り外し可能な遮断デバイスの入力デバイスを使用して、前記取り外し可能な遮断デバイスをアクティブ化することと関連付けられた第1のトリガを検出することであって、前記第1のトリガが、前記スマートデバイスをアクティブ化することと関連付けられた第2のトリガとは異なる、前記検出することと、
前記第1のトリガを検出することに基づいて、トリガされた状態に一時的に入り、前記1つ以上のプロセッサによる、および前記遮断モジュールインターフェースを介した、前記少なくとも1つのマイクロフォンによって生成された第2の信号の受信を可能にすることと、を行うように構成されている、取り外し可能な遮断デバイス。 - 前記第1のトリガが、少なくとも1つの第2のマイクロフォンから受信されたオーディオトリガを含む、請求項96に記載の取り外し可能な遮断デバイス。
- 前記オーディオトリガが、前記スマートデバイスの所定の距離内でユーザによって発話されるコマンドを含む、請求項97に記載の取り外し可能な遮断デバイス。
- 前記取り外し可能な遮断デバイスが、前記少なくとも1つの第2のマイクロフォンを備える、請求項97に記載の取り外し可能な遮断デバイス。
- 処理に基づいて、音声認識アルゴリズムを使用して、前記オーディオトリガ内の1つ以上のワードが前記トリガされた状態と関連付けられている前記オーディオトリガを決定することにより、前記取り外し可能な遮断デバイスが、前記取り外し可能な遮断デバイスをアクティブ化することと関連付けられた前記第1のトリガを検出するように構成されている、請求項97に記載の取り外し可能な遮断デバイス。
- システムであって、
少なくとも1つの第1のマイクロフォンを含むスマートデバイスと、
少なくとも1つの第2のマイクロフォンおよび出力デバイスを含む遮断デバイスと、を備え、前記遮断デバイスは、
前記少なくとも1つの第2のマイクロフォンを使用して、前記スマートデバイスと関連付けられた環境に対応する1つ以上の音を決定することと、
前記出力デバイスを使用して、第1のオーディオを前記少なくとも1つの第1のマイクロフォンに出力することであって、前記第1のオーディオが、前記1つ以上の音の音量に基づいて生成され、前記遮断デバイスがトリガされていない状態にある間、前記少なくとも1つの第1のマイクロフォンによる、環境オーディオの受信を妨げるように構成されている、出力することと、
前記少なくとも1つの第2のマイクロフォンを使用して、前記遮断デバイスをアクティブ化することと関連付けられた第1のトリガを検出することであって、前記第1のトリガが、前記スマートデバイスをアクティブ化することと関連付けられた第2のトリガとは異なる、前記検出することと、
前記第1のトリガを検出することに基づいて、トリガされた状態に一時的に入り、前記少なくとも1つの第1のマイクロフォンに、および前記出力デバイスを使用して、前記第2のトリガを出力することと、を行うように構成されている、システム。 - 前記第1のオーディオの第1の音量が、前記1つ以上の音の前記音量を超えるように構成されている、請求項101に記載のシステム。
- 閾値を満たす前記1つ以上の音の前記音量に基づいて、前記1つ以上の音を選択することをさらに含む、請求項101に記載のシステム。
- 前記第1のトリガが、少なくとも1つの第2のマイクロフォンから受信されたオーディオトリガを含む、請求項101に記載のシステム。
- 前記オーディオトリガが、前記スマートデバイスの所定の距離内でユーザによって発話されるコマンドを含む、請求項104に記載のシステム。
- 前記第1のトリガと関連付けられた1つ以上の第1のワードが、前記第2のトリガと関連付けられた1つ以上の第2のワードとは異なる、請求項104に記載のシステム。
- 処理に基づいて、音声認識アルゴリズムを使用して、前記オーディオトリガ内の1つ以上のワードが前記トリガされた状態と関連付けられている前記オーディオトリガを決定することにより、前記遮断デバイスが、前記遮断デバイスをアクティブ化することと関連付けられた前記第1のトリガを検出するように構成されている、請求項104に記載のシステム。
- 前記第1のトリガが、前記遮断デバイスの光学センサによって検出された運動に対応する、請求項101に記載のシステム。
- 前記第1のトリガが、ウェアラブルデバイスによって検出された運動に対応する、請求項101に記載のシステム。
- 前記環境オーディオの受信を妨げることが、前記少なくとも1つの第1のマイクロフォンの少なくとも一部分を遮蔽することを含む、請求項101に記載のシステム。
- 前記遮断デバイスが、
前記トリガされた状態と関連付けられた期間が経過したと決定することに基づいて、前記トリガされていない状態に戻るようにさらに構成されている、請求項101に記載のシステム。 - 前記第1のトリガを処理して前記第1のトリガの起点を決定することに基づいて、前記スマートデバイスが前記第1のトリガを出力しなかったと決定することにより、前記遮断デバイスが、前記トリガされた状態に一時的に入り、前記第2のトリガを出力するように構成されている、請求項101に記載のシステム。
- 前記第1のオーディオが、前記スマートデバイスの1人以上のユーザによる音声をエミュレートするように構成されている、請求項101に記載のシステム。
- 前記遮断デバイスが前記トリガされていない状態にある間の期間、前記1つ以上の音を記録することにより、前記遮断デバイスが、前記1つ以上の音を決定するようにさらに構成されている、請求項101に記載のシステム。
- 前記第2のトリガが、少なくとも1人のユーザの識別情報を隠すように構成されている、請求項101に記載のシステム。
- 前記遮断デバイスが、前記スマートデバイスのハウジングの少なくとも一部分に取り付くように構成されている、請求項101に記載のシステム。
- 前記遮断デバイスは、前記少なくとも1つの第1のマイクロフォンが、前記出力デバイスに由来するオーディオ以外のいかなるオーディオも受信することを妨げるように構成されている、請求項101に記載のシステム。
- 前記遮断デバイスは、前記遮断デバイスが前記トリガされた状態にあるときを示すようにさらに構成されている、請求項101に記載のシステム。
- 前記遮断デバイスが、前記スマートデバイスによって使用されるネットワークを介して通信することができない、請求項101に記載のシステム。
- 前記第1のトリガが、ユーザによって構成可能である、請求項101に記載のシステム。
- 方法であって、
遮断デバイスの少なくとも1つの第1のマイクロフォンを使用して、スマートデバイスと関連付けられた環境に対応する1つ以上の音を決定することと、
前記遮断デバイスの出力デバイスを使用して、第1のオーディオを前記スマートデバイスの少なくとも1つの第2のマイクロフォンに出力することであって、前記第1のオーディオが、前記1つ以上の音に基づき、前記遮断デバイスがトリガされていない状態にある間、前記少なくとも1つの第2のマイクロフォンによる、環境オーディオの受信を妨げるように構成されている、前記出力することと、
前記少なくとも1つの第1のマイクロフォンを使用して、前記遮断デバイスをアクティブ化することと関連付けられた第1のトリガを検出することであって、前記第1のトリガが、前記スマートデバイスをアクティブ化することと関連付けられた第2のトリガとは異なる、前記検出することと、
前記第1のトリガを検出することに基づいて、トリガされた状態に一時的に入り、前記少なくとも1つの第2のマイクロフォンに、および前記出力デバイスを使用して、前記第2のトリガを出力することと、を含む、方法。 - 前記第1のトリガが、少なくとも1つの第1のマイクロフォンから受信されたオーディオトリガを含む、請求項121に記載の方法。
- 前記オーディオトリガが、前記スマートデバイスの所定の距離内でユーザによって発話されるコマンドを含む、請求項122に記載の方法。
- 前記第1のトリガと関連付けられた1つ以上の第1のワードが、前記第2のトリガと関連付けられた1つ以上の第2のワードとは異なる、請求項122に記載の方法。
- 処理に基づいて、音声認識アルゴリズムを使用して、前記オーディオトリガ内の1つ以上のワードが前記トリガされた状態と関連付けられている前記オーディオトリガを決定することにより、前記遮断デバイスが、前記遮断デバイスをアクティブ化することと関連付けられた前記第1のトリガを検出するように構成されている、請求項122に記載の方法。
- 少なくとも1つの第1のマイクロフォンおよび出力デバイスを備える遮断デバイスであって、前記遮断デバイスは、
前記少なくとも1つの第1のマイクロフォンを使用して、スマートデバイスと関連付けられた環境に対応する1つ以上の音を決定することと、
前記出力デバイスを使用して、第1のオーディオを前記スマートデバイスの少なくとも1つの第2のマイクロフォンに出力することであって、前記第1のオーディオが、前記1つ以上の音に基づき、前記遮断デバイスがトリガされていない状態にある間、前記少なくとも1つの第2のマイクロフォンによる、環境オーディオの受信を妨げるように構成されている、前記出力することと、
前記少なくとも1つの第1のマイクロフォンを使用して、前記遮断デバイスをアクティブ化することと関連付けられた第1のトリガを検出することであって、前記第1のトリガが、前記スマートデバイスをアクティブ化することと関連付けられた第2のトリガとは異なる、前記検出することと、
前記第1のトリガを検出することに基づいて、トリガされた状態に一時的に入り、前記少なくとも1つの第2のマイクロフォンに、および前記出力デバイスを使用して、前記第2のトリガを出力することと、を行うように構成されている、遮断デバイス。 - 前記第1のトリガが、少なくとも1つの第1のマイクロフォンから受信されたオーディオトリガを含む、請求項126に記載の遮断デバイス。
- 前記オーディオトリガが、前記スマートデバイスの所定の距離内でユーザによって発話されるコマンドを含む、請求項127に記載の遮断デバイス。
- 前記第1のトリガと関連付けられた1つ以上の第1のワードが、前記第2のトリガと関連付けられた1つ以上の第2のワードとは異なる、請求項127に記載の遮断デバイス。
- 処理に基づいて、音声認識アルゴリズムを使用して、前記オーディオトリガ内の1つ以上のワードが前記トリガされた状態と関連付けられている前記オーディオトリガを決定することにより、前記遮断デバイスが、前記遮断デバイスをアクティブ化することと関連付けられた前記第1のトリガを検出するように構成されている、請求項127に記載の遮断デバイス。
- 方法であって、
スマートデバイスの少なくとも1つのマイクロフォンと前記スマートデバイスの1つ以上のプロセッサとの間の通信経路と関連付けられた第1の電気信号を検出することと、
前記第1の電気信号に基づいて、前記1つ以上のプロセッサによる、前記遮断回路がトリガされていない状態にある間の前記少なくとも1つのマイクロフォンによって生成された第1の信号の受信を防止すると決定することであって、前記少なくとも1つのマイクロフォンと前記1つ以上のプロセッサとの間の各通信経路が、前記遮断回路を介して管理される、前記決定することと、
前記スマートデバイスの前記少なくとも1つのマイクロフォンと前記スマートデバイスの前記1つ以上のプロセッサとの間の通信経路と関連付けられた第2の電気信号を検出することと、
前記第2の電気信号に基づいて、前記遮断回路が、前記遮断回路の入力デバイスを使用して、前記遮断回路をアクティブ化することと関連付けられた第1のトリガを検出すると決定することと、
前記スマートデバイスの前記少なくとも1つのマイクロフォンと前記スマートデバイスの前記1つ以上のプロセッサとの間の通信経路と関連付けられた第3の電気信号を検出することと、
前記第3の電気信号に基づいて、前記第1のトリガを検出することに基づいて、前記遮断回路がトリガされた状態に一時的に入り、前記1つ以上のプロセッサによる、前記少なくとも1つのマイクロフォンによって生成された第2の信号の受信を可能にすることを決定することと、を含む、方法。 - 前記第1の電気信号を検出することが、前記スマートデバイスの1つ以上の回路を監視することを含む、請求項131に記載の方法。
- 前記第1の電気信号を検出することが、前記スマートデバイスの電力使用を監視することを含む、請求項131に記載の方法。
- 前記第1の電気信号、前記第2の電気信号、および前記第3の電気信号に基づいて、プライバシレベルを前記遮断回路に割り当てることをさらに含む、請求項131に記載の方法。
- 前記第1のトリガが、少なくとも1つの第2のマイクロフォンから受信されたオーディオトリガを含む、請求項131に記載の方法。
- 前記第1のトリガが、前記遮断回路の光学センサによって検出された運動に対応する、請求項131に記載の方法。
- 前記第1のトリガが、ウェアラブルデバイスによって検出された運動に対応する、請求項131に記載の方法。
- 前記第1の信号の受信を防止することが、前記少なくとも1つのマイクロフォンと関連付けられた回路の少なくとも一部分を接地することを含む、請求項131に記載の方法。
- 第4の電気信号に基づいて、前記トリガされた状態と関連付けられた期間が経過したと決定することに基づいて、前記遮断回路が前記トリガされていない状態に戻ると決定することをさらに含む、請求項131に記載の方法。
- 前記第1のトリガを処理して前記第1のトリガの起点を決定することに基づいて、前記スマートデバイスが前記第1のトリガを出力しなかったと決定することにより、前記第3の電気信号に基づいて、前記遮断回路が、前記トリガ状態に一時的に入り、前記第2の信号の受信を可能にするように構成されていると決定することをさらに含む、請求項131に記載の方法。
- 前記少なくとも1つのマイクロフォンからの信号の受信を防止することが、前記1つ以上のプロセッサに、前記スマートデバイスと関連付けられた環境からの1つ以上の第2の音をエミュレートするように構成された1つ以上の第1の音を含む第3の信号を出力することを含む、請求項131に記載の方法。
- 前記1つ以上の第1の音の第1の音量が、前記1つ以上の第2の音の第2の音量に基づく、請求項141に記載の方法。
- 前記第1の電気信号に基づいて、前記遮断回路が前記トリガされていない状態にある間の期間、前記1つ以上の第2の音を記録することによって、前記遮断回路が前記1つ以上の第1の音を決定することをさらに含む、請求項141に記載の方法。
- 前記第2の信号を処理して、少なくとも1人のユーザの識別情報を隠すことと、
前記処理された第2の信号を前記1つ以上のプロセッサに出力することと、により、前記第3の電気信号に基づいて、前記遮断回路が、前記トリガ状態に一時的に入り、前記第2の信号の受信を可能にするように構成されていると決定することをさらに含む、請求項131に記載の方法。 - 方法であって、
スマートデバイスの少なくとも1つのマイクロフォンと前記スマートデバイスの1つ以上のプロセッサとの間の通信経路と関連付けられた第1の電気信号を検出することと、
前記第1の電気信号に基づいて、遮断モジュールインターフェースを介して前記スマートデバイスに接続された取り外し可能な遮断デバイスが、前記スマートデバイスの前記1つ以上のプロセッサによる、前記取り外し可能な遮断デバイスがトリガされていない状態にある間の前記スマートデバイスの前記少なくとも1つのマイクロフォンによって生成された第1の信号の受信を防止すると決定することであって、前記少なくとも1つのマイクロフォンと前記1つ以上のプロセッサとの間の各通信経路が、前記遮断モジュールインターフェースを介して管理される、前記決定することと、
前記スマートデバイスの前記少なくとも1つのマイクロフォンと前記スマートデバイスの前記1つ以上のプロセッサとの間の通信経路と関連付けられた第2の電気信号を検出することと、
前記第2の電気信号に基づいて、前記取り外し可能な遮断デバイスが、前記取り外し可能な遮断デバイスの入力デバイスを使用して、前記取り外し可能な遮断デバイスをアクティブ化することと関連付けられた第1のトリガを検出すると決定することであって、前記第1のトリガが、前記スマートデバイスをアクティブ化することと関連付けられた第2のトリガとは異なる、前記決定することと、
前記スマートデバイスの前記少なくとも1つのマイクロフォンと前記スマートデバイスの前記1つ以上のプロセッサとの間の通信経路と関連付けられた第3の電気信号を検出することと、
前記第3の電気信号に基づいて、前記第1のトリガを検出することに基づいて、前記取り外し可能な遮断デバイスが、トリガされた状態に一時的に入り、前記1つ以上のプロセッサによる、前記少なくとも1つのマイクロフォンによって生成された第2の信号の受信を可能にすると決定することと、を含む、方法。 - 前記第1の電気信号を検出することが、前記スマートデバイスの1つ以上の回路を監視することを含む、請求項145に記載の方法。
- 前記第1の電気信号を検出することが、前記スマートデバイスの電力使用を監視することを含む、請求項145に記載の方法。
- 前記第1の電気信号、前記第2の電気信号、および前記第3の電気信号に基づいて、プライバシレベルを前記取り外し可能な遮断デバイスに割り当てることをさらに含む、請求項145に記載の方法。
- 前記第1のトリガが、少なくとも1つの第2のマイクロフォンから受信されたオーディオトリガを含む、請求項145に記載の方法。
- 前記第1のトリガが、前記取り外し可能な遮断デバイスの光学センサによって検出された運動に対応する、請求項145に記載の方法。
- 前記第1のトリガが、ウェアラブルデバイスによって検出された運動に対応する、請求項145に記載の方法。
- 前記第1の信号の受信を防止することが、前記少なくとも1つのマイクロフォンと関連付けられた回路の少なくとも一部分を接地することを含む、請求項145に記載の方法。
- 第4の電気信号に基づいて、前記トリガされた状態と関連付けられた期間が経過したと決定することに基づいて、前記取り外し可能な遮断デバイスが前記トリガされていない状態に戻ると決定することをさらに含む、請求項145に記載の方法。
- 前記第1のトリガを処理して前記第1のトリガの起点を決定することに基づいて、前記スマートデバイスが前記第1のトリガを出力しなかったと決定することにより、前記第3の電気信号に基づいて、前記取り外し可能な遮断デバイスが、前記トリガ状態に一時的に入り、前記第2の信号の受信を可能にするように構成されていると決定することをさらに含む、請求項145に記載の方法。
- 前記少なくとも1つのマイクロフォンからの信号の受信を防止することが、前記1つ以上のプロセッサに、前記スマートデバイスと関連付けられた環境からの1つ以上の第2の音をエミュレートするように構成された1つ以上の第1の音を含む第3の信号を出力することを含む、請求項145に記載の方法。
- 前記1つ以上の第1の音の第1の音量が、前記1つ以上の第2の音の第2の音量に基づく、請求項155に記載の方法。
- 前記第1の電気信号に基づいて、前記取り外し可能な遮断デバイスが前記トリガされていない状態にある間の期間、前記1つ以上の第2の音を記録することによって、前記取り外し可能な遮断デバイスが前記1つ以上の第1の音を決定するように構成されていると決定することをさらに含む、請求項155に記載の方法。
- 前記第2の信号を処理して、少なくとも1人のユーザの識別情報を隠すことと、
前記処理された第2の信号を前記1つ以上のプロセッサに出力することと、により、前記第3の電気信号に基づいて、前記取り外し可能な遮断デバイスが、前記トリガ状態に一時的に入り、前記第2の信号の受信を可能にするように構成されていると決定することをさらに含む、請求項145に記載の方法。 - 方法であって、
スマートデバイスの少なくとも1つの第1のマイクロフォンと前記スマートデバイスの1つ以上のプロセッサとの間の通信経路と関連付けられた第1の電気信号を検出することと、
前記第1の電気信号に基づいて、遮断デバイスが、前記遮断デバイスの少なくとも1つの第2のマイクロフォンを使用して、前記スマートデバイスと関連付けられた環境に対応する1つ以上の音を決定すると決定することと、
前記スマートデバイスの前記少なくとも1つのマイクロフォンと前記スマートデバイスの前記1つ以上のプロセッサとの間の通信経路と関連付けられた第2の電気信号を検出することと、
前記第2の電気信号に基づいて、前記遮断デバイスが、前記遮断デバイスの出力デバイスを使用して、第1のオーディオを前記スマートデバイスの前記少なくとも1つの第1のマイクロフォンに出力するように構成されていると決定することであって、前記第1のオーディオが、前記1つ以上の音に基づき、前記遮断デバイスがトリガされていない状態にある間、前記少なくとも1つの第1のマイクロフォンによる、環境オーディオの受信を妨げるように構成されている、前記決定することと、
前記スマートデバイスの前記少なくとも1つのマイクロフォンと前記スマートデバイスの前記1つ以上のプロセッサとの間の通信経路と関連付けられた第3の電気信号を検出することと、
前記第3の電気信号に基づいて、前記遮断デバイスが、前記遮断デバイスの前記少なくとも1つの第2のマイクロフォンを使用して、前記遮断デバイスをアクティブ化することと関連付けられた第1のトリガを検出するように構成されていると決定することであって、前記第1のトリガが、前記スマートデバイスをアクティブ化することと関連付けられた第2のトリガとは異なる、前記決定することと、
前記スマートデバイスの前記少なくとも1つのマイクロフォンと前記スマートデバイスの前記1つ以上のプロセッサとの間の通信経路と関連付けられた第4の電気信号を検出することと、
前記第4の電気信号に基づいて、前記遮断デバイスが、前記第1のトリガを検出することに基づいて、トリガされた状態に一時的に入り、前記少なくとも1つの第1のマイクロフォンに、および前記出力デバイスを使用して、前記第2のトリガを出力するように構成されていると決定することと、を含む、方法。 - 前記第1の電気信号を検出することが、前記スマートデバイスの電力使用を監視することを含む、請求項159に記載の方法。
- 方法であって、
ブロッカーによって、モバイルデバイスの位置および配向のうちの少なくとも1つを検出することと、
前記モバイルデバイスの前記位置および配向のうちの少なくとも1つに基づいて、前記モバイルデバイスが遮断モードにあると決定することと、
前記モバイルデバイスが遮断モードにあるという決定に基づいて、前記モバイルデバイスの1つ以上の入力を介して受信された1つ以上の信号を横取りすることと、
トリガされた状態と関連付けられたトリガを検出することと、
前記トリガを検出することに基づいて、前記モバイルデバイスの1つ以上のプロセッサが前記モバイルデバイスの前記1つ以上の入力から1つ以上の信号を受信することを可能にする前記トリガされた状態に入ることと、を含む、方法。 - 前記モバイルデバイスの位置および配向のうちの少なくとも1つを検出することが、
前記モバイルデバイスが所定の時間、静止していると決定することをさらに含む、請求項161に記載の方法。 - 前記モバイルデバイスの位置および配向のうちの少なくとも1つを検出することが、
前記モバイルデバイスが面する方向を決定することをさらに含む、請求項161に記載の方法。 - 前記モバイルデバイスの位置および配向のうちの少なくとも1つを検出することが、
前記モバイルデバイスの第1の配向を決定することと、
前記モバイルデバイスの第2の配向を決定することと、
前記モバイルデバイスの前記第2の配向が第1の閾値を満たすか否かを決定することと、
前記第2の配向が前記第1の閾値を満たさないという決定に基づいて、前記モバイルデバイスが遮断モードにあると決定することと、をさらに含む、請求項161に記載の方法。 - 前記1つ以上の信号を横取りすることが、
前記モバイルデバイスの伝送媒体を遮ることを含む、請求項161に記載の方法。 - 前記1つ以上の信号を横取りすることが、
前記モバイルデバイスの1つ以上の配線を遮ることを含む、請求項161に記載の方法。 - 前記1つ以上の信号を横取りすることが、
前記モバイルデバイスの前記1つ以上の入力を介して関連付けられた回路の少なくとも一部分を接地することを含む、請求項161に記載の方法。 - 前記トリガが、前記モバイルデバイスの前記位置および前記配向のうちの少なくとも1つの変化を含む、請求項161に記載の方法。
- 前記トリガが、ジェスチャ入力を含む、請求項161に記載の方法。
- 前記ジェスチャ入力が、シェイク運動を含む、請求項169に記載の方法。
- 前記トリガを検出することが、
前記モバイルデバイスの前記1つ以上の入力を介してオーディオトリガを受信することをさらに含む、請求項161に記載の方法。 - 前記オーディオトリガが、1つ以上のジェスチャ入力を無効にする、請求項171に記載の方法。
- コンピューティングデバイスであって、
1つ以上のプロセッサと、
命令を記憶するメモリと、を備え、前記命令が、前記1つ以上のプロセッサによって実行されたときに、前記コンピューティングデバイスに、
前記コンピューティングデバイスの位置および配向のうちの少なくとも1つを検出することと、
前記コンピューティングデバイスの前記位置および配向のうちの前記少なくとも1つに基づいて、前記コンピューティングデバイスが遮断モードにあると決定することと、
前記コンピューティングデバイスが遮断モードにあるという決定に基づいて、前記コンピューティングデバイスの1つ以上の入力を介して受信された1つ以上の信号を横取りすることと、
トリガされた状態と関連付けられたトリガを検出することと、
前記トリガを検出することに基づいて、前記1つ以上のプロセッサが前記1つ以上の入力から1つ以上の信号を受信することを可能にする前記トリガされた状態に入ることと、を行わせる、コンピューティングデバイス。 - 前記命令が、前記コンピューティングデバイスに、
前記コンピューティングデバイスが所定の時間、静止していると決定することをさらに行わせる、請求項173に記載のコンピューティングデバイス。 - 前記命令が、前記コンピューティングデバイスに、
前記コンピューティングデバイスが面する方向を決定することをさらに行わせる、請求項173に記載のコンピューティングデバイス。 - 前記命令が、前記コンピューティングデバイスに、
前記コンピューティングデバイスの第1の配向を決定することと、
前記コンピューティングデバイスの第2の配向を決定することと、
前記コンピューティングデバイスの前記第2の配向が第1の閾値を満たすか否かを決定することと、
前記第2の配向が前記第1の閾値を満たさないという決定に基づいて、前記コンピューティングデバイスが遮断モードにあると決定することと、をさらに行わせる、請求項173に記載のコンピューティングデバイス。 - 前記命令が、前記コンピューティングデバイスに、
前記コンピューティングデバイスの伝送媒体を遮ることをさらに行わせる、請求項173に記載のコンピューティングデバイス。 - 前記命令が、前記コンピューティングデバイスに、
前記コンピューティングデバイスの1つ以上の配線を遮ることをさらに行わせる、請求項173に記載のコンピューティングデバイス。 - 前記1つ以上の信号を横取りすることが、前記1つ以上の入力を介して関連付けられた回路の少なくとも一部分を接地することを含む、請求項173に記載のコンピューティングデバイス。
- 前記トリガが、ジェスチャ入力を含む、請求項173に記載のコンピューティングデバイス。
- 前記ジェスチャ入力が、シェイク運動を含む、請求項180に記載のコンピューティングデバイス。
- 前記命令が、前記コンピューティングデバイスに、
前記1つ以上の入力を介してオーディオトリガを受信することをさらに行わせる、請求項173に記載のコンピューティングデバイス。 - 前記オーディオトリガが、前記コンピューティングデバイスの所定の距離内でユーザによって発話されるコマンドを含む、請求項182に記載のコンピューティングデバイス。
- 前記オーディオトリガが、1つ以上のジェスチャ入力を無効にする、請求項182に記載のコンピューティングデバイス。
- 遮断デバイスであって、
1つ以上の信号が1つ以上の入力からモバイルデバイスのプロセッサに送信されることを防止するように構成された横取り回路と、
ジェスチャ入力を検出するように構成された加速度計と、
前記ジェスチャ入力に基づいて、1つ以上の第2の信号が前記モバイルデバイスの前記プロセッサによって受信されることを可能にするように構成された出力回路と、を備える、遮断デバイス。 - 前記マイクロフォンを使用してオーディオトリガを決定するように構成されたリスニング回路をさらに備え、前記オーディオトリガは、前記出力回路に、前記1つ以上の第2の信号が前記モバイルデバイスの前記プロセッサによって受信されることを可能にさせる、請求項185に記載の遮断デバイス。
- 前記遮断デバイスが、前記モバイルデバイスから電力を引き出す、請求項185に記載の遮断デバイス。
- 前記遮断デバイスが、前記プロセッサを含まない、請求項185に記載の遮断デバイス。
- システムであって、
モバイルデバイスであって、
1つ以上の入力であって、前記1つ以上の入力が、少なくとも1つのマイクロフォンおよび少なくとも1つの画像キャプチャデバイスを含む、1つ以上の入力と、
1つ以上のプロセッサと、を含む、モバイルデバイスと、
前記モバイルデバイスに接続するように適合された遮断デバイスと、を備え、前記遮断デバイスが、前記モバイルデバイスに接続されたときに、
前記モバイルデバイスの位置および配向のうちの少なくとも1つを検出することと、
前記モバイルデバイスの前記位置および配向のうちの少なくとも1つに基づいて、前記モバイルデバイスが遮断モードにあると決定することと、
前記モバイルデバイスが遮断モードにあるという決定に基づいて、前記モバイルデバイスの1つ以上の入力を介して受信された1つ以上の信号を横取りすることと、
トリガされた状態と関連付けられたトリガを検出することと、
前記トリガを検出することに基づいて、前記モバイルデバイスの1つ以上のプロセッサが前記モバイルデバイスの前記1つ以上の入力から1つ以上の信号を受信することを可能にする前記トリガされた状態に入ることと、を行うように構成されている、システム。 - 前記トリガが、前記モバイルデバイスの反復運動を含む、請求項189に記載のシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962802628P | 2019-02-07 | 2019-02-07 | |
US62/802,628 | 2019-02-07 | ||
US202062958305P | 2020-01-07 | 2020-01-07 | |
US62/958,305 | 2020-01-07 | ||
PCT/CA2020/050171 WO2020160683A1 (en) | 2019-02-07 | 2020-02-07 | Privacy device for smart speakers |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022523150A true JP2022523150A (ja) | 2022-04-21 |
JPWO2020160683A5 JPWO2020160683A5 (ja) | 2023-02-01 |
Family
ID=71944858
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021545926A Pending JP2022523150A (ja) | 2019-02-07 | 2020-02-07 | スマートスピーカ用プライバシデバイス |
Country Status (6)
Country | Link |
---|---|
US (13) | US11184711B2 (ja) |
EP (1) | EP3921830A4 (ja) |
JP (1) | JP2022523150A (ja) |
CN (1) | CN113728380A (ja) |
CA (1) | CA3129378A1 (ja) |
WO (1) | WO2020160683A1 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10999733B2 (en) | 2017-11-14 | 2021-05-04 | Thomas STACHURA | Information security/privacy via a decoupled security accessory to an always listening device |
EP3921830A4 (en) | 2019-02-07 | 2022-11-02 | Thomas Stachura | PRIVACY DEVICE FOR SMART SPEAKERS |
US10943598B2 (en) * | 2019-03-18 | 2021-03-09 | Rovi Guides, Inc. | Method and apparatus for determining periods of excessive noise for receiving smart speaker voice commands |
US20200388280A1 (en) | 2019-06-05 | 2020-12-10 | Google Llc | Action validation for digital assistant-based applications |
WO2020246975A1 (en) * | 2019-06-05 | 2020-12-10 | Google Llc | Action validation for digital assistant-based applications |
US11566863B2 (en) * | 2019-06-18 | 2023-01-31 | Troy Francis Dugo | Wearable self defense apparatus and method of self defense |
KR102093430B1 (ko) * | 2019-06-24 | 2020-03-25 | 박연묵 | 인공지능 스마트 디바이스의 마이크모듈부 구조 및 이를 포함하는 인공지능 스마트 디바이스 |
US11069357B2 (en) * | 2019-07-31 | 2021-07-20 | Ebay Inc. | Lip-reading session triggering events |
US11145315B2 (en) * | 2019-10-16 | 2021-10-12 | Motorola Mobility Llc | Electronic device with trigger phrase bypass and corresponding systems and methods |
US11422085B2 (en) * | 2020-05-18 | 2022-08-23 | At&T Intellectual Property I, L.P. | Signal detection system for improved microphone-controllable device security |
US11488571B2 (en) * | 2020-07-02 | 2022-11-01 | International Business Machines Corporation | Anti-eavesdrop security device |
US11757531B1 (en) * | 2020-08-26 | 2023-09-12 | United Services Automobile Association (Usaa) | Systems and methods for preventing lightbeam access to microphones of smart devices |
CA3190767A1 (en) * | 2020-08-26 | 2022-03-03 | Pozio Privacy Innovations Inc. | Microphone jammer |
US11595577B2 (en) | 2020-08-28 | 2023-02-28 | Micron Technology, Inc. | Sensor block |
US11523483B2 (en) * | 2020-10-26 | 2022-12-06 | Amazon Technologies, Inc. | Maintaining sensing state of a sensor and controlling related light emission |
US11640276B2 (en) * | 2020-11-17 | 2023-05-02 | Kyndryl, Inc. | Mask device for a listening device |
US11688392B2 (en) * | 2020-12-08 | 2023-06-27 | Google Llc | Freeze words |
DE102020133648A1 (de) * | 2020-12-16 | 2022-06-23 | Audi Aktiengesellschaft | Verfahren zur Abhörsicherung einer Stimme |
US20230026981A1 (en) * | 2021-07-22 | 2023-01-26 | Popio Ip Holdings, Llc | Obscuring digital video streams via a panic button during digital video communications |
US11622147B2 (en) | 2021-07-22 | 2023-04-04 | Popio Mobile Video Cloud, Llc | Blurring digital video streams upon initiating digital video communications |
WO2023020703A1 (en) | 2021-08-20 | 2023-02-23 | Cariad Se | Vehicle configured to perform a voice call via a communication device and method |
WO2023039665A1 (en) * | 2021-09-15 | 2023-03-23 | Pozio Privacy Innovations Inc. | Mobile phone microphone jamming apparatus |
US11816056B1 (en) | 2022-06-29 | 2023-11-14 | Amazon Technologies, Inc. | Maintaining sensing state of a sensor and interfacing with device components |
CN115294990B (zh) * | 2022-10-08 | 2023-01-03 | 杭州艾力特数字科技有限公司 | 扩声系统检测方法、系统、终端及存储介质 |
Family Cites Families (138)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4153370A (en) | 1977-12-05 | 1979-05-08 | The United States Of America As Represented By The United States Department Of Energy | Microinterferometer transducer |
US5248919A (en) | 1992-03-31 | 1993-09-28 | Lutron Electronics Co., Inc. | Lighting control device |
US5448646A (en) | 1993-11-01 | 1995-09-05 | Unex Corporation | Headset interface assembly |
US7106843B1 (en) | 1994-04-19 | 2006-09-12 | T-Netix, Inc. | Computer-based method and apparatus for controlling, monitoring, recording and reporting telephone access |
JPH08241098A (ja) | 1995-03-03 | 1996-09-17 | Hitachi Ltd | メディア認識制御システム |
US6760463B2 (en) | 1995-05-08 | 2004-07-06 | Digimarc Corporation | Watermarking methods and media |
EP0959444A4 (en) | 1996-08-14 | 2005-12-07 | Nurakhmed Nurislamovic Latypov | METHOD FOR TRACKING AND REPRESENTING THE POSITION AND ORIENTATION OF A SUBJECT IN THE SPACE, METHOD FOR PRESENTING A VIRTUAL SPACE THEREON, AND SYSTEMS FOR CARRYING OUT SAID METHODS |
JPH11175095A (ja) | 1997-12-11 | 1999-07-02 | Hitachi Medical Corp | 医用診断装置 |
US6252544B1 (en) | 1998-01-27 | 2001-06-26 | Steven M. Hoffberg | Mobile communication device |
US7760905B2 (en) | 1999-06-29 | 2010-07-20 | Digimarc Corporation | Wireless mobile phone with content processing |
US7010332B1 (en) * | 2000-02-21 | 2006-03-07 | Telefonaktiebolaget Lm Ericsson(Publ) | Wireless headset with automatic power control |
US6804396B2 (en) | 2001-03-28 | 2004-10-12 | Honda Giken Kogyo Kabushiki Kaisha | Gesture recognition system |
WO2003071410A2 (en) | 2002-02-15 | 2003-08-28 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
US10242255B2 (en) | 2002-02-15 | 2019-03-26 | Microsoft Technology Licensing, Llc | Gesture recognition system using depth perceptive sensors |
US7424623B2 (en) * | 2002-03-28 | 2008-09-09 | O2 Micro International Limited | Personal computer integrated with personal digital assistant |
US8745541B2 (en) | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US7644290B2 (en) * | 2003-03-31 | 2010-01-05 | Power Measurement Ltd. | System and method for seal tamper detection for intelligent electronic devices |
CA2528889C (en) * | 2003-06-26 | 2010-05-11 | Formation, Inc. | Environmental protection of serial ata and other electronic devices |
US7162212B2 (en) | 2003-09-22 | 2007-01-09 | Agere Systems Inc. | System and method for obscuring unwanted ambient noise and handset and central office equipment incorporating the same |
US20050118990A1 (en) * | 2003-12-02 | 2005-06-02 | Sony Ericsson Mobile Communications Ab | Method for audible control of a camera |
WO2006004879A1 (en) | 2004-06-29 | 2006-01-12 | Lutron Electronics Co., Inc. | Pull out air gap switch for wallbox-mounted dimmer |
JP4845467B2 (ja) * | 2004-11-08 | 2011-12-28 | 株式会社エヌ・ティ・ティ・ドコモ | デバイス管理装置、デバイス及びデバイス管理方法 |
US7751111B2 (en) * | 2005-06-02 | 2010-07-06 | Konica Minolta Holdings, Inc. | Display element |
US8814810B2 (en) | 2005-12-01 | 2014-08-26 | Orthosensor Inc. | Orthopedic method and system for mapping an anatomical pivot point |
US9910497B2 (en) | 2006-02-08 | 2018-03-06 | Oblong Industries, Inc. | Gestural control of autonomous and semi-autonomous systems |
US7890778B2 (en) | 2007-01-06 | 2011-02-15 | Apple Inc. | Power-off methods for portable electronic devices |
US7840031B2 (en) | 2007-01-12 | 2010-11-23 | International Business Machines Corporation | Tracking a range of body movement based on 3D captured image streams of a user |
US8522309B2 (en) | 2007-01-22 | 2013-08-27 | Simon Yoffe | Security switch |
JP2010532588A (ja) | 2007-01-22 | 2010-10-07 | シモン ヨフェ | セキュリティ・スイッチ |
US8203850B2 (en) * | 2008-02-05 | 2012-06-19 | Vector Technologies, Llc | Anti-eavesdropping device |
US8788977B2 (en) | 2008-11-20 | 2014-07-22 | Amazon Technologies, Inc. | Movement recognition as input mechanism |
US8856691B2 (en) | 2009-05-29 | 2014-10-07 | Microsoft Corporation | Gesture tool |
US9177557B2 (en) * | 2009-07-07 | 2015-11-03 | General Motors Llc. | Singular value decomposition for improved voice recognition in presence of multi-talker background noise |
CN101604447B (zh) | 2009-07-09 | 2011-06-01 | 上海交通大学 | 无标记人体运动捕捉方法 |
MX2009010902A (es) * | 2009-10-08 | 2011-04-20 | Magno Alcantara Talavera | Metodos y sistema de control por voz. |
US20110091047A1 (en) * | 2009-10-20 | 2011-04-21 | Alon Konchitsky | Active Noise Control in Mobile Devices |
WO2011056657A2 (en) | 2009-10-27 | 2011-05-12 | Harmonix Music Systems, Inc. | Gesture-based user interface |
US9258394B2 (en) | 2009-11-12 | 2016-02-09 | Arun Sobti & Associates, Llc | Apparatus and method for integrating computing devices |
US8631355B2 (en) | 2010-01-08 | 2014-01-14 | Microsoft Corporation | Assigning gesture dictionaries |
US9268404B2 (en) | 2010-01-08 | 2016-02-23 | Microsoft Technology Licensing, Llc | Application gesture interpretation |
US8334842B2 (en) | 2010-01-15 | 2012-12-18 | Microsoft Corporation | Recognizing user intent in motion capture system |
WO2011131823A1 (en) | 2010-04-23 | 2011-10-27 | Nokia Corporation | An apparatus and a method for causing a change in the state of a headset |
US8751215B2 (en) | 2010-06-04 | 2014-06-10 | Microsoft Corporation | Machine based sign language interpreter |
US8532987B2 (en) * | 2010-08-24 | 2013-09-10 | Lawrence Livermore National Security, Llc | Speech masking and cancelling and voice obscuration |
US20120133484A1 (en) * | 2010-11-29 | 2012-05-31 | Research In Motion Limited | Multiple-input device lock and unlock |
US8723789B1 (en) | 2011-02-11 | 2014-05-13 | Imimtek, Inc. | Two-dimensional method and system enabling three-dimensional user interaction with a device |
US8737634B2 (en) * | 2011-03-18 | 2014-05-27 | The United States Of America As Represented By The Secretary Of The Navy | Wide area noise cancellation system and method |
US8972712B2 (en) * | 2011-05-24 | 2015-03-03 | Vision Works Ip Corporation | Device for reprogramming an embedded system to allow the system to return to an initial embedded system information or a reprogrammed embedded system information |
US8558759B1 (en) | 2011-07-08 | 2013-10-15 | Google Inc. | Hand gestures to signify what is important |
US20140032733A1 (en) * | 2011-10-11 | 2014-01-30 | Citrix Systems, Inc. | Policy-Based Application Management |
US20130159939A1 (en) | 2011-10-12 | 2013-06-20 | Qualcomm Incorporated | Authenticated gesture recognition |
US8954334B2 (en) * | 2011-10-15 | 2015-02-10 | Zanavox | Voice-activated pulser |
WO2013101438A1 (en) * | 2011-12-29 | 2013-07-04 | Kopin Corporation | Wireless hands-free computing head mounted video eyewear for local/remote diagnosis and repair |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US20130231930A1 (en) | 2012-03-01 | 2013-09-05 | Adobe Systems Inc. | Method and apparatus for automatically filtering an audio signal |
US20130259254A1 (en) * | 2012-03-28 | 2013-10-03 | Qualcomm Incorporated | Systems, methods, and apparatus for producing a directional sound field |
CN202512515U (zh) * | 2012-04-06 | 2012-10-31 | 青岛海信电器股份有限公司 | 一种电子设备 |
US9448636B2 (en) | 2012-04-18 | 2016-09-20 | Arb Labs Inc. | Identifying gestures using gesture data compressed by PCA, principal joint variable analysis, and compressed feature matrices |
US9117449B2 (en) * | 2012-04-26 | 2015-08-25 | Nuance Communications, Inc. | Embedded system for construction of small footprint speech recognition with user-definable constraints |
US9317721B2 (en) | 2012-10-31 | 2016-04-19 | Google Inc. | Privacy aware camera and device status indicator system |
US9679696B2 (en) | 2012-11-14 | 2017-06-13 | Lutron Electronics Co., Inc. | Wireless load control device |
US10199051B2 (en) * | 2013-02-07 | 2019-02-05 | Apple Inc. | Voice trigger for a digital assistant |
US20140244273A1 (en) * | 2013-02-27 | 2014-08-28 | Jean Laroche | Voice-controlled communication connections |
US11393461B2 (en) * | 2013-03-12 | 2022-07-19 | Cerence Operating Company | Methods and apparatus for detecting a voice command |
US9361885B2 (en) | 2013-03-12 | 2016-06-07 | Nuance Communications, Inc. | Methods and apparatus for detecting a voice command |
US20140330989A1 (en) * | 2013-05-01 | 2014-11-06 | International Business Machines Corporation | Intelligent Power Strip |
US9472206B2 (en) | 2013-06-17 | 2016-10-18 | Google Technology Holdings LLC | Privacy mode for always-on voice-activated information assistant |
US20150074524A1 (en) * | 2013-09-10 | 2015-03-12 | Lenovo (Singapore) Pte. Ltd. | Management of virtual assistant action items |
WO2015094369A1 (en) | 2013-12-20 | 2015-06-25 | Intel Corporation | Transition from low power always listening mode to high power speech recognition mode |
US9851735B2 (en) | 2014-01-02 | 2017-12-26 | Lutron Electronics Co., Inc. | Wireless load control system |
US11651258B2 (en) * | 2014-01-08 | 2023-05-16 | Yechezkal Evan Spero | Integrated docking system for intelligent devices |
KR102210433B1 (ko) * | 2014-01-21 | 2021-02-01 | 삼성전자주식회사 | 전자 장치 및 이의 음성 인식 방법 |
US20170238401A1 (en) | 2014-01-25 | 2017-08-17 | Innosys, Inc. | Solid State Lighting Systems |
KR102135370B1 (ko) | 2014-02-18 | 2020-07-17 | 엘지전자 주식회사 | 이동 단말기 및 이동 단말기의 제어방법 |
RU2014111971A (ru) | 2014-03-28 | 2015-10-10 | Юрий Михайлович Буров | Способ и система голосового интерфейса |
US9697828B1 (en) | 2014-06-20 | 2017-07-04 | Amazon Technologies, Inc. | Keyword detection modeling using contextual and environmental information |
US9357320B2 (en) | 2014-06-24 | 2016-05-31 | Harmon International Industries, Inc. | Headphone listening apparatus |
WO2016029165A2 (en) | 2014-08-22 | 2016-02-25 | Lutron Electronics Co., Inc. | Load control system responsive to location of an occupant and mobile devices |
US9747884B2 (en) * | 2014-10-06 | 2017-08-29 | Green Swan, Inc. | Battery-equipped cellular telephone case with internal sound generator and layered sound blockage for privacy |
US9318107B1 (en) | 2014-10-09 | 2016-04-19 | Google Inc. | Hotword detection on multiple devices |
KR102299330B1 (ko) * | 2014-11-26 | 2021-09-08 | 삼성전자주식회사 | 음성 인식 방법 및 그 전자 장치 |
EP3026873A1 (en) | 2014-11-28 | 2016-06-01 | Alleantia S.r.l. | Electronic smart device holder |
US20160196823A1 (en) * | 2015-01-02 | 2016-07-07 | Atieva, Inc. | Voice Command Activated Vehicle Camera System |
CN107113345A (zh) | 2015-01-16 | 2017-08-29 | 株式会社Ntt都科摩 | 通信终端装置、传入呼叫控制方法和程序 |
US10484827B2 (en) | 2015-01-30 | 2019-11-19 | Lutron Technology Company Llc | Gesture-based load control via wearable devices |
US9489172B2 (en) | 2015-02-26 | 2016-11-08 | Motorola Mobility Llc | Method and apparatus for voice control user interface with discreet operating mode |
US10134416B2 (en) * | 2015-05-11 | 2018-11-20 | Microsoft Technology Licensing, Llc | Privacy-preserving energy-efficient speakers for personal sound |
WO2016185289A1 (en) | 2015-05-21 | 2016-11-24 | Gammakite, Llc | Device for language teaching with time dependent data memory |
US9900957B2 (en) * | 2015-06-11 | 2018-02-20 | Cree, Inc. | Lighting device including solid state emitters with adjustable control |
EP3110044B1 (en) * | 2015-06-23 | 2017-06-07 | The Boeing Company | A device and a method for detecting and analyzing signals in the ultrasounds frequency spectrum for electronic communications devices |
US10509476B2 (en) * | 2015-07-02 | 2019-12-17 | Verizon Patent And Licensing Inc. | Enhanced device authentication using magnetic declination |
US10188936B2 (en) * | 2015-07-07 | 2019-01-29 | Nimrod Back | Sided game accessory device |
WO2017040305A1 (en) * | 2015-08-28 | 2017-03-09 | Pegasus Media Security, Llc | System and method for preventing unauthorized recording, retransmission and misuse of audio and video |
US9792907B2 (en) | 2015-11-24 | 2017-10-17 | Intel IP Corporation | Low resource key phrase detection for wake on voice |
CN108605402B (zh) | 2015-12-11 | 2020-09-18 | 路创技术有限责任公司 | 具有可见光传感器的负载控制系统 |
US10075844B2 (en) * | 2015-12-18 | 2018-09-11 | Ppip Llc | Enpoint security appliance/sensor platform |
CN106997236B (zh) | 2016-01-25 | 2018-07-13 | 亮风台(上海)信息科技有限公司 | 基于多模态输入进行交互的方法和设备 |
US10572961B2 (en) * | 2016-03-15 | 2020-02-25 | Global Tel*Link Corporation | Detection and prevention of inmate to inmate message relay |
US10911860B2 (en) | 2016-03-23 | 2021-02-02 | Intel Corporation | Automated and body driven headset audio control |
US9998606B2 (en) * | 2016-06-10 | 2018-06-12 | Glen A. Norris | Methods and apparatus to assist listeners in distinguishing between electronically generated binaural sound and physical environment sound |
US10152969B2 (en) * | 2016-07-15 | 2018-12-11 | Sonos, Inc. | Voice detection by multiple devices |
US10115400B2 (en) | 2016-08-05 | 2018-10-30 | Sonos, Inc. | Multiple voice services |
US10271132B2 (en) | 2016-11-28 | 2019-04-23 | Motorola Solutions, Inc. | Method to dynamically change the directional speakers audio beam and level based on the end user activity |
CN110463351B (zh) | 2016-12-09 | 2022-03-08 | 路创技术有限责任公司 | 具有可见光传感器的负载控制系统 |
CA3155434A1 (en) * | 2017-02-07 | 2018-08-16 | Lutron Technology Company Llc | Audio-based load control system |
FR3064794B1 (fr) | 2017-03-28 | 2019-11-01 | Continental Automotive France | Systeme et procede de transmission d’un message oral dans un vehicule |
US10503400B2 (en) | 2017-04-13 | 2019-12-10 | Mark Bynum | Communication device for users with limited physical dexterity |
US10282166B2 (en) * | 2017-05-03 | 2019-05-07 | The Reverie Group, Llc | Enhanced control, customization, and/or security of a sound controlled device such as a voice controlled assistance device |
US10313782B2 (en) * | 2017-05-04 | 2019-06-04 | Apple Inc. | Automatic speech recognition triggering system |
US10332517B1 (en) | 2017-06-02 | 2019-06-25 | Amazon Technologies, Inc. | Privacy mode based on speaker identifier |
KR20180132563A (ko) | 2017-06-02 | 2018-12-12 | 하만인터내셔날인더스트리스인코포레이티드 | 마이크로폰 불능화 시스템 |
EP3635531A1 (en) * | 2017-06-09 | 2020-04-15 | Bang & Olufsen A/S | An instruction forwarding system for a voice assistant |
US11096005B2 (en) | 2017-08-02 | 2021-08-17 | Audio Analytic Ltd. | Sound reproduction |
US20190043466A1 (en) | 2017-08-04 | 2019-02-07 | Cone Of Silence Llc | Active listening privacy device and method |
US10616411B1 (en) * | 2017-08-21 | 2020-04-07 | Wells Fargo Bank, N.A. | System and method for intelligent call interception and fraud detecting audio assistant |
US11244678B2 (en) | 2017-09-07 | 2022-02-08 | Insight Holding Group, Inc. | System and method for securing electronic devices |
US10354648B2 (en) * | 2017-09-07 | 2019-07-16 | Strategic Data Systems | System and method for securing intelligent automated assistant devices |
US10672416B2 (en) * | 2017-10-20 | 2020-06-02 | Board Of Trustees Of The University Of Illinois | Causing microphones to detect inaudible sounds and defense against inaudible attacks |
US20190147848A1 (en) | 2017-11-14 | 2019-05-16 | Xiao Ming Mai | Information choice and security via a decoupled security cap to an always listening assistant device |
US10002259B1 (en) * | 2017-11-14 | 2018-06-19 | Xiao Ming Mai | Information security/privacy in an always listening assistant device |
US10867054B2 (en) * | 2017-11-14 | 2020-12-15 | Thomas STACHURA | Information security/privacy via a decoupled security accessory to an always listening assistant device |
US10872607B2 (en) | 2017-11-14 | 2020-12-22 | Thomas STACHURA | Information choice and security via a decoupled router with an always listening assistant device |
US10867623B2 (en) | 2017-11-14 | 2020-12-15 | Thomas STACHURA | Secure and private processing of gestures via video input |
US10999733B2 (en) | 2017-11-14 | 2021-05-04 | Thomas STACHURA | Information security/privacy via a decoupled security accessory to an always listening device |
US11100913B2 (en) | 2017-11-14 | 2021-08-24 | Thomas STACHURA | Information security/privacy via a decoupled security cap to an always listening assistant device |
US10529331B2 (en) * | 2017-12-12 | 2020-01-07 | Intel Corporation | Suppressing key phrase detection in generated audio using self-trigger detector |
US11490248B2 (en) * | 2017-12-14 | 2022-11-01 | Lutron Technology Company Llc | Privacy mode for a wireless audio device |
EP3503088A1 (de) * | 2017-12-21 | 2019-06-26 | KARDA Projektentwicklung & Beratung OHG | Schutzvorrichtung |
US10616746B2 (en) | 2018-02-13 | 2020-04-07 | Ppip, Llc | System, device, and method for distress response |
US10887351B2 (en) * | 2018-05-02 | 2021-01-05 | NortonLifeLock Inc. | Security for IoT home voice assistants |
CN208172539U (zh) * | 2018-05-08 | 2018-11-30 | 深圳市暴雷网络科技有限公司 | 基于语音识别的智能控制开关、移动电源及线材 |
US10831236B2 (en) * | 2018-06-08 | 2020-11-10 | Cor Sanctum, LLC | Maintaining privacy with mobile computing devices |
US10832671B2 (en) | 2018-06-25 | 2020-11-10 | Intel Corporation | Method and system of audio false keyphrase rejection using speaker recognition |
KR102563817B1 (ko) | 2018-07-13 | 2023-08-07 | 삼성전자주식회사 | 사용자 음성 입력 처리 방법 및 이를 지원하는 전자 장치 |
US20190347449A1 (en) * | 2018-08-27 | 2019-11-14 | Dana Conrad Kowasic | Privacy protection system for electronic devices |
US10565978B2 (en) | 2018-08-31 | 2020-02-18 | Intel Corporation | Ultrasonic attack prevention for speech enabled devices |
US10871935B2 (en) * | 2018-09-18 | 2020-12-22 | Roku, Inc. | Audio cancellation and content recognition of audio received over HDMI/ARC |
EP3921830A4 (en) | 2019-02-07 | 2022-11-02 | Thomas Stachura | PRIVACY DEVICE FOR SMART SPEAKERS |
-
2020
- 2020-02-07 EP EP20751890.3A patent/EP3921830A4/en active Pending
- 2020-02-07 US US16/785,202 patent/US11184711B2/en active Active
- 2020-02-07 CN CN202080019490.3A patent/CN113728380A/zh active Pending
- 2020-02-07 CA CA3129378A patent/CA3129378A1/en active Pending
- 2020-02-07 US US16/785,176 patent/US11388516B2/en active Active
- 2020-02-07 JP JP2021545926A patent/JP2022523150A/ja active Pending
- 2020-02-07 WO PCT/CA2020/050171 patent/WO2020160683A1/en unknown
- 2020-02-10 US US16/785,950 patent/US11477590B2/en active Active
- 2020-02-10 US US16/785,856 patent/US11606657B2/en active Active
- 2020-02-10 US US16/785,930 patent/US11606658B2/en active Active
- 2020-02-10 US US16/785,918 patent/US11503418B2/en active Active
- 2020-05-22 US US16/881,090 patent/US11445300B2/en active Active
- 2020-05-22 US US16/881,101 patent/US11445315B2/en active Active
- 2020-10-29 US US17/083,667 patent/US11805378B2/en active Active
-
2021
- 2021-11-19 US US17/530,549 patent/US11863943B2/en active Active
-
2022
- 2022-05-23 US US17/750,598 patent/US20220286780A1/en active Pending
- 2022-07-20 US US17/868,932 patent/US11711662B2/en active Active
- 2022-07-28 US US17/876,041 patent/US11770665B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20210044901A1 (en) | 2021-02-11 |
WO2020160683A1 (en) | 2020-08-13 |
US20220377479A1 (en) | 2022-11-24 |
CN113728380A (zh) | 2021-11-30 |
US20200288240A1 (en) | 2020-09-10 |
US11711662B2 (en) | 2023-07-25 |
CA3129378A1 (en) | 2020-08-13 |
US20200286483A1 (en) | 2020-09-10 |
US20200258528A1 (en) | 2020-08-13 |
US20200260185A1 (en) | 2020-08-13 |
US20220078556A1 (en) | 2022-03-10 |
US11184711B2 (en) | 2021-11-23 |
US11863943B2 (en) | 2024-01-02 |
US11805378B2 (en) | 2023-10-31 |
US11503418B2 (en) | 2022-11-15 |
US20220286780A1 (en) | 2022-09-08 |
EP3921830A4 (en) | 2022-11-02 |
US20200258518A1 (en) | 2020-08-13 |
US11388516B2 (en) | 2022-07-12 |
US11477590B2 (en) | 2022-10-18 |
US11445315B2 (en) | 2022-09-13 |
US20200260184A1 (en) | 2020-08-13 |
US20200260186A1 (en) | 2020-08-13 |
US11606658B2 (en) | 2023-03-14 |
US11770665B2 (en) | 2023-09-26 |
EP3921830A1 (en) | 2021-12-15 |
US20220369056A1 (en) | 2022-11-17 |
US11445300B2 (en) | 2022-09-13 |
US20200260183A1 (en) | 2020-08-13 |
US11606657B2 (en) | 2023-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022523150A (ja) | スマートスピーカ用プライバシデバイス | |
CN111819560B (zh) | 具有关守功能的计算设备、解耦附件及其计算机实现方法 | |
US10867054B2 (en) | Information security/privacy via a decoupled security accessory to an always listening assistant device | |
US11838745B2 (en) | Information security/privacy via a decoupled security accessory to an always listening assistant device | |
US11100913B2 (en) | Information security/privacy via a decoupled security cap to an always listening assistant device | |
US11170790B2 (en) | User authentication with audio reply | |
US20240056522A1 (en) | Systems, devices, and methods for enhancing user privacy and/or user control over audio-activated devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230123 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230123 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240422 |