JP2018106140A - メディアキャプチャ・処理システム - Google Patents
メディアキャプチャ・処理システム Download PDFInfo
- Publication number
- JP2018106140A JP2018106140A JP2017155931A JP2017155931A JP2018106140A JP 2018106140 A JP2018106140 A JP 2018106140A JP 2017155931 A JP2017155931 A JP 2017155931A JP 2017155931 A JP2017155931 A JP 2017155931A JP 2018106140 A JP2018106140 A JP 2018106140A
- Authority
- JP
- Japan
- Prior art keywords
- media device
- audio
- user media
- computer
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 230000008569 process Effects 0.000 title claims abstract description 17
- 238000004891 communication Methods 0.000 claims abstract description 39
- 238000003058 natural language processing Methods 0.000 claims abstract description 13
- 238000012545 processing Methods 0.000 claims description 57
- 238000004458 analytical method Methods 0.000 claims description 15
- 230000008878 coupling Effects 0.000 claims description 3
- 238000010168 coupling process Methods 0.000 claims description 3
- 238000005859 coupling reaction Methods 0.000 claims description 3
- 238000012546 transfer Methods 0.000 abstract description 3
- 230000000007 visual effect Effects 0.000 description 14
- 238000013135 deep learning Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 6
- 238000001914 filtration Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 206010011878 Deafness Diseases 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000010370 hearing loss Effects 0.000 description 2
- 231100000888 hearing loss Toxicity 0.000 description 2
- 208000016354 hearing loss disease Diseases 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- 239000003826 tablet Substances 0.000 description 2
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 239000007943 implant Substances 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/338—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/685—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using automatically derived transcript of audio data, e.g. lyrics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/35—Categorising the entire scene, e.g. birthday party or wedding scene
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G5/00—Tone control or bandwidth control in amplifiers
- H03G5/16—Automatic control
- H03G5/165—Equalizers; Volume or gain control in limited frequency bands
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/326—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only for microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/406—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/04—Circuits for transducers, loudspeakers or microphones for correcting frequency response
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/26—Techniques for post-processing, e.g. correcting the recognition result
- G06V30/262—Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
- G06V30/274—Syntactic or semantic context, e.g. balancing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2499/00—Aspects covered by H04R or H04S not otherwise provided for in their subgroups
- H04R2499/10—General applications
- H04R2499/11—Transducers incorporated or for use in hand-held devices, e.g. mobile phones, PDA's, camera's
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Otolaryngology (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Library & Information Science (AREA)
- General Health & Medical Sciences (AREA)
- Circuit For Audible Band Transducer (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
(付記1) ユーザメディア装置であって、
無指向性マイクロフォンと指向性マイクロフォンとを含み、選択的に切り替え可能であるマイクロフォンアレイと、
前記ユーザメディア装置をコンピュータと通信可能に結合し、前記マイクロフォンアレイによりキャプチャされたオーディオを、リモートサービスに転送する前記コンピュータに送信する通信インターフェースとを有し、前記リモートサービスは、
処理されたオーディオのテキストを自然言語処理により生成し、
処理されたオーディオのセマンティックリーズニングをセマンティックリーズニングエンジンにより実行し、
処理されたオーディオに対して実行されたセマンティックリーズニングに少なくとも部分的に基づいて精選コンテンツを生成し、精選コンテンツは、処理されたオーディオに関して、意味のある方法で結果を表示するように構成された、セマンティックリーズニングの結果を含むレポートを含む、
ユーザメディア装置。
(付記2) 前記マイクロフォンアレイは第2の無指向性マイクロフォンと第2の指向性マイクロフォンとを含む、付記1に記載のユーザメディア装置。
(付記3) 前記無指向性マイクロフォンによりキャプチャされたオーディオは、前記指向性マイクロフォンによりキャプチャされたオーディオに対するノイズキャンセリングを実行するように利用される、付記1に記載のユーザメディア装置。
(付記4) さらにカメラを有する、付記1に記載のユーザメディア装置。
(付記5) 処理されたオーディオは、前記ユーザメディア装置により、前記通信インターフェースを介して前記コンピュータから受信され、前記ユーザメディア装置のスピーカにより再生される、付記1に記載のユーザメディア装置。
(付記6) 前記ユーザメディア装置はユーザの頭に装着するように構成される、
付記1に記載のユーザメディア装置。
(付記7) 前記マイクロフォンアレイは、前記コンピュータから前記ユーザメディア装置により受信される制御コマンドに少なくとも部分的に基づいて選択的に切り替え可能である、付記1に記載のユーザメディア装置。
(付記8) ユーザメディア装置によりキャプチャされるオーディオを処理する方法であって、
前記ユーザメディア装置のマイクロフォンアレイがオーディオをキャプチャするステップと、
前記ユーザメディア装置が、キャプチャされたオーディオを、前記ユーザメディア装置に通信可能に結合したコンピュータに送信するステップと、
前記コンピュータが、キャプチャされたオーディオを処理するステップと、
前記コンピュータが、処理されたオーディオを前記ユーザメディア装置に送信するステップと、
前記ユーザメディア装置のスピーカが、処理されたオーディオを再生するステップとを含む、方法。
(付記9) キャプチャされたオーディオを処理するステップは、キャプチャされたオーディオをフィルタリングするステップを含む、付記8に記載の方法。
(付記10) キャプチャされたオーディオを処理するステップは、キャプチャされたオーディオを等化するステップを含む、付記8に記載の方法。
(付記11) 前記ユーザメディア装置のカメラがビジュアルメディアをキャプチャするステップと、
前記ユーザメディア装置が、キャプチャされたビジュアルメディアを前記コンピュータに送信するステップとをさらに含む、付記8に記載の方法。
(付記12) 前記コンピュータが、キャプチャされたビジュアルメディアと、キャプチャされたビジュアルメディアに関連する一以上のタグとを、リモートサービスに送信するステップをさらに含む、付記11に記載の方法。
(付記13) 前記コンピュータが、処理されたオーディオをリモートサービスに送信するステップと、
前記リモートサービスが、処理されたオーディオのテキストを自然言語処理により生成するステップと、
前記リモートサービスが、処理されたオーディオのセマンティックリーズニングをセマンティックリーズニングエンジンにより実行するステップと、
前記リモートサービスが、処理されたオーディオに対して実行されたセマンティックリーズニングに少なくとも部分的に基づいて、精選コンテンツを生成するステップとをさらに含む、付記8に記載の方法。
(付記14) メディアキャプチャ・処理システムであって、
ユーザメディア装置であって、
マイクロフォンアレイと、
前記ユーザメディア装置をコンピュータと通信可能に結合し、前記マイクロフォンアレイによりキャプチャされたオーディオを前記コンピュータに送信する通信インターフェースとを含むユーザメディア装置と、
キャプチャされたオーディオを前記コンピュータから受信し、キャプチャされたオーディオを処理するリモートサービスであって、
キャプチャされたオーディオに対してセマンティックリーズニングを実行するセマンティックリーズニングエンジンと、
キャプチャされたオーディオに関連するデータを精選するデータキュレーションエンジンと、
キャプチャされたオーディオに基づいてレポートを生成する分析エンジンとを含むリモートサービスと
を有する、メディアキャプチャ・処理システム。
(付記15) 前記マイクロフォンアレイは、無指向性マイクロフォンと指向性マイクロフォンとを含み、選択的に切り替え可能である、
付記14に記載のメディアキャプチャ・処理システム。
(付記16) 前記リモートサービスは、キャプチャされたオーディオをテキストに変換する自然言語エンジンを含む、付記14に記載のメディアキャプチャ・処理システム。
(付記17) 結果を精選することは、セマンティック分析の結果を整理して、キャプチャされたオーディオに関する結果を意味のある方法で表示することを含む、
付記14に記載のメディアキャプチャ・処理システム。
(付記18) レポートは、アプリケーションプログラミングインターフェース(API)を介してアクセス可能である、付記14に記載のメディアキャプチャ・処理システム。
(付記19) 前記分析エンジンは、少なくとも部分的にセマンティック分析の結果の統計的分析により、キャプチャされたオーディオに基づくレポートを生成する、
付記14に記載のメディアキャプチャ・処理システム。
(付記20) 前記ユーザメディア装置は、ビジュアルメディアをキャプチャするカメラをさらに含み、前記リモートサービスは、キャプチャされたビジュアルメディアに対して、オブジェクト検出、コンテキスト分析、及び画像処理のうち少なくとも1つを実行するディープラーニングエンジンを含む、付記14に記載のメディアキャプチャ・処理システム。
104 マイクロフォンアレイ
105 無指向性マイクロフォン
106 指向性マイクロフォン
108 スピーカ
110 カメラ
112 プロセッサ
114 メモリ
116 通信インターフェース
118 バッテリー
119 入力
120 コンピュータ
122 プロセッサ
124 メモリ
126 通信インターフェース
128 リモートサービス
130 自然言語エンジン
132 セマンティックリーズニングエンジン
134 ディープラーニングエンジン
136 データキュレーションエンジン
138 分析エンジン
Claims (6)
- ユーザメディア装置であって、
無指向性マイクロフォンと指向性マイクロフォンとを含み、選択的に切り替え可能であるマイクロフォンアレイと、
前記ユーザメディア装置をコンピュータと通信可能に結合し、前記マイクロフォンアレイによりキャプチャされたオーディオを、リモートサービスに転送する前記コンピュータに送信する通信インターフェースとを有し、前記リモートサービスは、
処理されたオーディオのテキストを自然言語処理により生成し、
処理されたオーディオのセマンティックリーズニングをセマンティックリーズニングエンジンにより実行し、
処理されたオーディオに対して実行されたセマンティックリーズニングに少なくとも部分的に基づいて精選コンテンツを生成し、精選コンテンツは、処理されたオーディオに関して、意味のある方法で結果を表示するように構成された、セマンティックリーズニングの結果を含むレポートを含む、
ユーザメディア装置。 - 前記無指向性マイクロフォンによりキャプチャされたオーディオは、前記指向性マイクロフォンによりキャプチャされたオーディオに対するノイズキャンセリングを実行するように利用される、
請求項1に記載のユーザメディア装置。 - 処理されたオーディオは、前記ユーザメディア装置により、前記通信インターフェースを介して前記コンピュータから受信され、前記ユーザメディア装置のスピーカにより再生される、
請求項1に記載のユーザメディア装置。 - 前記マイクロフォンアレイは、前記コンピュータから前記ユーザメディア装置により受信される制御コマンドに少なくとも部分的に基づいて選択的に切り替え可能である、
請求項1に記載のユーザメディア装置。 - ユーザメディア装置によりキャプチャされるオーディオを処理する方法であって、
前記ユーザメディア装置のマイクロフォンアレイがオーディオをキャプチャするステップと、
前記ユーザメディア装置が、キャプチャされたオーディオを、前記ユーザメディア装置に通信可能に結合したコンピュータに送信するステップと、
前記コンピュータが、キャプチャされたオーディオを処理するステップと、
前記コンピュータが、処理されたオーディオを前記ユーザメディア装置に送信するステップと、
前記ユーザメディア装置のスピーカが、処理されたオーディオを再生するステップとを含む、
方法。 - メディアキャプチャ・処理システムであって、
ユーザメディア装置であって、
マイクロフォンアレイと、
前記ユーザメディア装置をコンピュータと通信可能に結合し、前記マイクロフォンアレイによりキャプチャされたオーディオを前記コンピュータに送信する通信インターフェースとを含むユーザメディア装置と、
キャプチャされたオーディオを前記コンピュータから受信し、キャプチャされたオーディオを処理するリモートサービスであって、
キャプチャされたオーディオに対してセマンティックリーズニングを実行するセマンティックリーズニングエンジンと、
キャプチャされたオーディオに関連するデータを精選するデータキュレーションエンジンと、
キャプチャされたオーディオに基づいてレポートを生成する分析エンジンとを含むリモートサービスと
を有する、メディアキャプチャ・処理システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/388,683 | 2016-12-22 | ||
US15/388,683 US10276155B2 (en) | 2016-12-22 | 2016-12-22 | Media capture and process system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018106140A true JP2018106140A (ja) | 2018-07-05 |
JP6930280B2 JP6930280B2 (ja) | 2021-09-01 |
Family
ID=59030838
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017155931A Active JP6930280B2 (ja) | 2016-12-22 | 2017-08-10 | メディアキャプチャ・処理システム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10276155B2 (ja) |
EP (1) | EP3340647B1 (ja) |
JP (1) | JP6930280B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113554857A (zh) * | 2021-07-20 | 2021-10-26 | 思必驰科技股份有限公司 | 用于语音通话的接处警辅助方法及系统 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AT392561B (de) | 1989-07-26 | 1991-04-25 | Akg Akustische Kino Geraete | Mikrophonanordnung fuer video- und/oder filmkameras |
US5524056A (en) | 1993-04-13 | 1996-06-04 | Etymotic Research, Inc. | Hearing aid having plural microphones and a microphone switching system |
US5764778A (en) | 1995-06-07 | 1998-06-09 | Sensimetrics Corporation | Hearing aid headset having an array of microphones |
US6694143B1 (en) | 2000-09-11 | 2004-02-17 | Skyworks Solutions, Inc. | System for using a local wireless network to control a device within range of the network |
WO2006007441A1 (en) | 2004-06-16 | 2006-01-19 | Cardo Systems Inc. | Wireless communication headset with microphone switching system |
DK1708543T3 (en) | 2005-03-29 | 2015-11-09 | Oticon As | Hearing aid for recording data and learning from it |
US7949529B2 (en) * | 2005-08-29 | 2011-05-24 | Voicebox Technologies, Inc. | Mobile systems and methods of supporting natural language human-machine interactions |
WO2007103951A2 (en) | 2006-03-06 | 2007-09-13 | Hearing Enhancement Group, Llc | Headworn listening device and method |
US7680292B2 (en) | 2006-05-30 | 2010-03-16 | Knowles Electronics, Llc | Personal listening device |
US8140335B2 (en) * | 2007-12-11 | 2012-03-20 | Voicebox Technologies, Inc. | System and method for providing a natural language voice user interface in an integrated voice navigation services environment |
US8776218B2 (en) * | 2009-07-21 | 2014-07-08 | Sophos Limited | Behavioral-based host intrusion prevention system |
US20140074843A1 (en) * | 2012-09-12 | 2014-03-13 | Zuess, Inc. | Systems and methods for dynamic analysis, sorting and active display of semantic-driven reports of communication repositories |
US9575960B1 (en) * | 2012-09-17 | 2017-02-21 | Amazon Technologies, Inc. | Auditory enhancement using word analysis |
US9344792B2 (en) * | 2012-11-29 | 2016-05-17 | Apple Inc. | Ear presence detection in noise cancelling earphones |
CN103077165A (zh) | 2012-12-31 | 2013-05-01 | 威盛电子股份有限公司 | 自然语言对话方法及其系统 |
US9454612B2 (en) | 2013-08-29 | 2016-09-27 | Fujitsu Limited | Item selection in curation learning |
US9323810B2 (en) | 2013-08-29 | 2016-04-26 | Fujitsu Limited | Curation selection for learning |
US9374649B2 (en) | 2013-12-19 | 2016-06-21 | International Business Machines Corporation | Smart hearing aid |
US9324022B2 (en) | 2014-03-04 | 2016-04-26 | Signal/Sense, Inc. | Classifying data with deep learning neural records incrementally refined through expert input |
US9892194B2 (en) | 2014-04-04 | 2018-02-13 | Fujitsu Limited | Topic identification in lecture videos |
US9484030B1 (en) | 2015-12-02 | 2016-11-01 | Amazon Technologies, Inc. | Audio triggered commands |
-
2016
- 2016-12-22 US US15/388,683 patent/US10276155B2/en active Active
-
2017
- 2017-06-07 EP EP17174851.0A patent/EP3340647B1/en active Active
- 2017-08-10 JP JP2017155931A patent/JP6930280B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US10276155B2 (en) | 2019-04-30 |
EP3340647A1 (en) | 2018-06-27 |
JP6930280B2 (ja) | 2021-09-01 |
EP3340647B1 (en) | 2021-03-31 |
US20180182379A1 (en) | 2018-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10970030B2 (en) | Changing companion communication device behavior based on status of wearable device | |
US8441515B2 (en) | Method and apparatus for minimizing acoustic echo in video conferencing | |
US8495051B2 (en) | Search engine inference based virtual assistance | |
US20120183164A1 (en) | Social network for sharing a hearing aid setting | |
WO2020258328A1 (zh) | 一种马达振动方法、装置、系统及可读介质 | |
US11776555B2 (en) | Audio modification using interconnected electronic devices | |
WO2018166081A1 (zh) | 一种耳机 | |
US20170195817A1 (en) | Simultaneous Binaural Presentation of Multiple Audio Streams | |
WO2022267468A1 (zh) | 一种声音处理方法及其装置 | |
CN114466283A (zh) | 音频采集方法、装置、电子设备及外设组件方法 | |
JP6930280B2 (ja) | メディアキャプチャ・処理システム | |
US20220101855A1 (en) | Speech and audio devices | |
JP2020030571A (ja) | 情報処理装置、コンピュータプログラムおよび情報処理方法 | |
CN117835121A (zh) | 立体声重放方法、电脑、话筒设备、音箱设备和电视 | |
KR101398466B1 (ko) | 음향조절 어플리케이션이 저장된 휴대단말 | |
US10264364B2 (en) | Signal compensation method and apparatus | |
CN115086888B (zh) | 消息通知方法与装置、电子设备 | |
JP2016521471A (ja) | マルチモーダルセンサからの混合メディア | |
CN115206278A (zh) | 一种声音降噪的方法和装置 | |
US20170094412A1 (en) | Wearable recording and playback system | |
US11810588B2 (en) | Audio source separation for audio devices | |
US20240249711A1 (en) | Audio cancellation | |
US11163522B2 (en) | Fine grain haptic wearable device | |
WO2023005348A1 (zh) | 分屏推荐方法和装置 | |
KR20230101603A (ko) | 전자 장치 및 그 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200514 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210326 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210406 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210603 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210713 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210726 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6930280 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |