JP5937202B2 - モバイルデバイスにおけるオーディオデータ収集プライバシーを保護すること - Google Patents
モバイルデバイスにおけるオーディオデータ収集プライバシーを保護すること Download PDFInfo
- Publication number
- JP5937202B2 JP5937202B2 JP2014512870A JP2014512870A JP5937202B2 JP 5937202 B2 JP5937202 B2 JP 5937202B2 JP 2014512870 A JP2014512870 A JP 2014512870A JP 2014512870 A JP2014512870 A JP 2014512870A JP 5937202 B2 JP5937202 B2 JP 5937202B2
- Authority
- JP
- Japan
- Prior art keywords
- audio
- audio data
- subset
- continuous
- stream
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013480 data collection Methods 0.000 title description 3
- 238000000034 method Methods 0.000 claims description 70
- 238000012545 processing Methods 0.000 claims description 37
- 238000004458 analytical method Methods 0.000 claims description 30
- 238000004590 computer program Methods 0.000 claims description 18
- 230000008859 change Effects 0.000 claims description 14
- 230000008569 process Effects 0.000 description 23
- 230000006870 function Effects 0.000 description 14
- 230000002123 temporal effect Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 238000012800 visualization Methods 0.000 description 6
- 238000005070 sampling Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- VJYFKVYYMZPMAB-UHFFFAOYSA-N ethoprophos Chemical compound CCCSP(=O)(OCC)SCCC VJYFKVYYMZPMAB-UHFFFAOYSA-N 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W12/00—Security arrangements; Authentication; Protecting privacy or anonymity
- H04W12/02—Protecting privacy or anonymity, e.g. protecting personally identifiable information [PII]
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Telephone Function (AREA)
- Soundproofing, Sound Blocking, And Sound Damping (AREA)
Description
本出願は、そのすべてがすべての目的のために参照により本明細書に組み込まれる、2011年5月23日に出願された「PRESERVING AUDIO DATA COLLECTION PRIVACY IN MOBILE DEVICES」と題する米国仮特許出願第61/488,927号、代理人整理番号第111174P1号の優先権を主張する。本出願はまた、そのすべてがすべての目的のために参照により本明細書に組み込まれる、2011年8月19日に出願された「PRESERVING AUDIO DATA COLLECTION PRIVACY IN MOBILE DEVICES」と題する米国特許出願第13/213,294号、代理人整理番号第111174号の優先権を主張する。
音声を再構成する確率の低減にもかかわらず、本明細書で説明する技法は、ユーザの環境を見分けるための、分類器(たとえば、コンテキストアウェアネスアプリケーションにおいて使用される確率的分類器)の能力に著しい影響を与えない。これは、1つの混合成分と2つの混合成分とを有する統計的モデルを用いた、コンテキストアウェアネス分類器の精度および再現率(recall)を示す表1に示されており、Tframe=50msであり、Tblockは可変である。使用されたデータは、コンテキストアウェアネスアプリケーション間で共通の(たとえば、公園内、街路上、マーケット内、車中、空港内などの)環境のセットの環境音の商業的に収集されたオーディオデータセットであった。
以下に、本願の出願当初請求項に記載された発明を付記する。
[C1]
連続オーディオストリーム中に含まれているオーディオデータのサブセットをキャプチャすることであって、
前記連続オーディオストリームが人間音声を含んでおり、
オーディオデータの前記サブセットが前記人間音声の成分を不明瞭にする
キャプチャすることと、
オーディオ特性についてオーディオデータの前記サブセットを分析することと、
前記オーディオ特性に少なくとも部分的に基づいて周囲環境の判断を行うこととを備える、プライバシー敏感オーディオ分析の方法。
[C2]
オーディオデータの前記サブセットが、了解性忠実度をもって前記連続オーディオストリームを再生するために必要とされるよりも少ないビット数を有する前記連続オーディオストリームの計算された関数を備える、上記C1に記載のプライバシー敏感オーディオ分析の方法。
[C3]
オーディオデータの前記サブセットが複数のオーディオデータセグメントを備え、各オーディオデータセグメントが、前記連続オーディオストリームの異なる時間成分からのデータを備える、上記C1に記載のプライバシー敏感オーディオ分析の方法。
[C4]
前記オーディオ特性に少なくとも部分的に基づいて人間の識別情報の判断を行うことをさらに備える、上記C3に記載のプライバシー敏感オーディオ分析の方法。
[C5]
前記複数のオーディオデータセグメントの各々が、30ms〜100msの記録されたオーディオを備える、上記C3に記載のプライバシー敏感オーディオ分析の方法。
[C6]
前記連続オーディオストリームの各時間成分は、長さが250ms〜2sである、上記C3に記載のプライバシー敏感オーディオ分析の方法。
[C7]
オーディオデータの前記サブセットを分析する前に、前記複数のオーディオデータセグメントの順序をランダムに変更することをさらに備える、上記C3に記載のプライバシー敏感オーディオ分析の方法。
[C8]
前記複数のオーディオデータセグメントの前記順序をランダムに変更することが、
全地球測位システム(GPS)デバイスと、
モバイルデバイス内の回路からの信号雑音と、
マイクロフォンからの信号雑音と、
アンテナからの信号雑音とのうちの1つからの情報に少なくとも部分的に基づく、上記C7に記載のプライバシー敏感オーディオ分析の方法。
[C9]
マイクロフォンと、
前記マイクロフォンに通信可能に結合された処理ユニットであって、
前記マイクロフォンからの信号中に表される連続オーディオストリーム中に含まれているオーディオデータのサブセットをキャプチャすることであって、
前記連続オーディオストリームが人間音声を含んでおり、
オーディオデータの前記サブセットが前記人間音声の成分を不明瞭にする
キャプチャすることと、
オーディオ特性についてオーディオデータの前記サブセットを分析することと、
前記オーディオ特性に少なくとも部分的に基づいて周囲環境の判断を行うことと
を行うように構成された処理ユニットとを備える、プライバシー敏感オーディオを不明瞭にするためのデバイス。
[C10]
オーディオデータの前記サブセットが、了解性忠実度をもって前記連続オーディオストリームを再生するために必要とされるよりも少ないビット数を有する前記連続オーディオストリームの計算された関数を備える、上記C9に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
[C11]
オーディオデータの前記サブセットが複数のオーディオデータセグメントを備え、各オーディオデータセグメントが、前記連続オーディオストリームの異なる時間成分からのデータを備える、上記C9に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
[C12]
前記処理ユニットが、前記オーディオ特性に少なくとも部分的に基づいて人間の識別情報の判断を行うように構成された、上記C11に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
[C13]
前記複数のオーディオデータセグメントの各々が、30ms〜100msの記録されたオーディオを備える、上記C11に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
[C14]
前記連続オーディオストリームの各時間成分は、長さが250ms〜2sである、上記C11に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
[C15]
前記処理ユニットが、オーディオデータの前記サブセットを分析する前に、前記複数のオーディオデータセグメントの順序をランダムに変更するように構成された、上記C11に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
[C16]
前記処理ユニットが、
全地球測位システム(GPS)デバイスと、
モバイルデバイス内の回路からの信号雑音と、
前記マイクロフォンからの信号雑音と、
アンテナからの信号雑音とのうちの1つからの情報に少なくとも部分的に基づいて、前記複数のオーディオデータセグメントの前記順序をランダムに変更するように構成された、上記C15に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
[C17]
連続オーディオストリームを受信するように構成されたオーディオセンサーと、
前記オーディオセンサーに結合された少なくとも1つの処理ユニットであって、
オーディオデータのサブセットが前記連続オーディオストリーム中に含まれる人間音声の成分を不明瞭にするように、前記連続オーディオストリーム中に含まれているオーディオデータの前記サブセットをキャプチャすることと、
オーディオ特性についてオーディオデータの前記サブセットを分析することと、
前記オーディオ特性に少なくとも部分的に基づいて周囲環境の判断を行うことと
を行うように構成された少なくとも1つの処理ユニットとを備える、モバイルデバイスに関連する環境を判断するためのシステム。
[C18]
前記モバイルデバイスからリモートにあるロケーションに、ネットワークを介してオーディオデータの前記サブセットを表す情報を送るように構成されたネットワークインターフェースをさらに備える、上記C17に記載のモバイルデバイスに関連する環境を判断するためのシステム。
[C19]
前記少なくとも1つの処理ユニットが、前記モバイルデバイスからリモートにある前記ロケーションにおいて前記周囲環境の前記判断を行うように構成された、上記C18に記載のモバイルデバイスに関連する環境を判断するためのシステム。
[C20]
オーディオデータの前記サブセットが複数のオーディオデータセグメントを備え、各オーディオデータセグメントが、前記連続オーディオストリームの異なる時間成分からのデータを備える、上記C18に記載のモバイルデバイスに関連する環境を判断するためのシステム。
[C21]
前記少なくとも1つの処理ユニットが、前記オーディオ特性に少なくとも部分的に基づいて人間の識別情報の判断を行うように構成された、上記C20に記載のモバイルデバイスに関連する環境を判断するためのシステム。
[C22]
前記複数のオーディオデータセグメントの各々が、30ms〜100msの記録されたオーディオを備える、上記C20に記載のモバイルデバイスに関連する環境を判断するためのシステム。
[C23]
前記連続オーディオストリームの各時間成分は、長さが250ms〜2sである、上記C20に記載のモバイルデバイスに関連する環境を判断するためのシステム。
[C24]
前記少なくとも1つの処理ユニットが、オーディオデータの前記サブセットを分析する前に、前記複数のオーディオデータセグメントの順序をランダムに変更するように構成された、上記C20に記載のモバイルデバイスに関連する環境を判断するためのシステム。
[C25]
非一時的プロセッサ可読媒体上に常駐するコンピュータプログラム製品であって、
連続オーディオストリーム中に含まれているオーディオデータのサブセットをキャプチャすることであって、
前記連続オーディオストリームが人間音声を含んでおり、
オーディオデータの前記サブセットが前記人間音声の成分を不明瞭にする
キャプチャすることと、
オーディオ特性についてオーディオデータの前記サブセットを分析することと、
前記オーディオ特性に少なくとも部分的に基づいて周囲環境の判断を行うこととをプロセッサに行わせるように構成されたプロセッサ可読命令を備えるコンピュータプログラム製品。
[C26]
オーディオデータの前記サブセットが、了解性忠実度をもって前記連続オーディオストリームを再生するために必要とされるよりも少ないビット数を有する前記連続オーディオストリームの計算された関数を備える、上記C25に記載のコンピュータプログラム製品。
[C27]
オーディオデータの前記サブセットが複数のオーディオデータセグメントを備え、各オーディオデータセグメントが、前記連続オーディオストリームの異なる時間成分からのデータを備える、上記C25に記載のコンピュータプログラム製品。
[C28]
前記プロセッサ可読命令が、前記オーディオ特性に少なくとも部分的に基づいて人間の識別情報の判断を行うことを前記プロセッサに行わせるように構成された、上記C27に記載のコンピュータプログラム製品。
[C29]
前記複数のオーディオデータセグメントの各々が、30ms〜100msの記録されたオーディオを備える、上記C27に記載のコンピュータプログラム製品。
[C30]
前記連続オーディオストリームの各時間成分は、長さが250ms〜2sである、上記C27に記載のコンピュータプログラム製品。
[C31]
前記プロセッサ可読命令が、オーディオデータの前記サブセットを分析する前に、前記複数のオーディオデータセグメントの順序をランダムに変更することを前記プロセッサに行わせるように構成された、上記C27に記載のコンピュータプログラム製品。
[C32]
前記プロセッサ可読命令が、
全地球測位システム(GPS)デバイスと、
モバイルデバイス内の回路からの信号雑音と、
マイクロフォンからの信号雑音と、
アンテナからの信号雑音とのうちの1つからの情報に少なくとも部分的に基づいて、前記複数のオーディオデータセグメントの前記順序をランダムに変更することを前記プロセッサに行わせるように構成された、上記C31に記載のコンピュータプログラム製品。
[C33]
マイクロフォンからの信号中に表される連続オーディオストリーム中に含まれているオーディオデータのサブセットをキャプチャするための手段であって、
前記連続オーディオストリームが人間音声を含んでおり、
オーディオデータの前記サブセットが前記人間音声の成分を不明瞭にする
キャプチャするための手段と、
オーディオ特性についてオーディオデータの前記サブセットを分析するための手段と、
前記オーディオ特性に少なくとも部分的に基づいて周囲環境を判断するための手段とを備える、プライバシー敏感オーディオを不明瞭にするためのデバイス。
[C34]
オーディオデータの前記サブセットをキャプチャするための前記手段が、了解性忠実度をもって前記連続オーディオストリームを再生するために必要とされるよりも少ないビット数を有する前記連続オーディオストリームの計算された関数に従ってオーディオデータの前記サブセットをキャプチャするように構成された、上記C33に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
[C35]
オーディオデータの前記サブセットをキャプチャするための前記手段は、オーディオデータの前記サブセットが複数のオーディオデータセグメントを備え、各オーディオデータセグメントが、前記連続オーディオストリームの異なる時間成分からのデータを備えるように、オーディオデータの前記サブセットをキャプチャするように構成された、上記C33に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
[C36]
前記周囲環境を判断するための前記手段が、前記オーディオ特性に少なくとも部分的に基づいて人間の識別情報の判断を行うように構成された、上記C35に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
[C37]
オーディオデータの前記サブセットをキャプチャするための前記手段は、前記複数のオーディオデータセグメントの各々が、30ms〜100msの記録されたオーディオを備えるように、オーディオデータの前記サブセットをキャプチャするように構成された、上記C35に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
Claims (32)
- デバイスが、連続オーディオストリーム中に含まれているオーディオデータのサブセットをキャプチャすることであって、
前記連続オーディオストリームが人間音声を含んでおり、
オーディオデータの前記サブセットが前記人間音声の成分を不明瞭にし、
オーディオデータの前記サブセットが複数のオーディオデータセグメントを備え、
前記複数のオーディオデータセグメントの各々のオーディオデータセグメントは、前記連続オーディオストリームの複数の時間ブロックの異なる時間ブロック内でキャプチャされ、前記複数の時間ブロックの各々の時間ブロックは、各オーディオセグメントよりも時間的に長い、
キャプチャすることと、
前記デバイスが、オーディオ特性についてオーディオデータの前記サブセットを分析することと、
前記デバイスが、前記オーディオ特性に少なくとも部分的に基づいて周囲環境の判断を行うこととを備える、プライバシー敏感オーディオ分析の方法。 - オーディオデータの前記サブセットが、了解性忠実度をもって前記連続オーディオストリームを再生するために必要とされるよりも少ないビット数を有する前記連続オーディオストリームの計算された関数を備える、請求項1に記載のプライバシー敏感オーディオ分析の方法。
- 前記オーディオ特性に少なくとも部分的に基づいて人間の識別情報の判断を行うことをさらに備える、請求項1に記載のプライバシー敏感オーディオ分析の方法。
- 前記複数のオーディオデータセグメントの各々が、30ms〜100msの記録されたオーディオを備える、請求項1に記載のプライバシー敏感オーディオ分析の方法。
- 前記連続オーディオストリームの各時間ブロックは、長さが250ms〜2sである、請求項1に記載のプライバシー敏感オーディオ分析の方法。
- オーディオデータの前記サブセットを分析する前に、前記複数のオーディオデータセグメントの順序をランダムに変更することをさらに備える、請求項1に記載のプライバシー敏感オーディオ分析の方法。
- 前記複数のオーディオデータセグメントの前記順序をランダムに変更することが、
全地球測位システム(GPS)デバイスと、
モバイルデバイス内の回路からの信号雑音と、
マイクロフォンからの信号雑音と、
アンテナからの信号雑音とのうちの1つからの情報に少なくとも部分的に基づく、請求項6に記載のプライバシー敏感オーディオ分析の方法。 - マイクロフォンと、
前記マイクロフォンに通信可能に結合された処理ユニットであって、
前記マイクロフォンからの信号中に表される連続オーディオストリーム中に含まれているオーディオデータのサブセットをキャプチャすることであって、
前記連続オーディオストリームが人間音声を含んでおり、
オーディオデータの前記サブセットが前記人間音声の成分を不明瞭にし、
オーディオデータの前記サブセットが複数のオーディオデータセグメントを備え、
前記複数のオーディオデータセグメントの各々のオーディオデータセグメントは、前記連続オーディオストリームの複数の時間ブロックの異なる時間ブロック内でキャプチャされ、前記複数の時間ブロックの各々の時間ブロックは、各オーディオセグメントよりも時間的に長い、
キャプチャすることと、
オーディオ特性についてオーディオデータの前記サブセットを分析することと、
前記オーディオ特性に少なくとも部分的に基づいて周囲環境の判断を行うことと
を行うように構成された処理ユニットとを備える、プライバシー敏感オーディオを不明瞭にするためのデバイス。 - オーディオデータの前記サブセットが、了解性忠実度をもって前記連続オーディオストリームを再生するために必要とされるよりも少ないビット数を有する前記連続オーディオストリームの計算された関数を備える、請求項8に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
- 前記処理ユニットが、前記オーディオ特性に少なくとも部分的に基づいて人間の識別情報の判断を行うように構成された、請求項8に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
- 前記複数のオーディオデータセグメントの各々が、30ms〜100msの記録されたオーディオを備える、請求項8に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
- 前記連続オーディオストリームの各時間ブロックは、長さが250ms〜2sである、請求項8に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
- 前記処理ユニットが、オーディオデータの前記サブセットを分析する前に、前記複数のオーディオデータセグメントの順序をランダムに変更するように構成された、請求項8に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
- 前記処理ユニットが、
全地球測位システム(GPS)デバイスと、
モバイルデバイス内の回路からの信号雑音と、
前記マイクロフォンからの信号雑音と、
アンテナからの信号雑音とのうちの1つからの情報に少なくとも部分的に基づいて、前記複数のオーディオデータセグメントの前記順序をランダムに変更するように構成された、請求項13に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。 - 連続オーディオストリームを受信するように構成されたオーディオセンサーと、
前記オーディオセンサーに結合された少なくとも1つの処理ユニットであって、
オーディオデータのサブセットが前記連続オーディオストリーム中に含まれる人間音声の成分を不明瞭にするように、前記連続オーディオストリーム中に含まれているオーディオデータの前記サブセットをキャプチャすることであって、
オーディオデータの前記サブセットが複数のオーディオデータセグメントを備え、
前記複数のオーディオデータセグメントの各々のオーディオデータセグメントは、前記連続オーディオストリームの複数の時間ブロックの異なる時間ブロック内でキャプチャされ、前記複数の時間ブロックの各々の時間ブロックは、各オーディオセグメントよりも時間的に長い、
キャプチャすることと、
オーディオ特性についてオーディオデータの前記サブセットを分析することと、
前記オーディオ特性に少なくとも部分的に基づいて周囲環境の判断を行うことと
を行うように構成された少なくとも1つの処理ユニットとを備える、モバイルデバイスに関連する環境を判断するためのシステム。 - 前記モバイルデバイスからリモートにあるロケーションに、ネットワークを介してオーディオデータの前記サブセットを表す情報を送るように構成されたネットワークインターフェースをさらに備える、請求項15に記載のモバイルデバイスに関連する環境を判断するためのシステム。
- 前記少なくとも1つの処理ユニットが、前記モバイルデバイスからリモートにある前記ロケーションにおいて前記周囲環境の前記判断を行うように構成された、請求項16に記載のモバイルデバイスに関連する環境を判断するためのシステム。
- 前記少なくとも1つの処理ユニットが、前記オーディオ特性に少なくとも部分的に基づいて人間の識別情報の判断を行うように構成された、請求項15に記載のモバイルデバイスに関連する環境を判断するためのシステム。
- 前記複数のオーディオデータセグメントの各々が、30ms〜100msの記録されたオーディオを備える、請求項15に記載のモバイルデバイスに関連する環境を判断するためのシステム。
- 前記連続オーディオストリームの各時間ブロックは、長さが250ms〜2sである、請求項15に記載のモバイルデバイスに関連する環境を判断するためのシステム。
- 前記少なくとも1つの処理ユニットが、オーディオデータの前記サブセットを分析する前に、前記複数のオーディオデータセグメントの順序をランダムに変更するように構成された、請求項15に記載のモバイルデバイスに関連する環境を判断するためのシステム。
- 連続オーディオストリーム中に含まれているオーディオデータのサブセットをキャプチャすることであって、
前記連続オーディオストリームが人間音声を含んでおり、
オーディオデータの前記サブセットが前記人間音声の成分を不明瞭にし、
オーディオデータの前記サブセットが複数のオーディオデータセグメントを備え、
前記複数のオーディオデータセグメントの各々のオーディオデータセグメントは、前記連続オーディオストリームの複数の時間ブロックの異なる時間ブロック内でキャプチャされ、前記複数の時間ブロックの各々の時間ブロックは、各オーディオセグメントよりも時間的に長い、
キャプチャすることと、
オーディオ特性についてオーディオデータの前記サブセットを分析することと、
前記オーディオ特性に少なくとも部分的に基づいて周囲環境の判断を行うこととをプロセッサに行わせるためのコンピュータプログラム。 - オーディオデータの前記サブセットが、了解性忠実度をもって前記連続オーディオストリームを再生するために必要とされるよりも少ないビット数を有する前記連続オーディオストリームの計算された関数を備える、請求項22に記載のコンピュータプログラム。
- 前記オーディオ特性に少なくとも部分的に基づいて人間の識別情報の判断を行うことを前記プロセッサにさらに行わせる、請求項22に記載のコンピュータプログラム。
- 前記複数のオーディオデータセグメントの各々が、30ms〜100msの記録されたオーディオを備える、請求項22に記載のコンピュータプログラム。
- 前記連続オーディオストリームの各時間ブロックは、長さが250ms〜2sである、請求項22に記載のコンピュータプログラム。
- オーディオデータの前記サブセットを分析する前に、前記複数のオーディオデータセグメントの順序をランダムに変更することを前記プロセッサにさらに行わせる、請求項22に記載のコンピュータプログラム。
- 全地球測位システム(GPS)デバイスと、
モバイルデバイス内の回路からの信号雑音と、
マイクロフォンからの信号雑音と、
アンテナからの信号雑音とのうちの1つからの情報に少なくとも部分的に基づいて、前記複数のオーディオデータセグメントの前記順序をランダムに変更することを前記プロセッサにさらに行わせる、請求項27に記載のコンピュータプログラム。 - マイクロフォンからの信号中に表される連続オーディオストリーム中に含まれているオーディオデータのサブセットをキャプチャするための手段であって、
前記連続オーディオストリームが人間音声を含んでおり、
オーディオデータの前記サブセットが前記人間音声の成分を不明瞭にし、
オーディオデータの前記サブセットが複数のオーディオデータセグメントを備え、
前記複数のオーディオデータセグメントの各々のオーディオデータセグメントは、前記連続オーディオストリームの複数の時間ブロックの異なる時間ブロック内でキャプチャされ、前記複数の時間ブロックの各々の時間ブロックは、各オーディオセグメントよりも時間的に長い、
キャプチャするための手段と、
オーディオ特性についてオーディオデータの前記サブセットを分析するための手段と、
前記オーディオ特性に少なくとも部分的に基づいて周囲環境を判断するための手段とを備える、プライバシー敏感オーディオを不明瞭にするためのデバイス。 - オーディオデータの前記サブセットをキャプチャするための前記手段が、了解性忠実度をもって前記連続オーディオストリームを再生するために必要とされるよりも少ないビット数を有する前記連続オーディオストリームの計算された関数に従ってオーディオデータの前記サブセットをキャプチャするように構成された、請求項29に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
- 前記周囲環境を判断するための前記手段が、前記オーディオ特性に少なくとも部分的に基づいて人間の識別情報の判断を行うように構成された、請求項29に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
- オーディオデータの前記サブセットをキャプチャするための前記手段は、前記複数のオーディオデータセグメントの各々が、30ms〜100msの記録されたオーディオを備えるように、オーディオデータの前記サブセットをキャプチャするように構成された、請求項29に記載のプライバシー敏感オーディオを不明瞭にするためのデバイス。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161488927P | 2011-05-23 | 2011-05-23 | |
US61/488,927 | 2011-05-23 | ||
US13/213,294 | 2011-08-19 | ||
US13/213,294 US8700406B2 (en) | 2011-05-23 | 2011-08-19 | Preserving audio data collection privacy in mobile devices |
PCT/US2012/037783 WO2012162009A1 (en) | 2011-05-23 | 2012-05-14 | Preserving audio data collection privacy in mobile devices |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014517939A JP2014517939A (ja) | 2014-07-24 |
JP5937202B2 true JP5937202B2 (ja) | 2016-06-22 |
Family
ID=46178795
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014512870A Active JP5937202B2 (ja) | 2011-05-23 | 2012-05-14 | モバイルデバイスにおけるオーディオデータ収集プライバシーを保護すること |
Country Status (6)
Country | Link |
---|---|
US (2) | US8700406B2 (ja) |
EP (1) | EP2715722B1 (ja) |
JP (1) | JP5937202B2 (ja) |
KR (1) | KR101580510B1 (ja) |
CN (1) | CN103620680B (ja) |
WO (1) | WO2012162009A1 (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130090926A1 (en) * | 2011-09-16 | 2013-04-11 | Qualcomm Incorporated | Mobile device context information using speech detection |
ES2767097T3 (es) * | 2011-09-30 | 2020-06-16 | Orange | Método, aparatos y aplicaciones para los atributos de oscurecimiento contextual de un perfil de usuario |
US8925037B2 (en) * | 2013-01-02 | 2014-12-30 | Symantec Corporation | Systems and methods for enforcing data-loss-prevention policies using mobile sensors |
US9300266B2 (en) | 2013-02-12 | 2016-03-29 | Qualcomm Incorporated | Speaker equalization for mobile devices |
US9076459B2 (en) * | 2013-03-12 | 2015-07-07 | Intermec Ip, Corp. | Apparatus and method to classify sound to detect speech |
KR102149266B1 (ko) * | 2013-05-21 | 2020-08-28 | 삼성전자 주식회사 | 전자 기기의 오디오 데이터의 관리 방법 및 장치 |
WO2015061712A1 (en) | 2013-10-24 | 2015-04-30 | Tourmaline Labs, Inc. | Systems and methods for collecting and transmitting telematics data from a mobile device |
US10057764B2 (en) * | 2014-01-18 | 2018-08-21 | Microsoft Technology Licensing, Llc | Privacy preserving sensor apparatus |
JP6215129B2 (ja) * | 2014-04-25 | 2017-10-18 | 京セラ株式会社 | 携帯電子機器、制御方法及び制御プログラム |
US10404697B1 (en) | 2015-12-28 | 2019-09-03 | Symantec Corporation | Systems and methods for using vehicles as information sources for knowledge-based authentication |
US10326733B2 (en) | 2015-12-30 | 2019-06-18 | Symantec Corporation | Systems and methods for facilitating single sign-on for multiple devices |
US10116513B1 (en) | 2016-02-10 | 2018-10-30 | Symantec Corporation | Systems and methods for managing smart building systems |
US10375114B1 (en) | 2016-06-27 | 2019-08-06 | Symantec Corporation | Systems and methods for enforcing access-control policies |
US10462184B1 (en) | 2016-06-28 | 2019-10-29 | Symantec Corporation | Systems and methods for enforcing access-control policies in an arbitrary physical space |
US10469457B1 (en) | 2016-09-26 | 2019-11-05 | Symantec Corporation | Systems and methods for securely sharing cloud-service credentials within a network of computing devices |
US10812981B1 (en) | 2017-03-22 | 2020-10-20 | NortonLifeLock, Inc. | Systems and methods for certifying geolocation coordinates of computing devices |
US10540521B2 (en) | 2017-08-24 | 2020-01-21 | International Business Machines Corporation | Selective enforcement of privacy and confidentiality for optimization of voice applications |
GB2567703B (en) * | 2017-10-20 | 2022-07-13 | Cirrus Logic Int Semiconductor Ltd | Secure voice biometric authentication |
DE102019108178B3 (de) * | 2019-03-29 | 2020-06-18 | Tribe Technologies Gmbh | Verfahren und Vorrichtung zur automatischen Überwachung von Telefonaten |
US11354085B2 (en) | 2019-07-03 | 2022-06-07 | Qualcomm Incorporated | Privacy zoning and authorization for audio rendering |
US11580213B2 (en) * | 2019-07-03 | 2023-02-14 | Qualcomm Incorporated | Password-based authorization for audio rendering |
WO2021107218A1 (ko) * | 2019-11-29 | 2021-06-03 | 주식회사 공훈 | 음성 데이터의 프라이버시 보호를 위한 방법 및 디바이스 |
KR20210100368A (ko) | 2020-02-06 | 2021-08-17 | 삼성전자주식회사 | 전자장치 및 그 제어방법 |
Family Cites Families (65)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4221931A (en) * | 1977-10-17 | 1980-09-09 | Harris Corporation | Time division multiplied speech scrambler |
JPS59111441A (ja) * | 1982-12-17 | 1984-06-27 | Sony Corp | 音声信号の秘話方式 |
US5267312A (en) * | 1990-08-06 | 1993-11-30 | Nec Home Electronics, Ltd. | Audio signal cryptographic system |
JP2655046B2 (ja) * | 1993-09-13 | 1997-09-17 | 日本電気株式会社 | ベクトル量子化装置 |
WO1997027578A1 (en) * | 1996-01-26 | 1997-07-31 | Motorola Inc. | Very low bit rate time domain speech analyzer for voice messaging |
US7930546B2 (en) * | 1996-05-16 | 2011-04-19 | Digimarc Corporation | Methods, systems, and sub-combinations useful in media identification |
US6078666A (en) * | 1996-10-25 | 2000-06-20 | Matsushita Electric Industrial Co., Ltd. | Audio signal processing method and related device with block order switching |
US7809138B2 (en) * | 1999-03-16 | 2010-10-05 | Intertrust Technologies Corporation | Methods and apparatus for persistent control and protection of content |
US6119086A (en) * | 1998-04-28 | 2000-09-12 | International Business Machines Corporation | Speech coding via speech recognition and synthesis based on pre-enrolled phonetic tokens |
JP3180762B2 (ja) * | 1998-05-11 | 2001-06-25 | 日本電気株式会社 | 音声符号化装置及び音声復号化装置 |
US7457415B2 (en) * | 1998-08-20 | 2008-11-25 | Akikaze Technologies, Llc | Secure information distribution system utilizing information segment scrambling |
US7263489B2 (en) * | 1998-12-01 | 2007-08-28 | Nuance Communications, Inc. | Detection of characteristics of human-machine interactions for dialog customization and analysis |
US6937730B1 (en) * | 2000-02-16 | 2005-08-30 | Intel Corporation | Method and system for providing content-specific conditional access to digital content |
US8677505B2 (en) * | 2000-11-13 | 2014-03-18 | Digital Doors, Inc. | Security system with extraction, reconstruction and secure recovery and storage of data |
US7177808B2 (en) * | 2000-11-29 | 2007-02-13 | The United States Of America As Represented By The Secretary Of The Air Force | Method for improving speaker identification by determining usable speech |
US20040059918A1 (en) * | 2000-12-15 | 2004-03-25 | Changsheng Xu | Method and system of digital watermarking for compressed audio |
US7350228B2 (en) * | 2001-01-23 | 2008-03-25 | Portauthority Technologies Inc. | Method for securing digital content |
JP3946965B2 (ja) * | 2001-04-09 | 2007-07-18 | ソニー株式会社 | 無体財産権を保護する情報を記録する記録装置、記録方法、記録媒体、およびプログラム |
DE10138650A1 (de) * | 2001-08-07 | 2003-02-27 | Fraunhofer Ges Forschung | Verfahren und Vorrichtung zum Verschlüsseln eines diskreten Signals sowie Verfahren und Vorrichtung zur Entschlüsselung |
US7143028B2 (en) * | 2002-07-24 | 2006-11-28 | Applied Minds, Inc. | Method and system for masking speech |
GB2392807A (en) * | 2002-09-06 | 2004-03-10 | Sony Uk Ltd | Processing digital data |
FR2846179B1 (fr) * | 2002-10-21 | 2005-02-04 | Medialive | Embrouillage adaptatif et progressif de flux audio |
FR2846178B1 (fr) * | 2002-10-21 | 2005-03-11 | Medialive | Desembrouillage adaptatif et progressif de flux audio |
JP4206876B2 (ja) * | 2003-09-10 | 2009-01-14 | ヤマハ株式会社 | 遠隔地の様子を伝達する通信装置およびプログラム |
US7564906B2 (en) * | 2004-02-17 | 2009-07-21 | Nokia Siemens Networks Oy | OFDM transceiver structure with time-domain scrambling |
US7720012B1 (en) * | 2004-07-09 | 2010-05-18 | Arrowhead Center, Inc. | Speaker identification in the presence of packet losses |
JP2006238110A (ja) * | 2005-02-25 | 2006-09-07 | Matsushita Electric Ind Co Ltd | 監視システム |
EP1725056B1 (en) * | 2005-05-16 | 2013-01-09 | Sony Ericsson Mobile Communications AB | Method for disabling a mobile device |
US8781967B2 (en) * | 2005-07-07 | 2014-07-15 | Verance Corporation | Watermarking in an encrypted domain |
US8700791B2 (en) * | 2005-10-19 | 2014-04-15 | Immersion Corporation | Synchronization of haptic effect data in a media transport stream |
US8214516B2 (en) * | 2006-01-06 | 2012-07-03 | Google Inc. | Dynamic media serving infrastructure |
JP2009534713A (ja) * | 2006-04-24 | 2009-09-24 | ネロ アーゲー | 低減ビットレートを有するデジタル音声データを符号化するための装置および方法 |
US8433915B2 (en) * | 2006-06-28 | 2013-04-30 | Intellisist, Inc. | Selective security masking within recorded speech |
US20080243492A1 (en) * | 2006-09-07 | 2008-10-02 | Yamaha Corporation | Voice-scrambling-signal creation method and apparatus, and computer-readable storage medium therefor |
CN101669308B (zh) * | 2007-02-20 | 2013-03-20 | 尼尔森(美国)有限公司 | 表征媒体的方法和装置 |
JP4245060B2 (ja) * | 2007-03-22 | 2009-03-25 | ヤマハ株式会社 | サウンドマスキングシステム、マスキングサウンド生成方法およびプログラム |
US8243924B2 (en) * | 2007-06-29 | 2012-08-14 | Google Inc. | Progressive download or streaming of digital media securely through a localized container and communication protocol proxy |
JP4914319B2 (ja) * | 2007-09-18 | 2012-04-11 | 日本電信電話株式会社 | コミュニケーション音声処理方法とその装置、及びそのプログラム |
US8379854B2 (en) * | 2007-10-09 | 2013-02-19 | Alcatel Lucent | Secure wireless communication |
KR101444099B1 (ko) * | 2007-11-13 | 2014-09-26 | 삼성전자주식회사 | 음성 구간 검출 방법 및 장치 |
US8140326B2 (en) * | 2008-06-06 | 2012-03-20 | Fuji Xerox Co., Ltd. | Systems and methods for reducing speech intelligibility while preserving environmental sounds |
CA2731732A1 (en) * | 2008-07-21 | 2010-01-28 | Auraya Pty Ltd | Voice authentication system and methods |
US8515747B2 (en) * | 2008-09-06 | 2013-08-20 | Huawei Technologies Co., Ltd. | Spectrum harmonic/noise sharpness control |
JP5222680B2 (ja) * | 2008-09-26 | 2013-06-26 | セコム株式会社 | 端末利用者監視装置およびシステム |
US8244531B2 (en) * | 2008-09-28 | 2012-08-14 | Avaya Inc. | Method of retaining a media stream without its private audio content |
US20100114568A1 (en) * | 2008-10-24 | 2010-05-06 | Lg Electronics Inc. | Apparatus for processing an audio signal and method thereof |
US20100114344A1 (en) * | 2008-10-31 | 2010-05-06 | France Telecom | Communication system incorporating ambient sound pattern detection and method of operation thereof |
WO2010054373A2 (en) * | 2008-11-10 | 2010-05-14 | Google Inc. | Multisensory speech detection |
EP2221803A2 (en) * | 2009-02-19 | 2010-08-25 | Yamaha Corporation | Masking sound generating apparatus, masking system, masking sound generating method, and program |
KR101581883B1 (ko) * | 2009-04-30 | 2016-01-11 | 삼성전자주식회사 | 모션 정보를 이용하는 음성 검출 장치 및 방법 |
US8200480B2 (en) * | 2009-09-30 | 2012-06-12 | International Business Machines Corporation | Deriving geographic distribution of physiological or psychological conditions of human speakers while preserving personal privacy |
US8861742B2 (en) * | 2010-01-26 | 2014-10-14 | Yamaha Corporation | Masker sound generation apparatus and program |
US20110184740A1 (en) * | 2010-01-26 | 2011-07-28 | Google Inc. | Integration of Embedded and Network Speech Recognizers |
US8423351B2 (en) * | 2010-02-19 | 2013-04-16 | Google Inc. | Speech correction for typed input |
US20110218798A1 (en) * | 2010-03-05 | 2011-09-08 | Nexdia Inc. | Obfuscating sensitive content in audio sources |
US20110216905A1 (en) * | 2010-03-05 | 2011-09-08 | Nexidia Inc. | Channel compression |
US8965545B2 (en) * | 2010-09-30 | 2015-02-24 | Google Inc. | Progressive encoding of audio |
US20120136658A1 (en) * | 2010-11-30 | 2012-05-31 | Cox Communications, Inc. | Systems and methods for customizing broadband content based upon passive presence detection of users |
US8938619B2 (en) * | 2010-12-29 | 2015-01-20 | Adobe Systems Incorporated | System and method for decrypting content samples including distinct encryption chains |
US20120203491A1 (en) * | 2011-02-03 | 2012-08-09 | Nokia Corporation | Method and apparatus for providing context-aware control of sensors and sensor data |
US9262612B2 (en) * | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US9407706B2 (en) * | 2011-03-31 | 2016-08-02 | Qualcomm Incorporated | Methods, devices, and apparatuses for activity classification using temporal scaling of time-referenced features |
US20130006633A1 (en) * | 2011-07-01 | 2013-01-03 | Qualcomm Incorporated | Learning speech models for mobile device users |
US9159324B2 (en) * | 2011-07-01 | 2015-10-13 | Qualcomm Incorporated | Identifying people that are proximate to a mobile device user via social graphs, speech models, and user context |
US20130090926A1 (en) * | 2011-09-16 | 2013-04-11 | Qualcomm Incorporated | Mobile device context information using speech detection |
-
2011
- 2011-08-19 US US13/213,294 patent/US8700406B2/en active Active
-
2012
- 2012-05-14 KR KR1020137034145A patent/KR101580510B1/ko active IP Right Grant
- 2012-05-14 JP JP2014512870A patent/JP5937202B2/ja active Active
- 2012-05-14 WO PCT/US2012/037783 patent/WO2012162009A1/en unknown
- 2012-05-14 EP EP12724453.1A patent/EP2715722B1/en active Active
- 2012-05-14 CN CN201280030290.3A patent/CN103620680B/zh active Active
-
2014
- 2014-02-21 US US14/186,730 patent/US20140172424A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
CN103620680A (zh) | 2014-03-05 |
WO2012162009A1 (en) | 2012-11-29 |
US20120303360A1 (en) | 2012-11-29 |
US20140172424A1 (en) | 2014-06-19 |
KR101580510B1 (ko) | 2015-12-28 |
US8700406B2 (en) | 2014-04-15 |
KR20140021681A (ko) | 2014-02-20 |
JP2014517939A (ja) | 2014-07-24 |
EP2715722A1 (en) | 2014-04-09 |
EP2715722B1 (en) | 2018-06-13 |
CN103620680B (zh) | 2015-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5937202B2 (ja) | モバイルデバイスにおけるオーディオデータ収集プライバシーを保護すること | |
WO2020029906A1 (zh) | 一种多人语音的分离方法和装置 | |
KR102132888B1 (ko) | 분류기 모델과 컨텍스트 파라미터를 사용한 원격 미디어 분류 쿼리에 대한 응답 | |
EP2994911B1 (en) | Adaptive audio frame processing for keyword detection | |
JP6812604B2 (ja) | オーディオアクティビティ追跡および要約 | |
JP5819435B2 (ja) | モバイルデバイスのロケーションを決定するための方法および装置 | |
JP5905494B2 (ja) | 類似のサウンド環境においてモバイルデバイスを識別するための方法および装置 | |
US10433256B2 (en) | Application control method and application control device | |
US20130006633A1 (en) | Learning speech models for mobile device users | |
CN110995933A (zh) | 移动终端的音量调节方法、装置、移动终端及存储介质 | |
WO2013040414A1 (en) | Mobile device context information using speech detection | |
JP2017509009A (ja) | オーディオストリームの中の音楽の追跡 | |
EP3039579A1 (en) | Method and apparatus for classifying data items based on sound tags | |
CN111385688A (zh) | 一种基于深度学习的主动降噪方法、装置及系统 | |
CN115804099A (zh) | 场景描述的再现控制 | |
KR20240100384A (ko) | 신호 부호화/복호화 방법, 장치, 사용자 기기, 네트워크측 기기 및 저장 매체 | |
CN117711420B (zh) | 目标人声提取方法、电子设备及存储介质 | |
CN109686359A (zh) | 语音输出方法、终端及计算机可读存储介质 | |
CN112926623A (zh) | 识别合成视频的方法、装置、介质及电子设备 | |
CN109815806A (zh) | 人脸识别方法及装置、计算机设备、计算机存储介质 | |
WO2023160515A1 (zh) | 视频处理方法、装置、设备及介质 | |
CN115841812A (zh) | 语音激活检测模型的训练方法及电子设备和存储介质 | |
CN115662457A (zh) | 语音降噪方法、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141023 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141118 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20150218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150804 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20151104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151109 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160412 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160511 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5937202 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |