JP6863733B2 - 音声影響修正 - Google Patents
音声影響修正 Download PDFInfo
- Publication number
- JP6863733B2 JP6863733B2 JP2016252683A JP2016252683A JP6863733B2 JP 6863733 B2 JP6863733 B2 JP 6863733B2 JP 2016252683 A JP2016252683 A JP 2016252683A JP 2016252683 A JP2016252683 A JP 2016252683A JP 6863733 B2 JP6863733 B2 JP 6863733B2
- Authority
- JP
- Japan
- Prior art keywords
- emotional state
- voice
- person
- sample
- sensor data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000694 effects Effects 0.000 title claims description 43
- 238000012937 correction Methods 0.000 title claims description 18
- 230000002996 emotional effect Effects 0.000 claims description 205
- 238000000034 method Methods 0.000 claims description 53
- 230000004048 modification Effects 0.000 claims description 52
- 238000012986 modification Methods 0.000 claims description 52
- 230000008451 emotion Effects 0.000 claims description 26
- 230000007177 brain activity Effects 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 9
- 230000001755 vocal effect Effects 0.000 claims description 9
- 238000002599 functional magnetic resonance imaging Methods 0.000 claims description 6
- 230000001815 facial effect Effects 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 4
- 238000004497 NIR spectroscopy Methods 0.000 claims description 3
- 230000008094 contradictory effect Effects 0.000 claims description 3
- 230000007423 decrease Effects 0.000 claims description 2
- 230000003247 decreasing effect Effects 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 6
- 230000008921 facial expression Effects 0.000 description 6
- 230000002829 reductive effect Effects 0.000 description 6
- 230000003993 interaction Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 210000004709 eyebrow Anatomy 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000000670 limiting effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000036642 wellbeing Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 206010003805 Autism Diseases 0.000 description 1
- 208000020706 Autistic disease Diseases 0.000 description 1
- 208000012902 Nervous system disease Diseases 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 210000000617 arm Anatomy 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 210000000613 ear canal Anatomy 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 210000002478 hand joint Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 230000010344 pupil dilation Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 210000004761 scalp Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000002832 shoulder Anatomy 0.000 description 1
- 230000003997 social interaction Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
- 230000035900 sweating Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0075—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/155—Musical effects
- G10H2210/195—Modulation effects, i.e. smooth non-discontinuous variations over a time interval, e.g. within a note, melody or musical transition, of any sound parameter, e.g. amplitude, pitch, spectral response or playback speed
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
- G10L21/013—Adapting to target pitch
- G10L2021/0135—Voice conversion or morphing
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Psychiatry (AREA)
- Theoretical Computer Science (AREA)
- Hospice & Palliative Care (AREA)
- Child & Adolescent Psychology (AREA)
- Quality & Reliability (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Developmental Disabilities (AREA)
- Social Psychology (AREA)
- Educational Technology (AREA)
- Psychology (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- User Interface Of Digital Computer (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
- Image Analysis (AREA)
Description
例えば、本願発明は以下の項目を提供する。
(項目1)
インストラクションがプロセッサにより実行されるときに、
人と関連した感情状態を判定し、
前記感情状態に基づき前記人から取得された音声サンプルの1つ以上の音響特性を修正し、前記音声サンプルと関連した影響を変更し、
修正されている前記1つ以上の音響特性に基づき第二音声サンプルを生成し、
前記第二音声サンプルを送信する、
前記ステップを実行することで、音声の影響を修正するように前記プロセッサを構成する、前記インストラクションを含む非一時的なコンピュータ可読記憶媒体。
(項目2)
前記人と関連した前記感情状態を判定することは、視覚センサ・データを分析して前記人の1つ以上の顔特性を判定することを備える、上記項目に記載の前記非一時的なコンピュータ可読記憶媒体。
(項目3)
前記人と関連した前記感情状態を判定することは、前記音声サンプルを分析して前記感情状態を反映する少なくとも1つの音響特性を検出することを備える上記項目のうちのいずれか一項に記載の前記非一時的なコンピュータ可読記憶媒体。
(項目4)
前記少なくとも1つの音響特性は、ピッチ、発声摂動、ラウドネス、及び発話速度のうちの少なくとも1つを含む、上記項目のうちのいずれか一項に記載の前記非一時的なコンピュータ可読記憶媒体。
(項目5)
前記人と関連した前記感情状態を判定することは、前記人の脳活動を分析することを備える、上記項目のうちのいずれか一項に記載の前記非一時的なコンピュータ可読記憶媒体。
(項目6)
前記音声サンプルの前記1つ以上の音響特性を修正することは、前記音声サンプルと関連したピッチを増加させることまたは前記音声サンプルと関連した前記ピッチを低減することのうちの少なくとも1つを備える、上記項目のうちのいずれか一項に記載の前記非一時的なコンピュータ可読記憶媒体。
(項目7)
前記音声サンプルの前記1つ以上の音響特性を修正することは、前記音声サンプルと関連した速度を上げること、前記音声サンプルと関連した前記速度を下げること、前記音声サンプルと関連したラウドネスを増加させること、または前記音声サンプルと関連した前記ラウドネスを減少させることのうちの少なくとも1つを備える、上記項目のうちのいずれか一項に記載の前記非一時的なコンピュータ可読記憶媒体。
(項目8)
前記感情状態を判定することは、
前記人と関連した第一タイプのセンサ・データを分析して第一感情状態を判定し、
第一重み付けを前記第一感情状態に割り当て、
前記人と関連した第二タイプのセンサ・データを分析して第二感情状態を判定し、
第二重み付けを前記第二感情状態に割り当て、
前記人と関連した第三タイプのセンサ・データを分析して第三感情状態を判定し、
第三重み付けを前記第三感情状態に割り当て、前記感情状態が前記第一感情状態、前記第二感情状態、前記第三感情状態、前記第一重み付け、前記第二重み付け、及び前記第三重み付けに基づく、
ことを備える、上記項目のうちのいずれか一項に記載の前記非一時的なコンピュータ可読記憶媒体。
(項目9)
前記人と関連した前記感情状態を判定することは、グラフィカル・ユーザ・インタフェースを介して前記感情状態の選択を受信することを備える上記項目のうちのいずれか一項に記載の前記非一時的なコンピュータ可読記憶媒体。
(項目10)
音声の影響を修正するためのシステムにおいて、
前記ユーザから音声サンプルを取得するように構成されたマイクロフォン、
前記ユーザと関連したセンサ・データを取得するように構成された1つ以上のセンサ、
音声修正アプリケーションを格納するメモリ、ならびに
前記マイクロフォン、前記1つ以上のセンサ及び前記メモリに結合されたプロセッサ、
を備え、
前記プロセッサにより実行されるときに、前記音声修正アプリケーションは、
前記センサ・データに基づき人と関連した優勢な感情状態を判定し、
前記優勢な感情状態に基づき前記音声サンプルの1つ以上の音響特性を修正し、前記音声サンプルと関連した影響を変更し、
修正されている前記1つ以上の音響特性に基づき第二音声サンプルを生成し、
前記第二音声サンプルを送信する、
ように前記プロセッサを設定する、
前記システム。
(項目11)
前記プロセッサは、前記音声サンプルを分析して前記優勢な感情状態と関連した少なくとも1つの音響特性を検出することで前記人と関連した前記優勢な感情状態を判定するように設定される、上記項目に記載の前記システム。
(項目12)
前記1つ以上のセンサは、カメラを備え、前記プロセッサは、前記カメラを介して取得された1つ以上の画像を分析して前記人の1つ以上の顔特性を判定することで前記人と関連した前記優勢な感情状態を判定するように設定される、上記項目のうちのいずれか一項に記載の前記システム。
(項目13)
前記1つ以上のセンサは、カメラを備え、前記プロセッサは、前記カメラを介して取得された1つ以上の画像を分析して前記人により実行されたジェスチャ及び前記人の姿勢のうちの少なくとも1つを判定することで前記人と関連した前記優勢な感情状態を判定するように設定される、上記項目のうちのいずれか一項に記載の前記システム。
(項目14)
前記センサ・データは、前記人の脳活動を示す信号を含み、前記プロセッサは、前記脳活動に基づき前記人と関連した前記優勢な感情状態を判定するように設定される、上記項目のうちのいずれか一項に記載の前記システム。
(項目15)
前記ユーザの脳活動を示す前記信号は、脳波検査(EEG)信号、機能的磁気共鳴画像法(fMRI)信号、及び機能的近赤外線分光法(fNIRS)信号のうちの少なくとも1つを含む、上記項目のうちのいずれか一項に記載の前記システム。
(項目16)
前記プロセッサにより実行されるときに、前記音声修正アプリケーションは、
前記センサ・データ内に含まれた第一タイプのセンサ・データを分析して第一感情状態を判定し、
前記センサ・データ内に含まれた第二タイプのセンサ・データを分析して第二感情状態を判定し、
前記第一感情状態及び前記第二感情状態が相反する感情状態であるかどうかを判定し、
前記第一感情状態及び前記第二感情状態が相反する感情状態であると判定することに基づき、前記第一タイプのセンサ・データに割り当てられた重み付けに基づき前記優勢な感情状態として前記第一感情状態を選択する、
ことにより前記人と関連した前記優勢な感情状態を判定するように前記プロセッサを設定する、上記項目のうちのいずれか一項に記載の前記システム。
(項目17)
前記第二音声サンプルは、ノイズ・キャンセレーション信号を含み、前記プロセッサにより実行されるときに、前記音声修正アプリケーションは、スピーカを介して前記ノイズ・キャンセレーション信号を出力して前記人の音声を修正することで前記第二音声サンプルを送信するように前記プロセッサを設定する、上記項目のうちのいずれか一項に記載の前記システム。
(項目18)
音声の影響の修正方法において、
人及び前記人からの音声サンプルと関連したセンサ・データを取得し、
前記センサ・データに基づき前記人と関連した感情状態を判定し、
前記感情状態及び前記音声サンプルを示すデータをリモート・デバイスへ送信する、
ことを備える、前記方法。
(項目19)
前記センサ・データは、前記人の前記音声の音響特性、前記人の表情、及び前記人の脳活動のうちの少なくとも1つを含む、上記項目のうちのいずれか一項に記載の前記方法。
(項目20)
前記リモート・デバイスは、前記人と関連した前記感情状態に基づき前記音声サンプルを修正して第二音声サンプルを生成し、前記第二音声サンプルを出力するように設定される、上記項目のうちのいずれか一項に記載の前記方法。
(摘要)
音声の影響を修正するための技術。この技術は、人と関連した感情状態を判定すること、及び感情状態に基づき人から取得された音声サンプルの1つ以上の音響特性を修正して音声サンプルと関連した影響を変更することを備える。さらにこの技術は、修正されている1つ以上の音響特性に基づき第二音声サンプルを生成すること、及び第二音声サンプルを送信することを備える。
Claims (20)
- インストラクションを含む非一時的なコンピュータ可読記憶媒体であって、前記インストラクションは、プロセッサにより実行されるときに、
人と関連した第一感情状態及び第二感情状態が相反しないことを判定するステップと、
前記第一感情状態及び前記第二感情状態の各々を優勢な感情状態として分類するステップと、
前記第一感情状態及び前記第二感情状態の各々を優勢な感情状態として分類したことに応答して、前記第一感情状態及び前記第二感情状態に基づき前記人から取得された音声サンプルの1つ以上の音響特性を修正し、前記音声サンプルと関連した影響を変更するステップと、
修正されている前記1つ以上の音響特性に基づき第二音声サンプルを生成するステップと、
前記第二音声サンプルを送信するステップと
を実行することで、音声の影響を修正するように前記プロセッサを構成する、非一時的なコンピュータ可読記憶媒体。 - 前記人と関連した前記第一感情状態及び前記第二感情状態が相反しないことを判定することは、視覚センサ・データを分析して前記人の1つ以上の顔特性を判定することを備える、請求項1に記載の非一時的なコンピュータ可読記憶媒体。
- 前記人と関連した前記第一感情状態及び前記第二感情状態が相反しないことを判定することは、前記音声サンプルを分析して感情状態を反映する少なくとも1つの音響特性を検出することを備える、請求項1に記載の非一時的なコンピュータ可読記憶媒体。
- 前記少なくとも1つの音響特性は、ピッチ、発声摂動、ラウドネス、及び発話速度のうちの少なくとも1つを含む、請求項3に記載の非一時的なコンピュータ可読記憶媒体。
- 前記人と関連した前記第一感情状態及び前記第二感情状態が相反しないことを判定することは、前記人の脳活動を分析することを備える、請求項1に記載の非一時的なコンピュータ可読記憶媒体。
- 前記音声サンプルの前記1つ以上の音響特性を修正することは、前記音声サンプルと関連したピッチを増加させることまたは前記音声サンプルと関連した前記ピッチを低減することのうちの少なくとも1つを備える、請求項1に記載の非一時的なコンピュータ可読記憶媒体。
- 前記音声サンプルの前記1つ以上の音響特性を修正することは、前記音声サンプルと関連した速度を上げること、前記音声サンプルと関連した前記速度を下げること、前記音声サンプルと関連したラウドネスを増加させること、または前記音声サンプルと関連した前記ラウドネスを減少させることのうちの少なくとも1つを備える、請求項1に記載の非一時的なコンピュータ可読記憶媒体。
- インストラクションを含む非一時的なコンピュータ可読記憶媒体であって、前記インストラクションは、プロセッサにより実行されるときに、
人と関連した感情状態を判定するステップと、
前記感情状態に基づき前記人から取得された音声サンプルの1つ以上の音響特性を修正し、前記音声サンプルと関連した影響を変更するステップと、
修正されている前記1つ以上の音響特性に基づき第二音声サンプルを生成するステップと、
前記第二音声サンプルを送信するステップと
を実行することで、音声の影響を修正するように前記プロセッサを構成し、
前記感情状態を判定することは、
前記人と関連した第一タイプのセンサ・データを分析して第一感情状態を判定することと、
第一重み付けを前記第一感情状態に割り当てることと、
前記人と関連した第二タイプのセンサ・データを分析して第二感情状態を判定することと、
第二重み付けを前記第二感情状態に割り当てることと、
前記人と関連した第三タイプのセンサ・データを分析して第三感情状態を判定することと、
第三重み付けを前記第三感情状態に割り当てることであって、前記感情状態が前記第一感情状態、前記第二感情状態、前記第三感情状態、前記第一重み付け、前記第二重み付け、及び前記第三重み付けに基づく、ことと
を備える、非一時的なコンピュータ可読記憶媒体。 - 前記人と関連した前記第一感情状態及び前記第二感情状態が相反しないことを判定することは、グラフィカル・ユーザ・インタフェースを介して感情状態の選択を受信することを備える、請求項1に記載の非一時的なコンピュータ可読記憶媒体。
- 音声の影響を修正するためのシステムであって、前記システムは、
ユーザから音声サンプルを取得するように構成されたマイクロフォン、
前記ユーザと関連したセンサ・データを取得するように構成された1つ以上のセンサ、
音声修正アプリケーションを格納するメモリ、ならびに
前記マイクロフォン、前記1つ以上のセンサ及び前記メモリに結合されたプロセッサ、
を備え、
前記プロセッサにより実行されるときに、前記音声修正アプリケーションは、
前記センサ・データに基づき人と関連した第一感情状態及び第二感情状態が相反しないことを判定することと、
前記第一感情状態、前記第二感情状態をそれぞれ第一の優勢な感情状態、第二の優勢な感情状態として分類することと、
前記第一感情状態、前記第二感情状態をそれぞれ前記第一の優勢な感情状態、前記第二の優勢な感情状態として分類したことに応答して、前記第一の優勢な感情状態及び前記第二の優勢な感情状態のうちの少なくとも1つに基づき前記音声サンプルの1つ以上の音響特性を修正し、前記音声サンプルと関連した影響を変更することと、
修正されている前記1つ以上の音響特性に基づき第二音声サンプルを生成することと、
前記第二音声サンプルを送信することと
を実行するように前記プロセッサを設定する、システム。 - 前記プロセッサは、前記音声サンプルを分析して前記第一感情状態及び前記第二感情状態のうちの少なくとも1つと関連した少なくとも1つの音響特性を検出することで前記人と関連した前記第一感情状態及び前記第二感情状態が相反しないことを判定するように設定される、請求項10に記載のシステム。
- 前記1つ以上のセンサは、カメラを備え、前記プロセッサは、前記カメラを介して取得された1つ以上の画像を分析して前記人の1つ以上の顔特性を判定することで前記人と関連した前記第一感情状態及び前記第二感情状態が相反しないことを判定するように設定される、請求項10に記載のシステム。
- 前記1つ以上のセンサは、カメラを備え、前記プロセッサは、前記カメラを介して取得された1つ以上の画像を分析して前記人により実行されたジェスチャ及び前記人の姿勢のうちの少なくとも1つを判定することで前記人と関連した前記第一感情状態及び前記第二感情状態が相反しないことを判定するように設定される、請求項10に記載のシステム。
- 前記センサ・データは、前記人の脳活動を示す信号を含み、前記プロセッサは、前記脳活動に基づき前記人と関連した前記第一感情状態及び前記第二感情状態が相反しないことを判定するように設定される、請求項10に記載のシステム。
- 前記ユーザの脳活動を示す前記信号は、脳波検査(EEG)信号、機能的磁気共鳴画像法(fMRI)信号、及び機能的近赤外線分光法(fNIRS)信号のうちの少なくとも1つを含む、請求項14に記載のシステム。
- 音声の影響を修正するためのシステムであって、前記システムは、
ユーザから音声サンプルを取得するように構成されたマイクロフォン、
前記ユーザと関連したセンサ・データを取得するように構成された1つ以上のセンサ、
音声修正アプリケーションを格納するメモリ、ならびに
前記マイクロフォン、前記1つ以上のセンサ及び前記メモリに結合されたプロセッサ、
を備え、
前記プロセッサにより実行されるときに、前記音声修正アプリケーションは、
前記センサ・データに基づき人と関連した優勢な感情状態を判定することと、
前記優勢な感情状態に基づき前記音声サンプルの1つ以上の音響特性を修正し、前記音声サンプルと関連した影響を変更することと、
修正されている前記1つ以上の音響特性に基づき第二音声サンプルを生成することと、
前記第二音声サンプルを送信することと、
を実行するように前記プロセッサを設定し、
前記プロセッサにより実行されるときに、前記音声修正アプリケーションは、
前記センサ・データ内に含まれた第一タイプのセンサ・データを分析して第一感情状態を判定することと、
前記センサ・データ内に含まれた第二タイプのセンサ・データを分析して第二感情状態を判定することと、
前記第一感情状態及び前記第二感情状態が相反する感情状態であるかどうかを判定することと、
前記第一感情状態及び前記第二感情状態が相反する感情状態であると判定することに基づき、前記第一タイプのセンサ・データに割り当てられた重み付けに基づき前記優勢な感情状態として前記第一感情状態を選択することと
により前記人と関連した前記優勢な感情状態を判定するように前記プロセッサを設定する、システム。 - 前記第二音声サンプルは、ノイズ・キャンセレーション信号を含み、前記プロセッサにより実行されるときに、前記音声修正アプリケーションは、スピーカを介して前記ノイズ・キャンセレーション信号を出力して前記人の音声を修正することで前記第二音声サンプルを送信するように前記プロセッサを設定する、請求項10に記載のシステム。
- 音声の影響を修正する方法であって、前記方法は、
人及び前記人からの音声サンプルと関連したセンサ・データを取得することと、
前記センサ・データに基づき前記人と関連した第一感情状態及び第二感情状態が相反しないことを判定することと、
前記第一感情状態及び前記第二感情状態の各々を優勢な感情状態として分類することと、
前記第一感情状態及び前記第二感情状態の各々を優勢な感情状態として分類したことに応答して、前記第一感情状態及び前記第二感情状態のうちの少なくとも1つを示すデータ及び前記音声サンプルをリモート・デバイスへ送信することと
を備える、方法。 - 前記センサ・データは、前記人の前記音声の音響特性、前記人の表情、及び前記人の脳活動のうちの少なくとも1つを含む、請求項18に記載の方法。
- 前記リモート・デバイスは、前記人と関連した前記第一感情状態及び前記第二感情状態のうちの前記少なくとも1つに基づき前記音声サンプルを修正して第二音声サンプルを生成し、前記第二音声サンプルを出力するように設定される、請求項18に記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/002,320 US10157626B2 (en) | 2016-01-20 | 2016-01-20 | Voice affect modification |
US15/002,320 | 2016-01-20 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017129853A JP2017129853A (ja) | 2017-07-27 |
JP6863733B2 true JP6863733B2 (ja) | 2021-04-21 |
Family
ID=57758524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016252683A Active JP6863733B2 (ja) | 2016-01-20 | 2016-12-27 | 音声影響修正 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10157626B2 (ja) |
EP (1) | EP3196879A1 (ja) |
JP (1) | JP6863733B2 (ja) |
KR (1) | KR102658445B1 (ja) |
CN (1) | CN106992013B (ja) |
CA (1) | CA2953539C (ja) |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10304447B2 (en) | 2017-01-25 | 2019-05-28 | International Business Machines Corporation | Conflict resolution enhancement system |
EP3392884A1 (en) * | 2017-04-21 | 2018-10-24 | audEERING GmbH | A method for automatic affective state inference and an automated affective state inference system |
US10845956B2 (en) | 2017-05-31 | 2020-11-24 | Snap Inc. | Methods and systems for voice driven dynamic menus |
EP3684463A4 (en) | 2017-09-19 | 2021-06-23 | Neuroenhancement Lab, LLC | NEURO-ACTIVATION PROCESS AND APPARATUS |
CN107818787B (zh) * | 2017-10-31 | 2021-02-05 | 努比亚技术有限公司 | 一种语音信息的处理方法、终端及计算机可读存储介质 |
CN107863095A (zh) * | 2017-11-21 | 2018-03-30 | 广州酷狗计算机科技有限公司 | 音频信号处理方法、装置和存储介质 |
CN107919138B (zh) * | 2017-11-30 | 2021-01-08 | 维沃移动通信有限公司 | 一种语音中的情绪处理方法及移动终端 |
US11717686B2 (en) | 2017-12-04 | 2023-08-08 | Neuroenhancement Lab, LLC | Method and apparatus for neuroenhancement to facilitate learning and performance |
US11478603B2 (en) | 2017-12-31 | 2022-10-25 | Neuroenhancement Lab, LLC | Method and apparatus for neuroenhancement to enhance emotional response |
US11919531B2 (en) * | 2018-01-31 | 2024-03-05 | Direct Current Capital LLC | Method for customizing motion characteristics of an autonomous vehicle for a user |
CN108404274A (zh) * | 2018-02-09 | 2018-08-17 | 上海康斐信息技术有限公司 | 一种声音自动调整方法和设备 |
CN108682434B (zh) * | 2018-03-26 | 2020-08-21 | Oppo广东移动通信有限公司 | 电子装置、数据处理方法及相关产品 |
US10622007B2 (en) * | 2018-04-20 | 2020-04-14 | Spotify Ab | Systems and methods for enhancing responsiveness to utterances having detectable emotion |
US11364361B2 (en) | 2018-04-20 | 2022-06-21 | Neuroenhancement Lab, LLC | System and method for inducing sleep by transplanting mental states |
US10621983B2 (en) * | 2018-04-20 | 2020-04-14 | Spotify Ab | Systems and methods for enhancing responsiveness to utterances having detectable emotion |
US11172293B2 (en) * | 2018-07-11 | 2021-11-09 | Ambiq Micro, Inc. | Power efficient context-based audio processing |
JP2020021025A (ja) * | 2018-08-03 | 2020-02-06 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US10869128B2 (en) | 2018-08-07 | 2020-12-15 | Pangissimo Llc | Modular speaker system |
US20200053223A1 (en) * | 2018-08-07 | 2020-02-13 | International Business Machines Corporation | Adjusting of communication mode |
WO2020056418A1 (en) | 2018-09-14 | 2020-03-19 | Neuroenhancement Lab, LLC | System and method of improving sleep |
US10861483B2 (en) | 2018-11-29 | 2020-12-08 | i2x GmbH | Processing video and audio data to produce a probability distribution of mismatch-based emotional states of a person |
US10839788B2 (en) | 2018-12-13 | 2020-11-17 | i2x GmbH | Systems and methods for selecting accent and dialect based on context |
US11450311B2 (en) | 2018-12-13 | 2022-09-20 | i2x GmbH | System and methods for accent and dialect modification |
US11786694B2 (en) | 2019-05-24 | 2023-10-17 | NeuroLight, Inc. | Device, method, and app for facilitating sleep |
US10878800B2 (en) * | 2019-05-29 | 2020-12-29 | Capital One Services, Llc | Methods and systems for providing changes to a voice interacting with a user |
US10896686B2 (en) | 2019-05-29 | 2021-01-19 | Capital One Services, Llc | Methods and systems for providing images for facilitating communication |
US11514924B2 (en) * | 2020-02-21 | 2022-11-29 | International Business Machines Corporation | Dynamic creation and insertion of content |
CN113327620B (zh) * | 2020-02-29 | 2024-10-11 | 华为技术有限公司 | 声纹识别的方法和装置 |
US11735206B2 (en) | 2020-03-27 | 2023-08-22 | Harman International Industries, Incorporated | Emotionally responsive virtual personal assistant |
CN111899765B (zh) * | 2020-07-27 | 2023-05-30 | 中国平安人寿保险股份有限公司 | 基于情绪预测模型的语音发送方法、装置和计算机设备 |
USD940191S1 (en) * | 2020-08-31 | 2022-01-04 | Snap Inc. | Display screen or portion thereof with a transitional graphical user interface |
USD940188S1 (en) * | 2020-09-28 | 2022-01-04 | Snap Inc. | Display screen or portion thereof with a transitional graphical user interface |
USD964377S1 (en) * | 2020-09-28 | 2022-09-20 | Snap Inc. | Display screen or portion thereof with a transitional graphical user interface |
KR20220061505A (ko) * | 2020-11-06 | 2022-05-13 | 현대자동차주식회사 | 감정 조절 시스템 및 감정 조절 방법 |
CN112398952A (zh) * | 2020-12-09 | 2021-02-23 | 英华达(上海)科技有限公司 | 电子资源推送方法、系统、设备及存储介质 |
US20220293122A1 (en) * | 2021-03-15 | 2022-09-15 | Avaya Management L.P. | System and method for content focused conversation |
CN113077783B (zh) * | 2021-03-26 | 2023-07-21 | 联想(北京)有限公司 | 小语种语音语料扩增方法、装置及电子设备和存储介质 |
DE102021208344A1 (de) | 2021-08-02 | 2023-02-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein | Sprachsignalbearbeitungsvorrichtung, Sprachsignalwiedergabesystem und Verfahren zum Ausgeben eines entemotionalisierten Sprachsignals |
US20230343349A1 (en) * | 2022-04-20 | 2023-10-26 | Sony Interactive Entertainment Inc. | Digital audio emotional response filter |
CN118427777B (zh) * | 2024-07-02 | 2024-09-13 | 广州美术学院 | 基于人工智能的心理语言学数据挖掘集成平台 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3824848B2 (ja) * | 2000-07-24 | 2006-09-20 | シャープ株式会社 | 通信装置および通信方法 |
DE60215296T2 (de) * | 2002-03-15 | 2007-04-05 | Sony France S.A. | Verfahren und Vorrichtung zum Sprachsyntheseprogramm, Aufzeichnungsmedium, Verfahren und Vorrichtung zur Erzeugung einer Zwangsinformation und Robotereinrichtung |
US8036899B2 (en) | 2006-10-20 | 2011-10-11 | Tal Sobol-Shikler | Speech affect editing systems |
US9070282B2 (en) * | 2009-01-30 | 2015-06-30 | Altorr Corp. | Smartphone control of electrical devices |
US9767470B2 (en) * | 2010-02-26 | 2017-09-19 | Forbes Consulting Group, Llc | Emotional survey |
US20120016674A1 (en) | 2010-07-16 | 2012-01-19 | International Business Machines Corporation | Modification of Speech Quality in Conversations Over Voice Channels |
US9762719B2 (en) * | 2011-09-09 | 2017-09-12 | Qualcomm Incorporated | Systems and methods to enhance electronic communications with emotional context |
US8903176B2 (en) * | 2011-11-14 | 2014-12-02 | Sensory Logic, Inc. | Systems and methods using observed emotional data |
US9418390B2 (en) | 2012-09-24 | 2016-08-16 | Intel Corporation | Determining and communicating user's emotional state related to user's physiological and non-physiological data |
US9031293B2 (en) | 2012-10-19 | 2015-05-12 | Sony Computer Entertainment Inc. | Multi-modal sensor based emotion recognition and emotional interface |
WO2014085910A1 (en) * | 2012-12-04 | 2014-06-12 | Interaxon Inc. | System and method for enhancing content using brain-state data |
CN103903627B (zh) * | 2012-12-27 | 2018-06-19 | 中兴通讯股份有限公司 | 一种语音数据的传输方法及装置 |
JP2015106387A (ja) * | 2013-12-02 | 2015-06-08 | 株式会社東芝 | 表示制御方法、情報処理装置およびプログラム |
US20160191958A1 (en) * | 2014-12-26 | 2016-06-30 | Krush Technologies, Llc | Systems and methods of providing contextual features for digital communication |
US9431003B1 (en) * | 2015-03-27 | 2016-08-30 | International Business Machines Corporation | Imbuing artificial intelligence systems with idiomatic traits |
-
2016
- 2016-01-20 US US15/002,320 patent/US10157626B2/en active Active
- 2016-12-27 JP JP2016252683A patent/JP6863733B2/ja active Active
-
2017
- 2017-01-03 CA CA2953539A patent/CA2953539C/en active Active
- 2017-01-10 EP EP17150747.8A patent/EP3196879A1/en not_active Ceased
- 2017-01-18 KR KR1020170008407A patent/KR102658445B1/ko active IP Right Grant
- 2017-01-18 CN CN201710036873.1A patent/CN106992013B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
US10157626B2 (en) | 2018-12-18 |
US20170206913A1 (en) | 2017-07-20 |
CA2953539A1 (en) | 2017-07-20 |
KR20170087416A (ko) | 2017-07-28 |
CN106992013B (zh) | 2023-09-19 |
KR102658445B1 (ko) | 2024-04-17 |
CN106992013A (zh) | 2017-07-28 |
JP2017129853A (ja) | 2017-07-27 |
EP3196879A1 (en) | 2017-07-26 |
CA2953539C (en) | 2024-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6863733B2 (ja) | 音声影響修正 | |
US10345901B2 (en) | Sound outputting apparatus, electronic apparatus, and control method thereof | |
CN107683399B (zh) | 声音输出装置、电子装置、以及其控制方法 | |
JP2021044001A (ja) | 情報処理システム、制御方法、およびプログラム | |
JP2016126500A (ja) | ウェアラブル端末装置およびプログラム | |
US11184723B2 (en) | Methods and apparatus for auditory attention tracking through source modification | |
JP2012059107A (ja) | 感情推定装置、感情推定方法およびプログラム | |
KR101802995B1 (ko) | 이명 치료 시스템 | |
JP2017140198A (ja) | 筋電信号を用いて顔表情を高い精度で識別する装置、デバイス、プログラム及び方法 | |
CN113208812A (zh) | 信息处理装置、信息处理方法以及计算机可读介质 | |
US11853472B2 (en) | Modify audio based on physiological observations | |
US20240251121A1 (en) | Focus group apparatus and system | |
Tremblay et al. | How neuroscience relates to hearing aid amplification | |
CN114432565A (zh) | 空想意识信息恢复系统 | |
US11276420B2 (en) | Interaction system, apparatus, and non-transitory computer readable storage medium | |
JP2018149625A (ja) | コミュニケーションロボット、プログラム及びシステム | |
KR20210100831A (ko) | 인공지능 기반 수어통역 서비스 제공 시스템 및 방법 | |
WO2019198299A1 (ja) | 情報処理装置及び情報処理方法 | |
US10635665B2 (en) | Systems and methods to facilitate bi-directional artificial intelligence communications | |
KR20210100832A (ko) | 사용자의 감정상태를 판단하는 인공지능 기반 수어통역 서비스 제공 시스템 및 방법 | |
US20220101873A1 (en) | Techniques for providing feedback on the veracity of spoken statements | |
US11657814B2 (en) | Techniques for dynamic auditory phrase completion | |
US20230277130A1 (en) | In-ear microphones for ar/vr applications and devices | |
US12032807B1 (en) | Assistive communication method and apparatus | |
US20230396941A1 (en) | Context-based situational awareness for hearing instruments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210317 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210401 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6863733 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |