JP2019212288A - 情報を出力するための方法、及び装置 - Google Patents
情報を出力するための方法、及び装置 Download PDFInfo
- Publication number
- JP2019212288A JP2019212288A JP2019047123A JP2019047123A JP2019212288A JP 2019212288 A JP2019212288 A JP 2019212288A JP 2019047123 A JP2019047123 A JP 2019047123A JP 2019047123 A JP2019047123 A JP 2019047123A JP 2019212288 A JP2019212288 A JP 2019212288A
- Authority
- JP
- Japan
- Prior art keywords
- user
- identity information
- voiceprint feature
- information
- feature vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 239000013598 vector Substances 0.000 claims description 84
- 230000004044 response Effects 0.000 claims description 27
- 238000012545 processing Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 10
- 230000009467 reduction Effects 0.000 claims description 9
- 238000013507 mapping Methods 0.000 claims description 8
- 238000011946 reduction process Methods 0.000 claims 1
- 230000006870 function Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 238000004458 analytical method Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000000354 decomposition reaction Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000000556 factor analysis Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000033764 rhythmic process Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000004630 mental health Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/065—Adaptation
- G10L15/07—Adaptation to the speaker
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/083—Recognition networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42203—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/441—Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
- H04N21/4415—Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card using biometric characteristics of the user, e.g. by voice recognition or fingerprint scanning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/475—End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
- H04N21/4753—End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for user identification, e.g. by entering a PIN or password
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8106—Monomedia components thereof involving special audio data, e.g. different tracks for different languages
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8126—Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
- H04N21/8133—Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- User Interface Of Digital Computer (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
また、一例として、音声に基づいて声紋特徴ベクトルを生成することは、音声の音響的特徴、例えば、メル周波数ケプストラム係数を抽出することによって達成することができる。メル周波数ケプストラム係数は、声紋特徴ベクトルの要素である。音声からメル周波数ケプストラム係数を抽出する工程は、プリエンファシス、フレーム分割、窓掛け、高速フーリエ変換、メルフィルタ、対数変換及び離散コサイン変換を含んでも良い。
Claims (18)
- 情報を出力するための方法であって、
第一のユーザーが入力した、ターゲットユーザーモードに入る要求を示すメッセージを受信するステップと、
前記第一のユーザーの身分情報を判定するステップと、
前記ターゲットユーザーモードが前記第一のユーザーの身分情報にマッチングするかどうかを判定するステップと、
マッチングが成立した場合、予め設定された操作オプションページの集合から、前記ターゲットユーザーモードにマッチングする操作オプションページを選択して出力するステップと、
を含む、情報を出力するための方法。 - マッチングが成立しない場合、予め設定された操作オプションページの集合から、前記第一のユーザーの身分情報にマッチングするユーザーモードマッチングの操作オプションページを選択して出力するステップをさらに含む請求項1に記載の方法。
- 前記第一のユーザーの身分情報を判定するステップは、
前記第一のユーザーの第一の音声を受信したことに応答して、前記第一の音声に基づいて、第一の声紋特徴ベクトルを生成するステップと、
前記第一の声紋特徴ベクトルを予め訓練された声紋認識モデルに入力して、前記第一のユーザーの身分情報と取得するステップであって、前記声紋認識モデルとは、声紋特徴ベクトルとユーザーの身分情報との対応関係を表すためのものであるステップと
を含む、請求項1に記載の方法。 - 前記第一のユーザーの身分情報を判定するステップは、
ユーザーの識別情報を確認するための質問を出力するステップと、
前記第一のユーザーによる返信情報を受信したことに応答して、所定の回答の集合に前記返信情報にマッチングする答えがあるかどうかを判定するステップであって、その答えは、ユーザー身分情報と対応するステップと、
答えがある場合、前記返信情報にマッチングする回答と対応するユーザー身分情報が前記第一のユーザーの身分情報と判定するステップと、
を含む、請求項1に記載の方法。 - 前記第一の音声に基づいて第一の声紋特徴ベクトルを生成するステップは、
前記第一の音声を予め訓練された全体的な背景モデルに導入してマッピングして、第一の声紋特徴スーパーベクトルを取得するステップであって、前記全体的な背景モデルとは、音声と声紋特徴スーパーベクトルとの対応関係を表すためのものであるステップと、
前記第一の声紋特徴スーパーベクトルを次元削減処理することによって第一の声紋特徴ベクトルを取得するステップと
を含む、請求項3に記載の方法。 - 前記第一のユーザーの身分情報により前記第一のユーザーが所定の人組に属すると判定したことに応答して、前記第一のユーザーの身分情報を判定した時点を前記第一のユーザーの視聴開始時刻として記録するステップと、
現在時刻と前記第一のユーザーの視聴開始時刻の差は、前記所定の人組の視聴時間閾値より長い、及び/又は現在時刻が所定の時間期間内にあると判定したことに応答して、時刻喚起情報を出力し、及び/又はシャットダウン操作を実行するステップと、をさらに含む請求項1に記載の方法。 - 前記ユーザーの身分情報は、性別、年齢、家族メンバー標識のうちの少なくとも一つを含む、請求項1〜6のいずれか一項に記載の方法。
- 第二のユーザーの第二の音声を受信したことに応答して、前記第二の音声に基づいて、第二の声紋特徴ベクトルを生成するステップと、
前記第二の声紋特徴ベクトルを声紋認識モデルに入力して、前記第二のユーザーの身分情報を取得するステップであって、前記声紋認識モデルとは、声紋特徴ベクトルとユーザーの身分情報との対応関係を表すためのものであるステップと、
前記第一のユーザーと前記第二のユーザーから最年少のユーザーを特定して出力し、かつ、予め設定された操作オプションページの集合から、前記最年少のユーザーと対応するユーザーモードマッチングの操作オプションページを選択して出力するステップと、
をさらに含む、請求項7に記載の方法。 - 情報を出力するための装置であって、
第一のユーザーが入力した、ターゲットユーザーモードに入る要求を示すメッセージを受信するように構成されている受信ユニットと、
前記第一のユーザーの身分情報を判定するように構成されている判定ユニットと、
前記ターゲットユーザーモードが前記第一のユーザーの身分情報にマッチングするかどうかを判定するように構成されているマッチングユニットと、
マッチングが成立した場合、予め設定された操作オプションページの集合から、前記ターゲットユーザーモードにマッチングする操作オプションページを選択して出力するように構成されている出力ユニットと、
を含む、情報を出力するための装置。 - 前記出力ユニットは、さらに、
マッチングが成立しない場合、予め設定された操作オプションページの集合から、前記第一のユーザーの身分情報にマッチングするユーザーモードマッチングの操作オプションページを選択して出力するように構成されている、請求項9に記載の装置。 - 前記判定ユニットは、さらに、
前記第一のユーザーの第一の音声を受信したことに応答して、前記第一の音声に基づいて、第一の声紋特徴ベクトルを生成し、
前記第一の声紋特徴ベクトルを予め訓練された声紋認識モデルに入力して、前記第一のユーザーの身分情報を取得し、前記声紋認識モデルとは、声紋特徴ベクトルとユーザーの身分情報との対応関係を表すためのものであるように構成されている、請求項9に記載の装置。 - 前記判定ユニットは、さらに、
ユーザーの識別情報を確認するための質問を出力し、
前記第一のユーザーによる返信情報を受信したことに応答して、所定の回答の集合に前記返信情報とマッチングする答えがあるかどうかを判定し、その答えは、ユーザー身分情報と対応し、
答えがある場合、前記返信情報とマッチングする回答に対応するユーザー身分情報が前記第一のユーザーの身分情報と判定したように、構成されている、請求項9に記載の装置。 - 前記判定ユニットは、さらに、
前記第一の音声を予め訓練された全体的な背景モデルに導入してマッピングして、第一の声紋特徴スーパーベクトルを取得し、
前記第一の声紋特徴スーパーベクトルを次元削減処理することによって第一の声紋特徴ベクトルを取得するように構成され、
前記全体的な背景モデルとは、音声と声紋特徴スーパーベクトルとの対応関係を表すためのものである、請求項11に記載の装置, - 前記第一のユーザーの身分情報により前記第一のユーザーが所定の人組に属すると判定したことに応答して、前記第一のユーザーの身分情報を判定した時点を前記第一のユーザーの視聴開始時刻として記録し、
現在時刻と前記第一のユーザーの視聴開始時刻の差は、前記所定の人組の視聴時間閾値より長い、及び/又は現在時刻が所定の時間期間内にあると判定したことに応答して、時刻喚起情報を出力し、及び/又はシャットダウン操作を実行するように構成されている、喚起ユニットをさらに含む、請求項9に記載の装置。 - 前記ユーザーの身分情報は、性別、年齢、家族メンバー標識のうちの少なくとも一つを含む、請求項9〜14のいずれか一項に記載の装置。
- 第二のユーザーの第二の音声を受信したことに応答して、前記第二の音声に基づいて、第二の声紋特徴ベクトルを生成し、
前記第二の声紋特徴ベクトルを声紋認識モデルに入力して、前記第二のユーザーの身分情報を取得し、前記声紋認識モデルとは、声紋特徴ベクトルとユーザーの身分情報との対応関係を表すためのものであり、
前記第一のユーザーと前記第二のユーザーから、最年少のユーザーを特定して出力し、かつ、予め設定された操作オプションページの集合から、前記最年少のユーザーと対応するユーザーモードマッチングの操作オプションページを選択して出力するように構成されている、切替えユニットをさらに含み、
請求項15に記載の装置。 - 電子デバイスであって、
1つまたは複数のプロセッサと、
1つまたは複数のプログラムが格納されている記憶装置と、を含み、
前記1つまたは複数のプログラムは前記1つまたは複数のプロセッサにより実行されると、請求項1〜8のいずれか一項に記載の方法を前記1つまたは複数のプロセッサに実現させる電子デバイス。 - コンピュータプログラムが格納されているコンピュータ可読媒体であって、
前記プログラムはプロセッサにより実行されると、請求項1〜8のいずれか一項に記載の方法を実現させるコンピュータ可読媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810589033.2A CN108882032A (zh) | 2018-06-08 | 2018-06-08 | 用于输出信息的方法和装置 |
CN201810589033.2 | 2018-06-08 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019212288A true JP2019212288A (ja) | 2019-12-12 |
Family
ID=64337534
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019047123A Pending JP2019212288A (ja) | 2018-06-08 | 2019-03-14 | 情報を出力するための方法、及び装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20190378494A1 (ja) |
JP (1) | JP2019212288A (ja) |
CN (1) | CN108882032A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021174518A (ja) * | 2020-04-28 | 2021-11-01 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | スマート音声機器の制御方法、装置、電子機器及び記憶媒体 |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109671438A (zh) * | 2019-01-28 | 2019-04-23 | 武汉恩特拉信息技术有限公司 | 一种利用语音提供辅助服务的装置及方法 |
CN110134022B (zh) * | 2019-05-10 | 2022-03-18 | 平安科技(深圳)有限公司 | 智能家居设备的声音控制方法、装置、及电子装置 |
CN110689886B (zh) * | 2019-09-18 | 2021-11-23 | 深圳云知声信息技术有限公司 | 设备控制方法及装置 |
CN111010481B (zh) * | 2019-12-16 | 2022-06-24 | 北京小米移动软件有限公司 | 来电监听方法、来电监听装置及计算机存储介质 |
CN111081249A (zh) * | 2019-12-30 | 2020-04-28 | 腾讯科技(深圳)有限公司 | 一种模式选择方法、装置及计算机可读存储介质 |
CN113553105A (zh) * | 2020-04-23 | 2021-10-26 | 百度在线网络技术(北京)有限公司 | 引导页面的生成方法和装置 |
CN112333550B (zh) * | 2020-06-19 | 2024-01-19 | 深圳Tcl新技术有限公司 | 节目查询方法、装置、设备及计算机存储介质 |
CN111787387A (zh) * | 2020-06-30 | 2020-10-16 | 百度在线网络技术(北京)有限公司 | 内容显示方法、装置、设备以及存储介质 |
CN111899717A (zh) * | 2020-07-29 | 2020-11-06 | 北京如影智能科技有限公司 | 一种语音回复方法及装置 |
CN114079806B (zh) * | 2020-08-06 | 2024-06-04 | 深圳Tcl新技术有限公司 | 一种个性化页面显示方法及相关设备 |
CN112000726A (zh) * | 2020-09-03 | 2020-11-27 | 未来穿戴技术有限公司 | 按摩操作模式的存储方法及电子设备、存储介质 |
CN112423069A (zh) * | 2020-11-20 | 2021-02-26 | 广州欢网科技有限责任公司 | 模式切换方法、装置及设备、智能播放系统 |
CN115248867A (zh) * | 2021-04-26 | 2022-10-28 | 北京有竹居网络技术有限公司 | 一种多媒体内容展示方法、装置、设备及存储介质 |
CN113676394B (zh) * | 2021-08-19 | 2023-04-07 | 维沃移动通信(杭州)有限公司 | 信息处理方法和信息处理装置 |
CN114999472A (zh) * | 2022-04-27 | 2022-09-02 | 青岛海尔空调器有限总公司 | 一种空调控制方法、装置及一种空调 |
CN114885218A (zh) * | 2022-06-16 | 2022-08-09 | 深圳创维-Rgb电子有限公司 | 自动选择观看模式的方法、电视机、设备及存储介质 |
CN116055818A (zh) * | 2022-12-22 | 2023-05-02 | 北京奇艺世纪科技有限公司 | 视频播放方法、装置、电子设备及存储介质 |
Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001083991A (ja) * | 1999-09-16 | 2001-03-30 | Denso Corp | ユーザインタフェース装置、ナビゲーションシステム、情報処理装置及び記録媒体 |
JP2001142481A (ja) * | 1999-08-26 | 2001-05-25 | Matsushita Electric Ind Co Ltd | 音声/ビデオ装置用の制御システム及び音声/ビデオ構成を制御するための統合アクセスシステム |
JP2006238391A (ja) * | 2005-02-28 | 2006-09-07 | Funai Electric Co Ltd | リモコン装置 |
JP2007048288A (ja) * | 2005-08-10 | 2007-02-22 | Samsung Electronics Co Ltd | モード基盤の接近制御方法及び装置 |
JP2008503113A (ja) * | 2004-04-26 | 2008-01-31 | 松下電器産業株式会社 | ホームネットワークに接続された装置の使用の親による監視および制御の方法 |
JP2009139390A (ja) * | 2007-12-03 | 2009-06-25 | Nec Corp | 情報処理システム、処理方法及びプログラム |
US20110060592A1 (en) * | 2009-09-10 | 2011-03-10 | Kang Byung Ok | Iptv system and service method using voice interface |
JP2011248002A (ja) * | 2010-05-25 | 2011-12-08 | Fujitsu Toshiba Mobile Communications Ltd | 翻訳装置 |
JP2013152610A (ja) * | 2012-01-25 | 2013-08-08 | Mitsubishi Motors Corp | 車両情報提示装置 |
WO2014083669A1 (ja) * | 2012-11-30 | 2014-06-05 | 日立マクセル株式会社 | 映像表示装置、及びその設定変更方法、設定変更プログラム |
CN103914127A (zh) * | 2012-12-31 | 2014-07-09 | 联想(北京)有限公司 | 一种电子设备的控制方法及电子设备 |
WO2014199596A1 (ja) * | 2013-06-10 | 2014-12-18 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 話者識別方法、話者識別装置及び話者識別システム |
JP2016504638A (ja) * | 2012-09-28 | 2016-02-12 | ロブ フジオカRobb Fujioka | タブレットコンピュータ |
CN106454515A (zh) * | 2016-10-31 | 2017-02-22 | 四川长虹电器股份有限公司 | 智能电视播放控制系统及方法 |
JP2017108767A (ja) * | 2015-12-14 | 2017-06-22 | カシオ計算機株式会社 | 対話装置、ロボット、対話方法及びプログラム |
JP2017123529A (ja) * | 2016-01-06 | 2017-07-13 | 日立マクセル株式会社 | 表示装置および表示システムならびに表示方法 |
JP2017126216A (ja) * | 2016-01-14 | 2017-07-20 | 株式会社ナビタイムジャパン | アプリケーション・プログラム、情報処理装置、及び情報処理方法 |
CN107623614A (zh) * | 2017-09-19 | 2018-01-23 | 百度在线网络技术(北京)有限公司 | 用于推送信息的方法和装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2493613C2 (ru) * | 2008-08-22 | 2013-09-20 | Сони Корпорейшн | Устройство воспроизведения изображений и способ управления |
US9100694B1 (en) * | 2013-03-14 | 2015-08-04 | Google Inc. | TV mode change in accordance with number of viewers present |
CN104065989B (zh) * | 2013-03-21 | 2018-07-06 | 国民技术股份有限公司 | 播放终端及其语音控制方法 |
CN104008320A (zh) * | 2014-05-19 | 2014-08-27 | 惠州Tcl移动通信有限公司 | 基于人脸识别的使用权限和用户模式控制方法及系统 |
CN106156575A (zh) * | 2015-04-16 | 2016-11-23 | 中兴通讯股份有限公司 | 一种用户界面控制方法及终端 |
CN105791935A (zh) * | 2016-05-03 | 2016-07-20 | 乐视控股(北京)有限公司 | 一种电视的控制方法及装置 |
CN105959806A (zh) * | 2016-05-25 | 2016-09-21 | 乐视控股(北京)有限公司 | 节目推荐方法及装置 |
CN106128467A (zh) * | 2016-06-06 | 2016-11-16 | 北京云知声信息技术有限公司 | 语音处理方法及装置 |
-
2018
- 2018-06-08 CN CN201810589033.2A patent/CN108882032A/zh active Pending
-
2019
- 2019-03-11 US US16/298,714 patent/US20190378494A1/en not_active Abandoned
- 2019-03-14 JP JP2019047123A patent/JP2019212288A/ja active Pending
Patent Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001142481A (ja) * | 1999-08-26 | 2001-05-25 | Matsushita Electric Ind Co Ltd | 音声/ビデオ装置用の制御システム及び音声/ビデオ構成を制御するための統合アクセスシステム |
JP2001083991A (ja) * | 1999-09-16 | 2001-03-30 | Denso Corp | ユーザインタフェース装置、ナビゲーションシステム、情報処理装置及び記録媒体 |
JP2008503113A (ja) * | 2004-04-26 | 2008-01-31 | 松下電器産業株式会社 | ホームネットワークに接続された装置の使用の親による監視および制御の方法 |
JP2006238391A (ja) * | 2005-02-28 | 2006-09-07 | Funai Electric Co Ltd | リモコン装置 |
JP2007048288A (ja) * | 2005-08-10 | 2007-02-22 | Samsung Electronics Co Ltd | モード基盤の接近制御方法及び装置 |
JP2009139390A (ja) * | 2007-12-03 | 2009-06-25 | Nec Corp | 情報処理システム、処理方法及びプログラム |
US20110060592A1 (en) * | 2009-09-10 | 2011-03-10 | Kang Byung Ok | Iptv system and service method using voice interface |
JP2011248002A (ja) * | 2010-05-25 | 2011-12-08 | Fujitsu Toshiba Mobile Communications Ltd | 翻訳装置 |
JP2013152610A (ja) * | 2012-01-25 | 2013-08-08 | Mitsubishi Motors Corp | 車両情報提示装置 |
JP2016504638A (ja) * | 2012-09-28 | 2016-02-12 | ロブ フジオカRobb Fujioka | タブレットコンピュータ |
WO2014083669A1 (ja) * | 2012-11-30 | 2014-06-05 | 日立マクセル株式会社 | 映像表示装置、及びその設定変更方法、設定変更プログラム |
CN103914127A (zh) * | 2012-12-31 | 2014-07-09 | 联想(北京)有限公司 | 一种电子设备的控制方法及电子设备 |
WO2014199596A1 (ja) * | 2013-06-10 | 2014-12-18 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 話者識別方法、話者識別装置及び話者識別システム |
JP2017108767A (ja) * | 2015-12-14 | 2017-06-22 | カシオ計算機株式会社 | 対話装置、ロボット、対話方法及びプログラム |
JP2017123529A (ja) * | 2016-01-06 | 2017-07-13 | 日立マクセル株式会社 | 表示装置および表示システムならびに表示方法 |
JP2017126216A (ja) * | 2016-01-14 | 2017-07-20 | 株式会社ナビタイムジャパン | アプリケーション・プログラム、情報処理装置、及び情報処理方法 |
CN106454515A (zh) * | 2016-10-31 | 2017-02-22 | 四川长虹电器股份有限公司 | 智能电视播放控制系统及方法 |
CN107623614A (zh) * | 2017-09-19 | 2018-01-23 | 百度在线网络技术(北京)有限公司 | 用于推送信息的方法和装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021174518A (ja) * | 2020-04-28 | 2021-11-01 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | スマート音声機器の制御方法、装置、電子機器及び記憶媒体 |
JP7135063B2 (ja) | 2020-04-28 | 2022-09-12 | バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド | スマート音声機器の制御方法、装置、電子機器及び記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
CN108882032A (zh) | 2018-11-23 |
US20190378494A1 (en) | 2019-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019212288A (ja) | 情報を出力するための方法、及び装置 | |
JP6855527B2 (ja) | 情報を出力するための方法、及び装置 | |
US20200126566A1 (en) | Method and apparatus for voice interaction | |
CN111415677B (zh) | 用于生成视频的方法、装置、设备和介质 | |
CN111930992B (zh) | 神经网络训练方法、装置及电子设备 | |
US11475897B2 (en) | Method and apparatus for response using voice matching user category | |
US20200043502A1 (en) | Information processing method and device, multimedia device and storage medium | |
JP2020004381A (ja) | 情報プッシュ方法及び装置 | |
CN112102846B (zh) | 音频处理方法、装置、电子设备以及存储介质 | |
CN112185389A (zh) | 语音生成方法、装置、存储介质和电子设备 | |
CN113205793B (zh) | 音频生成方法、装置、存储介质及电子设备 | |
CN112989108A (zh) | 基于人工智能的语种检测方法、装置及电子设备 | |
CN113555032B (zh) | 多说话人场景识别及网络训练方法、装置 | |
CN111640434A (zh) | 用于控制语音设备的方法和装置 | |
CN108322770A (zh) | 视频节目识别方法、相关装置、设备和系统 | |
CN113707183A (zh) | 一种视频中的音频处理方法及装置 | |
CN112580669A (zh) | 一种对语音信息的训练方法及装置 | |
CN111654752A (zh) | 多媒体信息播放方法、装置及相关设备 | |
US20220015687A1 (en) | Method for Screening Psychiatric Disorder Based On Conversation and Apparatus Therefor | |
CN111755015B (zh) | 一种用户画像构建方法及装置 | |
CN114495903A (zh) | 一种语言类别识别方法、装置、电子设备和存储介质 | |
Folorunso et al. | Laughter signature, a new approach to gender recognition | |
CN112863476A (zh) | 个性化语音合成模型构建、语音合成和测试方法及装置 | |
CN117649846B (zh) | 语音识别模型生成方法、语音识别方法、设备和介质 | |
US20240119930A1 (en) | Artificial intelligence device and operating method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190509 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200804 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201030 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210309 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20210531 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210609 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210806 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20210806 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20210806 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220125 |