JP2022091933A - 音声応答速度確定方法、装置、コンピュータ読み取り可能な記憶媒体及びコンピュータプログラム - Google Patents
音声応答速度確定方法、装置、コンピュータ読み取り可能な記憶媒体及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2022091933A JP2022091933A JP2022059733A JP2022059733A JP2022091933A JP 2022091933 A JP2022091933 A JP 2022091933A JP 2022059733 A JP2022059733 A JP 2022059733A JP 2022059733 A JP2022059733 A JP 2022059733A JP 2022091933 A JP2022091933 A JP 2022091933A
- Authority
- JP
- Japan
- Prior art keywords
- instruction information
- voice
- response speed
- voice instruction
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004044 response Effects 0.000 title claims abstract description 129
- 238000000034 method Methods 0.000 title claims abstract description 71
- 238000004590 computer program Methods 0.000 title claims abstract description 13
- 238000012360 testing method Methods 0.000 claims abstract description 92
- 230000003993 interaction Effects 0.000 claims abstract description 74
- 230000009471 action Effects 0.000 claims abstract description 66
- 238000012790 confirmation Methods 0.000 claims description 30
- 230000005236 sound signal Effects 0.000 claims description 22
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000004891 communication Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 9
- 238000012795 verification Methods 0.000 description 9
- 238000004458 analytical method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000003672 processing method Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 239000003054 catalyst Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/01—Assessment or evaluation of speech recognition systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
完全なデータストリームから音声信号を抽出することと、
音声信号の実際の複雑さが事前設定された複雑さを超えたことに応答して、音声信号を入力して、クラウドサーバ上に構成された事前訓練済みのセマンティック認識モデルを呼び出すことであって、当該セマンティック認識モデルは音声信号とセマンティック情報との間の対応関係を表現するためのものであることと、
セマンティック認識モデルによって返される実際セマンティック情報を受信することとを含む。
上記各実施例とは異なり、本実施例は、主に複数のテストオーディオファイルが存在する状況をオブジェクトとし、各テストオーディオファイルそれぞれの音声応答速度を個別に取得することで平均値を算出し、最終的に平均値をより正確な目標音声応答速度とする。
音声指示情報によって指示されるアクションの実行オブジェクトを確定し、実行オブジェクトはローカルオブジェクトと非ローカルオブジェクトを含み、
実行オブジェクトが非ローカルオブジェクトであることに応答して、音声指示情報を転送非ローカルオブジェクトに転送し、
非ローカルオブジェクトが音声指示情報によって指示されるアクションを実行するように制御し、非ローカルオブジェクトが指示されるアクションを実行するタイムスタンプを返すように制御し、
タイムスタンプによって記録された時刻をインタラクション終了時刻として確定するように配置される。
音声指示情報及び/又は音声指示情報によって指示されるアクションをブロードキャストするように配置されるブロードキャストユニットと、
ブロードキャストコンテンツに対するエラーフィードバックを受信したことに応答して、エラーフィードバックに対応する音声指示情報及び/又は音声指示情報によって指示されるアクションにエラーマークを付くように配置されるエラーマークユニットと
エラーマークが付かれた情報又は指示されるフォローアップアクションの実行を終了するように配置されるフォローアップアクション実行終了ユニットとをさらに含んでもよい。
完全なデータストリームにおける音声信号をセマンティック認識し、実際セマンティック情報を取得するように配置されるセマンティック認識モジュールと、
実際セマンティック情報に対応する音声指示情報を確定するように配置される音声指示情報確定モジュールとを含んでもよい。
完全なデータストリームから音声信号を抽出し、
音声信号の実際の複雑さが事前設定された複雑さを超えたことに応答して、音声信号を入力して、クラウドサーバ上に構成された事前訓練済みのセマンティック認識モデルを呼び出し、セマンティック認識モデルは音声信号とセマンティック情報との間の対応関係を表現するためのものであり、
セマンティック認識モデルによって返される実際セマンティック情報を受信するように配置されてもよい。
各テストオーディオファイルのそれぞれの音声応答速度に基づいて、音声応答速度平均値を算出するように配置される平均値計算ユニットと、
音声応答速度平均値を目標音声応答速度として確定するように配置される目標音声応答速度確定ユニットとをさらに含んでもよい。
テストオーディオファイルを構成するデータストリームを読み取る前に、音声指示情報を含むテストオーディオファイルを取得するように配置されるテストオーディオファイル取得ユニットを更に含んでもよい。
Claims (17)
- テストオーディオファイルを構成するデータストリームを読み取り、完全なデータストリームが読み取られる時刻をインタラクション開始時刻として確定することと、
前記完全なデータストリームに含まれる音声指示情報を確定し、前記音声指示情報によって指示されるアクションの実行時刻をインタラクション終了時刻として確定することと、
前記インタラクション開始時刻及びインタラクション終了時刻に基づいて音声応答速度を確定することとを含む音声応答速度確定方法。 - 前記音声指示情報によって指示されるアクションの実行時刻をインタラクション終了時刻として確定することは、
前記音声指示情報によって指示されるアクションの実行オブジェクトを確定することであって、前記実行オブジェクトはローカルオブジェクトと非ローカルオブジェクトを含むことと、
前記実行オブジェクトが前記非ローカルオブジェクトであることに応答して、前記音声指示情報を前記非ローカルオブジェクトに転送することと、
前記非ローカルオブジェクトが前記音声指示情報によって指示されるアクションを実行するように制御し、前記非ローカルオブジェクトが前記指示されるアクションを実行するタイムスタンプを返すように制御することと、
前記タイムスタンプによって記録された時刻を前記インタラクション終了時刻として確定することとを含む請求項1に記載の方法。 - 前記音声指示情報及び/又は前記音声指示情報によって指示されるアクションをブロードキャストすることと、
ブロードキャストコンテンツに対するエラーフィードバックを受信したことに応答して、前記エラーフィードバックに対応する音声指示情報及び/又は音声指示情報によって指示されるアクションにエラーマークを付くことと、
前記エラーマークが付かれた情報又は指示されるフォローアップアクションの実行を終了することとをさらに含む請求項1に記載の方法。 - 前記完全なデータストリームに含まれる音声指示情報を確定することは、
前記完全なデータストリームにおける音声信号をセマンティック認識し、実際セマンティック情報を取得することと、
前記実際セマンティック情報に対応する音声指示情報を確定することとを含む請求項1に記載の方法。 - 前記完全なデータストリームにおける音声信号をセマンティック認識し、実際セマンティック情報を取得することとは、
前記完全なデータストリームから前記音声信号を抽出することと、
前記音声信号の実際の複雑さが事前設定された複雑さを超えたことに応答して、前記音声信号を入力して、クラウドサーバ上に構成された事前訓練済みのセマンティック認識モデルを呼び出すことであって、前記セマンティック認識モデルは音声信号とセマンティック情報との間の対応関係を表現するためのものであることと、
前記セマンティック認識モデルによって返される実際セマンティック情報を受信することとを含む請求項4に記載の方法。 - 複数の前記テストオーディオファイルが存在することに応答して、
各前記テストオーディオファイルのそれぞれの音声応答速度に基づいて、音声応答速度平均値を算出することと、
前記音声応答速度平均値を目標音声応答速度として確定することとをさらに含む請求項1に記載の方法。 - テストオーディオファイルを構成するデータストリームを読み取る前に、
前記音声指示情報を含むテストオーディオファイルを取得することをさらに含む請求項1-6のいずれか1項に記載の方法。 - テストオーディオファイルを構成するデータストリームを読み取り、完全なデータストリームが読み取られる時刻をインタラクション開始時刻として確定するように配置されるデータストリーム読み取り/開始時刻確定ユニットと、
前記完全なデータストリームに含まれる音声指示情報を確定し、前記音声指示情報によって指示されるアクションの実行時刻をインタラクション終了時刻として確定するように配置される指示情報確定/終了時刻確定ユニットと、
前記インタラクション開始時刻及びインタラクション終了時刻に基づいて音声応答速度を確定するように配置される音声応答速度確定ユニットとを含む音声応答速度確定装置。 - 前記指示情報確定/終了時刻確定ユニットは、前記音声指示情報によって指示されるアクションの実行時刻をインタラクション終了時刻として確定するように配置される終了時刻確定サブユニットを含み、前記終了時刻確定サブユニットは、さらに、
前記音声指示情報によって指示されるアクションの実行オブジェクトを確定し、前記実行オブジェクトはローカルオブジェクトと非ローカルオブジェクトを含み、
前記実行オブジェクトが前記非ローカルオブジェクトであることに応答して、前記音声指示情報を前記非ローカルオブジェクトに転送し、
前記非ローカルオブジェクトが前記音声指示情報によって指示されるアクションを実行するように制御し、前記非ローカルオブジェクトが前記指示されるアクションを実行するタイムスタンプを返すように制御し、
前記タイムスタンプによって記録された時刻を前記インタラクション終了時刻として確定するように配置される請求項8に記載の装置。 - 前記音声指示情報及び/又は前記音声指示情報によって指示されるアクションをブロードキャストするように配置されるブロードキャストユニットと、
ブロードキャストコンテンツに対するエラーフィードバックを受信したことに応答して、前記エラーフィードバックに対応する音声指示情報及び/又は音声指示情報によって指示されるアクションにエラーマークを付くように配置されるエラーマークユニットと、
前記エラーマークが付かれた情報又は指示されるフォローアップアクションの実行を終了するように配置されるフォローアップアクション実行終了ユニットとをさらに含む請求項8に記載の装置。 - 前記指示情報確定/終了時刻確定ユニットは、前記完全なデータストリームに含まれる音声指示情報を確定するように配置される指示情報確定サブユニットを含み、前記指示情報確定サブユニットは、
前記完全なデータストリームにおける音声信号をセマンティック認識し、実際セマンティック情報を取得するように配置されるセマンティック認識モジュールと、
前記実際セマンティック情報に対応する音声指示情報を確定するように配置される音声指示情報確定モジュールとを含む請求項8に記載の装置。 - 前記セマンティック認識モジュールは、さらに、
前記完全なデータストリームから前記音声信号を抽出し、
前記音声信号の実際の複雑さが事前設定された複雑さを超えたことに応答して、前記音声信号を入力し、クラウドサーバ上に構成された事前訓練済みのセマンティック認識モデルを呼び出し、前記セマンティック認識モデルは音声信号とセマンティック情報との間の対応関係を表現するためのものであり、
前記セマンティック認識モデルによって返される実際セマンティック情報を受信するように配置される請求項11に記載の装置。 - 複数の前記テストオーディオファイルが存在することに応答して、
各前記テストオーディオファイルのそれぞれの音声応答速度に基づいて、音声応答速度平均値を算出するように配置される平均値計算ユニットと、
前記音声応答速度平均値を目標音声応答速度として確定するように配置される目標音声応答速度確定ユニットとをさらに含む請求項8に記載の装置。 - テストオーディオファイルを構成するデータストリームを読み取る前に、前記音声指示情報を含むテストオーディオファイルを取得するように配置されるテストオーディオファイル取得ユニットをさらに含む請求項8-13のいずれか1項に記載の装置。
- 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されたメモリとを含み、
前記メモリは、前記少なくとも1つのプロセッサによって実行可能な命令を記憶しており、前記命令は、前記少なくとも1つのプロセッサによって実行されて、請求項1-7のいずれか1項に記載の音声応答速度確定方法を前記少なくとも1つのプロセッサに実行させる電子機器。 - 請求項1-7のいずれか1項に記載の音声応答速度確定方法をコンピュータに実行させるためのコンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体。
- プロセッサによって実行されると、請求項1-7のいずれか1項に記載の音声応答速度確定方法を実現するコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110636622.3 | 2021-06-08 | ||
CN202110636622.3A CN113380229B (zh) | 2021-06-08 | 2021-06-08 | 语音响应速度确定方法、相关装置及计算机程序产品 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022091933A true JP2022091933A (ja) | 2022-06-21 |
JP7375089B2 JP7375089B2 (ja) | 2023-11-07 |
Family
ID=77576581
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022059733A Active JP7375089B2 (ja) | 2021-06-08 | 2022-03-31 | 音声応答速度確定方法、装置、コンピュータ読み取り可能な記憶媒体及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220215839A1 (ja) |
EP (1) | EP4102498A1 (ja) |
JP (1) | JP7375089B2 (ja) |
KR (1) | KR20220056836A (ja) |
CN (1) | CN113380229B (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114973740B (zh) * | 2022-06-06 | 2023-09-12 | 北京百度网讯科技有限公司 | 语音播报时机的确定方法、装置及电子设备 |
CN115188368A (zh) * | 2022-06-30 | 2022-10-14 | 北京百度网讯科技有限公司 | 语音测试方法、装置、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002007165A (ja) * | 2000-06-20 | 2002-01-11 | Seiko Epson Corp | 音声による情報提供システムおよびその誤動作原因報知方法 |
US20130183944A1 (en) * | 2012-01-12 | 2013-07-18 | Sensory, Incorporated | Information Access and Device Control Using Mobile Phones and Audio in the Home Environment |
US9064495B1 (en) * | 2013-05-07 | 2015-06-23 | Amazon Technologies, Inc. | Measurement of user perceived latency in a cloud based speech application |
CN110417589A (zh) * | 2019-07-23 | 2019-11-05 | 徐州工程学院 | 一种车载语音云用户体验质量路测方法 |
CN111785268A (zh) * | 2020-06-30 | 2020-10-16 | 北京声智科技有限公司 | 语音交互响应速度的测试方法、装置及电子设备 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8582727B2 (en) * | 2010-04-21 | 2013-11-12 | Angel.Com | Communication of information during a call |
CN110379410A (zh) * | 2019-07-22 | 2019-10-25 | 苏州思必驰信息科技有限公司 | 语音响应速度自动分析方法及系统 |
CN110556127B (zh) * | 2019-09-24 | 2021-01-01 | 北京声智科技有限公司 | 语音识别结果的检测方法、装置、设备及介质 |
WO2021112642A1 (en) * | 2019-12-04 | 2021-06-10 | Samsung Electronics Co., Ltd. | Voice user interface |
CN112908297B (zh) * | 2020-12-22 | 2022-07-08 | 北京百度网讯科技有限公司 | 车载设备的响应速度测试方法、装置、设备及存储介质 |
-
2021
- 2021-06-08 CN CN202110636622.3A patent/CN113380229B/zh active Active
-
2022
- 2022-03-24 EP EP22164036.0A patent/EP4102498A1/en not_active Withdrawn
- 2022-03-28 US US17/706,377 patent/US20220215839A1/en active Pending
- 2022-03-31 JP JP2022059733A patent/JP7375089B2/ja active Active
- 2022-04-18 KR KR1020220047392A patent/KR20220056836A/ko not_active Application Discontinuation
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002007165A (ja) * | 2000-06-20 | 2002-01-11 | Seiko Epson Corp | 音声による情報提供システムおよびその誤動作原因報知方法 |
US20130183944A1 (en) * | 2012-01-12 | 2013-07-18 | Sensory, Incorporated | Information Access and Device Control Using Mobile Phones and Audio in the Home Environment |
US9064495B1 (en) * | 2013-05-07 | 2015-06-23 | Amazon Technologies, Inc. | Measurement of user perceived latency in a cloud based speech application |
CN110417589A (zh) * | 2019-07-23 | 2019-11-05 | 徐州工程学院 | 一种车载语音云用户体验质量路测方法 |
CN111785268A (zh) * | 2020-06-30 | 2020-10-16 | 北京声智科技有限公司 | 语音交互响应速度的测试方法、装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
KR20220056836A (ko) | 2022-05-06 |
EP4102498A1 (en) | 2022-12-14 |
US20220215839A1 (en) | 2022-07-07 |
CN113380229B (zh) | 2023-04-28 |
CN113380229A (zh) | 2021-09-10 |
JP7375089B2 (ja) | 2023-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10489112B1 (en) | Method for user training of information dialogue system | |
CN110457256A (zh) | 数据存储方法、装置、计算机设备及存储介质 | |
US11321535B2 (en) | Hierarchical annotation of dialog acts | |
CN108564966B (zh) | 语音测试的方法及其设备、具有存储功能的装置 | |
JP2022091933A (ja) | 音声応答速度確定方法、装置、コンピュータ読み取り可能な記憶媒体及びコンピュータプログラム | |
JP2019117623A (ja) | 音声対話方法、装置、デバイス及び記憶媒体 | |
CN110417641B (zh) | 一种发送会话消息的方法与设备 | |
US11457061B2 (en) | Creating a cinematic storytelling experience using network-addressable devices | |
JP6783339B2 (ja) | 音声を処理する方法及び装置 | |
CN113672748B (zh) | 多媒体信息播放方法及装置 | |
CN103514882A (zh) | 一种语音识别方法及系统 | |
JP7331044B2 (ja) | 情報処理方法、装置、システム、電子機器、記憶媒体およびコンピュータプログラム | |
WO2021227308A1 (zh) | 一种视频资源的生成方法和装置 | |
JP2020009440A (ja) | 情報を生成するための方法と装置 | |
WO2024051823A1 (zh) | 管理接待信息的方法以及后端设备 | |
CN113157240A (zh) | 语音处理方法、装置、设备、存储介质及计算机程序产品 | |
US8868419B2 (en) | Generalizing text content summary from speech content | |
JP2024073501A (ja) | キュー内で待機する呼に関する最適化 | |
CN114244821A (zh) | 数据处理方法、装置、设备、电子设备和存储介质 | |
CN112562688A (zh) | 语音转写方法、装置、录音笔和存储介质 | |
CN111401566B (zh) | 机器学习训练方法及系统 | |
CN112306560B (zh) | 用于唤醒电子设备的方法和装置 | |
CN113689854A (zh) | 语音会话方法、装置、计算机设备和存储介质 | |
CN111770236A (zh) | 一种对话处理方法、装置、系统、服务器和存储介质 | |
CN118520851A (zh) | 音频内容添加笔记的方法、装置、设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220411 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230322 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230621 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231010 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231025 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7375089 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |