JP6799574B2 - 音声対話の満足度の確定方法及び装置 - Google Patents
音声対話の満足度の確定方法及び装置 Download PDFInfo
- Publication number
- JP6799574B2 JP6799574B2 JP2018225189A JP2018225189A JP6799574B2 JP 6799574 B2 JP6799574 B2 JP 6799574B2 JP 2018225189 A JP2018225189 A JP 2018225189A JP 2018225189 A JP2018225189 A JP 2018225189A JP 6799574 B2 JP6799574 B2 JP 6799574B2
- Authority
- JP
- Japan
- Prior art keywords
- evaluation
- data
- objective
- satisfaction
- subjective
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 78
- 238000011156 evaluation Methods 0.000 claims description 264
- 230000004044 response Effects 0.000 claims description 111
- 238000013210 evaluation model Methods 0.000 claims description 77
- 230000036651 mood Effects 0.000 claims description 58
- 238000012545 processing Methods 0.000 claims description 50
- 230000002996 emotional effect Effects 0.000 claims description 30
- 238000012549 training Methods 0.000 claims description 27
- 238000004458 analytical method Methods 0.000 claims description 13
- 230000007935 neutral effect Effects 0.000 claims description 9
- 238000012790 confirmation Methods 0.000 claims description 6
- 230000003993 interaction Effects 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims 2
- 238000013461 design Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 230000008451 emotion Effects 0.000 description 4
- 238000012854 evaluation process Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000003672 processing method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012731 temporal analysis Methods 0.000 description 1
- 238000000700 time series analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2193—Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Acoustics & Sound (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Description
Claims (17)
- コンピュータにより実施される音声対話の満足度の確定方法であって、
音声対話の客観データと音声対話の主観データとが含まれる音声対話特徴を取得するステップであって、前記音声対話の客観データと音声対話の主観データは、同一の主題に対するデータである、ステップと、
前記客観データに対して評価処理を行って客観評価を取得し、前記主観データに対して評価処理を行って主観評価を取得するステップと、
前記客観評価と前記主観評価とを満足度評価モデルの入力として、前記満足度評価モデルから出力される音声対話の満足度を取得するステップと、を含み、
前記音声対話の客観データには、ユーザ意図と応答内容、応答遅延、及び応答内容の現在再生時間が含まれ、
前記音声対話の主観データには、応答内容の再生が中断された後のユーザによる音声入力に対応するテキスト情報が含まれる、ことを特徴とする方法。 - 前記客観データに対して評価処理を行って客観評価を取得するステップは、
前記ユーザ意図と前記応答内容との意図マッチ度に基づいて、第一客観評価を取得するステップと、
前記応答遅延と標準遅延に基づいて、第二客観評価を取得するステップと、
前記応答内容の現在再生時間と前記応答内容の標準再生時間に基づいて、第三客観評価を取得するステップと、を含み、
前記客観評価と前記主観評価とを満足度評価モデルの入力として、前記満足度評価モデルから出力される音声対話の満足度を取得するステップは、
前記第一客観評価、前記第二客観評価、前記第三客観評価及び前記主観評価を満足度評価モデルの入力として、前記満足度評価モデルから出力される音声対話の満足度を取得するステップを含むことを特徴とする請求項1に記載の方法。 - 前記主観データに対して評価処理を行って主観評価を取得するステップは、
前記テキスト情報に対して語義解析を行って、前記テキスト情報に対応する、感情属性又は主題属性である内容属性を取得するステップと、
前記テキスト情報に対応する内容属性に基づいて主観評価を取得するステップと、を含むことを特徴とする請求項1に記載の方法。 - 前記内容属性が主題属性であれば、前記テキスト情報に対応する内容属性に基づいて主観評価を取得するステップは、
前記テキスト情報に対応する主題タイプを取得するステップと、
前記テキスト情報に対応する主題タイプがユーザ意図に対応する主題タイプと一致であれば、前記主観評価が所定の評価値よりも低いと確定するステップと、を含むことを特徴とする請求項3に記載の方法。 - 前記内容属性が感情属性であれば、前記テキスト情報に対応する内容属性に基づいて主観評価を取得するステップは、
前記テキスト情報における感情キーワードを抽出するステップと、
前記感情キーワードと気分タイプとの対応関係に基づいて、積極的な気分と、消極的な気分と、中性的な気分とからなる群のうちいずれかの気分タイプを取得するステップと、
前記気分タイプと所定の評価との対応関係に基づいて主観評価を取得するステップと、を含むことを特徴とする請求項3に記載の方法。 - 音声対話特徴を取得するステップは、
直前の時間帯における第二ログデータ及び直後の時間帯における第三ログデータとの時間間隔が所定の閾値よりも大きい第一ログデータを取得するステップと、
前記第一ログデータから、ユーザによる二回の隣接する音声入力のそれぞれに対応する主題を取得するステップと、
二回の隣接する音声入力のそれぞれに対応する主題に基づいて、前記音声対話特徴を取得するステップと、を含むことを特徴とする請求項1に記載の方法。 - 前記方法は、前記客観評価と前記主観評価とを満足度評価モデルの入力として、前記満足度評価モデルから出力される音声対話の満足度を取得するステップの前に、更に
客観的なサンプルデータに対して評価処理を行って得られた第一サンプル評価と、主観的なサンプルデータに対して評価処理を行って得られた第二サンプル評価と、ユーザから入力された満足度とが含まれるトレーニングサンプルセットを取得するステップであって、前記客観的なサンプルデータと前記主観的なサンプルデータは、同一の主題に対するデータである、ステップと、
前記トレーニングサンプルセットに基づいて、イテレーショントレーニングにより前記満足度評価モデルを取得するステップと、を含むことを特徴とする請求項1〜6の何れか一つに記載の方法。 - 音声対話の満足度の確定装置であって、
音声対話の客観データと音声対話の主観データとが含まれる音声対話特徴を取得する取得モジュールであって、前記音声対話の客観データと音声対話の主観データは、同一の主題に対するデータである、取得モジュールと、
前記客観データに対して評価処理を行って客観評価を取得し、前記主観データに対して評価処理を行って主観評価を取得する処理モジュールと、
前記客観評価と前記主観評価とを満足度評価モデルの入力として、前記満足度評価モデルから出力される音声対話の満足度を取得する確定モジュールと、を備え、
前記音声対話の客観データには、ユーザ意図と応答内容、応答遅延、及び応答内容の現在再生時間とが含まれ、
前記音声対話の主観データには、応答内容の再生が中断された後のユーザによる音声入力に対応するテキスト情報、或いは応答内容の再生が終了された後のユーザにより入力されたテキスト情報が含まれる、ことを特徴とする装置。 - 前記処理モジュールは、具体的に、
前記ユーザ意図と前記応答内容との意図のマッチ度に基づいて、第一客観評価を取得し、
前記応答遅延と標準遅延に基づいて、第二客観評価を取得し、
前記応答内容の現在再生時間と前記応答内容の標準再生時間に基づいて、第三客観評価を取得するように構成され、
前記確定モジュールは、具体的に、
前記第一客観評価、前記第二客観評価、前記第三客観評価及び前記主観評価を満足度評価モデルの入力として、前記満足度評価モデルから出力される音声対話の満足度を取得するように構成されている、ことを特徴とする請求項8に記載の装置。 - 前記処理モジュールは、具体的に、
前記テキスト情報に対して語義解析を行って前記テキスト情報に対応する、感情属性又は主題属性である内容属性を取得し、
前記テキスト情報に対応する内容属性に基づいて主観評価を取得するように構成されている、ことを特徴とする請求項8に記載の装置。 - 前記内容属性が主題属性である場合に、前記処理モジュールは、具体的に、
前記テキスト情報に対応する主題タイプを取得し、
前記テキスト情報に対応する主題タイプがユーザ意図に対応する主題タイプと一致であれば、前記主観評価が所定の評価値よりも低いと確定するように構成されている、ことを特徴とする請求項10に記載の装置。 - 前記内容属性が感情属性である場合に、前記処理モジュールは、具体的に、
前記テキスト情報における感情キーワードを抽出し、
前記感情キーワードと気分タイプとの対応関係に基づいて、積極的な気分と、消極的な気分と、中性的な気分とからなる群のうちいずれかの気分タイプを取得し、
前記気分タイプと所定の評価との対応関係に基づいて主観評価を取得するように構成されている、ことを特徴とする請求項10に記載の装置。 - 前記取得モジュールは、具体的に、
直前の時間帯における第二ログデータ及び直後の時間帯における第三ログデータとの時間間隔が所定の閾値よりも大きい第一ログデータを取得し、
前記第一ログデータから、ユーザによる二回の隣接する音声入力のそれぞれに対応する主題を取得し、
二回の隣接する音声入力のそれぞれに対応する主題に基づいて、前記音声対話特徴を取得するように構成されている、ことを特徴とする請求項8に記載の装置。 - 前記装置は、トレーニングモジュールを更に備え、当該トレーニングモジュールは、前記客観評価と前記主観評価とを満足度評価モデルの入力として前記満足度評価モデルから出力される音声対話の満足度を取得する前に、
客観的なサンプルデータに対して評価処理を行って得られた第一サンプル評価と、主観的なサンプルデータに対して評価処理を行って得られた第二サンプル評価と、ユーザから入力された満足度とが含まれるトレーニングサンプルセットを取得し、前記客観的なサンプルデータと前記主観的なサンプルデータとは同一の主題に対するデータであり、
前記トレーニングサンプルセットに基づいて、イテレーショントレーニングにより前記満足度評価モデルを得るように構成されている、ことを特徴とする請求項8〜13の何れか一つに記載の装置。 - 音声対話の満足度の確定装置であって、
少なくとも一つのプロセッサとメモリとを備え、
前記メモリにコンピュータにより実行可能な指令が記憶されており、
前記少なくとも一つのプロセッサは、前記メモリに記憶されているコンピュータにより実行可能な指令を実行することにより、前記少なくとも一つのプロセッサに請求項1〜7の何れか一つに記載の音声対話の満足度の確定方法を実行させる、ことを特徴とする装置。 - コンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ読み取り可能な記憶媒体にコンピュータに実行可能な指令が記憶されており、
前記コンピュータに実行可能な指令がプロセッサにより実行されると、請求項1〜7の何れか一つに記載の音声対話の満足度の確定方法を実現させる、ことを特徴とする記憶媒体。 - コンピュータプログラムであって、
プロセッサにより実行されると、請求項1〜7の何れか一つに記載の方法を実現させるコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810215597.X | 2018-03-15 | ||
CN201810215597.XA CN108388926B (zh) | 2018-03-15 | 2018-03-15 | 语音交互满意度的确定方法及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019159309A JP2019159309A (ja) | 2019-09-19 |
JP6799574B2 true JP6799574B2 (ja) | 2020-12-16 |
Family
ID=63067855
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018225189A Active JP6799574B2 (ja) | 2018-03-15 | 2018-11-30 | 音声対話の満足度の確定方法及び装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10950234B2 (ja) |
JP (1) | JP6799574B2 (ja) |
CN (1) | CN108388926B (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108962281B (zh) * | 2018-08-15 | 2021-05-07 | 三星电子(中国)研发中心 | 一种语言表达的评价和辅助方法及装置 |
CN111199728A (zh) * | 2018-10-31 | 2020-05-26 | 阿里巴巴集团控股有限公司 | 训练数据获取方法及装置和智能音箱、智能电视 |
CN109545185B (zh) * | 2018-11-12 | 2022-03-18 | 百度在线网络技术(北京)有限公司 | 交互系统评价方法、评价系统、服务器及计算机可读介质 |
CN111523914B (zh) * | 2019-01-17 | 2023-05-02 | 阿里巴巴集团控股有限公司 | 用户满意度的评测方法、装置、系统和数据显示平台 |
CN109961804B (zh) * | 2019-02-12 | 2021-11-02 | 百度在线网络技术(北京)有限公司 | 智能设备满意度评估方法、装置及存储介质 |
CN111985751B (zh) * | 2019-05-23 | 2023-09-26 | 百度在线网络技术(北京)有限公司 | 人机聊天体验评估体系 |
CN110347248B (zh) * | 2019-06-24 | 2023-01-24 | 歌尔科技有限公司 | 交互处理方法、装置、设备及音频设备 |
CN112511324B (zh) * | 2019-09-16 | 2023-03-31 | 中国移动通信集团河北有限公司 | 基于大数据的用户满意度评估方法及装置 |
CN110689903B (zh) * | 2019-09-24 | 2022-05-13 | 百度在线网络技术(北京)有限公司 | 智能音箱的评测方法、装置、设备和介质 |
CN111128355B (zh) * | 2019-12-20 | 2024-04-26 | 创业慧康科技股份有限公司 | 一种目标事件评估方法及装置 |
CN111199205B (zh) * | 2019-12-30 | 2023-10-31 | 科大讯飞股份有限公司 | 车载语音交互体验评估方法、装置、设备及存储介质 |
CN111240478B (zh) * | 2020-01-07 | 2023-10-13 | 百度在线网络技术(北京)有限公司 | 设备响应的评测方法、装置、设备及存储介质 |
CN111666396B (zh) * | 2020-06-05 | 2023-10-31 | 北京百度网讯科技有限公司 | 用户意图理解满意度评估方法、装置、设备和存储介质 |
CN111724782B (zh) * | 2020-06-18 | 2022-09-13 | 中汽院智能网联科技有限公司 | 一种车载语音交互系统的响应时间测试系统、方法及设备 |
CN112562641B (zh) * | 2020-12-02 | 2023-09-29 | 北京百度网讯科技有限公司 | 语音交互满意度的评估方法、装置、设备和存储介质 |
CN112463108B (zh) * | 2020-12-14 | 2023-03-31 | 美的集团股份有限公司 | 语音交互处理方法、装置、电子设备及存储介质 |
CN112837693A (zh) * | 2021-01-29 | 2021-05-25 | 上海钧正网络科技有限公司 | 一种用户体验倾向识别方法、装置、设备和可读存储介质 |
CN113053388B (zh) * | 2021-03-09 | 2023-08-01 | 北京百度网讯科技有限公司 | 语音交互方法、装置、设备和存储介质 |
CN113282475B (zh) * | 2021-06-02 | 2022-12-06 | 青岛海尔科技有限公司 | 用于评价交互系统交互性能的方法和装置 |
CN113687744B (zh) * | 2021-08-19 | 2022-01-18 | 北京智精灵科技有限公司 | 一种用于情绪调节的人机交互设备 |
CN113808621A (zh) * | 2021-09-13 | 2021-12-17 | 地平线(上海)人工智能技术有限公司 | 在人机交互中对语音对话进行标注的方法和装置、设备和介质 |
CN117057459A (zh) * | 2023-07-28 | 2023-11-14 | 中移互联网有限公司 | 用户满意度预测模型的训练方法、装置、电子设备及介质 |
CN117216228B (zh) * | 2023-11-08 | 2024-02-02 | 好心情健康产业集团有限公司 | 一种心理陪伴机器人及其交互方法 |
CN117877527A (zh) * | 2024-02-21 | 2024-04-12 | 国能宁夏供热有限公司 | 一种基于通信设备的语音质量分析技术及分析方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7640164B2 (en) * | 2002-07-04 | 2009-12-29 | Denso Corporation | System for performing interactive dialog |
JP6429706B2 (ja) * | 2015-03-31 | 2018-11-28 | 株式会社デンソーアイティーラボラトリ | 音声対話装置、音声対話方法及びプログラム |
CN105654250A (zh) * | 2016-02-01 | 2016-06-08 | 百度在线网络技术(北京)有限公司 | 一种满意度自动测评的方法和装置 |
JP6719739B2 (ja) * | 2016-05-20 | 2020-07-08 | 日本電信電話株式会社 | 対話方法、対話システム、対話装置、及びプログラム |
CN107767881B (zh) * | 2016-08-15 | 2020-08-18 | 中国移动通信有限公司研究院 | 一种语音信息的满意度的获取方法和装置 |
CN107220353B (zh) * | 2017-06-01 | 2020-03-24 | 深圳追一科技有限公司 | 一种智能客服机器人满意度自动评价方法及系统 |
US10394957B2 (en) * | 2017-09-25 | 2019-08-27 | Microsoft Technology Licensing, Llc | Signal analysis in a conversational scheduling assistant computing system |
JP6805112B2 (ja) * | 2017-11-08 | 2020-12-23 | 株式会社東芝 | 対話システム、対話方法および対話プログラム |
-
2018
- 2018-03-15 CN CN201810215597.XA patent/CN108388926B/zh active Active
- 2018-11-30 JP JP2018225189A patent/JP6799574B2/ja active Active
-
2019
- 2019-03-07 US US16/295,915 patent/US10950234B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN108388926B (zh) | 2019-07-30 |
US20190287524A1 (en) | 2019-09-19 |
US10950234B2 (en) | 2021-03-16 |
CN108388926A (zh) | 2018-08-10 |
JP2019159309A (ja) | 2019-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6799574B2 (ja) | 音声対話の満足度の確定方法及び装置 | |
CN107818781B (zh) | 智能交互方法、设备及存储介质 | |
CN111177569B (zh) | 基于人工智能的推荐处理方法、装置及设备 | |
US11302337B2 (en) | Voiceprint recognition method and apparatus | |
CN107797984B (zh) | 智能交互方法、设备及存储介质 | |
CN112346567B (zh) | 基于ai的虚拟交互模型生成方法、装置及计算机设备 | |
CN109360550B (zh) | 语音交互系统的测试方法、装置、设备和存储介质 | |
CN106534548B (zh) | 语音纠错方法和装置 | |
CN106649825B (zh) | 语音交互系统及其创建方法和装置 | |
US10803850B2 (en) | Voice generation with predetermined emotion type | |
US8972265B1 (en) | Multiple voices in audio content | |
CN111625632A (zh) | 一种问答对推荐方法、装置、设备及存储介质 | |
JP6677419B2 (ja) | 音声対話方法及び装置 | |
CN109545185B (zh) | 交互系统评价方法、评价系统、服务器及计算机可读介质 | |
CN109119069B (zh) | 特定人群识别方法、电子装置及计算机可读存储介质 | |
CN111161739A (zh) | 语音识别方法及相关产品 | |
CN109801349B (zh) | 一种声音驱动的三维动画角色实时表情生成方法和系统 | |
CN109389427A (zh) | 问卷推送方法、装置、计算机设备和存储介质 | |
CN112163067A (zh) | 一种语句答复方法、语句答复装置及电子设备 | |
CN109615009B (zh) | 一种学习内容推荐方法及电子设备 | |
CN109859747A (zh) | 语音交互方法、设备以及存储介质 | |
CN111553138A (zh) | 用于规范内容结构文档的辅助写作方法及装置 | |
CN110222282A (zh) | 数据处理方法、装置、服务器及存储介质 | |
CN111310453A (zh) | 一种基于深度学习的用户主题向量化表示方法和系统 | |
CN113971581A (zh) | 一种机器人的控制方法、装置、终端设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181130 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200728 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200729 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201120 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6799574 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313114 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |