JP2019211754A - ヒューマンマシンインタラクションに使用される方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体 - Google Patents

ヒューマンマシンインタラクションに使用される方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体 Download PDF

Info

Publication number
JP2019211754A
JP2019211754A JP2019043632A JP2019043632A JP2019211754A JP 2019211754 A JP2019211754 A JP 2019211754A JP 2019043632 A JP2019043632 A JP 2019043632A JP 2019043632 A JP2019043632 A JP 2019043632A JP 2019211754 A JP2019211754 A JP 2019211754A
Authority
JP
Japan
Prior art keywords
user
feedback
preset
machine interaction
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019043632A
Other languages
English (en)
Other versions
JP6810764B2 (ja
Inventor
ウェンユゥ ワン,
Wenyu Wang
ウェンユゥ ワン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Original Assignee
Baidu Online Network Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu Online Network Technology Beijing Co Ltd filed Critical Baidu Online Network Technology Beijing Co Ltd
Publication of JP2019211754A publication Critical patent/JP2019211754A/ja
Application granted granted Critical
Publication of JP6810764B2 publication Critical patent/JP6810764B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/34Adaptation of a single recogniser for parallel processing, e.g. by use of multiple processors or cloud computing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Machine Translation (AREA)

Abstract

【課題】ユーザに対し人間的コミュニケーション、交流を行い良好なユーザ体験を引き起こすことができるヒューマンマシンインタラクションに使用される方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体を提供する。【解決手段】方法は、クラウドでユーザからの音声命令に使用される単語を識別する。当該単語と、感情と、フィードバックとの間の予め設定されたマッピングに基づいて、音声命令に含まれる感情、及びユーザに提供される、感情に適応するフィードバックを決定し、当該フィードバックをユーザに提供する。【選択図】図2

Description

本開示の実施例は、一般的に、コンピュータ分野及び人工知能分野に関し、特に、ヒューマンマシンインタラクションに使用される方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体に関する。
現在、知能音声スクリーン付きインタラクション機器(例えば、スクリーン付き知能スピーカボックスなど)が使用される際に、機器の他の部品が十分に利用されていない。例えば、スクリーンは、通常、音声インタラクションの表示補助工具として、様々なタイプの情報を表示するに過ぎず、スクリーン機能を十分に発揮していない。即ち、従来の知能インタラクション機器は、通常、単一の音声インタラクションしか行っておらず、その他の部品は、ユーザとのインタラクションに参加していない。
しかしながら、このような単一のインタラクション方式は、知能ヒューマンマシンインタラクション機器による「知能化」という利点を発現しておらず、ヒューマンマシンインタラクション機器は、ユーザに対して更に人間的にコミュニケーション、交流することができず、良好なユーザ体験を引き起こすことができない。
本開示の実施例は、ヒューマンマシンインタラクションに使用される方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体に関する。
本開示の第1の態様では、ヒューマンマシンインタラクションに使用される方法を提供する。当該方法は、クラウドにおいて、ユーザからの音声命令に使用される単語を識別するステップを含む。当該方法は、単語と、感情と、フィードバックとの間の予め設定されたマッピングに基づいて、音声命令に含まれる感情、及びユーザに提供する、感情に適応するフィードバックを決定するステップを更に含む。当該方法は、フィードバックをユーザに提供するステップを更に含む。
本開示の第2の態様では、ヒューマンマシンインタラクションに使用される方法を提供する。当該方法は、クラウドにユーザからの音声命令を含むオーディオ信号を送信するステップを含む。当該方法は、クラウドから情報を受信し、当該情報は、ユーザに提供されるフィードバックを指示し、フィードバックが音声命令に含まれる感情に適応するステップを更に含む。当該方法は、ユーザにフィードバックを提供するステップを更に含む。
本開示の第3の態様では、ヒューマンマシンインタラクションのための装置を提供する。当該装置は、クラウドでユーザからの音声命令に使用される単語を識別するように構成される識別モジュールを含む。当該装置は、単語と、感情と、フィードバックとの間の予め設定されたマッピングに基づいて、音声命令に含まれる感情、及びユーザに提供する、感情に適応するフィードバックを決定するように構成される決定モジュールを更に含む。当該装置は、フィードバックをユーザに提供するように構成される提供モジュールを更に含む。
本開示の第4の態様では、ヒューマンマシンインタラクションのための装置を提供する。当該装置は、クラウドにユーザからの音声命令を含むオーディオ信号を送信するように構成される送信モジュールを含む。当該装置は、クラウドから情報を受信し、当該情報は、ユーザに提供されるフィードバックを指示し、フィードバックが音声命令に含まれる感情に適応するように構成される受信モジュールを更に含む。当該装置は、ユーザにフィードバックを提供するように構成されるフィードバックモジュールを更に含む。
本開示の第5の態様では、電子機器を提供する。当該電子機器は、一つ又は複数のプロセッサと、一つ又は複数のプログラムを記憶するための記憶装置とを含む。一つ又は複数のプログラムが一つ又は複数のプロセッサによって実行される場合、一つ又は複数のプロセッサが第1の態様に係る方法を実現する。
本開示の第6の態様では、電子機器を提供する。当該電子機器は、一つ又は複数のプロセッサと、一つ又は複数のプログラムを記憶するための記憶装置とを含む。一つ又は複数のプログラムが一つ又は複数のプロセッサによって実行される場合、一つ又は複数のプロセッサが第2の態様に係る方法を実現する。
本開示の第7の態様では、コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体を提供し、当該コンピュータプログラムが、プロセッサによって実行される場合、第1の態様に係る方法を実現する。
本開示の第8の態様では、コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体を提供し、当該コンピュータプログラムが、プロセッサによって実行される場合に、第2の態様に係る方法を実現する。
なお、発明の内容部分に説明する内容は、本開示の実施例に係るキー又は重要な特徴により限定されることは意図しておらず、本開示の範囲を制限するものではない。本開示のその他の特徴は、以下の説明により理解容易となる。
本発明の実施例の前記、及び付加的目的、特徴、及び利点は、下記図面を参照した実施形態に関する説明において、容易に理解される。図面において、本開示のいくつかの実施例は、例示的なものであり、本開示を限定するものと理解されてはならない。
本開示の一部の実施例を実現できる例示的な環境を示す模式図である。 本開示の実施例に係るヒューマンマシンインタラクションに使用される方法を示す模式的なフローチャートである。 本開示の他の実施例に係るヒューマンマシンインタラクションに使用される方法を示す模式的なフローチャートである。 本開示の実施例に係るヒューマンマシンインタラクションのための装置を示す模式的なブロック図である。 本開示の他の実施例に係るヒューマンマシンインタラクションのための装置を示す模式的なブロック図である。 本開示の実施例を実施できる機器を示す模式的なブロック図。 全ての図面において、同一又は類似の参照符号は、同一若しくは類似の部品を表す。
以下、図面に示されるいくつかの例示的な実施例を参照しながら、本開示の原理と精神を説明する。なお、これらの具体的な実施例は、以下、図面を参照しながら説明する実施形態は当業者が本開示をよく理解して実現するものに過ぎず、何らかの形態で本発明を制限するよう解釈されるべきではない。
前記のように、従来のヒューマンマシンインタラクション機器は、使用の時に、通常、単一の音声インタラクションのみを行う。しかしながら、このような単一のインタラクション方式は、知能ヒューマンマシンインタラクション機器による「知能化」という利点を発現していない。このように、ヒューマンマシンインタラクション機器は、ユーザに対してさらに人間的にコミュニケーションや、交流することを実現することができず、良好なユーザ体験を引き起こすことができず、長期間使用することによりユーザが倦怠を感じる。
従来のヒューマンマシンインタラクション機器の前記問題及びその他の潜在問題に鑑み、本開示の実施例は、ユーザ感情に基づくヒューマンマシンインタラクション形態を提供する。その要旨は、単語と、感情と、フィードバックとの間の予め設定されたマッピングを用いてユーザが音声命令で表現した感情、及び当該感情に適応する、ユーザに提出されるフィードバックを決定することにより、ユーザとの感情的なインタラクションを実現する。一部の実施例では、当該フィードバックは、例えば視覚形式、聴覚形式、触覚形式等の複数の形式を含むことができ、これにより、ユーザに「より立体的な」感情インタラクション体験を提供する。
本開示の実施例は、ヒューマンマシンインタラクション機器によるインタラクションと内容が同じであり、インタラクション方式が単調である問題を解決し、ヒューマンマシンインタラクション機器の「知能性」を提供する。ヒューマンマシンインタラクション機器は、ユーザに対して感情的なインタラクティブを行うことができ、これにより、ユーザとのヒューマンマシンインタラクションを改善する。本開示の実施例は、ユーザにより良好な使用感を提供し、ユーザ体験を向上させることができる。以下、図面を組み合わせて本開示のいくつかの実施例を説明する。
図1は、本開示の一部の実施例を実現できる例示的な環境100の模式図である。当該示例環境100において、ユーザ110は、ヒューマンマシンインタラクション機器120に音声命令115を発行してヒューマンマシンインタラクション機器120の操作を制御することができる。例えば、ヒューマンマシンインタラクション機器120が知能スピーカである場合に、音声命令115は、「ある歌を再生しなさい」であってもよい。しかしながら、ヒューマンマシンインタラクション機器120の実施例は、知能スピーカに限らず、ユーザ110が音声命令115で制御及び/又はインタラクションを行う如何なる電子機器を含んでもよいことを理解すべきである。
ヒューマンマシンインタラクション機器120は、マイク122により検出するか、又は受信ユーザ110からの音声命令115を受信することができる。一部の実施例では、マイク122は、マイクアレイとして実現してもよく、一つのマイクとして実現してもよい。ヒューマンマシンインタラクション機器120は、音声命令115に対してフロントエンドのノイズ低減処理を行うことにより、音声命令115の受信効果を改善することができる。
一部の実施例では、ユーザ110により発行された音声命令115には、感情を含んでもよい。音声命令115には、感情的色彩を有する単語、例えば「憂鬱」を含んでもよい。例えば、音声命令115は、「憂鬱な曲を1曲再生しなさい」であってもよい。ヒューマンマシンインタラクション機器120は、音声命令115に含まれる感情を検出又は決定し、当該感情を利用してユーザに対して感情のインタラクションを行うことができる。
具体的に、ヒューマンマシンインタラクション機器120は、音声命令115に使用される単語、例えば「憂鬱」を識別し、その後、単語と、感情と、フィードバックとの間のマッピング関係によってユーザ110の感情及びユーザ110に提供されるフィードバックを決定することができる。例えば、ヒューマンマシンインタラクション機器120は、前記マッピングによってユーザ110の感情が「陰鬱」であることを決定し、ユーザ110に提供されるフィードバックを決定することができる。例えば、当該フィードバックは、当該感情に適応するカラー、音声、ビデオ、又は温度変化等であってもよく、これにより、ユーザ110は、ヒューマンマシンインタラクション機器120とのインタラクションで、理解されたと感じる。
ユーザ110にフィードバックを提供するために、ヒューマンマシンインタラクション機器120は、ディスプレイ124を含む。ディスプレイ124は、視覚的にユーザに特定のカラーを表示してユーザ110感情インタラクションを行うためのものであってもよい。ヒューマンマシンインタラクション機器120は、スピーカ126を更に含む。スピーカ126は、聴覚的にユーザ110に音声135を再生してユーザ110に対して感情インタラクションを行うためのものであってもよい。さらに、ヒューマンマシンインタラクション機器120は、温度制御部品(図示せず)を含んでもよい。これにより、ヒューマンマシンインタラクション機器120の温度を調節して、ユーザ110がヒューマンマシンインタラクション機器120に接触すると、触覚的に温度変化を感じることができる。
一部の実施例において、音声命令115は、例えば「憂鬱な曲を1曲再生しなさい」であり、ヒューマンマシンインタラクション機器120は、ユーザ110の感情が「陰鬱」であることを分析し、ユーザ110が比較的憂鬱であり、又は機嫌が悪い可能性があることが分かる。これにより、ヒューマンマシンインタラクション機器120は、対応的に様々なフィードバックを提供することができる。一部の実施例では、ヒューマンマシンインタラクション機器120は、視覚的なフィードバックを提供することができる。例えば、ディスプレイ124で、青色を主色として背景色にするとともに、曲の歌詞などの内容を対応的に表示することができる。
その他の実施例では、ヒューマンマシンインタラクション機器120は、聴覚的なフィードバックを提供することができる。例えば、スピーカ126によりユーザ110に「機嫌が悪い時に、曲のお供をします」という音声を再生する。代替的に又は追加的に、ヒューマンマシンインタラクション機器120は、視覚及び聴覚的なフィードバックを提供することができる。例えば、ディスプレイ124及びスピーカ126によりユーザ110に内容が「陰鬱」な感情に適応するビデオを再生し、ユーザ110を慰めるか、又はユーザ110を心地よくする。
その他の実施例では、ヒューマンマシンインタラクション機器120は、触覚的なフィードバックを提供することができる。例えば、ヒューマンマシンインタラクション機器120は、ハウジングの温度を上昇させることで、ユーザ110がヒューマンマシンインタラクション機器120に接触又は接近すると、温かいと感じることができる。一部の実施例では、ヒューマンマシンインタラクション機器120は、同時に又は予め設定された順番で順次に、ユーザ110に前記の様々な異なる形式のフィードバックに提供することができる。
さらに、前記の説明のように、ユーザ110からの音声命令115での感情を識別する過程、及びヒューマンマシンインタラクション機器120が提供する相応なフィードバックを決定する過程において、プロセッサ、メモリハードウェア及び/又は適切なソフトウェア等を利用して算出する必要がある。一部の実施例では、このような算出は、クラウド130により実行され、これにより、ヒューマンマシンインタラクション機器120の算出負担を軽減することができ、ヒューマンマシンインタラクション機器120の複雑さを低減し、ヒューマンマシンインタラクション機器120のコストを低減することができる。
このような実施例では、ヒューマンマシンインタラクション機器120は、ユーザ110からの音声命令115をオーディオ信号125としてクラウド130に送信することができる。その後、ヒューマンマシンインタラクション機器120は、クラウド130から情報145を受信することができる。情報145は、ヒューマンマシンインタラクション機器120が実行すべき操作、例えばユーザ110に提供すべきフィードバックを指示することができる。続いて、ヒューマンマシンインタラクション機器120は、情報145に基づいてユーザ110に指示されたフィードバックを提供することができる。
本開示の実施例によって提供された感情に基づくヒューマンマシンインタラクション形態をより容易に理解するために、図2及び図3を参照しながら当該形態に係る操作を説明する。図2には、本開示の実施例に係るヒューマンマシンインタラクションに使用される方法200の模式的なフローチャートが示されている。一部の実施例では、方法200は、図1のクラウド130により実現することができる。検討の便宜上、その説明は、図1を組み合わせて行う。
ステップ210において、クラウド130は、ユーザ110からの音声命令115に使用される単語を識別する。一部の実施例では、音声命令115における単語を識別するために、クラウド130は、まず、音声命令115を含むオーディオ信号125を取得することができる。例えば、ヒューマンマシンインタラクション機器120は、ユーザ110からの音声命令115を検出し、その後、音声命令115を含むオーディオ信号125を生じるとともに、それをクラウド130に送信することができる。対応するように、クラウド130は、ヒューマンマシンインタラクション機器120からオーディオ信号125を受信することで、オーディオ信号125から音声命令115を取得することができる。
続いて、クラウド130は、音声命令115をテキスト情報に変換する。例えば、クラウド130は、予め訓練された深層学習モデルを用いて自動音声識別(ASR)処理を行い、音声命令115を、音声命令115を表示するテキスト情報に変換する。その後、クラウド130は、当該テキスト情報から音声命令115に使用される単語を抽出する。このように、クラウド130は、成熟したASR技術を十分に利用して音声命令115に使用される単語を識別することで、識別の正確性を向上させる。
なお、クラウド130は、ASR技術を利用して音声命令115に使用される単語を識別することは、一例に過ぎない。その他の実施例では、クラウド130は、如何なる適当な技術を利用して音声命令115に使用される単語を識別してもよい。
ステップ220において、クラウド130単語と、感情と、フィードバックとの間の予め設定されたマッピングに基づいて、音声命令115に含まれる感情及びユーザ110に提供されるフィードバックを決定し、ここで、当該フィードバックと決定された感情とは、適応する。ユーザ110の感情及びユーザ110へのフィードバックを決定する場合に、クラウド130は、予め訓練された自然言語理解(NLU)モデルに基づいて、単語と、感情と、フィードバックとの間のマッピング関係を利用して、音声命令115に含まれる感情を取得するとともに、ユーザ110に提供されるフィードバックを取得することができる。
なお、クラウド130は、NLU技術を用いて音声命令115に含まれる感情を取得するとともに、ユーザ110に提供されるフィードバックを取得することは、一例に過ぎない。その他の実施例では、クラウド130は、如何なる適当な技術を用いて単語と、感情と、フィードバックとの間の予め設定されたマッピングに基づいてユーザ110の感情及びユーザ110に提供すべきフィードバックを決定することができる。
ユーザ110に「より立体的な」感情フィードバックを提供するために、当該フィードバックは、種々な形式を含んでもよい。色彩感情理論によると、波長や色彩の異なる光情報が人の視覚器官に作用し、視覚神経を経て脳に伝わった後、思索して過去の記憶及び経験を連想することにより、一連の色彩心理的反応を形成し、これは、人の感情と色彩との間には、一定の対応関係があることを表明する。従って、ヒューマンマシンインタラクション機器120は、感情に適応する色彩を視覚的に表示することにより、ユーザ110に対して感情インタラクションを行うことができる。
類似的に、ヒューマンマシンインタラクション機器120は、聴覚方式でユーザ110に対して感情インタラクティブを行う。例えば、ユーザ110の機嫌が悪い場合に、ヒューマンマシンインタラクション機器120は、聴覚的に慰める意味を有する音声を再生することにより、ユーザ110の不良気分を和らげることができる。代替的に又は追加的に、ヒューマンマシンインタラクション機器120は、視覚及び聴覚を組み合わせてユーザ110に対して感情インタラクティブを行うことができる。例えば、ディスプレイ124及びスピーカ126によりユーザ110に、内容がユーザ110の感情に適応するビデオを再生することができる。
代替的に又は追加的に、ヒューマンマシンインタラクション機器120は、触覚でユーザ110に対して感情インタラクティブを行うことができる。例えば、ヒューマンマシンインタラクション機器120は、機器温度を上昇、又は低減させることにより、ユーザ110が暖かい又は涼しいと感じるようにすることができる。さらに、ヒューマンマシンインタラクション機器120は、同時に又は予め設定された順番で順次にユーザ110に前記の様々な異なる形式のフィードバックを提供することができる。
相応的に、クラウド130で、以下のことを決定する:ユーザ110に提供されるフィードバックは、感情に適応する予め設定されたカラーをユーザ110に表示すること、ユーザ110に感情に適応する予め設定された音声を再生すること、ユーザ110に感情に適応する予め設定されたビデオを再生すること、及び/又はユーザ110が使用しているヒューマンマシンインタラクション機器120の温度が感情に適応して変化すること、等であってもよい。
このような形態により、ユーザ110に「全方位の」、「立体的な」知能化された感情インタラクション体験を提供し、ユーザ110が理解された感じを生じるようにする。これにより、ヒューマンマシンインタラクション機器120とは、より強い絆及びそばにいる感じが生じて、ユーザの依頼性を向上させる。
一部の実施例では、単語と、感情と、フィードバックとの間の予め設定されたマッピングは、単語、感情及びフィードバックの履歴情報に基づいて訓練して取得することができる。例えば、NLU技術により、ユーザ110及び/又はその他のユーザが使用した音声命令に含まれる「愉快」、「楽しい」、「安易」、「活発」等の単語について、積極的な感情とマッピング関係を築き、「憂鬱」、「暗い」等の単語について、消極的な感情とマッピング関係を築くことができる。
他の態様では、ユーザ110及び/又はその他のユーザに対して行われたフィードバックは、感情とマッピング関係を築くことができる。視覚フィードバック(例えば色彩)を例とし、積極的な感情を若干の暖色、明るいカラーを含む一つの有限集合(例えば橙色、赤色等)にマッピングすることができる。同様に、消極的な感情を若干の寒色、暗いカラーを含む一つの有限集合(例えば青色、グレー等)にマッピングすることができる。これにより、単語、感情及びフィードバックの履歴情報に基づいて訓練し、単語と、感情と、フィードバックとの間の予め設定されたマッピングは、絶えず伸張及び/又は更新され、これにより、当該マッピングの次の使用において、より多くの感情を有する単語を識別するとともに、決定された感情の正確度を向上させることができる。
ステップ230において、クラウド130は、フィードバックをユーザ110に提供する。例えば、クラウド130は、ヒューマンマシンインタラクション機器120に情報145を送信することにより、ヒューマンマシンインタラクション機器120がフィードバックをユーザ110に提供するように制御することができる。一部の実施例では、クラウド130は、ヒューマンマシンインタラクション機器120がディスプレイ124によりユーザ110に予め設定された色彩を表示し、スピーカ126によりユーザ110に予め設定された音声を再生し、ディスプレイ124及びスピーカ126によりユーザ110に予め設定されたビデオを再生し、及び/又はヒューマンマシンインタラクション機器120の温度が変化させるように制御する。
図3には、本開示の他の実施例に係るヒューマンマシンインタラクションに使用される方法300の模式的なフローチャートを示す。一部の実施例では、方法300は、図1のヒューマンマシンインタラクション機器120により実現することができる。検討の便宜上、図1を組み合わせて方法300を説明する。
ステップ310において、ヒューマンマシンインタラクション機器120は、クラウド130にユーザ110からの音声命令115を含むオーディオ信号125を送信する。ステップ320において、ヒューマンマシンインタラクション機器120は、クラウド130から情報145を受信し、情報145は、ユーザ110に提供されるフィードバックを指示し、当該フィードバックは、音声命令115に含まれる感情に適応する。ステップ330において、ヒューマンマシンインタラクション機器120は、ユーザ110にフィードバックを提供する。
一部の実施例では、ユーザ110にフィードバックを提供する場合に、ヒューマンマシンインタラクション機器120は、予め設定されたカラーをユーザ110に表示し、予め設定された音声をユーザ110に再生し、予め設定されたビデオをユーザ110に再生し、ヒューマンマシンインタラクション機器120の温度を変化させること等ができる。
例えば、ヒューマンマシンインタラクション機器120は、ディスプレイ124の背景色を予め設定されたカラーに設置し、ユーザ110に意味が感情に適応する予め設定された音声を再生し、ユーザ110にビデオ内容が感情に適応する予め設定されたビデオを再生し、及び/又はヒューマンマシンインタラクション機器120の温度を上昇又は低減させることにより、ユーザ110が暖かい又は涼しいと感じるようにすることができる。
さらに、ユーザ110に提供されるフィードバックは、予め設定された音声135である実施例では、情報145は、ユーザ110に再生する予め設定された音声135を表示するテキスト情報を含み、ヒューマンマシンインタラクション機器120は、当該テキスト情報を予め設定された音声135に変換することができる。例えば、テキスト読み上げ(TTS)技術により当該変換を実現することができる。
なお、TTS技術によりテキスト情報から予め設定された音声135への変換を実現することは一例に過ぎない。その他の実施例では、ヒューマンマシンインタラクション機器120は、その他の如何なる適当な技術により、本文情報によって、対応的な予め設定された音声135を発行することもできる。
このような形態により、クラウド130は、ヒューマンマシンインタラクション機器120に、大きいメモリスペースを占めるオーディオ情報の代わりに、小さいメモリスペースを占めるテキスト情報のみを送信することで、メモリリソース及び通信リソースを節約することができる。さらに、ヒューマンマシンインタラクション機器120で、成熟したTTS技術を有効利用してテキスト情報をユーザ110に提供する予め設定された音声に変換することができる。
図4は、本開示の実施例に係るヒューマンマシンインタラクションのための装置400の模式的なブロック図を示す。一部の実施例では、装置400は、図1のクラウド130に含まれるか、又はクラウド130として実現されてもよい。その他の実施例では、装置400は、図1のヒューマンマシンインタラクション機器120に含まれるか、又はヒューマンマシンインタラクション機器120として実現されてもよい。
図4に示すように、装置400は、識別モジュール410、決定モジュール420及び提供モジュール430を含む。識別モジュール410は、ユーザからの音声命令に使用される単語を識別するように構成される。決定モジュール420は、単語と、感情と、フィードバックとの間の予め設定されたマッピングに基づいて、音声命令に含まれる感情、及びユーザに提供する、感情に適応するフィードバックを決定するように構成される。提供モジュール430は、フィードバックをユーザに提供するように構成される。
一部の実施例では、識別モジュール410は、取得モジュール、変換モジュール及び抽出モジュールを含む。取得モジュールは、音声命令を含むオーディオ信号を取得するように構成される。変換モジュールは、音声命令をテキスト情報に変換するように構成される。抽出モジュールは、テキスト情報から単語を抽出するように構成される。
一部の実施例では、提供モジュール430は、さらに予め設定された色彩をユーザに表示することと、予め設定された音声をユーザに再生すること、予め設定されたビデオをユーザに再生すること、及びユーザが使用している機器の温度を変化させることとのうち、少なくとも一つを行うように構成される。
一部の実施例では、予め設定されたマッピングは、単語、感情及びフィードバックの履歴情報に基づいて訓練して取得される。
図5は、本開示の他の実施例に係るヒューマンマシンインタラクションのための装置500の模式的なブロック図を示す。一部の実施例では、装置500は、図1の知能インタラクション機器130に含まれ、又は知能インタラクション機器130として実現することができる。
図5に示すように、装置500は、送信モジュール510、受信モジュール520及びフィードバックモジュール530を含む。送信モジュール510は、クラウドにユーザからの音声命令を含むオーディオ信号を送信するように構成される。受信モジュール520は、クラウドから情報を受信し、情報は、ユーザに提供されるフィードバックを指示し、フィードバックが音声命令に含まれる感情に適応するように構成される。フィードバックモジュール530は、ユーザにフィードバックを提供するように構成される。
一部の実施例では、フィードバックモジュール530は、さらに、予め設定された色彩をユーザに表示することと、予め設定された音声をユーザに再生することと、予め設定されたビデオをユーザに再生することと、及び装置500の温度を変化させることとのうち、少なくとも一つを行うように構成される。
一部の実施例では、クラウドから受信された情報は、ユーザに再生される予め設定された音声を示すテキスト情報を含み、フィードバックモジュール530は、変換モジュールを含む。変換モジュールは、テキスト情報を予め設定された音声に変換するように構成される。
図6は、本開示の実施例を実施するために使用可能な機器600のブロック図を模式的に示す。図6に示すように、機器600は、CPU(Central Processing Unit)601を含み、それは、ROM(Read Only Memory)602に記憶されたコンピュータプログラム命令、又は記憶ユニット608からRAM603にロードされたコンピュータプログラム命令によって、各種の適切な動作及び処理を実行することができる。RAM603には、機器600の操作に必要な各種のプログラム及びデーターが記憶されてもよい。CPU601、ROM602及びRAM603は、バス604によりそれぞれ接続された。入力/出力(I/O)インターフェース605もバス604に接続された。
機器600での複数の部品は、I/Oインターフェース605に接続され、例えばキーボード、マウス等の入力ユニット606、各種のディスプレイ、スピーカ等の出力ユニット607、磁気ディスク、光ディスク等の記憶ユニット608、及びネットワークカード、モデム、無線通信送受信機等の通信ユニット609を含む。通信ユニット609は、機器600が例えば、インターネットのコンピュータネットワーク及び/又は各種のキャリアネットワークにより、その他の機器と情報/データーを交換することを許可する。
以上に説明した各過程及び処理、例えば方法200又は300は、処理ユニット601によって実行することができる。例えば、一部の実施例では、方法200又は300は、コンピュータソフトウェアプログラムとして実現され、機器読み取り可能な媒体、例えば記憶ユニット608に有体物として含まれる。一部の実施例では、コンピュータプログラムの一部又はすべては、ROM602及び/又は通信ユニット609で機器600にロード及び/又はインストールすることができる。コンピュータプログラムがRAM603にロードされ、CPU 601によって実行される場合に、以上に説明した方法200又は300の一つ又は複数のステップを実行することができる。
本願に使用される、「含む」の用語及びその類似の用語は、開放的に含む、即ち「含むが限定されない」と理解されるべきである。「基づく」の用語は、「少なくとも一部が基づく」と理解されるべきである。「一実施例」又は「当該実施例」の用語は、「少なくとも一つの実施例」と理解されるべきである。「第1」、「第2」等の用語は、違い又は同一の対象を指すことができる。さらに、本願は、その他の明確及び暗黙な定義を含むことができる。
本願に使用される、「決定」の用語は、各種の動作を含む。例えば、「決定」は、運算、算出、処理、導出、調査、シーク(例えば、テーブル、データーベース又は他のデーター構造でシークする)、究明等を含むことができる。さらに、「決定」は、受信(例えば、情報を受信する)、アクセス(例えば、メモリにおけるデーターをアクセスする)等を含むことができる。さらに、「決定」は、解析、選択、採取、確立等を含むことができる。
なお、本開示の実施例は、ハードウェア、ソフトウェア又はソフトウェアとハードウェアとの組み合わせにより実現することができる。ハードウェア部分は、専用ロジックにより実現されることができ、ソフトウェア部分は、メモリに記憶され、適切な命令実行システム、例えばマイクロプロセッサ又は専用設計ハードウェアにより実行することができる。前記の機器及び方法がコンピュータ実行可能な命令を用いるか、及び/又はプロセッサ制御コードに含まれることにより実現することができる。例えば、プログラマブルメモリ又は、光的又は電子信号担体のようなデーター担体にこのようなコードを提供することで実現することができることは当業者であれば理解すべきである。
さらに、図面において特定の順番で本開示の方法の操作を説明したが、当該特定の順番でこれらの操作を実行しなければならず、又は示された全ての操作を実行しなければ、所望の結果を取得できないことを要求又は暗示するわけではない。逆に、フローチャートに描画したステップは、実行する順番を変化してもよい。付加的に又は代替的に、いくつかのステップを省略し、複数のステップを一つのステップに組み合わせて実行し、及び/又は一つのステップを複数のステップに分解して実行することができる。なお、本開示の二つ以上の装置の特徴及び機能は、一つの装置に具体化することができる。逆に、以上に説明した一つの装置の特徴及び機能は、さらに複数の装置によって具体化することができる。
いくつかの具体的な実施例を参照して本開示を説明したが、本開示は、開示された具体的な実施例に限らないと理解される。本開示は、添付の特許請求の範囲の趣旨および範囲内で様々な修正や等価の構成を含むことを意図している。

Claims (18)

  1. クラウドでユーザからの音声命令に使用される単語を識別するステップと、
    前記単語と、感情と、フィードバックとの間の予め設定されたマッピングに基づいて、前記音声命令に含まれる感情、及び前記ユーザに提供される、前記感情に適応する前記フィードバックを決定するステップと、
    前記フィードバックを前記ユーザに提供するステップと、を含むことを特徴とするヒューマンマシンインタラクションに使用される方法
  2. ユーザからの音声命令に使用される単語を識別するステップは、
    前記音声命令を含むオーディオ信号を取得するステップと、
    前記音声命令をテキスト情報に変換するステップと、
    前記テキスト情報から前記単語を抽出するステップと、を含むことを特徴とする請求項1に記載の方法。
  3. 前記フィードバックを前記ユーザに提供するステップは、
    予め設定された色彩を前記ユーザに表示するステップと、
    予め設定された音声を前記ユーザに再生するステップと、
    予め設定されたビデオを前記ユーザに再生するステップと、
    前記ユーザが使用している機器の温度を変化させるステップとのうち、少なくとも一つを含むことを特徴とする請求項1に記載の方法。
  4. 前記予め設定されたマッピングは、単語、感情及びフィードバックの履歴情報に基づいて訓練して取得されることを特徴とする請求項1に記載の方法。
  5. クラウドにユーザからの音声命令を含むオーディオ信号を送信するステップと、
    前記クラウドから情報を受信し、前記情報は、前記ユーザに提供されるフィードバックを指示し、前記フィードバックが前記音声命令に含まれる感情に適応するステップと、
    前記ユーザに前記フィードバックを提供するステップと、を含むことを特徴とするヒューマンマシンインタラクションに使用される方法。
  6. 前記ユーザに前記フィードバックを提供するステップは、
    予め設定された色彩を前記ユーザに表示するステップと、
    予め設定された音声を前記ユーザに再生するステップと、
    予め設定されたビデオを前記ユーザに再生するステップと、
    前記ユーザが使用している機器の温度を変化させるステップとのうち、少なくとも一つを含むことを特徴とする請求項5に記載の方法。
  7. 前記情報は、前記ユーザに再生される、予め設定された音声を示すテキスト情報を含み、前記ユーザに前記フィードバックを提供するステップは、
    前記テキスト情報を前記予め設定された音声に変換するステップを含むことを特徴とする請求項5に記載の方法。
  8. クラウドでユーザからの音声命令に使用される単語を識別するように構成される識別モジュールと、
    前記単語と、感情と、フィードバックとの間の予め設定されたマッピングに基づいて、前記音声命令に含まれる感情、及び前記ユーザに提供される、前記感情に適応する前記フィードバックを決定するように構成される決定モジュールと、
    前記フィードバックを前記ユーザに提供するように構成される提供モジュールと、を含むことを特徴とするヒューマンマシンインタラクションに使用される装置。
  9. 前記識別モジュールは、
    前記音声命令を含むオーディオ信号を取得するように構成される取得モジュールと、
    前記音声命令をテキスト情報に変換するように構成される変換モジュールと、
    前記テキスト情報から前記単語を抽出するように構成される抽出モジュールと、を含む、
    ことを特徴とする請求項8に記載の装置。
  10. 前記提供モジュールは、さらに、
    予め設定された色彩を前記ユーザに表示することと、
    予め設定された音声を前記ユーザに再生することと、
    予め設定されたビデオを前記ユーザに再生することと、
    前記ユーザが使用している機器の温度を変化させることとのうち、少なくとも一つを行うように構成されることを特徴とする請求項8に記載の装置。
  11. 前記予め設定されたマッピングは、単語、感情及びフィードバックの履歴情報に基づいて訓練して取得されることを特徴とする請求項8に記載の装置。
  12. クラウドにユーザからの音声命令を含むオーディオ信号を送信するように構成される送信モジュールと、
    前記クラウドから情報を受信し、前記情報は、前記ユーザに提供されるフィードバックを指示し、前記フィードバックが前記音声命令に含まれる感情に適応するように構成される受信モジュールと、
    前記ユーザに前記フィードバックを提供するように構成されるフィードバックモジュールと、を含むことを特徴とするヒューマンマシンインタラクションに使用される装置。
  13. 前記フィードバックモジュールは、さらに、
    予め設定された色彩を前記ユーザに表示することと、
    予め設定された音声を前記ユーザに再生することと、
    予め設定されたビデオを前記ユーザに再生することと、
    前記装置の温度を変化させることとのうち、少なくとも一つを行うように構成されることを特徴とする請求項12に記載の装置。
  14. 前記情報は、前記ユーザに再生される予め設定された音声を示すテキスト情報を含み、前記フィードバックモジュールは、
    前記テキスト情報を前記予め設定された音声に変換するように構成される変換モジュールを含むことを特徴とする請求項12に記載の装置。
  15. 一つ又は複数のプロセッサと、
    一つ又は複数のプログラムを記憶するための記憶装置と、を含む電子機器であって、
    前記一つ又は複数のプログラムが前記一つ又は複数のプロセッサによって実行される場合、前記一つ又は複数のプロセッサが請求項1から4のいずれかに記載の方法を実現することを特徴とする電子機器。
  16. 一つ又は複数のプロセッサと、
    一つ又は複数のプログラムを記憶するための記憶装置と、を含む電子機器であって、
    前記一つ又は複数のプログラムが前記一つ又は複数のプロセッサによって実行される場合、前記一つ又は複数のプロセッサが請求項5から7のいずれかに記載の方法を実現する、
    ことを特徴とする電子機器。
  17. コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、前記コンピュータプログラムがプロセッサによって実行される場合、請求項1から4のいずれかに記載の方法を実現することを特徴とするコンピュータ読み取り可能な記憶媒体。
  18. コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、前記コンピュータプログラムがプロセッサによって実行される場合、請求項5から7のいずれかに記載の方法を実現することを特徴とするコンピュータ読み取り可能な記憶媒体。
JP2019043632A 2018-06-04 2019-03-11 ヒューマンマシンインタラクションに使用される方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体 Active JP6810764B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810564314.2A CN108877794A (zh) 2018-06-04 2018-06-04 用于人机交互的方法、装置、电子设备和计算机可读存储介质
CN201810564314.2 2018-06-04

Publications (2)

Publication Number Publication Date
JP2019211754A true JP2019211754A (ja) 2019-12-12
JP6810764B2 JP6810764B2 (ja) 2021-01-06

Family

ID=64335954

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019043632A Active JP6810764B2 (ja) 2018-06-04 2019-03-11 ヒューマンマシンインタラクションに使用される方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体

Country Status (3)

Country Link
US (1) US20190371319A1 (ja)
JP (1) JP6810764B2 (ja)
CN (1) CN108877794A (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109697290B (zh) * 2018-12-29 2023-07-25 咪咕数字传媒有限公司 一种信息处理方法、设备及计算机存储介质
CN110060682B (zh) * 2019-04-28 2021-10-22 Oppo广东移动通信有限公司 音箱控制方法和装置
CN110197659A (zh) * 2019-04-29 2019-09-03 华为技术有限公司 基于用户画像的反馈方法、装置及系统
CN110187862A (zh) * 2019-05-29 2019-08-30 北京达佳互联信息技术有限公司 语音消息显示方法、装置、终端及存储介质
CN110600002B (zh) * 2019-09-18 2022-04-22 北京声智科技有限公司 语音合成方法、装置及电子设备
KR20210046334A (ko) * 2019-10-18 2021-04-28 삼성전자주식회사 전자 장치 및 그의 제어 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003132085A (ja) * 2001-10-19 2003-05-09 Pioneer Electronic Corp 情報選択装置及び方法、情報選択再生装置並びに情報選択のためのコンピュータプログラム
KR20090046003A (ko) * 2007-11-05 2009-05-11 주식회사 마이크로로봇 로봇 완구 장치
JP2014003593A (ja) * 2012-06-19 2014-01-09 International Business Maschines Corporation 表情及び声の感情の認識及びフィードバック
JP2016014967A (ja) * 2014-07-01 2016-01-28 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 情報管理方法
CN107450367A (zh) * 2017-08-11 2017-12-08 上海思依暄机器人科技股份有限公司 一种语音透传方法、装置及机器人

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104992715A (zh) * 2015-05-18 2015-10-21 百度在线网络技术(北京)有限公司 一种智能设备的界面切换方法及系统
CN105807933B (zh) * 2016-03-18 2019-02-12 北京光年无限科技有限公司 一种用于智能机器人的人机交互方法及装置
CN105895087B (zh) * 2016-03-24 2020-02-07 海信集团有限公司 一种语音识别方法及装置
CN106531162A (zh) * 2016-10-28 2017-03-22 北京光年无限科技有限公司 一种用于智能机器人的人机交互方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003132085A (ja) * 2001-10-19 2003-05-09 Pioneer Electronic Corp 情報選択装置及び方法、情報選択再生装置並びに情報選択のためのコンピュータプログラム
KR20090046003A (ko) * 2007-11-05 2009-05-11 주식회사 마이크로로봇 로봇 완구 장치
JP2014003593A (ja) * 2012-06-19 2014-01-09 International Business Maschines Corporation 表情及び声の感情の認識及びフィードバック
JP2016014967A (ja) * 2014-07-01 2016-01-28 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 情報管理方法
CN107450367A (zh) * 2017-08-11 2017-12-08 上海思依暄机器人科技股份有限公司 一种语音透传方法、装置及机器人

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
秋山 史門 他: ""ThermOn− 温冷覚呈示による音楽の情動性拡張メディアインタフェース"", インタラクション2013 情報処理学会 シンポジウムシリーズ VOL.2013 NO.1 [CD−R, JPN6020046567, 19 April 2013 (2013-04-19), pages 356 - 360, ISSN: 0004399287 *

Also Published As

Publication number Publication date
JP6810764B2 (ja) 2021-01-06
CN108877794A (zh) 2018-11-23
US20190371319A1 (en) 2019-12-05

Similar Documents

Publication Publication Date Title
JP6810764B2 (ja) ヒューマンマシンインタラクションに使用される方法、装置、電子機器及びコンピュータ読み取り可能な記憶媒体
US11302302B2 (en) Method, apparatus, device and storage medium for switching voice role
CN108000526B (zh) 用于智能机器人的对话交互方法及系统
CN109410927B (zh) 离线命令词与云端解析结合的语音识别方法、装置和系统
CN110598576B (zh) 一种手语交互方法、装置及计算机介质
CN106959839A (zh) 一种人机交互装置及方法
AU2016277548A1 (en) A smart home control method based on emotion recognition and the system thereof
RU2653283C2 (ru) Способ диалога между машиной, такой как гуманоидный робот, и собеседником-человеком, компьютерный программный продукт и гуманоидный робот для осуществления такого способа
CN104488027A (zh) 声音处理系统以及终端装置
US10783884B2 (en) Electronic device-awakening method and apparatus, device and computer-readable storage medium
CN105723360A (zh) 利用情感调节改进自然语言交互
CN103116576A (zh) 一种语音手势交互翻译装置及其控制方法
US11062708B2 (en) Method and apparatus for dialoguing based on a mood of a user
JP2018008316A (ja) 学習型ロボット、学習型ロボットシステム、及び学習型ロボット用プログラム
CN108052250A (zh) 基于多模态交互的虚拟偶像演绎数据处理方法及系统
CN203149569U (zh) 一种语音手势交互翻译装置
CN112735423B (zh) 语音交互方法、装置、电子设备及存储介质
CN113793398A (zh) 基于语音交互的绘画方法与装置、存储介质和电子设备
CN109343695A (zh) 基于虚拟人行为标准的交互方法及系统
CN111105776A (zh) 有声播放装置及其播放方法
CN113205569B (zh) 图像绘制方法及装置、计算机可读介质和电子设备
CN205451551U (zh) 一种语音识别驱动的增强现实人机交互视频语言学习系统
CN109460548A (zh) 一种面向智能机器人的故事数据处理方法及系统
CN105303909B (zh) 一种基于振动学习英文的方法、装置和系统
JP2021117371A (ja) 情報処理装置、情報処理方法および情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201211

R150 Certificate of patent or registration of utility model

Ref document number: 6810764

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250