JP2018001403A - 音声と仮想動作を同期させる方法、システムとロボット本体 - Google Patents
音声と仮想動作を同期させる方法、システムとロボット本体 Download PDFInfo
- Publication number
- JP2018001403A JP2018001403A JP2017133167A JP2017133167A JP2018001403A JP 2018001403 A JP2018001403 A JP 2018001403A JP 2017133167 A JP2017133167 A JP 2017133167A JP 2017133167 A JP2017133167 A JP 2017133167A JP 2018001403 A JP2018001403 A JP 2018001403A
- Authority
- JP
- Japan
- Prior art keywords
- information
- time length
- voice
- robot
- motion information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 230000033001 locomotion Effects 0.000 claims abstract description 229
- 230000003993 interaction Effects 0.000 claims abstract description 127
- 230000008859 change Effects 0.000 claims description 69
- 230000009471 action Effects 0.000 claims description 53
- 230000008921 facial expression Effects 0.000 claims description 22
- 230000001965 increasing effect Effects 0.000 claims description 18
- 238000003384 imaging method Methods 0.000 claims description 11
- 230000003247 decreasing effect Effects 0.000 claims description 8
- 238000013473 artificial intelligence Methods 0.000 claims description 6
- 230000014509 gene expression Effects 0.000 abstract description 14
- 241000282414 Homo sapiens Species 0.000 description 17
- 238000004891 communication Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/003—Controls for manipulators by means of an audio-responsive input
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/04—Time compression or expansion
- G10L21/055—Time compression or expansion for synchronising with other signals, e.g. video signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Data Mining & Analysis (AREA)
- Manipulator (AREA)
Abstract
Description
音声と仮想動作を同期させる方法であって、
ユーザのマルチモード情報の取得と、
ユーザのマルチモード情報と可変パラメータに基づいて、少なくとも音声情報と動作情報を含むインタラクション内容の生成と、
音声情報の時間長と動作情報の時間長に対する同期調整を含むことを特徴とする音声と仮想動作を同期させる方法。
音声情報の時間長と動作情報の時間長との差が閾値以下にある場合は、音声情報の時間長が動作情報の時間長より小さいであるなら、動作情報の再生速度を速め、それにより動作情報の時間長を前記音声情報の時間長と同じようにすることを含む。
音声情報の時間長と動作情報の時間長との差が閾値より大きいである場合は、音声情報の時間長が動作情報の時間長より大きいであるなら、少なくとも二組の動作情報を順序付けて組み合わせ、それにより動作情報の時間長を前記音声情報の時間長と同じようにすることを含む。
ユーザのマルチモード情報を取得するための取得モジュール、
ユーザのマルチモード情報と可変パラメータに基づいて、少なくとも音声情報と動作情報を含むインタラクション内容を生成するための人工知能モジュール、
音声情報の時間と動作情報の時間を同じように調節するための制御モジュールを含む。
音声情報の時間長と動作情報の時間長との差が閾値以下にある場合には、音声情報の時間長が動作情報の時間長より小さいであれば、動作情報の再生速度を速め、それにより、動作情報の時間長を前記音声情報の時間長と同じようにする。
音声情報の時間長と動作情報の時間長との差が閾値より大きいである場合には、音声情報の時間長が動作情報の時間長より大きいであれば、少なくとも二組の動作情報を順序付けて組み合わせ、それにより、動作情報の時間長を前記音声情報の時間長と同じようにする。
前記マイクはユーザとロボットが対話する際に、ユーザの音声信号の取得に用い、前記アナログデジタルコンバータは、前記音声信号の音声デジタル情報への転換に用い、前記音声識別プロセッサは、前記音声デジタル情報を文字情報に転化する上で、前記意図識別プロセッサへの入力に用い、
前記画像取得装置はユーザがいる画像の取得に用い、前記顔認識プロセッサはユーザがいる画像からユーザの表情情報を識別し取得して、前記意図識別プロセッサへの入力に用い、
前記インタラクション内容プロセッサは、少なくとも前記文字情報と表情情報を含むユーザのマルチモード情報、及び前記メモリに記憶されている可変パラメータに基づいて、少なくとも音声情報と動作情報を含むインタラクション内容を生成し、音声情報の時間長と動作情報の時間長を同じように調整することに用い、
前記イメージングシステムは前記動作情報によって仮想3D映像を生成し、前記スピーカーは前記音声情報を同時に再生することを特徴する音声と仮想動作を同期させる方法。
音声情報の時間長と動作情報の時間長との差が閾値以下にある場合は、音声情報の時間長が動作情報の時間長より小さいであるなら、動作情報の再生速度を速め、それにより動作情報の時間長を前記音声情報の時間長と同じようにすることを含む。
音声情報の時間長と動作情報の時間長との差が閾値より大きいである場合は、音声情報の時間長が動作情報の時間長より大きいであるなら、少なくとも二組の動作情報を順序付けて組み合わせ、それにより動作情報の時間長を前記音声情報の時間長と同じようにすることを含む。
従来技術と比べると、本発明は、音声と仮想動作を同期させる方法を提供し、それがユーザのマルチモード情報の取得、ユーザのマルチモード情報と可変パラメータによって、少なくとも音声情報と動作情報を含むインタラクション内容の生成、音声情報の時間長と動作情報の時間長に対する同期調節を含むという利点を有する。そうすればユーザの音声、表情、動作などのマルチモード情報の一種や多種類によって、少なくとも音声情報と動作情報を含むインタラクション内容を生成でき、また音声情報と動作情報を同期させるためには、音声情報の時間と動作情報の時間長を同じように調節し、それによりロボットが音声と動作を再生する時に同期マッチすることが可能になり、ロボットが音声表現のみならず、また動作などさまざまな表現形式で対話でき、ロボットの表現形式を多様化し、且つ生成したロボットの動作、表情は数種や十数種に限られなく、その代わり、動作ライブラリにおける動作グリップによって任意に組み合わせることが可能で、ロボットはもっと擬人化になるだけでなく、ユーザがロボットとのインタラクションの体験も向上した。
下記、図面と優れた実施例を結合して本発明をもっと詳細に説明する。
図1に示すように、本実施例は音声と仮想動作を同期させる方法を開示し、それは、
ユーザのマルチモード情報を取得するステップS101、
ユーザのマルチモード情報と可変パラメータ300に基づいて、少なくとも音声情報と動作情報を含むインタラクション内容を生成するステップS102、
音声情報の時間と動作情報の時間を同じように調節するステップS103を含むことを特徴とする。
音声情報の時間と動作情報の時間長との差が閾値以下にある場合に、音声情報の時間長が動作情報の時間長より小さいであれば、動作情報の再生速度を速めることで、動作情報の時間長を前記音声情報の時間長と同じようにすることを含む。
音声情報の時間長と動作情報の時間長との差が閾値より大きいである場合には、音声情報の時間長が動作情報の時間長より大きいであれば、少なくとも二組の動作情報を順序付けて組み合わせることで、動作情報の時間長を前記音声情報の時間長と同じようにすることを含む。
図2に示すように、本発明に開示した音声と仮想動作を同期させるシステムは、
ユーザのマルチモード情報を取得するための取得モジュール201と、
ユーザのマルチモード情報、及び可変パラメータモジュール205で生成された可変パラメータに基づいて、少なくとも音声情報と動作情報を含むインタラクション内容を生成するための人工知能モジュール202と、
音声情報の時間長と動作情報の時間長を同じように調節する制御モジュール203を含む。
音声情報の時間長と動作情報の時間長との差が閾値以下にある場合に、音声情報の時間長が動作情報の時間長より小さいであれば、動作情報の再生速度を速めることで、動作情報の時間長を前記音声情報の時間長と同じようにすることを含む。
音声情報の時間長と動作情報の時間長との差が閾値より大きいである場合には、音声情報の時間長が動作情報の時間長より大きいであれば、少なくとも二組の動作情報を順序付けて組み合わせることで、動作情報の時間長を前記音声情報の時間長と同じようにする。
図3に示すように、本実施例は音声と仮想動作を同期させるシステム300を開示し、マイク301、アナログデジタルコンバータ302、音声識別プロセッサ303、画像取得装置304、顔認識プロセッサ305、インタラクション内容プロセッサ306、音声合成装置307、パワーアンプ308、スピーカー309、イメージングシステム310及びメモリ311を含む。
Claims (20)
- 音声と仮想動作を同期させる方法であって、
ユーザのマルチモード情報の取得、
ユーザのマルチモード情報と可変パラメータに基づいて、少なくとも音声情報と動作情報を含むインタラクション内容の生成、
音声情報の時間長と動作情報の時間長に対する同期調整を含む
ことを特徴とする音声と仮想動作を同期させる方法。 - 音声情報の時間長と動作情報の時間長を同じように調整する前記ステップは、具体的に、
音声情報の時間長と動作情報の時間長との差が閾値以下にある場合は、音声情報の時間長が動作情報の時間長より小さいであるなら、動作情報の再生速度を速め、それにより動作情報の時間長を前記音声情報の時間長に等しいにすることを含む
ことを特徴とする請求項1に記載の方法。 - 音声情報の時間長が動作情報の時間長より大きいである場合は、音声情報の再生速度を速める又は/及び動作情報の再生速度を落とし、それにより動作情報の時間長を前記音声情報の時間長に等しいにする
ことを特徴とする請求項2に記載の方法。 - 音声情報の時間長と動作情報の時間長を同じように調整する前記ステップは、具体的に、
音声情報の時間長と動作情報の時間長との差が閾値より大きいである場合は、音声情報の時間長が動作情報の時間長より大きいであるなら、少なくとも二組の動作情報を順序付けて組み合わせ、それにより動作情報の時間長を前記音声情報の時間長に等しいにすることを含む
ことを特徴とする請求項1に記載の方法。 - 音声情報の時間長が動作情報の時間長より小さいである場合は、動作情報における一部の動作を選択して、これらの動作の時間長が前記音声情報の時間に等しいにする
ことを特徴とする請求項4に記載の方法。 - 前記ロボットの可変パラメータを生成する方法は、ロボットの自己認識パラメータを可変パラメータにおける場面パラメータに整合することで、ロボット可変パラメータを生成することを含む
ことを特徴とする請求項1に記載の方法。 - 前記可変パラメータは少なくともユーザの本来の行為と変更した後の行為、及びユーザの本来の行為と変更した後の行為を表すパラメータを含む
ことを特徴とする請求項6に記載の方法。 - マルチモード情報と可変パラメータに基づいてインタラクション内容を生成する前記ステップは、具体的に、
マルチモード情報と可変パラメータ及びパラメータの変更確率を表す整合曲線によってインタラクション内容を生成することを含む
ことを特徴とする請求項1に記載の方法。 - パラメータ変更確率の整合曲線を生成する前記方法は、確率アルゴリズムを利用し、ロボット間のパラメータ確率をネットワークで推定し、生活時間軸の場面パラメータが変えた後、生活時間軸にあるロボットの各パラメータが変化する確率を計算して、前記パラメータ変更確率の整合曲線を形成することを含む
ことを特徴とする請求項8に記載の方法。 - 音声と仮想動作を同期させるシステムであって、
ユーザのマルチモード情報を取得する取得モジュールと、
ユーザのマルチモード情報と可変パラメータに基づいて、少なくとも音声情報と動作情報を含むインタラクション内容を生成する人工知能モジュールと、
前記音声情報の時間長と動作情報の時間長を同じように調整する制御モジュールとを含む
ことを特徴とするシステム。 - ロボットであって、請求項10に記載の音声と仮想動作を同期させるシステムを含むことを特徴とするロボット。
- 音声と仮想動作を同期させるシステムであって、マイク、アナログデジタルコンバータ、音声識別プロセッサ、画像取得装置、顔認識プロセッサ、音声合成装置、パワーアンプ、スピーカー、イメージングシステム、インタラクション内容プロセッサ及びメモリを含み、
前記マイク、前記アナログデジタルコンバータ、前記音声識別プロセッサと前記インタラクション内容プロセッサは順次に接続され、前記画像取得装置、前記顔認識プロセッサと前記インタラクション内容プロセッサは順次に接続され、前記インタラクション内容プロセッサは前記メモリと接続され、前記インタラクション内容プロセッサ、前記音声合成装置、前記パワーアンプ及び前記スピーカーは順次に接続され、前記イメージングシステムは前記インタラクション内容プロセッサと接続され、
前記マイクはユーザとロボットが対話する際にユーザの音声信号の取得に用い、前記アナログデジタルコンバータは前記音声信号の音声デジタル情報への転換に用い、前記音声識別プロセッサは前記音声デジタル情報を文字情報に転化する上で前記意図識別プロセッサへの入力に用い、
前記画像取得装置はユーザがいる画像の取得に用い、前記顔認識プロセッサはユーザがいる画像からユーザの表情情報を識別し取得して前記意図識別プロセッサへの入力に用い、
前記インタラクション内容プロセッサは、少なくとも前記文字情報と表情情報を含むユーザのマルチモード情報、及び前記メモリに記憶されている可変パラメータに基づいて、少なくとも音声情報と動作情報を含むインタラクション内容を生成し、音声情報の時間長と動作情報の時間長を同じように調整することに用い、
前記イメージングシステムは前記動作情報によって仮想3D映像を生成し、前記スピーカーは前記音声情報を同時に再生する、
ことを特徴する音声と仮想動作を同期させる方法。 - 前記インタラクション内容プロセッサにおいて、音声情報の時間長と動作情報の時間長を同じように調整する前記ステップは、具体的に、
音声情報の時間長と動作情報の時間長との差が閾値以下にある場合は、音声情報の時間長が動作情報の時間長より小さいであるなら、動作情報の再生速度を速め、それにより動作情報の時間長を前記音声情報の時間長と同じようにする
ことを含む、ことを特徴とする請求項1に記載の方法。 - 前記インタラクション内容プロセッサにおいて、音声情報の時間長が動作情報の時間長より大きいである場合は、音声情報の再生速度を速める又は/及び動作情報の再生速度を落とし、それにより動作情報の時間長を前記音声情報の時間長と同じようにする
ことを特徴とする請求項13に記載の方法。 - 前記インタラクション内容プロセッサにおいて、音声情報の時間長と動作情報の時間長を同じように調整する前記ステップは、具体的に、
音声情報の時間長と動作情報の時間長との差が閾値より大きいである場合は、音声情報の時間長が動作情報の時間長より大きいであるなら、少なくとも二組の動作情報を順序付けて組み合わせ、それにより動作情報の時間長を前記音声情報の時間長と同じようにすることを含む
ことを特徴とする請求項1に記載の方法。 - 前記インタラクション内容プロセッサにおいて、音声情報の時間長が動作情報の時間長より小さいである場合は、動作情報における一部の動作を選択して、これらの動作の時間長が前記音声情報の時間と同じようにする
ことを特徴とする請求項15に記載の方法システム。 - ロボット可変パラメータを生成する方法は、ロボットの自己認識パラメータと可変パラメータにおける場面パラメータを整合し、ロボット可変パラメータを生成することを含む、ことを特徴とする請求項12に記載のシステム。
- 前記可変パラメータは少なくともユーザ本来の行為の変更と変えられた後の行為、及びユーザ本来の行為の変更と変えられた後の行為を表すパラメータの値を含む
ことを特徴とする請求項17に記載のシステム。 - マルチモード情報と可変パラメータに基づいてインタラクション内容を生成する前記ステップは、具体的に、
マルチモード情報と可変パラメータ及びパラメータ変更確率の整合曲線によってインタラクション内容を生成することを含む
ことを特徴とする請求項12に記載のシステム。 - 前記パラメータ変更確率の制御曲線を生成する方法は、確率アルゴリズムを利用し、ロボット間のパラメータ確率をネットワークで推定し、生活時間軸にあるロボットが時間軸の場面パラメータが変えた後、その各パラメータが変化する確率を計算してから、整合曲線を形成する
ことを含むことを特徴とする請求項19に記載のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2016/089213 WO2018006369A1 (zh) | 2016-07-07 | 2016-07-07 | 一种同步语音及虚拟动作的方法、系统及机器人 |
WOPCT/CN2016/089213 | 2016-07-07 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018001403A true JP2018001403A (ja) | 2018-01-11 |
JP6567609B2 JP6567609B2 (ja) | 2019-08-28 |
Family
ID=58230946
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017133167A Expired - Fee Related JP6567609B2 (ja) | 2016-07-07 | 2017-07-06 | 音声と仮想動作を同期させる方法、システムとロボット本体 |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP6567609B2 (ja) |
CN (1) | CN106471572B (ja) |
WO (1) | WO2018006369A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109822587A (zh) * | 2019-03-05 | 2019-05-31 | 哈尔滨理工大学 | 一种用于厂矿医院的语音导诊机器人头颈部装置及控制 |
JP7510042B2 (ja) | 2020-01-27 | 2024-07-03 | 株式会社Mixi | 情報処理システム、端末装置、端末装置の制御方法、及びプログラム |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107457787B (zh) * | 2017-06-29 | 2020-12-08 | 杭州仁盈科技股份有限公司 | 一种服务机器人交互决策方法和装置 |
CN107577661B (zh) * | 2017-08-07 | 2020-12-11 | 北京光年无限科技有限公司 | 一种针对虚拟机器人的交互输出方法以及系统 |
CN107784355A (zh) * | 2017-10-26 | 2018-03-09 | 北京光年无限科技有限公司 | 虚拟人多模态交互数据处理方法和系统 |
CN110610703A (zh) * | 2019-07-26 | 2019-12-24 | 深圳壹账通智能科技有限公司 | 基于机器人识别的语音输出方法、装置、机器人及介质 |
WO2021085193A1 (ja) * | 2019-10-30 | 2021-05-06 | ソニー株式会社 | 情報処理装置、及びコマンド処理方法 |
CN115497499A (zh) * | 2022-08-30 | 2022-12-20 | 阿里巴巴(中国)有限公司 | 语音和动作时间同步的方法 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10143351A (ja) * | 1996-11-13 | 1998-05-29 | Sharp Corp | インタフェース装置 |
JPH11265239A (ja) * | 1998-03-17 | 1999-09-28 | Toshiba Corp | 感情生成装置及び感情生成方法 |
JP2001179667A (ja) * | 1999-12-28 | 2001-07-03 | Sony Corp | 同期制御装置および方法、並びに記録媒体 |
JP2004034273A (ja) * | 2002-07-08 | 2004-02-05 | Mitsubishi Heavy Ind Ltd | ロボット発話中の動作プログラム生成装置及びロボット |
JP2005003926A (ja) * | 2003-06-11 | 2005-01-06 | Sony Corp | 情報処理装置および方法、並びにプログラム |
WO2006082787A1 (ja) * | 2005-02-03 | 2006-08-10 | Matsushita Electric Industrial Co., Ltd. | 記録再生装置および記録再生方法および記録再生プログラムを格納した記録媒体および記録再生装置において用いられる集積回路 |
JP2008040726A (ja) * | 2006-08-04 | 2008-02-21 | Univ Of Electro-Communications | ユーザ支援システム及びユーザ支援方法 |
JP2009233764A (ja) * | 2008-03-26 | 2009-10-15 | Toyota Motor Corp | 動作生成装置、ロボット及び動作生成方法 |
JP2011054088A (ja) * | 2009-09-04 | 2011-03-17 | National Institute Of Information & Communication Technology | 情報処理装置、情報処理方法、プログラム及び対話システム |
JP2011166827A (ja) * | 1996-12-04 | 2011-08-25 | Panasonic Corp | 高解像度および立体映像記録用光ディスク、光ディスク再生装置、および光ディスク記録装置 |
JP2012504810A (ja) * | 2008-10-03 | 2012-02-23 | ビ−エイイ− システムズ パブリック リミテッド カンパニ− | システムにおける故障を診断するモデルの更新の支援 |
JP2012215645A (ja) * | 2011-03-31 | 2012-11-08 | Speakglobal Ltd | コンピュータを利用した外国語会話練習システム |
CN103596051A (zh) * | 2012-08-14 | 2014-02-19 | 金运科技股份有限公司 | 电视装置及其虚拟主持人显示方法 |
CN105598972A (zh) * | 2016-02-04 | 2016-05-25 | 北京光年无限科技有限公司 | 一种机器人系统及交互方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5111409A (en) * | 1989-07-21 | 1992-05-05 | Elon Gasper | Authoring and use systems for sound synchronized animation |
JP4670136B2 (ja) * | 2000-10-11 | 2011-04-13 | ソニー株式会社 | オーサリング・システム及びオーサリング方法、並びに記憶媒体 |
US20090044112A1 (en) * | 2007-08-09 | 2009-02-12 | H-Care Srl | Animated Digital Assistant |
CN101364309B (zh) * | 2008-10-09 | 2011-05-04 | 中国科学院计算技术研究所 | 一种源虚拟角色上的口形动画生成方法 |
CN101604204B (zh) * | 2009-07-09 | 2011-01-05 | 北京科技大学 | 智能情感机器人分布式认知系统 |
CN101968894A (zh) * | 2009-07-28 | 2011-02-09 | 上海冰动信息技术有限公司 | 根据汉字自动实现音唇同步的方法 |
CN104574478A (zh) * | 2014-12-30 | 2015-04-29 | 北京像素软件科技股份有限公司 | 一种编辑动画人物口型的方法及装置 |
CN104866101B (zh) * | 2015-05-27 | 2018-04-27 | 世优(北京)科技有限公司 | 虚拟对象的实时互动控制方法及装置 |
CN104883557A (zh) * | 2015-05-27 | 2015-09-02 | 世优(北京)科技有限公司 | 实时全息投影方法、装置及系统 |
-
2016
- 2016-07-07 WO PCT/CN2016/089213 patent/WO2018006369A1/zh active Application Filing
- 2016-07-07 CN CN201680001720.7A patent/CN106471572B/zh not_active Expired - Fee Related
-
2017
- 2017-07-06 JP JP2017133167A patent/JP6567609B2/ja not_active Expired - Fee Related
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10143351A (ja) * | 1996-11-13 | 1998-05-29 | Sharp Corp | インタフェース装置 |
JP2011166827A (ja) * | 1996-12-04 | 2011-08-25 | Panasonic Corp | 高解像度および立体映像記録用光ディスク、光ディスク再生装置、および光ディスク記録装置 |
JPH11265239A (ja) * | 1998-03-17 | 1999-09-28 | Toshiba Corp | 感情生成装置及び感情生成方法 |
JP2001179667A (ja) * | 1999-12-28 | 2001-07-03 | Sony Corp | 同期制御装置および方法、並びに記録媒体 |
JP2004034273A (ja) * | 2002-07-08 | 2004-02-05 | Mitsubishi Heavy Ind Ltd | ロボット発話中の動作プログラム生成装置及びロボット |
JP2005003926A (ja) * | 2003-06-11 | 2005-01-06 | Sony Corp | 情報処理装置および方法、並びにプログラム |
WO2006082787A1 (ja) * | 2005-02-03 | 2006-08-10 | Matsushita Electric Industrial Co., Ltd. | 記録再生装置および記録再生方法および記録再生プログラムを格納した記録媒体および記録再生装置において用いられる集積回路 |
JP2008040726A (ja) * | 2006-08-04 | 2008-02-21 | Univ Of Electro-Communications | ユーザ支援システム及びユーザ支援方法 |
JP2009233764A (ja) * | 2008-03-26 | 2009-10-15 | Toyota Motor Corp | 動作生成装置、ロボット及び動作生成方法 |
JP2012504810A (ja) * | 2008-10-03 | 2012-02-23 | ビ−エイイ− システムズ パブリック リミテッド カンパニ− | システムにおける故障を診断するモデルの更新の支援 |
JP2011054088A (ja) * | 2009-09-04 | 2011-03-17 | National Institute Of Information & Communication Technology | 情報処理装置、情報処理方法、プログラム及び対話システム |
JP2012215645A (ja) * | 2011-03-31 | 2012-11-08 | Speakglobal Ltd | コンピュータを利用した外国語会話練習システム |
CN103596051A (zh) * | 2012-08-14 | 2014-02-19 | 金运科技股份有限公司 | 电视装置及其虚拟主持人显示方法 |
CN105598972A (zh) * | 2016-02-04 | 2016-05-25 | 北京光年无限科技有限公司 | 一种机器人系统及交互方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109822587A (zh) * | 2019-03-05 | 2019-05-31 | 哈尔滨理工大学 | 一种用于厂矿医院的语音导诊机器人头颈部装置及控制 |
CN109822587B (zh) * | 2019-03-05 | 2022-05-31 | 哈尔滨理工大学 | 一种用于厂矿医院的语音导诊机器人头颈部装置控制方法 |
JP7510042B2 (ja) | 2020-01-27 | 2024-07-03 | 株式会社Mixi | 情報処理システム、端末装置、端末装置の制御方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN106471572B (zh) | 2019-09-03 |
JP6567609B2 (ja) | 2019-08-28 |
WO2018006369A1 (zh) | 2018-01-11 |
CN106471572A (zh) | 2017-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6567609B2 (ja) | 音声と仮想動作を同期させる方法、システムとロボット本体 | |
JP6888096B2 (ja) | ロボット、サーバおよびヒューマン・マシン・インタラクション方法 | |
KR102503413B1 (ko) | 애니메이션 인터랙션 방법, 장치, 기기 및 저장 매체 | |
JP6567610B2 (ja) | 音声と仮想動作を同期させる方法、システムとロボット本体 | |
TWI766499B (zh) | 互動物件的驅動方法、裝置、設備以及儲存媒體 | |
KR101306221B1 (ko) | 3차원 사용자 아바타를 이용한 동영상 제작장치 및 방법 | |
US20160134840A1 (en) | Avatar-Mediated Telepresence Systems with Enhanced Filtering | |
KR102491140B1 (ko) | 가상 아바타 생성 방법 및 장치 | |
WO2019041902A1 (zh) | 表情动画生成方法和装置、存储介质及电子装置 | |
WO2022105846A1 (zh) | 虚拟对象显示方法及装置、电子设备、介质 | |
JP2018014094A (ja) | 仮想ロボットのインタラクション方法、システム及びロボット | |
WO2022170958A1 (zh) | 基于增强现实的显示方法、设备、存储介质及程序产品 | |
WO2018006370A1 (zh) | 一种虚拟3d机器人的交互方法、系统及机器人 | |
US11908056B2 (en) | Sentiment-based interactive avatar system for sign language | |
WO2022252866A1 (zh) | 一种互动处理方法、装置、终端及介质 | |
WO2022079933A1 (ja) | コミュニケーション支援プログラム、コミュニケーション支援方法、コミュニケーション支援システム、端末装置及び非言語表現プログラム | |
CN115049016B (zh) | 基于情绪识别的模型驱动方法及设备 | |
WO2010063217A1 (zh) | 一种生成视频动画的方法及装置 | |
US20230130535A1 (en) | User Representations in Artificial Reality | |
KR101913811B1 (ko) | 얼굴 표현 및 심리 상태 파악과 보상을 위한 얼굴 정보 분석 방법 및 얼굴 정보 분석 장치 | |
CN114049871A (zh) | 基于虚拟空间的音频处理方法、装置和计算机设备 | |
KR101996973B1 (ko) | 비디오 생성 시스템 및 방법 | |
CN114170648A (zh) | 视频生成方法、装置、电子设备及存储介质 | |
US20230063681A1 (en) | Dynamic augmentation of stimuli based on profile of user | |
WO2022249604A1 (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170818 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180608 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180626 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180919 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190404 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190702 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190731 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6567609 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |