JP5967838B2 - 人間型ロボットのジェスチャと音声の同期 - Google Patents
人間型ロボットのジェスチャと音声の同期 Download PDFInfo
- Publication number
- JP5967838B2 JP5967838B2 JP2013551266A JP2013551266A JP5967838B2 JP 5967838 B2 JP5967838 B2 JP 5967838B2 JP 2013551266 A JP2013551266 A JP 2013551266A JP 2013551266 A JP2013551266 A JP 2013551266A JP 5967838 B2 JP5967838 B2 JP 5967838B2
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- robot
- utterance
- speech
- rules
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000033001 locomotion Effects 0.000 claims description 65
- 238000000034 method Methods 0.000 claims description 33
- 230000009471 action Effects 0.000 claims description 16
- 239000012636 effector Substances 0.000 claims description 16
- 230000014509 gene expression Effects 0.000 claims description 6
- 230000001360 synchronised effect Effects 0.000 claims description 5
- 238000003860 storage Methods 0.000 claims description 4
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 2
- 230000001755 vocal effect Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 13
- 238000004458 analytical method Methods 0.000 description 12
- 230000006854 communication Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000012544 monitoring process Methods 0.000 description 10
- 230000015572 biosynthetic process Effects 0.000 description 7
- 238000003786 synthesis reaction Methods 0.000 description 7
- 241000282412 Homo Species 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000007935 neutral effect Effects 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 230000010391 action planning Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000704 physical effect Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 230000007175 bidirectional communication Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000005281 excited state Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/10—Transforming into visible information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Data Mining & Analysis (AREA)
- Manipulator (AREA)
- User Interface Of Digital Computer (AREA)
Description
図3Aは、ある実施形態に係るロボット100内のジェスチャ生成部210のブロック図である。ジェスチャ生成部210は、発話文204を受け取り、ロボット100が行うはずであるジェスチャを示すジェスチャ記述子214を生成する。ジェスチャ生成部210は、他の構成要素とともに、プロセッサ310、出力インタフェース314、入力インタフェース318及びメモリ330を含み得る。これらの構成要素は、バス322を介して接続されている。図2を参照しつつ前記したように、ジェスチャ生成部210は、動作生成部230、周辺監視モジュール240及び音声合成部260のような、ロボット100の他の構成要素と一体化されてもよい。
図4は、ある実施形態に係る、異なる複数の文法モジュール340のアクティブなジェスチャ識別子を示す図である。単語シーケンス(例えば、文)が複数の文法モジュールによって分析されるにつれて、文法モジュール340のそれぞれは、単語シーケンスの複数の異なる点を検出して、ジェスチャ識別子342を生成し得る。
図6は、ある実施形態に係る動作生成部230を示す図である。動作生成部230は、他の構成要素とともに、動作計画部610、動作テンプレートデータベース620、動作無作為化部630及び動作制御部640を含み得る。これらの構成要素は、図3に示されるジェスチャ生成部210と同じハードウエア構成によって実現されてもよい。
図7A及び図7Bは,ある実施形態に係る、ジェスチャを生成する処理手順を示すフローチャートである。ジェスチャ生成部210は、発話文を受け取る(ステップ706)。発話文は、人間オペレータから受け取ってもよいし、コンピュータアルゴリズムから受け取ってもよい。次に、受け取られた発話文を分析して、当該テキストに追加ヒント又は他の情報がタグ付けされる(ステップ710)。ジェスチャ生成部210は、表現力パラメータxも受け取る(ステップ714)。
1又は複数の実施形態において、ジェスチャを生成する処理は、現実のロボットとは対照的に、コンピュータグラフィック又はコンピュータ摸擬にも使用され得る。摸擬されたジェスチャが生成されユーザに対してスクリーン上に表示されて、コンピュータ化された仮想キャラクターを含むビデオシーケンスの生成を容易にする、又は、ロボットに対してなされる現実の操作を評価する。
Claims (16)
- ロボットのジェスチャを生成するコンピュータを用いた方法であって、
前記コンピュータは、
1又は複数の音声要素を含む発話文を受け取り、
複数のパターンモジュールによって前記発話文を分析して前記発話文内の音声要素と同じ音声要素と結びついた複数のジェスチャ候補を特定し、
前記複数のパターンモジュールによって特定された前記複数のジェスチャ候補から1つのジェスチャを選択し、
前記ロボットの複数のアクチュエータを制御することによって前記選択されたジェスチャを生成し、
前記ロボットの状態ごとに定められた複数の異なる範囲のうちの任意の値を取る乱数に基づいて、前記選択されたジェスチャの、振幅、周波数及び速度のうちの少なくとも1つを修正し、
前記選択されたジェスチャに同期する前記ロボットの音声出力を、前記発話文から合成し、
前記複数のパターンモジュールのそれぞれは、
異なる規則の集合を前記1又は複数の音声要素に適用して、前記1又は複数の音声要素に対応する1又は複数のジェスチャ候補であって、前記発話文に対応する前記音声出力を前記ロボットが出力する間に前記ロボットが行う1又は複数のジェスチャ候補を特定すること、
を特徴とする方法。 - 前記コンピュータは、
前記音声出力中の前記音声要素のタイミングを分析し、
前記選択されたジェスチャ又は前記合成された音声出力を調整して、前記選択されたジェスチャのタイミング及び前記音声出力中の前記音声要素のタイミングを同期させること、
を特徴とする請求項1に記載の方法。 - 前記コンピュータは、
前記発話文を分析することによって前記発話文に情報をタグ付けし、
前記複数のジェスチャ候補は、
前記タグ付けされた情報をさらに分析することによって特定されること、
を特徴とする請求項1に記載の方法。 - 前記タグ付けされた情報は、
前記音声要素の単語のタイプを示すこと、
を特徴とする請求項3に記載の方法。 - 前記コンピュータは、
前記ロボットが表現するはずである表現力の度合いを示す表現力パラメータを受け取り、
前記表現力パラメータと前記複数のジェスチャごとの重みとの関係を規定するモデルに対して前記受け取った表現力パラメータを適用することにより、前記複数のジェスチャごとに前記重みを算出し、
前記算出した重みに基づいて前記ジェスチャを選択すること、
を特徴とする請求項1に記載の方法。 - 前記コンピュータは、
前記選択されたジェスチャに対応する動作を作成する前に、準備動作を追加することによって、前記選択されたジェスチャを計画すること、
を特徴とする請求項1に記載の方法。 - 前記準備動作は、
前のジェスチャ又は開始ジェスチャの終了位置から、前記選択されたジェスチャの初期位置へ、エフェクタを移動させること、
を特徴とする請求項6に記載の方法。 - 前記複数のパターンモジュールは、
第1の規則の集合を適用してエンブレムを検出する第1のパターンモジュールと、
第2の規則の集合を適用してアイコニクスを検出する第2のパターンモジュールと、
第3の規則の集合を適用して隠喩を検出する第3のパターンモジュールと、
第4の規則の集合を適用して直示を検出する第4のパターンモジュールと、
第5の規則の集合を適用して拍子を検出する第5のパターンモジュールと、
を含むこと、
を特徴とする請求項1に記載の方法。 - ジェスチャを生成するロボットであって、
前記ロボットは、
ジェスチャ生成部、動作生成部、音声合成部及び少なくとも1つのアクチュエータを有し、
前記ジェスチャ生成部は、
1又は複数の音声要素を含む発話文を受け取り、
複数のパターンモジュールによって前記発話文を分析して前記発話文内の音声要素と同じ音声要素と結びついた複数のジェスチャ候補を特定し、
前記複数のパターンモジュールによって特定された前記複数のジェスチャ候補から1つのジェスチャを選択し、
前記動作生成部は、
前記選択されたジェスチャに基づいて、制御信号を生成し、
前記ロボットの状態ごとに定められた複数の異なる範囲のうちの任意の値を取る乱数に基づいて、前記選択されたジェスチャの、振幅、周波数及び速度のうちの少なくとも1つを修正し、
前記少なくとも1つのアクチュエータは、
前記制御信号に応じて、前記ロボットの部分に相対運動を起こさせ、
前記音声合成部は、
前記選択されたジェスチャに同期する前記ロボットの音声出力を、前記発話文から合成し、
前記複数のパターンモジュールのそれぞれは、
異なる規則の集合を前記1又は複数の音声要素に適用して、前記1又は複数の音声要素に対応する1又は複数のジェスチャ候補であって、前記発話文に対応する前記音声出力を前記ロボットが出力する間に前記ロボットが行う1又は複数のジェスチャ候補を特定すること、
を特徴とするロボット。 - 前記動作生成部は、
前記音声出力中の前記音声要素のタイミングを分析し、
前記選択されたジェスチャを調整して、前記選択されたジェスチャのタイミング及び前記音声出力中の前記音声要素のタイミングを同期させること、
を特徴とする請求項9に記載のロボット。 - 前記ジェスチャ生成部は、
前記発話文を分析することによって前記発話文に情報をタグ付けし、
前記複数のジェスチャ候補は、
前記タグ付けされた情報をさらに分析することによって特定されること、
を特徴とする請求項9に記載のロボット。 - 前記タグ付けされた情報は、
前記音声要素の単語のタイプを示すこと、
を特徴とする請求項11に記載のロボット。 - 前記ジェスチャ生成部は、
前記ロボットが表現するはずである表現力の度合いを示す表現力パラメータを受け取り、
前記表現力パラメータと前記複数のジェスチャごとの重みとの関係を規定するモデルに対して前記受け取った表現力パラメータを適用することにより、前記複数のジェスチャごとに前記重みを算出し、
前記算出した重みに基づいて前記ジェスチャを選択すること、
を特徴とする請求項9に記載のロボット。 - 前記動作生成部は、
前記選択されたジェスチャに対応する動作を作成する前に、準備動作を追加することによって、前記選択されたジェスチャを計画すること、
を特徴とする請求項9に記載のロボット。 - 前記複数のパターンモジュールは、
第1の規則の集合を適用してエンブレムを検出する第1のパターンモジュールと、
第2の規則の集合を適用してアイコニクスを検出する第2のパターンモジュールと、
第3の規則の集合を適用して隠喩を検出する第3のパターンモジュールと、
第4の規則の集合を適用して直示を検出する第4のパターンモジュールと、
第5の規則の集合を適用して拍子を検出する第5のパターンモジュールと、
を含むこと、
を特徴とする請求項9に記載のロボット。 - 口頭の命令を認識するための不揮発性のコンピュータ読取可能な記憶媒体であって、
前記記憶媒体に記憶される指示は、
プロセッサに対して、
1又は複数の音声要素を含む発話文を受け取り、
複数のパターンモジュールによって前記発話文を分析して前記発話文内の音声要素と同じ音声要素と結びついた複数のジェスチャ候補を特定し、
前記複数のパターンモジュールによって特定された前記複数のジェスチャ候補から1つのジェスチャを選択し、
ロボットの複数のアクチュエータを制御することによって前記選択されたジェスチャを生成し、
前記ロボットの状態ごとに定められた複数の異なる範囲のうちの任意の値を取る乱数に基づいて、前記選択されたジェスチャの、振幅、周波数及び速度のうちの少なくとも1つを修正し、
前記選択されたジェスチャに同期する前記ロボットの音声出力を、前記発話文から合成する処理を実行させ、
前記複数のパターンモジュールのそれぞれは、
異なる規則の集合を前記1又は複数の音声要素に適用して、前記1又は複数の音声要素に対応する1又は複数のジェスチャ候補であって、前記発話文に対応する前記音声出力を前記ロボットが出力する間に前記ロボットが行う1又は複数のジェスチャ候補を特定すること、
を特徴とする記憶媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161436546P | 2011-01-26 | 2011-01-26 | |
US61/436,546 | 2011-01-26 | ||
US13/352,182 | 2012-01-17 | ||
US13/352,182 US9431027B2 (en) | 2011-01-26 | 2012-01-17 | Synchronized gesture and speech production for humanoid robots using random numbers |
PCT/US2012/022258 WO2012103030A1 (en) | 2011-01-26 | 2012-01-23 | Synchronized gesture and speech production for humanoid robots |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2014504959A JP2014504959A (ja) | 2014-02-27 |
JP2014504959A5 JP2014504959A5 (ja) | 2015-03-12 |
JP5967838B2 true JP5967838B2 (ja) | 2016-08-10 |
Family
ID=46544827
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013551266A Expired - Fee Related JP5967838B2 (ja) | 2011-01-26 | 2012-01-23 | 人間型ロボットのジェスチャと音声の同期 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9431027B2 (ja) |
JP (1) | JP5967838B2 (ja) |
WO (1) | WO2012103030A1 (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009057725A1 (de) * | 2009-12-10 | 2011-06-16 | Siemens Enterprise Communications Gmbh & Co. Kg | Signalgebende Vorrichtung, Signalisiervorrichtung, Signalgebungsverfahren sowie Signalisierverfahren |
US9588964B2 (en) | 2012-09-18 | 2017-03-07 | Adobe Systems Incorporated | Natural language vocabulary generation and usage |
US10656808B2 (en) | 2012-09-18 | 2020-05-19 | Adobe Inc. | Natural language and user interface controls |
US9436382B2 (en) * | 2012-09-18 | 2016-09-06 | Adobe Systems Incorporated | Natural language image editing |
US9141335B2 (en) | 2012-09-18 | 2015-09-22 | Adobe Systems Incorporated | Natural language image tags |
US9412366B2 (en) | 2012-09-18 | 2016-08-09 | Adobe Systems Incorporated | Natural language image spatial and tonal localization |
US9302393B1 (en) * | 2014-04-15 | 2016-04-05 | Alan Rosen | Intelligent auditory humanoid robot and computerized verbalization system programmed to perform auditory and verbal artificial intelligence processes |
JP6483578B2 (ja) * | 2015-09-14 | 2019-03-13 | 株式会社東芝 | 音声合成装置、音声合成方法およびプログラム |
WO2017199585A1 (ja) * | 2016-05-19 | 2017-11-23 | シャープ株式会社 | ロボット、ロボットの動作方法、及びプログラム |
JP2017213612A (ja) * | 2016-05-30 | 2017-12-07 | トヨタ自動車株式会社 | ロボットおよびロボットの制御方法 |
US10289076B2 (en) * | 2016-11-15 | 2019-05-14 | Roborus Co., Ltd. | Concierge robot system, concierge service method, and concierge robot |
JP6729424B2 (ja) | 2017-01-30 | 2020-07-22 | 富士通株式会社 | 機器、出力装置、出力方法および出力プログラム |
US10565434B2 (en) * | 2017-06-30 | 2020-02-18 | Google Llc | Compact language-free facial expression embedding and novel triplet training scheme |
KR101964300B1 (ko) * | 2017-11-14 | 2019-04-01 | 한국과학기술연구원 | 지식모델을 이용한 로봇의 동작 구현 장치 및 방법 |
US10777198B2 (en) | 2017-11-24 | 2020-09-15 | Electronics And Telecommunications Research Institute | Apparatus for determining speech properties and motion properties of interactive robot and method thereof |
JP7109207B2 (ja) * | 2018-02-23 | 2022-07-29 | パナソニックホールディングス株式会社 | 相互作用装置、相互作用方法、相互作用プログラム及びロボット |
JP7201984B2 (ja) * | 2018-07-09 | 2023-01-11 | 株式会社国際電気通信基礎技術研究所 | アンドロイドのジェスチャ生成装置及びコンピュータプログラム |
JP7225654B2 (ja) * | 2018-10-04 | 2023-02-21 | 富士通株式会社 | コミュニケーション装置、コミュニケーション方法、及びコミュニケーションプログラム |
KR102301042B1 (ko) * | 2019-12-18 | 2021-09-14 | 한국과학기술연구원 | 형태소 기반 로봇 제스처 생성 장치 및 방법 |
CN113689880B (zh) * | 2020-05-18 | 2024-05-28 | 北京搜狗科技发展有限公司 | 实时驱动虚拟人的方法、装置、电子设备及介质 |
KR102576788B1 (ko) | 2020-08-21 | 2023-09-11 | 한국전자통신연구원 | 로봇 인터랙션 행위 생성 장치 및 방법 |
WO2022270319A1 (ja) * | 2021-06-25 | 2022-12-29 | 慶應義塾 | 動作データ管理システム、動作データ管理方法、及びプログラム |
KR20230030433A (ko) * | 2021-08-25 | 2023-03-06 | 삼성전자주식회사 | 로봇 및 그 제어 방법 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6337552B1 (en) * | 1999-01-20 | 2002-01-08 | Sony Corporation | Robot apparatus |
JP2001188555A (ja) * | 1999-12-28 | 2001-07-10 | Sony Corp | 情報処理装置および方法、並びに記録媒体 |
JP2001188784A (ja) * | 1999-12-28 | 2001-07-10 | Sony Corp | 会話処理装置および方法、並びに記録媒体 |
JP2003044080A (ja) | 2001-05-02 | 2003-02-14 | Sony Corp | ロボット装置、文字認識装置及び文字認識方法、並びに、制御プログラム及び記録媒体 |
KR100940630B1 (ko) | 2001-05-02 | 2010-02-05 | 소니 주식회사 | 로봇 장치와, 문자 인식 장치 및 문자 인식 방법과, 제어프로그램 및 기록 매체 |
JP2003205483A (ja) | 2001-11-07 | 2003-07-22 | Sony Corp | ロボットシステム及びロボット装置の制御方法 |
JP2004268235A (ja) | 2003-03-11 | 2004-09-30 | Sony Corp | ロボット装置、その行動制御方法及びプログラム |
JP2004309523A (ja) | 2003-04-01 | 2004-11-04 | Sony Corp | ロボット装置の動作パターン共有システム、ロボット装置の動作パターン共有方法、及びロボット装置 |
JP2005059186A (ja) | 2003-08-19 | 2005-03-10 | Sony Corp | ロボット装置及びその制御方法 |
JP2005193331A (ja) | 2004-01-06 | 2005-07-21 | Sony Corp | ロボット装置及びその情動表出方法 |
ATE524784T1 (de) | 2005-09-30 | 2011-09-15 | Irobot Corp | Begleitroboter für persönliche interaktion |
US7738997B2 (en) | 2005-12-19 | 2010-06-15 | Chyi-Yeu Lin | Robotic system for synchronously reproducing facial expression and speech and related method thereof |
US20080071540A1 (en) | 2006-09-13 | 2008-03-20 | Honda Motor Co., Ltd. | Speech recognition method for robot under motor noise thereof |
JP5041934B2 (ja) | 2006-09-13 | 2012-10-03 | 本田技研工業株式会社 | ロボット |
JP4560078B2 (ja) | 2007-12-06 | 2010-10-13 | 本田技研工業株式会社 | コミュニケーションロボット |
JP2009222969A (ja) | 2008-03-17 | 2009-10-01 | Toyota Motor Corp | 音声認識ロボットおよび音声認識ロボットの制御方法 |
-
2012
- 2012-01-17 US US13/352,182 patent/US9431027B2/en active Active
- 2012-01-23 JP JP2013551266A patent/JP5967838B2/ja not_active Expired - Fee Related
- 2012-01-23 WO PCT/US2012/022258 patent/WO2012103030A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2012103030A1 (en) | 2012-08-02 |
JP2014504959A (ja) | 2014-02-27 |
US9431027B2 (en) | 2016-08-30 |
US20120191460A1 (en) | 2012-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5967838B2 (ja) | 人間型ロボットのジェスチャと音声の同期 | |
CN106653052B (zh) | 虚拟人脸动画的生成方法及装置 | |
Ng-Thow-Hing et al. | Synchronized gesture and speech production for humanoid robots | |
Hartmann et al. | Implementing expressive gesture synthesis for embodied conversational agents | |
KR20120130627A (ko) | 아바타를 이용한 애니메이션 생성 장치 및 방법 | |
JP4792703B2 (ja) | 音声解析装置、音声解析方法及び音声解析プログラム | |
Kopp et al. | Imitation games with an artificial agent: From mimicking to understanding shape-related iconic gestures | |
JP6201212B2 (ja) | キャラクタ生成装置およびプログラム | |
JP2024016167A (ja) | マシン相互作用 | |
WO2011083978A2 (ko) | 캐릭터의 발화와 감정표현 제공 시스템 및 방법 | |
Gibet et al. | High-level specification and animation of communicative gestures | |
JP5877418B2 (ja) | シナリオ生成装置およびシナリオ生成方法 | |
JP3652961B2 (ja) | 音声処理装置、音声・動画像処理装置及び音声・動画像処理プログラムを記録した記録媒体 | |
Niewiadomski et al. | Human and virtual agent expressive gesture quality analysis and synthesis | |
Lebourque et al. | A complete system for the specification and the generation of sign language gestures | |
Pausch et al. | Tailor: creating custom user interfaces based on gesture | |
Voß et al. | Augmented Co-Speech Gesture Generation: Including Form and Meaning Features to Guide Learning-Based Gesture Synthesis | |
Le et al. | A common gesture and speech production framework for virtual and physical agents | |
JP7201984B2 (ja) | アンドロイドのジェスチャ生成装置及びコンピュータプログラム | |
Chen et al. | A novel approach of system design for dialect speech interaction with NAO robot | |
Altarawneh et al. | Leveraging Cloud-based Tools to Talk with Robots. | |
Kocoń | Head movements in the idle loop animation | |
Corradini et al. | Towards believable behavior generation for embodied conversational agents | |
JP3848076B2 (ja) | 仮想生物システム及び仮想生物システムにおけるパタン学習方法 | |
Tanaka et al. | Verbal/nonverbal communication between man and avatar in virtual mechanical assembly training system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150123 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160304 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160607 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160704 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5967838 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |