JP2014504959A - 人間型ロボットのジェスチャと音声の同期 - Google Patents
人間型ロボットのジェスチャと音声の同期 Download PDFInfo
- Publication number
- JP2014504959A JP2014504959A JP2013551266A JP2013551266A JP2014504959A JP 2014504959 A JP2014504959 A JP 2014504959A JP 2013551266 A JP2013551266 A JP 2013551266A JP 2013551266 A JP2013551266 A JP 2013551266A JP 2014504959 A JP2014504959 A JP 2014504959A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- robot
- rules
- pattern
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 claims abstract description 68
- 238000000034 method Methods 0.000 claims abstract description 44
- 230000009471 action Effects 0.000 claims abstract description 17
- 239000012636 effector Substances 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 14
- 238000003860 storage Methods 0.000 claims description 4
- 230000001360 synchronised effect Effects 0.000 claims description 4
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 2
- 230000001755 vocal effect Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 18
- 238000004458 analytical method Methods 0.000 abstract description 13
- 230000006854 communication Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000012544 monitoring process Methods 0.000 description 10
- 230000015572 biosynthetic process Effects 0.000 description 7
- 238000003786 synthesis reaction Methods 0.000 description 7
- 241000282412 Homo Species 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000007935 neutral effect Effects 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 230000010391 action planning Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000704 physical effect Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 230000007175 bidirectional communication Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000005281 excited state Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/10—Transforming into visible information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Abstract
【解決手段】本発明のシステム又は方法は、発話文を分析し複数のジェスチャ候補から適当なジェスチャを選択することによって、ロボットが音声を出力する間にロボットのジェスチャを生成する。発話文が分析され、ジェスチャの生成に関する情報が発話文にタグ付けされる。発話文、タグ付けされた情報及び他の関連情報に基づいてジェスチャ識別子が選択される。ジェスチャ識別子に対応するジェスチャテンプレートが検索され、関連するパラメータを追加して、ロボットが行うはずのジェスチャを示すジェスチャ記述子を生成することによって、ジェスチャテンプレートが処理される。ジェスチャ記述子及び音声に関連付けられたタイミングの分析に基づいてジェスチャ動作が計画される。腕や手のようなアクチュエータを制御する信号が、計画されたジェスチャ動作に基づいて生成される。
【選択図】図3B
Description
図3Aは、ある実施形態に係るロボット100内のジェスチャ生成部210のブロック図である。ジェスチャ生成部210は、発話文204を受け取り、ロボット100が行うはずであるジェスチャを示すジェスチャ記述子214を生成する。ジェスチャ生成部210は、他の構成要素とともに、プロセッサ310、出力インタフェース314、入力インタフェース318及びメモリ330を含み得る。これらの構成要素は、バス322を介して接続されている。図2を参照しつつ前記したように、ジェスチャ生成部210は、動作生成部230、周辺監視モジュール240及び音声合成部260のような、ロボット100の他の構成要素と一体化されてもよい。
図4は、ある実施形態に係る、異なる複数の文法モジュール340のアクティブなジェスチャ識別子を示す図である。単語シーケンス(例えば、文)が複数の文法モジュールによって分析されるにつれて、文法モジュール340のそれぞれは、単語シーケンスの複数の異なる点を検出して、ジェスチャ識別子342を生成し得る。
図6は、ある実施形態に係る動作生成部230を示す図である。動作生成部230は、他の構成要素とともに、動作計画部610、動作テンプレートデータベース620、動作無作為化部630及び動作制御部640を含み得る。これらの構成要素は、図3に示されるジェスチャ生成部210と同じハードウエア構成によって実現されてもよい。
図7A及び図7Bは,ある実施形態に係る、ジェスチャを生成する処理手順を示すフローチャートである。ジェスチャ生成部210は、発話文を受け取る(ステップ706)。発話文は、人間オペレータから受け取ってもよいし、コンピュータアルゴリズムから受け取ってもよい。次に、受け取られた発話文を分析して、当該テキストに追加ヒント又は他の情報がタグ付けされる(ステップ710)。ジェスチャ生成部210は、表現力パラメータxも受け取る(ステップ714)。
1又は複数の実施形態において、ジェスチャを生成する処理は、現実のロボットとは対照的に、コンピュータグラフィック又はコンピュータ摸擬にも使用され得る。摸擬されたジェスチャが生成されユーザに対してスクリーン上に表示されて、コンピュータ化された仮想キャラクターを含むビデオシーケンスの生成を容易にする、又は、ロボットに対してなされる現実の操作を評価する。
Claims (20)
- ロボットのジェスチャを生成するコンピュータを用いた方法であって、
前記方法は、
1又は複数の音声要素を含む発話文を受け取り、
複数のパターンモジュールによって前記発話文を分析して前記音声要素と結びついた1又は複数のジェスチャ候補を特定し、
前記複数のパターンモジュールによって特定された前記1又は複数のジェスチャ候補から1つのジェスチャを選択し、
前記ロボットの複数のアクチュエータを制御することによって前記選択されたジェスチャを生成し、
前記複数のパターンモジュールのそれぞれは、
異なる規則の集合を適用して、前記音声要素に対応する1又は複数のジェスチャ候補を特定すること、
を特徴とする方法。 - 前記方法は、
前記発話文を合成することによって音声出力を生成し、
前記音声出力は、
前記ロボットによって生成される前記ジェスチャに同期していること、
を特徴とする請求項1に記載の方法。 - 前記方法は、
前記音声出力中の前記音声要素のタイミングを分析し、
前記選択されたジェスチャ又は前記合成された音声出力を調整して、前記選択されたジェスチャのタイミング及び前記音声出力中の前記音声要素のタイミングを同期させること、
を特徴とする請求項2に記載の方法。 - 前記方法は、
前記発話文を分析することによって前記発話文に情報をタグ付けし、
前記1又は複数のジェスチャ候補は、
前記タグ付けされた情報をさらに分析することによって特定されること、
を特徴とする請求項1に記載の方法。 - 前記タグ付けされた情報は、
前記音声要素の単語のタイプを示すこと、
を特徴とする請求項4に記載の方法。 - 前記方法は、
前記ロボットが表現するはずである表現力の度合いを示す表現力パラメータを受け取り、
前記表現力パラメータに基づいて前記ジェスチャを選択すること、
を特徴とする請求項1に記載の方法。 - 前記方法は、
乱数に基づいて、前記選択されたジェスチャの、振幅、周波数及び速度のうちの少なくとも1つを修正すること、
を特徴とする請求項1に記載の方法。 - 前記方法は、
前記選択されたジェスチャに対応する動作を作成する前に、準備動作を追加することによって、前記選択されたジェスチャを計画すること、
を特徴とする請求項6に記載の方法。 - 前記準備動作は、
前のジェスチャ又は開始ジェスチャの終了位置から、前記選択されたジェスチャの初期位置へ、エフェクタを移動させること、
を特徴とする請求項8に記載の方法。 - 前記複数のパターンモジュールは、
第1の規則の集合を適用してエンブレムを検出する第1のパターンモジュールと、
第2の規則の集合を適用してアイコニクスを検出する第2のパターンモジュールと、
第3の規則の集合を適用して隠喩を検出する第3のパターンモジュールと、
第4の規則の集合を適用して直示を検出する第4のパターンモジュールと、
第5の規則の集合を適用して拍子を検出する第5のパターンモジュールと、
を含むこと、
を特徴とする請求項1に記載の方法。 - ジェスチャを生成するロボットであって、
前記ロボットは、
ジェスチャ生成部、動作生成部及び少なくとも1つのアクチュエータを有し、
前記ジェスチャ生成部は、
1又は複数の音声要素を含む発話文を受け取り、
複数のパターンモジュールによって前記発話文を分析して前記音声要素と結びついた1又は複数のジェスチャ候補を特定し、
前記複数のパターンモジュールによって特定された前記1又は複数のジェスチャ候補から1つのジェスチャを選択し、
前記動作生成部は、
前記選択されたジェスチャに基づいて、制御信号を生成し、
前記少なくとも1つのアクチュエータは、
前記制御信号に応じて、前記ロボットの部分に相対運動を起こさせ、
前記複数のパターンモジュールのそれぞれは、
複数の規則のうちの異なる集合を適用して、前記音声要素に対応する1又は複数のジェスチャ候補を特定すること、
を特徴とするロボット。 - 前記ロボットは、
前記発話文を合成することによって音声出力を生成する音声合成部を有し、
前記音声出力は、
前記ロボットによって生成される前記ジェスチャに同期していること、
を特徴とする請求項11に記載のロボット。 - 前記動作生成部は、
前記音声出力中の前記音声要素のタイミングを分析し、
前記選択されたジェスチャを調整して、前記選択されたジェスチャのタイミング及び前記音声出力中の前記音声要素のタイミングを同期させること、
を特徴とする請求項12に記載のロボット。 - 前記ジェスチャ生成部は、
前記発話文を分析することによって前記発話文に情報をタグ付けし、
前記1又は複数のジェスチャ候補は、
前記タグ付けされた情報をさらに分析することによって特定されること、
を特徴とする請求項11に記載のロボット。 - 前記タグ付けされた情報は、
前記音声要素の単語のタイプを示すこと、
を特徴とする請求項14に記載のロボット。 - 前記ジェスチャ生成部は、
前記ロボットが表現するはずである表現力の度合いを示す表現力パラメータを受け取り、
前記表現力パラメータに基づいて前記ジェスチャを選択すること、
を特徴とする請求項11に記載のロボット。 - 前記動作生成部は、
乱数に基づいて、前記選択されたジェスチャの、振幅、周波数及び速度のうちの少なくとも1つを修正すること、
を特徴とする請求項11に記載のロボット。 - 前記動作生成部は、
前記選択されたジェスチャに対応する動作を作成する前に、準備動作を追加することによって、前記選択されたジェスチャを計画すること、
を特徴とする請求項16に記載のロボット。 - 前記複数のパターンモジュールは、
第1の規則の集合を適用してエンブレムを検出する第1のパターンモジュールと、
第2の規則の集合を適用してアイコニクスを検出する第2のパターンモジュールと、
第3の規則の集合を適用して隠喩を検出する第3のパターンモジュールと、
第4の規則の集合を適用して直示を検出する第4のパターンモジュールと、
第5の規則の集合を適用して拍子を検出する第5のパターンモジュールと、
を含むこと、
を特徴とする請求項11に記載のロボット。 - 口頭の命令を認識するための不揮発性のコンピュータ読取可能な記憶媒体であって、
前記記憶媒体に記憶される指示は、
プロセッサに対して、
1又は複数の音声要素を含む発話文を受け取り、
複数のパターンモジュールによって前記発話文を分析して前記音声要素と結びついた1又は複数のジェスチャ候補を特定し、
前記複数のパターンモジュールによって特定された前記1又は複数のジェスチャ候補から1つのジェスチャを選択し、
ロボットの複数のアクチュエータを制御することによって前記選択されたジェスチャを生成する処理を実行させ、
前記複数のパターンモジュールのそれぞれは、
複数の規則のうちの異なる集合を適用して、前記音声要素に対応する1又は複数のジェスチャ候補を特定すること、
を特徴とする記憶媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161436546P | 2011-01-26 | 2011-01-26 | |
US61/436,546 | 2011-01-26 | ||
US13/352,182 US9431027B2 (en) | 2011-01-26 | 2012-01-17 | Synchronized gesture and speech production for humanoid robots using random numbers |
US13/352,182 | 2012-01-17 | ||
PCT/US2012/022258 WO2012103030A1 (en) | 2011-01-26 | 2012-01-23 | Synchronized gesture and speech production for humanoid robots |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2014504959A true JP2014504959A (ja) | 2014-02-27 |
JP2014504959A5 JP2014504959A5 (ja) | 2015-03-12 |
JP5967838B2 JP5967838B2 (ja) | 2016-08-10 |
Family
ID=46544827
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013551266A Expired - Fee Related JP5967838B2 (ja) | 2011-01-26 | 2012-01-23 | 人間型ロボットのジェスチャと音声の同期 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9431027B2 (ja) |
JP (1) | JP5967838B2 (ja) |
WO (1) | WO2012103030A1 (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170128194A (ko) * | 2017-11-14 | 2017-11-22 | 한국과학기술연구원 | 지식모델을 이용한 로봇의 동작 구현 장치 및 방법 |
WO2017199585A1 (ja) * | 2016-05-19 | 2017-11-23 | シャープ株式会社 | ロボット、ロボットの動作方法、及びプログラム |
JP2017213612A (ja) * | 2016-05-30 | 2017-12-07 | トヨタ自動車株式会社 | ロボットおよびロボットの制御方法 |
WO2018139275A1 (ja) * | 2017-01-30 | 2018-08-02 | 富士通株式会社 | 機器、出力装置、出力方法および出力プログラム |
JP2020006482A (ja) * | 2018-07-09 | 2020-01-16 | 株式会社国際電気通信基礎技術研究所 | アンドロイドのジェスチャ生成装置及びコンピュータプログラム |
JP2020060805A (ja) * | 2018-10-04 | 2020-04-16 | 富士通株式会社 | コミュニケーション装置、コミュニケーション方法、及びコミュニケーションプログラム |
KR20210078172A (ko) * | 2019-12-18 | 2021-06-28 | 한국과학기술연구원 | 형태소 기반 로봇 제스처 생성 장치 및 방법 |
WO2022270319A1 (ja) * | 2021-06-25 | 2022-12-29 | 慶應義塾 | 動作データ管理システム、動作データ管理方法、及びプログラム |
WO2023027433A1 (ko) * | 2021-08-25 | 2023-03-02 | 삼성전자주식회사 | 로봇 및 그 제어 방법 |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102009057725A1 (de) * | 2009-12-10 | 2011-06-16 | Siemens Enterprise Communications Gmbh & Co. Kg | Signalgebende Vorrichtung, Signalisiervorrichtung, Signalgebungsverfahren sowie Signalisierverfahren |
US9588964B2 (en) | 2012-09-18 | 2017-03-07 | Adobe Systems Incorporated | Natural language vocabulary generation and usage |
US10656808B2 (en) | 2012-09-18 | 2020-05-19 | Adobe Inc. | Natural language and user interface controls |
US9141335B2 (en) | 2012-09-18 | 2015-09-22 | Adobe Systems Incorporated | Natural language image tags |
US9412366B2 (en) | 2012-09-18 | 2016-08-09 | Adobe Systems Incorporated | Natural language image spatial and tonal localization |
US9436382B2 (en) * | 2012-09-18 | 2016-09-06 | Adobe Systems Incorporated | Natural language image editing |
US9302393B1 (en) * | 2014-04-15 | 2016-04-05 | Alan Rosen | Intelligent auditory humanoid robot and computerized verbalization system programmed to perform auditory and verbal artificial intelligence processes |
JP6483578B2 (ja) * | 2015-09-14 | 2019-03-13 | 株式会社東芝 | 音声合成装置、音声合成方法およびプログラム |
US10289076B2 (en) * | 2016-11-15 | 2019-05-14 | Roborus Co., Ltd. | Concierge robot system, concierge service method, and concierge robot |
US10565434B2 (en) * | 2017-06-30 | 2020-02-18 | Google Llc | Compact language-free facial expression embedding and novel triplet training scheme |
US10777198B2 (en) * | 2017-11-24 | 2020-09-15 | Electronics And Telecommunications Research Institute | Apparatus for determining speech properties and motion properties of interactive robot and method thereof |
JP7109207B2 (ja) * | 2018-02-23 | 2022-07-29 | パナソニックホールディングス株式会社 | 相互作用装置、相互作用方法、相互作用プログラム及びロボット |
CN113689880A (zh) * | 2020-05-18 | 2021-11-23 | 北京搜狗科技发展有限公司 | 实时驱动虚拟人的方法、装置、电子设备及介质 |
KR102576788B1 (ko) | 2020-08-21 | 2023-09-11 | 한국전자통신연구원 | 로봇 인터랙션 행위 생성 장치 및 방법 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001188784A (ja) * | 1999-12-28 | 2001-07-10 | Sony Corp | 会話処理装置および方法、並びに記録媒体 |
JP2001188555A (ja) * | 1999-12-28 | 2001-07-10 | Sony Corp | 情報処理装置および方法、並びに記録媒体 |
JP2003044080A (ja) * | 2001-05-02 | 2003-02-14 | Sony Corp | ロボット装置、文字認識装置及び文字認識方法、並びに、制御プログラム及び記録媒体 |
JP2003205483A (ja) * | 2001-11-07 | 2003-07-22 | Sony Corp | ロボットシステム及びロボット装置の制御方法 |
JP2004268235A (ja) * | 2003-03-11 | 2004-09-30 | Sony Corp | ロボット装置、その行動制御方法及びプログラム |
JP2004309523A (ja) * | 2003-04-01 | 2004-11-04 | Sony Corp | ロボット装置の動作パターン共有システム、ロボット装置の動作パターン共有方法、及びロボット装置 |
JP2005059186A (ja) * | 2003-08-19 | 2005-03-10 | Sony Corp | ロボット装置及びその制御方法 |
JP2008122927A (ja) * | 2006-09-13 | 2008-05-29 | Honda Motor Co Ltd | モータ雑音下におけるロボット用音声認識方法 |
JP2009136967A (ja) * | 2007-12-06 | 2009-06-25 | Honda Motor Co Ltd | コミュニケーションロボット |
JP2009222969A (ja) * | 2008-03-17 | 2009-10-01 | Toyota Motor Corp | 音声認識ロボットおよび音声認識ロボットの制御方法 |
JP2010149276A (ja) * | 1999-01-20 | 2010-07-08 | Sony Corp | ロボット装置及び動作制御方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002091356A1 (fr) | 2001-05-02 | 2002-11-14 | Sony Corporation | Dispositif robot, appareil de reconnaissance de caracteres, procede de lecture de caracteres, programme de commande et support d'enregistrement |
JP2005193331A (ja) | 2004-01-06 | 2005-07-21 | Sony Corp | ロボット装置及びその情動表出方法 |
EP2050544B1 (en) | 2005-09-30 | 2011-08-31 | iRobot Corporation | Robot system with wireless communication by TCP/IP transmissions |
US7738997B2 (en) | 2005-12-19 | 2010-06-15 | Chyi-Yeu Lin | Robotic system for synchronously reproducing facial expression and speech and related method thereof |
US20080071540A1 (en) | 2006-09-13 | 2008-03-20 | Honda Motor Co., Ltd. | Speech recognition method for robot under motor noise thereof |
-
2012
- 2012-01-17 US US13/352,182 patent/US9431027B2/en active Active
- 2012-01-23 JP JP2013551266A patent/JP5967838B2/ja not_active Expired - Fee Related
- 2012-01-23 WO PCT/US2012/022258 patent/WO2012103030A1/en active Application Filing
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010149276A (ja) * | 1999-01-20 | 2010-07-08 | Sony Corp | ロボット装置及び動作制御方法 |
JP2010149277A (ja) * | 1999-01-20 | 2010-07-08 | Sony Corp | ロボット装置及び動作制御方法 |
JP2001188784A (ja) * | 1999-12-28 | 2001-07-10 | Sony Corp | 会話処理装置および方法、並びに記録媒体 |
JP2001188555A (ja) * | 1999-12-28 | 2001-07-10 | Sony Corp | 情報処理装置および方法、並びに記録媒体 |
JP2003044080A (ja) * | 2001-05-02 | 2003-02-14 | Sony Corp | ロボット装置、文字認識装置及び文字認識方法、並びに、制御プログラム及び記録媒体 |
JP2003205483A (ja) * | 2001-11-07 | 2003-07-22 | Sony Corp | ロボットシステム及びロボット装置の制御方法 |
JP2004268235A (ja) * | 2003-03-11 | 2004-09-30 | Sony Corp | ロボット装置、その行動制御方法及びプログラム |
JP2004309523A (ja) * | 2003-04-01 | 2004-11-04 | Sony Corp | ロボット装置の動作パターン共有システム、ロボット装置の動作パターン共有方法、及びロボット装置 |
JP2005059186A (ja) * | 2003-08-19 | 2005-03-10 | Sony Corp | ロボット装置及びその制御方法 |
JP2008122927A (ja) * | 2006-09-13 | 2008-05-29 | Honda Motor Co Ltd | モータ雑音下におけるロボット用音声認識方法 |
JP2009136967A (ja) * | 2007-12-06 | 2009-06-25 | Honda Motor Co Ltd | コミュニケーションロボット |
JP2009222969A (ja) * | 2008-03-17 | 2009-10-01 | Toyota Motor Corp | 音声認識ロボットおよび音声認識ロボットの制御方法 |
Non-Patent Citations (2)
Title |
---|
BREMNER, P.; PIPE, A.; MELHUISH, C.; FRASER, M.; SUBRAMANIAN, S.: "Conversational gestures in human-robot interaction", PROCEEDINGS OF IEEE INTERNATIONAL CONFERENCE ON SYSTEMS, MAN AND CYBERNETICS, 2009. SMC 2009., JPN6015053025, October 2009 (2009-10-01), pages 1645 - 1649, XP031575513, ISSN: 0003329651 * |
HANAFIAH, Z.M.; YAMAZAKI, C.; NAKAMURA, A.; KUNO, Y.: "Understanding inexplicit utterances using vision for helper robots", PROCEEDINGS OF THE 17TH INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION, 2004. ICPR 2004., JPN6015053026, October 2006 (2006-10-01), pages 1437 - 1440, ISSN: 0003329652 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017199585A1 (ja) * | 2016-05-19 | 2017-11-23 | シャープ株式会社 | ロボット、ロボットの動作方法、及びプログラム |
JP2017213612A (ja) * | 2016-05-30 | 2017-12-07 | トヨタ自動車株式会社 | ロボットおよびロボットの制御方法 |
US10916236B2 (en) | 2017-01-30 | 2021-02-09 | Fujitsu Limited | Output device, output method, and electronic apparatus |
WO2018139275A1 (ja) * | 2017-01-30 | 2018-08-02 | 富士通株式会社 | 機器、出力装置、出力方法および出力プログラム |
JP2018122366A (ja) * | 2017-01-30 | 2018-08-09 | 富士通株式会社 | 機器、出力装置、出力方法および出力プログラム |
KR101964300B1 (ko) * | 2017-11-14 | 2019-04-01 | 한국과학기술연구원 | 지식모델을 이용한 로봇의 동작 구현 장치 및 방법 |
KR20170128194A (ko) * | 2017-11-14 | 2017-11-22 | 한국과학기술연구원 | 지식모델을 이용한 로봇의 동작 구현 장치 및 방법 |
JP2020006482A (ja) * | 2018-07-09 | 2020-01-16 | 株式会社国際電気通信基礎技術研究所 | アンドロイドのジェスチャ生成装置及びコンピュータプログラム |
JP7201984B2 (ja) | 2018-07-09 | 2023-01-11 | 株式会社国際電気通信基礎技術研究所 | アンドロイドのジェスチャ生成装置及びコンピュータプログラム |
JP2020060805A (ja) * | 2018-10-04 | 2020-04-16 | 富士通株式会社 | コミュニケーション装置、コミュニケーション方法、及びコミュニケーションプログラム |
JP7225654B2 (ja) | 2018-10-04 | 2023-02-21 | 富士通株式会社 | コミュニケーション装置、コミュニケーション方法、及びコミュニケーションプログラム |
KR20210078172A (ko) * | 2019-12-18 | 2021-06-28 | 한국과학기술연구원 | 형태소 기반 로봇 제스처 생성 장치 및 방법 |
KR102301042B1 (ko) * | 2019-12-18 | 2021-09-14 | 한국과학기술연구원 | 형태소 기반 로봇 제스처 생성 장치 및 방법 |
WO2022270319A1 (ja) * | 2021-06-25 | 2022-12-29 | 慶應義塾 | 動作データ管理システム、動作データ管理方法、及びプログラム |
WO2023027433A1 (ko) * | 2021-08-25 | 2023-03-02 | 삼성전자주식회사 | 로봇 및 그 제어 방법 |
Also Published As
Publication number | Publication date |
---|---|
JP5967838B2 (ja) | 2016-08-10 |
US20120191460A1 (en) | 2012-07-26 |
WO2012103030A1 (en) | 2012-08-02 |
US9431027B2 (en) | 2016-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5967838B2 (ja) | 人間型ロボットのジェスチャと音声の同期 | |
WO2022048403A1 (zh) | 基于虚拟角色的多模态交互方法、装置及系统、存储介质、终端 | |
CN106653052B (zh) | 虚拟人脸动画的生成方法及装置 | |
Hartmann et al. | Implementing expressive gesture synthesis for embodied conversational agents | |
Lee et al. | MMDAgent—A fully open-source toolkit for voice interaction systems | |
JP5616325B2 (ja) | ユーザ命令に基づいて表示を変更する方法 | |
KR20120130627A (ko) | 아바타를 이용한 애니메이션 생성 장치 및 방법 | |
JP4792703B2 (ja) | 音声解析装置、音声解析方法及び音声解析プログラム | |
Kopp et al. | Imitation games with an artificial agent: From mimicking to understanding shape-related iconic gestures | |
WO2020129959A1 (ja) | コンピュータプログラム、サーバ装置、端末装置及び表示方法 | |
JP6201212B2 (ja) | キャラクタ生成装置およびプログラム | |
WO2011083978A2 (ko) | 캐릭터의 발화와 감정표현 제공 시스템 및 방법 | |
Gibet et al. | High-level specification and animation of communicative gestures | |
JP5877418B2 (ja) | シナリオ生成装置およびシナリオ生成方法 | |
Lebourque et al. | A complete system for the specification and the generation of sign language gestures | |
Pausch et al. | Tailor: creating custom user interfaces based on gesture | |
Le et al. | A common gesture and speech production framework for virtual and physical agents | |
JP7201984B2 (ja) | アンドロイドのジェスチャ生成装置及びコンピュータプログラム | |
Chen et al. | A novel approach of system design for dialect speech interaction with NAO robot | |
Altarawneh et al. | Leveraging Cloud-based Tools to Talk with Robots. | |
Kocoń | Head movements in the idle loop animation | |
Corradini et al. | Towards believable behavior generation for embodied conversational agents | |
JP3848076B2 (ja) | 仮想生物システム及び仮想生物システムにおけるパタン学習方法 | |
Tanaka et al. | Verbal/nonverbal communication between man and avatar in virtual mechanical assembly training system | |
Yang et al. | A multimodal approach of generating 3D human-like talking agent |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150123 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160304 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160607 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160704 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5967838 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |