JP2014504959A - 人間型ロボットのジェスチャと音声の同期 - Google Patents

人間型ロボットのジェスチャと音声の同期 Download PDF

Info

Publication number
JP2014504959A
JP2014504959A JP2013551266A JP2013551266A JP2014504959A JP 2014504959 A JP2014504959 A JP 2014504959A JP 2013551266 A JP2013551266 A JP 2013551266A JP 2013551266 A JP2013551266 A JP 2013551266A JP 2014504959 A JP2014504959 A JP 2014504959A
Authority
JP
Japan
Prior art keywords
gesture
robot
rules
pattern
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013551266A
Other languages
English (en)
Other versions
JP5967838B2 (ja
JP2014504959A5 (ja
Inventor
ング−ソウ−ヒン,ビクター
ルオ,ペンチェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2014504959A publication Critical patent/JP2014504959A/ja
Publication of JP2014504959A5 publication Critical patent/JP2014504959A5/ja
Application granted granted Critical
Publication of JP5967838B2 publication Critical patent/JP5967838B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L21/10Transforming into visible information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Abstract

【課題】自然なロボットの動作を生成する。
【解決手段】本発明のシステム又は方法は、発話文を分析し複数のジェスチャ候補から適当なジェスチャを選択することによって、ロボットが音声を出力する間にロボットのジェスチャを生成する。発話文が分析され、ジェスチャの生成に関する情報が発話文にタグ付けされる。発話文、タグ付けされた情報及び他の関連情報に基づいてジェスチャ識別子が選択される。ジェスチャ識別子に対応するジェスチャテンプレートが検索され、関連するパラメータを追加して、ロボットが行うはずのジェスチャを示すジェスチャ記述子を生成することによって、ジェスチャテンプレートが処理される。ジェスチャ記述子及び音声に関連付けられたタイミングの分析に基づいてジェスチャ動作が計画される。腕や手のようなアクチュエータを制御する信号が、計画されたジェスチャ動作に基づいて生成される。
【選択図】図3B

Description

本発明は、ロボットによって生成されるはずの発話文を分析することによって、ロボットのジェスチャを作成することに関する。
人間ロボット間意思疎通(HRI)のために、様々な方法が使用され得る。HRIの1つの方法は、コンピュータユーザインターフェースの使用である。この方法の一例は、コンピュータを使用して、ロボットに命令又は指示をアップロードすることである。一般的に、このような意思疎通は、コンピュータプログラミングに詳しくロボット操作についての深い知識を有するユーザ向けである。他の操作方法として、音声合成及び音声認識の使用がある。ロボットについての技術的知識を欠く一般の人々は、ロボットに対して話しかけ、ロボットが生成する任意の音声を聞き取ることによって、自然にロボットと意思疎通する。このような操作方法は、人間側にとっては直感的であるが、音声を処理し合成するハードウエア装置及びコンピュータプログラムを必要とするかもしれない。
人間とロボットとの間の意思疎通を増進する1つの方法は、ジェスチャを使用することである。ジェスチャは、身体動作によってなされる非言語コミュニケーションの一形態である。ジェスチャは、それ自身で又は音声との組合せで、人間が他人と効果的に意思疎通することを可能にする。
ジェスチャは、異なる複数のタイプに分類できる。ジェスチャの一種は、エンブレムである。エンブレムとは、言葉が話されなくても意味が理解できる自己充足型ジェスチャのことである。エンブレムは、例えば、手を振って、“さようなら”又は“こんにちは”の意を伝えることを含む。アイコニクスは、言葉とともに使用されて具体物を示すジェスチャの一種である。アイコニクスは、例えば、通り道の軌跡を辿ることを含む。隠喩は、抽象概念のイメージを提供するジェスチャの一群である。隠喩は、目に見えない物を右手と左手に持っているように見せかけることによって議論の側面に言及するジェスチャを含む。直示は、身体の一部を使用して、会話中に具体物及び抽象物の両者を指すジェスチャである。直示は、例えば、人差し指で関心対象を指しながら腕を使用することを含む。拍子は、音声の抑揚に同調してリズミカルに手を動かすジェスチャの一群である。音声の進行中に、複数のタイプのジェスチャが表現されることもある。
人間型ロボットは、人間に類似した外観及び特徴を有する。したがって、多くの人が、これらのロボットに対して自然な親近感を覚える。しかしながら、人間型ロボットは、人間との意思疎通中に動かなくなることがよくある。すると、ユーザは、ロボットとの意思疎通が、人間との意思疎通に比べて不自然でぎこちないものであると感じることが多い。
実施形態は、異なる規則の集合を使用して発話文を分析し、ジェスチャのタイプごとに1又は複数のジェスチャ候補を特定することによって、ロボットのジェスチャを生成することに関する。1又は複数のジェスチャ候補のうちから、実施対象として1つのジェスチャが選択されてもよい。選択されたジェスチャに対応するアクチュエータ信号を生成することによって、ロボットのアクチュエータが制御されてもよい。
ある実施形態においては、発話文を合成することによって生成された音声出力が、ロボットによって生成されたジェスチャと同期する。選択されたジェスチャ又は合成された音声を調整することによって、同期が取られてもよい。
ある実施形態においては、発話文を分析することによって、その発話文に対して情報がタグ付けされる。1又は複数のジェスチャ候補は、発話文だけではなくタグ付けされた情報も分析することによって特定される。
ある実施形態においては、タグ付けされた情報は、音声要素の単語のタイプを示す。
ある実施形態において、ロボットが表現するはずの表現力を示す表現力パラメータが受け取られる。より高い表現力パラメータは、より表現力が大きいとされるジェスチャが選択される機会を増やし得る一方、より低い表現力パラメータは、より表現力が小さいとされるジェスチャが選択される機会を増やし得る。ジェスチャは、さらに表現力パラメータに基づいて選択される。
ある実施形態においては、選択されたジェスチャの振幅、周波数及び速度のうちの少なくとも1つが、乱数に基づいて修正される。このように、無作為性がジェスチャに導入されて、ジェスチャを非反復的にし、より自然に見せる。
ある実施形態においては、選択されたジェスチャに対応する動作を作成する前に、準備動作を加えることによって、選択されたジェスチャが計画される。準備動作は、前のジェスチャ又は開始ジェスチャの終了位置から、選択されたジェスチャの初期位置へ、エフェクタを移動してもよい。
ある実施形態においては、複数のパターンモジュールが、発話文内のパターンの一致を検出するために使用される。複数のパターンモジュールは、第1のパターンモジュール、第2のパターンモジュール、第3のパターンモジュール、第4のパターンモジュール及び第5のパターンモジュールを含む。第1のパターンモジュールは、第1の規則の集合を適用してエンブレムを検出する。第2のパターンモジュールは、第2の規則の集合を適用してアイコニクスを検出する。第3のパターンモジュールは、第3の規則の集合を適用して隠喩を検出する。第4のパターンモジュールは、第4の規則の集合を適用して直示を検出する。第5のパターンモジュールは、第5の規則の集合を適用して拍子を検出する。これらパターンモジュールのうちの1又は複数は、文法規則を発話文に対して適用してもよい。
本明細書に記述されている特徴及び利点は、限定的なものではなく、図面、明細書及び特許請求の範囲を見れば、当業者には、追加的な特徴及び利点が明らかになる。さらに、本明細書中で使用される用語は、主として意味の取りやすさ及び教示目的から選択されており、本発明の主旨を限定するために選択されているものではないことは当然である。
添付図面を参照しつつ以降に詳述される説明を読めば、本発明の教示は容易に理解される。
ある実施形態に係る、ロボット及びロボットと通信する遠隔コンピュータの図である。 ある実施形態に係るロボットのブロック図である。 ある実施形態に係るロボット内のジェスチャ生成部のブロック図である。 ある実施形態に係る、図3Aのジェスチャ生成部のソフトウエア構成を示すブロック図である。 ある実施形態に係る、異なる複数の文法モジュールのアクティブな文法識別子を示す図である。 ある実施形態に係る、ロボットが表現するはずのジェスチャの選択と重みとの関連を示すグラフである。 ある実施形態に係る動作生成部を示す図である。 ある実施形態に係る、ジェスチャを生成する処理手順を示すフローチャートである。 ある実施形態に係る、ジェスチャを生成する処理手順を示すフローチャートである。
本発明の好適な一実施形態を、図を参照しつつ説明する。複数の図にまたがって同様の参照番号が記される場合、それらは同一の又は機能的に類似した構成要素を意味する。
本明細書において、“一実施形態”又は“ある実施形態”と言う場合は、本発明の少なくとも1つの実施形態に、その実施形態に関連して記述される1つの特徴又は構造が含まれていることを意味する。本明細書のあちこちに“ある実施形態では”という語が出現しても、必ずしも同一の実施形態を指しているわけではない。
後記する詳細説明のいくつかの部分は、アルゴリズム用語や、コンピュータメモリ内のデータビット作業を示す象徴的な表現による。これらのアルゴリズム的な説明や表現は、情報処理分野の当業者が、自らの業績の要旨を、同分野の他の当業者に最も効率的に伝えるために用いる手段である。アルゴリズムとは、ここでは、そして一般的にも、ある所望の結果に至る複数のステップ(命令)の首尾一貫したシーケンスを意味する。ステップとは、物理量に対する物理的操作を要求するステップのことである。通常、必ずしも必要条件ではないが、それらの数値は、記憶され、転送され、合成され、比較されかつ操作され得る、電子的、磁気的又は光学的信号の形を取る。これらの信号のことを、ビット、値、要素、シンボル、文字、語又は番号等と呼ぶことが主として用語の共通化の理由から便宜である。さらに、物理量に対する物理的操作を要求するステップの配列のうちいくつかのものは、一般性を失うことなくモジュール又はコードデバイスと呼ぶことが便宜である。
しかしながら、このような用語の全ては適当な物理量と関連付けられており、これらの物理量に付された単なる便宜的なラベルに過ぎない。後記において特段の説明がない限り、明細書本文全体を通じて、“処理”、“計算”、“算出”、“決定”又は“表示”等の用語を用いた説明は、(電子的な)物理量としてのデータを、コンピュータシステムのメモリ、レジスタ又は他の情報ストレージのなかで操作しかつ変形するコンピュータシステムや同様の電子的コンピューティングデバイスの動作や処理のことを言う。
本発明のいくつかの側面は、アルゴリズムの形になったプロセスステップや命令を含む。本発明のプロセスステップや命令は、ソフトウエア、ファームウエア又はハードウエアによって実装され、ソフトウエアで実施される場合は、ダウンロードされることが可能であり、多様なオペレーティングシステムが用いる別のプラットフォームから操作されることも可能である。
本発明は、操作を実行する装置にも関する。この装置は、所与の目的を達成する専用装置であってもよいし、コンピュータに記憶されたコンピュータプログラムによって動作する汎用コンピュータであってもよい。このようなコンピュータプログラムは、コンピュータが読取り可能な媒体に記憶され得る。その媒体とは、コンピュータシステムバスに接続可能な、フロッピーディスク(登録商標)、光ディスク、CD−ROM、電磁光学的ディスク、ROM、RAM、EPROM、EEPROM、電磁的又は光学的カード、ASIC又は電子的命令を記憶し得るあらゆる媒体を含むが、これらに限定されない。さらに、本明細書で言うコンピュータは、単体のプロセッサを含んでもよいし、コンピュータ能力を増加させるために複数のプロセッサを用いた装置であってもよい。
ここでいうアルゴリズムやディスプレイは、もともと特定のコンピュータや他の装置に関係している訳ではない。ここで教示される内容に従って、プログラムとともに多様な一般目的システムが使用され得る。又は、必要とされる方法ステップを実行するためにさらに特化した装置を作成することも便宜である。これらのシステムのそれぞれについてどのような構成が必要となるかは、後記する明細書本文から明らかになる。さらには、本発明は特定のプログラム言語を参照して記載されるものではない。本発明の教示を実施するために、多様なプログラム言語が使用され得る。後記において特定の言語に言及した場合、それは本発明の実施可能性及びベストモードを開示するためである。
さらに、本明細書で使用される言語は、主として意味の取りやすさ及び教示目的から選択されているのであって、本発明の主旨を限定するために選択されているのではない。従って、本発明の開示は、特許請求の範囲にて記述されている本発明の範囲を例示するものであるが限定するものではない。
実施形態は、ロボットが出力する音声に同期してロボットのジェスチャを生成することに関する。発話文を分析し、複数のジェスチャ候補のうちから時間フレームごとに適当なジェスチャを選択することによってジェスチャが生成される。発話文が分析されて、ジェスチャの生成に関する情報が発話文にタグ付けされる。発話文、タグ付けされた情報及び他の関連する情報に基づいて、ジェスチャ識別子が選択される。ジェスチャ識別子に対応するジェスチャテンプレートが検索され、次に、関連するパラメータを追加することによって当該ジェスチャテンプレートが処理され、ロボットが行うはずのジェスチャを表現するジェスチャ記述子を生成する。ジェスチャ記述子及び音声に関連付けられたタイミングの分析に基づいて、ジェスチャ動作が計画される。両腕及び両手のようなアクチュエータを制御するためのアクチュエータ信号が、計画されたジェスチャ動作に基づいて生成される。
本明細書で使用される“発話文”という語は、自然言語又は自然言語に変換可能な上位概念言語で記述された音声のテキストを示す。発話文は、単語の文字列を含んでもよい。
ここで使用される“ジェスチャ識別子”という語は、あるジェスチャを他のジェスチャから概念レベルで識別する情報を意味する。ジェスチャ識別子は、例えば、“手を振る”及び“目標物を指す”というジェスチャを示してもよい。
本明細書で使用される“ジェスチャテンプレート”という語は、ジェスチャ識別子をロボットのエフェクタ(例えば、手)の軌跡に対応付けることを意味する。軌跡は、対応するセンサ又はセンサが処理した情報と結びついた1又は複数のパラメータに依存することとしてもよい。
本明細書で使用される“ジェスチャ記述子”という語は、あるジェスチャを表現するためのエフェクタの軌跡の初期バージョンを示す。ジェスチャ記述子は、更なる情報なしでジェスチャを生成すると解釈できる自己充足型の情報である。ジェスチャ記述子は、現在のジェスチャを準備し又は現在のジェスチャを前のジェスチャと混合するジェスチャ計画段階において、さらに精緻化される。
本明細書で使用される“アクチュエータ信号”という語は、ロボットのアクチュエータ(例えば、モータ)の座標値、速度及び/又は加速度を示す機械レベル信号を意味する。
図1は、ある実施形態に係る、ロボット100及びロボット100と通信する遠隔コンピュータ150の図である。ロボット100は、他の構成とともに、複数の身体部分、身体部分間の相対運動を引き起こすためのアクチュエータ、ローカルコンピュータ140、センサ及び出力装置(例えば、スピーカ)を含んでもよい。複数の身体部分は、例えば、両腕、両手、胴体、頭、両脚及び両足を含んでもよい。これらの身体部分の相対運動は、モータのようなアクチュエータによって引き起こされる。センサは、身体部分に取り付けられて、視覚映像又は音響信号を取得するとともにロボットの姿勢を感知する。
ローカルコンピュータ140は、センサ信号及び他の入力命令を処理し、アクチュエータ信号を生成し、他のコンピュータ装置と通信するためのハードウエア、ソフトウエア、ファームウエア又はこれらの組合せである。ある実施形態においては、ローカルコンピュータ140は、チャンネル152を介して遠隔コンピュータ150と通信し、分散データ処理を実行し、又は、遠隔コンピュータからソフトウエア又はファームウエアをロードする。チャンネル152は、有線技術又は無線技術を使用して具体化される。
ロボット100の身体部分は、アクチュエータによって相互に関係付けて動かされジェスチャを生成する。ある実施形態においては、ジェスチャは、手120のようなロボットのエフェクタの軌跡を画定することによって生成され得る。他の実施形態においては、ロボット100の足及び頭のような他のエフェクタの軌跡を画定し、ジェスチャを生成する。
図1は人間形状を示しているが、実施形態は、様々な他の形状のロボットに使用され、そのロボットが利用可能な身体部分を用いるジェスチャを生成し得る。
図2は、ある実施形態に係るロボット100のブロック図である。ロボット100は、他の構成とともに、ジェスチャ生成部210、動作生成部230、アクチュエータ250、センサ220、周辺監視モジュール240、音声合成部260及びスピーカ266を含み得る。ジェスチャ生成部210、動作生成部230、周辺監視モジュール240及び音声合成部260は、ソフトウエア、ファームウエア、ハードウエア又はこれらの組合せによって実現されてもよい。さらに、ジェスチャ生成部210、動作生成部230、周辺監視モジュール240及び音声合成部260は、1つのコンピュータ装置で実現してもよい。
ジェスチャ生成部210は、発話文204を分析し処理することによってジェスチャ記述子214を生成するハードウエア、ソフトウエア、ファームウエア又はこれらの組合せである。発話文204は、コンピュータプログラムによって生成してもよいし、人間オペレータから受け取ってもよい。ジェスチャ生成部210は、図3A及び図3Bを参照して以下詳しく後記される。
ある実施形態においては、発話文204は、自然人間言語の形で表現されている。発話文204は、人間と意思疎通するための有意な単語を含み得る。追加情報が発話文204内に追加されて、例えば、会話の文脈、イントネーション又は速度の変化を示し得る。他の実施形態においては、発話文204は、ある単語又は句が短縮されている圧縮フォーマットで表現され、発話文の処理及び通信を容易にする。
ジェスチャ記述子214は、エフェクタ(例えば、手120)の関節角度又は軌跡についての情報を含む。ジェスチャ記述子214は、動作生成部230が、アクチュエータ250を制御するアクチュエータ信号234を計画し生成することを可能にする自己充足型の指示である。ある実施形態においては、1つの時点において、1つのジェスチャ記述子214がアクティブになる。しかしながら、アクティブなジェスチャ記述子214は、発話文の途中で変化し得るし、1つの文の途中でさえも変化し得る。
動作生成部230は、ジェスチャ記述子214を受け取り、受け取ったジェスチャ記述子214を処理して、アクチュエータ信号234を生成する。複数のアクチュエータ信号234のそれぞれは、1つのアクチュエータ(例えば、モータ)の操作を制御するための信号である。アクチュエータ信号234は、エフェクタの座標値、ロボット100の関節角度、又は、対応するアクチュエータ250の速度若しくは加速度を定義してもよい。図6を参照しつつ詳しく後記するように、動作生成部230は、ジェスチャを混合又は継ぎ合わせること、表現力を制御すること、及び、身体部分同士の衝突を回避すること、等の複数の対応をする。
センサ220は、様々な物理的物性を検知し、これらの物性を電気的なセンサ信号224に変換するハードウエア構成要素である。センサ信号224は、姿勢センサ信号と同様に知覚センサ信号を含んでもよい。知覚センサ信号は、ロボットが、ロボットの周辺にある様々な物又は事象を認識し処理することを可能にする。知覚センサ信号は、例えば、カメラ又はマイクロフォンによって生成され得る。姿勢センサ信号は、ロボット100の身体部分の相対位置及び/又は相対運動を示す。姿勢センサ信号は、ロボット100の現在の姿勢の検出を可能にする。
周辺監視モジュール240は、センサ信号224を処理し、ロボット100の周辺の事象又は物の位置を、パノラマ座標系中に対応付ける。事象又は物の位置を処理し特定することによって、周辺監視モジュール240は、ロボット100が、事象又は物の位置に相応しいジェスチャを実行することを可能にする。例えば、周辺監視モジュール240は、ロボット100が実体情報244に基づいて、会話中に物又は人(すなわち、実体)を指すことを可能にする。周辺監視モジュール240を実施する1つの技術例が、例えば、米国特許出願12/819,032に記述されている。当該出願の出願日は、2010年6月18日であり、発明の名称は、“人間型ロボットのための周辺監視”である。当該出願の全体が引用されて当該明細書に組み込まれる。
音声合成部260は、当業界で周知の技術を使用して、電気的な信号264を合成しスピーカ266又は他の音声出力装置で音声を生成する。音声合成部260は、動作生成部230に対する出力262を提供し、動作生成部230が音声の進行を確認し、音声とジェスチャが同期され得るように、ジェスチャの速度を調節することを可能にする。
図2に示される構成要素の1又は複数は、遠隔コンピュータ150内に実装され、ローカルコンピュータ140が処理するデータ量を削減し、又は、ロボット100が搭載するハードウエア構成要素を単純化し得る。ある実施形態においては、分離型センサが遠隔コンピュータ150に接続され、ロボット100に対してロボット100の周辺環境に関する追加情報を提供し得る。
(ジェスチャ生成部の例)
図3Aは、ある実施形態に係るロボット100内のジェスチャ生成部210のブロック図である。ジェスチャ生成部210は、発話文204を受け取り、ロボット100が行うはずであるジェスチャを示すジェスチャ記述子214を生成する。ジェスチャ生成部210は、他の構成要素とともに、プロセッサ310、出力インタフェース314、入力インタフェース318及びメモリ330を含み得る。これらの構成要素は、バス322を介して接続されている。図2を参照しつつ前記したように、ジェスチャ生成部210は、動作生成部230、周辺監視モジュール240及び音声合成部260のような、ロボット100の他の構成要素と一体化されてもよい。
プロセッサ310は、指示を読み出したうえで実行し、当該指示の実行結果として処理済のデータを出力するハードウエア構成要素である。プロセッサ310は、複数の処理コアを含み、データ処理の能力及び速度を向上させてもよい。
出力インタフェース314は、ジェスチャ生成部210が、ロボット100の他の構成要素に対してデータを出力することを可能にする構成要素である。例えば、動作生成部230がジェスチャ生成部210から分離されたコンピュータ装置上で実現されているとき、出力インタフェース314は、ジェスチャ記述子214を動作生成部230に送信してもよい。出力インタフェース314は、IEEE1394及びユニバーサルシリアルバス(USB)を含む様々なプロトコルを使用して実現され得る。
入力インタフェース318は、ジェスチャ生成部210が、ロボット100の他の構成要素からデータを受け取ることを可能にする構成要素である。例えば、入力インタフェース318は、外部ソースから発話文204を受け付けてもよい。入力インタフェース318は、IEEE1394及びUSBを含む様々なプロトコルを使用して実現され得る。ある実施形態においては、入力インタフェース318は、出力インタフェース314と一体となって、ロボット100の様々な構成要素との双方向通信を実行する。
メモリ330は、プロッセッサ310がデータ処理を実行するための、指示モジュール及び/又はデータを記憶する。メモリ330内の指示モジュールの詳細は、図3Bを参照しつつ後記される。
図3はジェスチャ生成部210の構成を示しているが、動作生成部230、周辺監視モジュール240及び音声合成部260のそれぞれは、ジェスチャ生成部210と同じ又は類似の構成要素を含んで、それらの機能を実行してもよい。
図3Bは、ある実施形態に係る、図3Aのジェスチャ生成部210のソフトウエア構成を示すブロック図である。図3Bに示される1又は複数のソフトウエア構成要素は、専用ハードウエア又はファームウエアとして実現されてもよい。メモリ330は、他のソフトウエア構成要素とともに、インタフェース334、音声内容分析部338、複数の文法モジュール340A〜340N(以降、集合的に“文法モジュール340”と呼ぶ)、音声タイミング分析部348及びジェスチャ選択モジュール350を格納してもよい。
インタフェース334は、外部ソース(例えば、遠隔コンピュータ150)から発話文204を受け取り、他のソフトウエアモジュールが処理する又は参照するのに備えて発話文204を記憶する。外部ソースとの通信を可能にするために、インタフェース334は、通信プロトコルに準拠してもよい。
音声内容分析部338は、バッファメモリ内に格納された発話文336を受け取る。音声内容分析部338は、発話文336に追加情報をタグ付けしてもよい。タグ付けされた情報は、話題の変化、音声に関連付けられた興奮度のような文脈上のヒントを示してもよい。1又は複数の実施形態において、音声内容分析部338は、スタンフォード対数線形品詞タグ付け装置(Stanford Log-linear Part-Of-Speech Tagger)を使用して、発話文336内の各単語に対して品詞(例えば、名詞、動詞、形容詞)を割り当てる。スタンフォード対数線形品詞タグ付け装置は、K. Toutanova及びC. Manningによる“最大エントロピ品詞タグ付け装置において使用される知識ソースの改良”In Proceedings of the Workshop on Balanced Perception and Action in ECAs at AAMAS(2004年4月)に記述されている。当該文献の全体が引用されて当該明細書に組み込まれる。品詞を識別することに加えて、音声内容分析部は、感情状態又は心理状態(例えば、平静、興奮、中立、幸福、悲観)を示すいくつかの語句にタグ付けしてもよい。音声内容分析部は、任意の話題変化を検出してもよいし、発話文336内の強調部分(例えば、イタリック体の単語)を検出してもよい。
タグ付けされた情報339を伴う(又は伴わない)もとの発話文336は、複数の文法モジュール340に提供される。それぞれの文法モジュールは、発話文336及びタグ付けされた情報339を分析し、分析した発話文336中のいくつかのパターンを検出するパターン検出モジュールである。検出されたパターンに基づいて、あるタイプ又はある種類のジェスチャの適用可能性が決定され得る。ある実施形態においては、5つの文法モジュール340がメモリ内に提供され、それぞれの文法モジュール340が、以下のタイプ又は種類のジェスチャを特定しアクティブにする。すなわち、(i)エンブレム、(ii)アイコニクス、(iii)隠喩、(iv)直示及び(v)拍子である。図4を参照しつつ詳しく後記するように、単語のシーケンスすなわち文ごとに、これらのジェスチャのタイプの1又は複数が、そのシーケンスの間、アクティブにすなわち適用可能になる。ジェスチャの種類又はタイプがアクティブにすなわち適用可能になるとき、対応する文法モジュール340のそれぞれは、ジェスチャ識別子342A〜342N(以降、集合的に“ジェスチャ識別子342”と呼ぶ)を生成する。代替的に、ジェスチャのタイプがアクティブであるか否か、すなわち適用可能であるか否かに拘わらず、ジェスチャ識別子342が、文法モジュール340からジェスチャ選択モジュール350に流される。しかしながら、そのジェスチャのタイプがアクティブであるか否か、すなわち適用可能であるか否かを示すフラグが、ジェスチャ識別子342に付される。
具体的には、各文法モジュール340は、規則の集合を有する。当該規則は、発話文336及びタグ付けされた情報を分析して、あるタイプのジェスチャが適用可能であるか否かを決定する。エンブレムの一例を挙げると、エンブレム用に特化された文法モジュール(例えば、340A)は、あるキー単語又はキー句が発話文336内に現れるか否かを分析する。このようなキー単語又はキー句が現れる場合、文法モジュールは、ジェスチャ識別子(例えば、342A)を出力する。当該ジェスチャ識別子は、1つのエンブレムがアクティブであることを示し、かつ、そのジェスチャが何を表すべきであるかを示している。例えば、発話文336が“こんにちは”又は“さようなら”を示している場合、文法モジュール(例えば、340A)は、ジェスチャ識別子(例えば、342A)を生成し出力する。当該ジェスチャ識別子は、あるエンブレムが適用可能である、すなわちアクティブであることを示し、かつ、対応するジェスチャは、目標人物に対して手を振るというジェスチャであるべきであることを示している。拍子についての他例を挙げると、拍子用に特化された文法モジュール(例えば、340B)は、音声の抑揚に応じて周期的にジェスチャ識別子(例えば、342B)を生成して出力してもよい。
文法モジュール340のいくつかは、音声内容分析部338を使用することによってあるタイプの単語(例えば、動詞)を検出し、これらの単語をあるタイプのジェスチャ(例えば、爆発タイプのジェスチャ)に対応付けてもよい。さらに、文法モジュール340は、あるタイプの句(例えば、“・・・と・・・の間”という句は、ロボットに、あるジェスチャをそれらの単語間において行わせる)のような、より上位概念のパターンを発見してもよい。別の文法モジュール340が、別のキー単語又はキー句を検出し、その結果、単語シーケンスの別の部分でジェスチャ識別子を生成してもよい。
ジェスチャ選択モジュール350は、複数の文法モジュール340からジェスチャ識別子342を受け取り、ロボットによって表現されるべきジェスチャタイプを選択する。ある実施形態においては、ジェスチャ選択モジュール350は、表現力パラメータ362に基づいてジェスチャタイプを選択する。表現力パラメータ362は、人間又はコンピュータアルゴリズムによって提供されてもよい。代替的に、表現力パラメータ362は、コンピュータプログラムによって、又は、発話文の分析に基づいて、アルゴリズム的に設定されてもよい。ジェスチャ選択モジュール350は、音声のあるタイムフレームに対応するジェスチャのタイプを選択し、選択されたジェスチャタイプのジェスチャ識別子352を動作生成部230に送る。選択されたジェスチャ識別子352は、文の集合ごとに、1つの文ごとに、又は、文の部分(例えば、句又は単語)ごとに変化してもよい。このとき、ロボット100がある文の集合に対して、ある1つの文に対して、又は、文のある部分に対して出力を生成した後、ロボット100が表現するジェスチャが変化することになる。
音声タイミング分析部348は、発話文336を受け取り、発話文336を解析し、音声合成部260によって各単語又は各句が生成されるはずのタイミングを決定する。ある実施形態においては、テキスト対音声エンジンが使用されて、各単語又は各句が話される又は生成されるのに必要な時間を示すテーブルを作成する。次に、当該テーブルが参照されて、各音声要素(例えば、単語又は句)が話される又は生成されるタイミングを推定する。当該分析に基づいて、音声タイミング分析部348は、タイミング情報344を生成し、動作生成部230に対して出力する。図6を参照して詳しく後記するように、音声の進行を確認し、任意のタイミングのずれを音声の予測複製時間を用いて修正するために、タイミング情報344が音声合成部の出力262と比較されてもよい。
ある実施形態においては、ロボット100は、発話文204以外の情報を提供する他の構成要素を含んでもよい。このような情報は、文法モジュール340に追加情報を提供するために、又は、ジェスチャ識別子342を選択するために、音声内容分析部338及び/又はジェスチャ選択モジュールによって考慮される。
(ジェスチャタイプの選択)
図4は、ある実施形態に係る、異なる複数の文法モジュール340のアクティブなジェスチャ識別子を示す図である。単語シーケンス(例えば、文)が複数の文法モジュールによって分析されるにつれて、文法モジュール340のそれぞれは、単語シーケンスの複数の異なる点を検出して、ジェスチャ識別子342を生成し得る。
図4に示されるように、スライド線410が左(すなわち、文の開始点)から右(すなわち、文の終了点)へ移動するにつれて、ジェスチャ識別子342が、単語シーケンスの複数の異なる点においてアクティブになる。例えば、文法モジュール340Aは、期間404A、404C及び404Eでは非アクティブのままである一方、当該モジュール340Aは、期間404B及び404Dではジェスチャ識別子342Aを生成する。文法モジュール340Bは、期間408A及び408Cでは非アクティブのままであるが、期間408Bではジェスチャ識別子342Bを生成する。文法モジュール340Nは、期間412B、412D、412F、412H及び412Jでは非アクティブのままであるが、期間412A、412C、412E、412G、412I及び412Kではジェスチャ識別子342Nを生成する。図4の例では、スライド線410は、単語シーケンスのある点にある。当該点においては、ジェスチャ識別子342Bはアクティブであるが、ジェスチャ識別子342A及びジェスチャ識別子342Nは非アクティブである。換言すれば、文法モジュール340Bによって検出されるジェスチャのタイプはアクティブであるが、文法モジュール340A及び340Nによって検出されるジェスチャのタイプは、非アクティブである。
ジェスチャ選択モジュール350がアクティブなジェスチャ識別子342を受け取った後、ジェスチャ選択モジュール350は、アクティブなジェスチャ識別子342及び表現力パラメータ362に基づいて、ロボット100が表現するはずのジェスチャを決定する。ある実施形態においては、表現力パラメータxに基づいて、複数の異なる重みw(x)が、ジェスチャのタイプのそれぞれに対して割り当てられる。表現力パラメータxは、ロボット100がジェスチャを行うときに認識されるはずの表現力の強さ又は水準を示す。無ジェスチャの表現力が最も低い値を有し、拍子ジェスチャが相対的に低い表現力を有し、アイコニクスジェスチャは中間の表現力を有し、隠喩ジェスチャはアイコニクスジェスチャよりも高い表現力を有し、直示ジェスチャはより高い表現力を有し、エンブレムジェスチャは最も高い表現力を有する。
図5は、本実施形態に係る、ジェスチャのタイプごとの重みw(x)〜w(x)を示すグラフである。ジェスチャのタイプに応じて、重みw(x)の分布の中心点の値は様々な値を取りうる。所与のジェスチャタイプiの重みの平均値μ、分散σ が所与である場合、ジェスチャタイプiの重みw(x)は、表現力パラメータxの変化に応じた、次の式1のようなガウシアン分布としてモデル化され得る。
Figure 2014504959
ここで、xは、0より小さくなく、かつ、1より大きくない値を取る。
図5においては、曲線510、514、518、522、528及び532は、エンブレムジェスチャについての重みw(x)、アイコニクスジェスチャについての重みw(x)、隠喩ジェスチャについての重みw(x)、直示ジェスチャについての重みw(x)、無ジェスチャについての重みw(x)、及び、拍子ジェスチャについての重みw(x)をそれぞれ示す。アイコニクスジェスチャ、隠喩ジェスチャ及び直示ジェスチャの平均値が、表現力パラメータxの中間的な値であるのに比して、エンブレムジェスチャは、平均値が大きく、分散が相対的に小さく設定されている。無ジェスチャ及び拍子ジェスチャの分布は、表現力パラメータxの全範囲に亘って広く設定されている。
図5においては、6つのタイプ(“無ジェスチャ”を含む)のジェスチャしか使用されていないが、ロボット100が使用するジェスチャのタイプは、6つより多くてもよいし、少なくてもよい。
ある実施形態においては、ロボット100が表現するはずのジェスチャタイプは、次の式2を使用して確率的に選択される。
Figure 2014504959
ここで、単語シーケンス内の1つの単語についてのアクティブなジェスチャタイプの候補のすべてが、集合C内に含まれる。表現力パラメータxの値が増加するにつれて、より表現力の高いジェスチャのタイプを選択する可能性が増加する。逆に、表現力パラメータxの値が減少するにつれて、より表現力の低いジェスチャのタイプを選択する可能性が増加する。他の根拠に基づくよりは、確率的にジェスチャタイプを選択することが有利である。なぜならば、ロボット100が表現するジェスチャの選択に無作為性を導入し得るからである。この無作為性のおかげで、ロボット100は、たとえ同じテキストを話すときであっても同じジェスチャを表現することがなくなるので、人間にはロボット100がより自然に見える。ある実施形態においては、単語又は句のような、文の一部に対して、選択されたジェスチャタイプが適用され得る。選択されたジェスチャタイプに基づいて、対応するジェスチャ識別子352が、動作生成部230に送られる。
(動作生成部の例)
図6は、ある実施形態に係る動作生成部230を示す図である。動作生成部230は、他の構成要素とともに、動作計画部610、動作テンプレートデータベース620、動作無作為化部630及び動作制御部640を含み得る。これらの構成要素は、図3に示されるジェスチャ生成部210と同じハードウエア構成によって実現されてもよい。
動作計画部610は、選択されたジェスチャ識別子352、タイミング情報344及び実体情報244に基づいて、ロボット100が行うはずのジェスチャを示すジェスチャ記述子612を生成する。具体的には、動作計画部610は、選択されたジェスチャ識別子352に対応するジェスチャテンプレート626を検索し、必要であれば、実体情報244に基づく複数のパラメータを書き入れ、ジェスチャ記述子612を生成する。
動作テンプレートデータベース620は、複数のジェスチャテンプレート(テンプレートA〜Z)を格納する。ジェスチャテンプレートは、ロボット100の1又は複数のエフェクタの軌跡を記述する。ジェスチャテンプレートのそれぞれが、異なる複数のエフェクタの組合せの軌跡に関連付けられてもよい。他のジェスチャテンプレートが片手の軌跡及び頭の軌跡を記述する一方、いくつかのジェスチャテンプレートは、片手の軌跡だけを記述してもよい。ジェスチャテンプレートは、時系列の関節角度軌跡のような複数の別のパラメータを使用し得る。さらに、いくつかのジェスチャパラメータは、軌跡が画定される前に、追加的な情報又は追加的なパラメータを要求してもよい。例えば、聞き手を指すジェスチャに関連付けられたジェスチャテンプレートは、当該聞き手がどこにいるかを示すパラメータを含んでもよい。
具体的には、動作テンプレートデータベースに格納されている1つのテンプレートは、1つのジェスチャ識別子に対応付けられる。動作計画部610は、選択されたジェスチャ識別子352を受け取った後、動作テンプレートデータベース620から、当該ジェスチャ識別子352に対応付けられたジェスチャテンプレート626を検索する。ジェスチャテンプレートが追加的な情報又は追加的なパラメータを要求する場合は、動作計画部610は、ロボット100の周囲にいる人間の座標値を示す実体情報244を要求し、実体情報244を受け取る。動作計画部610は、関連する実体の座標値又は他の情報を抽出し、当該座標値又は他の情報をジェスチャテンプレートに追加し、ジェスチャ記述子612を生成する。
ある実施形態においては、ジェスチャテンプレート626は、エフェクタが通過するはずの点であるキー点の集合を含む。このとき、コチャネックバーテル(TCB)3次スプラインが使用されて、複数のキー点を用いて内挿補間することによって軌跡曲線を画定してもよい。他の実施形態においては、張力連続バイアス(TCB)スプラインが使用されて、軌跡が複数のキー点からなる集合をいかに滑らかに、かつ、ずれることなく通過するかを制御してもよい。
動作計画部610は、ジェスチャテンプレートが定義する通りのジェスチャを、タイミング情報344に基づいて修正し、ジェスチャが音声と同期して起こることを保証してもよい。当該目的のために、動作計画部610は、音声合成部の出力262を使用して、音声の推定タイミングと音声合成部260が生成する音声の実際のタイミングとが一致するか否かを決定してもよい。タイミングが一致しない場合、動作計画部610は、ジェスチャ記述子612についての動作を、遅らせてもよいし進めてもよい。
さらに、ジェスチャ記述子612が画定した通りの軌跡が大きすぎて又は小さすぎて、話されている単語又は句と同期して当該軌跡が終了しない場合、エフェクタの軌跡の振幅を減少又は増加させてもよい。代替的に、ジェスチャが継続する時間の長さが、単語又は句が話される時間の長さに一致するように、軌跡が短縮されてもよいし繰り返されてもよい。
ロボット100が前のジェスチャから又は開始姿勢から滑らかに遷移できるように、動作計画部610は、最終的なジェスチャテンプレートに対応する軌跡の前に、準備動作を加えてもよい。準備動作は、当該ジェスチャの初期姿勢が起きるはずの場所へエフェクタを移動すること、及び、ロボット100の他の部分を動かすこと(例えば、ロボット100の胴体を、目標人物に向き合うように動かすこと)を含んでもよい。対応する単語又は句が音声合成部260によって生成される前に、このような準備動作が行われ得る。このような準備動作に対応する軌跡は、ジェスチャ記述子612に含まれる。
動作計画部610は、ジェスチャ記述子612が定義する通りにジェスチャを修正し、現在の動作を撤回する、又は、現在の動作をロボット100の他の動作と混合する。例えば、片腕を伸ばす動作が繰り返されるはずである場合、動作計画部610は、片腕を伸ばす次回の動作に移る前に、中立休止姿勢に戻る動作を挿入し、ロボット100の動作を自然に見せる。
動作制御部640は、ジェスチャ記述子612を受け取り、アクチュエータ信号250を生成する。アクチュエータ信号250を生成するために、動作制御部640は、動作無作為化部630から乱数622を受け取り、エフェクタの軌跡に無作為性を与える。乱数622は、軌跡の振幅を増加させても減少させてもよく、及び/又は、エフェクタの速度を変更してもよい。このように、動作計画部610から同じジェスチャ記述子612が受け取られる場合であっても、ロボット100は同じジェスチャを繰り返さないので、ジェスチャが人間にはより自然に見える。
ある実施形態においては、エフェクタの軌跡は、乱数622に依存するスタイルパラメータを使用して画定される。例えば、スタイルパラメータは、次の式3で定義され得る。
Figure 2014504959
ここで、nは、現在のジェスチャ記述中のキーフレームの数であり、Aは、ジェスチャ軌跡の振幅であり、Fは、繰り返されるジェスチャ成分(すなわち、ジェスチャに含まれる動作の単位)の周波数であり、Tは、張力であり、Cは、連続性であり、Bは、バイアスであり、tは、0から1までの間に正規化された、キーフレームiの時間の長さである。キーフレームは、所与の時点における軌跡上の標本点である。一連のキーフレームを記述し、これらの点を補間することによって、異なる複数の空間点を用いて滑らかに遷移する軌跡が画定される。キーフレームは、しばしばスプラインで繋がれ、空間点間の滑らかで連続的な遷移を画定する。張力とは、内挿補間された軌跡中のキーフレームの前後の曲線の“緊張度”を意味する。高張力曲線は、各キーフレームにおいて鋭く曲がる一方、低張力曲線は、各キーフレームにおいてさほど鋭く曲がることはない。数学モデルの観点から言えば、張力は、各キーフレームにおける接線ベクトルの長さに対応する。連続性は、曲線の数学的な連続性を意味する。Cは、曲線が単に連続であることを意味する。Cは、曲線がその点において連続であり、かつ、その点において同じ1次の微分係数(すなわち、同じ速度)を有することを意味する。Cは、曲線が同じ点において連続であり、かつ、対応する1次の微分係数及び2次の微分係数(すなわち、加速度)を有することを意味する。数学的には、連続性は、曲線上の各点を終点とする接線ベクトルとその点を起点とする接線ベクトルとがなす角度の変化の鋭さを意味する。バイアスは、曲線のオーバーシュートの量を意味する。数学的には、バイアスは、各点における接線の方向を意味する。バイアス値「−1」は、接線ベクトルがアンダーシュートしていること、つまり、軌跡上の前の点の方向に向かって接線の傾きが大きくなっていくことを示す。一方、バイアス値「+1」は、軌跡上の次の点の方向に向かって接線の傾きが大きくなっていくことを意味する。
発話文336を分析することによって決定された、又は、外部ソースから提供された情報によって示されたロボット100の状態に応じて、乱数622の値は、複数の異なる範囲を取り得る。例えば、乱数622は、“興奮”状態については、0.6より小さくなく、1より大きくない値を取り、“中立”状態については、0.3より小さくなく、0.7より大きくない値を取り、“平静”状態については、0より小さくなく、0.4より大きくない値を取る。さらに、式3のパラメータA、F,B及びTは、乱数622を線形変換又は非線形変換した値であってもよい。乱数622及びスタイルパラメータのより複雑な機能を使用してもよい。ある実施形態においては、乱数622は、所与のスタイルタグ(例えば、平静、興奮又は中立)に依存して変化する範囲にわたって生成される。乱数622は、式3の各スタイルパラメータの値を設定するために使用される。例えば、興奮状態では、早くかつ緊張した腕の動作に対応する非常に高い張力値及び高いバイアス値が設定される一方、平静状態では、高い連続性値が設定され滑らかな軌跡を創作する。
動作制御部640は、ジェスチャ記述子612によって画定された通りに軌跡を修正し、当業界で公知の方法でロボット100の身体部分同士が衝突するのを防ぎ得る。
(ジェスチャ生成処理手順の例)
図7A及び図7Bは,ある実施形態に係る、ジェスチャを生成する処理手順を示すフローチャートである。ジェスチャ生成部210は、発話文を受け取る(ステップ706)。発話文は、人間オペレータから受け取ってもよいし、コンピュータアルゴリズムから受け取ってもよい。次に、受け取られた発話文を分析して、当該テキストに追加ヒント又は他の情報がタグ付けされる(ステップ710)。ジェスチャ生成部210は、表現力パラメータxも受け取る(ステップ714)。
ジェスチャ生成部210は、複数の文法モジュール340を使用して発話文及びタグ付けされた情報を分析し、単語シーケンスのある音声要素(例えば、単語又は句)に対してアクティブである、すなわち適用可能であると決定されたジェスチャのタイプごとにジェスチャ識別子342を生成する(ステップ716)。同じ単語シーケンス中であっても、音声要素が異なればジェスチャ識別子も変わるが、1つの音声要素の時間ごとに、単一のジェスチャ識別子が単一の文法モジュールから生成される。
次に、ジェスチャ生成部210は、文法モジュール340によって生成されたアクティブなジェスチャ識別子のうちから、表現力パラメータxに基づいて、1つのジェスチャ識別子を選択する(ステップ718)。表現力パラメータxが高い値である場合、表現力がより高いジェスチャが選択されやすい。逆に、表現力パラメータxが低い値である場合、表現力がより低いジェスチャが選択されやすい。ある実施形態においては、式3が使用されて、アクティブなジェスチャ識別子のうちから1つのジェスチャ識別子を選択する。
次に、動作生成部230は、選択されたジェスチャ識別子に対応する動作テンプレートを検索する(ステップ722)。次に、動作生成部230は、ジェスチャテンプレートに対してパラメータ又は追加情報を追加することによって、ジェスチャ記述子を生成する(ステップ724)。追加されたパラメータ又は情報は、例えば、目標人物の座標値を示してもよい。
発話文が分析されて、音声中の音声要素(例えば、単語又は句)のタイミングを決定する(ステップ726)。ある実施形態においては、音声要素に対応するジェスチャを開始するタイミングが、音声要素が音声合成部260によって生成される時点に起こるように、音声要素の開始時点が決定される。
動作生成部230は、分析された音声要素のタイミング、ジェスチャ記述子、及び、前のジェスチャ(もしあれば)に基づいて、ジェスチャ動作を計画する(ステップ730)。計画の一部として、動作生成部230は、前のジェスチャ動作又は開始姿勢から、現在のジェスチャ動作の初期位置に至る準備動作も生成する。さらに、計画の一部として、動作生成部230は、ジェスチャ記述子によって画定された通りにジェスチャを修正して、動作をより自然に見せる。
動作生成部230は、無作為化パラメータも受け取る(ステップ734)。次に、計画された動作及び無作為化パラメータに基づいて、アクチュエータ信号が生成される(ステップ738)。例えば、振幅、速度又は(繰り返し動作についての)周波数が無作為化されたパラメータに基づいて修正されて、ジェスチャに無作為性を与えてもよい。無作為化されたパラメータは、ロボット100によってジェスチャが表現されるときに、スタイルを修正してもよい。このようにすれば、ロボット100が同じ又は類似のジェスチャを行ったとしても、ロボット100のジェスチャは、機械的に繰り返されているようには見えなくなる。動作生成部230は、アクチュエータ信号を生成するときに、身体部分同士の衝突の可能性を考慮し、身体部分同士の衝突が回避され得るように、アクチュエータ信号を修正してもよい。
次に、生成されたアクチュエータ信号は、アクチュエータに送られ、身体部分の相対的な動きを引き起こす(ステップ742)。
図7A及び図7Bを参照して記述された実施形態は、代表的なものに過ぎない。図7A及び図7Bに示された処理に対して様々な修正がなされ得る。例えば、音声要素のタイミングの分析(ステップ726)は、他の処理と並行して行われてもよいし、ジェスチャ記述子を生成する(ステップ724)前に行われてもよい。1又は複数の処理が省略されてもよい。例えば、表現力パラメータを受け取る処理(ステップ714)が削除され、表現力パラメータに対応する無作為な値を生成する処理に置換されてもよい。
(代替的な実施形態)
1又は複数の実施形態において、ジェスチャを生成する処理は、現実のロボットとは対照的に、コンピュータグラフィック又はコンピュータ摸擬にも使用され得る。摸擬されたジェスチャが生成されユーザに対してスクリーン上に表示されて、コンピュータ化された仮想キャラクターを含むビデオシーケンスの生成を容易にする、又は、ロボットに対してなされる現実の操作を評価する。
1又は複数の実施形態において、発話文は、並列的に処理されるのではなく、複数の文法モジュールにおいて直列的に処理される。発話文が各文法モジュールにおいて処理されるので、ジェスチャ識別子は、各発話文で生成され得る。同じ単語又は句に対応するジェスチャ識別子のそれぞれは、動作生成部によって収集され、さらなる処理に備えて選択される。
1又は複数の実施形態において、ジェスチャ生成に関する処理は、遠隔コンピュータ150において遠隔実行され、動作生成に関する処理は、ローカルコンピュータ140において局地的に実行されてもよい。逆もまた同様である。さらに、ジェスチャ生成処理の一部又は動作生成処理の一部が、遠隔コンピュータ150上で実行されてもよい。
前記では、いくつかの実施形態に関して本発明を記述してきたが、本開示の主旨の範囲内で様々な修正が可能である。したがって、本発明の開示は、例示的なものであって、特許請求の範囲に記載された本発明の範囲を限定するものではない。

Claims (20)

  1. ロボットのジェスチャを生成するコンピュータを用いた方法であって、
    前記方法は、
    1又は複数の音声要素を含む発話文を受け取り、
    複数のパターンモジュールによって前記発話文を分析して前記音声要素と結びついた1又は複数のジェスチャ候補を特定し、
    前記複数のパターンモジュールによって特定された前記1又は複数のジェスチャ候補から1つのジェスチャを選択し、
    前記ロボットの複数のアクチュエータを制御することによって前記選択されたジェスチャを生成し、
    前記複数のパターンモジュールのそれぞれは、
    異なる規則の集合を適用して、前記音声要素に対応する1又は複数のジェスチャ候補を特定すること、
    を特徴とする方法。
  2. 前記方法は、
    前記発話文を合成することによって音声出力を生成し、
    前記音声出力は、
    前記ロボットによって生成される前記ジェスチャに同期していること、
    を特徴とする請求項1に記載の方法。
  3. 前記方法は、
    前記音声出力中の前記音声要素のタイミングを分析し、
    前記選択されたジェスチャ又は前記合成された音声出力を調整して、前記選択されたジェスチャのタイミング及び前記音声出力中の前記音声要素のタイミングを同期させること、
    を特徴とする請求項2に記載の方法。
  4. 前記方法は、
    前記発話文を分析することによって前記発話文に情報をタグ付けし、
    前記1又は複数のジェスチャ候補は、
    前記タグ付けされた情報をさらに分析することによって特定されること、
    を特徴とする請求項1に記載の方法。
  5. 前記タグ付けされた情報は、
    前記音声要素の単語のタイプを示すこと、
    を特徴とする請求項4に記載の方法。
  6. 前記方法は、
    前記ロボットが表現するはずである表現力の度合いを示す表現力パラメータを受け取り、
    前記表現力パラメータに基づいて前記ジェスチャを選択すること、
    を特徴とする請求項1に記載の方法。
  7. 前記方法は、
    乱数に基づいて、前記選択されたジェスチャの、振幅、周波数及び速度のうちの少なくとも1つを修正すること、
    を特徴とする請求項1に記載の方法。
  8. 前記方法は、
    前記選択されたジェスチャに対応する動作を作成する前に、準備動作を追加することによって、前記選択されたジェスチャを計画すること、
    を特徴とする請求項6に記載の方法。
  9. 前記準備動作は、
    前のジェスチャ又は開始ジェスチャの終了位置から、前記選択されたジェスチャの初期位置へ、エフェクタを移動させること、
    を特徴とする請求項8に記載の方法。
  10. 前記複数のパターンモジュールは、
    第1の規則の集合を適用してエンブレムを検出する第1のパターンモジュールと、
    第2の規則の集合を適用してアイコニクスを検出する第2のパターンモジュールと、
    第3の規則の集合を適用して隠喩を検出する第3のパターンモジュールと、
    第4の規則の集合を適用して直示を検出する第4のパターンモジュールと、
    第5の規則の集合を適用して拍子を検出する第5のパターンモジュールと、
    を含むこと、
    を特徴とする請求項1に記載の方法。
  11. ジェスチャを生成するロボットであって、
    前記ロボットは、
    ジェスチャ生成部、動作生成部及び少なくとも1つのアクチュエータを有し、
    前記ジェスチャ生成部は、
    1又は複数の音声要素を含む発話文を受け取り、
    複数のパターンモジュールによって前記発話文を分析して前記音声要素と結びついた1又は複数のジェスチャ候補を特定し、
    前記複数のパターンモジュールによって特定された前記1又は複数のジェスチャ候補から1つのジェスチャを選択し、
    前記動作生成部は、
    前記選択されたジェスチャに基づいて、制御信号を生成し、
    前記少なくとも1つのアクチュエータは、
    前記制御信号に応じて、前記ロボットの部分に相対運動を起こさせ、
    前記複数のパターンモジュールのそれぞれは、
    複数の規則のうちの異なる集合を適用して、前記音声要素に対応する1又は複数のジェスチャ候補を特定すること、
    を特徴とするロボット。
  12. 前記ロボットは、
    前記発話文を合成することによって音声出力を生成する音声合成部を有し、
    前記音声出力は、
    前記ロボットによって生成される前記ジェスチャに同期していること、
    を特徴とする請求項11に記載のロボット。
  13. 前記動作生成部は、
    前記音声出力中の前記音声要素のタイミングを分析し、
    前記選択されたジェスチャを調整して、前記選択されたジェスチャのタイミング及び前記音声出力中の前記音声要素のタイミングを同期させること、
    を特徴とする請求項12に記載のロボット。
  14. 前記ジェスチャ生成部は、
    前記発話文を分析することによって前記発話文に情報をタグ付けし、
    前記1又は複数のジェスチャ候補は、
    前記タグ付けされた情報をさらに分析することによって特定されること、
    を特徴とする請求項11に記載のロボット。
  15. 前記タグ付けされた情報は、
    前記音声要素の単語のタイプを示すこと、
    を特徴とする請求項14に記載のロボット。
  16. 前記ジェスチャ生成部は、
    前記ロボットが表現するはずである表現力の度合いを示す表現力パラメータを受け取り、
    前記表現力パラメータに基づいて前記ジェスチャを選択すること、
    を特徴とする請求項11に記載のロボット。
  17. 前記動作生成部は、
    乱数に基づいて、前記選択されたジェスチャの、振幅、周波数及び速度のうちの少なくとも1つを修正すること、
    を特徴とする請求項11に記載のロボット。
  18. 前記動作生成部は、
    前記選択されたジェスチャに対応する動作を作成する前に、準備動作を追加することによって、前記選択されたジェスチャを計画すること、
    を特徴とする請求項16に記載のロボット。
  19. 前記複数のパターンモジュールは、
    第1の規則の集合を適用してエンブレムを検出する第1のパターンモジュールと、
    第2の規則の集合を適用してアイコニクスを検出する第2のパターンモジュールと、
    第3の規則の集合を適用して隠喩を検出する第3のパターンモジュールと、
    第4の規則の集合を適用して直示を検出する第4のパターンモジュールと、
    第5の規則の集合を適用して拍子を検出する第5のパターンモジュールと、
    を含むこと、
    を特徴とする請求項11に記載のロボット。
  20. 口頭の命令を認識するための不揮発性のコンピュータ読取可能な記憶媒体であって、
    前記記憶媒体に記憶される指示は、
    プロセッサに対して、
    1又は複数の音声要素を含む発話文を受け取り、
    複数のパターンモジュールによって前記発話文を分析して前記音声要素と結びついた1又は複数のジェスチャ候補を特定し、
    前記複数のパターンモジュールによって特定された前記1又は複数のジェスチャ候補から1つのジェスチャを選択し、
    ロボットの複数のアクチュエータを制御することによって前記選択されたジェスチャを生成する処理を実行させ、
    前記複数のパターンモジュールのそれぞれは、
    複数の規則のうちの異なる集合を適用して、前記音声要素に対応する1又は複数のジェスチャ候補を特定すること、
    を特徴とする記憶媒体。
JP2013551266A 2011-01-26 2012-01-23 人間型ロボットのジェスチャと音声の同期 Expired - Fee Related JP5967838B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201161436546P 2011-01-26 2011-01-26
US61/436,546 2011-01-26
US13/352,182 US9431027B2 (en) 2011-01-26 2012-01-17 Synchronized gesture and speech production for humanoid robots using random numbers
US13/352,182 2012-01-17
PCT/US2012/022258 WO2012103030A1 (en) 2011-01-26 2012-01-23 Synchronized gesture and speech production for humanoid robots

Publications (3)

Publication Number Publication Date
JP2014504959A true JP2014504959A (ja) 2014-02-27
JP2014504959A5 JP2014504959A5 (ja) 2015-03-12
JP5967838B2 JP5967838B2 (ja) 2016-08-10

Family

ID=46544827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013551266A Expired - Fee Related JP5967838B2 (ja) 2011-01-26 2012-01-23 人間型ロボットのジェスチャと音声の同期

Country Status (3)

Country Link
US (1) US9431027B2 (ja)
JP (1) JP5967838B2 (ja)
WO (1) WO2012103030A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170128194A (ko) * 2017-11-14 2017-11-22 한국과학기술연구원 지식모델을 이용한 로봇의 동작 구현 장치 및 방법
WO2017199585A1 (ja) * 2016-05-19 2017-11-23 シャープ株式会社 ロボット、ロボットの動作方法、及びプログラム
JP2017213612A (ja) * 2016-05-30 2017-12-07 トヨタ自動車株式会社 ロボットおよびロボットの制御方法
WO2018139275A1 (ja) * 2017-01-30 2018-08-02 富士通株式会社 機器、出力装置、出力方法および出力プログラム
JP2020006482A (ja) * 2018-07-09 2020-01-16 株式会社国際電気通信基礎技術研究所 アンドロイドのジェスチャ生成装置及びコンピュータプログラム
JP2020060805A (ja) * 2018-10-04 2020-04-16 富士通株式会社 コミュニケーション装置、コミュニケーション方法、及びコミュニケーションプログラム
KR20210078172A (ko) * 2019-12-18 2021-06-28 한국과학기술연구원 형태소 기반 로봇 제스처 생성 장치 및 방법
WO2022270319A1 (ja) * 2021-06-25 2022-12-29 慶應義塾 動作データ管理システム、動作データ管理方法、及びプログラム
WO2023027433A1 (ko) * 2021-08-25 2023-03-02 삼성전자주식회사 로봇 및 그 제어 방법

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009057725A1 (de) * 2009-12-10 2011-06-16 Siemens Enterprise Communications Gmbh & Co. Kg Signalgebende Vorrichtung, Signalisiervorrichtung, Signalgebungsverfahren sowie Signalisierverfahren
US9588964B2 (en) 2012-09-18 2017-03-07 Adobe Systems Incorporated Natural language vocabulary generation and usage
US10656808B2 (en) 2012-09-18 2020-05-19 Adobe Inc. Natural language and user interface controls
US9141335B2 (en) 2012-09-18 2015-09-22 Adobe Systems Incorporated Natural language image tags
US9412366B2 (en) 2012-09-18 2016-08-09 Adobe Systems Incorporated Natural language image spatial and tonal localization
US9436382B2 (en) * 2012-09-18 2016-09-06 Adobe Systems Incorporated Natural language image editing
US9302393B1 (en) * 2014-04-15 2016-04-05 Alan Rosen Intelligent auditory humanoid robot and computerized verbalization system programmed to perform auditory and verbal artificial intelligence processes
JP6483578B2 (ja) * 2015-09-14 2019-03-13 株式会社東芝 音声合成装置、音声合成方法およびプログラム
US10289076B2 (en) * 2016-11-15 2019-05-14 Roborus Co., Ltd. Concierge robot system, concierge service method, and concierge robot
US10565434B2 (en) * 2017-06-30 2020-02-18 Google Llc Compact language-free facial expression embedding and novel triplet training scheme
US10777198B2 (en) * 2017-11-24 2020-09-15 Electronics And Telecommunications Research Institute Apparatus for determining speech properties and motion properties of interactive robot and method thereof
JP7109207B2 (ja) * 2018-02-23 2022-07-29 パナソニックホールディングス株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
CN113689880A (zh) * 2020-05-18 2021-11-23 北京搜狗科技发展有限公司 实时驱动虚拟人的方法、装置、电子设备及介质
KR102576788B1 (ko) 2020-08-21 2023-09-11 한국전자통신연구원 로봇 인터랙션 행위 생성 장치 및 방법

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188784A (ja) * 1999-12-28 2001-07-10 Sony Corp 会話処理装置および方法、並びに記録媒体
JP2001188555A (ja) * 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
JP2003044080A (ja) * 2001-05-02 2003-02-14 Sony Corp ロボット装置、文字認識装置及び文字認識方法、並びに、制御プログラム及び記録媒体
JP2003205483A (ja) * 2001-11-07 2003-07-22 Sony Corp ロボットシステム及びロボット装置の制御方法
JP2004268235A (ja) * 2003-03-11 2004-09-30 Sony Corp ロボット装置、その行動制御方法及びプログラム
JP2004309523A (ja) * 2003-04-01 2004-11-04 Sony Corp ロボット装置の動作パターン共有システム、ロボット装置の動作パターン共有方法、及びロボット装置
JP2005059186A (ja) * 2003-08-19 2005-03-10 Sony Corp ロボット装置及びその制御方法
JP2008122927A (ja) * 2006-09-13 2008-05-29 Honda Motor Co Ltd モータ雑音下におけるロボット用音声認識方法
JP2009136967A (ja) * 2007-12-06 2009-06-25 Honda Motor Co Ltd コミュニケーションロボット
JP2009222969A (ja) * 2008-03-17 2009-10-01 Toyota Motor Corp 音声認識ロボットおよび音声認識ロボットの制御方法
JP2010149276A (ja) * 1999-01-20 2010-07-08 Sony Corp ロボット装置及び動作制御方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002091356A1 (fr) 2001-05-02 2002-11-14 Sony Corporation Dispositif robot, appareil de reconnaissance de caracteres, procede de lecture de caracteres, programme de commande et support d'enregistrement
JP2005193331A (ja) 2004-01-06 2005-07-21 Sony Corp ロボット装置及びその情動表出方法
EP2050544B1 (en) 2005-09-30 2011-08-31 iRobot Corporation Robot system with wireless communication by TCP/IP transmissions
US7738997B2 (en) 2005-12-19 2010-06-15 Chyi-Yeu Lin Robotic system for synchronously reproducing facial expression and speech and related method thereof
US20080071540A1 (en) 2006-09-13 2008-03-20 Honda Motor Co., Ltd. Speech recognition method for robot under motor noise thereof

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010149276A (ja) * 1999-01-20 2010-07-08 Sony Corp ロボット装置及び動作制御方法
JP2010149277A (ja) * 1999-01-20 2010-07-08 Sony Corp ロボット装置及び動作制御方法
JP2001188784A (ja) * 1999-12-28 2001-07-10 Sony Corp 会話処理装置および方法、並びに記録媒体
JP2001188555A (ja) * 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
JP2003044080A (ja) * 2001-05-02 2003-02-14 Sony Corp ロボット装置、文字認識装置及び文字認識方法、並びに、制御プログラム及び記録媒体
JP2003205483A (ja) * 2001-11-07 2003-07-22 Sony Corp ロボットシステム及びロボット装置の制御方法
JP2004268235A (ja) * 2003-03-11 2004-09-30 Sony Corp ロボット装置、その行動制御方法及びプログラム
JP2004309523A (ja) * 2003-04-01 2004-11-04 Sony Corp ロボット装置の動作パターン共有システム、ロボット装置の動作パターン共有方法、及びロボット装置
JP2005059186A (ja) * 2003-08-19 2005-03-10 Sony Corp ロボット装置及びその制御方法
JP2008122927A (ja) * 2006-09-13 2008-05-29 Honda Motor Co Ltd モータ雑音下におけるロボット用音声認識方法
JP2009136967A (ja) * 2007-12-06 2009-06-25 Honda Motor Co Ltd コミュニケーションロボット
JP2009222969A (ja) * 2008-03-17 2009-10-01 Toyota Motor Corp 音声認識ロボットおよび音声認識ロボットの制御方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BREMNER, P.; PIPE, A.; MELHUISH, C.; FRASER, M.; SUBRAMANIAN, S.: "Conversational gestures in human-robot interaction", PROCEEDINGS OF IEEE INTERNATIONAL CONFERENCE ON SYSTEMS, MAN AND CYBERNETICS, 2009. SMC 2009., JPN6015053025, October 2009 (2009-10-01), pages 1645 - 1649, XP031575513, ISSN: 0003329651 *
HANAFIAH, Z.M.; YAMAZAKI, C.; NAKAMURA, A.; KUNO, Y.: "Understanding inexplicit utterances using vision for helper robots", PROCEEDINGS OF THE 17TH INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION, 2004. ICPR 2004., JPN6015053026, October 2006 (2006-10-01), pages 1437 - 1440, ISSN: 0003329652 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017199585A1 (ja) * 2016-05-19 2017-11-23 シャープ株式会社 ロボット、ロボットの動作方法、及びプログラム
JP2017213612A (ja) * 2016-05-30 2017-12-07 トヨタ自動車株式会社 ロボットおよびロボットの制御方法
US10916236B2 (en) 2017-01-30 2021-02-09 Fujitsu Limited Output device, output method, and electronic apparatus
WO2018139275A1 (ja) * 2017-01-30 2018-08-02 富士通株式会社 機器、出力装置、出力方法および出力プログラム
JP2018122366A (ja) * 2017-01-30 2018-08-09 富士通株式会社 機器、出力装置、出力方法および出力プログラム
KR101964300B1 (ko) * 2017-11-14 2019-04-01 한국과학기술연구원 지식모델을 이용한 로봇의 동작 구현 장치 및 방법
KR20170128194A (ko) * 2017-11-14 2017-11-22 한국과학기술연구원 지식모델을 이용한 로봇의 동작 구현 장치 및 방법
JP2020006482A (ja) * 2018-07-09 2020-01-16 株式会社国際電気通信基礎技術研究所 アンドロイドのジェスチャ生成装置及びコンピュータプログラム
JP7201984B2 (ja) 2018-07-09 2023-01-11 株式会社国際電気通信基礎技術研究所 アンドロイドのジェスチャ生成装置及びコンピュータプログラム
JP2020060805A (ja) * 2018-10-04 2020-04-16 富士通株式会社 コミュニケーション装置、コミュニケーション方法、及びコミュニケーションプログラム
JP7225654B2 (ja) 2018-10-04 2023-02-21 富士通株式会社 コミュニケーション装置、コミュニケーション方法、及びコミュニケーションプログラム
KR20210078172A (ko) * 2019-12-18 2021-06-28 한국과학기술연구원 형태소 기반 로봇 제스처 생성 장치 및 방법
KR102301042B1 (ko) * 2019-12-18 2021-09-14 한국과학기술연구원 형태소 기반 로봇 제스처 생성 장치 및 방법
WO2022270319A1 (ja) * 2021-06-25 2022-12-29 慶應義塾 動作データ管理システム、動作データ管理方法、及びプログラム
WO2023027433A1 (ko) * 2021-08-25 2023-03-02 삼성전자주식회사 로봇 및 그 제어 방법

Also Published As

Publication number Publication date
JP5967838B2 (ja) 2016-08-10
US20120191460A1 (en) 2012-07-26
WO2012103030A1 (en) 2012-08-02
US9431027B2 (en) 2016-08-30

Similar Documents

Publication Publication Date Title
JP5967838B2 (ja) 人間型ロボットのジェスチャと音声の同期
WO2022048403A1 (zh) 基于虚拟角色的多模态交互方法、装置及系统、存储介质、终端
CN106653052B (zh) 虚拟人脸动画的生成方法及装置
Hartmann et al. Implementing expressive gesture synthesis for embodied conversational agents
Lee et al. MMDAgent—A fully open-source toolkit for voice interaction systems
JP5616325B2 (ja) ユーザ命令に基づいて表示を変更する方法
KR20120130627A (ko) 아바타를 이용한 애니메이션 생성 장치 및 방법
JP4792703B2 (ja) 音声解析装置、音声解析方法及び音声解析プログラム
Kopp et al. Imitation games with an artificial agent: From mimicking to understanding shape-related iconic gestures
WO2020129959A1 (ja) コンピュータプログラム、サーバ装置、端末装置及び表示方法
JP6201212B2 (ja) キャラクタ生成装置およびプログラム
WO2011083978A2 (ko) 캐릭터의 발화와 감정표현 제공 시스템 및 방법
Gibet et al. High-level specification and animation of communicative gestures
JP5877418B2 (ja) シナリオ生成装置およびシナリオ生成方法
Lebourque et al. A complete system for the specification and the generation of sign language gestures
Pausch et al. Tailor: creating custom user interfaces based on gesture
Le et al. A common gesture and speech production framework for virtual and physical agents
JP7201984B2 (ja) アンドロイドのジェスチャ生成装置及びコンピュータプログラム
Chen et al. A novel approach of system design for dialect speech interaction with NAO robot
Altarawneh et al. Leveraging Cloud-based Tools to Talk with Robots.
Kocoń Head movements in the idle loop animation
Corradini et al. Towards believable behavior generation for embodied conversational agents
JP3848076B2 (ja) 仮想生物システム及び仮想生物システムにおけるパタン学習方法
Tanaka et al. Verbal/nonverbal communication between man and avatar in virtual mechanical assembly training system
Yang et al. A multimodal approach of generating 3D human-like talking agent

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150123

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160704

R150 Certificate of patent or registration of utility model

Ref document number: 5967838

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees