JP6567610B2 - 音声と仮想動作を同期させる方法、システムとロボット本体 - Google Patents

音声と仮想動作を同期させる方法、システムとロボット本体 Download PDF

Info

Publication number
JP6567610B2
JP6567610B2 JP2017133168A JP2017133168A JP6567610B2 JP 6567610 B2 JP6567610 B2 JP 6567610B2 JP 2017133168 A JP2017133168 A JP 2017133168A JP 2017133168 A JP2017133168 A JP 2017133168A JP 6567610 B2 JP6567610 B2 JP 6567610B2
Authority
JP
Japan
Prior art keywords
information
time length
robot
voice
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2017133168A
Other languages
English (en)
Other versions
JP2018001404A (ja
Inventor
ナン チユウ
ナン チユウ
ハオフエン ワン
ハオフエン ワン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SHENZHEN GOWILD ROBOTICS CO., LTD.
Original Assignee
SHENZHEN GOWILD ROBOTICS CO., LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SHENZHEN GOWILD ROBOTICS CO., LTD. filed Critical SHENZHEN GOWILD ROBOTICS CO., LTD.
Publication of JP2018001404A publication Critical patent/JP2018001404A/ja
Application granted granted Critical
Publication of JP6567610B2 publication Critical patent/JP6567610B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/04Time compression or expansion
    • G10L21/055Time compression or expansion for synchronising with other signals, e.g. video signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics

Description

本発明はロボットインタラクション技術分野に関し、特には音声と仮想動作を同期させる方法、システム及びロボット本体に関するものである。
ロボットは人類と対話するツールとして、応用場面がますます多くなり、例えばある老人、子供は孤独を感じる時に、ロボットと対話、娯楽などのインタラクションができるようになった。従来のマンマシンインタラクション技術は一般的に、一種類のマンマシンインタラクションモードだけを支持でき、例えばユーザに機械的な返事をするしかできなく、せいぜい返事に従って限りのある表情を出すことにすぎない。市販の児童コンパニオンロボットは、設定された四、五種類しかできなく、こられの簡単な表情は出力された音声と同期させる必要はない。
而も、ユーザはロボットの使用体験に対する要求がますます高くなることと共に、ロボットにも、例えば、音声で返事すると同時に、もっと擬人化に相応する表情と動作ができることなど、マルチモードで人類と対話する能力の具備が必要となってきた。同時に二種類以上の出力方法で人類と対話するために、ロボットは何種類の出力方法を同期させる必要がある、例えば、「はい」と言う同時に「うなずく」、「いえ」と言う同時に「首を振る」、怒っている時に目を大きく見開き口を尖らせることなど。そうしてこそ、人類がロボットとのインタラクションから夢中になれる体験を得、向かい合う対象が対話可能であるように感じることができる。
ただし、音声と動作がマッチできなくなると、ユーザのインタラクション体験に甚大な影響をしてしまう。ところが、仮想ロボットが返事する内容に含まれる音声と表情などの仮想動作を同期させるかはかなり複雑な課題であって、ロボット工学、心理学、社会科学など複数の学科に関するものである。それではこの課題の解決が目前に迫っている厄介なものであり、今まで上記課題を比較的よく解決したシステムはまだない。
本発明は音声と仮想動作を同期させる方法、システム及びロボット本体を提供することで、マンマシンインタラクション体験を向上させることを目的とする。
本発明の目的は下記技術様態で実現される:
音声と仮想動作を同期させる方法は、
ユーザのマルチモード情報の取得と、
ユーザのマルチモード情報と生活時間軸によって、少なくとも音声情報と動作情報を含むインタラクション内容の生成と、
音声情報の時間長と動作情報の時間長に対する同期調整を含むことを特徴とする。
好ましくは、音声情報の時間長と動作情報の時間長を同じように調整する前記ステップは具体的に、
音声情報の時間長と動作情報の時間長との差が閾値以下にある場合は、音声情報の時間長が動作情報の時間長より小さいであるなら、動作情報の再生速度を速め、それにより動作情報の時間長を前記音声情報の時間長と同じようにすることを含む。
好ましくは、音声情報の時間長が動作情報の時間長より大きいである場合は、音声情報の再生速度を速める又は/及び動作情報の再生速度を落とし、それにより動作情報の時間長を前記音声情報の時間長に等しいにする。
好ましくは、音声情報の時間長と動作情報の時間長を同じように調整する前記ステップは、具体的に、
音声情報の時間長と動作情報の時間長との差が閾値より大きいである場合は、音声情報の時間長が動作情報の時間長より大きいであるなら、少なくとも二組の動作情報を順序付けて組み合わせ、それにより動作情報の時間長を前記音声情報の時間長に等しいにすることを含む。
好ましくは、音声情報の時間長が動作情報の時間長より小さいである場合は、動作情報における一部の動作を選択して、これらの動作の時間長が前記音声情報の時間長に等しいにする。
好ましくは、またロボットの生活時間軸の生成を含み、生成方法は、
ロボットの自己認識の拡大と、
生活時間軸のパラメータの取得と、
ロボットの自己認識パラメータを生活時間軸のパラメータと整合し、それによりロボットの生活時間軸の生成を含む。
好ましくは、ロボットの自己認識を拡大する前記ステップは具体的に、生活場面をロボットの自己認識と結合して、生活時間軸を基礎とする自己認識曲線を生成することを含む。
好ましくは、ロボットの自己認識パラメータを生活時間軸のパラメータと整合する前記ステップは具体的に、確率アルゴリズムを利用し、時間軸の場面パラメータが変えた後に、生活時間軸にあるロボットの各パラメータが変化する確率を計算し、整合曲線を形成することを含む。
好ましくは、ここにおいて、前記生活時間軸は一日の24時間を含む時間軸を指し、前記生活時間軸におけるパラメータは少なくともユーザが前記時間軸で行う日常生活行為及び該行為を表すパラメータの値を含む。
音声と仮想動作を同期させるシステムは、
ユーザのマルチモード情報を取得する取得モジュール、
ユーザのマルチモード情報と生活時間軸に基づいて、少なくとも音声情報と動作情報を含むインタラクション内容を生成する人工知能モジュール、
音声情報の時間長と動作情報の時間長を同じように調整する制御モジュールを含む、ことを特徴とする。
好ましくは、前記制御モジュールは具体的に、
音声情報の時間長と動作情報の時間長との差が閾値以下にある場合は、音声情報の時間長が動作情報の時間長より小さいであるなら、動作情報の再生速度を速め、それにより動作情報の時間長を前記音声情報の時間長と同じようにすることを含む。
好ましくは、音声情報の時間長が動作情報の時間長より大きいである場合は、音声情報の再生速度を速める又は/及び動作情報の再生速度を落とし、それにより動作情報の時間長を前記音声情報の時間長と同じようにする。
好ましくは、前記制御モジュールは、具体的に、
音声情報の時間長と動作情報の時間長との差が閾値より大きいである場合は、音声情報の時間長が動作情報の時間長より大きいであるなら、少なくとも二組の動作情報を組み合わせ、それにより、動作情報の時間長を前記音声情報の時間長と同じようにする。
好ましくは、音声情報の時間長が動作情報の時間長より小さいである場合は、動作情報における一部の動作を選択して、これらの動作の時間長が前記音声情報の時間長と同じようにする。
好ましくは、前記システムは、
ロボットの自己認識の拡大と、
生活時間軸のパラメータの取得、
ロボットの自己認識パラメータを生活時間軸のパラメータと整合し、ロボットの生活時間軸を生成することを含む。
好ましくは、前記処理モジュールは具体的に、生活場面をロボットの自己認識と結合して生活時間軸を基礎とする自己認識曲線を生成することに用いる。
好ましくは、前記処理モジュールは確率アルゴリズムを利用し、時間軸の場面パラメータが変えた後に、生活時間軸にあるロボットの各パラメータが変化する確率を計算し、整合曲線を形成することに用いる。
好ましくは、ここにおいて、前記生活時間軸は一日の24時間を含む時間軸を指し、前記生活時間軸におけるパラメータは少なくともユーザが前記時間軸で行う日常生活行為及び該行為を表すパラメータの値を含む。
本発明はロボットを開示し、上記のいずれかに記載の音声と仮想動作を同期させるシステムを含む。
音声と仮想動作を同期させるシステムであって、マイク、アナログデジタルコンバータ、音声識別プロセッサ、画像取得装置、顔認識プロセッサ、音声合成装置、パワーアンプ、スピーカー、イメージングシステム、インタラクション内容プロセッサ及びメモリを含む。
前記マイク、アナログデジタルコンバータ、音声識別プロセッサとインタラクション内容プロセッサは順次に接続され、前記画像取得装置、顔認識プロセッサとインタラクション内容プロセッサは順次に接続され、前記インタラクション内容プロセッサは前記メモリと接続され、前記インタラクション内容プロセッサ、音声合成装置、パワーアンプ及びスピーカーは順次に接続され、前記イメージングシステムはインタラクション内容プロセッサと接続され、
前記マイクはユーザとロボットが対話する際にユーザの音声信号の取得に用い、前記アナログデジタルコンバータは前記音声信号の音声デジタル情報への転換に用い、前記音声識別プロセッサは前記音声デジタル情報を文字情報に転化する上で前記意図識別プロセッサへの入力に用い、
前記画像取得装置はユーザがいる画像の取得に用い、前記顔認識プロセッサはユーザがいる画像からユーザの表情情報を識別し取得して前記意図識別プロセッサへの入力に用い、
前記インタラクション内容プロセッサは、少なくとも前記文字情報と表情情報を含むユーザのマルチモード情報、及び前記メモリに記憶されている生活時間軸に基づいて、少なくとも音声情報と動作情報を含むインタラクション内容を生成し、音声情報の時間長と動作情報の時間長を同じように調整することに用い、
前記イメージングシステムは前記動作情報によって仮想3D映像を生成し、前記スピーカーは前記音声情報を同時に再生することを特徴する音声と仮想動作を同期させる方法。
好ましくは、前記インタラクション内容プロセッサにおいて、音声情報の時間長と動作情報の時間長を同じように調整する前記ステップは、具体的に、
音声情報の時間長と動作情報の時間長との差が閾値以下にある場合は、音声情報の時間長が動作情報の時間長より小さいであるなら、動作情報の再生速度を速め、それにより動作情報の時間長を前記音声情報の時間長と同じようにすることを含む。
好ましくは、前記インタラクション内容プロセッサにおいて、音声情報の時間長が動作情報の時間長より大きいである場合は、音声情報の再生速度を速める又は/及び動作情報の再生速度を落とし、それにより動作情報の時間長を前記音声情報の時間長と同じようにする。
好ましくは、前記インタラクション内容プロセッサにおいて、音声情報の時間長と動作情報の時間長を同じように調整する前記ステップは具体的に、
音声情報の時間長と動作情報の時間長との差が閾値より大きいである場合は、音声情報の時間長が動作情報の時間長より大きいであるなら、少なくとも二組の動作情報を順序付けて組み合わせ、それにより動作情報の時間長を前記音声情報の時間長と同じようにすることを含む。
好ましくは、前記インタラクション内容プロセッサにおいて、音声情報の時間長が動作情報の時間長より小さいである場合は、動作情報における一部の動作を選択して、これらの動作の時間長が前記音声情報の時間長と同じようにする。
好ましくは、前記システムはまた人工知能クラウドプロセッサを含み、前記人工知能クラウドプロセッサはロボットの生活時間軸パラメータの生成に用い、具体的に、
ロボットの自己認識の拡大、
前記メモリからユーザの生活時間軸パラメータの取得、
ロボットの自己認識パラメータをユーザの生活時間軸におけるパラメータと整合し、それによるロボットの生活時間軸の生成を含む、ことを特徴とする請求項12に記載のシステム。
好ましくは、前記人工知能クラウドプロセッサにおいて、ロボットの自己認識を拡大する前記ステップは具体的に、生活場面をロボットの自己認識と結合して生活時間軸を基礎とする自己認識曲線を生成することを含む。
好ましくは、前記人工知能クラウドプロセッサにおいて、ロボットの自己認識パラメータを生活時間軸のパラメータと整合する前記ステップは具体的に、確率アルゴリズムを利用し、時間軸の場面パラメータが変えた後に、生活時間軸にあるロボットの各パラメータが変化する確率を計算し、整合曲線を形成することを含む。
好ましくは、前記音声情報の時間長と動作情報の時間長を同じように調整する動作は、
ロボットが現在生活時間軸に所在する時間位置の取得、
前記音声情報の時間長と動作情報の時間長との差を対比し、ロボットが所在する時間位置に基づいて音声情報の時間長を調整するか、それとも動作情報の時間長を調整するかという判断、
判断結果に基づいて音声情報の時間長と動作情報の時間長を同じように調整することを含む、ことを特徴とする請求項17に記載のシステム。
従来のマンマシンインタラクション技術は普通一種類のマンマシンインタラクションモードしか支持できなく、或いは限りのある動作や表情の出力だけができ、例えば、市販の児童コンパニオンロボットは、設定された四、五種類しかできない。従来技術より、本発明は、その音声と仮想動作を同期させる方法が、ユーザのマルチモード情報の取得、ユーザのマルチモード情報と生活時間軸に基づいて、少なくとも音声情報と動作情報を含むインタラクション内容の生成、音声情報の時間長と動作情報の時間長に対する同期調整を含むという利点を有する。そうすることでは、ユーザの音声、表情、動作などのマルチモード情報の一種や多種利によって、少なくとも音声情報と動作情報を含むインタラクション内容を生成でき、音声情報と動作情報を同期させるためには、音声情報の時間長と動作情報の時間長を同じように調整し、それでロボットが音声と動作を再生する時に同時にマッチすることが可能になって、ロボットが人類と対話する際に音声表現だけではなく、また動作などさまざまな表現形式も利用可能、ロボットの表現形式をもっと多様化にし、生成したロボットの動作、表情は数種類また十数種類に限られないようになり、動作ライブラリーにある動作グリップを任意に接ぎ合わすことができるため、ロボットはより擬人化に対話でき、ユーザのインタラクション体験も向上した。
図1は本発明実施例1の音声と仮想動作を同期させる方法の流れを示すフロー図である。 図2は本発明実施例2の音声と仮想動作を同期させるシステムを示す図である。 図3は本発明実施例3の音声と仮想動作を同期させるシステムの回路ブロック図である。 図4は本発明実施例3の音声と仮想動作を同期させるシステムの好ましい回路ブロック図である。 図5は本発明実施例3の音声と仮想動作を同期させるシステムをウェアラブルデバイスと結合することを示す図である。 図6は本発明実施例3の音声と仮想動作を同期させるシステムを移動端末と結合することを示す図である。 図7は本発明実施例3の音声と仮想動作を同期させるシステムをロボットと結合する応用場面を示す図である。
フロー図で各操作を順序に処理するように説明したが、その中に多くの操作は並列、合併又は同時に実行できるものである。各操作の順序を改めて配置してもよい。操作を完成した時には処理を中止できるが、図面に含まず追加ステップを有してもよい。該処理は方法、関数、規則、サブルーチン、サブプログラムなどに対応可能である。
コンピュータデバイスはユーザデバイスとネットワークデバイスを含む。ここにおいて、ユーザデバイスやクライアントはコンピュータ、スマートフォン、PDAなどを含むがそれらには限定されなく、ネットワークデバイスはシングルネットワークサーバー、マルチネットワークサーバーからなるサーバーグループ又はクラウドコンピューティングに基づいて数多いコンピュータやネットワークサーバーで構成されるクラウドを含むがそれらには限定されない。コンピュータデバイスは独立運行で本発明を実現してもよく、ネットワークにアクセスし且つそこにおける他のコンピュータデバイスとのインタラクション操作で本発明を実現してもよい。コンピュータデバイスが位置するネットワークはインターネット、広域ネットワーク、メトロポリタンエリアネットワーク、ローカルエリアネットワーク、VPNネットワークなどを含むがそれらには限定されない。
ここで、「第一」、「第二」などの専門用語で各ユニットを説明したかもしれないが、これらのユニットは当該専門用語に限られなく、これらの専門用語の使用はただ一つのユニットを別のユニットと区別するためだけである。ここで用いる専門用語「及び/又は」は列挙した一つや複数の関連プロジェクトの任意と全部の組み合わせを含む。一つのユニットがもう一つのユニットに「接続」や「結合」と定義された時には、それが前記もう一つのユニットに直接的接続や結合されてもよいが、中間ユニットに存在してもよい。
ここで使用する専門用語はただ具体的な実施例を説明するためだけであるが例示的実施例を限定しない。テクストで別に明示されたもの以外に、ここで使用した単数形「一つ」、「一項」はまた複数を含むことを図っている。なお理解すべきなのは、ここで使用した「含む」及び/又は「含有する」という専門用語が説明する特徴、整数、ステップ、操作、ユニット及び/又はモジュールの存在を規定するが、一つや更に多い他の特徴、整数、ステップ、操作、ユニット、モジュール及び/又は組み合わせの存在や追加を排除するわけではない。
下記、図面と優れた実施例を結合して本発明についてもっと詳細に説明する。
実施形態1
図1に示すように、本実施例は音声と仮想動作を同期させる方法を開示し、それは、
ユーザのマルチモード情報を取得するステップS101、
ユーザのマルチモード情報と生活時間軸に基づいて、少なくとも音声情報と動作情報を含むインタラクション内容を生成するステップS102、
音声情報の時間長と動作情報の時間長を同じように調整するステップS103を含むことを特徴とする。
本発明の音声と仮想動作を同期させる方法は、ユーザのマルチモード情報の取得、ユーザのマルチモード情報と生活時間軸に基づいて、少なくとも音声情報と動作情報を含むインタラクション内容の生成、音声情報の時間長と動作情報の時間長に対する同期調整を含む。そうすることでは、ユーザの音声、表情、動作などのマルチモード情報の一種や多種類によって、少なくとも音声情報と動作情報を含むインタラクション内容を生成でき、また音声情報と動作情報を同期させるためには、音声情報の時間長と動作情報の時間長を同じように調整し、それによりロボットは音声と動作を再生する際に同時にマッチすることが可能になり、ロボットは音声表現のみならず、また動作などのさまざまな表現形式で対話できるようになり、ロボットの表現方法を多様化にさせ、ロボットはもっと擬人化になる他、ユーザがロボットとのインタラクション体験も向上させた。
人類にとっては、毎日の生活がある程度の規則性を有し、ロボットと人類との対話をもっと擬人化にするためには、一日の24時間において、ロボットが眠る、運動する、食事をする、ダンスする、本を読む、メイクアップする、眠るなどの動作を持たせる。それにより本発明はロボットがある生活時間軸をロボットのインタラクション内容の生成に添加することで、ロボットがより擬人化に人類と対話でき、ロボットが生活時間軸において人類の生活スタイルを有するようになり、該方法は生成したロボットインタラクション内容の擬人性及びマンマシンインタラクション体験を向上させ、且つインテリジェント性を高めることができる。インタラクション内容は表情、文字、音声や動作などの一種、又は多種類の組み合わせであってもよい。ロボットの生活時間軸は事前に整合・配置したものであり、具体的に言うと、ロボットの生活時間軸は一シリーズのパラメータコレクションであって、このパラメータをシステムに伝送してインタラクション内容を生成する。
本実施例におけるマルチモード情報はユーザの表情情報、音声情報、手振り情報、場面情報、画像情報、ビデオ情報、顔情報、虹彩情報、光感知情報や指紋情報などの一種や多種類としてもよい。
本実施例において、生活時間軸を基礎とすることは具体的に、人類の日常生活時間軸に基づき、人類のスタイルによって、ロボット本体の日常生活時間軸における自己認識数値を整合し、ロボットはこの整合によって動作を行い、即ちロボット本体の一日における行為を得、それでロボットが生活時間軸を基礎として、インタラクション内容を生成して人類と対話することなどの自分の行為をさせるものとなる。ロボットがずーと起きていると、この時間軸における行為によって動作し、ロボットの自己認識もこの時間軸に従って変更されるようになった。生活時間軸と可変パラメータは気持ちの値、疲労値などの自己認識における属性を変更できる他、新たな自己認識情報を自動に添加できる、例えば、ここまでは怒り値がないため、生活時間軸と可変素子に基づく場面はこの前の情報に基づいて人類の自己認識の場面を模擬し、それでロボットの自己認識を添加する。生活時間軸は音声情報だけではなく、動作などの情報も含んでいる。
例えば、ユーザがロボットに「眠いわ」と言うと、ロボットはユーザが眠いであるとこの言葉を理解した後、ロボットの生活時間軸を結合する、例えば、現在の時間が午前9時である場合は、ロボットが主人が起きたばかりであることが分かり、主人に挨拶するべきで、「おはようございます」などの音声で返事する他、また歌を歌い、相応のダンス動作なども追加できる。もしユーザがロボットに「眠いわ」と言うと、ロボットはユーザが眠いであるとこの言葉を理解した後、ロボットの生活時間軸を結合する、例えば、現在の時間が午後9時である場合は、ロボットが主人様の睡眠時間になることが分かり、「おやすみなさい。」などの類似言葉で返事し、相応のお休み、睡眠動作などを追加できる。そういう様態は単純な音声と表情による返事よりもっと人類の生活に近く、動作はもっと擬人化になった。
本実施例においては、前記音声情報の時長と動作情報の時間長を同じように調整するステップは具体的に、
音声情報の時間長と動作情報の時間長との差が閾値以下にある場合は、音声情報の時間長が動作情報の時間長より小さいであるなら、動作情報の再生速度を速め、それにより動作情報の時間長を前記音声情報の時間長と同じようにすることを含む。
音声情報の時間長が動作情報の時間長より大きいである場合は、音声情報の再生速度を速める又は/及び動作情報の再生速度を落とし、それにより動作情報の時間長を前記音声情報の時間長と同じようにする。
そのために、音声情報の時間長と動作情報の時間長との差が閾値以下にある場合は、調節の具体的な意味は音声情報の時間長又は/及び動作情報の時間長を圧縮や延長することを指してもよく、また再生速度を速める又は落とすことを指してもよい。例えば音声情報の再生速度を2にかけ、それとも動作情報の再生時間を0.8にかけるなど。
例えば、音声情報の時間長と動作情報の時間長との閾値は1分で、ロボットがユーザのマルチモード情報に基づいて生成するインタラクション内容においては、音声情報の時間が1分で、動作情報の時間が2分である場合は、動作情報の再生速度を元の二倍まで速めてもよく、それで動作情報が調整された後の再生時間は1分になり、それにより音声情報との同期を実現する。勿論、音声情報の再生速度を本来の0.5倍まで調整してもよく、それにより音声情報は調整された後の再生時間が2分になり、それにより動作情報との同期を実現する。なお、音声情報と動作情報を共に調整してもよい、例えば音声情報の速度を落とすと同時に、動作情報を速め、両者とも1分30秒まで調節することも、音声と動作との同期を実現できる。
その他、本実施例においては、前記音声情報の時間長と動作情報の時間長を同じように調整するステップは具体的に、
音声情報の時間長と動作情報の時間長との差が閾値より大きいである場合は、音声情報の時間長が動作情報の時間長より大きいであるなら、少なくとも二組の動作情報を順序付けて組み合わせ、それにより動作情報の時間長を前記音声情報の時間長と同じようにする。
音声情報の時間長が動作情報の時間長より小さいである場合は、動作情報における一部の動作を選択して、これらの動作の時間長が前記音声情報の時間長と同じようにする。
そのために、音声情報の時間長と動作情報の時間長との差が閾値より大きいである場合は、調節する意味は一部の動作情報を追加や削除することで、動作情報の時間長と音声情報の時間長との同期調整を実現できる。
例えば、音声情報の時間長と動作情報の時間長との閾値が30秒である場合は、ロボットはユーザのマルチモード情報に基づいて生成したインタラクション内容において、音声情報の時間長が3分で、動作情報の時間長が1分であるなら、他の動作情報を本来の動作情報に加える必要となり、例えば時間長が2分である動作情報を見つけて、上記二組の動作情報を組み合わせた後に前記音声情報の時間と同じようにマッチした。勿論、もし時間長が2分である動作情報の代わりに、2分半である動作情報を見つけた場合は、選択された動作情報の時間長が2分であるよう、この2分半の動作情報における一部の動作(一部のフレーム)を選択し、そうすると音声情報の時間長と同じようにマッチできるようになった。
本実施例においては、音声情報の時間長によって、音声情報の時間長と最も近い動作情報の選択、更に動作情報の時間長によって最も近い音声情報の選択も可能である。
そうすると、選択時に音声情報の時間長によって選択することは、制御モジュールが音声情報と動作情報の時間長を調整しやすくなり、もっと容易に一致するまで調節でき、且つ調節された再生もより自然で、平滑になった。
その中の一つの実施例によって、音声情報の時間長と動作情報の時間長を同じように調整するステップに続いてはたま、調節された後の音声情報と動作情報を仮想映像に出力して表示することを含む。
そうすると一致するまで調節した後に出力でき、仮想映像での出力が可能であるため、仮想ロボットはもっと擬人化になり、ユーザ体験を向上させた。
その中の一つの実施例によっては、前記ロボットの生活時間軸パラメータを生成する方法は、
ロボットの自己認識の拡大、
生活時間軸パラメータの取得、
ロボットの自己認識パラメータを生活時間軸のパラメータと整合し、ロボットの生活時間軸を生成することを含む。
そうして生活時間軸をロボット本体の自己認識に加えることで、ロボットは擬人化の生活を過ごすようになった。例えば昼食をする認識をロボットに加えること。
その中の一つの実施例によって、前記ロボットの自己認識を拡大するステップは具体的に、生活場面とロボットの自己認識を結合して生活時間軸を基礎とする自己認識曲線を形成することを含む。
そうしては生活時間軸を具体的にロボット本体のパラメータに加えることが可能になった。
その中の一つの実施例によっては、ロボットの自己認識パラメータを生活時間軸のパラメータと整合する前記ステップは具体的に、確率アルゴリズムを利用し、生活時間軸にあるロボットが時間軸の場面パラメータが変えた後、その各パラメータが変化する確率を計算して、整合曲線を形成することを含む。そうするとロボットの自己認識パラメータと生活時間軸のパラメータを具体的に整合することができる。ここにおいて確率アルゴリズムはベイズ確率アルゴリズムであってもよい。
例えば、一日の24時間において、ロボットが眠る、運動する、食事する、ダンスする、本を読む、食事する、メイクアップする、眠るなどの動作を有するようにさせる。それぞれの動作はロボット本体の自己認識に影響を与え、生活時間軸におけるパラメータをロボット本体の自己認識を結合して整合した後、即ちロボットの自己認識に、気持ち、疲労値、親密度、好感度、対話回数、ロボットの三次元認識、年齢、身長、体重、親密度、ゲーム場面値、ゲーム対象値、場所場面値、場所対象値などを含むようになった。ロボットは、カフェ、ベッドルームなど、自分が位置する場所場面を識別できるようになった。
ロボットは一日の時間軸内に異なる動作をする、例えば、夜に眠る、昼に食事する、昼に運動するなど、生活時間軸におけるこれらの場面は全部、自己認識に影響を及ぼす。これらの数値の変化は確率モデルによる動的整合方法で、これらの動作が時間軸に発生する確率を整合仕上げる。場面識別:この場所場面識別は自己認識における地理場面値を変える可能性はある。
実施形態2
図2に示すように、本発明は、
ユーザのマルチモード情報を取得する取得モジュール201、
ユーザのマルチモード情報、及び生活時間軸モジュール205で生成される生活時間軸に基づいて、少なくとも音声情報と動作情報を含むインタラクション内容を生成する人工知能モジュール202、
音声情報の時間長と動作情報の時間長を同じように調整する制御モジュール203を含むことを特徴とする音声と仮想動作を同期させるシステム。
そうすることでは、ユーザの音声、表情、動作などのマルチモード情報の一種や多種類によって、少なくとも音声情報と動作情報を含むインタラクション内容を生成でき、また音声情報と動作情報を同期させるためには、音声情報の時間長と動作情報の時間長を同じように調整し、それによりロボットは音声と動作を再生する際に同時にマッチすることが可能になり、ロボットは音声表現のみならず、また動作などのさまざまな表現形式で対話できるようになり、ロボットの表現方法を多様化にさせ、ロボットはもっと擬人化になる他、ユーザのロボットとのインタラクション体験も向上させた。
人類にとっては、毎日の生活がある程度の規則性を有し、ロボットと人類との対話をもっと擬人化にするためには、一日の24時間において、ロボットが眠る、運動する、食事する、ダンスする、本を読む、食事する、メイクアップする、眠るなどの動作を持たせる。それにより本発明はロボットがある生活時間軸をロボットのインタラクション内容の生成に添加することで、ロボットはより擬人化に人類と対話でき、ロボットは生活時間軸において人類の生活スタイルを有するようになり、生成したロボットインタラクション内容の擬人性及び人類のインタラクション体験を向上させ、且つインテリジェント性を高めることができる。インタラクション内容は表情、文字、音声や動作などの一種で、又は多種類の組み合わせであってもよい。ロボットの生活時間軸は事前に整合・配置したものであり、具体的に言うと、ロボットの生活時間軸は一シリーズのパラメータコレクションであって、このパラメータをシステムに伝送してインタラクション内容を生成する。
本実施例におけるマルチモード情報はユーザの表情情報、音声情報、手振り情報、場面情報、画像情報、ビデオ情報、顔情報、虹彩情報、光感知情報や指紋情報などの一種や多種類としてもよい。
本実施例において、生活時間軸を基礎とすることは具体的に、人類の日常生活時間軸に基づき、人類のスタイルによって、ロボット本体の日常生活時間軸における自己認識数値を整合し、ロボットはこの整合によって動作を行い、即ちロボット本体の一日における行為を得、それでロボットが生活時間軸を基礎として、インタラクション内容を生成して人類と対話することなどの自分の行為をさせるものとなる。ロボットがずーと起きていると、この時間軸における行為によって動作し、ロボットの自己認識もこの時間軸に従って変更されるようになった。生活時間軸と可変パラメータは気持ちの値、疲労値などの自己認識における属性を変更できる他、新たな自己認識情報を自動に添加できる、例えば、ここまでは怒り値がないため、生活時間軸と可変素子に基づく場面はこの前の情報に基づいて人類の自己認識の場面を模擬し、それでロボットの自己認識を添加する。生活時間軸は音声情報だけではなく、動作などの情報も含んでいる。
例えば、ユーザがロボットに「眠いわ」と言うと、ロボットはユーザが眠いであるとこの言葉を理解した後、ロボットの生活時間軸を結合する、例えば、現在の時間が午前9時である場合は、ロボットが主人が起きたばかりであることが分かり、主人に挨拶するべきで、「おはようございます」などの音声で返事する他、また歌を歌い、相応のダンス動作なども追加できる。もしユーザがロボットに「眠いわ」と言うと、ロボットはユーザが眠いであるとこの言葉を理解した後、ロボットの生活時間軸を結合する、例えば、現在の時間が午後9時である場合は、ロボットが主人様の睡眠時間になることが分かり、「おやすみなさい。」などの類似言葉で返事し、相応のお休み、睡眠動作などを追加できる。そういう様態は単純な音声と表情による返事よりもっと人類の生活に近く、動作はもっと擬人化になった。
本実施例において、前記制御モジュールは具体的に、
音声情報の時間長と動作情報の時間長との差が閾値以下にある場合は、音声情報の時間長が動作情報の時間長より小さいであるなら、動作情報の再生速度を速め、それにより動作情報の時間長を前記音声情報の時間長と同じようにする。
音声情報の時間長が動作情報の時間長より大きいである場合は、音声情報の再生速度を速める又は/及び動作情報の再生速度を落とし、それにより動作情報の時間長を前記音声情報の時間長と同じようにする。
そのために、音声情報の時間長と動作情報の時間長との差が閾値以下にある場合は、調節の具体的な意味は音声情報の時間長又は/及び動作情報の時間長を圧縮や延長することを指してもよく、また再生速度を速める又は落とすことを指してもよい。例えば音声情報の再生速度を2にかけ、それとも動作情報の再生時間を0.8にかけるなど。
例えば、音声情報の時間長と動作情報の時間長との閾値は1分で、ロボットがユーザのマルチモード情報に基づいて生成するインタラクション内容においては、音声情報の時間が1分で、動作情報の時間が2分である場合は、動作情報の再生速度を元の二倍まで速めてもよく、それで動作情報が調整された後の再生時間は1分になり、それにより音声情報との同期を実現する。勿論、音声情報の再生速度を本来の0.5倍まで調整してもよく、それにより音声情報は調整された後の再生時間が2分になり、それにより動作情報との同期を実現する。なお、音声情報と動作情報を共に調整してもよい、例えば音声情報の速度を落とすと同時に、動作情報を速め、両者とも1分30秒まで調整することも、音声と動作との同期を実現できる。
その他、本実施例において、前記制御モジュールは具体的に、
音声情報の時間長と動作情報の時間長との差が閾値より大きいである場合は、音声情報の時間長が動作情報の時間長より大きいであるなら、少なくとも二組の動作情報を組み合わせ、それにより動作情報の時間長を前記音声情報の時間長と同じようにすることに用いる。
音声情報の時間長が動作情報の時間長より小さいである場合は、動作情報における一部の動作を選択して、これらの動作の時間長が前記音声情報の時間長と同じようにする。
そのために、音声情報の時間長と動作情報の時間長との差が閾値より大きいである場合は、調節する意味は一部の動作情報を追加や削除することで、動作情報の時間長と音声情報の時間長との同期調整を実現できる。
例えば、音声情報の時間長と動作情報の時間長との閾値が30秒である場合は、ロボットはユーザのマルチモード情報に基づいて生成したインタラクション内容において、音声情報の時間長が3分で、動作情報の時間長が1分であるなら、他の動作情報を本来の動作情報に加えることが必要となり、例えば時間長が2分である動作情報を見つけて、上記二組の動作情報を組み合わせた後に前記音声情報の時間と同じようにマッチした。勿論、もし時間長が2分である動作情報の代わりに、2分半である動作情報を見つけた場合は、選択された動作情報の時間長が2分であるよう、この2分半の動作情報における一部の動作(一部のフレーム)を選択し、そうすると音声情報の時間長と同じようにマッチできるようになった。
本実施例において、人工知能モジュールは具体的に、音声情報の時間長によって、音声情報の時間長と最も近い動作情報の選択、更に動作情報の時間長によって最も近い音声情報の選択に用いる。
そうすると、選択時に音声情報の時間長によって選択することは、制御モジュールが音声情報と動作情報の時間長を調整しやすくなり、もっと容易に一致するまで調節でき、且つ調節された再生もより自然で、平滑になった。
その中の一つの実施例によって、前記システムはまた、調整された後の音声情報と動作情報を仮想映像に出力して表示する出力モジュール204を含む。
そうすると一致するまで調整した後に出力でき、仮想映像での出力が可能であるため、仮想ロボットがもっと擬人化になり、ユーザ体験を向上させた。
その中の一つの実施例によって、前記システムは時間軸を基礎とする人工知能クラウドプロセッサモジュールを含み、
ロボットの自己認識の拡大と、
生活時間軸パラメータの取得と、
ロボットの自己認識パラメータを生活時間軸のパラメータと整合し、ロボットの生活時間軸を生成する。
そうして生活時間軸をロボット本体の自己認識に加えることで、ロボットは擬人化の生活を過ごすようになった。例えば昼食をする認識をロボットに加えること。
その中の一つの実施例によって、前記システムは時間軸を基礎とする人工知能クラウドプロセッサモジュールは、生活場面とロボットの自己認識を結合して生活時間軸を基礎とする自己認識曲線を形成することに用いる。そうしては生活時間軸を具体的にロボット本体のパラメータに加えることが可能になった。
その中の一つの実施例によって、時間軸を基礎とする人工知能クラウド処理モジュールは具体的に、確率アルゴリズムを利用し、時間軸の場面パラメータが変えた後、生活時間軸にあるロボットの各パラメータが変化する確率を計算して、整合曲線を形成することを含む。そうするとロボットの自己認識パラメータと生活時間軸のパラメータを具体的に整合することができる。ここにおいて確率アルゴリズムはベイズ確率アルゴリズムであってもよい。
例えば、一日の24時間において、ロボットが眠る、運動する、食事する、ダンスする、本を読む、食事する、メイクアップする、眠るなどの動作を有するようにさせる。それぞれの動作はロボット本体の自己認識に影響を与え、生活時間軸におけるパラメータをロボット本体の自己認識を結合して整合した後、即ちロボットの自己認識に、気持ち、疲労値、親密度、好感度、対話回数、ロボットの三次元認識、年齢、身長、体重、親密度、ゲーム場面値、ゲーム対象値、場所場面値、場所対象値などを含むようになった。ロボットは、カフェ、ベッドルームなど、自分が位置する場所場面を識別できるようになった。
ロボットは一日の時間軸内に異なる動作をする、例えば、夜に眠る、昼に食事する、昼に運動するなど、生活時間軸におけるこれらの場面は全部、自己認識に影響を及ぼす。これらの数値の変化は確率モデルによる動的整合方法で、これらの動作が時間軸に発生する確率を整合仕上げる。場面識別:この場所場面識別は自己認識における地理場面値を変える可能性はある。
本発明は、上記のいずれかに記載の音声と仮想動作を同期させるシステムを含むロボットを開示する。
実施形態3
図3に示すように、本実施例は音声と仮想動作を同期させるシステム300を開示し、マイク301、アナログデジタルコンバータ302、音声識別プロセッサ303、画像取得装置304、顔認識プロセッサ305、インタラクション内容プロセッサ306、音声合成装置307、パワーアンプ308、スピーカー309、イメージングシステム310及びメモリ311を含む。
前記マイク301、アナログデジタルコンバータ302、音声識別プロセッサ303と意図識別プロセッサ306は順次に接続され、前記画像取得装置304、顔認識プロセッサ305と意図識別プロセッサ306は順次に接続され、前記インタラクション内容プロセッサ306はメモリ311と接続され、前記インタラクション内容プロセッサ306、前記音声合成装置307、パワーアンプ308とスピーカー309は順次に接続され、前記イメージングシステム310はインタラクション内容プロセッサ306と接続される。
前記マイク301はユーザとロボットが対話する際にユーザの音声信号の取得に用い、前記アナログデジタルコンバータ302は前記音声信号の音声デジタル情報への転換に用い、前記音声識別プロセッサ303は前記音声デジタル情報を文字情報に転化する上で前記インタラクション内容プロセッサ306への入力に用いる。
前記画像取得装置304はユーザがいる画像の取得に用い、前記顔認識プロセッサ305はユーザがいる画像からユーザの表情情報を識別し取得して前記インタラクション内容プロセッサ306への入力に用いる。画像取得装置304はビデオカメラ、カメラなどであってもよく、ユーザの表情情報のみならず、またユーザがいる環境、ユーザの動作情報なども識別でき、これらの情報はインタラクション内容プロセッサ306への入力としてもよく、それにより生成したインタラクション内容がもっとユーザの現在の需要に合う。
前記インタラクション内容プロセッサ306は、少なくとも前記文字情報と表情情報を含むユーザのマルチモード情報、及び前記メモリ311に記憶されている生活時間軸に基づいて、少なくとも音声情報と動作情報を含むインタラクション内容を生成し、音声情報の時間長と動作情報の時間長を同じように調整することに用いる。ここにおいて、まずはユーザのマルチモード情報と生活時間軸に基づいてインタラクション内容の音声情報を生成し、それによってメモリ311の動作ライブラリから適切な動作グリップを選択し、適切な遷移動作を追加して完全の動作情報を生成する。ここにおいて、生活時間軸は一日の24時間を含む時間軸を指し、前記生活時間軸におけるパラメータは少なくともユーザが前記時間軸で行う日常生活行為及び該行為を表すパラメータの値を含む。
ここにおいて、インタラクション内容プロセッサ306においては、前記音声情報の時間長と動作情報の時間長を同じように調整するステップは具体的に、音声情報の時間長と動作情報の時間長との差が閾値以下にある場合は、音声情報の時間長が動作情報の時間長より小さいであるなら、動作情報の再生速度を速め、それにより動作情報の時間長を前記音声情報の時間長と同じようにし、音声情報の時間長が動作情報の時間長より大きいである場合は、音声情報の再生速度を速める又は/及び動作情報の再生速度を落とし、それにより動作情報の時間長を前記音声情報の時間長と同じようにする。
そのために、音声情報の時間長と動作情報の時間長との差が閾値以下にある場合は、調節の具体的な意味は音声情報の時間長又は/及び動作情報の時間長を圧縮や延長することを指してもよく、また再生速度を速める又は落とすことを指してもよい。例えば音声情報の再生速度を2にかけ、それとも動作情報の再生時間を0.8にかけるなど。
例えば、音声情報の時間長と動作情報の時間長との閾値は1分で、ロボットがユーザのマルチモード情報に基づいて生成するインタラクション内容においては、音声情報の時間が1分で、動作情報の時間が2分である場合は、動作情報の再生速度を元の二倍まで速めてもよく、それで動作情報が調整された後の再生時間は1分になり、それにより音声情報との同期を実現する。勿論、音声情報の再生速度を本来の0.5倍まで落としてもよく、それにより音声情報は調整された後の再生時間が2分になり、それにより動作情報との同期を実現する。なお、音声情報と動作情報を共に調整してもよい、例えば音声情報の速度を落とすと同時に、動作情報を速め、両者とも1分30秒まで調整することも、音声と動作との同期を実現できる。
ここにおいて、インタラクション内容プロセッサ306においては、音声情報の時間長と動作情報の時間長を同じように調整するステップは具体的に、音声情報の時間長と動作情報の時間長との差が閾値より大きいである場合は、音声情報の時間長が動作情報の時間長より大きいであるなら、少なくとも二組の動作情報を順序付けて組み合わせ、それにより動作情報の時間長を前記音声情報の時間長と同じようにし、音声情報の時間長が動作情報の時間長より小さいである場合は、動作情報における一部の動作を選択して、これらの動作の時間長が前記音声情報の時間と同じようにする。
それにより、音声情報の時間長と動作情報の時間長との差が閾値より大きいである場合は、調節する意味は一部の動作情報を追加や削除することで、動作情報の時間長と音声情報の時間長との同期調整を実現できる。
例えば、音声情報の時間長と動作情報の時間長との閾値が30秒である場合は、ロボットはユーザのマルチモード情報に基づいて生成したインタラクション内容において、音声情報の時間長が3分で、動作情報の時間長が1分であるなら、他の動作情報を本来の動作情報に加えることが必要となり、例えば時間長が2分である動作情報を見つけて、上記二組の動作情報を組み合わせた後に前記音声情報の時間と同じようにマッチした。勿論、もし時間長が2分である動作情報の代わりに、2分半である動作情報を見つけた場合は、選択された動作情報の時間長が2分であるよう、この2分半の動作情報における一部の動作(一部のフレーム)を選択し、そうすると音声情報の時間長と同じようにマッチできるようになった。
イメージングシステム310は前記動作情報に基づいて仮想3D映像を生成し、スピーカー309は前記音声信号を同時に再生する。ここにおいて、イメージングシステム310は普通のディスプレイとしてもよく、ホログラフィック投影装置としてもよくて、それにより表示したロボットの立体感と真実性を増加し、ユーザの体験を高める。
メモリ311はインタラクション内容プロセッサ306が操作する時に用いるデータの記憶に用いることも可能である。選択できるのは、インタラクション内容プロセッサ306はCPU(中央処理装置)、ASIC(Application Specific Integrated Circuit、特定用途向け集積回路)、FPGA(Field Programmable Gate Array、フィールドプログラマブルゲートアレイ)やCPLD(Complex Programmable Logic Device、コンプレックスプログラマブルロジックデバイス)としてもよい。
本実施例の音声と仮想動作を同期させるシステム300によっては、ユーザのマルチモード情報を取得でき、ユーザのマルチモード情報と生活時間軸に基づいて、少なくとも音声情報と動作情報を含むインタラクション内容の生成、音声情報の時間長と動作情報の時間長を同じように調整する。そうすることでは、ユーザの音声、表情、動作などのマルチモード情報の一種や多種類によって、少なくとも音声情報と動作情報を含むインタラクション内容を生成でき、また音声情報と動作情報を同期させるためには、音声情報の時間長と動作情報の時間長を同じように調整し、それによりロボットは音声と動作を再生する際に同時にマッチすることが可能になり、ロボットは音声表現のみならず、また動作などのさまざまな表現形式で対話できるようになり、ロボットの表現方法を多様化にさせ、ロボットはもっと擬人化になる他、ユーザがロボットとのインタラクション体験も向上させた。
例えば、ユーザがロボットに「眠いわ」と言うと、ロボットはユーザが眠いであるとこの言葉を理解した後、ロボットの生活時間軸を結合する、例えば、現在の時間が午前9時である場合は、ロボットが主人が起きたばかりであることが分かり、主人に挨拶するべきで、「おはようございます」などの音声で返事する他、また歌を歌い、相応のダンス動作なども追加できる。もしユーザがロボットに「眠いわ」と言うと、ロボットはユーザが眠いであるとこの言葉を理解した後、ロボットの生活時間軸を結合する、例えば、現在の時間が午後9時である場合は、ロボットが主人様の睡眠時間になることが分かり、「おやすみなさい。」などの類似言葉で返事し、相応のお休み、睡眠動作などを追加できる。そういう様態は単純な音声と表情による返事よりもっと人類の生活に近く、動作はもっと擬人化になった。
図4に示すように、本実施例に開示した音声と仮想動作を同期させるシステム300はまたユーザのいくつかの生理信号を取得し、信号プリプロセッサ314で前記生理信号を前処理した後に生理パラメータを得、且つ前記生理パラメータをインタラクション内容プロセッサ306に送信することに用いる複数のセンサー313を含む。相応的には、インタラクション内容プロセッサ306は前記文字情報、表情情報と生理パラメータに基づいてインタラクション内容を生成し、前記インタラクション内容を前記イメージングシステム310に送信し、且つ前記インタラクション内容にある音声情報をスピーカー309に送信する。
音声と仮想動作を同期させるシステム300におけるセンサー313は光センサー、虹彩認識センサー、指紋取得センサー、温度センサー、心拍数センサーなどを含むがそれらには限定されなく、ユーザの光感知情報、虹彩情報、指紋情報、体温情報、心拍数情報などにおける一種や多種類の生理信号を含むマルチモード情報を豊富にする。
下記はマイク301、画像取得装置304、センサー313が取得・出力する情報をマルチモード情報と総称する。
図5に示すように、一部のセンサー313は音声と仮想動作を同期させるシステム300と一体に集積され、一部のセンター313はウェアラブルデバイス400に集積されることが可能である、例えば温度センサー、心拍数センサーをスマートリストバンドに集積し、無線通信装置によって取得した情報を音声と仮想動作を同期させるシステム300におけるインタラクション内容プロセッサ306に送信する。図5はただ音声と仮想動作を同期させるシステム300における無線通信装置とインタラクション内容プロセッサ306との接続関係を表示するだけで、音声と仮想動作を同期させるシステム300における他の接続関係は図3と図4に参照すればよい。
システム300はまた人工知能クラウドプロセッサを含み、前記人工知能クラウドプロセッサはロボットの生活時間軸パラメータの生成に用い、具体的にはロボットの自己認識の拡大、前記メモリからユーザの生活時間軸パラメータの取得、ロボットの自己認識パラメータをユーザの生活時間軸におけるパラメータと整合し、それによるロボットの生活時間軸の生成を含む。ここにおいて、ロボットの自己認識を拡大する前記ステップは具体的に、生活場面をロボットの自己認識と結合して生活時間軸を基礎とする自己認識曲線の生成を含む。ロボットの自己認識パラメータを生活時間軸におけるパラメータと整合するステップは具体的に、確率アルゴリズムを利用し、時間軸の場面パラメータが変えた後、生活時間軸にあるロボットの各パラメータが変化する確率を計算して整合曲線を形成することを含む。そうするとロボットの自己認識パラメータと生活時間軸のパラメータを具体的に整合することができる。ここにおいて確率アルゴリズムはベイズ確率アルゴリズムであってもよい。
例えば、一日の24時間において、ロボットが眠る、運動する、食事する、ダンスする、本を読む、食事する、メイクアップする、眠るなどの動作を有するようにさせる。それぞれの動作はロボット本体の自己認識に影響を与え、生活時間軸におけるパラメータをロボット本体の自己認識を結合して整合した後、即ちロボットの自己認識に、気持ち、疲労値、親密度、好感度、対話回数、ロボットの三次元認識、年齢、身長、体重、親密度、ゲーム場面値、ゲーム対象値、場所場面値、場所対象値などを含むようになった。ロボットは、カフェ、ベッドルームなど、自分が位置する場所場面を識別できるようになった。
本実施例のシステムはまたロボットの生活時間軸を利用してロボットの音声と動作の同期をガイドできる。具体的には、音声情報の時間長と動作情報の時間長を同じように調節するステップは具体的に、ロボットの現在生活時間軸にある時間位置を取得すること、前記音声情報の時間長と動作情報の時間長との差を比較し、ロボットがある時間位置に基づいて音声情報の時間長を調整するか、それとも動作情報の時間長を調整するかを判断すること、判断結果によって音声情報の時間長と動作情報の時間長を同じように調整することを含む。例えば、マンマシンインタラクションはロボットが休憩中又は起きたばかり時点に発生し、且つ動作時間>言語の長さであると、言語の長さを延長し、それはロボットが怠惰な状態にあるため、比較的に遅い動作と音声とも人類が日常生活における表現をよりよく整合できるようになった。
音声情報と動作情報の時間長を調整する際には、ロボットが現在時間軸にある時間位置の他、ロボットの現在の気持ち(長時間運転−人類の疲労に対応する)、ロボット現在の状態(残った電気量−人類の飢餓に対応する)などを考えるべきである。
ロボットは一日の時間軸内に異なる動作をする、例えば、夜に眠る、昼に食事する、昼に運動するなど、生活時間軸におけるこれらの場面は全部、自己認識に影響を及ぼす。これらの数値の変化は確率モデルによる動的整合方法で、これらの動作が時間軸に発生する確率を整合仕上げる。場面識別:この場所場面識別は自己認識における地理場面値を変える可能性はある。
本実施例に開示したシステム300はまた無線通信装置314を含み、図6に示すように、無線通信装置314はインタラクション内容プロセッサ306と接続され、インタラクション内容プロセッサ306はまたインタラクション内容の移動端末500への送信に用い、移動端末500は動作情報に基づいて仮想3D映像を生成し、移動端末500のスピーカーで音声情報を同時に再生する。図6はただ音声と仮想動作を同期させるシステム300における無線通信装置とインタラクション内容プロセッサ311との接続関係を表示するだけで、音声と仮想動作を同期させるシステム300における他の接続関係は図3と図4に参照すればよい。
本実施例が開示したロボットの音声と仮想動作を同期させるシステム300は、さまざまな面でロボットのユーザと対話する形式を豊富にすることが可能で、ロボットがもっと擬人化に人類と対話でき、該システムは生成したロボットのインタラクション内容の擬人性及びマンマシンインタラクション体験を向上させ、インテリジェント性を高めることが期待される。
図7に示すように、音声と仮想動作を同期させるシステム300はまたロボット600の内部に集積されてもよく、ロボット600に備えられた音声取得装置612、ビデオカメラ611、各種類のセンサー(図4に表示されない)、GPSナビゲーション装置(図4に表示されない)などによってユーザのマルチモード情報を取得し、且つインタラクション内容プロセッサ306に送信できる、例えば、ユーザがロボットをある場所に連れる時に、GPSナビゲーション装置でユーザがいる位置情報が得られ、そうして生活時間軸と結合することで可変パラメータを得、且つロボット本体の自己認識を拡大し、自己認識パラメータと可変パラメータにおける応用場面パラメータを整合して、擬人化の影響を生じる。
インタラクション内容プロセッサ306はメモリー311に記憶されたプログラムの読み取りに用い、ユーザのマルチモード情報の取得、ユーザのマルチモード情報と生活時間軸に基づいて、少なくとも音声情報と動作情報を含むインタラクション内容の生成、音声情報の時間長と動作情報の時間長の同期調整、及び時間長が同様に調整された音声情報と動作情報を出力するプロセスを実行する。インタラクション内容プロセッサ306から出力された音声情報はロボット600の音声システム613で再生され、ロボット600のホストコントローラによってインタラクション内容プロセッサ306から出力された動作情報をロボットのそれぞれの関節の制御信号に転化し、ロボットのそれぞれの関節614の運動を制御し、それによりロボット600を音声と同期する動作をさせる、例えば、ロボット600のヘッドの内側における関節によってヘッドの横向け揺れ、前後の振り、及びうなずく動作を制御し、ロボットの運動を制御する具体的な方法は従来技術であるため、本文で詳細に説明しない。インタラクション内容プロセッサ306で処理されたデータを無線通信装置314を経由して無線媒質で伝送し、更に、無線通信装置314はデータを受信してからそれをインタラクション内容プロセッサ306に転送し、ロボット600は無線通信装置314によってインターネットにアクセスできる他、またインターネットによってユーザのさまざまなデータを取得やアップロードでき、また無線通信装置314でユーザの移動端末にアクセスでき、ロボットとの対話やロボットに対するさまざまな設定を実現できる。
音声と仮想動作を同期させるシステムも電子デバイス端末をキャリアとしてソフトウェアプログラムを経由して実現でき、スマートフォンをキャリアとすることで例示し、情報取得装置はスマートフォンに既存している音声取得装置、ビデオカメラ、各種類のセンサー、GPSナビゲーション装置などを再利用してユーザのマルチモード情報を取得し、且つスマートフォンに内蔵したプロセッサに送信した後、プロセッサはメモリーに記憶されたプログラムを読み取り、ユーザのマルチモード情報と可変パラメータに基づいて、少なくとも音声情報と動作情報を含むインタラクション内容を生成するプロセスと、音声情報の時間長と動作情報の時間長を同じように調整するプロセスと、時間長が同様に調整された音声情報と動作情報を出力するプロセスとを実行する。スマートフォンのスクリーンで仮想ロボットの動作を表示し、スピーカーで音声を同時に再生する。スマートフォンの無線通信モジュールによって外部のデバイスやネットワークと接続され、データインタラクションを完成する。
本実施例の音声と仮想動作を同期させるシステムは、ユーザの音声、表情、動作などのマルチモード情報の一種や多種利によって、少なくとも音声情報と動作情報を含むインタラクション内容を生成でき、音声情報と動作情報を同期させるためには、音声情報の時間長と動作情報の時間長を同じように調整し、それでロボットが音声と動作を再生する時に同時にマッチすることが可能になって、ロボットが人類と対話する際に音声表現だけではなく、また動作などのさまざまな表現形式も利用可能、ロボットの表現形式をもっと多様化にし、ロボットはより擬人化に対話でき、ユーザのインタラクション体験も向上した。
上記内容は具体的な好ましい実施様態を結合した上で本発明に対する更に詳細な説明であるが、本発明の具体的な実施例はこれらの説明に限定されるわけではない。当業者にとっては、本発明の精神から脱逸しない前提で、上記実施様態にさまざまな変更・改良を加えることが可能であって、本発明の保護範囲に属するべきである。

Claims (9)

  1. 音声と仮想動作を同期させるシステムであって、マイク、アナログデジタルコンバータ、音声識別プロセッサ、画像取得装置、意図識別プロセッサ、顔認識プロセッサ、音声合成装置、パワーアンプ、スピーカー、イメージングシステム、インタラクション内容プロセッサ及びメモリを含み、
    前記マイク、前記アナログデジタルコンバータ、前記音声識別プロセッサと前記インタラクション内容プロセッサは順次に接続され、前記画像取得装置、前記顔認識プロセッサと前記インタラクション内容プロセッサは順次に接続され、前記インタラクション内容プロセッサは前記メモリと接続され、前記インタラクション内容プロセッサ、前記音声合成装置、前記パワーアンプ及び前記スピーカーは順次に接続され、前記イメージングシステムは前記インタラクション内容プロセッサと接続され、
    前記マイクはユーザとロボットが対話する際にユーザの音声信号の取得に用い、前記アナログデジタルコンバータは前記音声信号の音声デジタル情報への転換に用い、前記音声識別プロセッサは前記音声デジタル情報を文字情報に転化する上で前記意図識別プロセッサへの入力に用い、
    前記画像取得装置はユーザがいる画像の取得に用い、前記顔認識プロセッサはユーザがいる画像から、ユーザの表情情報を識別し取得して前記インタラクション内容プロセッサへの入力に用い、
    前記インタラクション内容プロセッサは、少なくとも前記文字情報と前記表情情報を含むユーザのマルチモード情報、及び前記メモリに記憶されている生活時間軸に基づいて、少なくとも音声情報と動作情報を含むインタラクション内容を生成し、音声情報の時間長と動作情報の時間長を同じように調整することに用い、
    前記イメージングシステムは前記動作情報によって仮想3D映像を生成し、前記スピーカーは前記音声情報を同時に再生し、
    ここで、前記マルチモード情報は、音声情報、手振り情報、場面情報、画像情報、ビデオ情報、顔情報、虹彩情報、光感知情報や指紋情報の一種または多種類であり、
    ここで、前記インタラクション内容の生成は、前記音声情報を生成し、かつ生成した前記音声情報の時間長によって、前記音声情報の時間長と最も近い動作情報を選択する、或いは、前記動作情報を生成し、かつ生成した前記動作情報の時間長によって、前記動作情報の時間長と最も近い音声情報を選択することを含み、
    ここで、前記音声情報の時間長と前記動作情報の時間長に対する同期調整は、ロボットの現在の気分値及び/又はロボットの現在の状態値によって、前記音声情報と前記動作情報の時間長を確定し、かつ確定した前記時間長に従って、前記音声情報の時間長と前記動作情報の時間長を同様に調整することを含み、
    前記インタラクション内容プロセッサはまた、前記ロボットの生活時間軸と可変パラメータによって、前記ロボットの自己認識に関する属性を変更し、前記ロボットの前記生活時間軸、前記可変パラメータにおける場面パラメータ、及びこの前の情報に基づいて模擬した人類の自己認識場面によって、前記ロボットの自己認識に新しい属性を追加するのに用い、前記ロボットの前記生活時間軸には前記音声情報と前記動作情報を含む、
    ことを特徴する音声と仮想動作を同期させるシステム。
  2. 前記インタラクション内容プロセッサにおいて、音声情報の時間長と動作情報の時間長を同じように調整するステップは、具体的に、
    音声情報の時間長と動作情報の時間長との差が閾値以下にある場合は、音声情報の時間長が動作情報の時間長より小さいであるなら、動作情報の再生速度を速め、それにより動作情報の時間長を前記音声情報の時間長と同じようにすることを含む
    ことを特徴とする請求項1に記載のシステム。
  3. 前記インタラクション内容プロセッサにおいて、音声情報の時間長が動作情報の時間長より大きいである場合は、音声情報の再生速度を速める又は/及び動作情報の再生速度を落とし、それにより動作情報の時間長を前記音声情報の時間長と同じようにする
    ことを特徴とする請求項2に記載のシステム。
  4. 前記インタラクション内容プロセッサにおいて、音声情報の時間長と動作情報の時間長を同じように調整するステップは、具体的に、
    音声情報の時間長と動作情報の時間長との差が閾値より大きいである場合、音声情報の時間長が動作情報の時間長より大きいであるなら、少なくとも二組の動作情報を順序付けて組み合わせ、それにより動作情報の時間長を前記音声情報の時間長と同じようにすることを含む
    ことを特徴とする請求項1に記載のシステム。
  5. 前記インタラクション内容プロセッサにおいて、音声情報の時間長が動作情報の時間長より小さいである場合は、動作情報における一部の動作を選択して、これらの動作の時間長が前記音声情報の時間と同じようにする
    ことを特徴とする請求項4に記載のシステム。
  6. 前記システムはまた、ロボットの生活時間軸パラメータの生成に用いた人工知能クラウドプロセッサを含み、具体的には、
    ロボットの自己認識の拡大と、
    前記メモリからユーザの生活時間軸パラメータの取得と、
    ロボットの自己認識パラメータをユーザの生活時間軸におけるパラメータに整合し、それによるロボットの生活時間軸の生成を含む
    ことを特徴とする請求項1に記載のシステム。
  7. 前記人工知能クラウドプロセッサにおいて、前記ロボットの自己認識を拡大するステップは、具体的に、
    生活場面をロボットの自己認識と結合して、生活時間軸を基礎とする自己認識曲線を生成することを含む
    ことを特徴とする請求項6に記載のシステム。
  8. 前記人工知能クラウドプロセッサにおいて、ロボットの自己認識パラメータを生活時間軸におけるパラメータに整合するステップは、具体的に、
    確率アルゴリズムで、生活時間軸におけるロボットは時間軸の場面パラメータが変えた後、その各パラメータが変化する確率を計算して、それにより整合曲線の形成を含む
    ことを特徴とする請求項6に記載のシステム。
  9. 音声情報の時間長と動作情報の時間長を同じように調整する動作は、
    ロボットが現在、生活時間軸に所在する時間位置の取得と、
    前記音声情報と動作情報との時間差を対比し、ロボットが所在する時間位置によって、音声情報の時間長を調整するか、それとも動作情報の時間長を調整するかという判断の実行と、
    判断結果に基づいて、音声情報の時間長と動作情報の時間長を同じように調整する
    ことを含む
    ことを特徴とする請求項6に記載のシステム。
JP2017133168A 2016-07-07 2017-07-06 音声と仮想動作を同期させる方法、システムとロボット本体 Expired - Fee Related JP6567610B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
PCT/CN2016/089215 WO2018006371A1 (zh) 2016-07-07 2016-07-07 一种同步语音及虚拟动作的方法、系统及机器人
WOPCT/CN2016/089215 2016-07-07

Publications (2)

Publication Number Publication Date
JP2018001404A JP2018001404A (ja) 2018-01-11
JP6567610B2 true JP6567610B2 (ja) 2019-08-28

Family

ID=58215741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017133168A Expired - Fee Related JP6567610B2 (ja) 2016-07-07 2017-07-06 音声と仮想動作を同期させる方法、システムとロボット本体

Country Status (3)

Country Link
JP (1) JP6567610B2 (ja)
CN (1) CN106463118B (ja)
WO (1) WO2018006371A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107992935A (zh) * 2017-12-14 2018-05-04 深圳狗尾草智能科技有限公司 为机器人设置生活周期的方法、设备及介质
CN108650217B (zh) * 2018-03-21 2019-07-23 腾讯科技(深圳)有限公司 动作状态的同步方法、装置、存储介质及电子装置
CN109202925A (zh) * 2018-09-03 2019-01-15 深圳狗尾草智能科技有限公司 实现机器人动作和语音同步的方法、系统及设备
CN109521878A (zh) * 2018-11-08 2019-03-26 歌尔科技有限公司 交互方法、装置和计算机可读存储介质
CN117058286B (zh) * 2023-10-13 2024-01-23 北京蔚领时代科技有限公司 一种文字驱动数字人生成视频的方法和装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10143351A (ja) * 1996-11-13 1998-05-29 Sharp Corp インタフェース装置
WO1998025413A1 (en) * 1996-12-04 1998-06-11 Matsushita Electric Industrial Co., Ltd. Optical disc for high resolution and three-dimensional image recording, optical disc reproducing device, and optical disc recording device
JP3792882B2 (ja) * 1998-03-17 2006-07-05 株式会社東芝 感情生成装置及び感情生成方法
JP2001154681A (ja) * 1999-11-30 2001-06-08 Sony Corp 音声処理装置および音声処理方法、並びに記録媒体
JP2001215940A (ja) * 2000-01-31 2001-08-10 Toshiba Corp 表情を有する知的ロボット
JP3930389B2 (ja) * 2002-07-08 2007-06-13 三菱重工業株式会社 ロボット発話中の動作プログラム生成装置及びロボット
JP2005003926A (ja) * 2003-06-11 2005-01-06 Sony Corp 情報処理装置および方法、並びにプログラム
JP2005092675A (ja) * 2003-09-19 2005-04-07 Science Univ Of Tokyo ロボット
EP1845724A1 (en) * 2005-02-03 2007-10-17 Matsushita Electric Industrial Co., Ltd. Recording/reproduction device, recording/reproduction method, recording/reproduction apparatus and recording/reproduction method, and recording medium storing recording/reproduction program, and integrated circuit for use in recording/reproduction apparatus
JP2008040726A (ja) * 2006-08-04 2008-02-21 Univ Of Electro-Communications ユーザ支援システム及びユーザ支援方法
JP2009141555A (ja) * 2007-12-05 2009-06-25 Fujifilm Corp 音声入力機能付き撮像装置及びその音声記録方法
JP5045519B2 (ja) * 2008-03-26 2012-10-10 トヨタ自動車株式会社 動作生成装置、ロボット及び動作生成方法
CN100590676C (zh) * 2008-05-30 2010-02-17 上海土锁网络科技有限公司 一种网络互动语音玩具组件的实现方法
EP2342683A2 (en) * 2008-10-03 2011-07-13 BAE Systems PLC Assisting with updating a model for diagnosing failures in a system
JP2010094799A (ja) * 2008-10-17 2010-04-30 Littleisland Inc 人型ロボット
CN101604204B (zh) * 2009-07-09 2011-01-05 北京科技大学 智能情感机器人分布式认知系统
US8821209B2 (en) * 2009-08-06 2014-09-02 Peter Sui Lun Fong Interactive device with sound-based action synchronization
JP2011054088A (ja) * 2009-09-04 2011-03-17 National Institute Of Information & Communication Technology 情報処理装置、情報処理方法、プログラム及び対話システム
JP2012215645A (ja) * 2011-03-31 2012-11-08 Speakglobal Ltd コンピュータを利用した外国語会話練習システム
JP6011064B2 (ja) * 2012-06-26 2016-10-19 ヤマハ株式会社 自動演奏装置及びプログラム
CN103596051A (zh) * 2012-08-14 2014-02-19 金运科技股份有限公司 电视装置及其虚拟主持人显示方法
JP6126028B2 (ja) * 2014-02-28 2017-05-10 三井不動産株式会社 ロボット制御システム、ロボット制御サーバ及びロボット制御プログラム
JP6351528B2 (ja) * 2014-06-05 2018-07-04 Cocoro Sb株式会社 行動制御システム及びプログラム
WO2016006088A1 (ja) * 2014-07-10 2016-01-14 株式会社 東芝 電子機器及び方法及びプログラム
CN104574478A (zh) * 2014-12-30 2015-04-29 北京像素软件科技股份有限公司 一种编辑动画人物口型的方法及装置
CN105598972B (zh) * 2016-02-04 2017-08-08 北京光年无限科技有限公司 一种机器人系统及交互方法
CN105807933B (zh) * 2016-03-18 2019-02-12 北京光年无限科技有限公司 一种用于智能机器人的人机交互方法及装置

Also Published As

Publication number Publication date
CN106463118A (zh) 2017-02-22
JP2018001404A (ja) 2018-01-11
WO2018006371A1 (zh) 2018-01-11
CN106463118B (zh) 2019-09-03

Similar Documents

Publication Publication Date Title
JP6567610B2 (ja) 音声と仮想動作を同期させる方法、システムとロボット本体
JP6567609B2 (ja) 音声と仮想動作を同期させる方法、システムとロボット本体
AU2019384515B2 (en) Adapting a virtual reality experience for a user based on a mood improvement score
US10217260B1 (en) Real-time lip synchronization animation
JP2018014094A (ja) 仮想ロボットのインタラクション方法、システム及びロボット
TWI766499B (zh) 互動物件的驅動方法、裝置、設備以及儲存媒體
KR20130032620A (ko) 3차원 사용자 아바타를 이용한 동영상 제작장치 및 방법
CN103823551A (zh) 一种实现多维度感知虚拟交互的系统和方法
WO2022079933A1 (ja) コミュニケーション支援プログラム、コミュニケーション支援方法、コミュニケーション支援システム、端末装置及び非言語表現プログラム
CN109409255A (zh) 一种手语场景生成方法及装置
US11743645B2 (en) Method and device for sound processing for a synthesized reality setting
WO2016206643A1 (zh) 机器人交互行为的控制方法、装置及机器人
US20220122333A1 (en) Information processing apparatus, information processing method, and program
JP2024005023A (ja) プログラム、方法、情報処理装置
JP7152908B2 (ja) 仕草制御装置及び仕草制御プログラム
KR102620762B1 (ko) 생성형 ai 음원분리기술을 활용한 사운드 테라피 효과를 제공하는 전자장치 및 그 방법
WO2022249604A1 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
US11809630B1 (en) Using a haptic effects library to determine whether to provide predefined or parametrically-defined haptic responses, and systems and methods of use thereof
JP7339420B1 (ja) プログラム、方法、情報処理装置
WO2023139849A1 (ja) 感情推定方法、コンテンツ決定方法、プログラム、感情推定システム、及びコンテンツ決定システム
KR20240049565A (ko) 사용자 전기 신호에 기초한 오디오 조정
JP2024005034A (ja) プログラム、方法、情報処理装置
WO2024054713A1 (en) Avatar facial expressions based on semantical context
WO2020180590A1 (en) Systems and methods for augmented reality content harvesting and information extraction
CN117437335A (zh) 表情转移到风格化化身

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170818

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190731

R150 Certificate of patent or registration of utility model

Ref document number: 6567610

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees