JP2008259808A - ロボットシステムおよびその制御方法 - Google Patents
ロボットシステムおよびその制御方法 Download PDFInfo
- Publication number
- JP2008259808A JP2008259808A JP2007236314A JP2007236314A JP2008259808A JP 2008259808 A JP2008259808 A JP 2008259808A JP 2007236314 A JP2007236314 A JP 2007236314A JP 2007236314 A JP2007236314 A JP 2007236314A JP 2008259808 A JP2008259808 A JP 2008259808A
- Authority
- JP
- Japan
- Prior art keywords
- facial expression
- voice
- audio
- unit
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Robotics (AREA)
- Manipulator (AREA)
- Toys (AREA)
Abstract
【課題】ロボットシステムおよびその制御方法を提供する。
【解決手段】ロボットシステムの制御方法は次のとおりである。表情および音声情報が入力ユニットによって受信され、そこからプロセッサーに転送される。プロセッサーは表情および音声情報を対応する表情信号および音声信号に変換する。表情信号および音声信号は表情および音声同期出力ユニットによって受信され、そこから同期転送される。表情発生制御ユニットは表情信号を受信し、対応する表情出力信号を発生する。複数のアクチュエータは表情出力信号に従って擬似フェースに表情を発生させる。音声発生制御ユニットは音声信号を受信し、対応する音声出力信号を発生する。スピーカーは音声出力信号に従って音声を転送する。スピーカーからの音声出力とアクチュエータによる擬似フェース上の表情発生は同期して実行される。
【選択図】図5
【解決手段】ロボットシステムの制御方法は次のとおりである。表情および音声情報が入力ユニットによって受信され、そこからプロセッサーに転送される。プロセッサーは表情および音声情報を対応する表情信号および音声信号に変換する。表情信号および音声信号は表情および音声同期出力ユニットによって受信され、そこから同期転送される。表情発生制御ユニットは表情信号を受信し、対応する表情出力信号を発生する。複数のアクチュエータは表情出力信号に従って擬似フェースに表情を発生させる。音声発生制御ユニットは音声信号を受信し、対応する音声出力信号を発生する。スピーカーは音声出力信号に従って音声を転送する。スピーカーからの音声出力とアクチュエータによる擬似フェース上の表情発生は同期して実行される。
【選択図】図5
Description
本発明はロボットシステムに関し、特にロボットシステムの制御方法に関するものである。
一般的に、従来のロボットは簡単な動作および音声出力を実現することができる。
特許文献1には、ロボット用の表情変化装置が開示されている。その表情変化装置は、頭部と、様々な表情を付加する合成樹脂製のマスクと、を含んでいる。
特許文献2には、ロボットおよびロボットの制御方法が開示されている。そのロボットは、制御装置、検出装置、記憶装置などのオペレーションによって人間のように動作することができる。
本発明の目的は、ロボットシステムおよびその制御方法を提供することにある。
本発明の代表的な実施形態は、ロボットヘッド、擬似フェース、プロセッサー、入力ユニット、表情および音声同期出力ユニット、表情発生制御ユニット、複数のアクチュエータ、音声発生制御ユニット並びにスピーカーを含むロボットシステムを提供する。擬似フェースはロボットヘッドに取り付けられる。入力ユニットは、プロセッサーに電気的に接続され、表情および音声情報を受信し、それらをプロセッサーに転送する。プロセッサーは表情および音声情報を対応する表情信号および音声信号に変換する。表情および音声同期出力ユニットはプロセッサーに電気的に接続され、表情信号および音声信号を受信して同期転送する。表情発生制御ユニットは表情および音声同期出力ユニットに電気的に接続され、表情信号を受信して対応する表情出力信号を発生する。アクチュエータは表情発生制御ユニットに電気的に接続されると共に擬似フェースに接続され、表情出力信号に従って擬似フェースに表情を生じさせる。音声発生制御ユニットは表情および音声同期出力ユニットに電気的に接続され、音声信号を受信して対応する音声出力信号を発生する。スピーカーは、音声発生制御ユニットに電気的に接続され、音声出力装置に従って音声を転送する。スピーカーからの音声出力およびアクチュエータによる擬似フェース上の表情発生は同期して実行される。
ロボットシステムは、入力ユニットに電気的に接続される情報媒体入力装置をさらに含む。表情および音声情報は情報媒体入力装置を介して入力ユニットに転送される。
ロボットシステムは、入力ユニットに電気的に接続されるネットワーク入力装置をさらに含む。表情および音声情報はネットワーク入力装置を介して入力ユニットに転送される。
ロボットシステムは、入力ユニットに電気的に接続されるラジオ装置をさらに含む。表情および音声情報はラジオ装置を介して入力ユニットに転送される。
ロボットシステムは、音声および画像解析ユニット並びに音声および画像取り込みユニットをさらに含む。音声および画像解析ユニットは入力ユニットと音声および画像取り込みユニットの間に電気的に接続される。音声および画像取り込みユニットは、音声および画像を取り込み、それらを音声および画像解析ユニットに転送する。音声および画像解析ユニットは音声および画像を表情および音声情報に変換し、表情および音声情報を入力ユニットに転送する。
音声および画像取り込みユニットは音声受信装置と画像取り込み装置を含む。
ロボットシステムは、プロセッサーと表情および音声同期出力ユニットの間に電気的に接続される記憶ユニットをさらに含む。記憶ユニットは表情信号および音声信号を保存する。
プロセッサーは、情報媒体入力装置、ネットワーク入力装置、およびラジオ装置を適時作動させ、記憶ユニットからの表情信号および音声信号を表情および音声同期出力ユニットに転送するタイミング制御装置を含む。
本発明の他の実施形態は、ロボットヘッド、ロボットヘッドに取り付けられる擬似フェース、擬似フェースに接続される複数のアクチュエータ、およびロボットヘッド内部にあるスピーカーを準備するステップと、入力ユニットによって表情および音声情報を受信し、それらを入力ユニットからプロセッサーに転送し、プロセッサーは表情および音声情報を対応する表情信号および音声信号に変換するステップと、表情および音声同期出力ユニットによって表情信号および音声信号を受信し、表情および音声同期出力ユニットからそれらを同期転送するステップと、表情発生制御ユニットによって表情信号を受信して対応する表情出力信号を発生するステップと、アクチュエータにより表情出力信号に従って擬似フェースに表情を発生させるステップと、音声発生制御ユニットによって音声信号を受信して対応する音声出力信号を発生するステップと、音声出力信号に従ってスピーカーから音声を転送させるステップとを含み、スピーカーからの音声出力およびアクチュエータによる擬似フェース上の表情発生が同期して実行されるロボットシステムの制御方法を提供する。
該方法は、情報媒体入力装置を介して表情および音声情報を入力ユニットに転送するステップをさらに含む。
該方法は、タイミング制御装置により情報媒体入力装置を適時作動させるステップをさらに含む。
該方法は、ネットワーク入力装置を介して表情および音声情報を入力ユニットに転送するステップをさらに含む。
該方法は、タイミング制御装置によりネットワーク入力装置を適時作動させるステップをさらに含む。
該方法は、ラジオ装置を介して表情および音声情報を入力ユニットに転送するステップをさらに含む。
該方法は、タイミング制御装置によりラジオ装置を適時作動させるステップをさらに含む。
該方法は、音声および画像取り込みユニットによって音声および画像を取り込み、音声および画像取り込みユニットからそれらを音声および画像解析ユニットに転送するステップと、音声および画像解析ユニットによって音声および画像を表情および音声情報に変換し、音声および画像解析ユニットから表情および音声情報を入力ユニットに転送するステップと、をさらに含む。
該方法は、プロセッサーが変換した表情信号および音声信号を記憶ユニットによって保存するステップをさらに含む。
該方法は、タイミング制御装置により、記憶ユニットから表情信号および音声信号を表情および音声同期出力ユニットに適時転送するステップをさらに含む。
本発明のロボットシステムおよびその制御方法によれば、受信した表情および音声情報に従って音声出力と擬似フェース上の表情発生が同期して実行されるため、例えば、歌手またはボーカリストが音声を発したとき、ロボットシステムまたはロボットヘッドは音声に対応した表情を表出でき、擬似効果が達成される。
以下の記載は本発明を実施する上での最良の形態である。本記載は本発明の一般的な原理を説明するためのものであって、限定的に解されるべきものではない。本発明の範囲は添付された特許請求の範囲を参照することで最良に判断される。
図1および図2を参照して説明する。ロボットシステム100は、ロボットヘッド110、擬似フェース120、プロセッサー130、入力ユニット135、表情および音声同期出力ユニット140、表情発生制御ユニット145、複数のアクチュエータ150、音声発生制御ユニット155、スピーカー160、情報媒体入力装置171、ネットワーク入力装置172、ラジオ装置173、音声および画像解析ユニット180、音声および画像取り込みユニット185、並びに記憶ユニット190を含む。
擬似フェース120はロボットヘッド110に取り付けられる。ここで、擬似フェース120はゴムあるいは合成樹脂のような弾性材料を含むことが可能で、且つ、選択的に人間の顔、動物の顔あるいはアニメのキャラクターの顔とすることができる。
特に、プロセッサー130、入力ユニット135、表情および音声同期出力ユニット140、表情発生制御ユニット145、音声発生制御ユニット155、情報媒体入力装置171、ネットワーク入力装置172、ラジオ装置173、音声および画像解析ユニット180、並びに記憶ユニット190を、ロボットヘッド110の内部あるいは外部に配置することが可能であるという点である。
図2に示すように、プロセッサー130はタイミング制御装置131を含み、入力ユニット135はプロセッサー130に電気的に接続され、表情および音声情報を受信する。
表情および音声同期出力ユニット140はプロセッサー130に電気的に接続される。
表情発生制御ユニット145は表情および音声同期出力ユニット140に電気的に接続される。
アクチュエータ150は表情発生制御ユニット145に電気的に接続され、且つ擬似フェース120に接続される。具体的には、アクチュエータ150は擬似フェース120の内表面にそれぞれ適切に接続される。例えば、アクチュエータ150は擬似フェース120の目、まゆ、口および鼻に相当する内表面に接続されている。
音声発生制御ユニット155は表情および音声同期出力ユニット140に電気的に接続される。
スピーカー160は音声発生制御ユニット155に電気的に接続される。ここでスピーカー160は、図1に示すように、擬似フェース120の口の開口部121に選択的に配置することが可能である。
図2に示すように、情報媒体入力装置171、ネットワーク入力装置172およびラジオ装置173は入力ユニット135に電気的に接続される。情報媒体入力装置171は光学ディスクドライブあるいはUSBポートであり、ネットワーク入力装置172はワイヤーあるいはワイヤレス接続インターフェースを持つネットワーク接続ポートとすることが可能である。
音声および画像解析ユニット180は入力ユニット135と音声および画像取り込みユニット185の間に電気的に接続される。この実施形態において、音声および画像取り込みユニット185は音声受信装置185aおよび画像取り込み装置185bを含む。具体的には、音声受信装置185aはマイクロフォンとすることができ、画像取り込み装置185bはビデオカメラとすることができる。
記憶ユニット190はプロセッサー130と表情および音声同期出力ユニット140の間に電気的に接続される。
以下、ロボットシステム100の動作について説明する。
一動作形態において、図3のステップS11に示すように、デジタルまたはアナログ形式であり得る表情および音声情報が、情報媒体入力装置171を介して入力ユニット135に転送される。例えば、表情および音声情報は、情報媒体入力装置171により光学ディスクからアクセスされ、入力ユニット135により受信されるようなものであってよい。次いで、図3のステップS12に示すように、入力ユニット135が、表情および音声情報をプロセッサー130に転送する。ここで、プロセッサー130は、復号化と再符号化によって、表情および音声情報を対応する表情信号および音声信号に変換する。図3のステップS13に示すように、表情および音声同期出力ユニット140は表情信号および音声信号を受信しそれらを同期転送する。図3のステップS14に示すように、表情発生制御ユニット145が表情信号を受信して一連の対応する表情出力信号を発生する。同時に、図3のS14’に示すように、音声発生制御ユニット155が音声信号を受信し、一連の対応する音声出力信号を発生する。図3のステップS15に示すように、アクチュエータ150は、一連の対応する表情出力信号に従って擬似フェース120に表情を生じさせる。ここで擬似フェース120の内表面の異なった位置に配置されたアクチュエータ150は、それぞれに受信した表情出力信号に従って個別に動作し、擬似フェース120に表情を生じさせる。同時に、図3のステップS15’に示すように、スピーカー160が一連の音声出力信号に従って音声を転送する。特別であるのは、表情および音声同期出力ユニット140の動作により、スピーカー160からの音声出力と、アクチュエータ150による擬似フェース120上の表情発生が同期して行われるという点である。例えば、ロボットシステム100あるいはロボットヘッド110が歌ったりあるいは言葉をしゃべるとき、擬似フェース120はそれに対応した表情を表出する。
さらに、情報媒体入力装置171を介して入力ユニット135に転送される表情および音声情報は、事前に生成または事前に記録されていたものであってよい。
もう一つの動作形態において、図4のステップS21に示すように、表情および音声情報がネットワーク入力装置172を介して入力ユニット135に転送される。例えば、表情および音声情報は、インターネットを介してネットワーク入力装置172に転送され、入力ユニット135により受信されるものとすることができる。次いで、図4のステップS22に示すように、入力ユニット135が表情および音声信号をプロセッサー130に転送する。ここで、プロセッサー130は、復号化および再符号化によって、表情および音声情報を対応する表情信号および音声信号に変換する。図4のステップS23に示すように、表情および音声同期出力ユニット140は、表情信号および音声信号を受信し、それらを同期転送する。図4のステップS24に示すように、表情発生制御ユニット145は表情信号を受信し、一連の対応する表情出力信号を発生する。同時に、図4のステップS24’に示すように、音声発生制御ユニット155は音声信号を受信し、一連の対応する音声出力信号を発生する。図4のステップS25に示すように、アクチュエータ150は一連の対応する表情出力信号に従って、擬似フェース120に表情を生じさせる。同様に、擬似フェース120の内表面の異なった位置に配置されたアクチュエータ150は、それぞれに受信した表情出力信号に従って個別に動作し、擬似フェース120に表情を生じさせる。同時に、図4のステップS25'に示すように、スピーカー160は一連の音声出力信号に従って音声を転送する。同様に、表情および音声同期出力ユニット140の動作によって、スピーカー160からの音声出力と、アクチュエータ150による擬似フェース120上の表情発生が同期して行われる。
さらに、ネットワーク入力装置172を介して入力ユニット135に転送される表情および音声情報は、リアルタイムで生成または事前に記録され、ネットワーク入力装置172に転送されるものであってよい。
さらにもう一つの動作モードにおいて、表情および音声情報はラジオ装置173を介して入力ユニット135に転送される。ここでラジオ装置173によって受信され、そこから転送される表情および音声情報は、ラジオ放送信号の形式のものである。この時、擬似フェース120はこれに対応して特定の表情を生じる。
さらに、ラジオ装置173を介して入力ユニット135に転送される表情および音声情報は、リアルタイムで生成または事前に記録され、ラジオ装置173に転送されるものであってよい。
さらに、ロボットシステム100あるいはロボットヘッド110の上述した動作は、スケジューリングして実行させることができる。具体的には、情報媒体入力装置171、ネットワーク入力装置172およびラジオ装置173を、プロセッサー130中のタイミング制御装置131を設定することにより適時作動させることができる。即ち、指定された時間に、情報媒体入力装置171が光学ディスクから表情および音声情報を入力ユニット135へ転送する、ネットワーク入力装置172がインターネットから表情および音声情報を入力ユニット135へ転送する、またはラジオ装置173が放送信号を受信することによって、ロボットシステム100またはロボットヘッド110に上述の動作を実行させることができる(例えばニュース放送または挨拶など)。
さらに、プロッセッサー130が、情報媒体入力装置171あるいはネットワーク入力装置172あるいはラジオ装置173から送られた表情および音声情報を対応する表情信号および音声信号に変換した後、記憶ユニット190はそれらを選択的に保存することができる。同様に、プロセッサー130中のタイミング制御装置131を設定することにより、表情信号および音声信号が記憶ユニット190から表情および音声同期出力ユニット140に適時転送され、これによってロボットシステム100あるいはロボットヘッド110に上述の動作を実行させることができる。
さらに、入力ユニット135によって受信される表情および音声信号は、同期、非同期、または部分的に同期していてもよい。いずれにせよ、表情および音声情報は、プロセッサー130並びに表情および音声同期出力装置140に表情および音声情報を同期して処理させ得るようにする、組み込まれたタイミングデータを有することができる。
加えて、ロボットシステム100はさらに以下の動作を提供する。図5のステップS31に示すように、音声および画像取り込みユニット185は、音声と画像を取り込み、それらを音声および画像解析ユニット180に転送する。具体的には、音声および画像取り込みユニット185の音声受信装置185aおよび画像取り込み装置185bが、ロボットシステム100外部の音声および画像をそれぞれ受け取る。例えば、音声受信装置185aおよび画像取り込み装置185bは発信源の音声および画像をそれぞれ受け取る。続いて、図5のステップS32に示すように、音声および画像解析ユニット180は、音声および画像を表情および音声情報に変換し、その表情および音声情報を入力ユニット135に転送する。図5のステップS33に示すように、入力ユニット135は、表情および音声情報をプロセッサー130に転送する。ここで、プロセッサー130は、復号化および再符号化によって、表情および音声情報を対応する表情信号および音声信号に変換する。図5のステップS34に示すように、表情および音声同期出力ユニット140は表情信号および音声信号を受信し、それらを同期転送する。図5のステップS35に示すように、表情発生制御ユニット145は表情信号を受信し、一連の対応する表情出力信号を発生する。同時に、図5のステップS35’に示すように、音声発生制御ユニット155は音声信号を受信し、一連の対応する音声出力信号を発生する。図5のステップS36に示すように、アクチュエータ150は、一連の対応する表情出力信号に従って、擬似フェース120に表情を発生させる。ここで、擬似フェース120の内表面の異なった位置に配置されたアクチュエータ150は、それぞれに受信した表情出力信号に従って個別に作動し、擬似フェース120に表情を発生させる。同時に、図5のステップS36’に示すように、スピーカー160が一連の対応する音声出力信号に従って音声を転送する。同様に、表情および音声同期出力ユニット140の動作によって、スピーカー160からの音声出力およびアクチュエータ150による擬似フェース120上の表情発生が同期して行われる。従って、ロボットシステム100あるいはロボットヘッド110は、受け取った音声および画像に従って外部発信源の音声と画像を再現することができ、娯楽機能が提供される。
同様に、プロセッサー130が、音声および画像解析ユニット180から転送された表情および音声情報を対応する表情信号および音声信号に変換した後、記憶ユニット190はそれらを選択的に保存することが可能である。同様に、プロセッサー130中のタイミング制御装置131を設定することによって、表情信号および音声信号が記憶ユニット190から表情および音声同期出力ユニット140に適時転送され、ロボットシステム100またはロボットヘッド110に上述の動作を実行させることができるようになる。
まとめると、本発明が開示するロボットシステムまたはロボットヘッドは娯楽施設として用いることができる。本発明が開示するロボットシステムまたはロボットヘッドは、歌手またはボーカリストがボーカルパフォーマンスを行うとき、同期して対応する表情を表出することができるため、模倣の効果が達成される。
本発明を実施形態により好ましい実施形態の点から記載したが、本発明はこれらに限定されないと解されるべきである。すなわち、(当業者に明らかであるような)各種変更および類似のアレンジをカバーすることが意図されている。故に、添付の特許請求の範囲は、かかる各種変更および類似のアレンジが全て包含されるように、最も広い意味に解釈すべきである。
100 ロボット
110 ロボットヘッド
120 擬似フェース
121 口の開口部
130 プロセッサー
131 タイミング制御装置
135 入力ユニット
140 表情および音声同期出力ユニット
145 表情発生制御ユニット
150 アクチュエータ
155 音声発生制御ユニット
160 スピーカー
171 情報媒体入力装置
172 ネットワーク入力装置
173 ラジオ装置
180 音声および画像解析ユニット
185 音声および画像取り込みユニット
185a 音声受信装置
185b 画像取り込み装置
190 記憶ユニット
110 ロボットヘッド
120 擬似フェース
121 口の開口部
130 プロセッサー
131 タイミング制御装置
135 入力ユニット
140 表情および音声同期出力ユニット
145 表情発生制御ユニット
150 アクチュエータ
155 音声発生制御ユニット
160 スピーカー
171 情報媒体入力装置
172 ネットワーク入力装置
173 ラジオ装置
180 音声および画像解析ユニット
185 音声および画像取り込みユニット
185a 音声受信装置
185b 画像取り込み装置
190 記憶ユニット
Claims (22)
- ロボットヘッドと、
前記ロボットヘッドに取り付けられた擬似フェースと、
プロセッサーと、
前記プロセッサーに電気的に接続され、表情および音声情報を受信し、前記表情および音声情報を対応する表情信号および音声信号に変換する前記プロセッサーへ、それらを転送する入力ユニットと、
前記プロセッサーに電気的に接続され、前記表情信号および音声信号を受信し、同期転送する表情および音声同期出力ユニットと、
前記表情および音声同期出力ユニットに電気的に接続され、前記表情信号を受信して対応する表情出力信号を発生する表情発生制御ユニットと、
前記表情発生制御ユニットに電気的に接続されると共に前記擬似フェースに接続され、前記表情出力信号に従って前記擬似フェースに表情を発生させる複数のアクチュエータと、
前記表情および音声同期出力ユニットに電気的に接続され、前記音声信号を受信して対応する音声出力信号を発生する音声発生制御ユニットと、
前記音声発生制御ユニットに電気的に接続され、前記音声出力信号に従って音声を転送するスピーカーとを含み、
前記スピーカーからの音声出力および前記アクチュエータによる前記擬似フェース上の表情発生が同期して実行されるロボットシステム。 - 前記入力ユニットに電気的に接続される情報媒体入力装置をさらに含み、前記表情および音声情報が前記情報媒体入力装置を介して前記入力ユニットに転送される請求項1記載のロボットシステム。
- 前記プロセッサーが前記情報媒体入力装置を適時作動させるタイミング制御装置を含む請求項2記載のロボットシステム。
- 前記入力ユニットに電気的に接続されるネットワーク入力装置をさらに含み、前記表情および音声情報が前記ネットワーク入力装置を介して前記入力ユニットに転送される請求項1記載のロボットシステム。
- 前記プロセッサーが前記ネットワーク入力装置を適時作動させるタイミング制御装置を含む請求項4記載のロボットシステム。
- 前記入力ユニットに電気的に接続されるラジオ装置をさらに含み、前記表情および音声情報が前記ラジオ装置を介して前記入力ユニットに転送される請求項1記載のロボットシステム。
- 前記プロセッサーが前記ラジオ装置を適時作動させるタイミング制御装置を含む請求項6記載のロボットシステム。
- 音声および画像解析ユニット並びに音声および画像取り込みユニットをさらに含み、前記音声および画像解析ユニットは前記入力ユニットと前記音声および画像取り込みユニットの間に電気的に接続され、前記音声および画像取り込みユニットは音声および画像を取り込んでそれらを前記音声および画像解析ユニットに転送し、前記音声および画像解析ユニットが前記音声および画像を前記表情および音声情報に変換して前記表情および音声情報を前記入力ユニットに転送する請求項1記載のロボットシステム。
- 前記音声および画像取り込みユニットが音声受信装置および画像取り込み装置を含む請求項8記載のロボットシステム。
- 前記プロセッサーと前記表情および音声同期出力ユニットの間に電気的に接続され、前記表情信号および音声信号を保存する記憶ユニットをさらに含む請求項1記載のロボットシステム。
- 前記プロセッサーが、前記記憶ユニットから前記表情信号および音声信号を前記表情および音声同期出力ユニットに適時転送するタイミング制御装置を含む請求項10記載のロボットシステム。
- ロボットヘッド、前記ロボットヘッドに取り付けられた擬似フェース、前記擬似フェースに接続された複数のアクチュエータ、およびスピーカーを準備するステップと、
入力ユニットによって表情および音声情報を受信し、それらを前記入力ユニットから前記プロセッサーに転送し、前記プロセッサーは前記表情および音声情報を対応する表情信号および音声信号に変換するステップと、
表情および音声同期出力ユニットによって前記表情信号および前記音声信号を受信し、それらを前記表情および音声同期出力ユニットから同期転送するステップと、
表情発生制御ユニットによって前記表情信号を受信し、対応する表情出力信号を発生するステップと、
前記表現出力信号に従って前記アクチュエータにより前記擬似フェースに表情を発生させるステップと、
音声発生制御ユニットによって前記音声信号を受信し、対応する音声出力信号を発生するステップと、
前記音声出力信号に従って前記スピーカーから音声を転送させるステップとを含み、
前記スピーカーからの音声出力および前記アクチュエータによる前記擬似フェース上の表情発生が同期して実行されるロボットシステムの制御方法。 - 前記表情および音声情報を情報媒体入力装置を介して前記入力ユニットに転送するステップをさらに含む請求項12記載の方法。
- タイミング制御装置により前記情報媒体入力装置を適時作動させるステップをさらに含む請求項13記載の方法。
- 前記表情および音声情報をネットワーク入力装置を介して前記入力ユニットに転送するステップをさらに含む請求項12記載の方法。
- タイミング制御装置により前記ネットワーク入力装置を適時作動させるステップをさらに含む請求項15記載の方法。
- 前記表情および音声情報をラジオ装置を介して前記入力ユニットに転送するステップをさらに含む請求項12記載の方法。
- タイミング制御装置により前記ラジオ装置を適時作動させるステップをさらに含む請求項17記載の方法。
- 音声および画像取り込みユニットによって音声および画像を取り込み、それらを音声および画像解析ユニットへ転送するステップと、
前記音声および画像解析ユニットによって前記音声および画像を前記表情および音声情報に変換し、前記表情および音声情報を前記入力ユニットに転送するステップと、をさらに含む請求項12記載の方法。 - 前記音声および画像取り込みユニットが音声受信装置および画像取り込み装置を含む請求項19記載の方法。
- 前記プロセッサーが変換した前記表情信号および音声信号を記憶ユニットによって保存するステップをさらに含む請求項12記載の方法。
- タイミング制御装置により、前記記憶ユニットから前記表情信号および音声信号を前記表情および音声同期出力ユニットに適時転送するステップをさらに含む請求項21記載の方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW096113013A TWI332179B (en) | 2007-04-13 | 2007-04-13 | Robotic system and method for controlling the same |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008259808A true JP2008259808A (ja) | 2008-10-30 |
Family
ID=39854482
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007236314A Pending JP2008259808A (ja) | 2007-04-13 | 2007-09-12 | ロボットシステムおよびその制御方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20080255702A1 (ja) |
JP (1) | JP2008259808A (ja) |
TW (1) | TWI332179B (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI331931B (en) * | 2007-03-02 | 2010-10-21 | Univ Nat Taiwan Science Tech | Board game system and robotic device |
CN101653660A (zh) * | 2008-08-22 | 2010-02-24 | 鸿富锦精密工业(深圳)有限公司 | 讲故事自动做动作的类生物装置及其方法 |
TWI447660B (zh) * | 2009-12-16 | 2014-08-01 | Univ Nat Chiao Tung | Robot autonomous emotion expression device and the method of expressing the robot's own emotion |
JP5595101B2 (ja) * | 2010-04-26 | 2014-09-24 | 本田技研工業株式会社 | データ送信方法及び装置 |
JP6693111B2 (ja) * | 2015-12-14 | 2020-05-13 | カシオ計算機株式会社 | 対話装置、ロボット、対話方法及びプログラム |
US10203751B2 (en) | 2016-05-11 | 2019-02-12 | Microsoft Technology Licensing, Llc | Continuous motion controls operable using neurological data |
US9864431B2 (en) | 2016-05-11 | 2018-01-09 | Microsoft Technology Licensing, Llc | Changing an application state using neurological data |
JP6841167B2 (ja) | 2017-06-14 | 2021-03-10 | トヨタ自動車株式会社 | コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム |
CN107833572A (zh) * | 2017-11-06 | 2018-03-23 | 芋头科技(杭州)有限公司 | 一种模拟用户说话的语音合成方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000116964A (ja) * | 1998-10-12 | 2000-04-25 | Model Tec:Kk | 人形装置の駆動方法及び人形装置 |
JP2003117865A (ja) * | 2001-10-04 | 2003-04-23 | Yamaha Corp | ロボット、ロボットの動作パターン制御プログラム、および、音楽情報ファイル |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4177589A (en) * | 1977-10-11 | 1979-12-11 | Walt Disney Productions | Three-dimensional animated facial control |
US4775352A (en) * | 1986-02-07 | 1988-10-04 | Lawrence T. Jones | Talking doll with animated features |
US4923428A (en) * | 1988-05-05 | 1990-05-08 | Cal R & D, Inc. | Interactive talking toy |
US5746602A (en) * | 1996-02-27 | 1998-05-05 | Kikinis; Dan | PC peripheral interactive doll |
AUPP170298A0 (en) * | 1998-02-06 | 1998-03-05 | Pracas, Victor Manuel | Electronic interactive puppet |
US6135845A (en) * | 1998-05-01 | 2000-10-24 | Klimpert; Randall Jon | Interactive talking doll |
US6249292B1 (en) * | 1998-05-04 | 2001-06-19 | Compaq Computer Corporation | Technique for controlling a presentation of a computer generated object having a plurality of movable components |
US6554679B1 (en) * | 1999-01-29 | 2003-04-29 | Playmates Toys, Inc. | Interactive virtual character doll |
US7478047B2 (en) * | 2000-11-03 | 2009-01-13 | Zoesis, Inc. | Interactive character system |
US7209882B1 (en) * | 2002-05-10 | 2007-04-24 | At&T Corp. | System and method for triphone-based unit selection for visual speech synthesis |
US7113848B2 (en) * | 2003-06-09 | 2006-09-26 | Hanson David F | Human emulation robot system |
US7756614B2 (en) * | 2004-02-27 | 2010-07-13 | Hewlett-Packard Development Company, L.P. | Mobile device control system |
EP1727605B1 (en) * | 2004-03-12 | 2007-09-26 | Koninklijke Philips Electronics N.V. | Electronic device and method of enabling to animate an object |
US20070128979A1 (en) * | 2005-12-07 | 2007-06-07 | J. Shackelford Associates Llc. | Interactive Hi-Tech doll |
-
2007
- 2007-04-13 TW TW096113013A patent/TWI332179B/zh not_active IP Right Cessation
- 2007-06-05 US US11/806,933 patent/US20080255702A1/en not_active Abandoned
- 2007-09-12 JP JP2007236314A patent/JP2008259808A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000116964A (ja) * | 1998-10-12 | 2000-04-25 | Model Tec:Kk | 人形装置の駆動方法及び人形装置 |
JP2003117865A (ja) * | 2001-10-04 | 2003-04-23 | Yamaha Corp | ロボット、ロボットの動作パターン制御プログラム、および、音楽情報ファイル |
Also Published As
Publication number | Publication date |
---|---|
TWI332179B (en) | 2010-10-21 |
US20080255702A1 (en) | 2008-10-16 |
TW200841255A (en) | 2008-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008259808A (ja) | ロボットシステムおよびその制御方法 | |
EP1988493A1 (en) | Robotic system and method for controlling the same | |
JP4978324B2 (ja) | 画像記録装置、画像記録システム、画像再生方法 | |
JP2007027990A (ja) | 動画データから字幕を作成する装置及び方法、プログラム、並びに記憶媒体 | |
JP2009218976A (ja) | 情報記録装置 | |
JP2010081457A (ja) | 情報記録再生装置およびビデオカメラ | |
TWI584266B (zh) | An information system, an information reproducing apparatus, an information generating method, and a recording medium | |
JP4725918B2 (ja) | 番組画像配信システム、番組画像配信方法及びプログラム | |
JP2007101945A (ja) | 音声付き映像データ処理装置、音声付き映像データ処理方法及び音声付き映像データ処理用プログラム | |
US8391669B2 (en) | Video processing apparatus and video processing method | |
KR20230133864A (ko) | 스피치 오디오 스트림 중단들을 처리하는 시스템들및 방법들 | |
JP2007095163A (ja) | マルチメディア符号化データ分離伝送装置 | |
TW200622805A (en) | Medical media capture system and method | |
JP4346966B2 (ja) | 撮像装置 | |
KR20160107430A (ko) | 셀피 스틱을 이용한 고음질 녹화영상 생성 장치 | |
CN202583671U (zh) | 一种带有摄像机的投影仪 | |
JP2002232821A5 (ja) | ||
JP2011139306A (ja) | 撮像装置及び再生装置 | |
JP2013097240A (ja) | 聴覚障がい者支援装置およびその動作方法 | |
JP6398694B2 (ja) | 無線lan機能を備えた携帯機器及び記録システム | |
KR20190111642A (ko) | 실제 사진의 픽셀 기반의 토킹 헤드 애니메이션을 이용한 영상 처리 시스템 및 방법 | |
JP2012253692A (ja) | 撮像装置、再生装置、データ構造、撮像装置の制御方法および撮像装置用プログラム | |
WO2024135221A1 (ja) | 情報処理装置およびゲーム動画生成方法 | |
JP4687908B2 (ja) | 動画再生装置及びそのプログラム | |
JP5401930B2 (ja) | 撮像装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100223 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100426 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100706 |