JP2004163772A - ロボット装置 - Google Patents

ロボット装置 Download PDF

Info

Publication number
JP2004163772A
JP2004163772A JP2002331289A JP2002331289A JP2004163772A JP 2004163772 A JP2004163772 A JP 2004163772A JP 2002331289 A JP2002331289 A JP 2002331289A JP 2002331289 A JP2002331289 A JP 2002331289A JP 2004163772 A JP2004163772 A JP 2004163772A
Authority
JP
Japan
Prior art keywords
character information
sign language
input
finger
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002331289A
Other languages
English (en)
Inventor
Yoshiaki Wakui
喜明 涌井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2002331289A priority Critical patent/JP2004163772A/ja
Publication of JP2004163772A publication Critical patent/JP2004163772A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)

Abstract

【課題】実体のあるロボット装置でありながら、小型で実用的で、手話を表現する動作を行うことができ、また感情表現が可能で人との円滑なコミュニケーションを図れる。
【解決手段】ロボット装置1は、概ね人間の手の形状に形成した手部37を少なくとも備える。手部37の各指に相当する位置に複数の発光手段4を設け、発光手段4の所定の点灯パターンによって各指の曲げ伸ばしを表現する。文字情報を入力可能で入力された文字情報を入力文字情報信号として送出する文字情報入力手段82(20、81)と、文字情報を入力文字情報信号に基づいて手話単語に変換する手話単語変換手段21と、手話単語変換手段で変換された手話単語を手話表現動作に変換する手話動作変換手段22と、各手段の動作を制御する制御手段6とを備え、手話表現動作を、発光手段4を所定の点灯パターンで発光させる動作とした。
【選択図】 図4

Description

【0001】
【発明の属する技術分野】
この発明は、ロボット装置に係り、入力された文字情報に基づいてそれに対応する手話動作を行うことで聴覚障害者に意思を伝えるとともに、感情表現が可能で人との円滑なコミュニケーションを図ることのできるエンターテインメント性を有するロボット装置に関するものである。
【0002】
【従来の技術】
従来、聴覚障害者に意思を伝える方法としては、古くから知られている手話の他、画像情報に文字情報を併せて表示する方法などがテレビ放送などで実施されている。しかし、画像情報に併せて表示される文字情報は、時間当りの情報量が少なく、テレビの片隅に手話者が手話を行うなどで対応している例が多い。
【0003】
そこで、手話という特殊技能を有する者の代わりに実際に人体型ロボットを動作させるものや、特許文献1や特許文献2に記載されているような画像表示装置にアニメーションロボットで手話をさせる技術が提案されている。
【0004】
特許文献1には、上半身人体型の多関節ロボットモデルを連続動作表示する画像表示手段を備えた手話装置が記載され、特許文献2には、手話出力手段によりイラストやアニメーションの形で手話を表示または印刷する手話作成出力装置が記載されている。
【0005】
【特許文献1】
特開平6−186905号公報
【0006】
【特許文献2】
特開平6−243230号公報
【0007】
一方、手話は聴覚障害者にとっては重要なコミュニケーション手段であるにもかかわらず健常者において普及が進んでいない。このため、手話を習得する方法として書籍やビデオを用いた習得法が提案されている。
【0008】
【発明が解決しようとする課題】
「手話ロボット」では左右それぞれ10本の指を駆動するアクチュエータが必要になるため装置の大型化が免れず、実用性・携帯性に問題が多く、またその形態がユーザにとって不気味に感じる可能性があり、嫌悪感から円滑なコミュニケーションをはかることが困難であるという問題もある。
【0009】
また、画像表示装置によるアニメーションによる手話の表現方法では、その構成は簡素化できるが、2次元画面による表示になるため、手話表現方法に物理的な限界がある。また、アニメーションによる表現のため、静止画の画像の一コマずつをつなげたものになるので動きが不自然になり、文字情報の内容を完全に伝達できないという問題がある。また、単なる翻訳機械になってしまう傾向があり面白みに欠けるため、聴覚障害者専用の装置となってしまい、健常者が手話を学ぶ時に使用する練習用ツールとしては不向きであるという問題がある。特に好奇心が旺盛で記憶能力も優れている子供が手話を学ぶツールとしては不向きである。
【0010】
そこで、この発明の課題は、上記従来の問題点を排除して、画像表示ではなく実体のあるロボット装置でありながらも、小型で実用的であって、手話を表現する動作を行うことができ、また感情表現が可能で人との円滑なコミュニケーションを図ることのできるロボット装置を提供することにある。
【0011】
【課題を解決するための手段】
この発明は上記課題を解決するものであって、請求項1に係る発明は、概ね人間の手の形状に形成した手部を少なくとも備えたロボット装置であり、前記手部の各指に相当する位置に複数の発光手段を設け、該発光手段の所定の点灯パターンによって前記各指の曲げ伸ばしを表現可能にする一方、文字情報を入力可能としてこの入力された文字情報を入力文字情報信号として送出する文字情報入力手段と、前記文字情報を前記入力文字情報信号に基づいて手話単語に変換する手話単語変換手段と、前記手話単語変換手段により変換された手話単語を手話表現動作に変換する手話動作変換手段と、前記各手段の動作を制御する制御手段とを備えて、前記手話表現動作を、前記発光手段を前記所定の点灯パターンで発光させる動作としたロボット装置である。
【0012】
このロボット装置は、文字情報入力手段で入力した文字情報にしたがって、手部の各発光手段を所定のパターンで点灯させることによって各指の曲げ伸ばしを表現するとともに、その手部を動かすことで、指文字表現を含む手話動作を行うことができる。
【0013】
請求項2に係る発明は、請求項1記載の発明において、前記文字情報入力手段は、音声、キーボード又は画像による文字情報の入力が可能であるロボット装置である。
【0014】
このロボット装置は、音声入力によって手話動作を行わせることも、キーボード入力によって手話動作を行わせることも、画像入力によって手話動作を行わせることも、いずれも可能である。
【0015】
【発明の実施の形態】
この発明の実施の形態を、図面を参照して説明する。
図1は、この発明によるロボット装置の一実施の形態を示す全体図、図2は関節自由度構成モデルの模式図、図3は制御システム構成図、図4はブロック図であり、このロボット装置1は、胴部ユニット10(10a、10b)の上部左右に腕部ユニット30L、30Rが、また下部左右に脚部ユニット50L、50Rがそれぞれ連結されるとともに、胴部ユニット10aの上部には頭部ユニット70が連結されて構成されている。
【0016】
まず、図2の関節自由度構成モデルを用いて、このロボット装置1の構造を説明する。頭部70を胴部ユニット10aに支持する首関節は、首関節ピッチ軸71と、首関節ロール軸72という2自由度を有して構成される。
【0017】
胴部ユニット10(10a、10b)は、胴ヨー軸11と、胴ロール軸12という2自由度を有して構成される。
【0018】
腕部ユニット30L、30Rは、胴部ユニット10aに連結される肩関節ピッチ軸31L、31Rと、肩関節ロール軸32L、32Rと、上腕ヨー軸33L、33Rと、肘関節ピッチ軸34L、34Rと、前腕ヨー軸35L、35Rと、手首関節ピッチ軸36L、36Rと、手部37L、37Rとで構成される。
【0019】
手部37L、37Rは、図1に示すように、掌部38L、38Rと、親指部39L、39Rと、他の指(人差指、中指、薬指、小指)を一体化した複合指部40L、40Rとで構成されるが、駆動機構は設けていないので手部37L、37Rに自由度はない。従って、左右の腕部ユニット30L、30Rはそれぞれ6自由度を有して構成される。
【0020】
脚部ユニット50L、50Rは、胴部ユニット10bに連結される股関節ヨー軸51L、51Rと、股関節ロール軸52L、52Rと、股関節ピッチ軸53L、53Rと、膝関節ピッチ軸54L、54Rと、足首関節ピッチ軸55L、55Rと、足首関節ロール軸56L、56Rと、足部57L、57Rとで構成される。足部57L、57Rに自由度はない。従って、左右の脚部ユニット50L、50Rはそれぞれ6自由度を有して構成される。
【0021】
以上をまとめると、ロボット装置1は全体として、2+2+6×2+6×2=28自由度を有することになる。ただし、必ずしも28個の関節自由度を有する必要があるわけではなく、設計・製作上の制約条件や要求仕様などに応じて、関節自由度の個数を適宜増減することができる。
【0022】
ロボット装置1が有するこれらの自由度は、図3、図4に示すように、各関節を駆動するアクチュエータ2〜2と、関節の角度を検出する関節角度センサ3〜3とが、ロボット装置1の各部に実装されることによって実現されるものであり、これらのアクチュエータ2〜2および関節角度センサ3〜3は、ロボット装置1の体内LAN5を介して、胴部ユニット10(10a、10b)の内部に収納されたコントローラ6に接続されている。
【0023】
すなわち、コントローラ6から送出される各関節の駆動指令に応じて、対応するアクチュエータ2〜2が関節を駆動し、関節角度センサ3〜3から送出される角度信号S11がコントローラ6に伝えられることで、コントローラ6は各関節の状態を把握し、ロボット装置1全体の姿勢を判断して、上半身を動かして手話を行ったり、または感情表現を行ったり、さらには歩行動作を行ったりすることができるものである。
【0024】
また、ロボット装置1の腕部ユニット30L、30Rおよび脚部ユニット50L、50Rには、図3、図4に示すように、発光手段となる複数のLED(発光ダイオード)4〜4がそれぞれ所定の位置に配置されている。
【0025】
胴部ユニット10(10a、10b)の外面には、文字情報入力手段の1つであるキーボード20が備えられている。また、胴部ユニット10(10a、10b)の内部には、図3、図4に示すように、ロボット装置1全体の動作を制御する制御手段を構成する上記したコントローラ6の他に、入力された文字情報を手話単語に変換する手話単語変換手段21と、変換された手話単語をロボット装置1の動作に変換する手話動作変換テーブル22と、ロボット装置1の動力源としてのバッテリ23と、バッテリの容量を検出するバッテリセンサ24が収納されている。
【0026】
頭部ユニット70には、図1、図3、図4に示すように、各種の外部センサ80が備えられている。この外部センサ80には、ロボット装置1の実質的な「目」として機能するCCDカメラ81と、「耳」として機能するマイクロフォン82L、82Rと、「口」として機能するスピーカ83と、タッチセンサ84と、温度センサ85が含まれ、それぞれ所定の位置に配置されている。また、頭部ユニット70には、外見上の「目」86L、86Rや頬を光らせたりする発光手段となる複数のLED(発光ダイオード)87〜87と、外部との通信媒体経由での文字情報入出力インターフェースとなる通信インターフェース88などが配置されている。
【0027】
CCDカメラ81は、周囲の状況を撮像し、得られた画像信号S81をコントローラ6に送出するものである。
【0028】
マイクロフォン82L、82Rは、ユーザの声や周囲の音などを集音する主たる文字情報入力手段であり、得られた音声入力を基にした文字情報入力信号S82L、S82Rをコントローラ6に送出するものである。
【0029】
タッチセンサ84は、図1に示すように頭部ユニット70の上部に設けられており、ユーザからの「撫でる」や「叩く」などの物理的な働きかけにより受けた圧力を検出し、その検出結果を圧力検出信号S84としてコントローラ6に送出するものである。
【0030】
温度センサ85は、ロボット装置1周囲の温度を検出し、その検出結果を温度検出信号S85としてコントローラ6に送出するものである。
【0031】
バッテリセンサ24は、バッテリ23の残量を検出し、その検出結果をバッテリ残量検出信号S24としてコントローラ6に送出するものである。
【0032】
キーボード20は、ユーザが直接キー入力した内容を副文字情報入力信号S2としてコントローラ6に送出するものである。
【0033】
コントローラ6は、マイクロフォン82L、82Rから供給される文字情報入力信号S82L、S82R(以下、これを主文字情報入力信号S1と呼ぶ)と、外部センサ80のCCDカメラ81、タッチセンサ84、および温度センサ85からそれぞれ供給される画像信号S81、圧力検出信号S84および温度検出信号S85(以下、これらをまとめて外部センサ信号S80と呼ぶ)と、バッテリ残量検出信号S24と、キーボード20による副文字情報入力信号S2とに基づいて、ユーザからの指令、ロボット装置1の周囲および内部の状況や、ユーザからの働きかけの有無などを判断する。
【0034】
そしてコントローラ6は、この判断結果と、予めメモリ7に格納されている制御プログラム8とに基づいて続く行動を決定し、この決定結果に基づいてアクチュエータ駆動信号S10を送出して必要なアクチュエータ2〜2を駆動させ、あるいは必要なLED4〜4を点灯させることにより、腕部ユニット30L、30Rや手部37L、37Rを駆動して手話による表現を行わせるとともに、頭部ユニット70を上下左右に振らせたり、頭部ユニット70に備えた発光手段であるLED87〜87を点灯させて目と顔による感情表現を行わせたりし、さらには脚部ユニット50L、50Rを駆動して歩行させたりする。
【0035】
また、手話による感情表現を豊かにするために、後述するように、コントローラ6は腕部ユニット30L、30Rに設けたLED4〜4に発光信号S12を送出してそれぞれ個別に点灯させたり消灯させたりし、必要に応じて、色を変えて点灯させることもできる。また、脚部ユニット50L、50Rに設けたLED4〜4をそれぞれ個別に点灯させたり消灯させたりし、必要に応じて、色を変えて点灯させることもできる。また、簡易的な指文字表現を行うために、手部37L、37Rに設けたLED4、4j+1、4j+2、…(図5)をそれぞれ個別に点灯させたり消灯させたりし、必要に応じて、色を変えて点灯させることもできる。
【0036】
また、この際コントローラ6は、音声出力信号S83をスピーカ83に与えることにより、音声出力信号S83に基づく音声を外部に出力させることもできる。
【0037】
このようにしてこのロボット装置1は、周囲、および内部の状況や、ユーザからの指令、および働きかけの有無に基づいて、自律的に行動することができるように構成されている。
【0038】
次に、ロボット装置1が手話をする「手話モード」について図4を用いて説明する。手話を行うに当たり、その元となる文字情報入力方法によって3通りの方法がある。第1の方法は、マイクロフォン82L、82Rを介して行う音声による文字情報入力方法であり、第2の方法は、キーボード20による文字情報入力方法であり、第3の方法は、CCDカメラ81による文字情報入力方法である。どの方法を使用するかは、予めユーザがロボット装置1に対して、音声入力またはキーボード入力によって指定しておく。
【0039】
まず、音声入力による手話動作変換方法について説明する。ユーザは予め、ロボット装置1に対して、音声またはキーボード20によって、「音声入力モード」で使用することを指定する。この指定により、コントローラ6はマイクロフォン82L、82Rを入力手段として制御する。次に手話に変換したい文字情報をユーザはロボット装置1に向かって話しかける。ロボット装置1はその音声をマイクロフォン82L、82Rによって集音し、音声入力信号としての主文字情報入力信号S1をコントローラ6に送出する。
【0040】
一通りの文字情報入力が終わった段階で、コントローラ6に送出された主文字情報入力信号S1は、コントローラ6の中でひとまとまりの文字情報としてブロック化されてブロック信号S5となり、このブロック信号S5が手話単語変換手段21に送られる。手話単語変換手段21の中で、ブロック信号S5としてまとめられた文字情報入力を解析して手話に適した単語に変換し、その変換結果を手話単語信号S6として手話動作変換テーブル22に送出する。手話動作変換テーブル22の中で手話単語信号S6に対応した手話動作が解析され、解析された結果は手話動作信号S7として手話単語変換手段21に返される。手話単語変換手段21は、もとの手話単語信号S6に手話動作信号S7を付加して手話合成信号S8とし、この手話合成信号S8をコントローラ6に送出する。
【0041】
コントローラ6は、手話合成信号S8から手話動作信号S7に基づいて、アクチュエータ駆動信号S10として各アクチュエータ2〜2を駆動し、関節角度センサ3〜3から送出される角度信号S11を監視しながら、ロボット装置1の各関節の動きを制御することで、ロボット装置1は手話動作を行う。この時、必要に応じて手話単語信号S6に応じた音声を音声出力信号S83としてスピーカ83に送出して音声を発したりする。
【0042】
また、コントローラ6はユーザからの指令によっては、入力された文字情報に基づいて手話動作を行うだけでなく、手話単語信号S6を通信信号S88として通信インターフェース88に送出し、無線信号として遠隔地にいる別の手話ロボットなどに発信し、遠隔操作を行うことも可能である。さらに、入力された文字情報をコントローラ6は電子メール化して通信インターフェース88を介して他の携帯電話やパソコンなどの他の通信機器への送信が可能である。
【0043】
逆の動作も同様で、遠隔地にある別の手話ロボットからの無線信号をロボット装置1の通信インターフェース88が受信し、通信信号S88がコントローラ6から手話単語変換手段21および手話単語変換テーブル22を経由して手話動作信号S7として再びコントローラ6に返されて、ロボット装置1が手話動作を行うことも可能である。さらに、電子メールの受信も可能で、他の通信機器から受信したメール化された文字情報をコントローラ6が解析して、前述と同様の操作でその文字情報の手話表現を行うことが可能である。
【0044】
これらの使用方法は、ユーザが前述した入力モードを指定する時に同時に設定することが可能である。
【0045】
次に、キーボード入力による手話動作変換方法について説明する。まず、上述した音声入力による方法と同様に、ユーザは予め、ロボット装置1に対して、音声またはキーボード20によって「キーボード入力モード」で使用することを指定する。この指定により、コントローラ6はキーボード20を文字情報入力手段として制御する。次に、手話に変換したい文字情報をユーザはロボット装置1のキーボード20に入力し、その入力信号(副文字情報入力信号)S2がコントローラ6に送出される。その後の信号および処理については、上述した音声による入力と同じである。この場合も、入力信号S2に対応してロボット装置1は、手話動作を行う他、通信インターフェース88を介して、遠隔地にある別の手話ロボットとの間で遠隔操作を行い合うことが可能である。また、他の通信機器との間での電子メール化した文字情報の送受信も可能である。
【0046】
次に、画像入力による手話動作変換方法について説明する。まず、上述した音声入力による方法と同様に、ユーザは予め、ロボット装置1に対して、音声またはキーボード20によって「画像入力モード」で使用することを指定する。この指定により、コントローラ6はCCDカメラ81を文字情報入力手段として制御する。次に、手話に変換したい文字情報が印刷された紙等をCCDカメラ81で撮影し、その入力信号(第2の副文字情報入力信号)S3がコントローラ6に送出される。コントローラ6は、この入力信号S3を画像から文字への変換を経てブロック信号S5に変換する。その後の信号および処理については、上述した音声による入力の場合と同じである。このCCDカメラ81を入力手段とする入力方法は、手話動作させたい文字情報が多い場合や、ユーザがキーボード入力に不慣れで発声に障害がある場合、他者から文字情報を伝達された場合等に特に有効なものである。
【0047】
上述のように、文字情報入力方法として、マイクロフォン82L、82Rによる音声入力方法とキーボード20による入力方法とCCDカメラ81による画像入力方法とを選択することが可能なので、このロボット装置1の使用環境に応じた最適な方法での文字情報入力が行える。また、これを扱えるユーザ層が広がると共にその扱いも極めて容易である。
【0048】
ここで、ロボット装置1に手話をさせるに当たり、手部37L、37Rの働きについて、手部37Rを代表として図5を用いて説明する。手話を行うには指関節の曲げ伸ばしによる表現や、補助的に使用する指文字表現が重要であるが、手部37R(37L)は、上述したように構造・機構を簡素化するために自由度を持っていない。そのため、ロボット装置1では、指関節の曲げ伸ばしができない代わりに、この指の曲げ伸ばしを、親指部39L、39Rと複合指部40L、40Rの内部に設けた発光手段であるLEDの点灯と消灯でもって表現するように構成されている。すなわち、図5のように5本指の各関節間に相当する内部にそれぞれLED4、4j+1、4j+2、…が設けられると共に、指の外表面が半透明な材質、又は部分的に透明な材質で覆われるように形成されているので、LED4、4j+1、4j+2、…の発光状態が容易に視認できるようになっている。そして、これらのLED4、4j+1、4j+2、…が点灯していると指が伸びている状態を表現し、消灯していると指が曲がっている状態を表現するようにしてある。
【0049】
例えば、図6に示す指文字の「あ」「い」「う」「え」「お」「か」「き」「く」「け」は、図7〜図15のようなLEDの点灯状態で表現する。ここで、「お」は図16のように視覚的にわかりやすい表示方法で行ってもかまわない。また、他の文字も同様に、このような模式的な発光パターンに対応づけて表現する。
【0050】
このようなLED4、4j+1、4j+2、…を使用して手話・指文字表現を行うことで、手部37L、37Rの各指部を駆動するためのアクチュエータや関節角度センサが不要になるため、機構が大幅に簡素化され、制御も容易になってコストダウンを図ることができるだけでなく、信頼性も向上する。また、小型・軽量化と低消費電力化が可能になり、家庭用途としての使用が可能になる。また、このようなLEDは、手部37L、37Rだけでなく、図5に示すように腕部ユニット30L、30Rや、その他の部位に設けてもよい(LED4k参照)。さらにLEDは単色だけではなく、個々が異なる色を発光するようにしてもよい。異なる色を発光させることによって、以下に説明するようにロボット装置1は多彩な感情を表現することができ、単なる手話ロボットという働きだけでなくエンターテインメント性が向上して人とのコミュニケーションを図ることができる。
【0051】
このロボット装置1の他の使用方法について説明する。「音声入力モード」や「キーボード入力モード」あるいは「画像入力モード」での「手話モード」としての手話変換装置としての働きの他に、ロボット装置1は「自律モード」というモードを備えている。その流れを図17に示す。基本的には、ロボット装置1の電源投入(スタート)後は「自律モード」から実行を始めて、ユーザからの「手話モード」への移行の指令があるまではその状態が続く。そして「手話モード」指令を受けて「手話モード」が実行され、その状態から文字情報入力が一定時間が経過しても行われない場合に自動的に「自律モード」に移行する。
【0052】
自律モードでの動作例としては、たとえば、ユーザから頭を撫でられたときは、頭部70のタッチセンサ84がそれを検出して、腕部ユニット30L、30Rなどに設けたLEDの緑色を点灯するとともに、外見上「喜んだ」動作をして感情を表現したりする。また、ユーザから頭を叩かれたときは、タッチセンサ84がそれを検出して、頭部ユニット70などに設けたLEDを赤く点滅させて外見上「怒った」動作をしたりする。また、温度センサ85が周囲の気温を検出して温度が低い時は全身を震えさせたりする動作などを行う。
【0053】
上記のような「自律モード」による感情表現動作によって、ロボット装置1のエンターテインメント性が向上して、聴覚障害者はもちろん、健常者にとっても、ロボット装置1とコミュニケーションとることができる。
【0054】
また、「手話モード」を使用することによって、手話を習得していない人でもこのロボット装置1を介して、聴覚障害者とコミュニケーションを図ることができる。また、手話を学ぶ時に使用するツールにもなり、エンターテインメント性があるため、特に子供向けの手話学習教材としても好適なものである。
【0055】
以上、詳述したように、このロボット装置は、文字情報を入力して入力文字情報信号として送出する文字情報入力手段と、この入力文字情報信号に基づいて手話単語に変換する手話単語変換手段と、変換された手話単語を手話表現動作に変換する手話動作変換手段と、これらの手段の動作を制御する制御手段とを備える一方、外部情報を検出して外部検出信号として送出する外部入力センサと、複数の関節で連結された腕部および脚部と、関節を駆動する駆動手段とを備え、制御手段が外部検出信号に基づいて駆動手段の動作を制御する第1のモード(自律モード)と、制御手段が手話表現動作を制御する第2のモード(手話モード)とを選択的に実行可能とするように構成されたものである。
【0056】
従って、この構成によれば、外部入力センサが検出した外部検出信号に基づいて腕部または脚部を動かすことで感情を表現することが可能で、しかも、このような感情表現を手話動作を伴って行うこともできるし、手話動作を伴わずに独立して行うこともできる。そのため、ロボット装置のエンターテインメント性が向上し、人とロボット装置との円滑なコミュニケーションを図ることができるという効果を得るものである。
【0057】
【発明の効果】
この発明は以上のように、概ね人間の手の形状に形成した手部を少なくとも備え、前記手部の各指に相当する位置に複数の発光手段を設け、該発光手段の所定の点灯パターンによって前記各指の曲げ伸ばしを表現可能にする一方、文字情報を入力可能としてこの入力された文字情報を入力文字情報信号として送出する文字情報入力手段と、前記文字情報を前記入力文字情報信号に基づいて手話単語に変換する手話単語変換手段と、前記手話単語変換手段により変換された手話単語を手話表現動作に変換する手話動作変換手段と、前記各手段の動作を制御する制御手段とを備えて、前記手話表現動作を、前記発光手段を前記所定の点灯パターンで発光させる動作とするように構成したロボット装置であるので、このロボット装置によれば、文字情報入力手段で入力した文字情報にしたがって、手部の各発光手段を所定のパターンで点灯させることによって各指の曲げ伸ばしを表現するとともに、その手部を動かすことで、指文字表現を含む手話動作を行うことができるという効果を得る。また、この発明は、前記文字情報入力手段を、音声、キーボード又は画像による文字情報の入力が可能となるように構成したので、入力手段が多様で使用環境に応じた最適な入力が可能になると共に様々なユーザがこのロボット装置を利用することができ、その扱いも容易であるという効果を得る。
【図面の簡単な説明】
【図1】この発明によるロボット装置の一実施の形態を示す全体図である。
【図2】図1のロボット装置の関節自由度構成モデルを模式的に示した図である。
【図3】図1のロボット装置の制御システム構成を模式的に示した図である。
【図4】図1のロボット装置の構成を示すブロック図である。
【図5】ロボット装置の腕部と手部をわかりやすく説明する図である。
【図6】指文字表現方法の一例を示す図である。
【図7】ロボット装置における指文字表現方法の一例「あ」を示す図である。
【図8】ロボット装置における指文字表現方法の他の例「い」を示す図である。
【図9】ロボット装置における指文字表現方法の他の例「う」を示す図である。
【図10】ロボット装置における指文字表現方法の他の例「え」を示す図である。
【図11】ロボット装置における指文字表現方法の他の例「お」を示す図である。
【図12】ロボット装置における指文字表現方法の他の例「か」を示す図である。
【図13】ロボット装置における指文字表現方法の他の例「き」を示す図である。
【図14】ロボット装置における指文字表現方法の他の例「く」を示す図である。
【図15】ロボット装置における指文字表現方法の他の例「け」を示す図である。
【図16】ロボット装置における指文字表現方法の他の例「お」を示す図である。
【図17】ロボット装置の動作手順を示すフローチャートである。
【符号の説明】
1 ロボット装置
〜2 アクチュエータ(関節駆動手段)
〜3 関節角度センサ
〜4 LED(発光手段)
5 体内LAN
6 コントローラ(制御手段)
7 メモリ
8 制御プログラム
10(10a、10b) 胴部ユニット
20 キーボード(文字情報入力手段)
21 手話単語変換手段
22 手話動作変換テーブル(手話動作変換手段)
23 バッテリ
24 バッテリセンサ
30R、30L 腕部ユニット
37R、37L 手部
50R、50L 脚部ユニット
70 頭部ユニット
80 外部センサ
81 CCDカメラ(文字情報入力手段)
82R、82L マイクロフォン(文字情報入力手段)
83 スピーカ
84 タッチセンサ
85 温度センサ
86 目
87〜87 LED(発光手段)
88 通信インターフェース(文字情報入出力インターフェース)

Claims (2)

  1. 概ね人間の手の形状に形成した手部を少なくとも備えたロボット装置であり、
    前記手部の各指に相当する位置に複数の発光手段を設け、該発光手段の所定の点灯パターンによって前記各指の曲げ伸ばしを表現可能にする一方、
    文字情報を入力可能としてこの入力された文字情報を入力文字情報信号として送出する文字情報入力手段と、
    前記文字情報を前記入力文字情報信号に基づいて手話単語に変換する手話単語変換手段と、
    前記手話単語変換手段により変換された手話単語を手話表現動作に変換する手話動作変換手段と、
    前記各手段の動作を制御する制御手段とを備えて、
    前記手話表現動作を、前記発光手段を前記所定の点灯パターンで発光させる動作としたことを特徴とするロボット装置。
  2. 前記文字情報入力手段は、音声、キーボード又は画像による文字情報の入力が可能であることを特徴とする請求項1記載のロボット装置。
JP2002331289A 2002-11-14 2002-11-14 ロボット装置 Pending JP2004163772A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002331289A JP2004163772A (ja) 2002-11-14 2002-11-14 ロボット装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002331289A JP2004163772A (ja) 2002-11-14 2002-11-14 ロボット装置

Publications (1)

Publication Number Publication Date
JP2004163772A true JP2004163772A (ja) 2004-06-10

Family

ID=32808717

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002331289A Pending JP2004163772A (ja) 2002-11-14 2002-11-14 ロボット装置

Country Status (1)

Country Link
JP (1) JP2004163772A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013097339A (ja) * 2011-11-04 2013-05-20 Honda Motor Co Ltd 手話動作生成装置及びコミュニケーションロボット
JP2013212300A (ja) * 2012-04-03 2013-10-17 Advanced Telecommunication Research Institute International コミュニケーション装置
KR20160141208A (ko) * 2015-05-29 2016-12-08 이문호 정낭 블럭 이동 로봇 및 정낭 블럭 드론
US20180226073A1 (en) * 2017-02-06 2018-08-09 International Business Machines Corporation Context-based cognitive speech to text engine
JP2021083489A (ja) * 2019-11-25 2021-06-03 株式会社バンダイ 構造体

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013097339A (ja) * 2011-11-04 2013-05-20 Honda Motor Co Ltd 手話動作生成装置及びコミュニケーションロボット
JP2013212300A (ja) * 2012-04-03 2013-10-17 Advanced Telecommunication Research Institute International コミュニケーション装置
KR20160141208A (ko) * 2015-05-29 2016-12-08 이문호 정낭 블럭 이동 로봇 및 정낭 블럭 드론
KR101696296B1 (ko) * 2015-05-29 2017-01-16 전북대학교산학협력단 정낭 블럭 이동 로봇 및 정낭 블럭 드론
US20180226073A1 (en) * 2017-02-06 2018-08-09 International Business Machines Corporation Context-based cognitive speech to text engine
JP2021083489A (ja) * 2019-11-25 2021-06-03 株式会社バンダイ 構造体

Similar Documents

Publication Publication Date Title
US10589426B2 (en) Robot
KR101169674B1 (ko) 원격현전 로봇, 이를 포함하는 원격현전 시스템 및 이의 제어 방법
WO2002076687A1 (en) Robot device and control method therefor, and storage medium
CN105498228B (zh) 一种智能机器人学习玩具
US20160052140A1 (en) Robot driven by mobile phone
US9607506B1 (en) Wearable wireless controller
CN103877727B (zh) 一种由手机控制并通过手机进行交互的电子宠物
CN106502388A (zh) 一种互动式运动方法及头戴式智能设备
US10820089B2 (en) Enigma system
KR20060079832A (ko) 임베디드 시스템기반의 감정표현 휴먼노이드 로봇
JP2013099823A (ja) ロボット装置、ロボット制御方法、ロボット制御プログラム、およびロボットシステム
JP2006212717A (ja) ロボット装置
WO2020190362A2 (en) A social interaction robot
KR100897537B1 (ko) 완구 로봇
JP2019149066A (ja) 情報処理装置及びプログラム
JP2004163772A (ja) ロボット装置
Park et al. Control hardware integration of a biped humanoid robot with an android head
JP2006289507A (ja) ロボット装置及びその制御方法
JP7428141B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2003345727A (ja) 感情伝達装置
CN205340124U (zh) 一种智能机器人学习玩具
CN206614555U (zh) 机器人
Lee et al. Semi-autonomous robot avatar as a medium for family communication and education
CN210606303U (zh) 一种机器人展示系统
Sosnowski et al. Eddie-an emotion-display with dynamic intuitive expressions