JP2005088095A - 車載ロボットハンド - Google Patents

車載ロボットハンド Download PDF

Info

Publication number
JP2005088095A
JP2005088095A JP2003321605A JP2003321605A JP2005088095A JP 2005088095 A JP2005088095 A JP 2005088095A JP 2003321605 A JP2003321605 A JP 2003321605A JP 2003321605 A JP2003321605 A JP 2003321605A JP 2005088095 A JP2005088095 A JP 2005088095A
Authority
JP
Japan
Prior art keywords
vehicle
robot hand
target object
command
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003321605A
Other languages
English (en)
Inventor
Ichiro Yoshida
一郎 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2003321605A priority Critical patent/JP2005088095A/ja
Publication of JP2005088095A publication Critical patent/JP2005088095A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】 運転手に代わって運転手の要求を満たす動作を実行し、利便性および安全性を高める。
【解決手段】 車載ロボットハンド1は、例えば「後部座席に置かれている鞄を助手席に移動しなさい」という命令が受付けられると、コントローラ3がマニピュレータ2を動作させることにより、後部座席に置かれている鞄Pを助手席に移動させる(取らせる)。運転手に代わって車載ロボットハンド1に運転手の要求を満たす動作を実行させることができ、利便性および安全性を高めることができる。
【選択図】 図1

Description

本発明は、車両に搭載可能に構成された車載ロボットハンドに関する。
車両に搭載可能に構成された車載ロボットとして、例えば特許文献1に記載されているものがある。
特開2000−193480号公報
ところで、運転手が例えば後部座席に置かれている鞄を移動したり(取ったり)、オーディオ機器を操作したりする行為は、運転に対する注意が疎かになって危険である。その一方で、運転手が自分の要求を満たせずに運転し続けることも、運転に対する注意が疎かになって危険である。このような事情から、運転手に代わって運転手の要求を満たす動作を実行するものがあれば、利便性および安全性を高めることができると考えられるが、上記した特許文献1に記載されているものは、運転手に代わって運転手の要求を満たす動作を実行する機能を備えているものではない。
本発明は、上記した事情に鑑みてなされたものであり、その目的は、運転手に代わって運転手の要求を満たす動作を実行することができ、利便性および安全性を高めることができる車載ロボットハンドを提供することにある。
請求項1に記載した発明によれば、命令が命令受付手段に受付けられると、制御手段は、命令受付手段に受付けられた命令を解読すると共に、撮影手段により撮影された物体が動作対象物体であるか否かを判定し、動作対象物体を検出すると、動作対象物体に対する命令に応じた所定動作を動作手段により実行させる。これにより、運転手の要求が命令として命令受付手段に受付けられると、その命令に応じた所定動作を動作手段が実行するようになるので、運転手に代わって車載ロボットハンドに運転手の要求を満たす動作を実行させることができ、これにより、利便性および安全性を高めることができる。
請求項2に記載した発明によれば、制御手段は、車両に搭載されている動作対象物体を動作手段により移動させるので、例えば動作対象物体が車室内の後部座席に置かれている鞄であれば、車載ロボットハンドに後部座席に置かれている鞄を移動させる(取らせる)ことができる。
請求項3に記載した発明によれば、制御手段は、車両に搭載されている動作対象物体を動作手段により操作させるので、例えば動作対象物体が車室内に組付けられているオーディオ機器であれば、車載ロボットハンドにオーディオ機器を操作させることができる。
請求項4に記載した発明によれば、制御手段は、撮影手段に車両周囲を撮影させ、その撮影された画像を表示手段に表示させるので、車載ロボットハンドに例えば運転手にとって死角となる方向を撮影させて画像を表示させることができ、運転手にとって有益な視覚的な情報を提供することができる。
請求項5に記載した発明によれば、制御手段は、撮影手段により撮影された画像を通信手段から通信回線を通じて外部へ送信させるので、車載ロボットハンドにて撮影された画画像を遠隔地に送信することができ、例えば自宅に居ながら車室内の忘れ物を探索することができ、また、盗難防止対策を実施することもできる。
請求項6に記載した発明によれば、制御手段は、運転手の行動範囲を予測し、その予測結果に基づいて運転手の行動を妨げないように動作手段を動作させるので、例えば運転手が運転中であっても、運転が車載ロボットハンドの動作に妨げられることがなく、安全を適切に確保することができる。
請求項7に記載した発明によれば、制御手段は、車両が所定状態になると、運転手の安全を確保するように動作手段を動作させるので、例えば車両が急停止(急ブレーキ)状態や悪路を走行する状態となっても、運転手の頭部がダッシュボードなどに衝突しないように運転手の身体を車載ロボットハンドに保持(支持)させることにより、安全を適切に確保することができる。
請求項8に記載した発明によれば、制御手段は、電子タグ読取手段により物体に添付されている電子タグから読取られた情報に基づいて撮影手段により撮影された物体が動作対象物体であるか否かを判定するので、電子タグの読取機能を利用することにより、撮影手段により撮影された物体が動作対象物体であるか否かを簡易に且つ速やかに判定することができる。
請求項9に記載した発明によれば、制御手段は、撮影手段により撮影された物体の形状や色などを識別する機能を有し、その識別結果に基づいて撮影手段により撮影された物体が動作対象物体であるか否かを判定するので、形状や色などの識別機能を利用することにより、撮影手段により撮影された物体が動作対象物体であるか否かを簡易に且つ速やかに判定することができる。
請求項10に記載した発明によれば、命令受付手段は、音声を入力する音声入力手段から構成され、制御手段は、音声入力手段に入力された音声を音声認識して命令を解読するので、運転手が音声を発することにより、車載ロボットハンドに運転手の要求を満たす動作を実行させることができる。
請求項11に記載した発明によれば、命令受付手段は、外部からコマンドを通信回線を通じて受信するコマンド受信手段から構成され、制御手段は、コマンド受信手段に受信されたコマンドを解読して命令を解読するので、運転手が遠隔地からコマンドを通信回線を通じて送信することにより、車載ロボットハンドに運転手の要求を満たす動作を実行させることができる。
以下、本発明の一実施形態について、図面を参照して説明する。まず、図1は、車載ロボットハンドが車両の車室内に搭載されている態様を概略的に示している。車載ロボットハンド1は、ロボットハンド本体として機能するマニピュレータ2と、マニピュレータ2を制御するコントローラ3(本発明でいう制御手段)とを備えて構成されており、車両4の車室5内にあって運転手が運転するのに支障のない位置に搭載されている。この場合、車載ロボットハンド1は、固定された状態で搭載されていても良いし、例えば車室5内に配設されたレール(図示せず)に沿って移動可能な状態で搭載されていても良い。また、例えば助手席や後部座席に人が乗車しなければ、車載ロボットハンド1が助手席や後部座席に搭載されていても良い。
図2は、上記したマニピュレータ2の構成を概略的に示している。マニピュレータ2は基台6と、アーム部7と、フィンガー部8とを主体として構成されている。この場合、アーム部7とフィンガー部8とは、本発明でいう動作手段に相当する。
アーム部7は、第1のアーム9〜第3のアーム11から構成されている。第1のアーム9は、基台6に対して回転軸12を回転中心として図2中矢印Aにて示す方向に回転可能に構成されている。第2のアーム10は、3個の角筒状のユニット13a〜13cが連結され、それらユニット13a〜13cが互いに引出されたり収納されたりすることにより全体として図2中矢印Bにて示す方向に伸縮可能であると共に、第1のアーム9に対して回転軸14を回転中心として図2中矢印Cにて示す方向に回転可能に構成されている。第3のアーム11は、3個の角筒状のユニット15a〜15cが連結され、それらユニット15a〜15cが互いに引出されたり収納されたりすることにより全体として図2中矢印Dにて示す方向に伸縮可能であると共に、第2のアーム10に対して回転軸16を回転中心として図2中矢印Eにて示す方向に回転可能に構成されている。
フィンガー部8は、第1のフィンガー17〜第3のフィンガー19が図2中矢印Fにて示す方向に回転可能な回転板20上に同一円周上に且つ等間隔に配設されて構成されている。第1のフィンガー17〜第3のフィンガー19の各々は、関節を有しており、フィンガー部8は、第1のフィンガー17〜第3のフィンガー19の各々が関節を介して屈曲したり伸長したりすることにより物体を把持可能に構成されている。
CCDカメラ21(本発明でいう撮影手段)は、回転板20の中心部に配設されている。尚、このCCDカメラ21は、自動焦点機能を有している。電子タグリーダ22(本発明でいう電子タグ読取手段)は、例えば第1のフィンガー17の先端部に配設されており、物体に添付されている電子タグから当該電子タグに記録されている情報を読取可能に構成されている。小型照明装置23は、例えば第2のフィンガー18の先端部に配設されており、CCDカメラ21により撮影される物体を照明するように構成されている。そして、このように構成されてなるマニピュレータ2は、非動作時には、図3(b)に示すように、アーム部7およびフィンガー部8が収納されてコンパクトな状態になる(ホームポジションに戻る)。
図3は、上記した車載ロボットハンド1の電気的な構成を機能ブロック図として示している。車載ロボットハンド1は、機能ブロックとして、コントローラ3に、マニピュレータ2と、音声入力装置24(本発明でいう命令受付手段、音声入力手段)と、音声出力装置25と、通信機26(本発明でいう通信手段、命令受付手段、コマンド受信手段)と、車載通信インタフェース部27とが接続されて構成されている。
コントローラ3は、CPU、ROM、RAMおよびI/Oなどから構成されており、制御プログラムを実行することにより車載ロボットハンド1の動作全般を制御する。マニピュレータ2のアーム部7、フィンガー部8、CCDカメラ21、電子タグリーダ22および小型照明装置23の各々は、コントローラ3から入力される制御信号に基づいて動作が制御される。また、CCDカメラ21は、撮影された画像をコントローラ3に出力し、電子タグリーダ22は、電子タグから読取られた情報をコントローラ3に出力する。
音声入力装置24は、運転手が発した音声を集音するのに適した位置に配設されており、集音された音声をコントローラ3に出力する。音声出力装置25は、運転手が音声を聞取るのに適した位置に配設されており、コントローラ3から入力された音声を出力する。通信機26は、通信回線を通じて外部と通信する。
車載通信インタフェース部27は、車両4に搭載されている各種のECU28,29と車載LAN30を通じて接続されていると共に、本体31および表示装置32(本発明でいう表示手段)を備えてなるナビゲーション装置33とも車載LAN30を通じて接続されており、これら各種のECU28,29やナビゲーション装置33との間でデータ通信可能に構成されている。
尚、上記した構成において、コントローラ3は、制御プログラムを特定のサーバ(図示せず)から通信回線を通じて通信機26にダウンロードすることにより、制御プログラムを逐一バージョンアップすることが可能に構成されている。また、コントローラ3や音声入力装置24や音声出力装置25は、マニピュレータ2に対して一体に配設されていても良いし、例えばケーブルを通じてマニピュレータ2に接続される態様で配設されていても良い。また、音声入力装置24や音声出力装置25や通信機26は、ナビゲーション装置33に組込まれているもので兼用されていても良い。
また、車載ロボットハンド1は、車両4に搭載されているバッテリから供給される電力を動作電力として動作する構成であっても良いし、内蔵電池から供給される電力を動作電力として動作する構成であっても良い。さらに、車載ロボットハンド1は、車室5内の所定位置に配設されたスイッチ(図示せず)のオンをトリガとして動作を開始する構成であっても良いし、イグニッションスイッチ(図示せず)と接続されることにより、イグニッションスイッチのオンをトリガとして動作を開始する構成であっても良い。
次に、上記した構成の作用について、図4ないし図7を参照して説明する。
まず、コントローラ3は、車載ロボットハンド1がオンしている状態(動作電力が供給されている状態)では、音声が音声入力装置24に入力されたか否かを監視すると共に、外部からコマンドが通信回線を通じて通信機26に受信されたか否かを監視し、命令を受付けたか否かを監視する(ステップS1)。
ここで、コントローラ3は、命令を受付けた旨を検出すると(ステップS1にて「YES」)、その受付けられた命令を解読する(ステップS2)。具体的に説明すると、コントローラ3は、音声が音声入力装置24に入力された旨を検出すると、その音声を音声認識して命令を解読し、また、外部からコマンドが通信回線を通じて通信機26に受信された旨を検出すると、そのコマンドを解読して命令を解読する。
次いで、コントローラ3は、命令を実行可能であるか否かを判定する(ステップS3)、そして、コントローラ3は、例えば命令の解読を正常に終了し、その命令を実行可能である旨を検出すると(ステップS3にて「YES」)、例えば「命令を実行できます」などの音声メッセージを音声出力装置25から出力させることにより、命令を実行可能である旨を運転手に報知し(ステップS4)、これ以降、命令を実行する(ステップS5)。
これに対して、コントローラ3は、例えば命令の解読を正常に終了することなく、また、命令の解読を正常に終了したとしても、その命令を実行不可能である旨を検出すると(ステップS3にて「NO」)、例えば「命令を実行できません」などの音声メッセージを音声出力装置25から出力させることにより、命令を実行不可能である旨を運転手に報知し(ステップS6)、これ以降、命令を実行することなく、上記したステップS1に戻る。
さて、車載ロボットハンド1が受付ける命令の一例として、
(1)車載ロボットハンド1が動作対象物体を移動する命令を受付けた場合
(2)車載ロボットハンド1が動作対象物体を操作する命令を受付けた場合
(3)車載ロボットハンド1が車両周囲を監視する命令を受付けた場合
について順次説明する。
(1)車載ロボットハンド1が動作対象物体を移動する命令を受付けた場合
最初に、「車載ロボットハンド1が動作対象物体を移動する命令を受付けた場合」について、図5に示すフローチャートを参照して説明する。コントローラ3は、この場合は、動作対象物体を認識し(ステップS11)、動作対象物体の移動先を認識する(ステップS12)。具体的に説明すると、コントローラ3は、例えば運転手が「後部座席に置かれている鞄を助手席に移動しなさい」という音声を発した場合であれば、動作対象物体として「後部座席に置かれている鞄」を認識し、動作対象物体の移動先として「助手席」を認識する。尚、コントローラ3は、例えば「これから後部座席に置かれている鞄を助手席に移動します」などの音声メッセージを音声出力装置25から出力させることにより、自身が動作対象物体を認識すると共に、自身が動作対象物体の移動先を認識した旨を運転手に報知しても良い。
次いで、コントローラ3は、マニピュレータ2の動作を開始させ(ステップS13)、
動作対象物体の探索を開始する。具体的には、コントローラ3は、CCDカメラ21により撮影された画像を解析し(ステップS14)、電子タグの形状を検出することにより、物体に添付されている電子タグを検出したか否かを判定する(ステップS15)。そして、コントローラ3は、電子タグを検出すると(ステップS15にて「YES」)、電子タグリーダ22により電子タグに記録されている情報を読取らせ(ステップS16)、読取られた情報と予め記憶されている動作対象物体の電子タグ情報とを比較することにより、その電子タグが添付されている物体が動作対象物体(この場合であれば、「鞄」)であるか否かを判定する(ステップS17)。
ここで、コントローラ3は、読取られた情報と動作対象物体の電子タグ情報とが一致することなく、電子タグが添付されている物体が動作対象物体でない旨を検出すると(ステップS17にて「NO」)、例えばマニピュレータ2の動作を開始させてからの経過時間が予め探索時間として規定されている所定時間以内であれば(ステップS18にて「YES」)、上記したステップS14に戻り、動作対象物体の探索を繰返して実行する。
これに対して、コントローラ3は、読取られた情報と動作対象物体の電子タグ情報とが一致し、電子タグが添付されている物体が動作対象物体である旨を検出すると(ステップS17にて「YES」)、アーム部7とフィンガー部8とを協働させることにより、動作対象物体をフィンガー部8により把持させ(ステップS19)、動作対象物体を移動先へ移動させる(ステップS20)。
次いで、コントローラ3は、動作対象物体を移動先へ正常に移動完了したか否かを判定し(ステップS21)、動作対象物体を移動先へ正常に移動完了した旨を検出すると(ステップS21にて「YES」)、例えば「移動に成功しました」などの音声メッセージを音声出力装置25から出力させることにより、動作対象物体の移動が成功した旨を報知する(ステップS22)。そして、コントローラ3は、マニピュレータ2を初期状態(図3(b)に示した状態)に戻し、マニピュレータ2の動作を終了させる(ステップS23)。
また、コントローラ3は、動作対象物体を移動先へ正常に移動完了しなかった旨を検出すると(ステップS21にて「NO」)、例えば「移動に失敗しました」などの音声メッセージを音声出力装置25から出力させることにより、動作対象物体の移動が失敗した旨を報知し(ステップS24)、マニピュレータ2を初期状態に戻し、マニピュレータ2の動作を終了させる(ステップS23)。
さらに、コントローラ3は、例えばマニピュレータ2の動作を開始させてからの経過時間が予め探索時間として規定されている所定時間を越えた場合であれば(ステップS18にて「NO」)、例えば「時間切れです。探索に失敗しました」などの音声メッセージを音声出力装置25から出力させることにより、動作対象物体の探索が失敗した旨(動作対象物体を所定時間内に探索できなかった旨)を報知し(ステップS25)、マニピュレータ2を初期状態に戻し、マニピュレータ2の動作を終了させる(ステップS23)。
以上に説明した一連の処理により、運転手は、例えば「後部座席に置かれている鞄を助手席に移動しなさい」という音声を発することにより、自分に代わって車載ロボットハンド1に後部座席に置かれている鞄(図1中「P」にて示す)を助手席に移動させる(取らせる)ことができる。尚、コントローラ3は、外部からコマンドが通信回線を通じて通信機26に受信された場合にも、上記した一連の処理を実行することが可能であり、また、電子タグリーダ22が電子タグの情報を読取るのに代わって、CCDカメラ21により撮影された物体の形状や色などを識別することにより、動作対象物体を特定することも可能である。
(2)車載ロボットハンド1が動作対象物体を操作する命令が受付けた場合
次に、「車載ロボットハンド1が動作対象物体を操作する命令を受付けた場合」について、図6に示すフローチャートを参照して説明する。この場合は、コントローラ3は、動作対象物体を認識し(ステップS31)、動作対象物体に対する操作を認識する(ステップS32)。具体的に説明すると、コントローラ3は、例えば運転手が「CDチェンジャーのCDを再生しなさい」という音声を発した場合であれば、動作対象物体として「CDチェンジャー」を認識し、動作対象物体に対する操作として「CDの再生」を認識する。尚、この場合も、コントローラ3は、例えば「これからCDチェンジャーのCDを再生します」などの音声メッセージを音声出力装置25から出力させることにより、自身が動作対象物体を認識すると共に、自身が動作対象物体に対する操作を認識した旨を運転手に報知しても良い。
次いで、コントローラ3は、この場合も、マニピュレータ2の動作を開始させ(ステップS33)、動作対象物体の探索を開始し、CCDカメラ21により撮影された画像を解析し(ステップS34)、物体に添付されている電子タグを検出したか否かを判定する(ステップS35)。そして、コントローラ3は、電子タグを検出すると(ステップS35にて「YES」)、電子タグリーダ22により電子タグに記録されている情報を読取らせ(ステップS36)、その電子タグが添付されている物体が動作対象物体(この場合であれば、「CDチェンジャー」)であるか否かを判定する(ステップS37)。
そして、コントローラ3は、情報が読取られた電子タグが添付されている物体が動作対象物体である旨を検出すると(ステップS37にて「YES」)、アーム部7とフィンガー部8とを協働させることにより、動作対象物体をフィンガー部8により操作させる(ステップS38)。この場合であれば、コントローラ3は、フィンガー部8により例えばCDチェンジャーに配設されている「再生ボタン」を押下させる。
次いで、コントローラ3は、動作対象物体を正常に操作完了したか否かを判定し(ステップS39)、動作対象物体を正常に操作完了した旨を検出すると(ステップS39にて「YES」)、例えば「操作に成功しました」などの音声メッセージを音声出力装置25から出力させることにより、動作対象物体に対する操作が成功した旨を報知する(ステップS40)。そして、コントローラ3は、マニピュレータ2を初期状態(図3(b)に示した状態)に戻し、マニピュレータ2の動作を終了させる(ステップS41)。
また、コントローラ3は、動作対象物体を正常に操作完了しなかった旨を検出すると(ステップS39にて「NO」)、例えば「操作に失敗しました」などの音声メッセージを音声出力装置25から出力させることにより、動作対象物体に対する操作が失敗した旨を報知し(ステップS42)、マニピュレータ2を初期状態に戻し、マニピュレータ2の動作を終了させる(ステップS41)。
さらに、コントローラ3は、この場合も、例えばマニピュレータ2の動作を開始させてからの経過時間が予め探索時間として規定されている所定時間を越えた場合であれば(ステップS43にて「NO」)、例えば「時間切れです。探索に失敗しました」などの音声メッセージを音声出力装置25から出力させることにより、動作対象物体の探索が失敗した旨を報知し(ステップS44)、マニピュレータ2を初期状態に戻し、マニピュレータ2の動作を終了させる(ステップS41)。
以上に説明した一連の処理により、運転手は、例えば「CDチェンジャーのCDを再生しなさい」という音声を発することにより、自分に代わって車載ロボットハンド1にCDチェンジャーの「再生ボタン」を操作させることができ、CDチェンジャーのCDを再生させることができる。尚、この場合も、コントローラ3は、外部からコマンドが通信回線を通じて通信機26に受信された場合にも、上記した一連の処理を実行することが可能であり、また、電子タグリーダ22が電子タグの情報を読取るのに代わって、CCDカメラ21により撮影された物体の形状や色などを識別することにより、動作対象物体を特定することも可能である。
(3)車載ロボットハンド1が車両周囲を監視する命令を受付けた場合
次に、「車載ロボットハンド1が車両周囲を監視する命令を受付けた場合」について、図7に示すフローチャートを参照して説明する。この場合は、コントローラ3は、撮影方向を認識する(ステップS51)。具体的に説明すると、コントローラ3は、例えば運転手が「車両左側後方を撮影しなさい」という音声を発した場合であれば、撮影方向として「車両左側後方」を認識する。尚、この場合も、コントローラ3は、例えば「これから車両左側後方を撮影します」などの音声メッセージを音声出力装置25から出力させることにより、自身が撮影方向を認識した旨を運転手に報知しても良い。
次いで、コントローラ3は、マニピュレータ2の動作を開始させ(ステップS52)、
車両左側後方の撮影を開始させ(ステップS53)、撮影された画像をナビゲーション装置33の表示装置32に表示させる(ステップS54)。そして、コントローラ3は、例えばマニピュレータ2の動作を開始させてからの経過時間が予め撮影時間として規定されている所定時間以内であれば(ステップS55にて「YES」)、上記したステップS54に戻り、撮影された画像の表示を継続する。
これに対して、コントローラ3は、例えばマニピュレータ2の動作を開始させてからの経過時間が予め撮影時間として規定されている所定時間を越えた場合であれば(ステップS55にて「NO」)、撮影を終了させ(ステップS56)、マニピュレータ2を初期状態に戻し、マニピュレータ2の動作を終了させる(ステップS57)。
以上に説明した一連の処理により、運転手は、例えば「車両左側後方を撮影しなさい」という音声を発することにより、車載ロボットハンド1に車両左側後方を撮影させることができ、車両左側後方の画像をナビゲーション装置33の表示装置32にて見ることができる。尚、この場合も、コントローラ3は、外部からコマンドが通信回線を通じてコマンドが通信機26に受信された場合にも、上記した一連の処理を実行することが可能である。
ところで、コントローラ3は、上記した動作対象物体を移動する処理、動作対象物体を操作する処理および車両周囲を監視する処理の他に、以下の処理を実行することも可能である。すなわち、コントローラ3は、CCDカメラ21により撮影された画像を通信機26から通信回線を通じて外部へ送信させることも可能である。また、コントローラ3は、
CCDカメラ21により運転手を撮影することにより、運転手の行動範囲をデータベース化して予測し、自身の位置と運転手の位置との相対的な関係に基づいて運転手の行動を妨げないようにマニピュレータ2を動作させる(動作範囲を制限する)ことも可能である。
さらに、コントローラ3は、車両4に搭載されている各種のECU28,29やナビゲーション装置33から車載通信インタフェース部27に入力された車両状態データを解読することにより、車両4が急停止状態や悪路を走行する状態になったときに、例えば運転手の頭部がダッシュボードなどに衝突しないように運転手の身体をアーム部7に保持させるなど、運転手の安全を確保するようにマニピュレータ2を動作させることも可能である。
以上に説明したように本実施形態によれば、車載ロボットハンド1において、例えば「後部座席に置かれている鞄を助手席に移動しなさい」という命令が受付けられると、コントローラ3がマニピュレータ2を動作させることにより、後部座席に置かれている鞄を助手席に移動させたり(取らせたり)、例えば「CDチェンジャーのCDを再生しなさい」という命令が受付けられると、コントローラ3がマニピュレータ2を動作させることにより、CDチェンジャーのCDを再生させたりするように構成したので、運転手に代わって車載ロボットハンド1に運転手の要求を満たす動作を実行させることができ、これにより、利便性および安全性を高めることができる。
また、車載ロボットハンド1において、CCDカメラ21が車両周囲を撮影し、その撮影された画像をナビゲーション装置33の表示装置32に表示するように構成したので、例えば運転手にとって死角となる方向を撮影して表示することができ、運転手にとって有益な視覚的な情報を提供することができる。
また、車載ロボットハンド1において、CCDカメラ21により撮影された画像を通信26から通信回線を通じて外部へ送信するように構成したので、車載ロボットハンド1にて撮影された画像を遠隔地に送信することができ、例えば自宅に居ながら車室5内の忘れ物を探索することができ、また、簡易な盗難防止対策を実施することもできる。
また、車載ロボットハンド1において、運転手の行動範囲を予測し、運転手の行動を妨げないようにコントローラ3がマニピュレータ2を動作させるように構成したので、例えば運転手が運転中であっても、運転が車載ロボットハンド1の動作に妨げられることがなく、安全を適切に確保することができる。
さらに、車載ロボットハンド1において、例えば車両4が急停止状態や悪路を走行する状態になると、運転手の安全を確保するようにコントローラ3がマニピュレータ2を動作させるように構成したので、運転手の頭部がダッシュボードに衝突しないように運転手の身体を車載ロボットハンド1に保持させることにより、安全を適切に確保することができる。
本発明は、上記した実施形態にのみ限定されるものではなく、以下のように変形または拡張することができる。
マニピュレータの形状(アームの長さ・本数やフィンガーの長さ・本数など)は、他の形状であっても良い。
車載ロボットハンドが実行する動作対象物体を操作する処理としては、オーディオ機器を操作する処理に限らず、例えばナビゲーション装置を操作する処理や、電子メールを作成して送信する処理や、ルームミラーの角度を調整する処理や、ドリンク類の蓋を開封する処理や、ドアを開閉する処理や、荷物を積み下ろす処理などであっても良い。
フィンガー部がアーム部に対して着脱可能な構成であっても良く、マニピュレータが複数のフィンガー部のうちから命令に応じた最適なフィンガー部を自動的に選択して装着し、命令に応じた動作を実行する構成であっても良い。また、フィンガー部の先端部に例えばBluetooth(登録商標)通信や赤外線通信などを可能な近距離通信モジュールを搭載し、動作対象物体との間で近距離無線通信によるデータ通信を実行することにより、動作対象物体を操作させる構成であっても良い。また、フィンガー部の先端部にセンサなどを
搭載する構成であっても良い。
車両に複数の車載ロボットハンドを搭載する構成であっても良い。また、そのように車両に複数の車載ロボットハンドを搭載する場合に、各々にユニークな識別子(人の「名前」に相当する識別子)を設定すれば、例えば「1号機、後部座席に置かれている鞄を助手席に移動しなさい」という音声を発すると共に、「2号機、CDチェンジャーのCDを再生しなさい」という音声を発することにより、命令に応じて複数の車載ロボットハンドを使い分けることができる。
例えば夜間や車両がトンネル内を走行しているような場合に、物体を容易に探索可能となるように小型照明装置を自動的に動作させるように構成しても良い。
本発明の一実施形態を示すものであって、車載ロボットハンドが車室内に搭載されている態様を概略的に示す図 マニピュレータの構成を概略的に示す図 機能ブロック図 フローチャート 図4相当図 図4相当図 図4相当図
符号の説明
図面中、1は車載ロボットハンド、2はマニピュレータ、3はコントローラ(制御手段)、7はアーム部(動作手段)、8はフィンガー部(動作手段)、21はCCDカメラ(撮影手段)、22は電子タグリーダ(電子タグ読取手段)、24は音声入力装置(命令受付手段、音声入力手段)、26は通信機(通信手段、命令受付手段、コマンド受信手段)である。

Claims (11)

  1. 車両に搭載可能な車載ロボットハンドであって、
    命令を受付ける命令受付手段と、
    車両に搭載されている物体を撮影する撮影手段と、
    動作対象物体に対する所定動作を実行する動作手段と、
    前記命令受付手段に受付けられた命令を解読すると共に、前記撮影手段により撮影された物体が動作対象物体であるか否かを判定し、動作対象物体に対する命令に応じた所定動作を前記動作手段により実行させる制御手段とを備えたことを特徴とする車載ロボットハンド。
  2. 請求項1に記載した車載ロボットハンドにおいて、
    前記制御手段は、車両に搭載されている動作対象物体を前記動作手段により移動させることを特徴とする車載ロボットハンド。
  3. 請求項1または2に記載した車載ロボットハンドにおいて、
    前記制御手段は、車両に搭載されている動作対象物体を前記動作手段により操作させることを特徴とする車載ロボットハンド。
  4. 請求項1ないし3のいずれかに記載した車載ロボットハンドにおいて、
    前記制御手段は、前記撮影手段に車両周囲を撮影させ、その撮影された画像を表示手段に表示させることを特徴とする車載ロボットハンド。
  5. 請求項1ないし4のいずれかに記載した車載ロボットハンドにおいて、
    前記制御手段は、前記撮影手段により撮影された画像を通信手段から通信回線を通じて外部へ送信させることを特徴とする車載ロボットハンド。
  6. 請求項1ないし5のいずれかに記載した車載ロボットハンドにおいて、
    前記制御手段は、運転手の行動範囲を予測し、その予測結果に基づいて運転手の行動を妨げないように前記動作手段を動作させることを特徴とする車載ロボットハンド。
  7. 請求項1ないし6のいずれかに記載した車載ロボットハンドにおいて、
    前記制御手段は、車両が所定状態になったときに、運転手の安全を確保するように前記動作手段を動作させることを特徴とする車載ロボットハンド。
  8. 請求項1ないし7のいずれかに記載した車載ロボットハンドにおいて、
    物体に添付されている電子タグから情報を読取る電子タグ読取手段を備え、
    前記制御手段は、前記電子タグ読取手段により電子タグから読取られた情報に基づいて前記撮影手段により撮影された物体が動作対象物体であるか否かを判定することを特徴とする車載ロボットハンド。
  9. 請求項1ないし7のいずれかに記載した車載ロボットハンドにおいて、
    前記制御手段は、前記撮影手段により撮影された物体の形状や色などを識別する機能を有し、その識別結果に基づいて前記撮影手段により撮影された物体が動作対象物体であるか否かを判定することを特徴とする車載ロボットハンド。
  10. 請求項1ないし9のいずれかに記載した車載ロボットハンドにおいて、
    前記命令受付手段は、音声を入力する音声入力手段から構成され、
    前記制御手段は、前記音声入力手段に入力された音声を音声認識して命令を解読することを特徴とする車載ロボットハンド。
  11. 請求項1ないし9のいずれかに記載した車載ロボットハンドにおいて、
    前記命令受付手段は、外部からコマンドを通信回線を通じて受信するコマンド受信手段から構成され、
    前記制御手段は、前記コマンド受信手段に受信されたコマンドを解読して命令を解読することを特徴とする車載ロボットハンド。

JP2003321605A 2003-09-12 2003-09-12 車載ロボットハンド Pending JP2005088095A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003321605A JP2005088095A (ja) 2003-09-12 2003-09-12 車載ロボットハンド

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003321605A JP2005088095A (ja) 2003-09-12 2003-09-12 車載ロボットハンド

Publications (1)

Publication Number Publication Date
JP2005088095A true JP2005088095A (ja) 2005-04-07

Family

ID=34453243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003321605A Pending JP2005088095A (ja) 2003-09-12 2003-09-12 車載ロボットハンド

Country Status (1)

Country Link
JP (1) JP2005088095A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008018556A1 (de) 2008-04-12 2009-10-15 Bayerische Motoren Werke Aktiengesellschaft Handhabungsgerät in einem Fahrzeug und Verfahren zum Betrieb des Handhabungsgeräts
DE102009004734A1 (de) * 2009-01-15 2010-07-22 Volkswagen Ag Fahrzeug mit einer Servicevorrichtung und Servicevorrichtung für ein Fahrzeug
JP2010195370A (ja) * 2009-02-27 2010-09-09 Toyota Motor Corp 車載ロボット装置
JP2014166321A (ja) * 2013-01-31 2014-09-11 Saga Univ 操作支援装置
DE102019118215B4 (de) * 2019-07-05 2021-05-12 Bayerische Motoren Werke Aktiengesellschaft Roboterarm für eine Fahrzeugsitzanlage sowie Verfahren zum Betreiben eines Roboterarms
DE102020001084A1 (de) 2020-02-20 2021-08-26 Daimler Ag Roboterarmvorrichtung zum Anordnen in einem Innenraum eines Kraftfahrzeugs, sowie Verfahren
US11498468B2 (en) 2019-10-29 2022-11-15 Honda Motor Co., Ltd. Vehicle ingress-egress support

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002166379A (ja) * 2000-09-19 2002-06-11 Toyota Motor Corp 移動体搭載用ロボット及びこれを搭載した移動体
JP2002215655A (ja) * 2001-01-15 2002-08-02 Shigeru Ando 情報検索方法、情報検索装置およびロボットの動作制御装置
JP2002239959A (ja) * 2001-02-20 2002-08-28 Toyota Motor Corp 乗物用電子パートナーシステム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002166379A (ja) * 2000-09-19 2002-06-11 Toyota Motor Corp 移動体搭載用ロボット及びこれを搭載した移動体
JP2002215655A (ja) * 2001-01-15 2002-08-02 Shigeru Ando 情報検索方法、情報検索装置およびロボットの動作制御装置
JP2002239959A (ja) * 2001-02-20 2002-08-28 Toyota Motor Corp 乗物用電子パートナーシステム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008018556A1 (de) 2008-04-12 2009-10-15 Bayerische Motoren Werke Aktiengesellschaft Handhabungsgerät in einem Fahrzeug und Verfahren zum Betrieb des Handhabungsgeräts
DE102009004734A1 (de) * 2009-01-15 2010-07-22 Volkswagen Ag Fahrzeug mit einer Servicevorrichtung und Servicevorrichtung für ein Fahrzeug
JP2010195370A (ja) * 2009-02-27 2010-09-09 Toyota Motor Corp 車載ロボット装置
JP2014166321A (ja) * 2013-01-31 2014-09-11 Saga Univ 操作支援装置
DE102019118215B4 (de) * 2019-07-05 2021-05-12 Bayerische Motoren Werke Aktiengesellschaft Roboterarm für eine Fahrzeugsitzanlage sowie Verfahren zum Betreiben eines Roboterarms
US11498468B2 (en) 2019-10-29 2022-11-15 Honda Motor Co., Ltd. Vehicle ingress-egress support
DE102020001084A1 (de) 2020-02-20 2021-08-26 Daimler Ag Roboterarmvorrichtung zum Anordnen in einem Innenraum eines Kraftfahrzeugs, sowie Verfahren

Similar Documents

Publication Publication Date Title
JP4419758B2 (ja) 自動車用ユーザもてなしシステム
JP2002229542A (ja) 車載用映像切換装置
JP2007157113A (ja) 運転情報記録装置
JP2006193057A (ja) 車両監視ユニットおよびルームミラー装置
JP2006321273A (ja) 車載撮影システム
US20050275510A1 (en) Vehicular anti-theft system capable of supplying images related to a vehicle status to an authorized driver
JP2005088095A (ja) 車載ロボットハンド
JP2014203317A (ja) 携帯型通信機器
JP2009284386A (ja) 車両用駐車支援装置
JP2007015502A (ja) 情報出力装置
JP2007131252A (ja) 車載用カメラ制御装置及び車載用確認カメラ装置
JP5549571B2 (ja) 車内状況表示装置
JP2005167943A (ja) 不審者撮像装置
JP5311510B2 (ja) 車載用監視システム及びそれに用いる監視方法
JP2009286161A (ja) 車両の通信装置
JP6788447B2 (ja) 映像出力システム
JP2016107897A (ja) 車載装置
KR20030062159A (ko) 자동차의 도난/파손/사고에 따른 현장이미지를 전송할 수있는 영상 시스템
JP2005206025A (ja) 車載カメラ装置
JP2021073571A (ja) 記録再生装置、記録再生方法、およびプログラム
JP2007027842A (ja) 車両用映像表示システム
JP2008285773A (ja) ヘルメット
JP2007238093A (ja) 運転情報記録装置
JP2003023564A (ja) 車両用撮像装置及びその制御方法、並びにコンピュータ・プログラム
JP2006200936A (ja) カメラ機能付きナビゲーションシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051014

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070626

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071225

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080513

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080606

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080714

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20080801