JP2004291174A - ロボット、ロボット対話装置及びプログラム - Google Patents

ロボット、ロボット対話装置及びプログラム Download PDF

Info

Publication number
JP2004291174A
JP2004291174A JP2003088668A JP2003088668A JP2004291174A JP 2004291174 A JP2004291174 A JP 2004291174A JP 2003088668 A JP2003088668 A JP 2003088668A JP 2003088668 A JP2003088668 A JP 2003088668A JP 2004291174 A JP2004291174 A JP 2004291174A
Authority
JP
Japan
Prior art keywords
robot
unit
information
vehicle
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003088668A
Other languages
English (en)
Inventor
Yukimasa Tamatsu
玉津  幸政
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2003088668A priority Critical patent/JP2004291174A/ja
Publication of JP2004291174A publication Critical patent/JP2004291174A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】対話機能を有するロボットを車両に持ち込んだ際であっても、乗員、その中でも特に運転者との対話性を向上させることができるロボット及びロボット対話装置を提供する。
【解決手段】運転者15との対話機能を有すると共に、ペット型ロボット17と通信を行うことが可能なロボット対話装置13を運転者15の近傍に設置する。そして、ペット型ロボット17が運転者15と行う対話を、ペット型ロボット17に代わってロボット対話装置13が行う。このようにすれば、ペット型ロボット17の発する音声が運転者15に届きにくいといった問題や、逆に運転者がペット型ロボット17に対して発する声がペット型ロボット17に届きにくいといった問題を解決することができる。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
本発明は、車両に搭載されて用いられるロボット及びそのロボットと乗員が対話をするためのロボット対話装置等に関する。
【0002】
【従来の技術】
近年、対話機能を有するロボットが開発され、家庭に浸透しつつある。このようなロボットは、自らが備えるセンサ類からの情報に基づいて動作を決定し、その決定された動作に基づいて動作する自律型ロボットである。このような機能を持ったロボットの多くは愛玩目的のものであり、ユーザーはこのようなロボットに対してどこにでも持ち運びたいという欲求を抱く場合がある。
【0003】
例えば車両に持ち込んだ場合は、特許文献1に記載のように、車両の情報と連動させて機能させることが提案されている。具体的には、ロボットに経路案内を行わせたり、車両の状態を報知させたりするようになっている。
【0004】
【特許文献1】
特開2000−193480号公報
【0005】
【発明が解決しようとする課題】
ところが、車両に持ち込んだ場合には次のような問題がある。それは、車室内の形状やシートの形状の関係から、ロボットの設置場所としては例えば後部席などの運転者が直視できない位置に設置せざるを得ない場合が多い。このような場合は、運転者は運転中にロボットを直視することができないため、ロボットの有する対話機能を十分に利用できない上、ロボット自体の現在状況を把握することも難しかった。
【0006】
本発明は、このような問題に鑑みなされたものであり、対話機能を有するロボットを車両に持ち込んだ際であっても、乗員、その中でも特に運転者との対話性を向上させることができるロボット及びロボット対話装置を提供することを目的とする。
【0007】
【課題を解決するための手段及び発明の効果】
上記課題を解決するためになされた請求項1に記載のロボット対話装置は、車両に搭載されたロボットと通信を行う通信手段と、運転者の近傍に設置され、運転者に情報を報知する報知手段と、これら通信手段及び報知手段を制御する制御手段とを備える。そして、制御手段が、通信手段を介してロボットから受信した情報に基づいて報知手段に情報を報知させる。
【0008】
このようなロボット対話装置に対応するロボットとしては、請求項10に記載のようなロボットであるとよい。つまり、通信手段と制御手段とを備えたロボットであって、通信手段がロボット対話装置と通信を行い、制御手段が、当該ロボットの情報あるいは当該ロボットが取得した情報を通信手段を介してロボット対話装置に送信するように構成されたロボットであるとよい。
【0009】
このようなロボット対話装置及びロボットであれば、運転者との対話の一部をロボットに代わってロボット対話装置が行うことができる。つまり、運転者は、ロボットが乗員に対して発する情報を、ロボット対話装置を介して把握することができる。したがって、ロボットの有する対話機能を十分に利用できないといった従来存在した問題を解決し、ロボットと運転者との対話性を向上させることができる。
【0010】
ところで、ロボット対話装置は、請求項2に記載のように、更に、運転者の近傍に設置され、運転者による指令を受け付ける指令受付手段を備えるようにし、制御手段は、指令受付手段が受け付けた指令に基づく情報を、通信手段を介してロボットに送信するようになっていてもよい。
【0011】
このようなロボット対話装置に対応するロボットとしては、請求項11に記載のロボットのように、制御手段が、通信手段を介してロボット対話装置から送信された情報に基づいて当該ロボットの各部位を動作させるようになったロボットであるとよい。
【0012】
このようになっていると、運転者は運転中であってもロボット対話装置を介してロボットに指令等を与えることができるため、より運転者とロボットとの間の対話性が向上する。
ところで、例えばロボットを後部席に設置した場合は、運転者は直接ロボットの様子を確認することができない。そのような問題を解決するためには、請求項3に記載のようなロボット対話装置であれば解決できる。つまり、報知手段が画像を表示することができる表示部を有し、制御手段がロボットの挙動をモデルを用いて報知手段に表示させるようになったロボット対話装置であるとよい。なお、ここで言う挙動というのは、静止している状態も含む。
【0013】
このようになっていれば、運転者は近傍に設置された表示部に表示されたロボットのモデルを確認することにより、ロボットの様子を直感的に確認することができる。
また、制御手段は、ロボットのモデルを2次元の画像によって表示部に表示させるようになっていてもよいが、請求項4に記載のように、制御手段は、モデルを立体形状によって報知手段の表示部に表示させるようになっていてもよい。ここで言う立体形状というのは、奥行きも考慮した状態を意味する。さらに、運転者の両眼の視差を利用して運転者が立体視できるように表示させてもよい。
【0014】
このようになっていれば、より運転者は的確にロボットの様子を確認することができる。
ところで、具体的なロボットのモデルの表示方法としては、請求項5に記載のように、制御手段は、モデルを、運転者と対面するように報知手段の表示部に表示させるようになっているとよい。
【0015】
このようになっていると、特に、車両の前方を向くよう後部席にロボットを設置した場合、運転者が後席を振り返ってロボットを見た状態と同じになり、ロボットの状態を認識しやすい。また、対面しているという状態はコミュニケーションを取る上で一般的に重要なことであるため、対話ということを考えた場合は運転者とモデルとが対面するようになっているほうがより好ましい。
【0016】
しかし、常に対面している必要はなく、請求項6に記載のように、更に、車両の状態を取得する車両状態取得手段を備えるようにし、制御手段は、車両状態取得手段が取得した車両の状態に応じ、モデルを立体形状で表示させる際の視点位置を変更するようになっていてもよい。
【0017】
具体的には例えば、請求項7に記載のように、制御手段は、車両状態取得手段が取得した車両の状態から、方向指示器が動作している状態あるいはバックギアが入っている状態であると判断すると、モデルの背後から眺める視点位置でモデルを報知手段の表示部に表示させるようになっているとよい。
【0018】
このようになっていると、表示部に表示されたロボットのモデルにとっての左右と運転者の認識する左右とが一致する。つまり、例えば、ロボットが車両の運動状態に応じて動作するような場合、ロボットのモデルを対面状態で表示部に表示をさせると、表示部に表示されたロボットのモデルにとっての右と運転者が認識する右とが一致しなくなる。しかし、モデルの背後から眺める視点位置でモデルを表示部に表示させるとモデルにとっての右と運転者が認識する右とが一致する。このため、例えば右への方向指示器が動作したときにロボットも右を向くような場合に、表示部に表示されたロボットのモデルにとっての右と運転者が認識する右とが一致し、方向の不一致がなくなる。
【0019】
ところで、ロボットは請求項12に記載のように、更に、周囲を撮影する撮影手段を備え、制御手段は、撮影手段が撮影した映像情報を、通信手段を介してロボット対話装置に送信するようになっているとよい。そして、ロボット対話装置は、請求項8に記載のように、制御手段は、ロボットが撮影した映像情報を通信手段を介して取得し、その映像情報に基づいた映像を報知手段の表示部に表示させるようになっているとよい。
【0020】
このようになっていると、ロボットが撮影した映像、例えば後席の乗員の様子や荷物席の様子を運転者が容易に確認することができ、運転者は運転中でも車内状況を把握しやすくなる。
また、さらに、請求項13に記載のロボットのように、制御手段は、通信手段を介して車両の方向指示器の動作状態に関する情報を取得し、車両の方向指示器が動作するとその動作方向を撮影手段に撮影させるようになっているとよい。
【0021】
このようになっていると、ロボットを適切な位置に設置すれば、運転者が運転席からでは確認できない位置の車外の映像を、方向指示器を動作させた際に確認することができる。すなわち、運転者の死角を減らすことができ、安全性向上に役立つ。
【0022】
また、請求項9に記載のような請求項1〜請求項8の何れかに記載のロボット対話装置の制御手段として機能させるプログラムを、ロボット対話装置が内蔵するコンピュータに実行させるようになっていてもよい。このようになっていれば、例えば、フレキシブルディスク、光磁気ディスク、CD−ROM、ハードディスク、ROM、RAM等のコンピュータが読みとり可能な記録媒体にプログラムを記録し、必用に応じてコンピュータにロードして起動することによりロボット対話装置として機能させることができる。また、プログラムはネットワークを用いて流通させることも可能であるため、機能アップ等も容易である。
【0023】
また、請求項14に記載のような請求項10〜請求項13の何れかに記載のロボットの制御手段として機能させるプログラムを、ロボットが内蔵するコンピュータに実行させるようになっていてもよい。このような場合も、コンピュータが読みとり可能な記録媒体にプログラムを記録し、必要に応じてコンピュータにロードして起動することによりロボットとして機能させることができる上、そのプログラムをネットワークを用いて流通させることもできる。
【0024】
【発明の実施の形態】
以下、本発明が適用された実施の形態について図面を用いて説明する。尚、本発明の実施の形態は、下記の実施の形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の形態を採りうる。
【0025】
図1は、ロボット対話装置13及びペット型ロボット17が搭載された車両11を上方から眺めた図である。図1に示されるように、運転者15が操作及び確認しやすい位置(例えばダッシュボードの上部や、中央コンソール内等)にロボット対話装置13が設置され、ペット型ロボット17は、運転者15が運転中には確認しにくい場所である後部席に設置されている。このペット型ロボット17は、車外に持ち出すことも可能なように構成されており、車内に設置する場合は、座席にそのまま置いておくようになっていてもよいが、安全のため、何らかの設置台の上に設置するようになっているほうが好ましい。
【0026】
図2は、ロボット対話装置13と車両11との接続関係を説明するための説明図である。図2に示すように、ロボット対話装置13は、制御系LAN31とボデー系LAN32に接続され、それぞれのLANから車両の様々な情報を取得したり、逆にロボット対話装置13からLANへの情報の送出が可能なようになっている。
【0027】
制御系LAN31には、エンジンECU21、AT−ECU22、VSC−ECU23、ステアリングECU24及びACC−ECU25が少なくとも接続されている。エンジンECU21は、エンジンをコントロールする制御部であり、エンジンの様々な動作状況(例えばスロットル開度や、エンジン回転数等)を示す情報を制御系LAN31に送出する。また、AT−ECU22は、AT(Automatic Transmission)をコントロールする制御部であり、ATの様々な動作状況(例えばシフトポジションや、軸トルク値等)を示す情報を制御系LAN31に送出する。また、VSC−ECU23は、VSC(Vehicle Stability Control)システムを制御するための制御部であり、車両の姿勢状態(車両の速度及び加速度、各方向のモーメント状態、車輪スリップ状態等)を示す情報を制御系LAN31に送出する。また、ステアリングECU24は、運転者の操舵に対する操舵補助力をコントロールする制御部であり、操舵角の情報を制御系LAN31に送出する。ACC−ECU25は、ACC(Adaptive Cruise Control)システムをコントロールする制御部であり、車両前方の状態(先行車の有無や相対速度、道路脇までの距離等)を示す情報を制御系LAN31上に送出する。
【0028】
一方、ボデー系LAN32には、ドアECU26、エアコンECU27及びメーターECU28が少なくとも接続されている。ドアECU26は、ドアやウィンドウの開閉状態を検知する制御部であり、検知した情報をボデー系LAN32に送出する。また、エアコンECU27は、エアコンをコントロールするための制御部であり、エアコンの動作状況、操作スイッチ状況、内気温や外気温を示す情報をボデー系LAN32に送出する。また、メーターECU28は、インストゥルメントパネル及びその付近の表示部及び操作部を制御するための制御部であり、方向指示器の動作状況や、ライトスイッチの状態や、ワイパースイッチの動作状況等を示す情報をボデー系LAN32に送出する。
【0029】
次に、ロボット対話装置13の構成を図3のブロック図を用いて説明する。図3に示すように、ロボット対話装置13は、画像表示部41、制御部42、車両通信部43、ロボット通信部44、操作部45、スピーカー46及びマイクロフォン47を備える。
【0030】
画像表示部41は、液晶パネルや有機ELパネル等を備えた表示部であり、文字や画像を表示することができる。車両通信部43は、前述した制御系LAN31及びボデー系LAN32と通信を行うことができ、様々な情報をLAN上の機器から取得したり、逆にロボット対話装置13が保持する情報をLAN上に送出することができる。
【0031】
ロボット通信部44は、ペット型ロボット17と双方向に通信を行うことができる。通信は、有線で行われても無線で行われてもどちらでもよい。操作部45は、運転者がロボット対話装置13に指示情報を入力するためのものであり、運転者の指示情報はメカニカルなボタンによって入力できるようになっていてもよいし、リモートコントローラで入力できるようになっていてもよいし、前述した画像表示部41の表面に設置されたタッチセンサによって入力できるようになっていてもよい。スピーカー46は、制御部42によって入力された電気信号に基づいて、音声を出力するためのものである。マイクロフォン47は、運転者の発した音声を捕らえて電気信号に変えて制御部42に出力することができる。
【0032】
制御部42は、CPU,ROM,RAM,I/O及びこれらの構成を接続するバスラインなどからなる周知のマイクロコンピュータを中心に構成されており、ROM及びRAMに記憶されたプログラムに基づいて、車両通信部43、ロボット通信部44、操作部45及びマイクロフォン47から入力した電気信号に基づき、制御部42内部に記憶されたプログラムに基づいて演算処理を行い、画像表示部41、スピーカー46、車両通信部43及びロボット通信部44に電気信号を出力する。具体的な処理については後述する。
【0033】
なお、これらのうち、画像表示部41、操作部45、スピーカー46及びマイクロフォン47は、運転者の近傍(例えばダッシュボードの上部や、中央コンソール内等)に配置され、運転者が運転中であっても認識及び操作可能なように設置されている。
【0034】
次に、ペット型ロボット17の構成を図4のブロック図を用いて説明する。図4に示すように、ペット型ロボット17は、肢体部51、制御部52、通信部53、カメラ54、スピーカー55、マイクロフォン56及びセンサ群57を備える。
【0035】
肢体部51は、図示しない頭部、腹部、2本の前脚部、2本の後脚部、尾部から構成され、各部は、制御部52からの指令に基づき、それぞれに組み込まれたアクチュエータによって動作可能に構成されている。通信部53は、ロボット対話装置13と双方向に通信を行うことができる。通信は、有線で行われても無線で行われてもどちらでもよい。
【0036】
カメラ54は、前述した肢体部51の頭部に設置され、ペット型ロボット17の周辺を撮影してその撮影画像を電気信号として出力できるようになっている。スピーカー55は、制御部52によって入力された電気信号に基づいて、音声を出力するためのものである。マイクロフォン56は、運転者の発した音声を捕らえて電気信号に変えて制御部52に出力することができる。センサ群57は、肢体部51の各部に取り付けられたタッチセンサや角度センサ、肢体部51の腹部に取り付けられた加速度センサ、頭部に取り付けられた匂いセンサ等のセンサである。これらは、人に撫でられたことや、抱きかかえられたことや、人がつけている香水や体臭を検出し、それらのセンサ情報を電気信号として出力することができる。
【0037】
制御部52は、CPU,ROM,RAM,I/O及びこれらの構成を接続するバスラインなどからなる周知のマイクロコンピュータを中心に構成されており、ROM及びRAMに記憶されたプログラムに基づいて、通信部53、カメラ54、マイクロフォン56及びセンサ群57から入力した電気信号に基づき、制御部52内部に記憶されたプログラムに基づいて演算処理を行い、肢体部51、通信部53及びスピーカー55に電気信号を出力する。具体的な処理については後述する。
【0038】
ここまでで、ロボット対話装置13及びペット型ロボット17の概略構成を説明したが、これらの構成要素と特許請求の範囲に記載の用語との対応を示しておく。まず、ロボット対話装置13については、画像表示部41及びスピーカー46が報知手段に相当し、特に画像表示部41は報知手段の表示部に相当する。また、操作部45及びマイクロフォン47が指令受付手段に相当し、車両通信部43が車両状態取得手段に相当し、ロボット通信部44が通信手段に相当し、制御部42が制御手段に相当する。
【0039】
また、ペット型ロボット17については、通信部53が通信手段に相当し、カメラ54が撮影手段に相当し、制御部52が制御手段に相当する。
次に、運転者がロボット対話装置13を介してペット型ロボット17と対話を行う際に実行される対話処理について説明する。対話処理は、ロボット対話装置13が主導する場合と、ペット型ロボット17が主導する場合の2通りあり、この2つの実施例について順に説明する。
【0040】
(1)第1実施例(ロボット対話装置13が対話を主導する場合)
ロボット対話装置13が対話を主導する場合は、ロボット対話装置13の制御部42で対話処理が実行される。対話処理は、ロボット対話装置13の電源が投入されると開始される。この対話処理について、図5のフローチャートを用いて説明する。
【0041】
対話処理が開始されると、まず次の3つのステップが並行して実行される。ペット型ロボット17から情報を取得するステップ(S110)、操作部45及びマイクロフォン47から情報を取得するステップ(S115)、車両から情報を取得するステップ(S120)である。
【0042】
S110では、ロボット通信部44を介してペット型ロボット17からカメラ54が撮影した映像情報や、マイクロフォン56が捕らえた音声に基づく音声情報や、センサ群57が取得したセンサ情報を取得する。
S115では、ロボット対話装置13の操作部45から指示情報やマイクロフォン47から音声情報を取得する。
【0043】
S120では、制御系LAN31及びボデー系LAN32各々に接続されたECUから種々の情報を取得する。具体的には、エンジンのスロットル開度や回転数の情報、ATのシフトポジションや軸トルクの情報、車両の姿勢状態(車両の速度及び加速度、各方向のモーメント状態、車輪スリップ状態等)の情報、操舵角の情報、車両前方の情報、ドアやウィンドウの状態の情報、エアコンの動作状態の情報、内外気温の情報、方向指示器の情報、ライトスイッチの情報、ワイパースイッチの情報等である。
【0044】
S110、S115及びS120のステップが終了すると、これらのステップで得た情報に基づいて、ペット型ロボット17及びロボット対話装置13の動作を決定する(S125)。ペット型ロボット17について言えば、肢体部51の動作(例えば頭部を動かしたり、前脚を上げたり等)やスピーカー55から音声を発したりといった動作を決定する。また、ロボット対話装置13について言えば、画像表示部41にペット型ロボット17の様子を表示させたり、スピーカー46からペット型ロボット17から取得した音声情報に基づく音声を出力させたりする動作を決定する。
【0045】
ペット型ロボット17とロボット対話装置13の動作が決定すると、決定した動作の中に、ペット型ロボット17の動作があるか否か、ロボット対話装置13の動作があるか否かを判定する(S130、S140)。
決定した動作の中にペット型ロボット17の動作がある場合(S130:Y)は、動作指令をロボット通信部44を介してペット型ロボット17へ送信する(S135)。一方、決定した動作の中にペット型ロボット17の動作がない場合(S130:N)は、対話処理の開始位置(S110、S115、S120の処理前)に戻る。
【0046】
また、決定した動作の中にロボット対話装置13の動作がある場合(S140:Y)は、画像表示部41及びスピーカー46に出力指示を行う(S145)。このうち画像表示部41に対する出力指示の一例については、後段で取り上げる。一方、決定した動作の中にロボット対話装置13の動作がない場合(S140:N)は、対話処理の開始位置(S110、S115、S120の処理前)に戻る。
【0047】
次に、ロボット対話装置13の制御部42がロボット通信部44を介してペット型ロボット17から各種の情報を取得しようとした際(S110)に、ペット型ロボット17の制御部52で実行される情報送信処理について図6のフローチャートを用いて説明する。
【0048】
処理を開始するとまず、カメラ54が撮影した映像情報や、マイクロフォン56が捕らえた音声に基づく音声情報や、センサ群57が取得したセンサ情報を取得する(S170)。このうちセンサ情報としては、肢体部51の各部に取り付けられたタッチセンサや角度センサ、肢体部51の腹部に取り付けられた加速度センサ、頭部に取り付けられた匂いセンサ等のセンサから得られるセンサ情報である。
【0049】
そして、取得したこれらの情報を通信部53を介してロボット対話装置13に送信し(S175)、本処理(情報送信処理)を終了する。
次に、ロボット対話装置13の制御部42が、ロボット通信部44を介してペット型ロボット17に動作指令を送信した際(S135)に、ペット型ロボット17の制御部52で実行される動作実行処理について図7のフローチャートを用いて説明する。
【0050】
処理を開始するとまず、通信部53を介してロボット対話装置13から動作指令を受信する(S180)。そして、動作指令を受信するとその動作指令に基づいて、肢体部51、カメラ54、スピーカー55を動作させる。具体的な動作としては、肢体部51を構成する頭部を動かしたり、前脚を上げたり、カメラ54で周囲の様子を撮影したり、スピーカー55から車両の情報を発話したりする。これらの動作が終了すると(S185)、本処理(動作実行処理)は終了する。
【0051】
次にペット型ロボット17が対話を主導する第2実施例について説明する。
(2)第2実施例(ペット型ロボット17が対話を主導する場合)
ペット型ロボット17が対話を主導する場合は、ペット型ロボット17の制御部52で対話処理が実行される。対話処理は、ペット型ロボット17の電源が投入されると開始される。この対話処理について、図8のフローチャートを用いて説明する。
【0052】
対話処理が開始されると、ロボット対話装置13から情報を取得(S210)すると共に、カメラ54、マイクロフォン56及びセンサ群57から情報を取得する(S215)。
具体的には、S210では、通信部53を介してロボット対話装置13から車両の情報を取得する。つまり、エンジンのスロットル開度や回転数の情報、ATのシフトポジションや軸トルクの情報、車両の姿勢状態(車両の速度及び加速度、各方向のモーメント状態、車輪スリップ状態等)の情報、操舵角の情報、車両前方の情報、ドアやウィンドウの状態の情報、エアコンの動作状態の情報、内外気温の情報、方向指示器の情報、ライトスイッチの情報、ワイパースイッチの情報等を取得する。また、ロボット対話装置13が直接取得した情報、つまり、操作部45に入力された指示情報や、マイクロフォン47に入力された音声情報も取得する。
【0053】
一方、S215では、カメラ54から映像情報、マイクロフォン56が捕らえた音声に基づく音声情報、センサ群57からセンサ情報を取得する。このうちセンサ情報は、肢体部51の各部に取り付けられたタッチセンサや角度センサ、肢体部51の腹部に取り付けられた加速度センサ、頭部に取り付けられた匂いセンサ等のセンサから得られるセンサ情報である。
【0054】
続くS220では、S210及びS215で取得した情報に基づいて、ペット型ロボット17及びロボット対話装置13の動作を決定する。ペット型ロボット17について言えば、肢体部51の動作(例えば頭部を動かしたり、前脚を上げたり等)やスピーカー55から音声を発したりといった動作を決定する。また、ロボット対話装置13について言えば、画像表示部41にペット型ロボット17の様子を表示させたり、スピーカー46からペット型ロボット17から取得した音声情報に基づく音声を出力させたりする動作を決定する。
【0055】
ペット型ロボット17とロボット対話装置13の動作が決定すると、決定した動作の中に、ペット型ロボット17の動作があるか否か、ロボット対話装置13に対する動作があるか否かを判定する(S225、S235)。
決定した動作の中にペット型ロボット17の動作がある場合(S225:Y)は、その動作指令に基づいて、肢体部51、カメラ54、スピーカー55を動作させる(S230)。具体的には、肢体部51を構成する頭部を動かしたり、前脚を上げたり、カメラ54で周囲の様子を撮影したり、スピーカー55から車両の情報を発話したりする。一方、決定した動作の中にペット型ロボット17の動作がない場合(S225:N)は、対話処理の開始位置(S210、S215の処理前)に戻る。
【0056】
また、決定した動作の中にロボット対話装置13への動作指令がある場合(S235:Y)は、通信部53を介してロボット対話装置13に動作指令を送信する(S240)。この動作指令の具体例としては、例えばロボット対話装置13の画像表示部41にロボットの様子を表示させたり、スピーカー46に発話させたりする動作指令である。一方、決定した動作の中にロボット対話装置13への動作指令がない場合(S235:N)は、対話処理の開始位置(S210、S215の処理前)に戻る。
【0057】
次に、ペット型ロボット17がロボット対話装置13から車両の情報等を取得しようとした際(S210)に、ロボット対話装置13の制御部42で実行される情報送信処理について図9のフローチャートを用いて説明する。
処理を開始するとまず、車両通信部43を介して制御系LAN31及びボデー系LAN32から各々に接続されたECUから種々の情報を取得する。具体的には、エンジンのスロットル開度や回転数の情報、ATのシフトポジションや軸トルクの情報、車両の姿勢状態(車両の速度及び加速度、各方向のモーメント状態、車輪スリップ状態等)の情報、操舵角の情報、車両前方の情報、ドアやウィンドウの状態の情報、エアコンの動作状態の情報、内外気温の情報、方向指示器の情報、ライトスイッチの情報、ワイパースイッチの情報等である。また、操作部45に入力された指令情報も取得する。また、マイクロフォン47に入力された音声情報も取得する(S260)。
【0058】
そして、取得したこれらの情報をロボット通信部44を介してペット型ロボット17に送信し(S265)、本処理(情報送信処理)を終了する。
次に、ペット型ロボット17の制御部52が、通信部53を介してロボット対話装置13に動作指令を送信した際(S240)に、ロボット対話装置13の制御部42で実行される動作実行処理について図10のフローチャートを用いて説明する。
【0059】
処理を開始するとまず、ロボット通信部44を介してペット型ロボット17から動作指令を受信する(S280)。この動作指令には、映像情報や音声情報等も含まれる。そして、動作指令を受信するとその動作指令に基づいて、画像表示部41に文字や画像を表示させたり、スピーカー46から音声を出力させたりする(S285)。これらの動作が終了すると(S285)、本処理(動作実行処理)は終了する。
【0060】
ここまでで、第1実施例と第2実施例を用いて対話処理について説明したが、次にこれらの実施例に共通な具体的な対話の例を説明する。
運転者が「今から出発するよ」とロボット対話装置13のマイクロフォン47に入力すると、ロボット対話装置13とペット型ロボット17とがお互いに通信し合い、ロボット対話装置13の画像表示部41にはロボットを表すモデルが表示される。そしてさらに、ロボット対話装置13のスピーカー46から「安全運転でね!」という音声が発せられる。画像表示部41に表示されるモデルは、図11に示す画面のように、ペット型ロボット17の実際の姿勢がモデル59によって表示される。図11では、対面するように着座している様子が示されている。
【0061】
運転者が運転を開始し、例えば方向指示器を右に動作させると、ペット型ロボット17は、右方向を向くと共にその方向をカメラ54で撮影を開始する。すると、ロボット対話装置13の画像表示部41には図12に示す画面のように、視点位置がモデル59の背後の位置に変わったモデル59が表示される。また、画面右上には、ペット型ロボット17のカメラ54で撮影された映像が映像表示領域61に表示される。また、画面下部の文字表示領域62には、「右ウィンカー」という車両の状態が文字で表示される。なお、図12に示す画面では、モデル59を臨む視点位置がモデル59の完全な背後ではないが、このように右斜め背後になっていてもよい。また、運転者が方向指示器を左に動作させた場合は、左斜め背後の視点位置になるようにモデル59を表示させるとよい。その場合は、映像表示領域61も左側に移動するとよい。
【0062】
このように、運転者は、ペット型ロボット17に代わって運転者の近傍に設置されたロボット対話装置13と対話を行うため、ペット型ロボット17の発した音声が聞き取れないといった問題や、逆にペット型ロボット17が運転者の音声を認識できないといった問題を解決することができる。また、ペット型ロボット17を後席に設置しても、ロボット対話装置13の画像表示部41にペット型ロボット17の様子を示すモデル59が表示されるようになっているため、運転者は運転中であってもペット型ロボット17の様子を確認することができる。
【0063】
以下、他の実施の形態について述べる。
(1)ロボット対話装置13は、単体で構成されていてもよいが、ナビゲーション装置と一体となっていてもよい。また、完全に一体ではなくナビゲーション装置の表示部だけをロボット対話装置13の画像表示部41として利用するようになっていてもよい。このような場合は、通常時は地図表示を行っている画面の左下に、ペット型ロボット17の様子を示す画面を表示させるようにし、必要時に音声操作等によってその画面が拡大表示されるようになっているとよい。
【0064】
(2)車両駐車時も、ロボット対話装置13に電源が供給されるように構成し、ペット型ロボット17を駐車時に番犬替わりに利用するようになっていてもよい。例えば、駐車時に車内に侵入されたことをペット型ロボット17が認識した場合や、ペット型ロボット17に登録されていない顔の人物が車両11に近づいた際に、車両11のクラクションを鳴らすようにして、異常を報知するようになっていてもよい。
【0065】
(3)上述したロボット対話装置13は運転者と対話することを想定していたが、もちろん助手席の乗員と対話するようになっていてもよい。また、例えば3列シートの車両であった場合、最後列のシートにロボット17が設置されているのであれば、中央列のシートの乗員がロボット17と対話できるように、前席列のシートの背面等にロボット対話装置13の画像表示部41やスピーカー46やマイクロフォン47が設置されていてもよい。
【図面の簡単な説明】
【図1】車両を上方から眺めた図である。
【図2】ロボット対話装置と車両との接続関係を説明するための図である。
【図3】ロボット対話装置の構成を説明するためのブロック図である。
【図4】ペット型ロボットの構成を説明するためのブロック図である。
【図5】対話をロボット対話装置が主導する場合の、対話処理のフローチャートである。
【図6】情報送信処理を説明するためのフローチャートである。
【図7】動作実行処理を説明するためのフローチャートである。
【図8】対話をペット型ロボットが主導する場合の、対話処理のフローチャートである。
【図9】情報送信処理を説明するためのフローチャートである。
【図10】動作実行処理を説明するためのフローチャートである。
【図11】ロボット対話装置の画像表示部に表示される画面例である。
【図12】ロボット対話装置の画像表示部に表示される画面例である。
【符号の説明】
11…車両、13…ロボット対話装置、15…運転者、17…ペット型ロボット、21…エンジンECU、22…AT−ECU、23…VSC−ECU、24…ステアリングECU、25…ACC−ECU、26…ドアECU、27…エアコンECU、28…メーターECU、31…制御系LAN、32…ボデー系LAN、41…画像表示部、42…制御部、43…車両通信部、44…ロボット通信部、45…操作部、46…スピーカー、47…マイクロフォン、51…肢体部、52…制御部、53…通信部、54…カメラ、55…スピーカー、56…マイクロフォン、57…センサ群、59…モデル、61…映像表示領域、62…文字表示領域

Claims (14)

  1. 車両に搭載されたロボットと通信を行う通信手段と、
    運転者の近傍に設置され、運転者に情報を報知する報知手段と、
    前記通信手段及び前記報知手段を制御する制御手段と、
    を備え、
    前記制御手段は、前記通信手段を介して前記ロボットから受信した情報に基づいて前記報知手段に情報を報知させることを特徴とするロボット対話装置。
  2. 請求項1に記載のロボット対話装置において、
    更に、運転者の近傍に設置され、運転者による指令を受け付ける指令受付手段を備え、
    前記制御手段は、前記指令受付手段が受け付けた指令に基づく情報を、前記通信手段を介して前記ロボットに送信することを特徴とするロボット対話装置。
  3. 請求項1又は請求項2に記載のロボット対話装置において、
    前記報知手段は、画像を表示することができる表示部を有し、
    前記制御手段は、前記ロボットの挙動をモデルを用いて前記報知手段の前記表示部に表示させることを特徴とするロボット対話装置。
  4. 請求項3に記載のロボット対話装置において、
    前記制御手段は、前記モデルを立体形状によって前記報知手段の前記表示部に表示させることを特徴とするロボット対話装置。
  5. 請求項3又は請求項4に記載のロボット対話装置において、
    前記制御手段は、前記モデルを、運転者と対面するように前記報知手段の前記表示部に表示させることを特徴とするロボット対話装置。
  6. 請求項4又は請求項5に記載のロボット対話装置において、
    更に、車両の状態を取得する車両状態取得手段を備え、
    前記制御手段は、前記車両状態取得手段が取得した車両の状態に応じ、前記モデルを立体形状で表示させる際の視点位置を変更することを特徴とするロボット対話装置。
  7. 請求項6に記載のロボット対話装置において、
    前記制御手段は、前記車両状態取得手段が取得した車両の状態から、方向指示器が動作している状態あるいはバックギアが入っている状態であると判断すると、前記モデルの背後から眺める視点位置で前記モデルを前記報知手段の前記表示部に表示させることを特徴とするロボット対話装置。
  8. 請求項1〜請求項7の何れかに記載のロボット対話装置において、
    前記制御手段は、前記ロボットが撮影した映像情報を前記通信手段を介して取得し、その映像情報に基づいた映像を前記報知手段の前記表示部に表示させることを特徴とするロボット対話装置。
  9. コンピュータを、請求項1〜請求項8の何れかに記載のロボット対話装置の制御手段として機能させるためのプログラム。
  10. 通信手段と、制御手段と、を備えたロボットであって、
    前記通信手段は、ロボット対話装置と通信を行い、
    前記制御手段は、当該ロボットの情報あるいは当該ロボットが取得した情報を前記通信手段を介して前記ロボット対話装置に送信することを特徴とするロボット。
  11. 請求項10に記載のロボットにおいて、
    前記制御手段は、前記通信手段を介して前記ロボット対話装置から送信された情報に基づいて当該ロボットの各部位を動作させることを特徴とするロボット。
  12. 請求項10又は請求項11に記載のロボットにおいて、
    更に、周囲を撮影する撮影手段を備え、
    前記制御手段は、前記撮影手段が撮影した映像情報を、前記通信手段を介して前記ロボット対話装置に送信することを特徴とするロボット。
  13. 請求項12に記載のロボットにおいて、
    前記制御手段は、前記通信手段を介して車両の方向指示器の動作状態に関する情報を取得し、車両の方向指示器が動作するとその動作方向を前記撮影手段に撮影させることを特徴とするロボット。
  14. コンピュータを、請求項10〜請求項13の何れかに記載のロボットの制御手段として機能させるためのプログラム。
JP2003088668A 2003-03-27 2003-03-27 ロボット、ロボット対話装置及びプログラム Pending JP2004291174A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003088668A JP2004291174A (ja) 2003-03-27 2003-03-27 ロボット、ロボット対話装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003088668A JP2004291174A (ja) 2003-03-27 2003-03-27 ロボット、ロボット対話装置及びプログラム

Publications (1)

Publication Number Publication Date
JP2004291174A true JP2004291174A (ja) 2004-10-21

Family

ID=33402736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003088668A Pending JP2004291174A (ja) 2003-03-27 2003-03-27 ロボット、ロボット対話装置及びプログラム

Country Status (1)

Country Link
JP (1) JP2004291174A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023017291A1 (ja) * 2021-08-11 2023-02-16 日産自動車株式会社 運転支援装置及び運転支援方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01209505A (ja) * 1988-02-17 1989-08-23 Toshiba Corp 遠隔操作ロボットの教示装置
JPH03281193A (ja) * 1990-03-30 1991-12-11 Toshiba Corp マスタスレーブマニピュレータ
JPH09212219A (ja) * 1996-01-31 1997-08-15 Fuji Facom Corp 三次元仮想モデル作成装置及び制御対象物の監視制御装置
JPH11207673A (ja) * 1998-01-29 1999-08-03 Mitsubishi Electric Corp 積載用ロボットの制御装置。
JP2002103258A (ja) * 2000-09-28 2002-04-09 Sony Corp オーサリング・システム及びオーサリング方法、並びに記憶媒体
JP2002166379A (ja) * 2000-09-19 2002-06-11 Toyota Motor Corp 移動体搭載用ロボット及びこれを搭載した移動体
JP2002204446A (ja) * 2000-12-28 2002-07-19 Matsushita Electric Ind Co Ltd 車載後方確認装置と車載ナビゲーション装置
JP2002205291A (ja) * 2000-10-23 2002-07-23 Sony Corp 脚式ロボット及び脚式ロボットの行動制御方法、並びに記憶媒体
JP2002233978A (ja) * 2001-02-02 2002-08-20 Sony Corp 移動ロボット及び移動ロボット間のデータ通信制御方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01209505A (ja) * 1988-02-17 1989-08-23 Toshiba Corp 遠隔操作ロボットの教示装置
JPH03281193A (ja) * 1990-03-30 1991-12-11 Toshiba Corp マスタスレーブマニピュレータ
JPH09212219A (ja) * 1996-01-31 1997-08-15 Fuji Facom Corp 三次元仮想モデル作成装置及び制御対象物の監視制御装置
JPH11207673A (ja) * 1998-01-29 1999-08-03 Mitsubishi Electric Corp 積載用ロボットの制御装置。
JP2002166379A (ja) * 2000-09-19 2002-06-11 Toyota Motor Corp 移動体搭載用ロボット及びこれを搭載した移動体
JP2002103258A (ja) * 2000-09-28 2002-04-09 Sony Corp オーサリング・システム及びオーサリング方法、並びに記憶媒体
JP2002205291A (ja) * 2000-10-23 2002-07-23 Sony Corp 脚式ロボット及び脚式ロボットの行動制御方法、並びに記憶媒体
JP2002204446A (ja) * 2000-12-28 2002-07-19 Matsushita Electric Ind Co Ltd 車載後方確認装置と車載ナビゲーション装置
JP2002233978A (ja) * 2001-02-02 2002-08-20 Sony Corp 移動ロボット及び移動ロボット間のデータ通信制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023017291A1 (ja) * 2021-08-11 2023-02-16 日産自動車株式会社 運転支援装置及び運転支援方法

Similar Documents

Publication Publication Date Title
JP6565859B2 (ja) 車両制御システム
JP4950475B2 (ja) 運転支援装置
JP6393537B2 (ja) 車両用装置、車両制御システム、車両制御方法
WO2016157816A1 (ja) 情報提示装置及び情報提示方法
US20190344828A1 (en) Parking assist apparatus
JP2015516772A (ja) 携帯型通信装置を使用した自動車の遠隔制御操縦
JP7256462B2 (ja) 駐車支援装置
JP6620564B2 (ja) 移譲制御装置
JP2017146744A (ja) ドライバ状態判定装置
CN112977428B (zh) 驻车辅助系统
JP7063652B2 (ja) 車両遠隔操作装置、車両遠隔操作システム及び車両遠隔操作方法
JP2019014398A (ja) 周辺監視装置
CN107134191A (zh) 交通工具操作者培训系统
KR20170070459A (ko) 차량 및 그 제어방법
JP2004291174A (ja) ロボット、ロボット対話装置及びプログラム
CN112977419B (zh) 驻车辅助系统
CN111469849B (zh) 车辆控制装置和车辆
CN111746436A (zh) 车辆的非接触操作装置和车辆
JP4007224B2 (ja) ロボット固定装置
CN111746512A (zh) 车辆控制系统
JP2008290631A (ja) 駐車支援装置
JP2004291176A (ja) ロボット、ロボット指示装置及びプログラム
JP2020121638A (ja) 表示制御装置
US20230311761A1 (en) Control device
US20230179757A1 (en) Control device, control method, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070315

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070904