JP4266211B2 - ロボット装置、ロボット装置の移動方法、および、プログラム - Google Patents

ロボット装置、ロボット装置の移動方法、および、プログラム Download PDF

Info

Publication number
JP4266211B2
JP4266211B2 JP2005083614A JP2005083614A JP4266211B2 JP 4266211 B2 JP4266211 B2 JP 4266211B2 JP 2005083614 A JP2005083614 A JP 2005083614A JP 2005083614 A JP2005083614 A JP 2005083614A JP 4266211 B2 JP4266211 B2 JP 4266211B2
Authority
JP
Japan
Prior art keywords
movement
position information
target
destination
instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005083614A
Other languages
English (en)
Other versions
JP2006263844A (ja
Inventor
敏之 古賀
康彦 鈴木
卓 吉見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005083614A priority Critical patent/JP4266211B2/ja
Priority to US11/265,200 priority patent/US7653458B2/en
Publication of JP2006263844A publication Critical patent/JP2006263844A/ja
Application granted granted Critical
Publication of JP4266211B2 publication Critical patent/JP4266211B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/12Target-seeking control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

ユーザからの移動要求に応じて移動するロボット装置、ロボット装置の移動方法、および、プログラムに関する。
従来より、産業用ロボットにおいては、目標物に対しトラッキング制御を行うといった明確に位置の定まっていない目標物に対する移動方法と、その後、初期位置に戻る移動方法とを繰り返し行うよう予めプログラミングし、動作させるものがあった。
また、自動車の自動走行に関し、通常時は既定経路に沿って走行し、障害物遭遇の可能性を推定し可能性が高まったときに、先行車両をカメラによるセンシングによって追従する走行軌跡経路に基づいて走行を行う、といった2つの走行(移動)方法を切り替えて移動を行うものがあった(例えば、特許文献1)。このような自動車における2つの移動方法の切り替えは、ロボット装置の移動に置き換えて考えた時、前者(既定経路による走行)は、ある静的な目的地までの移動経路を生成し、この移動経路に従って移動することに相当し、後者(走行軌跡経路による走行)は、ある動的な人(物)についていく移動経路を逐次生成し、この移動経路に従って移動することに相当する。
特開2004−78333公報
上記で説明した産業用ロボットでは、移動する目標物を追跡する移動方法と固定的な目的地への移動方法とを行うことができたが、産業用ロボットゆえに、これら方法の繰り返し手順を予め定めて利用するのみであった。
また、上記で説明した自動車の自動走行においては、既定経路による走行中に、走行軌跡経路による走行に切り替えることができたが、これは、ロボット装置に置き換えたときには、ひとつの目的を達成する際に生じた緊急時の割り込みによる切り替えに過ぎない。
一方、ロボット装置では、その移動方法として固定的な目的点への移動方法や移動する目標物を追跡する移動方法などの個々の技術については、様々な検討がなされているが、近年期待が高まってきている家庭等で自律的に動作するロボット装置へ、このような様々な移動技術をどのように組み合わせて利用するかについてはまだまだ未知であった。特に、自律的に移動するロボット装置では、上記した産業用ロボットで適用したような予め繰り返し手順を定めることはできない。
従って、上記問題点を解決するために、本発明は、ユーザからの指示に応じて、適切な移動方法で移動を行うロボット装置、ロボット装置の移動方法、およびプログラムを提供することを目的とする。
本発明は、自律的に動作を行うロボット装置において、自装置の移動を行う移動手段と、目標物の位置情報を定期的に取得する目標物位置取得手段と、移動先を固定の位置情報で指定され、現在の自装置の位置情報から該指定された位置情報までを移動させるよう前記移動手段を制御する第1移動制御手段と、移動先を目標物で指定され、該目標物の位置情報を前記目標物位置情報取得手段から定期的に得る毎に、現在の自装置の位置情報から目標物の位置情報へ向けた自装置の移動を繰り返させるよう前記移動手段を制御する第2移動制御手段と、ユーザから移動に係る指示を入力する指示入力手段と、前記指示入力手段で入力された移動に係る指示が、移動先を固定の位置情報で指定できるものであるか否かを判断し、指定できるものと判断した場合、前記第1移動制御手段へ移動先を固定の位置情報で与えて動作させ、指定できないものと判断した場合、前記第2移動制御手段へ移動先を目標物で与えて動作させる判断手段と、移動のための地図情報を記憶する記憶手段を備え、前記判断・指示手段は、入力された移動に係る指示が、前記地図情報に含まれているか否かを調べることにより、移動先を固定の位置情報で指定できるか否かを判断するようにした。
また、本発明は、自律的に動作を行うロボット装置において、自装置の移動を行う移動手段と、移動先を固定の位置情報で指定され、現在の自装置の位置情報から該指定された位置情報までを移動させるよう前記移動手段を制御する第1移動制御手段と、移動先を目標物で指定され、該目標物へついていくよう前記移動手段を制御する第2移動制御手段と、ユーザから移動に係る指示を入力する指示入力手段と、前記指示入力手段で入力された移動に係る指示が、移動先を固定の位置情報で指定できるものである場合には、前記第1移動制御手段へ移動先を固定の位置情報で与えて動作させ、移動する目標物である場合には、前記第2移動制御手段へ移動先を目標物で与えて動作させる判断手段と、移動のための地図情報を記憶する記憶手段を備え、前記判断・指示手段は、入力された移動に係る指示が、前記地図情報に含まれているか否かを調べることにより、移動先を固定の位置情報で指定できるか否かを判断するようにした。
また、本発明は、自装置の移動を行う移動手段と、指定された目標物の位置情報を定期的に取得する目標物位置取得手段と、移動先を固定の位置情報で指定され、現在の自装置の位置情報から該指定された位置情報までを移動させるよう前記移動手段を制御する第1移動制御手段と、移動先を目標物で指定され、該目標物の位置情報を前記目標物位置情報取得手段から定期的に得る毎に、現在の自装置の位置情報から目標物の位置情報へ向けた自装置の移動を繰り返させるよう前記移動手段を制御する第2移動制御手段と、移動のための地図情報を記憶する記憶手段とを備え、自律的に動作を行うロボット装置の移動方法において、ユーザから移動に係る指示を入力し、前記指示入力手段で入力された移動に係る指示が、移動先を固定の位置情報で指定できるものであるか否かを判断し、指定できるものと判断した場合、前記第1移動制御手段へ移動先を固定の位置情報で与えて動作させ、指定できないものと判断した場合、前記第2移動制御手段へ移動先を目標物で与えて動作させ、入力された移動に係る指示が、前記地図情報に含まれているか否かを調べることにより、移動先を固定の位置情報で指定できるか否かを判断するようにした。
また、本発明は、自装置の移動を行う移動手段と、目標物の位置情報を定期的に取得する目標物位置取得手段と、移動のための地図情報を記憶する記憶手段とを備え、自律的に動作を行うロボット装置に実行させるプログラムであって、移動先を固定の位置情報で指定され、現在の自装置の位置情報から該指定された位置情報までを移動させるよう前記移動手段を制御する第1プログラムコードと、移動先を目標物で指定され、該目標物の位置情報を前記目標物位置情報取得手段から定期的に得る毎に、現在の自装置の位置情報から目標物の位置情報へ向けた自装置の移動を繰り返させるよう前記移動手段を制御する第2プログラムコードと、ユーザから移動に係る指示を入力を受け付ける第3プログラムコードと、前記第3プログラムコードの実行により受け付けられた移動に係る指示が、移動先を固定の位置情報で指定できるものであるか否かを判断し、指定できるものと判断した場合、前記第1プログラムコードへ移動先を固定の位置情報で与えて動作させ、指定できないものと判断した場合、前記第2プログラムコードへ移動先を目標物で与えて動作させる第4プログラムコードと、入力された移動に係る指示が、前記地図情報に含まれているか否かを調べることにより、移動先を固定の位置情報で指定できるか否かを判断する第5のプログラムコードとを備えた。
本発明によれば、ユーザからの指示に応じて、適切な移動方法によって移動を行うことができるロボット装置が実現できる。
以下、本発明の実施の形態を図面を用いて説明する。
図1は、本実施の形態のロボット装置の外観を示しており、(a)は正面から見た図であり、(b)が側面から見た図である。本実施の形態のロボット装置は、人間と類似した形状であって、図1中、1は首を含む顔部、2は胴部、3はアーム部、4は移動部を示している。
顔部1は、音声を出力するスピーカ11を含む口部5と、音声を入力するマイク12を含む2つの耳部6と、外部の映像を入力するカメラ13を含む2つの目部7とを備えている。アーム部3は、手や、幾つかの関節を備え、人間の型、腕、手に相当する動きを行うものである。
移動部4は、タイヤ8を4つ備えており、ロボット装置が移動する床面に対し、ロボット装置(の全体)を直進・後退したり左右へ方向を変えたりするもので、人間の足に相当する。
胴部2は、ロボット装置の中心的な部位であり、顔部1(の首)、アーム部3、移動部4とそれぞれ回転機構を介して接続されており、また、胴部2の内部には、ロボット装置の動作や情報処理などの制御全般を行うロボットシステム10が内蔵されている。
図2は、ロボットシステム10のシステム構成を示している。
ロボットシステム10は、ロボット装置自身の動作や処理を決定するためのシステム制御部21と、システム制御部21で動作や処理を決定するための情報(以下、制御入力情報と称す)を入力したり、システム制御部21で決定された動作や処理の指示情報(以下、制御出力情報と称す)を受けて実行するための各種サブシステム22・・・27とに大別される。
音声処理サブシステム22は、A/D変換やD/A変換、音声認識、音声合成などの音声処理全般を行うものであって、マイク12を介して入力された外界の音声のうち、システム制御部21で必要とされる制御入力情報をシステム制御部21へ供給したり、システム制御部21や音声処理サブシステム22の内部で生成したロボット装置が外界へ発する言葉、等をスピーカ11を介して音声出力するための処理を行ったりするものである。また、音声処理サブシステム22は、例えば、入力した音声認識が上手く出来なかった時に、システム制御部21を介すことなく、音声合成を介して聞き返すといった音声出力を自動的に行う(音声処理サブシステム22の内部で閉じて処理される)ような処理を含んでいても良い。
画像処理サブシステム23は、カメラ13から入力された画像を画像認識し、画像認識された情報のうちシステム制御部21で必要とされる制御入力情報を全体制御部21へ供給するものである。また、画像処理サブシステム23は、二つのカメラ13を用いた三角測量法による撮像対象物の距離測定を行なう処理を含む。更に、画像処理サブシステム23は、撮像を繰り返し行ってカメラ13の方向を撮像対象を常に追跡するよう制御する、従来より良く知られるトラッキング機能を備える。
アームサブシステム24は、システム制御部21から制御出力情報を受け取って、アーム部3の各関節の物理駆動量を決定しアーム部3を動作させるものである。胴回転サブシステム25は、システム制御部21から制御出力情報を受け取って、移動部4に対する胴部2の物理回転量を決定し胴部2を回転動作させるものである。首回転サブシステム26は、システム制御部21から制御出力情報を受け取って、胴部2に対する顔部1(の首)の物理回転駆動量を決定し、顔部1(の首)を回転動作させるものである。移動サブシステム27は、システム制御部21から制御出力情報を受け取って、各タイヤ8の回転量を決定(直進の場合は単一に決定しても良い)し、各タイヤ8を回転動作させるものである。なお、一定時間内における回転量を調整することによって、速度を調整することも可能である。
システム制御部21は、ロボット装置自身の動作や処理を決定するものであり、外界の状態や内部の状態(例えば、ロボット装置の姿勢、バッテリー残量、等)を制御入力情報として受け取って、例えば、予め定めたルールなどに従って一以上の動作や処理を決定し、それら動作や処理が可能な一以上のサブシステムへ制御出力情報を出力する。また、例えば計算処理などの静的な処理は、サブシステムで行わせること無くシステム制御部21で行うようにしても良い。
なお、上記の説明において、全てのサブシステム22−27間はシステム制御部21を経由するように示したが、サブシステム21−27間で直接データのやり取りを行う場合もあってもよい。また、システム制御部21及び各サブシステム22−27は、特に図示していないが、少なくともプロセッサと揮発性メモリとを備えており、更に必要に応じて、不揮発性メモリを備えていても良いことは勿論である。
なお、本実施の形態のロボット装置は、上記のサブシステム22〜27を備えるようにしたが、これらに限らず他に、例えば、無線機能や表示機能などが必要なロボット装置を提供する場合には、無線通信処理を行う無線サブシステムや、別途表示装置を取り付けるとともに表示制御を行う表示サブシステムや、該表示サブシステムと連動しユーザからタッチすることにより入力をなどを行えるタブレットサブシステムなど、様々なサブシステムを備えるようにしてもよい。
次に、図3は、本実施の形態の移動制御に係る機能ブロックを示した図である。
ユーザは、発話や、タブレットを介したボタン選択、文字記述や、ジェスチャー(身振り)などの入力方法によってロボット装置へ行ってもらいたい要求を行う。このユーザの要求は、マイク12や、タブレット(図示しない)や、カメラ13などの入力装置を介して、ユーザ指示変換部31へ入力される。
ユーザ指示変換部31は、入力されたユーザの要求を、その入力方法に応じた認識、解析などの諸処理を行うことにより、予め定められた内部データ形式に変換し、変換結果を出力する。なお、この変換結果を以後、ユーザ命令と呼ぶこととする。
ここで、例えば発話による入力の場合には、ユーザ指示変換部31は、マイク12から入力されたアナログ信号をデジタル変換し、音声認識、意味解析、等をおこなって、ユーザ命令を出力する。また、例えばタブレットによるボタン選択の場合には、ユーザ指示変換部31は選択されたボタンが示す情報に対応するユーザ命令を出力し、また文字記述の場合には、ユーザ指示変換部31は文字認識、意味解析、等をおこなって、ユーザ命令を出力する。また、例えばジェスチャーによる入力の場合には、ユーザ指示変換部31は、カメラ13から順次入力された画像から、特徴抽出、動き抽出、動きに対する意味解析処理、等をおこなって、ユーザ命令を出力する。
ここで、ユーザ指示変換部31の一例として、ユーザがロボット装置へ行ってもらいたい要求を発話によって行われた際の例を図4を用いて説明する。
ユーザからの要求は、音声としてマイク12から入力され、入力されたアナログ信号をA/D変換部41によって、デジタル信号に変換され、音声認識部42へ入力される。
音声認識部42は、入力されたデジタル信号を音声認識用辞書43を用いて認識し、認識結果としてテキストデータを出力するものである。
意味解析部44は、入力されたテキストデータを意味解析用辞書45を用いて意味解析し、解析結果に基づいて、予め定めた内部データ形式に従うユーザ命令を生成し出力する。例えば、「キッチンへ行って」、「リモコンを取って」などの単純なユーザの要求であれば、意味解析を特に行う必要はないが、「(初期位置へ)戻って」、「Aさんのこと見ていて」などの文章の理解が必要なユーザの要求であれば、ユーザが意図することを考慮した意味解析が必要である。従って、意味解析部44を備えることにより、様々なユーザの要求を受理することができるようになる。また、内部データ形式の一例として、ここでは、「述語:目的語(:前置詞)」の形式で出力するとする。例えば、ユーザ発話による入力が「キッチンへ行って」の場合には「go:kitchen:to」となる。
なお、ここで示した例の変形例としては、例えば、ユーザからの音声入力できる語彙に制約を持たせれば(言い換えれば複雑な文脈などは対象とせず予め定めた単純な命令のみ扱えるようにすれば)、意味解析部44及び意味解析用辞書45は不要になる。この場合、音声認識用辞書43の代わりに、音声入力とユーザ命令とを予め対応付けたユーザ命令付き音声認識−ユーザ命令対応辞書を予め格納しておけば良い。
図3の説明に戻る。
タスク生成部32は、ユーザ指示変換部31から出力されたユーザ命令を入力し、このユーザ命令に基づいて、ユーザ命令を解決するためのロボット装置の動作を決定し、その動作を実現させるための指示として一以上のタスクを生成する。なお、生成されるタスクが複数ある場合には、その実行順(並列実行を含む)なども規定される。
ここでタスク生成部32がユーザ命令からタスクを生成するまでの一例を示す。ユーザが発話した「ビールを取って」のユーザ命令が「take:beer」である場合に、ロボット装置は、例えば、今いる位置から冷蔵庫まで行くタスク、冷蔵庫を開けるタスク、ビールを見つけるタスク、ビールを掴むタスク、冷蔵庫を閉めるタスク、ユーザのそばまで移動するタスク、といった一連のタスクをこの順で行う必要がある。従って、タスク生成部32は、これらの各タスクを生成し、及び、この順序で実行するよう規定する。なお、ここでは理解しやすいように、各タスクを分かりやすい言葉で説明したが、実際は、これらタスクは、後述する各機能処理部で実行できる形式の表現となっていることは勿論である。つまり、タスクは、一つの機能処理部に指示するためのレベルで表現される。
また、説明を簡単にするために記載を省略したが、タスク生成部32は、外界の状況(例えば、障害物がある、暗い、暑い、・・・)や内部の状態(例えば、どの方向を向いている、右アームを上げている、発話中、・・・)が加味されて決定されるものであり、本実施の形態においても同様である。
次に、タスク実行指示部33は、タスク生成部32で生成されたタスクのうち、移動に係るタスクを除くタスクを、機能処理部34・・・34へ供給することにより実行指示する。一方、タスク実行指示部33は、タスク生成部32で生成されたタスクがロボット装置の移動に係るタスクの場合には、移動方法判断・指示部35へ供給する。タスク実行指示部33は、例えば、各タスクとそれを処理する機能処理部、または、後述の移動方法判断・指示部34の名称(識別子)を対応付けたテーブル(図示しない)を備えておくことにより、タスク生成部32からのタスクを一意の機能処理部34または移動方法判断・指示部35へ指示できる。
機能処理部34・・・34は、実際に機能を実行する部位、例えば、アーム駆動、や、話す、などの各機能を処理する各部位のことを指すが、ここでは、本実施の形態には直接的に関係しないので、詳細な説明を省略する。
移動方法判断・指示部35は、タスク実行指示部33からタスクを入力すると、そのタスクが固定的な目的地への移動を示すタスクであるか否かを判断するものである。この場合の判断は、例えば、ロボット装置の移動可能な領域内の固定的な目標物を予め登録したリストを備えておき、タスクに含まれる移動先の対象と一致するものがリストにあるか否かによって判断できる。この場合の一例を以下に詳細に説明する。
ロボット装置は、自己位置や移動のために図5に示すような地図情報を予め備えている。この地図情報内には、固定されており位置がはっきりと定まっている物体(以下、固定物とする)を含んでいる。各固定物には、識別するための名称やコードなどの識別情報と、これらの固定物の地図座標系における座標値・物体の大きさの寸法値などの位置情報が付与されている(図示しない)。なお、ここでは画像の形式で示したが、実際にはリストの形式で持っていても良い。
まず、移動方法判断・指示部35は、(移動の)タスクが入力されると、そのタスクに含まれる目標物が地図情報上の何処にあるのかを検索し、見つかった場合には、その位置情報を得る。例えば、“キッチンへ行く”を示すタスクの場合、目標物が“キッチン”となるため、地図情報から“キッチン”を検索する。図5に示した地図情報内に“キッチン”があるため、移動方法判断・指示部35は、そのタスクが固定的な目的地への移動を示すタスクであると判断する。また、このとき目標物である“キッチン”の位置情報も得ておく。なお、この位置情報は、キッチンの周辺のうちの一点であればよい。
一方、目標物が地図上のどこにも存在しない場合には、固定物ではないと判断する。例えば、“Aさんに付いて行く”という意味のタスクであった場合、目標物が“Aさん”となり、地図情報から“Aさん”を検索する。しかし、“Aさん”は位置がはっきりと決まっている対象ではないため、地図情報内には存在しない。そのため、移動方法判断・指示部35は、そのタスクが固定的な目的地への移動を示すタスクでないと判断する。
なお、以下では、固定的な目的地(物)への移動である場合を位置移動と呼ぶこととして、また、固定的な目的地(物)への移動で無い場合を目標物移動と呼ぶこととする。
図3の説明に戻る。
移動方法判断・指示部35は、位置移動であると判断した場合には位置移動制御部36へ、目標物移動であると判断した場合には追跡移動制御部37へ、タスクを供給する。
位置移動制御部36は、移動方法判断・指示部35で得た位置情報を入力し、固定的な目的地の位置を特定し、その位置へ移動するための経由点、順序などを規定した移動経路情報を生成する。この生成された移動経路情報は、一旦生成されると、移動中断など特殊な事情が起きない限り変更されないものである。位置移動制御部36は、生成された移動経路情報に基づいて、移動部4へ例えばタイヤ8の回転速度などを逐次供給し、目的の位置へロボット装置を導く。この位置移動制御部36は、まず、予め経路生成を行い、その後、その生成された経路に沿って移動を行うというシーケンス制御を行う。
ここで、位置移動制御部36にて、定められた初期位置へ戻る移動を例にとって、図6のフローチャートを用いて説明する。
位置移動制御部36は、移動方法判断・指示部35で取得された“初期位置”に対応する位置情報を入力する(S11)。位置移動制御部36は、地図情報を利用して、ロボット装置内の内部情報である自己の現在の位置情報を始点とし、入力された“初期位置”の位置情報を終点とする移動経路を生成する(S12)。
この移動経路生成にあたっては、まず、地図情報に含まれる固定物の位置情報を参照し、経路の障害となる固定物を避けるように、経路を修正する。この経路が生成された後、線分や円弧などの単純な基本形状に分割し、その分割点を経由点として経路上に追加する。この経由点から次の経由点へ向かう経路を、分割経路とする。このようにして分割経路を組み合わせて移動経路が生成される。なお、ロボット装置の自己の現在の位置情報は、例えば、移動している際に常時デッドレコニングを行うことに取得しても良く、また、よく知られるマーカ利用による自己位置検出機能などで取得しても良い。また、実際の移動中には、自己位置検出機能を用いて自己位置情報を補正し、移動経路を補正することにより、終点への移動に対する信頼性が向上する。
次に、位置移動制御部36は、生成された移動経路内の各分割経路における、移動時の始点から終点における速度値列または加速度値列を動作計画として作成する(S13)。これらの動作計画作成の方針としては、例えば、安全に移動することを優先することや短い時間で到達できることを優先することなどが挙げられ、この方針に基づいて具体的な動作計画作成の手法が決定される。動作計画の作成の例として、分割経路が円弧であった場合には低速で移動し、分割経路が直線であった場合には高速で移動するという動作計画作成手法が設定されていたとした場合、経由点を経過するときに分割経路が円弧から直線に切り替わるときに速度値が変化するが、この速度値を滑らかに変化させるように、速度値を設定するように計画を作成することとなる。
位置移動制御部36は、分割経路に対応する動作計画を、順次、移動部4へ送る(S14)。
このようにして動作計画が順次送られてくると、移動部4では、この順次送られてくる動作計画に基づいてアクチュエータ制御を行う(S15)。例えば、移動部4が車輪とこれを動かすよう接続されたステッピングモータ・モータドライバから成り立つとすれば、動作計画から速度値を取得し、これをステッピングモータへの信号値に変換し、モータドライバからステッピングモータへ出力するというループを行う。
図3の説明に戻る。
一方、追跡移動制御部37は、移動方法判断・指示部35で位置情報が得られなかったので、目標物が入力され、その目標物を目標物位置取得部38を用いて特定する。
目標物位置取得部38は、例えば、カメラなどの画像センサを用いて画像情報を取得し、この画像情報から目標物を検出し、その位置・方向などの情報から目的地点の位置情報を算出する。また、例えば、音を常時発するものであれば、音の方向を常時検出する音源センサを用いて、音源情報を取得し、この音源情報から目標物を検出し、その位置・方向などの情報から目標物の位置情報を算出する。また、例えば、目標物に指向性無線タグを備えていれば、そのタグの方向が取得でき、無線の強度などにより遠近を把握するようにしてもよい。このように、目標物位置取得部38は正確な位置情報が得られることが望ましいが、必ずしもこの限りではない。
目標物位置取得部38の一例を図7の機能ブロックで説明する。この例は、カメラ13により取得した画像情報から目標物を抽出することにより、その目標物の相対距離・角度を算出することにより、目標物の相対的な位置情報を得るものである。
オブジェクト抽出部51は、カメラから入力された画像情報に含まれるオブジェクトを抽出するものである。
画像情報テンプレート部52は、目標物となる多数の画像情報を予めテンプレートとして格納するものである。
マッチング処理部53は、オブジェクト抽出部51で抽出されたオブジェクトと、画像情報テンプレート部に格納されているテンプレートから目標物のテンプレートを取り出して比較し、最も類似度の高いオブジェクトを定める。
位置算出部54は、この画像情報内における目標物の位置や目標物の大きさと、予め設定されているカメラの画角・倍率などのカメラパラメータ情報から、目標物の相対距離・方向角度値などの位置情報を算出する。
このような機能ブロックで構成される目標物位置取得部38は、追跡移動制御部37で1つの目標物の追跡を行っている間、逐次同じオブジェクトの位置情報を算出し続ける。
図3の説明に戻る。
追跡移動制御部37は、目標物位置取得部38から得られた目標物の位置情報を得て、その位置へ移動するための移動経路を常時生成する。この常時生成される移動経路情報に基づいて、移動部4へ例えばタイヤ8の回転速度などを逐次供給し、目標物の位置へロボット装置を導く。この追跡移動制御部37は、常時、最新の目標物を検知し、常時そこから目標物までの移動経路を生成して常時移動を行うというループ制御を行う。
ここで、追跡移動制御部37にて、Aさんに追従する移動を例にとって、図8のフローチャートを用いて説明する。
追跡移動制御部37は、移動方法判断・指示部35でタスクに含まれた“Aさん”を入力する(S21)。追跡移動制御部37は、目標物を識別する“Aさん”なる情報を目標物位置取得部38へ供給する(S22)。そして、追跡移動制御部37は、上記で説明したように“Aさん”の位置情報を算出した目標物位置取得部38から“Aさん”の位置情報を取得する(S23)。
追跡移動制御部37は、この位置情報からその近傍の到達点の位置情報を設定する(S24)。到達点の設定は、例えば、目標物の位置をそのまま到達点の位置と設定することが挙げられる。また、“追従する”という動作を、“目標物と自分との距離を一定に保つように移動する”ことであると定義した場合には、Aさんと自分とを結ぶ線分上で、且つ、Aさんから設定値だけ離れた点を到達点としたり、Aさんの過去の位置情報から移動方向を求め、その移動方向に沿うような到達点として(つまり、“移動しているAさんの一定距離後ろに常に居る”ように保つような到達点として)設定を行うことなどが挙げられる。
そして、追跡移動制御部37は、地図情報を利用して、ロボット装置内の内部情報である自己の現在の位置情報を始点とし、設定された到達点の位置情報を終点とする移動経路を生成する(S25)。もし、この移動経路が複雑であるようであれば、この後に、上記の位置移動制御部36で説明したように、分割経路を生成しても良い。
そして、追跡移動制御部37は、生成した経路または分割経路における速度値列または加速度値列を動作計画として作成する(S26)。この動作計画の作成は位置移動制御部36で説明した方法と同様でよい。
作成された動作計画が移動部4へ送られ、移動部4では、この送られてくる動作計画に基づいて、上記位置移動制御部36で説明した方法と同様に、アクチュエータ制御を行う(S27)。
ところで、追跡移動制御部37は、以上の一連の処理動作中、例えば所定期間ごとに、“Aさん”の位置情報を算出した目標物位置取得部38から“Aさん”の位置情報を取得する。すると、現在の処理を中止して、“Aさん”の新たな位置情報、および、その時のロボット装置の位置情報に基づいて、ステップS24以降繰り返され、最新の移動経路によって動作する。
上記で説明した追跡移動制御部37のフローチャートでは、都度位置情報を算出していたが、これに代え、目標物の方向と相対距離とを用いて制御する方法でもよい。この場合、目標物の方向へ相対距離が予め定めた閾値以下にならないよう、速度制御すれば目標物へ衝突の危険性が避けられる。また、計算負荷も小さくなり、より高速に最新の移動経路を求めることが可能になる。
以上詳細に説明した本実施の形態によれば、ユーザからの指示を判断し適切な移動制御方法を用いて移動することが可能になった。特に、ユーザの指示次第で、位置移動制御も、追跡移動制御も、適切に選択することができるようになった。
本実施の形態のロボット装置の外観を示す図。 本実施の形態のロボットシステム10のシステム構成を示す図。 本実施の形態の移動制御に係る機能ブロックを示した図。 本実施の形態のユーザ指示変換部31の一例。 地図情報の一例。 位置移動制御部36における、定められた初期位置へ戻る移動の一例に沿ったフローチャート。 目標物位置取得部38の一例。 追跡移動制御部37における、Aさんに追従する移動の一例に沿ったフローチャート。
符号の説明
1・・・顔部、2・・・胴部、3・・・アーム部、4・・・移動部、
5・・・口部、6・・・耳部、7・・・目部、8・・・タイヤ
10・・・ロボットシステム、11・・・スピーカ、12・・・マイク、13・・・カメラ
21・・・システム制御部、22・・・音声処理サブシステム
23・・・画像処理サブシステム、24・・・アームサブシステム
25・・・胴回転サブシステム、26・・・首回転サブシステム
27・・・移動サブシステム
31・・・ユーザ指示変換部、32・・・タスク生成部、33・・・タスク実行指示部
34・・・機能処理部、35・・・移動方法判断・指示部、
36・・・位置移動制御部、37・・・追跡移動制御部、38・・・目標物位置取得部
41・・・A/D変換部、42・・・音声認識部、43・・・音声認識用辞書
44・・・意味解析部、45・・・意味解析用辞書
51・・・オブジェクト抽出部51
52・・・画像情報テンプレート部
53・・・マッチング処理部
54・・・位置算出部

Claims (9)

  1. 自律的に動作を行うロボット装置において、
    自装置の移動を行う移動手段と、
    目標物の位置情報を定期的に取得する目標物位置取得手段と、
    移動先を固定の位置情報で指定され、現在の自装置の位置情報から該指定された位置情報までを移動させるよう前記移動手段を制御する第1移動制御手段と、
    移動先を目標物で指定され、該目標物の位置情報を前記目標物位置情報取得手段から定期的に得る毎に、得られた目標物の位置情報へ向けて移動させるよう前記移動手段を制御する第2移動制御手段と、
    ユーザから移動に係る指示を入力する指示入力手段と、
    前記指示入力手段で入力された移動に係る指示が、移動先を固定の位置情報で指定できるものであるか否かを判断し、指定できるものと判断した場合、前記第1移動制御手段へ移動先を固定の位置情報で与えて動作させ、指定できないものと判断した場合、前記第2移動制御手段へ移動先を目標物で与えて動作させる判断手段と
    移動のための地図情報を記憶する記憶手段を備え
    前記判断・指示手段は、入力された移動に係る指示が、前記地図情報に含まれているか否かを調べることにより、移動先を固定の位置情報で指定できるか否かを判断するようにしたことを特徴とするロボット装置。
  2. 前記第1移動制御手段は、現在の自装置の位置情報から前記指定された位置情報までの移動経路を生成し、生成された移動経路に基づいて前記移動手段を移動させるよう制御し、
    前記第2移動制御手段は、該目標物の位置情報を前記目標物位置情報取得手段から定期的に得る毎に、現在の自装置の位置情報から目標物の位置情報に向けた移動経路を生成、更新し、更新された移動経路に基づいて自装置の移動を繰り返させるよう制御するようにしたことを特徴とする請求項1に記載のロボット装置。
  3. 前記移動経路は、地図上の絶対位置に基づくことを特徴とする請求項記載のロボット装置。
  4. 前記移動経路は、自装置に対する方向、距離に基づくことを特徴とする請求項記載のロボット装置。
  5. 前記目標物位置取得手段は、前記第2移動制御手段に指定された目標物を含む画像をカメラで撮影し、撮影された該画像に基づいて位置情報を算出するようにしたことを特徴とする請求項1乃至請求項の何れかに記載のロボット装置。
  6. 前記指示入力手段は、ユーザの発話を音声入力し、音声認識して得た認識結果を解決するための動作を決定し、その動作を実現させるために生成された指示を入力するものであることを特徴とする請求項1乃至請求項の何れかに記載のロボット装置。
  7. 自律的に動作を行うロボット装置において、
    自装置の移動を行う移動手段と、
    移動先を固定の位置情報で指定され、現在の自装置の位置情報から該指定された位置情報までを移動させるよう前記移動手段を制御する第1移動制御手段と、
    移動先を目標物で指定され、該目標物へついていくよう前記移動手段を制御する第2移動制御手段と、
    ユーザから移動に係る指示を入力する指示入力手段と、
    前記指示入力手段で入力された移動に係る指示が、移動先を固定の位置情報で指定できるものである場合には、前記第1移動制御手段へ移動先を固定の位置情報で与えて動作させ、移動する目標物である場合には、前記第2移動制御手段へ移動先を目標物で与えて動作させる判断手段と
    移動のための地図情報を記憶する記憶手段を備え
    前記判断・指示手段は、入力された移動に係る指示が、前記地図情報に含まれているか否かを調べることにより、移動先を固定の位置情報で指定できるか否かを判断するようにしたことを特徴とするロボット装置。
  8. 自装置の移動を行う移動手段と、指定された目標物の位置情報を定期的に取得する目標物位置取得手段と、移動先を固定の位置情報で指定され、現在の自装置の位置情報から該指定された位置情報までを移動させるよう前記移動手段を制御する第1移動制御手段と、移動先を目標物で指定され、該目標物の位置情報を前記目標物位置情報取得手段から定期的に得る毎に、得られた目標物の位置情報へ向けて移動させるよう前記移動手段を制御する第2移動制御手段と、移動のための地図情報を記憶する記憶手段とを備え、自律的に動作を行うロボット装置の移動方法において、
    ユーザから移動に係る指示を入力し、
    前記指示入力手段で入力された移動に係る指示が、移動先を固定の位置情報で指定できるものであるか否かを判断し、指定できるものと判断した場合、前記第1移動制御手段へ移動先を固定の位置情報で与えて動作させ、指定できないものと判断した場合、前記第2移動制御手段へ移動先を目標物で与えて動作させ、入力された移動に係る指示が、前記地図情報に含まれているか否かを調べることにより、移動先を固定の位置情報で指定できるか否かを判断するようにすることを特徴とするロボット装置の移動方法。
  9. 自装置の移動を行う移動手段と、目標物の位置情報を定期的に取得する目標物位置取得手段と、移動のための地図情報を記憶する記憶手段とを備え、自律的に動作を行うロボット装置に実行させるプログラムであって、
    移動先を固定の位置情報で指定され、現在の自装置の位置情報から該指定された位置情報までを移動させるよう前記移動手段を制御する第1プログラムコードと、
    移動先を目標物で指定され、該目標物の位置情報を前記目標物位置情報取得手段から定期的に得る毎に、得られた目標物の位置情報へ向けて移動させるよう前記移動手段を制御する第2プログラムコードと、
    ユーザから移動に係る指示を入力を受け付ける第3プログラムコードと、
    前記第3プログラムコードの実行により受け付けられた移動に係る指示が、移動先を固定の位置情報で指定できるものであるか否かを判断し、指定できるものと判断した場合、前記第1プログラムコードへ移動先を固定の位置情報で与えて動作させ、指定できないものと判断した場合、前記第2プログラムコードへ移動先を目標物で与えて動作させる第4プログラムコードと
    入力された移動に係る指示が、前記地図情報に含まれているか否かを調べることにより、移動先を固定の位置情報で指定できるか否かを判断する第5のプログラムコードとを備えたことを特徴とするロボット装置に実行させるプログラム。
JP2005083614A 2005-03-23 2005-03-23 ロボット装置、ロボット装置の移動方法、および、プログラム Expired - Fee Related JP4266211B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005083614A JP4266211B2 (ja) 2005-03-23 2005-03-23 ロボット装置、ロボット装置の移動方法、および、プログラム
US11/265,200 US7653458B2 (en) 2005-03-23 2005-11-03 Robot device, movement method of robot device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005083614A JP4266211B2 (ja) 2005-03-23 2005-03-23 ロボット装置、ロボット装置の移動方法、および、プログラム

Publications (2)

Publication Number Publication Date
JP2006263844A JP2006263844A (ja) 2006-10-05
JP4266211B2 true JP4266211B2 (ja) 2009-05-20

Family

ID=37036215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005083614A Expired - Fee Related JP4266211B2 (ja) 2005-03-23 2005-03-23 ロボット装置、ロボット装置の移動方法、および、プログラム

Country Status (2)

Country Link
US (1) US7653458B2 (ja)
JP (1) JP4266211B2 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4611675B2 (ja) * 2004-06-30 2011-01-12 本田技研工業株式会社 顧客応対ロボット
US8060251B2 (en) * 2004-12-06 2011-11-15 Honda Motor Co., Ltd. Interface for robot motion control
ATE522330T1 (de) * 2005-09-30 2011-09-15 Irobot Corp Robotersystem mit kabelloser kommunikation mittels tcp/ip übertragung
JP5549129B2 (ja) 2009-07-06 2014-07-16 セイコーエプソン株式会社 位置制御方法、ロボット
KR101604752B1 (ko) * 2009-08-06 2016-03-18 엘지전자 주식회사 이동 냉장고 및 이를 포함한 이동 냉장고 시스템
US8452451B1 (en) * 2011-05-06 2013-05-28 Google Inc. Methods and systems for robotic command language
KR101910382B1 (ko) * 2011-12-08 2018-10-22 엘지전자 주식회사 자동 이동 장치 및 그 수동 조작 방법
WO2013088499A1 (ja) * 2011-12-12 2013-06-20 三菱電機株式会社 位置決め装置、及びplcシステム
US9025856B2 (en) 2012-09-05 2015-05-05 Qualcomm Incorporated Robot control information
US9764468B2 (en) 2013-03-15 2017-09-19 Brain Corporation Adaptive predictor apparatus and methods
JP5713047B2 (ja) * 2013-04-18 2015-05-07 株式会社安川電機 移動ロボット、移動ロボットの位置決めシステム、及び、移動ロボットの位置決め方法
CN104162894B (zh) * 2013-05-17 2016-03-02 光宝电子(广州)有限公司 清扫机器人及清扫机器人的定位方法
US9314924B1 (en) * 2013-06-14 2016-04-19 Brain Corporation Predictive robotic controller apparatus and methods
US9630318B2 (en) 2014-10-02 2017-04-25 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
US10471611B2 (en) 2016-01-15 2019-11-12 Irobot Corporation Autonomous monitoring robot systems
JP6348947B2 (ja) 2016-11-07 2018-06-27 オリンパス株式会社 移動撮影装置、移動撮影指示装置、撮影機器、移動撮影システム、移動撮影方法及び移動撮影指示方法
US10100968B1 (en) 2017-06-12 2018-10-16 Irobot Corporation Mast systems for autonomous mobile robots
CN107703973B (zh) * 2017-09-11 2021-08-31 广州视源电子科技股份有限公司 轨迹跟踪方法、装置
JP2019161606A (ja) 2018-03-16 2019-09-19 オリンパス株式会社 移動撮像システム、学習方法、移動撮像装置、情報取得制御装置、情報取得制御方法及び情報取得制御プログラム
CN110399114B (zh) * 2018-04-24 2023-08-04 深圳市优必选科技有限公司 控制机器人进行视频监控的方法、装置及终端设备
US10792813B1 (en) 2018-04-26 2020-10-06 X Development Llc Managing robot resources
US11110595B2 (en) 2018-12-11 2021-09-07 Irobot Corporation Mast systems for autonomous mobile robots
KR20200094396A (ko) * 2019-01-30 2020-08-07 삼성전자주식회사 전자 장치 및 복수의 액션들을 포함하는 태스크를 결정하는 방법
KR20200101221A (ko) * 2019-02-19 2020-08-27 삼성전자주식회사 사용자 입력 처리 방법 및 이를 지원하는 전자 장치
US11416002B1 (en) * 2019-06-11 2022-08-16 Ambarella International Lp Robotic vacuum with mobile security function
CN110308669B (zh) * 2019-07-27 2021-07-30 南京市晨枭软件技术有限公司 一种模块机器人自修复仿真系统及方法
US20220043443A1 (en) * 2020-08-04 2022-02-10 Passion Mobility Ltd. Smart Navigation System

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188555A (ja) 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
JP2002189519A (ja) 2000-12-21 2002-07-05 Mitsubishi Heavy Ind Ltd 追跡システム、及び、追跡方法
JP3906743B2 (ja) 2002-05-27 2007-04-18 松下電工株式会社 案内ロボット
JP4059033B2 (ja) 2002-08-12 2008-03-12 日産自動車株式会社 走行経路生成装置
JP4331453B2 (ja) 2002-09-30 2009-09-16 セコム株式会社 搬送ロボット

Also Published As

Publication number Publication date
JP2006263844A (ja) 2006-10-05
US20060217837A1 (en) 2006-09-28
US7653458B2 (en) 2010-01-26

Similar Documents

Publication Publication Date Title
JP4266211B2 (ja) ロボット装置、ロボット装置の移動方法、および、プログラム
KR102281515B1 (ko) 개인화 언어 모델을 이용하여 사용자의 음성을 인식하는 인공 지능 장치 및 그 방법
JP3906743B2 (ja) 案内ロボット
JP4276624B2 (ja) ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
JP5392028B2 (ja) 自律移動ロボット
JP5366048B2 (ja) 情報提供システム
JP2008158868A (ja) 移動体、及びその制御方法
KR20150076627A (ko) 차량 운전 학습 시스템 및 방법
EP2068275A2 (en) Communication robot
JP2007260822A (ja) 道案内ロボット
JP2007160440A (ja) 脚式移動ロボットの制御装置
JP2009222969A (ja) 音声認識ロボットおよび音声認識ロボットの制御方法
US20190344428A1 (en) Robot
JP5411789B2 (ja) コミュニケーションロボット
JP2008087140A (ja) 音声認識ロボットおよび音声認識ロボットの制御方法
JP5776544B2 (ja) ロボットの制御方法、ロボットの制御装置、及びロボット
US20160267909A1 (en) Voice recognition device for vehicle
US11241790B2 (en) Autonomous moving body and control program for autonomous moving body
JP2009113190A (ja) 自律動作型ロボットおよび自律動作型ロボットの動作制御方法
JP2011224679A (ja) 応対ロボット、応対制御方法、及び応対制御プログラム
JP4611675B2 (ja) 顧客応対ロボット
JP2011224737A (ja) 案内ロボット、案内方法、及び案内制御用プログラム
JP2007265329A (ja) 道案内システム
JP3768957B2 (ja) 移動ロボットの経路設定方法
JP4764377B2 (ja) 移動型ロボット

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061031

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090210

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090213

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140227

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees