JP2014516816A - モバイルロボットによる移動対象物のトラッキング及びフォローイング - Google Patents

モバイルロボットによる移動対象物のトラッキング及びフォローイング Download PDF

Info

Publication number
JP2014516816A
JP2014516816A JP2014515894A JP2014515894A JP2014516816A JP 2014516816 A JP2014516816 A JP 2014516816A JP 2014515894 A JP2014515894 A JP 2014515894A JP 2014515894 A JP2014515894 A JP 2014515894A JP 2014516816 A JP2014516816 A JP 2014516816A
Authority
JP
Japan
Prior art keywords
robot
sensor data
tracking
environment
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014515894A
Other languages
English (en)
Inventor
エフ.,ザ サード オリヴィエ,チャールズ
セバスティアン フイヤード,ジャン
フェロン,エイドリアン
コール,ジェフリー
ティー. クリントン,ナサニエル
サンチェス,ラッセル
ブリアネク,フランソワ
エム. チャラビ,マレク
ナラヤナ キッケリ,ハルシャヴァルダナ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2014516816A publication Critical patent/JP2014516816A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D3/00Control of position or direction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

ロボットは、センサーデータを使用して対象物をトラックし、ユーザーによって選択された対象物をフォローする。対象物は、ロボットによって認識された一式の対象物からユーザーにより指定され得る。ロボット及び対象物の相対的な位置及び方向が判断される。ロボットの位置及び方向は、対象物とロボットとの間の所望の関係を維持するように使用され得る。ロボットのナビゲーションシステムを使用することで、移動の最中に、障害物を避けることができる。ロボットがトラックされている対象物を見失った場合、ロボットは、対象物が再取得されるまで、環境をナビゲーションして捜索を継続することができる。

Description

本発明は、モバイルロボットによる移動対象物のトラッキング及びフォローイングに関する。
モバイルロボットの動作は、ロボットに対して、所定の方向で、示されたパス(path)に沿って、または、所定の位置に向かって移動するように指示することによって一般的にコントロールされる。ロボットはセンサーを含んでおり、それにより、示された方向で、示された位置に向かって、または、示されたパスに沿って移動している最中に障害物を避けることができる。
例えば、一般的にロボットは、ライブビデオ配信を見ているオペレーターによって遠く離れてコントロールされる。ビデオは、しばしばロボット上のカメラによって提供される。ビデオを見ながら、オペレーターは、ロボットに対して種々の方向に移動し、かつ、種々のオペレーションを実行するように指令することができる。こうした種類のコントロールにおける一つのチャレンジは、ロボット上のカメラおよびマイクロフォンの位置を頻繁に調整する必要があることである。
別の例として、一般的にロボットは、種々のタスクを実行するために部屋を移動するように指示される。こうしたタスクは、掃除をしたり、写真を撮ったり、他のセンサー入力を収集することである。こうしたタスクの最中に、ロボットは自律的に移動することができ、障害物を避け、従って、ほとんど又は全くオペレーターからコントロールされていない。
ロボットはセンサーを含んでおり、それにより、示された方向で、示された位置に向かって、または、示されたパスに沿って移動している最中に障害物を避けることができる。こうした種類のコントロールにおける一つのチャレンジは、ロボット上のカメラおよびマイクロフォンの位置を頻繁に調整する必要があることである。
本概要は、以降の詳細な説明でより詳しく記述される本発明の概念について、簡素化された形式において代表的な概念の選択を紹介するものである。本概要は、特許請求された技術的事項の主要な特徴または本質的な特徴を特定することを意図するものではない。また、特許請求された技術的事項の範囲を限定するために使用されることを意図するものではない。
人間のように、官能データを使用して対象物を特定してトラック(track)するロボットの能力を、対象物の位置と方向を測定する能力と組合わせることによって、ロボットは、対象物をトラックしてフォロー(follow)するように指示され得る。トラックされる対象物は人間であってよい。多くの例において、顔面又は頭といった、対象物の一部分だけを認識しトラックすることで、対象物を認識しトラックすることができる。
対象物は、例えば、ロボットのセンサー入力に適用される種々のパターン認識技術を使用して認識され得る。例えば、顔面認識又は形状認識が、画像データに対して適用され得る。音声認識又は音源位置特定が、一式のマイクロフォンによって集音された音響データに対して適用されてよい。
ユーザーは、現地にいても、離れていてもよい。現地ユーザーは、彼又は彼女の声もしくは他のユーザー入力に基づいて、彼自身又は彼女自身を含めて、対象物をフォローするようにロボットに対して指示を与えることができる。
選択された対象物が与えられると、対象物とロボットの相対的な位置および方向を定めることができる。x、y座標と方向といったものである。そして、動作コントロールシステムは、トラックされる対象物に対して所定の相対的な位置および方向を維持するようにロボットの動作をコントロールする。この動作の最中に、従来の障害物回避技術を使用して、障害物を避けることができる。いくつかの場合には、障害物が、トラックされる対象物をそれによって認識するセンサー情報を遮ってしまう。この場合、ロボットは、対象物を再び捉えるために試行するように、最後に知った対象物の方向といった、環境をナビゲート(navigate)して探索し続けることができる。対象物が再び捉えられれば、トラックが継続される。
従って、一つの態様において、対象物をトラックしてフォローするプロセスは、ロボットからのセンサーデータをメモリーの中に受取ることを含んでいる。ロボットの環境における対象物は、そのセンサーデータを使用してトラックすることができる。ロボットは、一つまたはそれ以上のトラックされる対象物に関して相対的な位置および方向を維持するように、移動の指示がなされる。ロボットの移動は、センサーデータを使用して障害物を避けるようにコントロールされる。
別の態様において、対象物をトラックしてフォローするためのコンピューターマシンは、対象物認識モジュールを含んでおり、ロボットの環境からのセンサーデータを受取る入力と、環境において認識された対象物を示す出力とを有している。トラッキング及びフォローイングモジュールは、トラックされるべく選択された対象物を示す入力と、その選択された対象物をフォローするためのロボットの位置及び方向を示す出力とを有している。ナビゲーションモジュールは、その位置及び方向を受取る入力と、ロボットの動作コントロールシステムに対する、障害物を避けるためのパスに沿った所望の位置及び方向に移動するようにロボットに指示する出力とを有している。
一つの実施例において、ユーザーは一つまたはそれ以上のトラックされる対象物を選択することができ、ロボットがフォローする。ユーザーには、トラックされる対象物が示されたライブビデオ配信が提供され得る。
別の実施例においては、もし、対象物のトラックにおいてその対象物を見失った場合、プロセスは、さらに、見失った対象物を再び捉えるように試行する。見失った対象物を再び捉える試みは、ロボットの位置及び方向の調整を含み得る。
一つの実施例において、2つのロボットがセッション(session)を維持して、環境における一人の人間をトラックしてフォローすることができる。このように、異なる場所にいる二人の人間が、それぞれにロボットを用いて、お互いに「訪問(“visit”)」、例えば、お互いに見聞きする、ことができる。両方のロボットが、それぞれの関係者をトラックしフォローしている場合には、これらをカメラフレームの中に捉え続けている。各人は、それぞれのロボットを彼自身又は彼女自身をフォローするように指示することができる。その人に関してロボットの相対的な位置及び方向を維持することによって、カメラとマイクロフォンは、その人に向けられたままであり得る。
以降の説明においては、添付の図面が参照される。図面は、明細書の一部を構成しており、説明図として、本技術に係る所定の実施例が示されている。本発明開示の範囲を逸脱することなく、他の実施例が使用され、構成の変更がなされ得ることが理解されるべきである。
図1は、モバイルロボットシステムの一つの実施例のブロックダイヤグラムである。 図2は、トラック及びフォローの実施例を説明するフローチャートである。 図3は、図2のシステムのオペレーションを説明するフローチャートである。 図4は、ロボットのテレプレゼンス(telepresence)アプリケーションの設定例を説明するフローチャートである。 図5は、こうしたシステムが実施され得るコンピューターデバイスのブロックダイヤグラムである。
以降の節では、ロボットによるトラッキング及びフォローイングが実行され得る動作環境の実施例が提供される。図1を参照すると、モバイルロボット100は、いくつかのコンポーネントを有している。
センサー102は、周囲の環境及び環境における対象物104に関する情報を検知する。センサー102は、ロボットシステムの他の部分に対する入力としてセンサーデータ106を提供する。センサーの実施例は、これらに限定されるわけではないが、一つまたはそれ以上のカメラ、一つまたはそれ以上のマイクロフォンを含んでいる。マイクロフォンアレイ(array)、赤外線検知器、および、近接検知器、といったものである。センサーによって提供されたセンサーデータ106によって、対象物が認識及びトラックされ、または、障害物が避けられる限りにおいて、本発明は、センサー102の特定の設定または構成に限定されるものではない。
対象物認識モジュール108は、対象物、および、ロボット100に関するスペース(space)における対象物の位置および方向を特定するためにセンサーデータ106を使用する。動作コントロールモジュール110は、ロボット100の動作の方向及び速度をコントロールする。ナビゲーションモジュール112は、障害物回避及び他のパスフォロープロセスに基づいて、動作コントロールモジュールに対して方向114を決定する。対象物認識、動作コントロール、および、ナビゲーションシステムは、当業者にとって知られた多くの方法のうちあらゆるもので実施されてよく、本発明はそれらに限定されるものではない。
定期的なタイムフレーム(time frame)において、対象物認識モジュールは、認識される対象物116に関する情報を提供する。それぞれの対象物の位置及び方向、および、対象物の識別子といった、対象物を記述する情報を含むものである。対象物を認識するために、ロボットのセンサー入力に対して種々のパターン認識技術が適用され得る。例えば、対象物認識モジュール108は、ビデオ情報を使用して、所定の形状又は顔面を特定するために画像を処理することができる。近接検知器は、ロボット100に対する対象物の距離に関する情報を提供することができる。時間にわたり画像を処理して、対象物をトラックすることにより、対象物認識モジュール108は、対象物が移動しているかどうかを判断することができる。音源位置特定は、人間及び彼又は彼女の声といった、音を出している対象物の位置を特定するために使用され得る。対象物認識モジュール108は、認識された対象物116に関する情報を、ユーザーインターフェイス118及びトラッキング及びフォローイングモジュール112に対して提供されるが、以降に、より詳細に説明される。
多くのアプリケーションにおいて、認識されトラックされるべき対象物は人間である。認識及びトラッキングは、顔面といった、対象物の一部を認識することができる。対象物が一旦認識されると、対象物の一点又は領域をモニターすることによって、対象物をトラックすることができる。例えば、ロボットが人間をフォローする場合に、ロボットは最初に顔面を認識し、次に、胴体上の一点又は領域をフォローする。
一つの実施例において、ユーザーインターフェイス118により、ユーザーは、認識された対象物に関する情報を見ることができ、ロボット100によってトラックされフォローされるべき対象物がどれかを示すユーザー選択120を提供することができる。ユーザー選択120は、ロボット100のトラッキング及びフォローイングモジュール122に対して提供される。トラッキング及びフォローイングモジュールは、対象物トラックモジュール108からの情報を使用してロボットがどのように対象物をトラックしてフォローするかを決定し、ナビゲーションモジュール112に対して指示する。別の実施例において、ユーザーインターフェイスは、オペレーターの指示を判断するためにセンサーデータを処理する。例えば、ユーザーは「フォロー(“follow”)」と言ったり、ユーザー選択120を提供するためにジェスチャーすることができる。視野において認識された人間又は対象物をフォローするよう、ロボット100に指示する。
このコンテクスト(context)において、トラッキング及びフォローイングモジュール122の実施例が、図2−4に関して、より詳細に説明される。
図2において、このモジュールの実施例に係るブロックダイヤグラムは、対象物フォローイングモジュール200を含んでおり、認識された対象物202に関する情報を受け取る。この情報は、例えば、認識された対象物及びその位置のそれぞれに対する識別子を含んでいる。現在のユーザー選択204の表示は、対象物フォローイングモジュールに、トラックされるべき対象物に関して指示をする。
認識された対象物202及びユーザー選択204に関する情報が与えられると、対象物フォローイングモジュール200は、いくつかのモードでいくつかのオペレーションを実行する。最初に、選択された対象物が無い場合は、対象物フォローイングモジュール200は待ちモードにあり、ユーザー選択を待つ。
フォローイングのための対象物が選択された場合、対象物フォローイングモジュール200はトラッキングモードを開始する。トラッキングモードにおいては、対象物の位置が元の位置からの閾値距離以内に留まっているか、そうでなければ、ロボットの視界の中に留まっている場合に、ロボットは移動しない。例えば、モジュール200は、画像における対象物が、ロボットの視界の中の境界ボックスの中にあるかを判断することができる。同様に、モジュールは、対象物の深度、または、ロボットと対象物との間の距離が既定の範囲以内にあるかを判断することもできる。トラックされる対象物の位置が著しく変化する場合、対象物フォローイングモジュールは、トラックされる対象物をフォローするためにロボットが移動されるべきであることを、位置計算モジュール206に知らせる。対象物フォローイングモジュール200は、位置計算モジュール206に対して対象物に関する情報208を提供する。対象物の位置、方向、および、移動の方向及び速度といったものである。
位置計算モジュール206は、トラックされる対象物に関する情報208を受取り、出力としてロボットの新たな位置214を提供する。これは、新たなx、y座標であり、または、新たな方向であり、またはその両方である。例えば、ロボットは、45度回転するように指示されてもよい。ロボットは、対象物に関する所望の相対的な位置及び方向に一致するように、その位置及び方向を変更することができる。新たな位置情報214は、ロボットのナビゲーションコントロールシステムに対して提供される。
選択された対象物が、もはや認識された対象物に関する情報の中に見つからない場合、モジュール200は、再取得モードに入り、対象物再取得モジュール210に、「対象物喪失(“object lost”)」メッセージ212といった知らせをし、認識された対象物に関する他の情報を伝える。例えば、対象物の移動方向及び速度は有効な情報になり得る。
ユーザー選択204が与えられると、対象物再取得モジュール210は、ロボットの移動を含めて、どのように対象物を再び捜し出すかを決定する。モジュール210は、ロボットの新たな位置214を決定する。例えば、対象物の方向及び速度が与えられれば、現在のロボットの位置からロボットが移動する新たな位置、および、その新たな位置へ移動するための速度を計算することができる。ロボットの環境に関して利用可能な情報に基づいて、他の技術を使用してもよい。
対象物が再取得されるか、再取得がタイムアウト(time out)又はユーザーのいずれかによって終了されるまで、対象物再取得モジュールは、対象物喪失に関する情報、および、認識された対象物に関して受取った情報を使用して対象物を再び捜し出す。特に、対象物再取得モジュールは、与えられたタイムフレームにおいて認識された対象物に関する情報を、喪失した対象物に関して持っている情報と比較する。一致が見出された場合、一致した対象物は、今や、対象物フォローイングモジュール200によってトラックされるべき新たな対象物となる。対象物再取得モジュールは、一致した対象物に関する情報を対象物フォローイングモジュールへ戻して、トラックキングが再開する。
図2のシステムに係るオペレーションを説明するフローチャートが、図3に関してこれから説明される。
プロセスは、ロボットが対象物をトラックしてフォローするように従事させられた後で始まる。対象物をトラッキングしフォローイングする場合、ロボットは対象物の動作を、位置又はサイズの変化といったことにより、ロボットは対象物の動作を検知する。特に、ロボットは、位置及び速度を含んで、対象物の3次元データをトラックする。動作が検知された場合、ロボットは、その動作量がロボットを移動させるか、または、他のいくつかの反応をさせるのに、十分足りているかどうかを判断する。例えば、ロボットは、相対的な距離及び方向が所定の境界の中にあるかを判断する。所定の境界は、アプリケーションまたはロボットの使用に依存する。トラックされる対象物の方向がトラックできる場合、ロボットが対象物と「向かい合っている(“facing”)」こと、または、方向が対象物に関して所望の方向に一致していることを保証するようにロボットを移動させるために、この方向の情報が使用される。
対象物及びロボットの相対的な位置及び方向が既定の境界値の中に無い場合には、ロボットの位置及び方向が調整され得る304。所望の位置及び方向が与えられれば、アプリケーション又はロボットの使用に従ってナビゲーションシステムによって移動のパス及び速度が決定され得る。例えば、ナビゲーションシステムは、最短のパスをフォローしてもよいし、対象物への距離のクローズ(close)なフォローイングを維持してもよい。ナビゲーションは、また、対象物によってフォローされた同一のパスをフォローするように試みてもよい。
ロボットに対する他の反応も、また、提供されてよい。例えば、カメラ、マイクロフォン、または、他のセンサーの位置が変更されてもよい。ロボットが他に動作可能なパーツを有している場合、特定のパーツだけが移動され得る。ロボットの状態を示す他の情報、又はその表現が提供されてもよい。ロボットがトラックされた対象物の喪失を懸念していることを示すために、例えば、音響またはディスプレイが出力され得る。
ロボットが、対象物の動作に対して反応した後で、ロボットは対象物のトラック300を継続する。トラッキングが失敗した場合、プロセスは、対象物を再取得するステップ308を用いて継続する。可能性のある対象物が見つかり、310で判断されるように、元の対象物との一致がなされた場合、プロセスは対象物のトラッキング300に戻る。そうでなければ、システムは、対象物の再取得308の試行を継続する。
図4をここで参照すると、対象物のトラッキング及びフォローイングを開始するためのプロセスが今から説明される。図1では、ユーザーインターフェイスによって、ユーザーは認識された対象物について知らされ、トラッキングする対象物を選択することができる。一つの実施例として、ロボットのテレプレゼンス(telepresence)セッションは、ロボットからのライブビデオ配信400を提供する。このセッションは、典型的には、通信リンクを通じてロボットと接続されたリモートコンピューター上で実行されているクライアントアプリケーションとして実施される。ロボットの対象物認識モジュールは、対象物の位置を計算し、この情報をクライアントアプリケーションに対して送付する402。クライアントアプリケーションのためのユーザーインターフェイスは、ライブビデオ配信における対象物を特定404する情報を表示することができる。認識された対象物の表示のオーバーレイ(oberlay)といったものである。そして、ユーザーは、対象物を選択する404ことができ、その選択はロボットに対して送付される406。選択を受取ると、ロボットは、対象物に対するトラック及びフォローモードに入る408。ユーザーインターフェイスは、また、ユーザーが、このモードをキャンセルし、または、フォローする新たな対象物又は人間を選択できるようにするためのメカニズムを備えている。
ロボットにより対象物をトラックしてフォローするこの技術を使用して、多くのアプリケーションを実施することができる。例えば、ロボットのテレプレゼンスセッションは、選択された対象物をフォローするようにロボットに指示することで簡素化することができる。ロボットは、また、オペレーターによって、そのオペレーター又は別の対象物をフォローするように指示されてもよい。ロボットに移動するように指示するタスクからオペレーターを自由にしている。
一つの実施例においては、2つのロボットがセッションを維持し、それぞれのロボットが環境における人間をトラックしてフォローすることができる。このようにして、異なる場所にいる二人の人間が、それぞれのロボットを用いて、お互いを「訪問する(“visit”)」、例えば、お互いに見聞きする、ことができる。それぞれのロボットが、それぞれの環境を動き回る際にである。両方のロボットが、それぞれの関係者をトラックしフォローしている場合には、彼らをカメラのフレームの中に捉え続けている。それぞれの人間は、それぞれのロボットに対して彼自身又は彼女自身をフォローするように指示することができる。人間に関して相対的な位置と方向を維持することによって、カメラとマイクロフォンをその人間について向け続けることができる。
実施例について説明してきたので、今から、そうしたシステムがオペレーションするようにデザインされたコンピューター環境について説明する。以降の記述は、このシステムを実施することができる好適なコンピューター環境について簡素で一般的な説明を提供することを意図したものである。システムは、数多くの汎用目的又は特定目的のコンピューターハードウェア構成を用いて実施することができる。モバイルロボットは、典型的には、他のよく知られたコンピューターデバイスと類似の演算能力を有している。パーソナルコンピューター、ハンドヘルド又はラップトップデバイス(例えば、メディアプレーヤー、ノートブックコンピューター、携帯電話、パーソナルデータアシスタンス、ボイスレコーダー)、マルチプロセスシステム、マイクロプロセッサベースのシステム、セットトップボックス、ゲームコンソール、プログラム可能な家電製品、等といったものである。ロボットのためのコントロールシステムは、また、ロボットから分離及び/又は離れたコンピューター上にあるので、ここにおいて説明されるロボットシステムを実施するために他のコンピューターマシンを使用することもできる。
図5は、好適なコンピューターシステム環境の実施例を示している。コンピューターシステム環境は、好適なコンピューター環境の一つの実施例に過ぎず、こうしたコンピューター環境の使用又は機能性の範囲に関していかなる限定をすることも意図されていない。コンピューター環境は、動作環境の実施例において説明されたあらゆるコンポーネントの一つ又は組合せに関していかなる依存も又は要求もしないものと理解されるべきである。
図5について、コンピューター環境の実施例は、コンピューターマシン500といった、コンピューターマシンを含んでいる。最も基本的な構成において、コンピューターマシン500は、典型的には、少なくとも一つのプロセッサユニット502とメモリー504を含んでいる。コンピューターデバイスは、複数のプロセッサユニット及び/又はグラフィックプロセッサユニット520といった追加のコプロセッサユニットを有してもよい。コンピューターデバイスの的確な構成及びタイプによって、メモリー504は、揮発性(RAMといったもの)、不揮発性(ROM,フラッシュメモリー、等といったもの)、または、両者のある組合せであってよい。この最も基本的な構成は、図5において破線506によって示されている。加えて、コンピューターデバイス500は、また、追加の特性/機能性を有する。例えば、コンピューターマシン500は、また、追加のストレージ(リムーバブル及び/又は非リムーバブル)を含んでよい。これらに限定されるわけではないが、磁気又は光ディスク、または、テープを含むものである。こうした追加ストレージは、図5において、リムーバブルストレージ508及び非リムーバブルストレージ510によって示されている。コンピューターストレージ媒体は、揮発性及び不揮発性、リムーバブル及び非リムーバブル媒体を含んでおり、情報ストレージのためのあらゆる方法又は技術において実施される。情報は、コンピュータープログラムインストラクション、データ構造、プログラムモジュール、又は、他のデータといったものである。メモリー504、リムーバブルストレージ508、および、非リムーバブルストレージ510は、全てコンピューターストレージ媒体の実施例である。コンピューターストレージ媒体は、これらに限定されるわけではないが、RAM、ROM、EEPROM、フラッシュメモリー又は他のメモリー技術、CD−ROM、デジタル多目的ディスク(DVD)又は他の光ストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ又は磁気ストレージデバイス、または、所望の情報を保管するために使用でき、コンピューターマシン500によってアクセスされ得る他のあらゆる媒体、を含んでいる。こうしたコンピューターストレージ媒体のあらゆるものが、コンピューターマシン500の部分であり得る。
コンピューターマシン500は、また、デバイスが他のデバイスと通信できるようにするコミュニケーション接続512を含んでいる。コミュニケーション接続512は、コミュニケーション媒体の一つの実施例である。コミュニケーション媒体は、典型的には、コンピューターで読み取り可能なインストラクション、データ構造、プログラムモジュール、または、搬送波または他の伝送メカニズムといった、変調されたデータ信号における他のデータ、を包含する。コミュニケーション媒体は、また、あらゆる情報配送媒体を含む。用語「変調されたデータ信号(“modulated data signal”)」は、一つまたはそれ以上の特徴セットを有する信号、または信号中の情報をエンコードするといった方法で変更された信号を意味する。実施例として、かつ、限定するものではなく、コミュニケーション媒体は、有線ネットワークまたは直接有線接続といった有線媒体、および、音響、RF、赤外線、そして他の無線媒体といった無線媒体を含む。
コンピューターマシン500は、ディスプレイ、キーボード、マウス、ペン、カメラ、タッチ入力デバイス、等といった種々の入力デバイスを有している。スピーカー、プリンター、等といった出力デバイス516も、また、含まれている。こうしたデバイスの全ては、従来技術としてよく知られたものであり、ここにおいて詳しく説明する必要はない。
こうしたシステムは、ソフトウェアの一般的なコンテクスト(context)において実施され得る。プログラムモジュールといった、コンピューターで実行可能なインストラクション及び/又はコンピューターで解釈されるインストラクションであり、コンピューターマシンによって処理されるものである。一般的に、プログラムモジュールは、ルーチン、プログラム、オブジェクト、コンポーネント、データ構造、等を含み、プロセッサユニットによって処理されると、プロセッサユニットに対して所定のタスク又は所定の抽象的なデータタイプを実行するように指示する。このシステムは、分散コンピューター環境において実施されてもよい。タスクは、コミュニケーションネットワークを通じてリンクされた離れたプロセッサデバイスによって実行される。分散コンピューター環境において、プログラムモジュールは、メモリストレージデバイスを含むローカル及びリモート両方のコンピューターストレージ媒体の中に存在し得る
添付の請求項のプリアンブルにおける用語「製品」、「方法」、「マシン」、および、「組合せ」は、米国特許法第101条におけるこれらの用語の使用によって定義される特許可能な技術的事項の範囲内にあるものと考えられる技術的事項に請求項を限定するように意図されたものである。
ここにおいて説明されたあらゆる又は全ての前出の代替的な実施例は、追加のハイブリッドな実施例を形成するために望まれるあらゆる組合せにおいて使用され得るものである。添付の請求項において定められる技術的事項は、上述の所定の実施例に必ずしも限定されるものではないことが理解されるべきである。上述の所定の実施例は、単なる例として開示されたものである。

Claims (10)

  1. コンピューターで実施される方法であって:
    センサーデータをロボットからメモリーの中へ受取るステップと;
    前記センサーデータを使用して、前記ロボットの環境の中の一つまたはそれ以上の対象物をトラックするステップと;
    一つまたはそれ以上のトラックされる前記対象物に関して前記ロボットの相対的な位置及び方向を維持して移動するように前記ロボットに対して指示するステップと;
    前記センサーデータを使用して、障害物を避けるように前記ロボットの移動をコントロールするステップと、を含む、
    ことを特徴とする方法。
  2. 前記方法は、さらに、
    ユーザーに対してライブビデオ配信を提供して、前記ライブビデオ配信においてトラックされる対象物を示すステップと、を含む、
    請求項1に記載の方法。
  3. 対象物のトラッキングにおいて対象物を見失った場合に、
    前記方法は、さらに、
    前記ロボットの位置及び方向を調整することによって、見失った前記対象物を再取得するように試行するステップと、を含む、
    請求項2に記載の方法。
  4. トラックされる前記対象物は人間であり、さらに、第2の環境において第2ロボットを備えており、前記方法は:
    センサーデータを第2ロボットからメモリーの中へ受取るステップと;
    前記センサーデータを使用して、前記第2ロボットの環境の中の人間をトラックするステップと;
    前記第2の環境においてトラックされる前記人間に関して前記ロボットの相対的な位置及び方向を維持して移動するように前記第2ロボットに対して指示するステップと;
    前記センサーデータを使用して、障害物を避けるように前記ロボットの移動をコントロールするステップと、を含む、
    請求項1に記載の方法。
  5. コンピューターストレージ媒体と;
    前記コンピューターストレージ媒体に保管されたコンピュータープログラムであり、プロセッサデバイスによって処理されると、前記プロセッサデバイスに対してプロセスを実行するように指示するコンピュータープログラムと、を含み、
    前記プロセスは、
    センサーデータをロボットからメモリーの中へ受取るステップと;
    前記センサーデータを使用して、前記ロボットの環境の中の対象物をトラックするステップと;
    一つまたはそれ以上のトラックされる前記対象物に関して前記ロボットの相対的な位置及び方向を維持して移動するように前記ロボットに対して指示するステップと;
    前記センサーデータを使用して、障害物を避けるように前記ロボットの移動をコントロールするステップと、を含む、
    ことを特徴とする製品。
  6. ロボットの環境からのセンサーデータを受取る入力と、前記環境において認識された対象物を示す出力と、を有する対象物認識モジュールと;
    トラックされるべく選択された対象物を示す入力と、その選択された対象物をフォローするためのロボットの位置及び方向を示す出力と、を有するトラッキング及びフォローイングモジュールと;
    前記位置及び方向を受取る入力と、前記ロボットの動作コントロールシステムに対する、障害物を避けるためのパスに沿った所望の位置及び方向に移動するようにロボットに指示する出力と、を有するナビゲーションモジュールと、を含む、
    コンピューターマシン。
  7. 前記トラッキング及びフォローイングモジュールは、前記認識された対象物に関する情報を受取る入力と、前記選択された対象物が既定の境界の中にあるかどうかを示す出力と、を有する対象物認識モジュールと、を含む、
    請求項6に記載のコンピューターマシン。
  8. 前記トラッキング及びフォローイングモジュールは、前記選択された対象物が既定の境界の中にあるかどうかを示す前記出力を受取る入力と、前記境界の中に前記対象物があるように前記ロボットに対して位置及び方向を提供する出力と、を有する位置計算モジュールと、を含む、
    請求項7に記載のコンピューターマシン。
  9. 前記トラッキング及びフォローイングモジュールは、前記対象物に関する情報を受取る入力と、前記ロボットに対して移動して前記選択された対象物を再取得するように試行するために所望の位置及び方向を提供する出力と、を有する対象物再取得モジュールと、を含む、
    請求項8に記載のコンピューターマシン。
  10. 前記コンピューターマシンは、さらに、
    前記認識された対象物に関する情報をユーザーに提供し、かつ、前記認識された対象物のうちの一つをユーザーが選択できるようにするメカニズムを有する、ユーザーインターフェイスを含む、
    請求項9に記載のコンピューターマシン。
JP2014515894A 2011-06-13 2012-06-10 モバイルロボットによる移動対象物のトラッキング及びフォローイング Pending JP2014516816A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/158,465 US20120316680A1 (en) 2011-06-13 2011-06-13 Tracking and following of moving objects by a mobile robot
US13/158,465 2011-06-13
PCT/US2012/041797 WO2012173901A2 (en) 2011-06-13 2012-06-10 Tracking and following of moving objects by a mobile robot

Publications (1)

Publication Number Publication Date
JP2014516816A true JP2014516816A (ja) 2014-07-17

Family

ID=47293824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014515894A Pending JP2014516816A (ja) 2011-06-13 2012-06-10 モバイルロボットによる移動対象物のトラッキング及びフォローイング

Country Status (6)

Country Link
US (1) US20120316680A1 (ja)
EP (1) EP2718778A4 (ja)
JP (1) JP2014516816A (ja)
KR (1) KR20140031316A (ja)
CN (1) CN103608741A (ja)
WO (1) WO2012173901A2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018043235A1 (ja) * 2016-08-29 2018-03-08 Groove X株式会社 音源の方向を認識する自律行動型ロボット
WO2018180454A1 (ja) * 2017-03-28 2018-10-04 日本電産株式会社 移動体
JP2018535487A (ja) * 2015-09-15 2018-11-29 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Uav経路を計画し制御するシステム及び方法
US10860040B2 (en) 2015-10-30 2020-12-08 SZ DJI Technology Co., Ltd. Systems and methods for UAV path planning and control

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101970962B1 (ko) * 2012-03-19 2019-04-22 삼성전자주식회사 아기 감시 방법 및 장치
JP5356615B1 (ja) * 2013-02-01 2013-12-04 パナソニック株式会社 顧客行動分析装置、顧客行動分析システムおよび顧客行動分析方法
US9367067B2 (en) * 2013-03-15 2016-06-14 Ashley A Gilmore Digital tethering for tracking with autonomous aerial robot
US20150207961A1 (en) * 2014-01-17 2015-07-23 James Albert Gavney, Jr. Automated dynamic video capturing
CN104049633B (zh) * 2014-06-13 2017-05-10 深圳市宇恒互动科技开发有限公司 一种随动控制方法、随动装置及随动系统
CN104038717B (zh) * 2014-06-26 2017-11-24 北京小鱼在家科技有限公司 一种智能录制系统
EP3169977A4 (en) * 2014-07-20 2018-05-16 Helico Aerospace Industries SIA Autonomous vehicle operation
JP6669948B2 (ja) 2014-09-08 2020-03-18 日本電産株式会社 移動体制御装置及び移動体
KR102106889B1 (ko) * 2014-12-11 2020-05-07 한화디펜스 주식회사 소형통합제어장치
KR102314637B1 (ko) * 2015-03-23 2021-10-18 엘지전자 주식회사 로봇 청소기 및 이를 구비하는 로봇 청소 시스템
JP6892393B2 (ja) * 2015-04-22 2021-06-23 マサチューセッツ インスティテュート オブ テクノロジー 足接地位置追随装置、その動きを制御する方法、コンピュータ実行可能なプログラム、及びそれを格納したコンピュータ読取可能な非一時的な情報記録媒体
HK1202221A2 (en) * 2015-05-28 2015-09-18 Solomon Mobile Technology Ltd A method and system for dynamic point-of-interest filming with uav
EP3101889A3 (en) 2015-06-02 2017-03-08 LG Electronics Inc. Mobile terminal and controlling method thereof
CN105005306B (zh) * 2015-07-24 2017-08-25 杭州德宝威智能科技有限公司 机器人表演中复位方法
CN107073711A (zh) * 2015-09-08 2017-08-18 深圳市赛亿科技开发有限公司 一种机器人跟随方法
US10195740B2 (en) * 2015-09-10 2019-02-05 X Development Llc Using object observations of mobile robots to generate a spatio-temporal object inventory, and using the inventory to determine monitoring parameters for the mobile robots
US10051839B2 (en) * 2016-01-13 2018-08-21 Petronics Inc. Animal exerciser system
US9868212B1 (en) 2016-02-18 2018-01-16 X Development Llc Methods and apparatus for determining the pose of an object based on point cloud data
US10271021B2 (en) * 2016-02-29 2019-04-23 Microsoft Technology Licensing, Llc Vehicle trajectory determination to stabilize vehicle-captured video
CN105892493B (zh) * 2016-03-31 2019-03-01 纳恩博(常州)科技有限公司 一种信息处理方法和移动装置
CN105717927A (zh) * 2016-04-13 2016-06-29 京东方科技集团股份有限公司 承载装置及用于所述承载装置的控制方法
CN109270936A (zh) * 2016-04-15 2019-01-25 苏州宝时得电动工具有限公司 自动工作系统及其控制方法
TWI602433B (zh) * 2016-04-29 2017-10-11 和碩聯合科技股份有限公司 物體追蹤方法及其無人飛行載具
DE102016208941A1 (de) 2016-05-24 2017-11-30 Robert Bosch Gmbh Verfahren und Vorrichtung zum Auswerten eines Wärmebilds und autonomes System
US11263545B2 (en) 2016-06-30 2022-03-01 Microsoft Technology Licensing, Llc Control of cyber-physical systems under uncertainty
CN109416867B (zh) * 2016-07-04 2022-05-03 索尼公司 机器人、机器人系统和记录介质
CN109937119B (zh) * 2016-07-29 2022-10-21 罗伯特·博世有限公司 人员保护系统及其运行方法
US10229317B2 (en) 2016-08-06 2019-03-12 X Development Llc Selectively downloading targeted object recognition modules
US10955838B2 (en) * 2016-09-26 2021-03-23 Dji Technology, Inc. System and method for movable object control
CN106155065A (zh) * 2016-09-28 2016-11-23 上海仙知机器人科技有限公司 一种机器人跟随方法及用于机器人跟随的设备
US10884417B2 (en) * 2016-11-07 2021-01-05 Boston Incubator Center, LLC Navigation of mobile robots based on passenger following
CN108072369A (zh) * 2016-11-16 2018-05-25 阳光暖果(北京)科技发展有限公司 一种可配置策略的移动机器人导航方法
KR102286006B1 (ko) * 2016-11-23 2021-08-04 한화디펜스 주식회사 추종 장치 및 추종 시스템
KR101907548B1 (ko) 2016-12-23 2018-10-12 한국과학기술연구원 휴먼 추종을 위한 이동로봇의 주행 및 탐색방법
CN106774345B (zh) * 2017-02-07 2020-10-30 上海仙软信息科技有限公司 一种进行多机器人协作的方法与设备
WO2018148195A1 (en) * 2017-02-08 2018-08-16 Marquette University Robotic tracking navigation with data fusion
WO2018151712A1 (en) * 2017-02-15 2018-08-23 Ford Global Technologies, Llc Aerial vehicle-ground vehicle coordination
WO2018213623A1 (en) * 2017-05-17 2018-11-22 Sphero, Inc. Computer vision robot control
DE102017214650A1 (de) * 2017-08-22 2019-02-28 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Kraftfahrzeugs sowie Kraftfahrzeug
CN107608345A (zh) * 2017-08-26 2018-01-19 深圳力子机器人有限公司 一种机器人及其跟随方法和系统
CN108737362B (zh) * 2018-03-21 2021-09-14 北京猎户星空科技有限公司 注册方法、装置、设备和存储介质
CN113467448A (zh) * 2018-06-07 2021-10-01 科沃斯机器人股份有限公司 定点工作方法、自移动机器人及存储介质
CN110832419A (zh) * 2018-07-25 2020-02-21 深圳市大疆创新科技有限公司 一种无人机控制方法、系统及无人机
KR102252034B1 (ko) 2018-09-06 2021-05-14 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR102582863B1 (ko) * 2018-09-07 2023-09-27 삼성전자주식회사 사용자 의도 기반 제스처 인식 방법 및 장치
KR102627014B1 (ko) 2018-10-02 2024-01-19 삼성전자 주식회사 전자 장치 및 제스처 인식 방법
CN114779757A (zh) * 2018-10-10 2022-07-22 灵动科技(北京)有限公司 自动驾驶系统及用于操作自动导引车辆的方法
US11292449B2 (en) * 2018-10-19 2022-04-05 GEOSAT Aerospace & Technology Unmanned ground vehicle and method for operating unmanned ground vehicle
KR20200087361A (ko) 2019-01-03 2020-07-21 삼성전자주식회사 이동 로봇 및 그 구동 방법
US11137770B2 (en) * 2019-04-30 2021-10-05 Pixart Imaging Inc. Sensor registering method and event identifying method of smart detection system
US11817194B2 (en) * 2019-04-30 2023-11-14 Pixart Imaging Inc. Smart control system
CN110405767B (zh) * 2019-08-01 2022-06-17 深圳前海微众银行股份有限公司 智能化展厅的引领方法、装置、设备及存储介质
US11932306B2 (en) 2019-09-14 2024-03-19 Honda Motor Co., Ltd. Trajectory planner
US11927674B2 (en) * 2019-09-16 2024-03-12 Honda Motor Co., Ltd. System and method for providing a comprehensive trajectory planner for a person-following vehicle
CN110543177A (zh) * 2019-09-27 2019-12-06 珠海市一微半导体有限公司 一种自主遛娃机器人及自动溜娃方法
CN117398023A (zh) * 2019-11-19 2024-01-16 科沃斯机器人股份有限公司 自移动机器人跟随方法及自移动机器人
CN110926476B (zh) * 2019-12-04 2023-09-01 三星电子(中国)研发中心 一种智能机器人的伴随服务方法及装置
WO2022027015A1 (en) * 2020-07-27 2022-02-03 Brain Corporation Systems and methods for preserving data and human confidentiality during feature identification by robotic devices
CN115494882A (zh) * 2022-10-20 2022-12-20 泉州装备制造研究所 基于电磁定位的移动机器人跟随方法、装置及可读介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004126801A (ja) * 2002-09-30 2004-04-22 Secom Co Ltd 搬送ロボット
JP2004126802A (ja) * 2002-09-30 2004-04-22 Secom Co Ltd 搬送ロボット
JP2006003263A (ja) * 2004-06-18 2006-01-05 Hitachi Ltd 視覚情報処理装置および適用システム
JP2007316924A (ja) * 2006-05-25 2007-12-06 Toyota Motor Corp 自律移動装置
JP2008084135A (ja) * 2006-09-28 2008-04-10 Toshiba Corp 移動制御方法、移動ロボットおよび移動制御プログラム
JP2009052940A (ja) * 2007-08-24 2009-03-12 Toshiba Corp 移動物体検出装置および自律移動物体
US20100017046A1 (en) * 2008-03-16 2010-01-21 Carol Carlin Cheung Collaborative engagement for target identification and tracking
US20110026770A1 (en) * 2009-07-31 2011-02-03 Jonathan David Brookshire Person Following Using Histograms of Oriented Gradients

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN2715931Y (zh) * 2004-07-13 2005-08-10 中国科学院自动化研究所 一种实现基于物体表面颜色的快速跟踪方法的装置
JP4792823B2 (ja) * 2005-06-09 2011-10-12 ソニー株式会社 ネットワーク・システム、移動体装置及びその制御方法、並びにコンピュータ・プログラム
EP1941411B1 (en) * 2005-09-30 2011-09-14 iRobot Corporation Companion robot for personal interaction
US7211980B1 (en) * 2006-07-05 2007-05-01 Battelle Energy Alliance, Llc Robotic follow system and method
US20100250022A1 (en) * 2006-12-29 2010-09-30 Air Recon, Inc. Useful unmanned aerial vehicle
US20090180668A1 (en) * 2007-04-11 2009-07-16 Irobot Corporation System and method for cooperative remote vehicle behavior
CN101236657A (zh) * 2008-03-03 2008-08-06 吉林大学 单一运动目标轨迹的跟踪与记录方法
US8103382B2 (en) * 2008-04-24 2012-01-24 North End Technologies Method and system for sharing information through a mobile multimedia platform
US8340819B2 (en) * 2008-09-18 2012-12-25 Intouch Technologies, Inc. Mobile videoconferencing robot system with network adaptive driving
US8897920B2 (en) * 2009-04-17 2014-11-25 Intouch Technologies, Inc. Tele-presence robot system with software modularity, projector and laser pointer
KR20110003146A (ko) * 2009-07-03 2011-01-11 한국전자통신연구원 제스쳐 인식 장치, 이를 구비한 로봇 시스템 및 이를 이용한 제스쳐 인식 방법
CN101694716A (zh) * 2009-10-10 2010-04-14 北京理工大学 一种针对多点目标的立体视觉光学跟踪系统
US20110164108A1 (en) * 2009-12-30 2011-07-07 Fivefocal Llc System With Selective Narrow FOV and 360 Degree FOV, And Associated Methods
US11154981B2 (en) * 2010-02-04 2021-10-26 Teladoc Health, Inc. Robot user interface for telepresence robot system
US9400503B2 (en) * 2010-05-20 2016-07-26 Irobot Corporation Mobile human interface robot

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004126801A (ja) * 2002-09-30 2004-04-22 Secom Co Ltd 搬送ロボット
JP2004126802A (ja) * 2002-09-30 2004-04-22 Secom Co Ltd 搬送ロボット
JP2006003263A (ja) * 2004-06-18 2006-01-05 Hitachi Ltd 視覚情報処理装置および適用システム
JP2007316924A (ja) * 2006-05-25 2007-12-06 Toyota Motor Corp 自律移動装置
JP2008084135A (ja) * 2006-09-28 2008-04-10 Toshiba Corp 移動制御方法、移動ロボットおよび移動制御プログラム
JP2009052940A (ja) * 2007-08-24 2009-03-12 Toshiba Corp 移動物体検出装置および自律移動物体
US20100017046A1 (en) * 2008-03-16 2010-01-21 Carol Carlin Cheung Collaborative engagement for target identification and tracking
US20110026770A1 (en) * 2009-07-31 2011-02-03 Jonathan David Brookshire Person Following Using Histograms of Oriented Gradients

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018535487A (ja) * 2015-09-15 2018-11-29 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Uav経路を計画し制御するシステム及び方法
US10928838B2 (en) 2015-09-15 2021-02-23 SZ DJI Technology Co., Ltd. Method and device of determining position of target, tracking device and tracking system
US10976753B2 (en) 2015-09-15 2021-04-13 SZ DJI Technology Co., Ltd. System and method for supporting smooth target following
US11635775B2 (en) 2015-09-15 2023-04-25 SZ DJI Technology Co., Ltd. Systems and methods for UAV interactive instructions and control
US10860040B2 (en) 2015-10-30 2020-12-08 SZ DJI Technology Co., Ltd. Systems and methods for UAV path planning and control
WO2018043235A1 (ja) * 2016-08-29 2018-03-08 Groove X株式会社 音源の方向を認識する自律行動型ロボット
GB2567600A (en) * 2016-08-29 2019-04-17 Groove X Inc Autonomous behavior robot recognizing direction of sound source
GB2567600B (en) * 2016-08-29 2022-05-04 Groove X Inc Autonomously acting robot that recognizes direction of sound source
US11376740B2 (en) 2016-08-29 2022-07-05 Groove X, Inc. Autonomously acting robot that recognizes direction of sound source
WO2018180454A1 (ja) * 2017-03-28 2018-10-04 日本電産株式会社 移動体

Also Published As

Publication number Publication date
CN103608741A (zh) 2014-02-26
US20120316680A1 (en) 2012-12-13
WO2012173901A3 (en) 2013-04-04
EP2718778A4 (en) 2015-11-25
WO2012173901A2 (en) 2012-12-20
EP2718778A2 (en) 2014-04-16
KR20140031316A (ko) 2014-03-12

Similar Documents

Publication Publication Date Title
JP2014516816A (ja) モバイルロボットによる移動対象物のトラッキング及びフォローイング
EP3781896B1 (en) System for locating and identifying an object in unconstrained environments
JP7017025B2 (ja) 自律移動ロボット、自律移動ロボットの制御方法および制御プログラム
JP6600740B2 (ja) 制御システムおよび制御装置
EP2068275A2 (en) Communication robot
TW201826993A (zh) 具有基於環境之操作速度變化的機器人清潔裝置
KR100962593B1 (ko) 영역 기반의 청소기 제어 방법 및 장치, 그 기록 매체
JP2006221610A (ja) 人間追跡装置及び方法、その方法を行うためのプログラムが記録された記録媒体とその装置を備えた移動型電子機器
JP2008084135A (ja) 移動制御方法、移動ロボットおよび移動制御プログラム
JP2004299025A (ja) 移動ロボット制御装置、移動ロボット制御方法及び移動ロボット制御プログラム
KR20180067724A (ko) 이동형 원격현전 로봇과의 인터페이싱
US20190184569A1 (en) Robot based on artificial intelligence, and control method thereof
WO2018087844A1 (ja) 作業認識装置および作業認識方法
Kobayashi et al. Robotic wheelchair based on observations of people using integrated sensors
JP2008234404A (ja) 移動ロボット及びロボット移動制御方法
WO2018077307A1 (zh) 一种运动控制方法、装置和计算机存储介质
JP6669948B2 (ja) 移動体制御装置及び移動体
JP2006231447A (ja) 指示位置または特定物の確認方法及び座標獲得方法並びに装置
Thrun et al. Experiences with two deployed interactive tour-guide robots
Atienza et al. Intuitive human-robot interaction through active 3d gaze tracking
Trahanias et al. Navigational support for robotic wheelchair platforms: an approach that combines vision and range sensors
WO2022247325A1 (zh) 助行机器人导航方法、助行机器人及计算机可读存储介质
US20180065247A1 (en) Configuring a robotic camera to mimic cinematographic styles
JP2022132905A (ja) ジェスチャ認識装置、移動体、ジェスチャ認識方法、およびプログラム
KR100608651B1 (ko) 로봇의 목표물 추적방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150513

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160315

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161025