JP2014502566A - ロボットとユーザーの相互作用のためのマルチ状態モデル - Google Patents

ロボットとユーザーの相互作用のためのマルチ状態モデル Download PDF

Info

Publication number
JP2014502566A
JP2014502566A JP2013549530A JP2013549530A JP2014502566A JP 2014502566 A JP2014502566 A JP 2014502566A JP 2013549530 A JP2013549530 A JP 2013549530A JP 2013549530 A JP2013549530 A JP 2013549530A JP 2014502566 A JP2014502566 A JP 2014502566A
Authority
JP
Japan
Prior art keywords
robot
user
state
task
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013549530A
Other languages
English (en)
Other versions
JP5905488B2 (ja
Inventor
アーヴィン サンチェス,ラッセル
エム. チャラビ,マレク
ビー. クラウスコプフ,コーデル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2014502566A publication Critical patent/JP2014502566A/ja
Application granted granted Critical
Publication of JP5905488B2 publication Critical patent/JP5905488B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Fuzzy Systems (AREA)
  • Biophysics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Manipulator (AREA)

Abstract

本開示は、タスクを実行するためのロボットのタスク関連オペレーションと、前記ロボットと相互作用するためのユーザー関与オペレーションをコントロールするモデルを含むロボット装置に関する。モデルは、例えば、ロボットのセンサーを介して受け取った情報及び/又は学習したデータ、といった種々の刺激から判断された現在の状況に基づいて自律タスク状態から関与状態に移行することを含む、オペレーション状態をコントロールする。ロボットはユーザーに関与しようとし、ユーザーはロボットに関与しようとする。もしくは、ユーザーとロボットは偶然に出会い、どちらも関与を始めようと試みる。

Description

ここにおいて記述される種々の態様は、ロボットデバイスの技術に関する。ロボットのタスク関連のオペレーションおよびロボットと相互作用するためのユーザー関与オペレーションをコントロールするマルチ状態から成る相互作用モデルを含むロボットデバイスの技術である。
電気製品、自動車、コンピューター、電話、ハンドヘルドデバイスといったような人間のためにデザインされたデバイスと相互作用を始めることは、一つまたはそれ以上の明確なユーザーの物理的な行為に依存している。最初に触ること、または手による接触である。例えば、電子レンジは誰かがキーパッドを押すのを待っており、コンピューターは誰かがマウスを動かすかキーを押すのを待っており、携帯電話は誰かが画面かボタンに触れるのを待っている、といったことである。こうしたデバイスは、ユーザーが明確で物理的な行動を(直接的にまたはリモコンを通じて間接的に)とる場合にユーザーと関与し、ユーザーの物理的な行為が相互作用を支配する。
対照的に、消費者用ロボット(感覚覚醒、コンピューター知能、および移動性の組み合わせから構成されている)は、人間との相互作用について全く異なる様子を示している。一つの例として、明確で物理的な接触は、一般的には、ロボットとの関与を始めるための最善の方法ではない。代わりに、例えば、言葉またはジェスチャーを含むコミュニケーションを介して、どちらの当事者も他方の当事者との関与を始めるか、または関与しないことができる。例として、ロボットは、メッセージを伝えたり、質問をしたり、または情報を提供するために、特定の人間を捜し、認識し、物理的に近づいて関与することができる。関与するための直接的な相互作用は必ずしも必要ではないことに留意すべきである。例えば、ユーザーはロボットからの支援を必要として、それを別の部屋から命じることができる。
従来の電気デバイスとの別の重要な違いは、ロボットは、しばしば固定された位置で待ってはいないことである。ロボットは、むしろ、空間(例えば、家の中)を移動してまわり、ユーザー、所有者、家族、訪問者、またはお客様のためにタスクをこなしたり、空間を自律的に探検したり、通常でない出来事を記録して報告したり、ロボット自身で「楽しんだり」さえもする。ロボットと人間との間の単なる接近は、必ずしも関与に対応するものではない。両当事者(ロボットと人間)は、いつでも独立したタスクに従事しているからである。例えば、両者は、関連のない分離したタスクに互いに集中して、廊下をお互いに通り過ぎることもある。両当事者が関与することができるとしても、関与は必要とされない。しかしながら、偶然にすれ違う際に(例えば、廊下で)、一方の当事者が、他方に対して依頼するかもしれない。
さらに、人間とロボットが関与する場合に、どちらの当事者も状況に応じて様々な理由によって関与しないこともできる。例えば、ロボットは以前に計画されたタスクを開始することの許可を求めるかもしれないし、人間は別の会話によって邪魔されるかもしれない。
本概要は、以降の詳細な説明でより詳しく記述される本発明の概念について、簡素化された形式において代表的な概念の選択を紹介するものである。本概要は、特許請求された技術的事項の主要な特徴または本質的な特徴を特定することを意図するものではない。また、特許請求された技術的事項の範囲を限定するいかなる方法においても使用されることを意図するものではない。簡潔には、ここにおいて記述される種々の態様は、ロボットデバイスの技術に関する。ロボットのタスク関連オペレーションおよびロボットと相互作用するためのユーザーとの関与オペレーションをコントロールするマルチ状態(例えば、関与、ユーザー指向、自分指向、休憩)から成る相互作用モデルを含むロボットデバイスの技術である。
モデルは、オペレーション状態に関してロボットデバイスのオペレーションをコントロールする。それは、ロボットがタスクを実行する自律タスク状態から、ロボットがユーザーと相互作用する関与状態へ移行することを含んでおり、その逆もまた同様である。モデルは、ロボットのセンサーを介して受け取った情報を含む現在の状況に基づいて、いつ移行するかを判断する。ロボットはユーザーと関与しようとし、ユーザーがロボットと関与しようとし、または、ユーザーとロボットが偶然に出会い、いずれかが関与を始めようと試みるかもしれない。
一つの態様では、ロボットは、モデルを介して自律タスク状態において動作する。自律タスク状態は、ユーザー入力に基づいてユーザータスクを実行するユーザー指向モードと、ロボットがユーザー入力に基づかないタスクを実行する自分指向モードを含んでいる。ロボットは、休憩モードに居ることもあり、タスク関連のトリガーイベントが生じるか、またはユーザーとの関与の必要性を検知すると、休憩モードを抜け出す。オーダーの優先度レベルは、関与状態にいるロボットを自律状態の上に位置付け(ユーザー指向モード)、次に、自律状態の上であり(自分指向モード)、次に、休憩モードの上に位置付ける。
別の態様では、ロボットは、関与状態に入り、異なるオペレーションをする。複数の刺激に基づいて関与モードへの移行が生じている。刺激の例としては、リモートプロキシー(proxy)コミュニケーション、音響データ(例えば、ロボットの名前に関するスピーチ)、または、ユーザーに対応する動作の検知、がある。
ロボットは、ユーザーに向かって動くこと、または、ユーザーに向けた音響的及び/又は視覚的なデータを出力することによって関与を開始することができる。ユーザーと関与する試みは、ユーザーとの以前の関与履歴に基づいて適用され得る。例えば、関与の試みのために決められた頻度に達するまで待つことによって、あまりに頻繁には関与の試みを行わない。
他の有利な点は、図面と併せて、以降の詳細な記述から明らかになるだろう。
本発明は、例示として説明されるものであり、添付の図面に限定されるものではない。図面での類似の参照番号は、類似のエレメントを示している。
図1は、ロボットデバイスの実施例を表すブロックダイヤグラムである。ロボットデバイスのコンピューター知能システムは、ロボットデバイスのオペレーション状態を決定するモデルを含んでいる。 図2は、ロボットデバイスの入力様式、出力様式、およびオペレーション状態に係る実施例を表している。 図3は、ロボットデバイスの状態および状態間の移行を表す状態図である。 図4は、ここにおいて説明される種々の実施例に係る一つまたはそれ以上の態様が実行される典型的な制限のないコンピューターシステムまたはオペレーション環境を表すブロックダイヤグラムである。
ここにおいて説明される技術の種々の態様は、一般的には人間(または「ユーザー」)とロボットの相互作用モデルを含むロボットデバイスに関する。モデルは、自然で、適切で、役に立ち、そして楽しい相互作用を促進する方法でロボットの相互作用の振る舞いをコントロールするマルチ状態(例えば、関与、ユーザー指向、自分指向、休憩)から成る。一つの態様において、モデルは、非関与状態と関与状態との間の移行、ロボットまたは人間による開始の方法、そして、状況の意識及びこれらの移行を管理するセンサー能力の使用、を支配する。モデルは、ロボットがどのように感覚覚醒を利用して関与能力を調停するのかといった、他のロボットの振る舞いを定めることもできる。
ここにおけるあらゆる実施例は本発明を限定するものではないことが理解されるべきである。例えば、ここにおいて種々のモデル及びそうしたものが例として使用されるが、例示されたもの以外の他のモデルも使用することができる。このように、本発明は、ここにおいて説明される、あらゆる特定の実施、態様、概念、構成、機能、または例示に限定されるものではない。むしろ、ここにおいて説明される、あらゆる特定の実施、態様、概念、構成、機能、または例示は、非限定的なものであり、本発明は、全般的にロボット技術において利益と利点を提供する種々の手段で利用され得る。
図1は、移動(駆動)メカニズム104によって移動性を有するように構成されたロボット装置102の実施例に係るブロックを示している。コンピューター知能システム106が、好適なインストラクションによって移動メカニズム104を駆動する。このことはロボット装置102に対して移動性を提供し、それによりコンピューター知能システム106からのインストラクションに基づいて、コンピューター知能システム106が移動することができる。
一般的に、ロボット102は、現在状態データまたは類似のものを示すための一つまたはそれ以上の信号をコンピューター知能システム106に提供する一つまたはそれ以上のセンサーを含むセンサーセットを含んでいる。環境データ、時刻、曜日、現在位置、充電残量、認識された近くの人々、といったようなデータである。この状態データは、ロボットのスケジュール、履歴データ(例えば、適合され学習された知識)というような他の維持されるデータと一緒に現在状況を構成する。
センサーセット108は、あらゆる機械的、電気的、光学的、及び/又は、磁気的なセンサーを含み、それぞれがロボット102上でセンサーのために好適な場所に配置される。例えば、所定の視野角を得るために高い場所に取り付けられる。センサーセット108は、一つまたはそれ以上のカメラを含み、コンピューター知能システム106は、それによって所定の人の物理的な存在、注視方向、手のジェスチャー、といったものを検知することができる。ロボット102は、また、装置バッテリー109(または、他の好適なポータブル電源)を含んでいる。
コンピューター知能システム106は、プロセッサ110、メモリー112、そしてインターフェイス114を含んでいる。以下に述べるように、インターフェイス114は、ロボット102が、種々のタイプの入力と出力を介して通信できるように構成されている。同様に、以下に述べるように、コンピューター知能システム106は、ユーザー(人間)との相互作用モデル120も含んでいる。
図2は、ロボットと通信するためのメカニズムの実施例を示しており、一つまたはそれ以上のロボット入力メカニズム220とロボット出力メカニズム222を含んでいる。図2に示されるように、リモートコントロール受信器224を含んでいる。特には、他の部屋といった離れた場所から、リモートコントロールのプロキシー(proxy)ユーザーコマンドを受け取るためのものである。リモートコントロール入力の一つのタイプは、「ペンダント(“pendant)」入力として言及されることに留意すべきである。ユーザーは、リモートコントロールの一つの実施例において、そうしたリモートコントロールを身に付け得るからである。ロボットも、また、あらゆる有線(物理的に接続される場合)または無線装置からのリモートコントロールコマンドを受け取ることができる。例えば、ユーザーは、インターネット上で、パーソナルコンピューターを介して、というようにロボットと通信することができる。
別のタイプの入力はスピーチ(speech)であり、ロボットはスピーチ認識器225によって処理を行う。ビデオカメラまたは深さセンサーによって獲得されるような画像入力は、他のタイプの入力である。顔認識技術、位置検知、注視検知、視線軌跡、姿勢検知/認識技術、スケルタルトラック(skeletal tracking)といったものであり、図2で画像認識器(ブロック226)によって示されている。画像/獲得された画像のシーケンスは例示に過ぎず、従来の画像またはビデオである必要はないことに留意すべきである。例えば、赤外線、動作、深さセンサーといったものは、好適なカメラまたは類似のセンサーによって全て獲得され、検知される。
図2には、また、ブロック227によって検知された画像とスピーチ入力が示されている。これはジェスチャーと結合したスピーチを示しており、異なる意味をもつものである(例えば、適切な手のジェスチャーを伴なった「動け」という話し言葉は、ロボットに対して動くのと同様に、左または右といった、どちらの方向に動くのかを命令するために利用され得る)。他のタイプの入力も結合され得る。例えば、ロボットに話しかける際にロボットを見ているユーザーは、ロボットから視線をそらしているユーザー(例えば、ロボットに対して全く話しかけていないユーザー)とは異なった理解をされ得る。
他のタイプの入力は、好適なセンサーによって感知されたものとして受け取られる。例えば、接触、匂い、温度、湿度、ユーザーの生体データ、といったものである。ブロック228は、あらゆるこうした他の入力メカニズム、及び/又は、センサーを表している。
ロボットは、一つまたはそれ以上の種々の出力メカニズム222を介して情報を出力することができ、図2に示されたいくつか、または全てを含んでいる。体の動作230、姿勢/注視231、視覚的表現232(例えば、「目」のまばたきのような動画)、音響230、そして表示234(スクリーンまたはプロジェクターといった表示装置を介して表すことのできる、グラフィカルユーザーインターフェイス、画像、といったようなもの)を介するものを含んでいる。振動や匂いといった他の出力は、ブロック235によって表されている。ロボットは、一つまたはそれ以上の出力メカニズム222を使用して、あらゆる状態において、気分、一般的な状況、タスク状況、といったものを示すことができる。
示された出力メカニズム22は、一般的には人間のユーザーと通信することを目指していることに留意すべきである。しかしながら、別のタイプの出力は、別のロボット、コンピューター、電話、家電、といったような電子デバイスに対して向けられ得る。これらのデバイスは、例えば、有線または無線のラジオ信号、もしくは音響サンプルを介して、通信することができる。さらに、ロボットは、ペット、無生物(例えば、ゲームコンソール)等といった他のエンティティー(entity)と同様に、他のロボットと相互作用することもできる。このように、人間(human)は、こうした他のエンティティーと同様に、ここにおいては「ユーザー」として参照される(しかし、人間は最も典型的なユーザーであるため、ここにおいて「人間」は「ユーザー」と互いに交換可能なものとして使用される)。
図2は、また、いくつかのオペレーティング状態240−244の例を示している。ロボットは、いつでもそうした状態に居り、入力と出力メカニズム220と222がロボット−ユーザーの相互作用のために使用されている関与状態242を含んでいる。代表的な状態240−240が以下に説明されるが、一つまたはそれ以上の他の状態もあり得ること、および、こうした状態は結合され得ることが理解されるべきである(例えば、別の実施例では、ロボットは、一方で休憩状態に居ながら、ユーザー指向のタスクのある部分を実行している)。以下の表は、状態の例をまとめたものである。
Figure 2014502566
以下に説明されるように、ロボットには、上記の表に示された状態の明確な優先順位がある。より高い優先順位の状態は、より低い優先順位の状態をインターラプト(interrupt)することができ、関与(関与状態への移行)は、あらゆる自分指向またはユーザー指向状態をインターラプトできる。
図3は、ロボットの自律オペレーションモード360(図2のユーザー指向状態または自分指向状態に対応している)からアプリケーション相互作用モード362(図2の関与状態242に対応している)への移行を表している。一般的に、また図3に表されるように、ユーザーとの関与を検知(ブロック364)して、ロボットは、自律モード360からアプリケーション相互作用モード362(関与状態)へ移行し、非関与を検知(ブロック366)して、ロボットは、アプリケーション相互作用モード362から自律モード360からへ戻る。図2におけるオフ/使用不可状態240および休憩状態241といった他の状態は、こうした他の状態に関して以下に説明されることに留意すべきである。例えば、ロボットは、一日の時刻または他のトリガーイベントに基づいて、人間と関与することなく休憩状態241から自律モード360に移行することができる。
こうした移行からわかるように、ロボットに関して、ユーザーの関与状態と非関与状態を区別する必要がある。区別を付けるために、一般的には状況が重要であることが理解されよう。
ここまで、ユーザープリファレンス、状態データ、位置、エチケット、社会規範、等といった状況ファクターに基づいて非構造環境の中に関与/非関与モデルを含む動的で、マルチ状態の、ユーザー−ロボットの相互作用モデル120が説明されてきた。モデルは、関与状態と非関与状態との間の移行、ロボットまたはユーザーのいずれかによる関与および非関与の開始、そして、こうした移行を処理するための状況認識と感覚認識の使用を管理する。モデルは、ロボットの関与有用性を調停するために感覚覚醒をどのように使用するのかを定めている。
より特定的には、どちらの当事者(ユーザーまたはロボット)も、状況に基づいて種々の方法(典型的には、非接触方法)で他の者との関与または非関与を適切に開始できることが必要である。これは、一日の時刻、位置、ユーザーの個性、そして、その時にそれぞれの当事者に必要だと予想されるもの、といったファクターを含んでいる。ロボットは、典型的な集合時間や場所というような、観察/学習された家事のパターンに基づいて、その有用性を最大化することができる。
図2について上述したように、関与を促進するために、ロボットはマルチ状態(例えば、関与、ユーザー指向、自分指向、休憩)を有し、それぞれの状態および状態間の移行における相互作用の範囲を定めている。ロボットがユーザーに関与する場合に、ユーザーは入力を待ち、入力を受け取り、または、入力に対して反応する。関与は、状況の合図に基づいて維持され得る。例えば、ユーザーとロボットが近接していること、ユーザーとロボット間の注視/アイコンタクト(eye contact)、スピーチのローカル化、及び/又は、継続した相互作用は、非関与に対する関与をコントロールし得る。ユーザーが、スピーチ、動作、または顔認識を使用してロボットと関与している場合に、ユーザーとロボットは、お互いに相互作用領域の中に位置していること(一般的に、音響に対する領域の方向検知ユニットは、動作/顔認識に比べて大きい)に留意すべきである。ユーザーがリモートコントロール(プロキシー)デバイスを使用してロボットと関与している場合には、ユーザーとロボットは、お互いの送信/受信領域の中のどこにでも位置することができる。
以下の実施例は、例えば、スケジュールされたタスクを破棄するといった、ユーザーを巻き込む意思決定のポイントに達したときにはいつでもそのユーザーがロボットの担当をしているというシナリオに向けたものであることに留意すべきである。あるシナリオにおいては、異なるユーザーがロボットと相互作用し、指示(命令)できることに留意する。例えば、最後の命令が有効であるといった、あらゆるコンフリクトがモデル120によって解決されるように同位のユーザーが存在し得る。もしくは、ユーザーの階層性が存在し得る。例えば、ユーザーBは、ユーザーAのタスク設定をくつがえすことはできないが、タスクをスケジュールしたり、いつロボットがユーザーBのタスク設定のために利用可能かといった、ステータス(status)情報を見つけ出すように、ロボットと簡潔に関与することができる。別のタイプのユーザーは、非認定/非認証ユーザーであり、ロボットは彼らからの命令を受け入れない。(例えば、認定ユーザーが、ロボットにそうではないと教えるまでは)認識されていない人である。これはアプリケーションに依存するものであり、例えば、パトロールタスクにおいて、ロボットは最高レベルのユーザーとしかコミュニケーションをとることが許されない。さらに、実施例は、モデルの一つの実施に対応している。モデルの代替的な実施は、ロボットの振る舞いを制御する他のルールといったものを有し得る。例示されたモデルのいくつかの態様は、ユーザープレファレンスに従ってユーザーが定義できる(例えば、ルールを破棄する)ものであり得る。
ルールの一つの例として、モデル120は、以下を規定する。関与状態にあるとき、ユーザーがロボットにそうさせるという同意がなければ、ロボットは自分指向状態244に入れないし、ロボットは、ユーザーからの明確な命令によって休憩状態241にだけ入ることができる。低バッテリー状況といった、極限の場合でさえも、関与状態の最中にロボットはユーザーに対して再充電させるように依頼する(または、信号を発する)。
ユーザー指向状態234において、ロボットは非関与となり(ブロック366)、図3に示されるように、ユーザーのためにタスクを実行するオペレーションの自律モードに入る。この状態には、ユーザーからの明確な命令に応じて、関与状態を介して、または、所定の時間に発生する明確なタスク設定によって、入るものである。ロボットが引き受ける他のタスクで、関与状態にいる最中に(直接的に、またはユーザー定義のスケジュールもしくは他のクライテリアを介して)明確に得られたのではないものは、自分指向状態244において実行されるものとして認識される。
ユーザー指向状態243の最中に、ロボットは、リクエストされればユーザーと関与するが、ユーザー指向タスクが完了するまではいかなる自分指向タスクにも入らない。結果として、ロボットのメートル地図を改良するように探索するといった、与えられた時間において一般的に発生する自分指向タスクは、ユーザー指向タスク(またはタスク設定)が完了するまで待っている。
一旦ユーザー指向タスク設定が完了すると、ロボットは自分指向状態244に移行する。パトロールといった、ユーザーによって実行がスケジュールされたタスクは、ユーザー指向タスクとして実行される。緊急のユーザー指向タスクは、スケジュールされたタスクより優先する。
ロボットが、ユーザー指向状態243にいるときに、ユーザーによって関与された場合は、ロボットは、タスク中でビジーであることを示す情報(例えば、会話)を出力する。会話はユーザーに対して、会話を止めて(従って、関与リクエストをキャンセルして)ロボットにタスクを続けさせるか、または、ユーザーが関与を継続できるように現行のユーザー指向タスクもしくはアプリケーションをキャンセルするか(または止めるか)、いずれかを強いる。
自分指向状態において、ロボットは完全に自律的に行動する。この状態において、ロボットは、ロボットが行うことを決めたタスクを実行する。例えば、ロボット内部の家の地図を改良/更新したり、学習した履歴に基づいてユーザーの必要性を見込んでバッテリーを充電したり、といったことを行う。
休憩状態241において、ロボットは関与リクエストを待っており、動かない(例えば、ユーザーを捜すために時々回転するといった、関与リクエストの可能な促進を除いて)。ロボットは、休憩状態において再充電しても、しなくてもよい。一般的に、ロボットは、エネルギーを節約し、パーツの消耗を防ぎながら、コミュニケーションのために「聞いている」。例えば、スピーチ、リモートコントロール信号、ビデオ入力というようなものを介してである。休憩状態241にいる最中、ユーザーによるあらゆる新たな相互作用が無ければ、ロボットは自分指向状態244に移行することができ、ユーザーがスケジュールしたタスクを通じてユーザー指向状態243に移行できる。
関与とアトラクション(attraction)に話を移すと、関与のタイプがロボットの振る舞いを決定し得る。例えば、ユーザーは、ロボットと関与するためにリモートコントロール(プロキシー)デバイスを使用することができる。リモートコントロールデバイスは、マイクロフォン及び/又はスピーカーを介して音響(例えば、スピーチ)を伝え、カメラ及び/又はディスプレイ装置を通じて視覚的情報を伝える、等を行う。ロボットは、こうして、スピーチを受け取って反応し、命令を示してキーワードのショートカットダイアログ(shortcut dialog)を表示することができる。ロボットは、非活動の持続時間の後で、こうしたリモートでの関与を止める。
キーワードだけの関与においては、その時にロボットが関与していないか、関与のオファーをされていなくても、(例えば、スピーチ認識によって)ロボットは名前をキーワードとして認識する。キーワードだけの関与において、ロボットは、キーワードショートカットダイアログを表示し、キーワードショートカットに対して反応する。ロボットは、また、近接した顔面をスキャンする。以下のことに留意すべきである。一般的に、顔面をスキャンするために、ロボットは、ロボットの視野の全面を効率的にカバーするようなパターンで、全動作範囲において回転し、頭を傾ける。しかしながら、近接した顔面をスキャンするためには、ロボットは、代わって、例えば、音源位置特定を使用して、音源(声)の方向に中心が合わされた視野のある範囲を効率的にカバーするようなパターンで、限定された動作範囲を通じて回転し、頭を傾ければよい。ロボットは、お役ご免になるか、タイムアウト(例えば、30秒間)して非動作になるまで、キーワードだけの関与に留まる。
ロボットの名前認識に関して、ロボットは、現在の状況に基づいて、異なる認識反応を示し得る。例えば、関与が利用可能な最中、関与をオファーしている最中、関与の最中である。例えば、関与が利用可能な最中、ロボットは、停止し、頭を音源に向かって回転し、近接した顔面をスキャンする。顔面が検知できない場合には、ロボットはスピーチ関与に入り、キーワードショートカットダイアログを表示する。ロボットは、認識イベントを「次に聞こえた音声」ステップとして取り扱い、アトラクション(attraction)オペレーションを続ける。例えば、音源に向かって移動し、停止して顔面をスキャンする。顔面が検知されない場合には、タイムアウトになるまで、以前のタスクに戻る。顔面が検知された場合、または、ロボットが関与をオファーしている場合には、ロボットは、以下に説明するように、「近くの」関与オファーとオペレーションの受け容れを進める。
関与をオファーしている最中、ロボットが名前を認識した場合に、ロボットは関与モードに移行する。関与の最中に、ロボットが名前を認識した場合には、アプリケーションの状態にかかわらず、状況に好適なキーワードショートカットダイアログを表示する。
近接関与(nearby engagement)として参照される関与のタイプにおいて、ロボットとユーザーは相互作用領域(例えば、視認できる領域)に居り、ユーザーはロボットの関与のオファーを受け入れる(または、おそらくその逆も同様である)。ロボットは、お役ご免になるか、タイムアウトして非動作になるまで、近接関与に留まる。ロボットは、同時に、リモートプロキシーデバイス関与およびユーザーとの近さを介した近接関与でもあり得ることに留意すべきである。複数のユーザーが検知されることもあり、その場合、現在の近接のユーザーは、顔面が相互作用領域の中で深度カメラに最も近いと検知されたユーザーであると判断される(任意的に顔面が認識され、及び/又は、任意的に認証される)。ロボットは、相互作用平面、トラック(track)を創生し、現在のユーザーからのジェスチャーを認識する。
ロボットとユーザーが近接関与である場合には、ロボットは、例えば、ユーザーの手を検知して追跡し、ジェスチャー入力に対して反応する。ロボットは、メニューを表示し、ユーザーの顔面を認識した場合にはユーザー表記(例えば、ユーザーのアバター)を表示する、といったことを行う。ユーザーの顔面が認識されない場合に、ロボットは「わかりません」表記を表示し、関与の全体にわたり顔面認識を試みる。
関与の開始に関して、ロボットが休憩状態に居る場合、ロボットは無差別に関与を捜索するが、創作の範囲とタイプはバッテリーのレベルによる。自分指向状態において、ロボットは、頻繁に、そして定期的に(おそらく、ある程度のランダム性をもって)停止して、無差別に関与を捜索する。ユーザー指向状態において、ロボットは、関与の捜索はしないが、例えば、スピーチ、顔認識、またはリモートプロキシーデバイスを使用して、ユーザーが直接的にリクエストする場合には関与する。
追加的な詳細について話を移すと、近接関与において、ロボットは音響と動作に惹かれ、検知した顔面を認識できるように顔面認識を実行する。ロボットは関与をオファーし、ユーザーは、その関与のオファーを慎重に受け入れ得る。ユーザーが、関与が望まれることを明らかにした場合には、オファーは、余分であり、従って、必要ないものであり得る。しかしながら、以下の説明目的のためには、ロボットが関与をオファーすることが必要であり、ロボットが、検知した全ての顔面と(うっとうしくも)関与することがなく、関与を止めないように、ユーザーはそのオファーを慎重に受け入れる必要がある。
関与を受け入れる例には、注視が含まれている。ユーザーは、しばらくの期間、例えば2秒間、ロボットのカメラを直接的に(例えば、15度以内)注視するのである。ユーザーが、ロボット越しに見たり、または、横を見たりする場合は、関与が受け入れられたとは捉えられない。ユーザーがロボットを見る、ユーザー焦点注意状態(user−focused attention state)に居る場合に、ロボットは、周囲注意状態(ambient attention state)と比べて異なって動作し得る。別の例としては、ユーザーがロボットの名前を話す(そして、ロボットがそれを認識する)場合である。ジェスチャーも、また、関与の受け入れとして検知され、使用される。例えば、ユーザーは「エアータッチ(air touch)」平面を通じて手を前に伸ばすか、ユーザーは別の所定のジェスチャーを行う。ユーザーの顎とロボットとの間で前後に手を揺らすといったようなものである。
ロボット上で実行されるいくつかのアプリケーションは、あらゆるユーザー、または所定のユーザーとの関与を先読み的に開始し得る。そうした場合、アプリケーションは無差別に人々を捜し、顔面をスキャンする。顔面が検知された場合に、アプリケーションは関与のオファーを行う。
関与プロセスは、望ましくない振る舞いを結果として生じることがある。ユーザーの気分を害するといったことである。関与の問題を軽減するために、ロボットは、他の判断を適合させ、または成すことができる。例えば、ロボットが、人間でないもの(頭の形状を有していない音源)からの継続的な音声、及び/又は、RGB動作を検知した場合に、ロボットは、音源の位置を「メディアプレーヤー」としてマーク(mark)し、その位置における音声、動作、そして顔面を無視する。ロボットは、関与を後退させることもできる。例えば、ロボットがある位置で頻繁に関与のオファーを行い、どれも受け入れられない場合には、ロボットは、その場所での、または所定のユーザーに対するオファーの頻度を一時的に減少させる。ロボットは、こうした要因を、頻度を調整するために伝えられるべき緊急なメッセージであると捉えることができる。ロボットは、別の人を検知して、代わりに、その人との関与を試みることもあり得る。ロボットは、ときどき他のユーザーの前に一人のユーザーに行って、適合することがある。その逆も、同様である。
別の態様について話を移す。ロボットに対してユーザーの顔面が失われた場合であって、ユーザーがロボットの視野領域(フレーム)を出て行き、ユーザーが関与の継続を望む場合にしばらくして戻ってくることを仮定している。しかしながら、ユーザーは不注意でフレームを出て行ったものの、いまだに相互作用を望むことがある。ロボットは、関与の場合には追跡行為ができ、従って、このことはユーザーが相互作用領域の外側に行くか、ロボットが追跡できないほど早く動く場合にだけ起こり得るものである。このように、ユーザーが出て行ってしまったものと捉える前に、持続時間(例えば、3秒間)が使用される。例えば、ユーザーが戻るのを助けるためにカメラを同じ場所に置いておき、その後ロボットは標準的な関与以前の状態へ戻る。類似の状況は、ユーザーがロボットから歩いて離れて行き、これ以上の相互作用を望まない場合である。この場合、ロボットは、例えば、数秒後に、タスクを再開する。
従って、ロボットがユーザー顔面の視界を失った場合に、ロボットは、多くのユーザーが容易に見つけられるようにカメラの角度をリセットする。そして、ロボットは、関与状態をスイッチアウトする前に、非動作のタイムアウトになるまで待つ。
自律的な関与の振る舞いは、ロボットが役に立ち、相互作用できる必要があることに基づいており、部分的にユーザーを捜して近づいて行くことによって部分的に達成される。ロボットが自分指向状態または休憩状態に居る場合には、ロボットは、周囲を観察し、人々を捜す。例えば、ロボットは、検知を最適化するために関連するセンサーを回転させ得る。ロボットが人を検知した場合に、ロボットは関与をオファーする。ユーザーが関与領域の外側に居る場合には、ロボットはユーザーに向かって進み、関与領域の中に来た場合に、関与をオファーする。
典型的なコンピューターデバイス

上述のように、ここにおいて説明された技術は、有利なことに、あらゆるデバイスに適用することができる。従って、ハンドヘルド、ポータブル、そして他の全ての種類のコンピューターデバイスやコンピューターオブジェクトが、種々の実施例と関連して使用できるように熟考されることが理解できるだろう。例えば、以降の図4に記載される汎用のリモートコンピューターは、むしろ、ロボット装置のためのハードウェアや基本的なソフトウェアのプラットフォームの大部分を形成し得るコンピューターデバイスの一つの例である。
実施例は、デバイスまたはオブジェクトのためのサービスの開発者による使用のために、オペレーティングシステムによって部分的に実施され得るし、及び/又は、ここにおいて説明される種々の実施例に係る一つまたはそれ以上の機能的な態様を実行するように動作するアプリケーションソフトウェアの中に含まれている。ソフトウェアは、クライアントワークステーション、サーバー、または他のデバイスといった、一つまたはそれ以上のコンピューターによって実行されるプログラムモジュールのような、コンピューターで実行可能なインストラクションの一般的な文脈において記載され得る。当業者であれば、コンピューターシステムは、データ通信のために使用することができる種々の構成およびプロトコルを有すること、そして、従って、いずれの特定の構成やプロトコルも限定的であると捉えられるものではないことが理解されよう。
図4は、このように、好適なコンピューターシステム環境400の実施例を説明しており、ここにおいて記載された実施例の一つの態様が実施され得る。上記で明らかにされたのだが、コンピューターシステム環境400は、好適なコンピューター環境の単なる一つの実施例に過ぎず、利用性または機能性の範囲に関していなかる限定を示唆することも意図していない。加えて、コンピューターシステム環境400は、典型的なコンピューターシステム環境400において説明された一つのコンポーネントまたはその組み合わせに関して、いかなる依存性も有さないように説明されることを意図している。
図4に関して、一つまたはそれ以上の実施例を実行するための典型的なリモートデバイスは、コンピューター410の形式における汎用コンピューターデバイスを含んでいる。コンピューター410のコンポーネントは、これらに限定されるわけではないが、処理ユニット420、システムメモリー410、そしてシステムメモリーを含む種々のシステムコンポーネントを処理ユニット420に接続するシステムバス422、を含み得る。
コンピューター410は、典型的には、種々のコンピューターで読み取り可能な媒体を含み、コンピューター410によってアクセスできるあらゆる利用可能な媒体を使用できる。システムメモリー430は、リードオンリーメモリー(ROM)、及び/又は、ランダムアクセスメモリー(RAM)といった、揮発性、及び/又は、不揮発性メモリーの形式でのコンピューター記録媒体を含み得る。例として、限定ではなく、システムメモリー430は、また、オペレーティングシステム、アプリケーションプログラム、他のプログラムモジュール、そしてプログラムデータを含み得る。
ユーザーは、入力デバイス440を通じて、コンピューター410の中に命令や情報を入れることができる。モニターまたは他のタイプの表示装置が、また、出力インターフェイス450といった、インターフェイスを介してシステムバス422に接続されている。モニターに加えて、コンピューターは、また、スピーカーまたはプリンターといった他の周辺出力デバイスも含み、出力インターフェイス450を通じて接続され得る。
コンピューター410は、ネットワークにおいて、または、リモートコンピューター470といった、一つまたはそれ以上の他のリモートコンピューターとのロジカルな接続を利用した分散環境において、動作し得る。リモートコンピューター470は、パーソナルコンピューター、サーバー、ルーター、ネットワークPC、ピア(peer)デバイス、または、他の共通ネットワークノード、または、他のあらゆるリモートメディアコンサンプション(media consumption)または伝送デバイスであり得るし、コンピューター410に関して上述されたいくつか又は全てのエレメントを含んでもよい。図4に示されたロジカルコネクションは、ローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)といったネットワーク472を含み、また、他のネットワーク/バスを含んでもよい。こうしたネットワーク環境は、家庭、オフィス、エンタープライズワイドのコンピューターネットワーク、イントラネット、および、インターネットにおいてはありふれたものである。
上述のように、典型的な実施例が種々のコンピューターデバイスやネットワークアーキテクチャーに関連して説明されてきたが、基本的なコンセプトは、あらゆるネットワークシステムやコンピューターシステム、または、リソース利用効率改善が望ましいシステムに適用することができる。
同様に、同一または類似の機能を実施例るためには多様な方法がある。例えば、好適なAPI、ツールキット、ドライバーコード、オペレーティグシステム、コントロール、スタンドアロンまたはダウンロード可能なソフトウェアオブジェクト、等で、ここにおいて提供される技術をアプリケーションおよびサービスに利用させるものである。従って、ここにおける実施例は、API(または他のソフトウェアオブジェクト)の観点から熟考され、ここにおいて説明されるように一つまたはそれ以上の実施例を実行するソフトウェアまたはハードウェアオブジェクトの観点からも同様に熟考される。このように、ここにおいて説明される種々の実施例は、全てがハードウェア、部分的にハードウェアであり部分的にソフトウェアの態様であり得る。全てがソフトウェアである態様も同様である。
ここにおいて使用される用語「典型的な(exemplary)」は、例、事例、または説明としての役割を果たすことを意味する。疑義を避けるためであるが、ここにおいて開示された発明の技術的事項は、こうした実施に限定されるものではない。加えて、ここにおいて「典型的」として説明されたあらゆる態様またはデザインは、他の態様またはデザインよりも望ましい、または有利なものとして解釈される必要はないし、当業者に知られている同等の典型的な構成または技術を排除するものでもない。さらに、用語「含む、有する(include、have、contain)」および他の類似の言葉が使用される限りにおいては、疑義を避けるためであるが、こうした用語は、包括的であることが意図されている。請求項で使用される場合にあらゆる追加的または他のエレメントを排除することのないオープントランジションワード(open transition word)としての「含む(comprising)」と類似のやり方である。
述べたように、ここにおいて説明された種々の技術は、ハードウェア、またはソフトウェア、または、適切な場合は両方の組み合わせに関連して実施される。ここにおいて使用されるように、用語「コンポーネント(component)」、「モジュール(module)」、「システム(system)」といったものは、同様に、コンピューター関連エンティティーとして、ハードウェア、ハードウェアとソフトウェアの組み合わせ、ソフトウェア、いずれかとして、または実施におけるソフトウェアとして参照されることを意図するものである。例えば、コンポーネントは、これに限定されるわけではないが、プロセッサ上で実行されるプロセス、プロセッサ、オブジェクト、実行可能、実行スレッド、プログラム、及び/又は、コンピューター、であり得る。説明として、コンピューター上で実行されるアプリケーションとコンピューターの両方が、コンポーネントであり得る。一つまたはそれ以上のコンポーネントが一つのプロセス、及び/又は、実行スレッドの中に存在し得るし、一つのコンポーネントが一つのコンピューターに配置され、及び/又は、2つまたはそれ以上のコンピューター間に配布されてもよい。
上述のシステムは、いくつかのコンポーネント間の相互作用に関して説明されてきた。こうしたシステムおよびコンポーネントは、それらのコンポーネントまたは所定のサブコンポーネント、所定のコンポーネントまたはサブコンポーネントのいくつか、及び/又は、追加的なコンポーネント、を含むことができ、前出のものの種々の置換や組み合わせに従うことが理解されよう。サブコンポーネントは、また、親コンポーネントの中に(階層的に)含まれるよりも、むしろ他のコンポーネントと通信可能に接続されたコンポーネントとして実施され得る。加えて、一つまたはそれ以上のコンポーネントは、一体化した機能を提供するように単一のコンポーネントに組み込まれるか、いくつかの分離されたサブコンポーネントに分割され得ること、および、マネージメント層といった、あらゆる一つまたはそれ以上の中間層は、統合された機能性を提供するために、そうしたサブコンポーネントと通信可能な接続を備え得ること、に留意すべきである。ここにおいて説明されたあらゆるコンポーネントは、また、ここにおいて特定的には記述されていないが当業者には一般的に知られている、一つまたはそれ以上の他のコンポーネントと相互作用することができる。
ここにおいて説明された典型的なシステムの観点においては、説明された発明の技術事項に従って実施され得る方法論は、また、種々の図に係るフローチャートに関しても理解され得る。説明を簡単にする目的のために、方法論が一連のブロックとして示され、説明されている一方で、種々の実施例は、そのブロックの順番に限定されるものではないことが正しく理解されるべきである。いくつかのブロックは、ここにおいて示され説明されたのと、異なる順番で起こり得るし、及び/又は、他のブロックと同時に起こり得る。非連続的な、または、枝分かれしたフローが、フローチャートによって説明されているが、種々の他の枝分かれ、フローパス(path)、そして、ブロックの順番が実施され、同一または類似の結果に達し得ることが理解されよう。さらに、いくつかの図示されたブロックは、以降に説明される方法論の実施においては任意的なものである。
結論
本発明は、種々の変形と代替的な構成がされやすいが、特定の図示された実施例が図面で示され、その詳細が上述されてきた。しかしながら、本発明を開示された特定の形態に限定する意図は無く、反対に、本発明の趣旨および範囲内にある全ての変形、代替的な構成、そして、均等物をカバーする意図であることが、理解されるべきである。
ここにおいて説明された種々の実施例に加えて、本発明の趣旨から逸脱することなく実施例に対応する同一または均等の機能を実行するために、他の類似の実施例が利用され、または、説明された実施例に対して変形や追加をすることができることが理解されるべきである。さらに、マルチプロセッサチップ、または、マルチデバイスは、ここにおいて説明された一つまたはそれ以上の機能に係る性能をシェア(share)することができる。そして、同様に、データ記憶も、複数のデバイスに渡って有効であり得る。従って、本発明は、あらゆる一つの実施例に限定されるものではなく、むしろ、添付の請求項に関する広さ、趣旨、そして範囲にあるものと解釈されるべきである。

Claims (10)

  1. コンピューター環境におけるロボット装置であって:
    前記ロボット装置に対して情報を入力するセンサーセットと;
    ユーザーとコミュニケーションをとるための一つまたはそれ以上の出力様式を有する出力メカニズムと;
    オペレーション状態に関して前記ロボット装置のオペレーションを制御するように構成されたモデルと、を含み、
    前記状態は、前記ロボットが、直接的なユーザー入力から独立したタスクを実行する自律タスク状態と、前記ロボットが、前記センサーセットと前記出力メカニズムを介して、前記ユーザーと相互作用する関与状態と、を含み、
    前記モデルは、前記センサーセットを介して受け取った情報を含む、現在の状況に基づいて、前記自律タスク状態から前記関与状態へいつ移行するか、および、前記関与状態から前記自律タスク状態へいつ移行するか、を判断するように構成されている、
    ことを特徴とするロボット装置。
  2. 前記自律タスク状態は、前記ロボットがユーザー入力に基づいた一つまたはそれ以上のユーザータスクを含むタスクセットを実行するユーザー指向モードと、前記ロボットがユーザー入力に基づかない一つまたはそれ以上のタスクを実行する自分指向モードと、
    を含む請求項1に記載のロボット装置。
  3. 前記ロボット装置は、さらに、
    休憩状態を含み、
    前記モデルは、前記自律タスク状態においては、
    前記関与状態が前記ユーザー指向モードよりも高い優先度レベルを有し、
    前記ユーザー指向モードが前記自分指向モードよりも高い優先度レベルを有し、かつ、
    前記自分指向モードが前記休憩状態よりも高い優先度レベルを有する、
    という優先度レベルの順番に従って、前記ロボット装置の前記オペレーションをコントロールする、
    請求項2に記載のロボット装置。
  4. 前記モデルは、
    前記ロボットが、前記ユーザーと関与する試みを開始して成功した場合に、
    前記ロボットを、前記自律タスク状態から前記関与状態に移行する、
    請求項1に記載のロボット装置。
  5. 前記モデルは、
    前記ロボットが、前記ユーザーを偶然の出会いによって検知し、前記ロボットが、さらに、前記ユーザーはロボットと相互作用することにおそらく興味があるものと検知した場合に、
    前記ロボットを、前記自律タスク状態から前記関与状態に移行する、
    請求項1に記載のロボット装置。
  6. 前記モデルは、
    前記ロボットがタスクを実行している最中に、前記ユーザーが前記ロボットとの関与の試みを開始した場合に、
    前記ロボットを、前記自律タスク状態から前記関与状態に移行し、
    前記関与状態において、前記ロボットは、前記ユーザーとコミュニケーションをとって、前記タスクを再開するか、前記関与状態に留まるかどうかを判断する、
    請求項1に記載のロボット装置。
  7. コンピューター環境において、少なくとも一つのプロセッサ上で、少なくとも部分的に実行される方法であって:
    ロボットを自律的にオペレーションさせる一つまたはそれ以上のプログラムを前記ロボットの中で実行するステップと、
    自律タスク状態に居る最中にタスクセットを実行するステップと、
    ユーザーを検知するステップと、
    前記ユーザーとの関与を試みるステップと、を含み、
    前記関与の試みが成功した場合には、前記ユーザーと相互作用するために関与状態に入る、
    ことを特徴とする方法。
  8. 前記方法は、さらに、
    関与状態に入るステップと、
    前記ユーザーと相互作用するステップと、
    現在の状態データの変化に基づいて、前記関与状態から離れるステップと、を含む、
    請求項7に記載の方法。
  9. コンピューターで実行可能なインストラクションを含む一つまたはそれ以上のコンピューターで読み取り可能な媒体であって:
    前記ロボットが独立してタスクを実行する自律タスク状態に係る自分指向モードにおけるオペレーションを含んで、前記ロボットを自律的にオペレーションさせるように、ロボットの中で一つまたはそれ以上のプログラムを実行するステップと;
    ユーザーからの以前の入力およびトリガーイベントの検知に基づいて前記ロボットがユーザータスクを実行する自律タスク状態に係るユーザー指向モードにおいて、オペレーションするステップと;
    ユーザータスクを完了するステップと;および
    前記自律タスク状態から関与状態への移行、前記関与状態における他のユーザータスクに対応する情報の受け取り、そして、前記他のユーザータスクを実行するための前記自律タスク状態への移行、を含み、前記ロボットが別のユーザータスクを実行する前記ユーザー指向モードの別の事例において、オペレーションするステップと;
    を、実行することを特徴とするコンピューターで読み取り可能な媒体。
  10. 前記一つまたはそれ以上のコンピューターで読み取り可能な媒体は、さらに、
    現在の状況を判断するために入力データを検知するステップを含み、
    前記トリガーイベントは、前記現在の状況に対応する情報に基づいている、
    請求項9に記載のコンピューターで読み取り可能な媒体。
JP2013549530A 2011-01-13 2012-01-12 ロボットとユーザーの相互作用のためのマルチ状態モデル Active JP5905488B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/005,839 2011-01-13
US13/005,839 US8818556B2 (en) 2011-01-13 2011-01-13 Multi-state model for robot and user interaction
PCT/US2012/021001 WO2012097109A2 (en) 2011-01-13 2012-01-12 Multi-state model for robot and user interaction

Publications (2)

Publication Number Publication Date
JP2014502566A true JP2014502566A (ja) 2014-02-03
JP5905488B2 JP5905488B2 (ja) 2016-04-20

Family

ID=46491380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013549530A Active JP5905488B2 (ja) 2011-01-13 2012-01-12 ロボットとユーザーの相互作用のためのマルチ状態モデル

Country Status (7)

Country Link
US (1) US8818556B2 (ja)
EP (2) EP3722054A1 (ja)
JP (1) JP5905488B2 (ja)
KR (1) KR101984320B1 (ja)
CN (1) CN102609089B (ja)
HK (1) HK1171830A1 (ja)
WO (1) WO2012097109A2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016132729A1 (ja) * 2015-02-17 2016-08-25 日本電気株式会社 ロボット制御装置、ロボット、ロボット制御方法およびプログラム記録媒体
JP6393377B1 (ja) * 2017-07-24 2018-09-19 ユニティガードシステム株式会社 ロボット、情報提供方法及び情報提供システム
JP2018180523A (ja) * 2017-04-12 2018-11-15 サウンドハウンド,インコーポレイテッド マン・マシン・ダイアログにおけるエージェント係属の管理
EP3432225A1 (en) 2017-07-18 2019-01-23 Panasonic Intellectual Property Management Co., Ltd. Apparatus, method, non-transistory computer-readable recording medium storing program, and robot
JP2019018336A (ja) * 2017-07-18 2019-02-07 パナソニックIpマネジメント株式会社 装置、方法、プログラム、及びロボット
US11969876B2 (en) 2019-03-19 2024-04-30 Panasonic Intellectual Property Management Co., Ltd. Robot and control method of robot

Families Citing this family (171)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103607968B (zh) * 2011-05-31 2017-07-04 直观外科手术操作公司 机器人外科器械末端执行器的主动控制
WO2012172721A1 (ja) * 2011-06-14 2012-12-20 パナソニック株式会社 ロボット装置、ロボット制御方法、及びロボット制御プログラム
KR20130021943A (ko) * 2011-08-24 2013-03-06 한국전자통신연구원 디지털 마인드 서비스 장치 및 방법
US9656392B2 (en) * 2011-09-20 2017-05-23 Disney Enterprises, Inc. System for controlling robotic characters to enhance photographic results
EP3705242A1 (en) 2011-10-21 2020-09-09 Intuitive Surgical Operations, Inc. Grip force control for robotic surgical instrument end effector
US11871901B2 (en) 2012-05-20 2024-01-16 Cilag Gmbh International Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage
EP2685403A3 (en) 2012-07-09 2017-03-01 Technion Research & Development Foundation Limited Natural machine interface system
DE102012109004A1 (de) * 2012-09-24 2014-03-27 RobArt GmbH Roboter und Verfahren zur autonomen Inspektion oder Bearbeitung von Bodenflächen
AU2013204965B2 (en) * 2012-11-12 2016-07-28 C2 Systems Limited A system, method, computer program and data signal for the registration, monitoring and control of machines and devices
KR20140077489A (ko) * 2012-12-14 2014-06-24 삼성전자주식회사 사용자 단말 장치, 네트워크 장치 및 그 제어 방법
US8868238B1 (en) 2013-01-10 2014-10-21 The United States Of America As Represented By The Secretary Of The Army Apparatus and method for systematic control of robotic deployment and extraction
US9625884B1 (en) 2013-06-10 2017-04-18 Timothy Harris Ousley Apparatus for extending control and methods thereof
US9211644B1 (en) * 2013-10-25 2015-12-15 Vecna Technologies, Inc. System and method for instructing a device
US9846843B2 (en) * 2013-10-30 2017-12-19 Georgia Tech Research Corporation Methods and systems for facilitating interactions between a robot and user
CN104881108B (zh) * 2014-02-27 2018-08-31 青岛海尔机器人有限公司 一种智能人机交互方法及装置
EP2933064A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics System, method and computer program product for handling humanoid robot interaction with human
EP2933070A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Methods and systems of handling a dialog with a robot
EP2933066A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Activity monitoring of a robot
US9272418B1 (en) * 2014-09-02 2016-03-01 The Johns Hopkins University System and method for flexible human-machine collaboration
US11504192B2 (en) 2014-10-30 2022-11-22 Cilag Gmbh International Method of hub communication with surgical instrument systems
US10046457B2 (en) 2014-10-31 2018-08-14 General Electric Company System and method for the creation and utilization of multi-agent dynamic situational awareness models
US20180099846A1 (en) 2015-03-06 2018-04-12 Wal-Mart Stores, Inc. Method and apparatus for transporting a plurality of stacked motorized transport units
US10071891B2 (en) 2015-03-06 2018-09-11 Walmart Apollo, Llc Systems, devices, and methods for providing passenger transport
WO2016142794A1 (en) 2015-03-06 2016-09-15 Wal-Mart Stores, Inc Item monitoring system and method
CN106325113B (zh) * 2015-06-26 2019-03-19 北京贝虎机器人技术有限公司 机器人控制引擎及系统
CN106325142A (zh) * 2015-06-30 2017-01-11 芋头科技(杭州)有限公司 一种机器人系统及其控制方法
CN105446491B (zh) * 2015-12-16 2018-09-18 北京光年无限科技有限公司 一种基于智能机器人的交互方法和装置
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
CN105843118B (zh) * 2016-03-25 2018-07-27 北京光年无限科技有限公司 一种机器人交互方法及机器人系统
CA2961938A1 (en) 2016-04-01 2017-10-01 Wal-Mart Stores, Inc. Systems and methods for moving pallets via unmanned motorized unit-guided forklifts
US10019566B1 (en) 2016-04-14 2018-07-10 X Development Llc Authorizing robot use and/or adapting physical control parameters for a robot
WO2017217192A1 (ja) * 2016-06-14 2017-12-21 Groove X株式会社 涼しさを求める自律行動型ロボット
CN107813306B (zh) * 2016-09-12 2021-10-26 徐州网递智能科技有限公司 机器人及其动作控制方法和装置
US10265844B2 (en) * 2017-03-24 2019-04-23 International Business Machines Corporation Creating assembly plans based on triggering events
JP6817152B2 (ja) * 2017-06-09 2021-01-20 本田技研工業株式会社 サービス提供システム及びデータベース
JP6572943B2 (ja) * 2017-06-23 2019-09-11 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
US10427306B1 (en) * 2017-07-06 2019-10-01 X Development Llc Multimodal object identification
KR102000110B1 (ko) * 2017-08-21 2019-07-15 한국기계연구원 혼합현실을 이용한 자율기계시스템 및 자율기계시스템 제어방법
EP3681678A4 (en) 2017-09-18 2020-11-18 Samsung Electronics Co., Ltd. METHOD OF DYNAMIC INTERACTION AND ELECTRONIC DEVICE THEREFORE
US11413042B2 (en) 2017-10-30 2022-08-16 Cilag Gmbh International Clip applier comprising a reciprocating clip advancing member
US11564756B2 (en) 2017-10-30 2023-01-31 Cilag Gmbh International Method of hub communication with surgical instrument systems
US11317919B2 (en) 2017-10-30 2022-05-03 Cilag Gmbh International Clip applier comprising a clip crimping system
US11911045B2 (en) 2017-10-30 2024-02-27 Cllag GmbH International Method for operating a powered articulating multi-clip applier
US11291510B2 (en) 2017-10-30 2022-04-05 Cilag Gmbh International Method of hub communication with surgical instrument systems
US11311342B2 (en) 2017-10-30 2022-04-26 Cilag Gmbh International Method for communicating with surgical instrument systems
US11229436B2 (en) 2017-10-30 2022-01-25 Cilag Gmbh International Surgical system comprising a surgical tool and a surgical hub
US11819231B2 (en) 2017-10-30 2023-11-21 Cilag Gmbh International Adaptive control programs for a surgical system comprising more than one type of cartridge
US11510741B2 (en) 2017-10-30 2022-11-29 Cilag Gmbh International Method for producing a surgical instrument comprising a smart electrical system
US11801098B2 (en) 2017-10-30 2023-10-31 Cilag Gmbh International Method of hub communication with surgical instrument systems
CN107831903B (zh) * 2017-11-24 2021-02-02 科大讯飞股份有限公司 多人参与的人机交互方法及装置
US11051876B2 (en) 2017-12-28 2021-07-06 Cilag Gmbh International Surgical evacuation flow paths
US11633237B2 (en) 2017-12-28 2023-04-25 Cilag Gmbh International Usage and technique analysis of surgeon / staff performance against a baseline to optimize device utilization and performance for both current and future procedures
US11464535B2 (en) 2017-12-28 2022-10-11 Cilag Gmbh International Detection of end effector emersion in liquid
US11832840B2 (en) 2017-12-28 2023-12-05 Cilag Gmbh International Surgical instrument having a flexible circuit
US11832899B2 (en) 2017-12-28 2023-12-05 Cilag Gmbh International Surgical systems with autonomously adjustable control programs
US11419667B2 (en) 2017-12-28 2022-08-23 Cilag Gmbh International Ultrasonic energy device which varies pressure applied by clamp arm to provide threshold control pressure at a cut progression location
US10849697B2 (en) 2017-12-28 2020-12-01 Ethicon Llc Cloud interface for coupled surgical devices
US11132462B2 (en) 2017-12-28 2021-09-28 Cilag Gmbh International Data stripping method to interrogate patient records and create anonymized record
US11045591B2 (en) 2017-12-28 2021-06-29 Cilag Gmbh International Dual in-series large and small droplet filters
US11056244B2 (en) 2017-12-28 2021-07-06 Cilag Gmbh International Automated data scaling, alignment, and organizing based on predefined parameters within surgical networks
US11998193B2 (en) 2017-12-28 2024-06-04 Cilag Gmbh International Method for usage of the shroud as an aspect of sensing or controlling a powered surgical device, and a control algorithm to adjust its default operation
US11937769B2 (en) 2017-12-28 2024-03-26 Cilag Gmbh International Method of hub communication, processing, storage and display
US10595887B2 (en) 2017-12-28 2020-03-24 Ethicon Llc Systems for adjusting end effector parameters based on perioperative information
US11284936B2 (en) 2017-12-28 2022-03-29 Cilag Gmbh International Surgical instrument having a flexible electrode
US11424027B2 (en) 2017-12-28 2022-08-23 Cilag Gmbh International Method for operating surgical instrument systems
US11202570B2 (en) 2017-12-28 2021-12-21 Cilag Gmbh International Communication hub and storage device for storing parameters and status of a surgical device to be shared with cloud based analytics systems
US11109866B2 (en) 2017-12-28 2021-09-07 Cilag Gmbh International Method for circular stapler control algorithm adjustment based on situational awareness
US11672605B2 (en) 2017-12-28 2023-06-13 Cilag Gmbh International Sterile field interactive control displays
US11446052B2 (en) 2017-12-28 2022-09-20 Cilag Gmbh International Variation of radio frequency and ultrasonic power level in cooperation with varying clamp arm pressure to achieve predefined heat flux or power applied to tissue
US10932872B2 (en) 2017-12-28 2021-03-02 Ethicon Llc Cloud-based medical analytics for linking of local usage trends with the resource acquisition behaviors of larger data set
US11786245B2 (en) 2017-12-28 2023-10-17 Cilag Gmbh International Surgical systems with prioritized data transmission capabilities
US11659023B2 (en) 2017-12-28 2023-05-23 Cilag Gmbh International Method of hub communication
US11410259B2 (en) 2017-12-28 2022-08-09 Cilag Gmbh International Adaptive control program updates for surgical devices
US11419630B2 (en) 2017-12-28 2022-08-23 Cilag Gmbh International Surgical system distributed processing
US11273001B2 (en) 2017-12-28 2022-03-15 Cilag Gmbh International Surgical hub and modular device response adjustment based on situational awareness
US11969216B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution
US11058498B2 (en) 2017-12-28 2021-07-13 Cilag Gmbh International Cooperative surgical actions for robot-assisted surgical platforms
US11589888B2 (en) 2017-12-28 2023-02-28 Cilag Gmbh International Method for controlling smart energy devices
US10987178B2 (en) 2017-12-28 2021-04-27 Ethicon Llc Surgical hub control arrangements
US10944728B2 (en) 2017-12-28 2021-03-09 Ethicon Llc Interactive surgical systems with encrypted communication capabilities
US10892995B2 (en) 2017-12-28 2021-01-12 Ethicon Llc Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs
US11364075B2 (en) 2017-12-28 2022-06-21 Cilag Gmbh International Radio frequency energy device for delivering combined electrical signals
US11076921B2 (en) 2017-12-28 2021-08-03 Cilag Gmbh International Adaptive control program updates for surgical hubs
US11559308B2 (en) 2017-12-28 2023-01-24 Cilag Gmbh International Method for smart energy device infrastructure
US11278281B2 (en) 2017-12-28 2022-03-22 Cilag Gmbh International Interactive surgical system
US11896443B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Control of a surgical system through a surgical barrier
US11857152B2 (en) 2017-12-28 2024-01-02 Cilag Gmbh International Surgical hub spatial awareness to determine devices in operating theater
US11559307B2 (en) 2017-12-28 2023-01-24 Cilag Gmbh International Method of robotic hub communication, detection, and control
US20190201113A1 (en) 2017-12-28 2019-07-04 Ethicon Llc Controls for robot-assisted surgical platforms
US10943454B2 (en) 2017-12-28 2021-03-09 Ethicon Llc Detection and escalation of security responses of surgical instruments to increasing severity threats
US11308075B2 (en) * 2017-12-28 2022-04-19 Cilag Gmbh International Surgical network, instrument, and cloud responses based on validation of received dataset and authentication of its source and integrity
US11818052B2 (en) 2017-12-28 2023-11-14 Cilag Gmbh International Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs
US11147607B2 (en) 2017-12-28 2021-10-19 Cilag Gmbh International Bipolar combination device that automatically adjusts pressure based on energy modality
US10892899B2 (en) 2017-12-28 2021-01-12 Ethicon Llc Self describing data packets generated at an issuing instrument
US11324557B2 (en) 2017-12-28 2022-05-10 Cilag Gmbh International Surgical instrument with a sensing array
US20190201042A1 (en) 2017-12-28 2019-07-04 Ethicon Llc Determining the state of an ultrasonic electromechanical system according to frequency shift
US11304763B2 (en) 2017-12-28 2022-04-19 Cilag Gmbh International Image capturing of the areas outside the abdomen to improve placement and control of a surgical device in use
US11304745B2 (en) 2017-12-28 2022-04-19 Cilag Gmbh International Surgical evacuation sensing and display
US11179208B2 (en) 2017-12-28 2021-11-23 Cilag Gmbh International Cloud-based medical analytics for security and authentication trends and reactive measures
US11864728B2 (en) 2017-12-28 2024-01-09 Cilag Gmbh International Characterization of tissue irregularities through the use of mono-chromatic light refractivity
US10966791B2 (en) 2017-12-28 2021-04-06 Ethicon Llc Cloud-based medical analytics for medical facility segmented individualization of instrument function
US11540855B2 (en) 2017-12-28 2023-01-03 Cilag Gmbh International Controlling activation of an ultrasonic surgical instrument according to the presence of tissue
US11529187B2 (en) 2017-12-28 2022-12-20 Cilag Gmbh International Surgical evacuation sensor arrangements
US11389164B2 (en) 2017-12-28 2022-07-19 Cilag Gmbh International Method of using reinforced flexible circuits with multiple sensors to optimize performance of radio frequency devices
US11903601B2 (en) 2017-12-28 2024-02-20 Cilag Gmbh International Surgical instrument comprising a plurality of drive systems
US11166772B2 (en) 2017-12-28 2021-11-09 Cilag Gmbh International Surgical hub coordination of control and communication of operating room devices
US11602393B2 (en) 2017-12-28 2023-03-14 Cilag Gmbh International Surgical evacuation sensing and generator control
US11069012B2 (en) 2017-12-28 2021-07-20 Cilag Gmbh International Interactive surgical systems with condition handling of devices and data capabilities
US11304699B2 (en) 2017-12-28 2022-04-19 Cilag Gmbh International Method for adaptive control schemes for surgical network control and interaction
US11234756B2 (en) 2017-12-28 2022-02-01 Cilag Gmbh International Powered surgical tool with predefined adjustable control algorithm for controlling end effector parameter
US11100631B2 (en) 2017-12-28 2021-08-24 Cilag Gmbh International Use of laser light and red-green-blue coloration to determine properties of back scattered light
US11317937B2 (en) 2018-03-08 2022-05-03 Cilag Gmbh International Determining the state of an ultrasonic end effector
US11896322B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Sensing the patient position and contact utilizing the mono-polar return pad electrode to provide situational awareness to the hub
US11311306B2 (en) 2017-12-28 2022-04-26 Cilag Gmbh International Surgical systems for detecting end effector tissue distribution irregularities
US11291495B2 (en) 2017-12-28 2022-04-05 Cilag Gmbh International Interruption of energy due to inadvertent capacitive coupling
US11423007B2 (en) 2017-12-28 2022-08-23 Cilag Gmbh International Adjustment of device control programs based on stratified contextual data in addition to the data
US11678881B2 (en) 2017-12-28 2023-06-20 Cilag Gmbh International Spatial awareness of surgical hubs in operating rooms
US10695081B2 (en) 2017-12-28 2020-06-30 Ethicon Llc Controlling a surgical instrument according to sensed closure parameters
US11666331B2 (en) 2017-12-28 2023-06-06 Cilag Gmbh International Systems for detecting proximity of surgical end effector to cancerous tissue
US11786251B2 (en) 2017-12-28 2023-10-17 Cilag Gmbh International Method for adaptive control schemes for surgical network control and interaction
US11266468B2 (en) 2017-12-28 2022-03-08 Cilag Gmbh International Cooperative utilization of data derived from secondary sources by intelligent surgical hubs
US11612444B2 (en) 2017-12-28 2023-03-28 Cilag Gmbh International Adjustment of a surgical device function based on situational awareness
US11464559B2 (en) 2017-12-28 2022-10-11 Cilag Gmbh International Estimating state of ultrasonic end effector and control system therefor
US11571234B2 (en) 2017-12-28 2023-02-07 Cilag Gmbh International Temperature control of ultrasonic end effector and control system therefor
US11432885B2 (en) 2017-12-28 2022-09-06 Cilag Gmbh International Sensing arrangements for robot-assisted surgical platforms
US11257589B2 (en) 2017-12-28 2022-02-22 Cilag Gmbh International Real-time analysis of comprehensive cost of all instrumentation used in surgery utilizing data fluidity to track instruments through stocking and in-house processes
US11304720B2 (en) 2017-12-28 2022-04-19 Cilag Gmbh International Activation of energy devices
US10758310B2 (en) 2017-12-28 2020-09-01 Ethicon Llc Wireless pairing of a surgical device with another device within a sterile surgical field based on the usage and situational awareness of devices
US11160605B2 (en) 2017-12-28 2021-11-02 Cilag Gmbh International Surgical evacuation sensing and motor control
US11376002B2 (en) 2017-12-28 2022-07-05 Cilag Gmbh International Surgical instrument cartridge sensor assemblies
US11576677B2 (en) 2017-12-28 2023-02-14 Cilag Gmbh International Method of hub communication, processing, display, and cloud analytics
US11096693B2 (en) 2017-12-28 2021-08-24 Cilag Gmbh International Adjustment of staple height of at least one row of staples based on the sensed tissue thickness or force in closing
US11969142B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Method of compressing tissue within a stapling device and simultaneously displaying the location of the tissue within the jaws
US10755813B2 (en) 2017-12-28 2020-08-25 Ethicon Llc Communication of smoke evacuation system parameters to hub or cloud in smoke evacuation module for interactive surgical platform
US11253315B2 (en) 2017-12-28 2022-02-22 Cilag Gmbh International Increasing radio frequency to create pad-less monopolar loop
US20190201039A1 (en) 2017-12-28 2019-07-04 Ethicon Llc Situational awareness of electrosurgical systems
US11744604B2 (en) 2017-12-28 2023-09-05 Cilag Gmbh International Surgical instrument with a hardware-only control circuit
US11259830B2 (en) 2018-03-08 2022-03-01 Cilag Gmbh International Methods for controlling temperature in ultrasonic device
US11707293B2 (en) 2018-03-08 2023-07-25 Cilag Gmbh International Ultrasonic sealing algorithm with temperature control
US11986233B2 (en) 2018-03-08 2024-05-21 Cilag Gmbh International Adjustment of complex impedance to compensate for lost power in an articulating ultrasonic device
US11259806B2 (en) 2018-03-28 2022-03-01 Cilag Gmbh International Surgical stapling devices with features for blocking advancement of a camming assembly of an incompatible cartridge installed therein
US11090047B2 (en) 2018-03-28 2021-08-17 Cilag Gmbh International Surgical instrument comprising an adaptive control system
US11471156B2 (en) 2018-03-28 2022-10-18 Cilag Gmbh International Surgical stapling devices with improved rotary driven closure systems
US11096688B2 (en) 2018-03-28 2021-08-24 Cilag Gmbh International Rotary driven firing members with different anvil and channel engagement features
US11207067B2 (en) 2018-03-28 2021-12-28 Cilag Gmbh International Surgical stapling device with separate rotary driven closure and firing systems and firing member that engages both jaws while firing
US11406382B2 (en) 2018-03-28 2022-08-09 Cilag Gmbh International Staple cartridge comprising a lockout key configured to lift a firing member
US11278280B2 (en) 2018-03-28 2022-03-22 Cilag Gmbh International Surgical instrument comprising a jaw closure lockout
US10973520B2 (en) 2018-03-28 2021-04-13 Ethicon Llc Surgical staple cartridge with firing member driven camming assembly that has an onboard tissue cutting feature
JP7279706B2 (ja) * 2018-03-28 2023-05-23 ソニーグループ株式会社 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム
US11219453B2 (en) 2018-03-28 2022-01-11 Cilag Gmbh International Surgical stapling devices with cartridge compatible closure and firing lockout arrangements
US10678228B2 (en) * 2018-04-04 2020-06-09 Invia Robotics, Inc. Autonomous robots performing concerted operation based on shared sensory access and holistic flow of information
CN108551355A (zh) * 2018-04-23 2018-09-18 王宏伟 一种安防巡逻用机器人
CN110653815B (zh) * 2018-06-29 2021-12-07 深圳市优必选科技有限公司 一种机器人控制方法、机器人及计算机存储介质
EP3835008A4 (en) * 2018-08-08 2022-04-13 Sony Group Corporation CONTROL DEVICE, CONTROL METHOD AND PROGRAM
CN109278051A (zh) * 2018-08-09 2019-01-29 北京光年无限科技有限公司 基于智能机器人的交互方法及系统
DE102018214023A1 (de) * 2018-08-20 2020-02-20 Bayerische Motoren Werke Aktiengesellschaft Skalierbare Teleoperation Autonomer Roboter
JP7374581B2 (ja) * 2018-10-01 2023-11-07 カシオ計算機株式会社 ロボット、画像処理方法及びプログラム
KR102228866B1 (ko) * 2018-10-18 2021-03-17 엘지전자 주식회사 로봇 및 그의 제어 방법
KR102673293B1 (ko) * 2018-11-08 2024-06-11 현대자동차주식회사 서비스 로봇 및 그의 운용 방법
CN109949721A (zh) * 2019-02-01 2019-06-28 腾讯科技(深圳)有限公司 一种全息影像显示装置以及全息影像的显示控制方法
US11751872B2 (en) 2019-02-19 2023-09-12 Cilag Gmbh International Insertable deactivator element for surgical stapler lockouts
US11357503B2 (en) 2019-02-19 2022-06-14 Cilag Gmbh International Staple cartridge retainers with frangible retention features and methods of using same
US11317915B2 (en) 2019-02-19 2022-05-03 Cilag Gmbh International Universal cartridge based key feature that unlocks multiple lockout arrangements in different surgical staplers
US11369377B2 (en) 2019-02-19 2022-06-28 Cilag Gmbh International Surgical stapling assembly with cartridge based retainer configured to unlock a firing lockout
US11331101B2 (en) 2019-02-19 2022-05-17 Cilag Gmbh International Deactivator element for defeating surgical stapling device lockouts
USD950728S1 (en) 2019-06-25 2022-05-03 Cilag Gmbh International Surgical staple cartridge
USD964564S1 (en) 2019-06-25 2022-09-20 Cilag Gmbh International Surgical staple cartridge retainer with a closure system authentication key
USD952144S1 (en) 2019-06-25 2022-05-17 Cilag Gmbh International Surgical staple cartridge retainer with firing system authentication key
CN110286771B (zh) * 2019-06-28 2024-06-07 北京金山安全软件有限公司 交互方法、装置、智能机器人、电子设备及存储介质
KR102292052B1 (ko) * 2020-02-21 2021-08-20 네이버 주식회사 로봇의 위치 정보와 모바일 단말의 센싱 정보를 수집하는 방법 및 장치
CN113771014B (zh) * 2021-10-09 2022-03-18 北京中海兴达建设有限公司 一种用于建筑施工的scara智能化机械臂控制方法和系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001300148A (ja) * 2000-04-18 2001-10-30 Casio Comput Co Ltd アクション応答システムおよびそのプログラム記録媒体
JP2003305677A (ja) * 2002-04-11 2003-10-28 Sony Corp ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP2004234631A (ja) * 2002-11-15 2004-08-19 Mitsubishi Electric Research Laboratories Inc ユーザと対話型実体エージェントとの間の対話を管理するシステムおよび対話型実体エージェントによるユーザとの対話を管理する方法
JP2004237391A (ja) * 2003-02-05 2004-08-26 Sony Corp ロボット装置、及びロボット装置の動作制御方法
JP2007044825A (ja) * 2005-08-10 2007-02-22 Toshiba Corp 行動管理装置、行動管理方法および行動管理プログラム
JP2008279529A (ja) * 2007-05-09 2008-11-20 Honda Motor Co Ltd 移動型ロボット
US20100153317A1 (en) * 2008-12-11 2010-06-17 Samsung Electronics Co., Ltd Intelligent robot and control method thereof
US20100174546A1 (en) * 2009-01-06 2010-07-08 Samsung Electronics Co., Ltd. Sound recognition apparatus of robot and method for controlling the same

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001277163A (ja) * 2000-04-03 2001-10-09 Sony Corp ロボットの制御装置及び制御方法
KR20020044499A (ko) 2000-12-06 2002-06-15 윤종용 로봇 제어시스템 및 그 제어방법
JP4143305B2 (ja) * 2001-01-30 2008-09-03 日本電気株式会社 ロボット装置、照合環境判定方法、及び照合環境判定プログラム
JP2003205483A (ja) * 2001-11-07 2003-07-22 Sony Corp ロボットシステム及びロボット装置の制御方法
JP3714268B2 (ja) * 2002-03-18 2005-11-09 ソニー株式会社 ロボット装置
WO2004052598A1 (ja) 2002-12-12 2004-06-24 Matsushita Electric Industrial Co., Ltd. ロボット制御装置
JP2004283958A (ja) * 2003-03-20 2004-10-14 Sony Corp ロボット装置、その行動制御方法及びプログラム
US8292433B2 (en) 2003-03-21 2012-10-23 Queen's University At Kingston Method and apparatus for communication between humans and devices
ATE522330T1 (de) * 2005-09-30 2011-09-15 Irobot Corp Robotersystem mit kabelloser kommunikation mittels tcp/ip übertragung
WO2008083489A1 (en) * 2007-01-12 2008-07-17 Hansjorg Baltes Method and system for robot generation

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001300148A (ja) * 2000-04-18 2001-10-30 Casio Comput Co Ltd アクション応答システムおよびそのプログラム記録媒体
JP2003305677A (ja) * 2002-04-11 2003-10-28 Sony Corp ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP2004234631A (ja) * 2002-11-15 2004-08-19 Mitsubishi Electric Research Laboratories Inc ユーザと対話型実体エージェントとの間の対話を管理するシステムおよび対話型実体エージェントによるユーザとの対話を管理する方法
JP2004237391A (ja) * 2003-02-05 2004-08-26 Sony Corp ロボット装置、及びロボット装置の動作制御方法
JP2007044825A (ja) * 2005-08-10 2007-02-22 Toshiba Corp 行動管理装置、行動管理方法および行動管理プログラム
JP2008279529A (ja) * 2007-05-09 2008-11-20 Honda Motor Co Ltd 移動型ロボット
US20100153317A1 (en) * 2008-12-11 2010-06-17 Samsung Electronics Co., Ltd Intelligent robot and control method thereof
US20100174546A1 (en) * 2009-01-06 2010-07-08 Samsung Electronics Co., Ltd. Sound recognition apparatus of robot and method for controlling the same

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016132729A1 (ja) * 2015-02-17 2016-08-25 日本電気株式会社 ロボット制御装置、ロボット、ロボット制御方法およびプログラム記録媒体
JPWO2016132729A1 (ja) * 2015-02-17 2017-11-30 日本電気株式会社 ロボット制御装置、ロボット、ロボット制御方法およびプログラム
US11250844B2 (en) 2017-04-12 2022-02-15 Soundhound, Inc. Managing agent engagement in a man-machine dialog
JP2018180523A (ja) * 2017-04-12 2018-11-15 サウンドハウンド,インコーポレイテッド マン・マシン・ダイアログにおけるエージェント係属の管理
EP3432225A1 (en) 2017-07-18 2019-01-23 Panasonic Intellectual Property Management Co., Ltd. Apparatus, method, non-transistory computer-readable recording medium storing program, and robot
CN109262606A (zh) * 2017-07-18 2019-01-25 松下知识产权经营株式会社 装置、方法、程序以及机器人
JP2019018336A (ja) * 2017-07-18 2019-02-07 パナソニックIpマネジメント株式会社 装置、方法、プログラム、及びロボット
US11220008B2 (en) 2017-07-18 2022-01-11 Panasonic Intellectual Property Management Co., Ltd. Apparatus, method, non-transitory computer-readable recording medium storing program, and robot
JP7075168B2 (ja) 2017-07-18 2022-05-25 パナソニックホールディングス株式会社 装置、方法、プログラム、及びロボット
CN109262606B (zh) * 2017-07-18 2023-10-27 松下知识产权经营株式会社 装置、方法、记录介质以及机器人
JP2019023815A (ja) * 2017-07-24 2019-02-14 ユニティガードシステム株式会社 ロボット、情報提供方法及び情報提供システム
JP6393377B1 (ja) * 2017-07-24 2018-09-19 ユニティガードシステム株式会社 ロボット、情報提供方法及び情報提供システム
US11969876B2 (en) 2019-03-19 2024-04-30 Panasonic Intellectual Property Management Co., Ltd. Robot and control method of robot
JP7502520B2 (ja) 2019-03-19 2024-06-18 パナソニックホールディングス株式会社 ロボット、ロボットの制御方法及びプログラム

Also Published As

Publication number Publication date
KR20140037802A (ko) 2014-03-27
EP3722054A1 (en) 2020-10-14
US8818556B2 (en) 2014-08-26
EP2663429A4 (en) 2017-12-27
WO2012097109A2 (en) 2012-07-19
HK1171830A1 (zh) 2013-04-05
CN102609089B (zh) 2015-12-16
US20120185090A1 (en) 2012-07-19
JP5905488B2 (ja) 2016-04-20
WO2012097109A3 (en) 2012-10-26
EP2663429A2 (en) 2013-11-20
KR101984320B1 (ko) 2019-05-30
CN102609089A (zh) 2012-07-25

Similar Documents

Publication Publication Date Title
JP5905488B2 (ja) ロボットとユーザーの相互作用のためのマルチ状態モデル
KR102103624B1 (ko) 자율 생활 능력을 갖는 휴머노이드 로봇
US10970527B2 (en) Robot attention detection
KR102438300B1 (ko) 청취 디바이스에 대한 디바이스 중재
US9363104B2 (en) Customized speech generation
EP3254452B1 (en) Device, method, and graphical user interface for establishing a relationship and connection between two devices
US9285863B2 (en) Statistical approach to power management for electronic devices
WO2016132729A1 (ja) ロボット制御装置、ロボット、ロボット制御方法およびプログラム記録媒体
JP2014522053A (ja) テレプレゼンスセッションを実行するためのシステム、方法及び記憶媒体
US11426879B2 (en) Device, method, and program
KR20200132654A (ko) 로봇 및 그의 제어 방법
US10569420B1 (en) Interfacing with autonomous devices
KR20190106925A (ko) 인공지능 로봇 및 그의 제어 방법
EP3893215A1 (en) Information processing device, information processing method, and program
US10616343B1 (en) Center console unit and corresponding systems and methods
US20210137438A1 (en) Control system for mobile robots
EP4111446A1 (en) Multimodal beamforming and attention filtering for multiparty interactions
KR20230022898A (ko) 제스처를 인식하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
KR102185369B1 (ko) 사용자와의 대화를 위한 정보를 생성하는 시스템 및 방법
JPWO2019146188A1 (ja) 情報処理装置および情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141218

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150523

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160316

R150 Certificate of patent or registration of utility model

Ref document number: 5905488

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250