JP6495331B2 - 人と人型ロボットの交流を処理するためのシステム、方法及びコンピュータプログラムプロダクト - Google Patents

人と人型ロボットの交流を処理するためのシステム、方法及びコンピュータプログラムプロダクト Download PDF

Info

Publication number
JP6495331B2
JP6495331B2 JP2016562751A JP2016562751A JP6495331B2 JP 6495331 B2 JP6495331 B2 JP 6495331B2 JP 2016562751 A JP2016562751 A JP 2016562751A JP 2016562751 A JP2016562751 A JP 2016562751A JP 6495331 B2 JP6495331 B2 JP 6495331B2
Authority
JP
Japan
Prior art keywords
stimulus
robot
person
event
humanoid robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016562751A
Other languages
English (en)
Other versions
JP2017513724A (ja
Inventor
ル・ボルニュ,マティアス
メゾニエ,ブリュノ
モンソー,ジェローム
ベルトロップ,テイラー
エルビエ,ティボー
ジャコブ,ギヨーム
ガト,グウェナエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aldebaran SAS
Original Assignee
SoftBank Robotics Europe SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Robotics Europe SAS filed Critical SoftBank Robotics Europe SAS
Publication of JP2017513724A publication Critical patent/JP2017513724A/ja
Application granted granted Critical
Publication of JP6495331B2 publication Critical patent/JP6495331B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)
  • Toys (AREA)

Description

本発明は、概してロボットプログラミングの分野に関し、特に人と人型ロボットの交流を処理するためのシステム、方法及びコンピュータプログラムプロダクトに関する。
ロボットは、産業において長年の命脈を有し、個人的サービスのますます不可欠な部分になっているが、人型ロボットは、まだそれ自体の領分にある。何故なら、コンパニオンロボットになるために人の行動を統合する人型ロボットを作製するために、多くの新しい問題が取り組まれなければならないからである。
周知の人型ロボットのほとんどは、人と交流する場合に、極めて受動的又は静的なロボットとして現れる。それらは、一般に、人の誘いに対して標準化された反応で答え、限られた事前対応型の決定を有し、従ってロボット/人関係をユーザにとってそれほど魅力的でないものにする。
人とのより自然な交流を有する人型ロボットを構築することは、普通の汎用コンピュータとのユーザの対話問題と比較できない多数の技術的問題を発生させる複雑なタスクである。
それらの問題の中で、間違った人認知及び/又は誤った人検出は、不適切な又は危険でさえあるロボットの振る舞いにつながり、従って、人及びロボットが交流する場合に、セキュリティ問題を引き起こす可能性がある。
それならば、人と人型ロボットの交流を改善するシステム及び方法の必要性がある。本発明は、この必要性への解決法を提供する。
従って、本発明の目的は、ロボットが、人とより協力的で、ロボット自体の意識を有するように行動できるようにするシステム及び方法を提供することである。
従って、前述の目的を達成するために、添付の独立請求項1、13及び14で更に説明されるようなシステム、方法及びコンピュータプログラムプロダクトが提供される。
特に、人と人型ロボットの交流を処理する、人型ロボット内で実行される方法は、
− 人型ロボットの環境内で検出されたイベントを、少なくともイベントの位置の表示を備えた一時的刺激として刺激記憶装置に記憶するステップと、
− 一時的刺激の1つが人刺激に適合することを判定するステップと、
− 記憶された刺激及び前記1つの人刺激の間で1つの刺激を選択するために妥当性規則を用いるステップと、
− 現在のアクティビティ及び前記人型ロボットの人との関与モードに依存して、前記選択された刺激を処理するステップと、
− 処理ステップに応じて、人型ロボットの1つ又は複数の行動を生成するステップと、
を含む。
実施形態において、イベントは、運動検出、触覚感知、音源定位、顔検出、視覚認知、画像認識の1つ又は複数である。
有利なことに、一時的刺激は、検出されたイベントのタイプに従って、少なくとも運動刺激グループ、音声刺激グループ、接触刺激グループ、人刺激グループにグループ化される。
実施形態において、刺激記憶装置は、永続的刺激を記憶する擬似刺激グループを更に含む。
有利なことに、妥当性規則は、刺激グループと擬似刺激グループとの間の優先順位基準を用いる。
有利なことに、判定ステップは、2Dカメラ及び/又は3Dカメラによって提供される情報を用いることに存する。
実施形態において、人型ロボットの現在のアクティビティは、人を追跡することである。
別の実施形態において、処理ステップは、刺激の方向のまわりのエリアで新しい人が見つけられるかどうかを判定するために、選択された刺激に対応するイベントの位置の表示を用いるステップを更に含む。
有利なことに、1つ又は複数の人型ロボット行動は、新しい人を追跡するロボット部材を始動することを含む。有利なことに、始動の1つは、検出された刺激の位置の方へセンサを向けることに存する。
更に、有利なことに、方法は、見つけられた新しい人の位置に関する情報で刺激記憶装置を更新するステップを更に含む。
有利なことに、方法は、刺激が感知されない場合にさえ視覚的に生き生きした状態に人型ロボットを維持できるようにし、それによって、来たるべき交流用のロボットの利用可能性を示すために、呼吸、LEDの使用、音声の生成のようなロボット部材の小さな動作を可能にする。
本発明はまた、人と人型ロボットの交流を処理するためのシステムを提供する。システムは、オペレーティングシステムの制御下で動作し、且つ少なくとも1つのプロセッサ、及び方法ステップを実行するためにプロセッサに結合される手段を含む。
本発明はまた、非一時的なコンピュータ可読記憶媒体を含むコンピュータプログラムプロダクト、及びコンピュータ可読記憶媒体上に記憶されたプログラムコードとして提供され、且つ実行時に、プロセッサに方法ステップを実行させるように構成されてもよい。
ここで、本発明の更なる態様が、添付の図に関連して、好ましい実装形態及び例として説明される。
本発明の上記や他の事項、特徴及び利点は、図と共に本発明の以下のより多くの特定の説明を読むことによって、よりよく理解されよう。
本発明のシステムを実行するための一般的な環境を示す。 本発明の実施形態による例示的な交流システムのブロック図である。 本発明の実施形態による図2のイベント検出モジュールの詳細なブロック図である。 様々な関与状況によるロボット交流を処理する主要ステップを示す流れ図である。 様々な関与状況によるロボット交流を処理する主要ステップを示す流れ図である。 様々な関与状況によるロボット交流を処理する主要ステップを示す流れ図である。
本発明の実施形態が、添付の図及び図面に関連して以下で例として説明される。
最初に図1に進むと、本発明を実施する一般的な技術的環境が説明される。ロボット130は、センサ及びアクチュエータを含む。論理モジュール又は「マインド論理」100は、ロボットにおいて実現されるか又は(例えば遠隔で)ロボットと関連付けられ、且つソフトウェア110及びハードウェアコンポーネント120の集まりを含む。
本発明を実施する人型ロボットの好ましい実施形態が、本出願人によって同じ日に出願された「自律的生活能力を備えた人型ロボット(Humanoid Robot With An Autonomous Life Capability)」なる名称の特許出願に十分に説明されており、そこでは、マインド論理は、NAOqiTMOSと呼ばれるオペレーティングシステムの一部として実現される。
ロボット130は、(1つ又は複数のダイアログセッションを含む双方向又は2方向通信140によって)1人又は複数のユーザ150と交流している。前記1人又は複数のユーザは、他のコンピューティング装置160(例えば、ウエアラブルコンピュータ、スマートフォン又はタブレットなどのパーソナルコンピュータ)にアクセスすることができ、他のコンピューティング装置160は、(サーバクラウド、及び/又は他のロボット若しくは接続された対象物のフリート等と通信する)装置に接続することができる。特に、接続される装置は、ウエアラブルコンピュータ(例えば時計、眼鏡、没入型ヘルメット等)とすることができる。
図の特定のロボット130は、本発明を実施できる人型ロボットの単なる例として理解される。図のロボットの下肢は、歩行のためには機能しないが、しかしロボットが置かれている表面上を回転するそのベースでどの方向にも移動することができる。本発明は、歩行に適したロボットにおいて容易に実施することができる。
本発明の幾つかの実施形態において、ロボットは、様々な種類のセンサを含むことができる。それらの幾つかは、ロボットの位置及び運動を制御するために用いられる。これは、例えば、3軸ジャイロメータ及び3軸加速度計を含む、ロボットの胴体に位置する慣性ユニットの場合である。ロボットはまた、ロボットの額(上端及び底部)に2つの2DカラーRGBカメラを含むことができる。3Dセンサもまた、ロボットの目の後ろに含むことができる。ロボットはまた、その環境における対象物/人に対するその相対的位置を感知できるように、例えば頭部及びベースにレーザラインジェネレータを任意選択的に含むことができる。ロボットはまた、その環境において音声を感知できるマイクロホンを含むことができる。本発明のロボットはまた、その環境における対象物/人への距離を測定するために、そのベースの前面及び背面に恐らく位置するソナーセンサを含むことができる。ロボットはまた、人との交流を可能にするために、その頭部及びその手の上に触覚センサを含むことができる。ロボットはまた、それがそのルート上で遭遇する障害物を感知するために、そのベースにバンパーを含むことができる。ロボットの感情を翻訳し、且つその環境における人とコミュニケーションするために、本発明のロボットはまた、例えば、その目、耳及び肩におけるLED、及び(例えば、その耳に位置する)ラウドスピーカを含むことができる。ロボットは、様々なネットワーク(3G、4G/LTE、Wifi、BLE、メッシュ等)を介して、基地局、他の接続された装置、又は他のロボットと通信することができる。ロボットは、バッテリ又はエネルギ源を含む。ロボットは、それが含むバッテリのタイプに適した充電ステーションにアクセスすることができる。ロボットの位置/運動は、センサの測定値を考慮して、各肢によって画定されたチェーン及び各肢の端部において画定されたエフェクタを始動するアルゴリズムを用いて、ロボットのモータによって制御される。
特定の実施形態において、ロボットは、それが、その環境にメッセージ(オーディオ、ビデオ、ウェブページ)を伝達できるか、又はタブレットの触覚インターフェースを介してユーザから入力を受信できるタブレットを埋め込むことができる。別の実施形態において、ロボットは、スクリーンを埋め込まず提示もしないが、しかしそれは、ビデオプロジェクタを有し、それを用いて、ロボットの近くの表面にデータ又は情報を投影することができる。前記表面は、平坦(例えば床)とする又はしない(例えば、投影面の変形は、ほぼ平坦な投影を得るために補償できる)ことができる。両方の実施形態(スクリーン及び/又はプロジェクタを備える)において、本発明の実施形態は、有効なままである。請求される交流モデルは、視覚的な交流手段によって補足又は補償されるだけである。いずれにせよ、グラフィカルな手段が、故障しているか又は故意に不作動にされた場合に、交流の会話モードは残る。
実施形態において、ロボットは、かかるグラフィカルユーザインターフェース手段を含まない。既存の人型ロボットは、一般に、高度なスピーチ能力を提供されるが、一般にGUIは提供されない。増加するユーザコミュニティは、好んで且つ/又は必要によって(実際的な状況故に若者、障害者など)、ロボットと通信するための補足としてさえ、グラフィカルな手段(例えばタブレット、スマートフォン)を恐らく用いない。
図2は、本発明の実施形態に従って交流処理システム200の主要コンポーネントを示すブロック図を提供する。交流処理システム200は、イベント検出コンポーネント202によって検出された外部イベントの処理に応じて、人と人型ロボットの交流を処理する操作を実行するように構成されてもよい。イベント検出コンポーネントは、図3に関連して以下で更に詳述される。
交流処理システム200は、イベント検出コンポーネント202によって出力された刺激を記憶するための刺激記憶装置204を含む。交流処理システム200は、刺激処理コンポーネント210によって処理される刺激を選択するために、規則セットを定義する妥当性規則データベース207に結合された刺激選択コンポーネント206を更に含む。
ロボット状態コンポーネント208は、ロボット状態、特にロボットの関与状況に関する追加情報を提供するために、刺激処理コンポーネント210に結合される。刺激処理コンポーネント210の出力は、ロボット振る舞い始動コンポーネント212に結合される。ロボット振る舞い始動コンポーネント212は、刺激処理コンポーネント210に応じて、人型ロボットの振る舞いを生成できるようにする。ロボット位置コンポーネント214がまた、人の移動に従ってロボットの位置をサーボ機構で制御するためのシステム200の一部である。
同様に図2に示されるように、交流処理システム200は、オペレーティングシステム20及び少なくとも1つのプロセッサ22の制御下で動作している。好ましい実施形態において、オペレーティングシステムは、既に言及されたNAOqiTMOSであり、本発明の交流処理システムは、「エクストラクタサービス」コンポーネントに申し込む「基本意識サービス」と呼ばれるコンポーネントとして実現される。基本意識コンポーネントは、状況に基づいて構成されるか、実行中のアクティビティによって構成されるか、又は独力で動作している。
刺激記憶装置204は、刺激が人からであると確認されるまで、イベント検出コンポーネント202によって提供される全ての刺激を一時的に記憶できるようにする。説明を簡単にするために、人から生じるかかる刺激は、この説明において、以下では「人刺激」と命名され、一方でどんな他の種類の刺激も、「非人刺激」と命名される。記憶装置における一時的刺激は、検出されたイベントのタイプに従ってグループに組織化される。かかるものとして、記憶装置は、運動センサのいずれかから受信された全ての刺激をグループ化するための運動刺激グループと、いずれかの音声センサから受信された全ての刺激をグループ化するための音声刺激グループと、いずれかの触覚センサから受信された全ての刺激をグループ化するための接触刺激グループと、人認知検出器から受信された全ての刺激をグループ化するための人刺激グループと、を含む。
検出器によって直接提供されないが、しかし内部で生成される刺激信号である追加の刺激もまた、永続的刺激として刺激記憶装置に記憶され、以下では「擬似刺激」と命名される。刺激選択コンポーネント206によって選択された場合に、擬似刺激は、刺激処理コンポーネント210によって処理される。
かかる擬似刺激の例は、次の通りである。
− 人刺激と類似の情報を提供するが、しかし妥当性規則においてより高い優先順位を有する「力(force)−人」擬似刺激。
− ロボットの頭部をそのデフォルト位置にリセットするために用いられる「リセット−頭部」擬似刺激。この擬似刺激は、妥当性規則においてより低い優先順位である。
有利なことに、一時的刺激は、刺激記憶装置から削除されてもよい。好ましい実装形態において、刺激が処理された後で、刺激記憶装置は、空にされる。しかしながら、当業者は、本発明の範囲から逸脱せずに、異なる基準を適用し得る。
刺激選択コンポーネント206は、人を検出することに最もつながりそうな刺激を刺激記憶装置から選択できるようにする。妥当性規則は、例えば優先順位基準に基づいたより適切な刺激を判定できるようにする。妥当性規則は、人型ロボットの使用状況に依存して、プログラマによって事前に定義されるか又は更新されてもよい。
好ましい実施形態において、優先順位は、刺激グループ用に階層的に定義され、より高い優先順位を有する、人に一層関連付けられそうなものが、次のように刺激をランク付けすることにつながる。即ち、より高い優先順位を有する力−人刺激、次に人刺激グループ、次に接触刺激グループ、次に音声刺激グループ、次に運動刺激グループ、及びより低い優先順位のリセット−頭部刺激である。
好ましくは、妥当性規則が、人型ロボットの環境において人を検出するために定義されるのに対して、当業者は、別の用途に適合される任意の他の妥当性規則を容易に考案されよう。
刺激選択コンポーネントは、同じグループの刺激を比較するための、且つグループ内のより関係のある刺激を判定するための妥当性規則に基づいたソフトウェアルーチンを含む。判定は、刺激が刺激記憶装置に記憶される時刻に基づいてもよく、又は例えば接触グループに関するグループに記憶された最後の刺激を例えば用いることであってもよい。しかしながら、任意の他の判定基準が実行され得る。例えば、音声検出は、信頼度パラメータを生成し、音声グループ内の選択は、より高い信頼度パラメータを判定すること及び対応する刺激を選択することによってなされる。別の例において、運動グループ用の決定は、最も大きな関心領域に対応する運動刺激を決定することに基づいてもよい。
ロボット状態コンポーネント208は、ロボットの現在状態に関する情報を記憶できるようにする。最初に、ロボットは、アクティビティを有しない不作動状態にある。ロボットが、アクティビティを始める場合は常に、ロボット状態コンポーネントは、現状、状況及び文脈に関するデータを収集する。選択された刺激が処理される時におけるロボット状態の条件が、刺激処理コンポーネント210によって操作される、且つ図4a−4cに関連して以下で例示されるような特定のシナリオをトリガする。
振る舞い始動コンポーネントの212は、次のようなロボットの物理的行動を制御できるようにする。即ち、
− ロボットの継ぎ目又はベースのモータを始動することによる動作と、
− 人とのアイコンタクトを確立し維持するために、ロボットの環境にいる人の動きに従う追跡と、
− 感情を伝達するためのロボットLEDのライティングと、
− 生気のあるスピーチ、並びにスピーチ及びジェスチャの組み合わせと、
である。
ロボット振る舞いは、運動と、言葉と、ロボットの感情を表現し得るライティングの組み合わせであり、且つロボットが複雑な行動を実行できるようにする。
前に言及したように、有利なことに、本発明は、ダイアログ中により多くの興味及びかかわり合いを発生させるために、人である話者に面するロボットの位置を調整することによって、人型ロボットをより交流的で活発にすることが可能である。加えて、本発明は、人の安全性を保証するために、ロボットの閾値安全距離及び向きを保持できるようにする。本発明は、人/人型ロボットの交流の質を向上させ、且つリアルタイムの位置決めの保証、並びにユーザ及びロボット間の確実な距離及び方向を保持することによって、密接に交流しているユーザ及びロボット間のセキュリティ問題を解決する。
それらの目的を達成するために、振る舞い始動コンポーネント212は、人の移動に従ってロボットの位置をサーボ機構で制御ためのロボット位置コンポーネント214に結合される。有利なことに、人型ロボットは、人の移動に従うことができるだけでなく、ロボットと人との間の安全な距離及び向きをリアルタイムで保持しながら、人の興味及び感情を刺激する人に似た姿勢及び態度を取ることができる。
ロボット位置コンポーネント214は、ロボットとの交流において、人体(胴体及びショルダラインを含む)の位置(x、y)及び向き(wz)パラメータをリアルタイムで計算する。ロボット位置コンポーネントは、ロボットと交流している人を代表する3D志向の「人の塊」を得るために、ロボット軸の原点に対する2D及び3D画像の取得を利用する。人型ロボットは、振動を制限するために信頼間隔を保持し、選択された距離及び向きが人に尊重されることを保証しながら、人の塊の移動に従って、リアルタイムで急いで自らの位置を調整する。信頼間隔は、追跡されている移動の大きさであって、そこではロボットが移動しなくてもよい大きさの閾値である。従って、ロボットは、閾値を超える移動を追うだけである。典型的には、20cmの閾値が、ロボットのベース移動用に定義される。それは、ロボットが移動できるようにするために、人が、少なくとも20cm移動しなければならないことを意味する。
加えて、距離及び/若しくは向きの値、並びに/又はこれらの値の信頼間隔は、人と相対する空間におけるロボットの位置をロボットに変更させるように、周期的に更新される。値は、ランダムに、又は現在の交流の文脈に関連して修正されてもよい。例えば、ダイアログアクティビティの間に、ダイアログの文脈のシンタクシス解析を用いることによって、値は、適合され、それによって、ダイアログ文脈と関係する自然な動作を保証する。従って、人型ロボットは、人の動作に対するサーボ操作モードにおける、又はロボットの相対的位置の値を変更することによる強制モードにおける動作において規則的に設定される。
好ましい実装形態において、交流の初めにおけるロボットの距離及び向きのデフォルト値は、X軸に沿って−65cm+/−10cm、−Y軸に沿って0cm+/−10cm、及び0°+/−10°Wzにわたる。例えば、交流の初めに、これらの値を用いれば、人型ロボットは、人に対してそのボディの7°の角度で、人の前方62cmにいることができる。
やはり好ましい実施形態において、X位置、Y位置、Wz向き、及び/又は信頼間隔を変更するデフォルト周波数は、0.1Hz又は0.2Hzに設定されてもよい。デフォルトによって、X軸に沿った距離値は、−100cm〜−40cm、+/−10cmにわたることができる。Y軸に沿った距離値は、−45cm〜+45cm、+/−10cmにわたることができる。向きの値は、−45°〜+45°+/−10°にわたることができる。信頼間隔値は、距離用に0.1cm〜30cmに、且つ配向角用に0.1°〜30°にわたることができる。
当業者は、人型ロボットの寸法に依存して、任意の他のデフォルト値を容易に考え出すことであろう。
有利なことに、人の運動に対するロボットの位置の規則的で不断の調整による人型ロボットのサーボ操作モードは、予測不可能な文脈においてさえ、ロボットの運動の調整を可能にする。
ここで、図3に関連して、図2のイベント検出コンポーネント202の詳細なブロック図が説明される。イベント検出コンポーネント202は、人型ロボットの環境内の外部イベントを検出できるようにする複数の検出器(302、304、306、308、310)を含む。複数の検出器は、画像、音声、臭気、味等を受信し感知するために、幾つかの名をあげると、カメラ、マイクロホン、触覚及び嗅覚センサなどのセンサを装備されていてもよい。センサ読み取り値は、ロボットの位置、ロボットの環境における対象物/人の識別、前記対象物/人の距離、人によって発音された言葉又はその感情に関連する関連データを抽出するために前処理される。
人認知検出器302は、3Dカメラ30及び/又は2Dカメラ32によって提供された情報を用いることによって、人の検出を可能にする。操作において、3Dカメラによって提供される奥行き画像は、場面における異なる対象物を抽出するために処理される。結果としての対象物は、それらが人の形状であり得るかどうかを判定するために、一連のフィルタを通して解析される。好ましくは、フィルタは、幅及び高さのような粗い幾何学的特性に基づくか、又は頭部がボディから区別できるという事実等に基づく。2Dカメラ(32)は、RGB画像を用いて、抽出された対象物に対して顔検出を実行するために用いられる。2D及び3Dカメラ両方の出力は、奥行き画像から抽出された対象物が人の形状かどうかを判定するために、融合モジュールにおいて組み合わされて(34)処理される(36)。好ましい実施形態において、両方のカメラの出力を処理するために、カルマンフィルタが用いられる。対象物が、人であると有効に検出された場合に、対象物は、経時的に追跡される有効な検出のベースに追加される。人認知検出器は、刺激データベース204における人認知刺激グループに記憶される人認知刺激を生成する。
音声検出器304は、ロボットの環境における音声を感知できるマイクロホンを用いて、ロボットのまわりの音声を検出できるようにする。ひとたび音声が検出されると、音声の位置測定の精度に関する信頼度パラメータを提供するために、例えば、エネルギレベル、音源定位を含む音声の詳細が収集される。音声検出器は、刺激データベース204における音声刺激グループに記憶される音声刺激を生成する。
触覚検出器306は、触覚センサを用いて、ロボットの表面における衝撃又は接触を検出できるようにする。ひとたび衝撃が検出されると、衝撃の性質の詳細が収集される。触覚検出器は、刺激データベース204における触覚刺激グループに記憶される触覚刺激を生成する。
運動検出器308は、3Dカメラを用いて、ロボットのまわりの運動を検出できるようにする。ひとたび運動する対象物が検出されると、例えば、ロボットに対する位置、サイズ等を含む詳細が収集される。運動検出器は、刺激データベース204における運動刺激グループに記憶される運動刺激を生成する。
イベント検出コンポーネント202は、凝視方向解析、顔の特徴(年齢、性別推定、「微笑みの程度」、頭部姿勢、顔の表情等)などの複数のイベントを感知するために、様々な追加検出器310を含んでもよい。
要約すると、イベントが検出された場合に、各検出器は、刺激がやって来る位置の表示を備えた「当該種類の検出器」の刺激を出力してもよく、対応する刺激は、刺激データベース204におけるそれぞれの刺激グループに記憶される。イベント位置の表示は、(x、y、z)座標によって定義された位置であってよく、又は(シータ/ファイ)角座標情報を備えたイベント位置用の少なくとも近似方向であってもよい。
NAOqiTMOSの好ましい実施形態において、イベント検出コンポーネント202は、図1に関連して説明したタイプのロボットセンサから入力読み取り値を受信するために用いられる「エクストラクタサービス」の一部である。エクストラクタサービスの幾つかの例は、ロボットの近くにおける人の存在を認知する人認知と、これらの人の運動を検出する運動検出と、音声の位置を特定する音源定位と、ロボット触覚センサに対する接触を解釈する接触検出と、スピーチ認識と、ロボットの近くの人によって表現された感情を、その言葉又はジェスチャを通じて識別する感情認識と、である。
図4a〜4cは、ロボットの異なる状態に従う様々な交流シナリオの主要ステップを示す幾つかの流れ図である。
前に言及したように、最初に、ロボットは、不作動状態にある。ロボットが人を追跡し始めると、ロボットは、ロボットが追跡し始めた見つけられた人(関与される人)と「関与している」、又は「関与状況若しくは関与モード」にあると言われる。有利なことに、ロボットは、刺激が感知されない場合でさえ視覚的に生き生きした状態に維持され、来たるべき交流用にロボットの利用可能性を示すために、呼吸又はLEDアニメーション若しくは音声の生成のような、ロボット部材の小さな運動を可能にする。
ロボットは、刺激の処理に依存して、又は現在関与している人がいなくなった場合に、他の誰かと関与することによって、関与を中断することができる。ロボットは、力−人擬似刺激と組み合わされた人刺激又は非人刺激を処理することによって、刺激処理が人の検出につながる場合に、ロボットの現在の関与を中断することができる。
本発明の文脈において、3つの関与モードが定義される。
− 「完全関与」モード。ロボットが、「完全に関与している」場合に、それは、現在の関与すされている人がいなくまで、どんな刺激イベントを聞くことも停止する。
− 「非関与」モード。ロボットは、刺激が検出された場合に、現在の関与状況を中断することができる。
− 「半関与」モード。ロボットは、まだ刺激を聞いており、別の人へと切り替わらない。刺激が、この半関与モードにおいて聞かれた場合に、ロボットは、たとえ刺激を見てもよいが、常に刺激を無効にし、関与されている人にやはり戻る。
図4a〜4cは、異なる関与モードに従って、人/人型ロボットの交流を処理する主要ステップを示す。初期化ステップ402において、ロボットは、人を追跡していない。しばらくして、ロボットは、3つの関与モードの1つであってもよい。図4aは、非関与モード用に説明され、完全関与及び半関与モード用の一般的なステップからの変化は、それぞれ「図4b又は4cに進む」と言われる。
そのプロセスは、ステップ404において刺激記憶装置の内容を決定できるようにする。記憶装置が、空(ブランチYes)の場合に、プロセスは、プロセスを継続するために、第1の刺激が408で検出されるのをロボットが待てるようにし、そうでなく記憶装置が空でない(ブランチNo)場合に、プロセスは、記憶装置における刺激の間で最良の刺激を選択するステップ406を始めることができるようにする。
記憶装置の内容から直接、又は記憶装置の内容及び検出された新しい刺激から選択された刺激のタイプに依存して、異なるシナリオ410が、ロボットの現在の関与モードに依存して開始される。
人刺激410−1が選択された場合に、プロセスは、ロボットの現在の関与モードを決定できるようにする。
− ロボットが、イベントによって注意をそらされ、且つその現在のアクティビティを中断してもよいことを意味する非関与モード(図4a)である場合に、プロセスは、人の位置注視ルーチン412を始めることを可能にする。人の位置注視ルーチンは、ロボットが既に人を追跡しているかどうかを判定できるようにする。追跡していれば、プロセスは、現在の追跡を停止し、且つ頭部運動を始動して、検出された新しい人を追跡し始める413ことによって、新しい人の位置を見る。ロボットが追跡モードを始める場合に、プロセスは、ステップ404にループバックし、現在追跡されている人がまだロボットの環境にいる場合に、規則的なチェック415を可能にするサブルーチンが並行して開始される。人が、もはやそこにいなくて姿を消したと判定された場合に、追跡ルーチンは停止し、リセット−頭部刺激が、刺激記憶装置に追加される。
− ロボットが、どんなイベントによっても注意をそらされ得ないことを意味する完全関与モード(図4b)である場合に、プロセスは、ロボットが、既に人を追跡しているかどうか510を判定できるようにする。追跡していれば、プロセスは、ステップ404に戻り、そうでなければ、プロセスは、人の位置注視ルーチンを用いるステップ412に進む。
ルーチン412の実行後に、プロセスは、ロボットがイベントによって注意をそらされてもよいが、しかしその前のアクティビティに戻ってもよいことを意味する半関与モード(図4c)にロボットがいるかどうかを判定できるようにする。ロボットが、既に人を追跡している520場合に、プロセスは、ロボットに現在の人を追跡させる擬似刺激の力−人をトリガすることによってステップ522において継続し、プロセスは、ステップ404にループバックする。ロボットが、まだ人を追跡していない場合に、プロセスは、検出された新しい人の追跡アクティビティを開始することによって、ステップ413に進み、プロセスは、ステップ415及び426に関して前に説明したように継続する。
非人刺激410−2が選択された場合に、プロセスは、ロボットの現在の関与モードを決定できるようにする。
− ロボットが非関与モード(図4a)である場合に、プロセスは、刺激位置を注視する、従って刺激の位置の方へセンサを向けるルーチン414を始めることを可能にする。刺激位置注視ルーチンは、ロボットが、既に人を追跡しているかどうかを判定できるようにする。追跡していれば、プロセスは、現在の追跡を停止できるようにする。そうでなければ、プロセスは、頭部運動を始動させ、そのときにイベントの位置のまわりのエリアに人が見つけられるかどうかを判定することによって、非人刺激のイベント位置の表示を利用できるようにする。
− ロボットが、完全関与モード(図4b)である場合に、プロセスは、ロボットが、既に人を追跡しているかどうかを判定510できるようにする。追跡していれば、プロセスは、ステップ404に戻り、そうでなければ、プロセスは、人の位置注視ルーチンを用いるステップ414に進む。
ルーチン414の実行後に、プロセスは、ロボットが、半関与モード(図4c)であるかどうかを判定できるようにする。ロボットが、既に人を追跡している520場合に、プロセスは、ロボットに現在の人を追跡させる擬似刺激の力−人をトリガすることによってステップ522において継続し、プロセスは、ステップ404にループバックする。ロボットが、まだ人を追跡していない場合に、プロセスは、その環境における人をチェックするルーチンを始めることによって、ステップ417に進む。
人が見つけられた420場合に、プロセスは、見つけられた新しい人をロボットに追跡させる擬似刺激の力−人をトリガすることによってステップ422において継続し、擬似刺激の力−人は、新しく人を見つけられた人のデータで、刺激記憶装置において更新される。次に、プロセスは、ステップ404にループバックする。
ステップ420において人が見つけられなかった場合に、プロセスは、ロボットが前に追跡アクティビティであったかどうかを判定することによって、ステップ424において継続する。追跡アクティビティであったならば、プロセスは、前に追跡された最後の人をロボットに追跡させる擬似刺激の力−人をトリガすることによって、ステップ425において継続する。擬似刺激の力−人は、最後の追跡された人のデータで刺激記憶装置に追加される。ロボットが、前に追跡アクティビティでなかった場合に、プロセスは、刺激記憶装置にリセット−頭部擬似刺激を記憶するためにステップ426に進み、ステップ404にループバックする。
代替として、擬似刺激(410−3、410−4)は、ロボットの行動を生成するように選択され処理されてもよい。
力−人刺激410−3が選択された場合に、ロボットは、人の位置注視ルーチン412を始めるように強要される。人の位置注視ルーチンは、ロボットが既に人を追跡しているかどうかを判定できるようにする。追跡していれば、プロセスは、現在の追跡を停止し、且つ頭部運動を始動して、検出された新しい人との新しい追跡アクティビティ413を始めることによって、新しい人の位置を見る。ロボットが、まだ人を追跡していない場合に、プロセスは、ロボットが刺激の方向を見られるようにし、前に説明したような追跡ルーチン413を開始できるようにする。
リセット−頭部刺激410−4が選択された場合に、ロボットは、それが暫くの間待つことができるようにする「リセット−頭部を試みる」ルーチン416を始めるように強制され、しばらくして、頭部が動いてなく、刺激が処理されていない場合に、ルーチンは、ロボットの頭部をデフォルト位置にリセットできるようにする。プロセスは、ステップ404にループバックする。
説明したように、本発明は、人とのより密接な交流を可能にするために、ロボット内に意識トラッカを実現する。
当業者は、実施形態が、実例及び説明のために提示され、包括的であるようにも、開示された形態に本発明を限定するようにも意図されていないことを理解されよう。多くの修正及び変形が、当業者には明らかになろう。実施形態は、本発明の原理、実際の用途を最もよく説明するために、且つ他の当業者が、考えられる特定の用途に適するような様々な修正を伴う様々な実施形態のために本発明を理解できるようにするために、選択され説明された。
本発明が、好ましい実施形態に関連して特に示され説明されたが、形態及び詳細における様々な変更が、本発明の趣旨及び範囲から逸脱せずに好ましい実施形態においてなされ得ることを理解されたい。具体的には、本発明は、人の交流を可能にするロボットの任意の形態及びサイズにおいて、当業者によってうまく適合され容易に適用可能である。
本発明は、コンピュータ若しくは任意の命令実行システムによって、又はそれらと接続して使用するためのプログラムコードを提供するコンピュータ使用可能又はコンピュータ可読媒体からアクセス可能なコンピュータプログラムプロダクトの形態を取ることができる。この説明のために、コンピュータ使用可能又はコンピュータ可読媒体は、命令実行システム、機器若しくは装置によって、又はそれらと接続して使用するためのプログラムを含むか、記憶するか、通信するか、伝搬するか、又は搬送できる任意の有形機器とすることができる。媒体は、電子、磁気、光、電磁気、赤外線、半導体システム(若しくは機器か装置)又は伝搬媒体とすることができる。コンピュータ可読媒体の例は、半導体又は固体メモリ、磁気テープ、取り外し可能なコンピュータディスケット、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、剛性磁気ディスク及び光ディスクを含む。光ディスクの現在の例は、コンパクトディスク−読み出し専用メモリ(CD−ROM)、コンパクトディスク−読み出し/書き込み(CD−R/W)及びDVDを含む。

Claims (15)

  1. 人と人型ロボットの交流を処理するための、人型ロボット内で実行される方法であって、
    − 人型ロボットの環境内ですべてのイベントを複数の検出器から検出するステップと、
    − 検出された各イベントを処理して、少なくともイベントの位置の表示と共に一時的刺激としてイベントを刺激記憶装置に記憶するステップであって、一時的刺激がそれらのタイプに従って、刺激記憶装置でグループ化され、前記刺激記憶装置が、複数の検出器によって検出されない永続的刺激を更に記憶する、ステップと、
    − 人型ロボットが、人型ロボットの人との追跡関係を表す関与モードに入ることを検出するステップであって、現在の関与モードが、別の人の刺激を受け付けることなく、現在の人との追跡関係が維持されている完全関与モード、別の人の刺激を受け付けつつ、現在の人との追跡関係が維持されている半関与モード又は人との追跡関係が維持されていない非関与モードのうちの1つである、ステップと、
    − 複数の検出器の1つによって新たなイベントが検出されるとき、イベントが人から生じる刺激であるかを判定するためにイベントを処理するステップと、
    − そうでない場合、イベントを無効化し、人型ロボットを現在の関与モードに維持するステップと、そうでなければ、
    − 人型ロボットの現在の関与モード及び妥当性規則に依存して、人から生じる検出された刺激か、刺激記憶装置に記憶された一時的又は永続的刺激の1つのどちらかを選択するステップと、
    − 特定のシナリオソフトウェアルーチンをトリガすることによって、前記選択された刺激を処理するステップであって、前記ソフトウェアルーチンが、人型ロボットの現在の関与モード及び前記人型ロボットの現在のアクティビティに依存する、ステップと、
    − 前記処理ステップに応じて、現在の関与モードを維持するか、新たな関与モードに入ることによって人型ロボットの関与モードを更新するステップと、
    − 更新された関与モードに依存して、人型ロボットの1つ又は複数の物理的行動を生成するステップと、
    を含む方法。
  2. 複数の検出器によって検出されたイベントが、運動検出、触覚感知、音源定位、顔検出、視覚認知、画像認識の1つ又は複数である、請求項1に記載の方法。
  3. 前記一時的刺激が、検出された前記イベントのタイプに従って、少なくとも運動刺激グループ、音声刺激グループ、接触刺激グループ、人刺激グループにグループ化される、請求項1又は2に記載の方法。
  4. 前記妥当性規則が、一時的刺激と永続的刺激との間の優先順位基準を用いる、請求項1〜3のいずれか一項に記載の方法。
  5. 新たなイベントが人から生じているかを判定するステップが、2Dカメラ及び/又は3Dカメラによって提供される情報を用いることに存する、請求項1〜4のいずれか一項に記載の方法。
  6. 完全関与モードにおいて、人型ロボットが、現在関与している人が失われるまで、いかなるイベントにも聞くのを止める、すなわち、ロボットがいかなるイベントによってもそらされることがない、請求項1〜5のいずれか一項に記載の方法。
  7. 非関与モードにおいて、人型ロボットが、イベントによってそらされ、その現在のアクティビティを中断することがある、請求項1〜6のいずれか一項に記載の方法。
  8. 半関与モードにおいて、人型ロボットが、イベントによってそらされるが、その以前のアクティビティに復帰することがある、請求項1〜7のいずれか一項に記載の方法。
  9. ソフトウェアルーチンをトリガするステップが、前記刺激の方向のまわりのエリアで新しい人が見つけられるかどうかを判定するための前記選択された刺激に対応する前記イベントの位置の表示を用いるステップを更に含む、請求項1〜8のいずれか一項に記載の方法。
  10. 人型ロボットの1つ又は複数の物理的行動が、少なくともロボット部材を始動することを含む、請求項1〜9のいずれか一項に記載の方法。
  11. 前記始動の1つが、検出された前記刺激の位置の方へセンサを向けることに存する、請求項10に記載の方法。
  12. 前記見つけられた新しい人の位置に関する情報で前記刺激記憶装置を更新するステップを更に含む、請求項9に記載の方法。
  13. 呼吸、又はLEDの使用、又は音声の生成のようなロボット部材の小さな動作を可能にすることによって、刺激が感知されない場合にさえ視覚的に生き生きした状態に前記人型ロボットを維持するステップを更に含む、請求項1〜12のいずれか一項に記載の方法。
  14. 人と人型ロボットの交流を処理するためのシステムであって、前記システムが、オペレーティングシステムの制御下で動作し、且つ
    − 少なくとも1つのプロセッサと、
    − 請求項1〜13のいずれか一項に記載の前記方法の前記ステップを実行するために前記少なくとも1つのプロセッサに結合された手段と、
    を含むシステム。
  15. − 非一時的なコンピュータ可読記憶媒体と、
    − 前記コンピュータ可読記憶媒体上に記憶された、且つ実行時に、請求項1〜13のいずれか一項に記載の前記方法の前記ステップを少なくとも1つのプロセッサに実行させるように構成されたプログラムコードと、
    を含むコンピュータプログラムプロダクト。
JP2016562751A 2014-04-17 2015-04-17 人と人型ロボットの交流を処理するためのシステム、方法及びコンピュータプログラムプロダクト Expired - Fee Related JP6495331B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP14305577.0 2014-04-17
EP14305577.0A EP2933064A1 (en) 2014-04-17 2014-04-17 System, method and computer program product for handling humanoid robot interaction with human
PCT/EP2015/058353 WO2015158876A1 (en) 2014-04-17 2015-04-17 System, method and computer program product for handling humanoid robot interaction with human

Publications (2)

Publication Number Publication Date
JP2017513724A JP2017513724A (ja) 2017-06-01
JP6495331B2 true JP6495331B2 (ja) 2019-04-03

Family

ID=50628736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016562751A Expired - Fee Related JP6495331B2 (ja) 2014-04-17 2015-04-17 人と人型ロボットの交流を処理するためのシステム、方法及びコンピュータプログラムプロダクト

Country Status (13)

Country Link
US (1) US10144135B2 (ja)
EP (1) EP2933064A1 (ja)
JP (1) JP6495331B2 (ja)
KR (1) KR102003588B1 (ja)
CN (1) CN106660205B (ja)
AU (1) AU2015248794C1 (ja)
BR (1) BR112016023925A2 (ja)
CA (1) CA2945896C (ja)
MX (1) MX2016013018A (ja)
NZ (1) NZ724839A (ja)
RU (1) RU2664841C2 (ja)
SG (1) SG11201608199UA (ja)
WO (1) WO2015158876A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017151517A (ja) * 2016-02-22 2017-08-31 富士ゼロックス株式会社 ロボット制御システム
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
DE112017001573B4 (de) * 2016-03-28 2020-01-30 Groove X, Inc. Autonom agierender Roboter, der eine Begrüssungsaktion durchführt
EP3450118A4 (en) * 2016-04-28 2019-04-10 Fujitsu Limited ROBOT
JP6761598B2 (ja) * 2016-10-24 2020-09-30 富士ゼロックス株式会社 感情推定システム、感情推定モデル生成システム
KR102616403B1 (ko) 2016-12-27 2023-12-21 삼성전자주식회사 전자 장치 및 그의 메시지 전달 방법
US10678338B2 (en) 2017-06-09 2020-06-09 At&T Intellectual Property I, L.P. Determining and evaluating data representing an action to be performed by a robot
WO2018233856A1 (en) * 2017-06-19 2018-12-27 Zhongrui Funing Robotics (Shenyang) Co. Ltd METHOD FOR CONTROLLING ACTIVITIES OF A ROBOT
WO2019087484A1 (ja) * 2017-10-30 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2020017206A (ja) * 2018-07-27 2020-01-30 ソニー株式会社 情報処理装置、行動決定方法及びプログラム
US10969763B2 (en) * 2018-08-07 2021-04-06 Embodied, Inc. Systems and methods to adapt and optimize human-machine interaction using multimodal user-feedback
JP7374581B2 (ja) * 2018-10-01 2023-11-07 カシオ計算機株式会社 ロボット、画像処理方法及びプログラム
US11557297B2 (en) 2018-11-09 2023-01-17 Embodied, Inc. Systems and methods for adaptive human-machine interaction and automatic behavioral assessment
JP6886130B2 (ja) * 2019-08-12 2021-06-16 学校法人拓殖大学 感性情報を用いたリハビリテーション支援ロボット
KR20190116190A (ko) * 2019-09-23 2019-10-14 엘지전자 주식회사 로봇
CN115052717A (zh) * 2020-02-17 2022-09-13 香港理工大学 便于老人训练和治疗的治疗机器人
CN113084814B (zh) * 2021-04-13 2022-05-10 中国科学院自动化研究所 基于分布位置优化实现肌肉骨骼机器人运动控制的方法
KR20240148582A (ko) 2023-04-04 2024-10-11 주식회사 렌쥴리에듀테인먼트 특정 프로그램으로 다종 인공지능 휴머노이드 로봇을 제어하는 시스템 및 그 운용방법

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3843740B2 (ja) * 2001-03-09 2006-11-08 独立行政法人科学技術振興機構 ロボット視聴覚システム
US6967455B2 (en) * 2001-03-09 2005-11-22 Japan Science And Technology Agency Robot audiovisual system
JP4689107B2 (ja) * 2001-08-22 2011-05-25 本田技研工業株式会社 自律行動ロボット
KR100898435B1 (ko) * 2001-10-22 2009-05-21 소니 가부시끼 가이샤 로봇 장치 및 그 제어 방법
JP3714268B2 (ja) * 2002-03-18 2005-11-09 ソニー株式会社 ロボット装置
JP4239635B2 (ja) * 2003-03-20 2009-03-18 ソニー株式会社 ロボット装置、その動作制御方法、及びプログラム
JP2004299025A (ja) * 2003-04-01 2004-10-28 Honda Motor Co Ltd 移動ロボット制御装置、移動ロボット制御方法及び移動ロボット制御プログラム
JP4048492B2 (ja) * 2003-07-03 2008-02-20 ソニー株式会社 音声対話装置及び方法並びにロボット装置
JP4244812B2 (ja) * 2004-01-16 2009-03-25 ソニー株式会社 行動制御システム及びロボット装置の行動制御方法
US8488023B2 (en) * 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
EP2281667B1 (en) * 2005-09-30 2013-04-17 iRobot Corporation Companion robot for personal interaction
US8849691B2 (en) * 2005-12-29 2014-09-30 Microsoft Corporation Modeling user input and interaction in workflow based applications
US8909370B2 (en) * 2007-05-08 2014-12-09 Massachusetts Institute Of Technology Interactive systems employing robotic companions
EP2031517A1 (en) * 2007-08-28 2009-03-04 Toyota Motor Europe NV Methods and systems for data processing and their applications
JP5751610B2 (ja) * 2010-09-30 2015-07-22 学校法人早稲田大学 会話ロボット
US8818556B2 (en) * 2011-01-13 2014-08-26 Microsoft Corporation Multi-state model for robot and user interaction
US9044863B2 (en) * 2013-02-06 2015-06-02 Steelcase Inc. Polarized enhanced confidentiality in mobile camera applications
JP6662773B2 (ja) * 2013-08-02 2020-03-11 ソウル マシーンズ リミティド 神経行動学的アニメーションのためのシステム
US9358685B2 (en) * 2014-02-03 2016-06-07 Brain Corporation Apparatus and methods for control of robot actions based on corrective user inputs

Also Published As

Publication number Publication date
AU2015248794C1 (en) 2018-02-15
WO2015158876A1 (en) 2015-10-22
US10144135B2 (en) 2018-12-04
AU2015248794B2 (en) 2017-11-16
CA2945896A1 (en) 2015-10-22
CN106660205A (zh) 2017-05-10
AU2015248794A1 (en) 2016-10-20
RU2664841C2 (ru) 2018-08-23
CA2945896C (en) 2019-01-15
MX2016013018A (es) 2017-05-30
US20170100842A1 (en) 2017-04-13
SG11201608199UA (en) 2016-10-28
RU2016144021A3 (ja) 2018-05-17
BR112016023925A2 (pt) 2017-08-15
EP2933064A1 (en) 2015-10-21
KR102003588B1 (ko) 2019-07-24
NZ724839A (en) 2018-01-26
JP2017513724A (ja) 2017-06-01
KR20170029409A (ko) 2017-03-15
CN106660205B (zh) 2019-12-06
RU2016144021A (ru) 2018-05-17

Similar Documents

Publication Publication Date Title
JP6495331B2 (ja) 人と人型ロボットの交流を処理するためのシステム、方法及びコンピュータプログラムプロダクト
JP7487265B2 (ja) 外部条件に基づくウェアラブルディスプレイデバイスの自動制御
US9552056B1 (en) Gesture enabled telepresence robot and system
KR101982420B1 (ko) 충돌 검출
KR20140031316A (ko) 이동하는 개체를 이동 로봇을 이용하여 추적 및 추종하는 기법
CN105359082A (zh) 用户接口导航
JP7375770B2 (ja) 情報処理装置、情報処理方法、およびプログラム
Ward et al. Towards recognising collaborative activities using multiple on-body sensors
Chin et al. A lightweight neural-net with assistive mobile robot for human fall detection system
JP2022051982A (ja) 情報処理装置および情報処理方法
US20240004464A1 (en) Transmodal input fusion for multi-user group intent processing in virtual environments
EP3776537A1 (en) Intelligent assistant device communicating non-verbal cues
US20240281072A1 (en) Information processing apparatus, information processing method, and program
Dwiputra et al. The b-it-bots robocup@ home 2014 team description paper
TW202414033A (zh) 追蹤系統、追蹤方法及自追蹤追蹤器
NZ794186A (en) Automatic control of wearable display device based on external conditions
Amadei Eliciting user engagement with a social robot
Feng et al. BigATV 2024 Team Description Paper

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180529

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190306

R150 Certificate of patent or registration of utility model

Ref document number: 6495331

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees