JP2020049648A - 社会的合図をプログラム的に解釈するように構成された対話型自律ロボット - Google Patents

社会的合図をプログラム的に解釈するように構成された対話型自律ロボット Download PDF

Info

Publication number
JP2020049648A
JP2020049648A JP2019161813A JP2019161813A JP2020049648A JP 2020049648 A JP2020049648 A JP 2020049648A JP 2019161813 A JP2019161813 A JP 2019161813A JP 2019161813 A JP2019161813 A JP 2019161813A JP 2020049648 A JP2020049648 A JP 2020049648A
Authority
JP
Japan
Prior art keywords
robot
subsystem
social
character
safety
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019161813A
Other languages
English (en)
Inventor
アンドリュー ミーカ ジェレミー
Andrew Mika Jeremy
アンドリュー ミーカ ジェレミー
リチャード ホーネック マイケル
Richard Honeck Michael
リチャード ホーネック マイケル
フスコ マイケル
Fusco Michael
フスコ マイケル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Disney Enterprises Inc
Original Assignee
Disney Enterprises Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Disney Enterprises Inc filed Critical Disney Enterprises Inc
Publication of JP2020049648A publication Critical patent/JP2020049648A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G31/00Amusement arrangements
    • A63G31/02Amusement arrangements with moving substructures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4155Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/22Command input arrangements
    • G05D1/228Command input arrangements located on-board unmanned vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/617Safety or protection, e.g. defining protection zones around obstacles or avoiding hazards
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/50Machine tool, machine tool null till machine tool work handling
    • G05B2219/50193Safety in general
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/50Machine tool, machine tool null till machine tool work handling
    • G05B2219/50391Robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Manufacturing & Machinery (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

【課題】テーマパーク等の社会環境における展開に適するように、より効果的に設計された自律ロボットを提供する。【解決手段】対話型自律ロボットが、社会環境における展開に適するように構成されている。開示されたロボットは、ロボットの状況に応じて、キャラクターとしての様々な行動を選択するショーサブシステムを備え、それによって、技術的な故障が発生しても、ロボットをキャラクターとして見せることができる。開示したロボットは、セーフティプロトコルを実行する必要があるとき、キャラクターとしての行動に介入するように構成されたセーフティサブシステムを更に備えている。開示したロボットは、人間の社会的行動を解釈し、それに応じて特定の行動シーケンスを開始する、ソーシャルサブシステムも備えて構成されている。【選択図】 図19

Description

関連技術の相互参照
本願は、「Interactive Autonomous Robot Configured for Deployment Within a Social Environment」と題する、2018年9月26日出願の米国仮特許出願第62/737,067号の優先権を主張するものである。本関連出願の主題が、参照により本明細書に組み込まれる。
様々な実施形態は、概して、ロボット工学に関し、より具体的には、社会的合図をプログラム的に解釈するように構成された、対話型自律ロボットに関するものである。
一般的なテーマパークは、来場者に対し様々な種類のアトラクションを提供する。例えば、所与のテーマパークは、乗り物、定期公演、テーマパークキャラクターとの相互作用体験、水遊び場、ビデオゲームアーケード等を含むことができる。これ等の様々なアトラクションのそれぞれには、一般に、パーク全体に関連する1つ以上の包括的なテーマに何らかの形で関連するテーマ要素を含んでいる。例えば、映画の特定のグループに関連付けられたテーマパークは、それ等の映画の1つ以上において見られるキャラクターに由来する、テーマパークキャラクターを採用することができる。
テーマパークキャラクターは、例えば、事前にプログラムされた固定式アニマトロニクスや遠隔制御される移動ロボット等、幾つかの異なる手法を用いて実現することができる。これ等のいずれの手法においても、テーマパークキャラクターの基本的な目標は、キャラクターと来場者との個人向けの相互作用的な体験を来場者に提供することである。キャラクターと来場者との体験は、テーマパークの包括的なテーマへの没入感を高めるため、かかる経験は来場者の満足度の観点から重要である。例えば、ほとんどの子供は、非常に喜んで、お気に入りのアニメ映画に由来するテーマパークキャラクターと関わり合うであろう。
自律ロボットによって、テーマパークキャラクターを実現する試みが幾つかなされている。これらの自律ロボットは、理想的な状況下において、テーマパーク内を自由に散策し、来場者と自律的に相互作用する必要がある。加えて、かかるロボットは、理想的には、ロボットが表現しようとしている、キャラクターの行動を忠実に示す方法で動作する必要がある。しかし、実際には、様々な技術的な理由によって、この手法は従来の自律ロボットでは実現することができない。
第1に、従来の自律ロボットは、しばしば「キャラクターとして」動作することができず、従って、これ等のロボットが表現しようとしているキャラクターの期待される行動を忠実に再現することができない。その結果、これ等のロボットのキャラクターと来場者との経験は、ぎこちなく不満足なものになり得る。この特別な問題は、所与のロボットに技術的な問題がある場合深刻になる、何故なら、技術的な問題によってロボットがキャラクターのすべての行動を突然中止することが多く、来場者を動揺させる可能性があるためである。第2に、従来の自律ロボットは、通常、産業用に構築され、社会的展開を目的としたものではないため、来場者との安全な相互作用を確保するために必要な、必須のセーフティプロトコルがない。例えば、一般的な産業用の自律ロボットの重量は300ポンド(約136キログラム)以上である。かかるロボットが、誤って来場者と衝突した場合、来場者が重傷を負う可能性がある。このため、従来の自律ロボットは、一般に、テーマパークの環境内における展開には適していない。第3に、従来の自律ロボットは、人間に関連する様々な社会的行動を認識するように設計されていないため、テーマパークの来場者と完全に非現実的な方法でやり取りする可能性がある。例えば、従来の自律ロボットは、ロボットの隣を歩いている人が、ロボットと社会的に関わりたいと望んでいる可能性が高いことを理解することはできない。かかる状況において、従来の自律ロボットは、障害物回避プロトコルを開始し、人から離れて移動するため、その人にとって満足が得られると思われるキャラクターと来場者との経験を台無しにする可能性がある。
一般的な問題として、従来の自律ロボットは、テーマパーク環境における展開には適していない、何故なら、かかるロボットは、キャラクターを正確に表現することができず、かかる環境に対して十分に安全に設計されておらず、有意義な社会的相互作用を可能にする人間の行動を十分に理解することができないからである。
前述のように、当技術分野において必要とされているのは、テーマパーク等の社会環境における展開に適するように、より効果的に設計された自律ロボットである。
様々な実施形態は、動作中、ロボットを社会的相互作用にうまく対応させるコンピュータ実装方法を含み、本方法は、ロボットが演技に関連する第1の動作セットに含まれている1つ以上の動作を実行している間に、センサーデータを分析するステップと、センサーデータに基づいて、ロボットに対する第1の社会的相互作用の発生を示す、第1の社会的合図を識別するステップと、及び第1の社会的合図の識別に応答して、第1の社会的相互作用に対応する、第2の動作セットに含まれている第2の動作をロボットに実行させるステップとを含んでいる。
開示した技術の少なくとも1つの利点は、ロボットがキャラクターに留まりながら、多くの潜在的に困難な社会的状況を識別してそれに応答することができ、ロボットが所与のキャラクターをどれだけうまく表現できるかということに関し、更に向上させることができることである。
様々な実施形態の前述の特徴を詳細に理解できるように、前述において簡単に要約した、本発明の概念のより具体的な説明は、その一部を添付図面に示す様々な実施形態を参照することによって得ることができる。しかし、添付図面は、本発明の概念の代表的な実施形態のみを示しており、範囲を限定するものと見なされるべきではなく、他の同等に有効な実施形態があることに留意されたい。
様々な実施形態の1つ以上の態様を実現するように構成されたシステムを示す図。 様々な実施形態による、図1の自律ロボットを更に詳細に示す図。 様々な実施形態による、図1の自律ロボットの本体及びアームに含まれている様々なサブシステムを更に詳細に示す図。 様々な実施形態による、図1の自律ロボットのコア及びベースに含まれている様々なサブシステムを更に詳細に示す図 様々な実施形態による、図1の自律ロボットが、ショー要素との相互作用をどのように実行するかを示す図。 様々な実施形態による、ロボットにショー要素と相互作用させる方法ステップのフローチャート。 様々な実施形態による、様々なロボットの行動が、ロボットシステムの状態にどのように依存するかを示す図。 様々な実施形態による、図1の自律ロボットが、サブシステムの故障中に、キャラクターとしての行動をどのように維持するかについての例を示す図。 様々な実施形態による、図1の自律ロボットが、複数のサブシステムの故障中に、キャラクターとしての行動をどのように維持するかについての例を示す図。 様々な実施形態による、図1の自律ロボットが、サブシステムの故障中に、キャラクターとしての行動をどのように縮小するかについての例を示す図。 様々な実施形態による、使用可能なロボットサブシステムに基づいて、ロボットにキャラクターとしての行動を選択的に実行させる方法ステップのフローチャート。 様々な実施形態による、図1の自律ロボットが、衝突を防止しながら、どのようにしてキャラクターに留まるかについての例を示す図。 様々な実施形態による、図1の自律ロボットが、衝突を防止しながら、どのようにしてキャラクターに留まるかについての例を示す図。 様々な実施形態による、図1の自律ロボットが、衝突を防止するために、どのようにしてキャラクターを一時的に中止するかについての例を示す図。 様々な実施形態による、図1の自律ロボットが、衝突を防止するために、どのようにしてキャラクターを一時的に中止するかについての例を示す図。 様々な実施形態による、図1の自律ロボットが、サブシステムの障害に応じて、どのようにしてキャラクターを中止するかについての例を示す図。 様々な実施形態による、図1の自律ロボットが、サブシステムの障害に応答して、どのようにしてキャラクターを中止するかについての例を示す図。 様々な実施形態による、安全に関わる状況に応じ、自律ロボットの演技活動を調整する方法ステップのフローチャート。 様々な実施形態による、図2の社会的サブシステムをより詳細に示す図。 様々な実施形態による、1人以上のテーマパークの来場者と交流する際に、図1の自律ロボットによって実行される例示的なロジックを示す図。 様々な実施形態による、1人以上のテーマパークの来場者と交流する際に、図1の自律ロボットによって実行される例示的なロジックを示す図。 様々な実施形態による、テーマパークの来場者と交流する際に、図1の自律ロボットによって実行される例示的なロジックを示す図。 様々な実施形態による、ロボットを社会的相互作用に参加させる方法ステップのフローチャート。 様々な実施形態による、図1の自律ロボットが有することができるコンピューティング装置のブロック図。
以下の説明において、様々な実施形態に対してより完全な理解が得られるように、多数の具体的な詳細が記載されている。しかし、本発明の概念は、これらの特定の詳細の1つ以上がなくても実施できることは当業者には明らかであろう。
前述のように、テーマパークキャラクターを自律ロボットで実現して、テーマパーク等の社会環境において展開することは幾つかの理由により不適切である。第1に、従来の自律ロボットは、特に障害状況下において、キャラクターを正確に表現することができない。第2に、従来の自律ロボットには、観衆の近くに配置するのに必要な安全システムがない。第3に、従来の自律ロボットは、一般的な社会行動を理解しないため、ぎこちなく、非現実的に見えることなく、社会的に人々と関わることができない。
これ等の具体的な問題に対処するために、一部の実施形態は、社会環境に展開するように構成された対話型自律ロボットを含んでいる。開示されたロボットは、ロボットの状態に応じ、キャラクターとしての種々の行動から選択されるように構成されたショーサブシステムを備え、それによってロボットに技術的な障害があっても、キャラクターとして見せることができる。開示されたロボットは、セーフティプロトコルを実施する必要がある場合、キャラクターとしての行動に介入するように構成されたセーフティサブシステムを更に備えている。また、開示されたロボットは、人間の社会的行動を解釈し、それに応じて特定の行動シーケンスを開始する社会的サブシステムも備えている。
開示した技術の少なくとも1つの利点は、1つ以上のロボットサブシステムが故障した場合でも、ロボットがキャラクターとして振る舞っているように見せることができることである。従って、キャラクターと来場者との相互作用は、部分的なロボットの故障中に中止する必要がない。もう1つの利点は、ロボットが、キャラクターを中止することなく、多数の安全に関わる状況に対応するように構成され、更にどうしても必要な場合には、キャラクターを中止する能力を保持していることである。更に別の利点は、ロボットがキャラクターに留まりながら、多くの潜在的に困難な社会的状況を識別して対応することができ、ロボットが所与のキャラクターをどれだけうまく表現することができるかということに関し、更に向上させることができることである。本明細書に開示のロボットは、幾つかの具体的な技術的課題に対処しているため、開示した技術は、従来の技術を超える複数の技術的進歩をもたらす。
システム概要
図1は、様々な実施形態の1つ以上の態様を実施するように構成されたシステムを示す図である。図示のように、システム100は、ネットワーク140を介して結合された、ロボット110、バックオフィス120、及びカメラ130を備えている。システム100は、来場者150によって占められるテーマパーク環境に展開されるように構成されている。来場者150は、通常、娯楽目標でテーマパークを訪れる個人や家族を含んでいる。ロボット110は、社会的な方法で来場者150と相互作用するように構成されている。例えば、ロボット110は、来場者150に近づき、来場者に対し「ご機嫌如何が?」を出力することができる。ロボット110は、概して、映画又はテレビシリーズで見られるキャラクター等、物語に由来するキャラクターを表現するために、特定の特性に従って行動する。この様に行動することによって、ロボット110は、来場者150とのキャラクター−来場者間体験を促進することができる。ロボット110は、更にショー要素160又は別の自律ロボット170と相互作用することによって、様々なルーチンを実行することができる。例えば、ロボット110は、ロボット170に近づき、ロボット170に対し「あなたの身分は?」を出力することができる。かかるルーチンは、一般に、娯楽目標の来場者150の前で行われる。
ロボット110の動作は、概して、ロボット110に内蔵され、以下でより詳細に説明するサブシステムを介して自律的に管理される。加えて、バックオフィス120も、ロボット110を制御又は指示することができる幾つかのインターフェースを有している。図示のように、バックオフィス120は、ロボットインターフェース122、ショーインターフェース124、及び操作インターフェース126を有している。ロボットインターフェース122は、ユーザーが、ロボット110を遠隔操作することができる制御要素を含んでいる。ショーインターフェース124は、ショーのディレクターが、ロボット110の様々な演技指向の行動を指示することができる制御要素を含んでいる。操作インターフェース126は、特にショー要素160を含む、システム100の他の動作機構を遠隔操作することができる制御要素を含んでいる。前述のインターフェースは、いずれもカメラ130を介し、ロボット110を監視することができる。
テーマパーク内で展開される場合、ロボット110は自律的に機能する。ロボット110は、テーマパークを自由に散策し、明示的な指示を受けずに、様々な種類の相互作用に参加することができる。ロボット110は、テーマパークを移動する間及び来場者と相互作用する間、キャラクターに留まるように構成されている。本開示において、「キャラクターとして」というフレーズは、ロボッ110が実行することができる、既存の架空又は架空ではないキャラクターの行動に概ね一致する行動及び/又は動作の特定のパターンに関して使用される。かかる行動又は動作を「キャラクターとしての行動」又は「キャラクターとしての動作」と呼ぶことができる。
例えば、ロボット110が、スターウォーズ映画の有名なプロトコルドロイドであるC−3POを表現するように設計されていると仮定する。「キャラクターとして」行動するためには、ロボット110は、英国アクセントで、C−3POに関連するフレーズを話すことができなければならない。1つの実施形態において、ロボット110は、1つ以上のテーマ別パフォーマンス又は「ショー」に関連する、一連のスクリプト化された動作を実行する場合「キャラクターとして」行動し、例えば、セーフティプロトコルを実行する等のために、スクリプト化された動作から逸脱する場合「キャラクターを離脱した」又は「キャラクターを中止した」行動を取る。
ロボット110は、外部環境の検知、自律ナビゲーション及び移動の実行、演技に関連する特定の行為の実行、来場者150との社会的な相互作用の実行、ショー要素160及び/又は他のロボット170とのスクリプト化された相互作用の実行、及び他のロボット動作の実行に関連する、様々な機能を実行するように構成された、様々な内部システム(又はサブシステム)を備えている。様々なサブシステム及び関連機能について、図2に関連して以下に詳述する。
図2は、様々な実施形態による、図1の自律ロボットをより詳細に示す図である。図示のように、ロボット110は、頭200、胴体210、コア250、ベース270、及びホイール280を含んでいる。頭200は、頭200の位置及び向きを移動するように構成されたモーター202を有している。
胴体210は、モーションコントロール212、接触感知214、アニメーション216、照明コントロール218、深度カメラ220、ショーサブシステム222、パペッターコントロール224、オーディオ226、停止ボタン228、Wi−Fi230、ネットワーキング232、パワーサブシステム234、セットピース入出力(I/O)236、スーパーバイザー238、及びバッテリーマネジメント240を有している。胴体210は、各々が3次元(3D)LIDAR244を有するアーム242に結合されている。前述のサブシステムの一部については、図3に関連して以下に詳述する。
コア250は、ローカリゼーション252、人感センサー254、衝突回避256、ナビゲーション258、セーフティサブシステム260、モーションコントロール262、及びソーシャルサブシステム264を有している。ベース270は、エンコーダー272、二次元(2D)LIDAR274、クリフセンサー276、バンパー278を有している。これ等の様々なサブシステムの各々は、ロボット110内の他のサブシステムのいずれかに結合されるように構成されている。1つの実施形態において、ロボット110は、通信を目標として、前述の様々なサブシステムを結合することができる1つ以上の通信バスを含んでいる。前述のサブシステムの一部については、図4に関連して以下に詳述する。
動作において、ロボット110内の様々なサブシステムが相互運用して、特定のキャラクターとしての行動、システム/サブシステムの故障を軽減することを目標とした行動、及び衝突や他の事故を防止するように設計された安全行動を含む、キャラクターを中止する特定の行動を実行する。公称動作状況下において、ロボット110は、状況が許すとき、ロボット110が従うべき特定の行動シーケンスを含む一連のスクリプトに従って動作する。例えば、所与の行動シーケンスは、ロボット110が特定の目的地に向かってナビゲートし、到着時にスクリプト化された対話の一部を出力する必要があることを示すことができる。所与の行動シーケンスは、ロボット110に一連の動作を実行させる特定の合図によって調整することができる。例えば、「うなずき」の合図によって、ロボットに頭200を作動させて、うなずき動作を実行させることができる。ショーサブシステム222は、これ等の合図を生成し、概して、キャラクターとしてのロボットの行動を調整する責任を負っている。逆に、セーフティサブシステム260は、必要に応じ、キャラクターとしての行動に介入し、セーフティプロトコルを実施する責任を負っている。これ等の特定のサブシステム、及び図3に示す他のサブシステムの一部について、以下に詳述する。
図3は、様々な実施形態による、図1の自律ロボットの胴体及びアームに含まれている様々なサブシステムをより詳細示に示す図である。図示の様々なサブシステムには、公称動作に必要な特定の入力及び出力に関する詳細が記載されている。図示のように、モーションコントロール212は、モーター速度要求を受信し、次いで、3自由度(DOF)の頭と首のモーター速度及び対応するトルクを出力する。接触感知214は、来場者150によって入力された可能性がある静電容量式タッチイベントを受信して、セーフティ信号及びタッチイベントが発生したゾーンを示す1つ以上のフラグを出力する。
アニメーション216は、合図名、凝視ターゲット、及び1つ以上のアニメーションファイルを受信する。合図名は、前述の行動シーケンスに対応している。凝視ターゲットは、アニメーション中に、頭200の向きを指示する現実世界の座標セットを示す。アニメーションファイルには、アニメーション中に、ロボット110の他の部分が、どのように動くべきであるかが記述されている。アニメーション216は、ロボット110の全体を動かすベースモーター速度と共に、3自由度(DOF)の頭/首の速度及びトルクを出力する。照明コントロール218は、アニメーション216と連動して、受信した合図に応じて動作する。照明コントロール218は、電光シーケンスを示すシーケンスファイルも受信し、次いで赤緑青(RGB)発光ダイオード(LED)を照らす信号を出力する。深度カメラ220は、光信号を捕捉し、ナビゲーション258及びセーフティサブシステム260に対し、データを出力する複数のRGB深度カメラを含んでいる。
ショーサブシステム222は、セーフティサブシステム260、操作インターフェース126、スーパーバイザー238、ローカリゼーション252、人感センサー254、ナビゲーション258、および衝突回避256から入力を受信する。前述のように、ショーサブシステム222は、概して、キャラクターとしての行動を調整する。ショーサブシステム222は、キャラクターフロー定義も受信する。キャラクターフロー定義は、1つ以上の行動合図定義を含むことができ、所与の行動合図定義は、コンピュータが知覚できる一連の入力である。かかる入力は、とりわけ、例えば、ジェスチャー、ポーズ、アイコンタクト、及び物理的接触等を含むことができる。概して、一連の行動合図は、例えば、会話をしたり、手をつないだり、興味を示したり、よく聞いたり、写真を撮ったりする等、明確な行動状態を定義する。所定のキャラクターフロー定義は、かかる動作合図のシーケンスを含んでいる。ショーサブシステム222は、様々な動作を実行するために、オーディオ226、アニメーション216、ナビゲーション258、および照明コントロール218に制御信号を出力する。パペッターコントロール224は、無線受信機を介し、ロボットインターフェース122から入力を受信し、次いで、ショーサブシステム222及びナビゲーション258に制御信号を出力する。パペッターコントロール224によって、遠隔地のユーザーが、ロボット110を制御することができる。オーディオ226は、アニメーション216及び照明コントロール218と一緒に動作して、様々なロボットの行動を実行する。オーディオ226は、合図及びオーディオアセットファイルを受信し、アセットファイルに基づいて、合図に応答してオーディオを出力する。
セットピースI/O236は、図5〜6と併せて以下にも説明するように、ロボット110とテーマパーク内に分散しているショー要素、又は「セットピース」との相互作用を調整するように構成されている。スーパーバイザー238は、セーフティサブシステム260及び操作インターフェース126から入力を受信し、必要に応じ、ロボット110の包括的なシステムの状態を修正する。バッテリーマネジメント240は、内部バッテリーから入力を受信し、充電レベル、バッテリー状態等に関するデータをスーパーバイザー238、操作インターフェース126、及びショーサブシステム222に出力する。3D LIDAR244は、ロボット110の周囲環境の三次元空間マップを生成し、このデータをローカリゼーション252、ナビゲーション258、及び人感センサー254に出力するように構成されたレーザーベースの深度センサーである。
図4は、様々な実施形態による、図1の自律ロボットのコア及びベースに含まれている様々なサブシステムをより詳細に示す図である。図3と同様に、図示の様々なサブシステムには、公称動作に必要な特定の入力及び出力に関する詳細が記載されている。図示のように、ローカリゼーション252は、3D LIDAR244及び2D LIDAR274から入力を受信して、ロボット110の位置を示すローカリゼーションデータをナビゲーション258、ショーサブシステム222、及びスーパーバイザー238に出力する。人感センサー254は、ローカリゼーション252と同様の入力を受信し、これ等の入力を処理して来場者150の存在を検出する。人感センサー254は、検出した来場者を記述するデータをナビゲーション258、ショーサブシステム222、及びスーパーバイザー238に出力する。衝突回避256は、3D LIDAR244及び2D LIDAR274からのデータを処理して接近する物体を識別し、関連するデータをナビゲーション258、ショーサブシステム222、及びスーパーバイザー238に出力する。ナビゲーション258は、概して、テーマパーク内のロボット110の移動を調整する。ナビゲーション258は、セーフティサブシステム260、ショーサブシステム222、ローカリゼーション252、衝突回避256、およびモーションコントロール212から入力を受信して、ベース内のモーションコントロール262に制御信号を出力してロボット110を移動させる。
セーフティサブシステム260は、ショーサブシステム222と相互運用して、来場者150の安全を保持するように構成されている。セーフティサブシステム260は、ショーサブシステム222に介入し、必要に応じ、ロボット110にキャラクターを中止させ、セーフティプロトコルを実行することができる。セーフティサブシステム260は、ロボット110に含まれているサブシステムのいずれからも入力を受信して、セーフティプロトコルを実行すべきであるかを判定することができる。例えば、セーフティサブシステム260は、来場者150の存在を示す人感センサー254から入力を受信し、それに応じて適切なセーフティプロトコルを実行することができる。セーフティサブシステム260は、モーションコントロール212、262、及びナビゲーション258に制御信号を発する。
エンコーダー272は、車輪280の回転を監視し、コード化した車輪回転データをナビゲーション258、セーフティサブシステム260、及びモーションコントロール262に出力する。2D LIDAR274は、ナビゲーション258、衝突回避256、及びセーフティサブシステム260に、深度情報を出力するレーザーベースの距離測定装置である。クリッフセンサー276は、ロボット110が転倒する可能性がある急斜面を検知するように構成されている。クリッフセンサー276は、超音波及びレーザーセンシングを実行し、クリッフデータをナビゲーション258、セーフティサブシステム260、及びモーションコントロール262に出力する。バンパー278は、ロボット110の下部付近における、物体との軽度の衝突を検出する接触検知装置である。バンパー278は、接触データをナビゲーション258、セーフティサブシステム260、及びモーションコントロール262に出力する。
概して図1〜4において、前述のロボット110の特定の実施形態は例示的なものであり、ロボット110を実現することができる方法の範囲を限定することを意図したものではない。これまでに説明したサブシステムはいずれも、専用ハードウェア、コンピューターシステムで実行される1つ以上のソフトウェアモジュール、又は2つの組み合わせによって実現することができる。図5〜6に関連して以下に詳述するように、ロボット110は、前述のサブシステムを介し、テーマパーク内に配置されたショー要素160と事前にプログラムされた相互作用を実行するように構成されている。ロボット110は、図7〜11に関連して以下に詳述するように、使用可能なサブシステムに基づいてキャラクターとしての行動を修正するようにも構成されている。ロボット110は、図12〜15に関連して以下に詳述するように、キャラクターとしての行動を選択的に維持しつつ、セーフティプロトコルを実行するように更に構成されている。最後に、ロボット110は、図16〜19に関連して以下に詳述するように、来場者からの社会的合図を解釈して、キャラクターと来場者との相互作用を促進するように構成されている。
プログラム可能なロボットの相互作用
図5は、様々な実施形態による、図1の自律ロボットが、ショー要素との相互作用をどのように実行するかを示す図である。図示のように、ロボット110は、コンピューティングデバイス500、センサー510、及び放射体520を有するショー要素160と相互作用するように構成されている。ロボット110及びショー要素160は、ネットワーク140を介して間接的に結合され、互いに直接通信して、来場者150のために調整された演技又は「ショー」を協調的に実行するように構成されている。
動作において、ロボット110は、前述した方法でテーマパークを自由に散策することによって、ショー要素160に出合うことができる。ロボット110が、ショー要素160に近接すると、センサー510が、ロボット110によって生成された様々な信号を検出し、次いで、コンピューティングデバイス500が、放射体520を介して、ロボット110にハンドシェイク信号を送信することによって、ロボット110とのハンドシェイク522を開始する。ハンドシェイク信号は、例えば、光信号、超音波信号、又は無線信号であってよい。セットピースI/O236は、ハンドシェイク信号を受信し、次いで、確認応答(ack)信号を返す。センサー510は、ack信号を受信し、次いで、コンピューティングデバイス500が、ロボット110との直接通信を確立する。
次に、ロボット110及びコンピューティングデバイス500は、スクリプトネゴシエーション524を交換して、特定のスクリプトに記述されている、一連の特定の動作を実行することに相互に同意する。1つの実施形態において、ロボット110及びショー要素160は、相互に使用可能な資源、サブシステムの状態、環境パラメータ、他の既存の目標等に基づいて、特定のスクリプトを選択する。スクリプトが合意されると、ロボット110及びショー要素160は相互作用シーケンス526を実行する。
1つの実施形態において、所与の相互作用シーケンスに参加するために、ロボット110は、まずベースターゲット及び凝視ターゲットを設定する。ベースターゲットは、ロボット110が相互作用シーケンス中に移動すべき一連の座標である。凝視ターゲットは、相互作用シーケンス中に、ロボット110が見ているように見せる必要がある場所の一連の座標である。次に、ロボット110は、相互作用シーケンスに使用できる特定の相互作用方法を決定する。これ等の方法には、照明システム、オーディオ出力システム、又はその他のメカニズムを始動させることが含まれる。ロボット110は、相互作用シーケンスの優先順位も決定して、他のより優先順位の高い動作が無視されないようにする。場合により、ロボット110は、既存の目標がショー要素160との相互作用より優先すると判定して、ショー要素160との相互作用を終了することができる。
例示的な相互作用において、演技を行う予定の遠方の目標に向かって、ロボット110がテーマパークを移動すると仮定する。ロボット110は、本例では蒸気排出口である、ショー要素160に危険を冒して接近する。ショー要素は、ロボット110を検出して、ハンドシェイク522を開始する。次に、ロボット110及びショー要素160は、スクリプトネゴシエーション524を行う。ショー要素160は、「蒸気噴射」ルーチンを行うのに十分な蒸気資源が蓄えられていると判定する。ロボット110は、最初の目標に関連する演技終了後15分間開始されないと判定、従って、蒸気噴射ルーチンを行うのに十分な時間があったと判定する。ロボット110及びショー要素160は、蒸気噴射ルーチンを行うことに合意して、相互作用シーケンス526を開始する。ロボット110は、ショー要素160の近くのベースターゲットに近づいて、頭200をショー要素160上の蒸気ポータルに向ける。ショー要素160は、蒸気ポータルを開いてロボット110に蒸気を噴射する。近くの来場者150は、この相互作用を目撃して、(理想的には)ロボット110の見かけの好奇心が、裏目にでる様子に面白がる。蒸気噴射ルーチンが終了すると、ロボット110引き続き遠方の目標に移動する。
前述の手法は、機構、照明システム、ロボット要素、表示システム等の任意のセットを有する任意の技術的に実行可能なショー要素に適用することができる。更に、この手法は、ロボット110と他のロボット170との間で実行することができる。あらゆる種類の相互作用シーケンスも生じ得る。図6は、前述のような相互作用シーケンスを実行するための一般的な手順を示している。
図6は、様々な実施形態による、ロボットにショー要素と相互作用させる方法ステップのフローチャートである。方法のステップは、図1〜5のシステムに関連して説明してあるが、当業者は、方法ステップを任意の順序で実行するように、任意のシステムを構成することができることを理解するであろう。
図示のように、方法600は、ステップ602において開始し、ロボット110が、近くのすべてのショー要素にディスカバリー信号を同報送信する。ディスカバリー信号は、例えば、超音波信号、無線信号、光信号等であってよい。1つの実施形態において、ロボット110が移動目標のために同報送信する任意のLIDAR信号が、ディスカバリー信号の追加の目標を果たすことができる。ステップ604において、ロボット110及びショー要素160が互いにハンドシェイクする。ハンドシェイクには、通常、直接通信を確立するための伝送交換が含まれる。ステップ606において、ロボット110は、スクリプトネゴシエーションプロセスを実行して、ショー要素160と実行する相互作用シーケンスを決定する。
ステップ608において、ステップ606において決定した相互作用シーケンスに基づいて、ベースターゲットを設定する。ベースターゲットは、相互作用シーケンスが開始されたとき、ロボット110が常に存在している必要がある一連の座標である。ベースターゲットは、概して、ショー要素160に関連して定義される。ステップ610において、相互作用シーケンスが開始されると、ロボット110が見ているように見せる必要がある、凝視ターゲットを設定する。ロボット110は、ロボット110が特定の方向を向いているように見せるようにするために、異なる方向に向けることができる1つ以上の機能しない「目」を有することができる。ステップ612において、ロボット110は、相互作用シーケンスに関連する1つ以上の相互作用方法を識別する。これ等の方法は、すべてのロボットシステム又はサブシステムを含むことができる。
ステップ614において、ロボット110は、相互作用シーケンスの優先順位を決定する。ロボット110は、競合する優先順位を有する複数の目標と関わることができ、概して、これ等の優先順位を動的に評価する。ステップ616において、ロボット110は、現在の行動が相互作用シーケンスに優先するか否かを判定する。例えば、ロボット110は、バッテリーの電力が完全に使い果たされる前に、充電ステーションに戻る等、他のすべての行動に取って代わる優先順位の高い目標に既に関わっている場合がある。あるいは、ロボット110は、特定の状況下で無効にすることができる優先順位の低い目標にのみ関わることができる。現在の行動が相互作用シーケンスよりも優先されない場合、方法600はステップ618に進み、ロボット110はショー要素160との相互作用シーケンスを開始する。そうでなければ、方法はステップ620に進み、ロボット110は、優先順位のより高いこれまでの行動を継続する。1つの実施形態において、前述の優先順位付けステップは、スクリプトネゴシエーションの前に行われる。
ロボット110は、セットピース(ショー要素160及び他のロボット170等)とのスクリプト化された相互作用を行うときに前述の手法を実行する。ロボット110は、来場者150との大まかにスクリプト化された相互作用も実行することができる。いずれの場合も、ロボット110は、概して、所与のキャラクターに関連する具体的な行動特性を示すことによって、キャラクターとして動作する。しかし、特定の状況下において、ロボット110内の1つ以上のサブシステムが部分的又は完全に故障することによって、ロボット110が、キャラクターとしての具体的な相互作用及び/又は特定の相互作用を実行する能力が完全に妨げられる可能性がある。サブシステムの故障中、ロボット110がキャラクターを中止する程度を軽減するため、ショーサブシステム222は、図7〜11に関連して以下に詳述する技術を使用して、特定のサブシステムの故障に応じて、ロボット110の行動を修正するように構成されている。
キャラクターとしての行動のグレイスフルデグラデーション
図7〜10の各々に示すように、キャラクターロジック700は、ロボット110が、所与の演技中に実行することができる、様々な例示的な行動を含んでいる。キャラクターロジック700は、概して、図2のショーサブシステム222内に常駐している。ロボットの通常の動作中及び演技中(スクリプト化された相互作用等)、ショーサブシステム222は、特定のサブシステムの可用性に応じ、異なるキャラクターの行動を選択的に抑制するように構成されている。ロボットサブシステム、キャラクターの行動、及び演技出力間の依存関係について、図7に関連して以下に説明する。
図7は、様々な実施形態による、様々なロボットの行動が、ロボットシステムの状態にどのように依存しているかを示している。図示のように、キャラクターロジック700は、輪になって踊る710、船で会う720、ランダムルック730、幸せな気分740、退出ステージ750、及び助けを求める752を含む一連の行動シーケンスを有している。ショーサブシステム222は、演技中、キャラクターと来場者との相互作用中、セットピースとの相互作用中、及びその他の場合に、これらの様々な動作を実行する。図示の各々の行動シーケンスは、特定のサブシステム、サブモジュール、及び/又は対応する動作の実行に関わるデータを指定する。
図示のように、輪になって踊る710は、特定の照明アセット712、サウンドアセット714、頭アニメーション716、及び胴体アニメーション718の調整に関与している。船で会う720は、船舶が目的地であることを反映するデータ、及び船舶が関係する演技ルーチンの実行に必要なショーデータ724を含んでいる。ランダムルック730には、必要な要素が示されていないが、概して、ロボット110の頭200内のモーター202の調整に関与している。幸せな気分740は、幸福の表示に使用される行動シーケンスであって、照明アセット742、サウンドアセット744、頭アニメーション746、及び胴体アニメーション748を含んでいる。これ等の特定の照明及びサウンドアセット、並びにアニメーションモジュールは、輪になって踊る710に示したものと同じであってよいが、通常、異なる動作を実行するためには、異なる構成のサブモジュールが必要である。例えば、輪になって踊る710に必要な特定の照明アセットは、幸せな気分740に必要なアセットと異なるであろう。退出ステージ750、及び助けを求める752は、フェイルセーフ行動であって、キャラクターとして又はキャラクターを離脱して実行することができる。
各々の行動シーケンスは、1つ以上の基礎となるロボットサブシステムの状態に、ある程度依存する。従って、行動依存関係760は、様々な状態表示器とキャラクターロジック700内の対応する行動シーケンスとの間のマッピングを示す。図示の状態表示器は、バッテリー充電レベル762、場外観衆感知764、頭接触感知766、肩接触感知768、ナビゲーション770、衝突感知772、侵入感知774、WiFi776、及び人検出778を含んでいる。各々の状態表示器は、図2〜4に示すものを含む、特定のサブシステムの可用性を表示することができる。例えば、バッテリー充電レベル762は、バッテリーマネジメント240に結合して、バッテリーマネジメント240によって測定されたバッテリー充電レベルを報告するように構成し得る。同様に、衝突感知772は、人感センサー254及び/又は衝突回避256に結合して、衝突感知が利用できる程度を示すように構成し得る。前述のいずれの状態表示器も、対応するサブシステム又は複数のサブシステムが使用可能若しくは使用不可であることを示すバイナリ信号、又は可用性の割合を示すアナログ信号を出力する。
また、図示のように、ショー依存関係780は、特定の行動シーケンスと関連するショー出力とのマッピングを示す。「ショー出力」は、概して、照明、身振り、音声、移動方向等を含む、ロボット110が演技をする際に生成するすべての出力を含んでいる。照明782、頭アニメーション784、ベースモーション786、サウンド788、ショーゾーン790、及びショーターゲット792は、すべて例示的なショー出力である。
動作において、図示のショーサブシステム222は、ロボット110がスクリプト化、半スクリプト化、及びスクリプト化されていない動作を実行する際の公称動作を調整する。前述のように、これ等の行動は、予定された演技、及び図5に関連して説明した予定外の自発的な相互作用を含むことができる。かかる動作中、ショーサブシステム222は、ロボット110内の基礎となる多数のサブシステムの状態を動的に監視する。その後、行動依存関係760に基づいて、ショーサブシステム222は、故障しつつある又は故障したサブシステムに依存する行動を部分的又は完全に抑制する。従って、抑制された行動及び利用できないサブシステムに応じ、特定のショー出力も利用できなくなる。
ショーサブシステム222が、特定の行動を選択的に抑制する一方、他の行動を使用可能にするため、多数のサブシステムが故障しても、ロボットは様々なキャラクターとして行動を取ることができる。概念的には、ショーサブシステム222は、従来技術の手法に見られるサブシステムの故障に応じて単にシャットダウンするのではなく、キャラクターとしての行動の「グレイスフル」デグラデーションを実行する。この手法の利点の1つは、故障シナリオでキャラクターを突然中止する可能性がある従来のロボットと比較して、ロボット110は、特定のキャラクターをより現実的に表現することができることである。ショーサブシステム222によって、ロボット110が徐々にキャラクターから外れ、必要に応じてのみ遷移するため、ロボット110に技術的な問題が生じても、実際には来場者150が気付かない場合があり得る。図8〜10に関連して、幾つかについての例示的な故障シナリオを以下に説明する。
図8は、様々な実施形態による、図1の自律ロボットが、サブシステムの故障中に、キャラクターとしての行動をどのように維持するかにつての例を示す図である。図示の例示的なシナリオにおいて、ナビゲーション770は、ロボット110が1つの場所から別の場所に移動できないことを意味する、すべてのローカリゼーション及びナビゲーション機能が、現在オフラインであることを示している。行動依存関係760に基づいて、ショーサブシステム222は、ローカリゼーション及びナビゲーション機能に依存する特定の行動を抑制する必要があると判定する。次に、ロボット110が船に移動することができないため、ショーサブシステム222は、全体として船で会う720を抑制する。ショーサブシステム222は、輪になって踊る710に関連する胴体アニメーション718、及び幸せな気分740に関連する胴体アニメーション748も抑制する。しかし、輪になって踊る710及び幸せな気分740は、ローカリゼーション及びナビゲーションを必要としないので、これらの行動は創造的に受け入れられる方法で変更され、品質を僅かに低下させた形態で依然として利用することができる。この手法では、ロボット110は、主要なサブシステムの故障が生じているにも関わらず、キャラクターに留まり、残りの行動のいずれかをキャラクターとして実行することができる。
図9は、様々な実施形態による、図1の自律ロボットが、複数のサブシステム故障中にキャラクターとしての行動をどのように維持するかについての例を示す図である。図示の例示的なシナリオにおいて、バッテリー、様々なセンサー、及び人検出を含む、多くのサブシステムに故障が発生している。それ故、ショーサブシステム222は、輪になって踊る710、船で会う720、及びランダムルック730を含む、多くの行動シーケンスを完全に抑制する。幸せな気分740の多くは抑制されるが、サウンドアセット744は依然として使用可能である。退出ステージ750、及び助けを求める752も使用可能である。非常に多くの行動が利用できないことを考慮して、ロボット110は退出ステージ750を実行すると同時にサウンドアセット744を実行して幸せな音を発する。ロボット110は、助けを求める752も実行する。従って、ロボット110は、キャラクターを劇的に中止することなく複数のサブシステムの故障に対処する。
図10は、様々な実施形態による、図1の自律ロボットが、サブシステムの故障中に、キャラクターとしての行動をどのように縮小するかについての例を示す図である。図示の例示的なシナリオにおいて、バッテリー充電レベル762が、ロボット110が船で会う720を実行するのに十分なバッテリー電力がないことを示し、その理由はロボット110を再充電することができる充電ステーションから船が遠過ぎる可能性があるためである。これ等の制限があるため、ショーターゲット792の一部又はすべてが利用不可である。従って、ロボット110のキャラクターとしての行動は縮小されるが、輪になって踊る710及び幸せな気分740を含む、幾つかの別のキャラクターとしての行動が依然として使用可能である。
概して、図7〜10において、ロボット110は、サブシステム、行動シーケンス、及びショー出力間に、本明細書で説明するものを超える多数の依存関係を含み得る。例えば、行動依存関係760は、図2〜4に関連して前述したサブシステムのいずれかと、本明細書で説明するロボット行動のいずれかとの間の関係を記述することができるであろう。
一部の実施形態において、ショーサブシステム222は、所与の行動シーケンスに関するメトリックを生成して、ロボット110がそのシーケンスを実行することができる程度を示すことができる。ショーサブシステム222は、所与の行動シーケンスのメトリックを、シーケンスが依存するサブシステムの可用性に基づいて生成することができる。ショーサブシステム222は、次いで、関連するメトリックを閾値と比較することによって、特定の行動シーケンスを抑制することができる。所与のメトリックが閾値を超えた場合、関連する行動が引き続き使用可能である。そうでなければ、ショーサブシステム222は、そのシーケンスを抑制する。また、ショーサブシステム222は、様々な要因に基づいて、行動シーケンスに優先順位を付けることができる。例えば、ショーサブシステム222は、特定の行動が、既に1回以上実行されていることを判定し、その行動の優先順位を下げることができる。図11は、前述の手法の段階的な実行を示す図である。
図11は、様々な実施形態による、使用可能なロボットサブシステムに基づいて、ロボットにキャラクターとしての行動を選択的に実行させる方法ステップのフローチャートである。この方法ステップは、図1〜4及び7〜10のシステムに関連して説明されているが、当業者は、任意の順序で方法ステップを実行するように、任意のシステムを構成することができることを理解するであろう。
図示のように、方法1100は、ステップ1102において開始し、ショーサブシステム222が、ロボットサブシステムの評価に基づいて、システム全体の状態を判定する。ショーサブシステム222は、図7〜10に関連して説明した方法で、様々な表示器を分析してシステムの状態を判定することができる。ステップ1104において、ショーサブシステム222が、基礎となるサブシステムに関する行動依存関係、及びシステムの状態に基づいて、各々の行動シーケンスのケイパビリティスコアを生成する。単純な場合には、ケイパビリティスコアは0又は1である。ステップ1106において、ショーサブシステム222は、閾値を超えるケイパビリティスコアを有する行動シーケンスを識別する。かかる行動シーケンスは、基礎となるサブシステムが十分に整っているため実行可能である。ショーサブシステム222は、ゼロでないケイパビリティスコアを有する行動シーケンスを識別する場合がある。
ステップ1108において、ショーサブシステム222は、識別された各々の行動シーケンスの優先順位レベルを生成する。ショーサブシステム222は、行動シーケンスの新規性、他のショー要素の行動との一貫性、シーケンスの実行に必要なリソース等を含む、多くの異なる要因に基づいて、特定の行動シーケンスに対する所与の優先順位レベルを生成することができる。ステップ1110において、ショーサブシステム222は、最も高い優先順位レベルを有する行動シーケンスを決定する。ステップ1112において、ショーサブシステム222は、行動シーケンスの実行に使用可能な特定のサブシステムを決定する。場合により、所与の行動シーケンスが使用可能になり、優先順位も高いが、その行動の実行に必要な特定のサブシステムが使用できない場合もあり得る。かかる場合、ショーサブシステム222は、縮小された方法ではあるが、とにかく行動シーケンスを開始することができる。ステップ1114において、ショーサブシステム222は、ステップ1112において決定した使用可能なサブシステムを用いて行動シーケンスを開始する。
サブシステムの可用性に基づいて、キャラクターとしての行動を縮小することの利点の1つは、ロボット110が、技術的な問題を抱えているにも関わらず、ロボット110に関係する演技が継続できることである。従って、キャラクターとして実際に表現されたロボット110の錯覚を維持することができ、来場者の満足度を高める可能性につながる。ロボット110は、図12〜15に関連して以下に詳述するように、状況に応じ、キャラクターとして及び/又はキャラクターから離脱して、セーフティプロトコルを実行するようにも構成されている。
キャラクターとしてのセーフティプロトコル
図12A〜12B、13A〜13B、及び14A〜14Bの各々の対は、ショーサブシステム222とセーフティサブシステム260が相互運用して、セーフティプロトコルを実行する異なる例示的なシナリオを示している。所与の対における第1の図は、特定のイベントの発生及び/又は特定の例示的なシナリオの間、様々な状況が満足されているか否かを示すタイミングチャートである。これ等の状況は、概して、ロボットの動作中に発生し得る安全上のリスクに対応している。所与の対における第2の図は、手順決定ロジックであって、それに従って、ショーサブシステム222及びセーフティサブシステム260が、例示的なシナリオの間、決定を下すロジックを示している。以下で説明する様々なセーフティプロトコルは、ロボットに関連する既存の安全基準に由来するものである。1つの実施形態において、ロボット110は、ANSI/ITSDF B56.5−2012標準に由来するセーフティプロトコルを実行する。
図12A〜12Bは、様々な実施形態による、図1の自律ロボットが、衝突を防止しながら、どのようにしてキャラクターに留まるかについての例を示す図である。本明細書に記載の例において、ロボット110は、障害物との衝突の可能性を検出し、キャラクターとして対応することができる。
図12Aに示すように、タイミングチャート1200、1202、1204、1206、1208、1210、1212、1214、1216、1218、及び1220は、対応するイベント又は状況に関連する真理値を時間の関数として示している。所与のイベント又は状況は、多くの可能性の中でも特に、衝突の危険性等、安全上のリスクに対応することができる。所与のタイミングチャートが高の場合、関連するイベントが発生しているか、又は対応する状況が満足されている。所与のタイミングチャートが低の場合、関連するイベントが発生していないか、又は対応する状況が満足されていない。
タイミングチャート1200は、ロボット110が、期間中、キャラクターとして動作するか又はキャラクターを離脱して動作するかを示している。タイミングチャート1200によれば、ロボット110は、当初、短期間キャラクターを離脱して動作し、次いで、残りのすべての時間にわたりキャラクターとして動作する。タイミングチャート1202は、ロボット110と障害物との距離が7メートル(M)より大きいか否かを示している。タイミングチャート1202によれば、ロボット110は、当初、障害物から7M以上離れて存在しているが、その後、障害物の7M以内に接近する。同様に、タイミングチャート1204は、ロボット110と障害物との距離が3Mより大きいか否かを示している。タイミングチャート1204によれば、ロボット110は、当初、障害物から3M以上離れて存在しているが、その後、障害物の3M以内に接近する。タイミングチャート1206は、ロボット110と障害物との距離が1Mより大きいか否かを示している。タイミングチャート1206によれば、ロボット110は、当初、障害物から1M以上離れて存在しているが、その後、障害物の1M以内に接近する。タイミングチャート1202、1204、及び1206に関連する様々な状況が、3D LIDAR244、2D LIDAR274、及び他の空間センサーに関連するものを含む、ロボット110によって捕捉されたセンサーデータに基づいて評価することができる。タイミングチャート1202、1204、及び1206に基づいて、ロボット110が、障害物に接近していることを認識することができる。
タイミングチャート1208は、ショーサブシステム222が、障害物を回避するためにロボットの進路を調整する特定の時間範囲を示している。しかし、この調整は失敗する。タイミングチャート1210は、セーフティサブシステム260が、その後、障害物との衝突の可能性を検出することを示している。タイミングチャート1212は、ショーサブシステム222が回避行動を実施して(キャラクターとして)障害を回避する時間範囲を示している。ショーサブシステム222は、タイミングチャート1214に示すように、セーフティサブシステム260が、ショーサブシステム222に計画介入を通知することに応じて、この回避行動を実施する。この計画介入に応じ、タイミングチャート1216に示すように、サブシステム222はセーフティサブシステム260に追加の応答時間を要求する。セーフティサブシステム260は、タイミングチャート1218に示すように、2秒の追加を許可する。この追加の2秒の間、ショーサブシステム222は、前述し、かつタイミングチャート1212に示す回避行動を実施する。タイミングチャート1220によれば、セーフティサブシステム260が介入せずに衝突が回避される。
要約すれば、セーフティサブシステム260が、時刻t1において衝突の危険性を検出し、ショーサブシステム222に通知する。ショーサブシステム222が、回避行動を実行して、時刻t2までに安全に関わる状況を解決する。それ故、セーフティサブシステム260は、時刻t3において計画介入を実行する必要はなく、ロボット110はその時刻まで、及びその時刻を超えてキャラクターに留まる。図12Aに示す様々なタイミングチャートは、図12Bに示す手順決定ロジックに対応している。
ここで、図12Bにおいて、前述の例示的なシナリオの処理において、ショーサブシステム222は、ショーサブシステムロジック1230を実行し、セーフティサブシステム260はセーフティサブシステムロジック1240を実行する。本明細書に記載の例示的な衝突シナリオの間、ショーサブシステム222が、概して、ロボット110の制御を続行することを示すために、ショーサブシステムロジック1230の特定の部分が強調されている。
まず、タイミングチャート1204、1206、及び1208にも示すように、セーフティサブシステムロジック1240が障害物を検出する。次に、セーフティサブシステムロジック1240は、タイミングチャート1214に示すように、ショーサブシステムロジック1230に対し警告を発する。これに応じ、ショーサブシステムロジック1230は、様々な軽減策を評価する。所与の軽減策には、例えば、障害物を避けるためにロボット110を逸らせることが含まれる。ショーサブシステムロジック1230は軽減策を選択し、タイミングチャート1216に示すように、セーフティサブシステムロジック1240に追加の時間を要求する。セーフティサブシステムロジック1240は、タイミングチャート1218にも示す追加時間を許可する。ショーサブシステム1230は、タイミングチャート1200及び1212に示すように、キャラクターとして回避行動を行うことによって軽減策を実行する。
前述の相互運用ロジックを実行することによって、ロボット110が、特定の安全基準を順守しつつ、キャラクターとしての行動を最大限維持することができる。図13A〜13Bに関連して以下に詳述するように、ロボット110は、キャラクターの一時的な中断に値する安全に関わる状況に応じ、同様のロジックを実行することができる。
図13A〜13Bは、様々な実施形態による、図1の自律ロボットが、衝突を防止するために、どのようにしてキャラクターを一時的に中止するかについての例を示す図である。本明細書に記載の例において、ロボット110が、ロボット110に向かって不意に走り寄る人を検出したため、ロボット110がセーフティプロトコルを実施する。
図13Aに示すように、タイミングチャート1300、1302、1304、1306、1308、1310、1312、1314、1316、1318、及び1320は、図12Aに関連して前述したものと同じイベント及び状況に関連付けられている。しかし、ロボット110が、本明細書に記載のシナリオに対して異なる応答を示すため、これらのタイミングチャートの実際の真理値は、図12Aに示すものと異なる。
タイミングチャート1300は、当初、ロボット110がキャラクターとして動作していることを示している。タイミングチャート1302、1304、及び1306は、ロボット110が、この場合には、ロボット110に向かって積極的に移動している人である、障害物に接近していることを示している。ショーサブシステム222は、タイミングチャート1308に示すように、人を避けるために進路を調整するが、タイミングチャート1310に示すように、衝突の危険性が依然として検出されている。セーフティサブシステム260は、タイミングチャート1314に示すように、ショーサブシステム222に対し、近々の介入を通知する。ショーサブシステム222は、タイミングチャート1316に示すように、追加の時間を要求する。セーフティサブシステム260は、タイミングチャート1318に示すように、この時間を許可する。ショーサブシステム222は、タイミングチャート1312に示すように、回避行動を取って障害物を避けようとするが、タイミングチャート1310に示すように、衝突の危険性は差し迫ったままである。ショーサブシステム222が、安全に関わる状況を軽減することができなかったため、タイミングチャート1300及び1320に示すように、セーフティサブシステム260が介入し、ロボット110は一時的にキャラクターを中止し、一時的に動きを停止する。その後、ショーサブシステム222に対し、キャラクターとしての動作に復帰するのが許可される。
要約すれば、セーフティサブシステム260が、時間t4におい衝突の危険性を検出し、ショーサブシステム222に通知する。表示サブシステム222による回避が成功しないため、セーフティサブシステム260は、時間t5において介入する必要がある。時間t6において、安全に関わる状況が解消される。この様に、ロボット110は、一時的にキャラクターを中止するが、安全に関わる状況が解消された後に演技を続行することができる。これ等の様々なタイミングチャートに対応する手順決定ロジックについて、以下図13Bに関連して説明する。
ここで、図13Bにおいて、前述のシナリオにおいて、ショーサブシステム222は、ショーサブシステムロジック1330を実行し、セーフティサブシステム260はセーフティサブシステムロジック1340を実行する。ショーサブシステム222が安全に関わる状況の解消を試みるが、ショーサブシステムロジック1330が、ロボット110の制御を一時的に放棄する必要があることを示すために、ショーサブシステムロジック1330の特定の部分が強調されている。
セーフティサブシステムロジック1340が、まず、タイミングチャート1304、1306、及び1308にも示すように、障害物検出によって予想外の人物を検出する。セーフティサブシステムロジック1340は、タイミングチャート1314に示すように、ショーサブシステムロジック1330に通知する。ショーサブシステムロジック1330は、様々な軽減策を評価し、タイミングチャート1316に示すように、軽減策を実行するための追加時間を要求する。セーフティサブシステムロジック1340は、タイミングチャート1318に示すように、追加時間を許可するが、タイミングチャート1310及び1312に示すように、ショーサブシステム222による軽減回避行動が失敗する。それ故、タイミングチャート1320に示すように、セーフティサブシステムロジック1340が介入し、キャラクターコンティンジェンシー対策を実施して一時的にキャラクターを中止する。この文脈において、キャラクターコンティンジェンシー対策は、通常のキャラクターとしての行動から一時的に逸脱することである。安全に関わる状況が解消された後、ショーサブシステム222は、キャラクターとしての行動に復帰することが許可される。
前述のロジックによって、ロボット110は、安全基準を順守する一方、これ等の基準に違反するであろうと思われる時点まで、キャラクターとして動作することができる。その時点において、キャラクターとしての行動が一時中断される。ロボット110は、図14A〜14Bに関連して以下に詳述するように、必要がある場合には、キャラクターを永続的に中止して、演技を終了することもできる。
図14A〜14Bは、様々な実施形態による、図1の自律ロボットが、サブシステムの障害に応じて、どのようにしてキャラクターを中止するかについての例を示す図である。本例において、ロボット110が、ホイールエンコーダーが故障してキャラクターとしての動作を中止する必要があると判定する。
図14Aに示すように、タイミングチャート1400、1402、1404、1406、1408、1410、1412、1414、1416、1418、及び1420は、図12A及び13Aに関連して前述したものと同じイベント及び状況の一部に関連する真理値を示している。しかし、タイミングチャート1402は、キャラクターとしての演技中に、時刻t7において、エンコーダーに故障が発生したことを示している。ホイールエンコーダーは、人との衝突を回避するのに不可欠な安全に関わる重要なセンサーであるため、セーフティサブシステム260が即座に介入し、時刻t8においてロボットを停止させる。ロボット110がキャラクターを中止し、演技が終了し、安全に関わる問題が潜在的に回避される。
ここで、図14Bにおいて、ショーサブシステム222及びセーフティサブシステム260が、セーフティサブシステムロジック1440実行し、ホイールエンコーダーに故障が発生したとき、セーフティサブシステム260が、セーフティサブシステムロジック1440を実行して、セーフティコンティンジェンシー対策を実施する。ショーサブシステムロジック1440には、関連する安全基準に準拠するであろうと思われる使用可能な安全に関わる軽減策がないため、問題を軽減するためのオプションは用意されていない。
概して、図12A〜14Bにおいて、前述のシナリオは、ショーサブシステム222及びセーフティサブシステム260が相互運用して、安全基準の順守を犠牲にすることなく、キャラクターとしての行動を最大限に発揮させる幾つかの可能な方法を示している。特定の安全に関わる状況は変化し得るが、ショーサブシステム222及びセーフティサブシステム260の基本的な相互運用によって、安全に関わるリスクを軽減する間、ロボット110がキャラクターを中止する必要の程度が限定される。
図15は、様々な実施形態による、安全に関わる状況に応じ、自律ロボットの演技活動を調整する方法ステップのフローチャートである。この方法ステップは、図1〜4及び12A〜14Bのシステムに関連して説明されているが、当業者は、方法ステップを任意の順序で実行するように、任意のシステムを構成することができることを理解するであろう。
図示のように、方法1500は、ロボット110がキャラクターとしての行動を開始するステップ1502において開始する。キャラクターとしての行動は、ロボット110が参加する演技、又はロボット110がテーマパーク内を自由に散策する際に生じる演技に関連付けることができる。ステップ1504において、ロボット110は、安全に関わる潜在的な問題の識別を開始する。そうすることによって、ロボット110は、周囲の環境を反映したセンサーデータを分析すると共に、内部サブシステムを監視して故障状態を検出する。ステップ1506において、ロボット110は第1の安全に関わる状況が満足されていると判定する。
第1の安全に関わる状況は、図12A〜12Bに関連して説明した、静止障害物との衝突の危険性であり得る。あるいは、図13A〜13Bに関連して前述したように、来場者150が、不意にロボット110に走り寄るとき、第1の安全に関わる状況が発生し得る。また、第1の安全に関わる状況は、図14A〜14Bに関連して前述したように、ロボットシステムに故障が発生したときにも生じ得る。これ等の安全に関わる状況はいずれも、軽減する必要がある潜在的な安全に関わるリスクに対応している。ロボット110は、ステップ1506において、別の安全に関わる状況が発生したことを知ることもできる。例えば、ロボット110は、バッテリーの充電レベルが臨界レベルまで低下し、潜在的に回避行動が阻止されていることを特定することができるであろう。ロボット110は、悪天候によってセンサーデータの正確な収集が脅かされ、衝突の検出が妨げられるであろうことも認識できるであろう。
ステップ1508において、ロボット110は、キャラクターとして、安全に関わる状況を軽減することができるか否かを判定する。安全に関わる状況が、図14A〜14Bに関連して説明したホイールエンコーダーの故障等、特定の安全に関わる基準に該当する場合には、方法1500が、ステップ1514に進み、ロボット110がキャラクターを中止してセーフティコンティンジェンシー対策を実施する。さもなければ、方法1500はステップ1510に進む。ステップ1510において、ロボット110内のサブシステム222が、ロボット110内のセーフティサブシステム260に、軽減するための時間を要求する。軽減するための時間によって、ロボット110は、キャラクターを維持しつつ、安全に関わる状況の軽減策を試みる時間が得られる。ステップ1512において、ロボット110は、キャラクターとしての軽減策を実行する。例えば、ロボット110は、幸せな音を発し続けながら、障害物を迂回することができ、それによってロボット110が幸せであるという外見を保持することができる。
ステップ1516において、ロボット110は、第1の安全に関わる状況が存続しているか否かを判定する。第1の安全に関わる状況が存続していなければ、つまり軽減策が成功した場合には、方法はステップ1518に進み、演技又は他のキャラクターとしての行動が継続される。あるいは、安全に関わる状況が存続していれば、つまり軽減策が失敗した場合には、方法1500はステップ1520に進み、そこでロボット110がキャラクターコンティンジェンシー対策を実施する。そうすることで、ロボット110は、一時的にキャラクターを中止して第1の安全に関わる状況を解消し、その後キャラクターに戻ることができる。
概して、図12A〜14Bにおいて、ロボット110内の様々なサブシステムが、説明した方法で相互運用するように構成され、ロボット110が、安全性とキャラクターとしての行動を同時に維持できるという有利な特徴が付与される。従って、ロボット110は、とりわけテーマパーク等、多数の人々が存在し得る環境における展開に適することができる。従って、ロボット110は、継続してキャラクターとしての行動を維持せず、付近の人々に安全上の脅威を与える可能性がある、従来の産業用ロボットと比較して大幅な改善を示している。
ロボット110に組み込まれた様々な安全機能に加え、ロボット110は、従来のロボットでは成し遂げるのが困難又は不可能であろうと思われる、複雑な社会的シナリオに対処するようにも構成されている。来場者150と社会的に相互作用するためにロボット110によって実行される様々な技術について、図16〜19に関連して以下に詳述する。
社会的合図のプログラム的解釈
図16は、様々な実施形態による、図2のソーシャルサブシステムをより詳細に示す図である。ソーシャルサブシステム264は、概して、ロボット110が動作する社会環境を分析し、一般に受け入れられている社会規範に適合し得る、ロボットの特定の行動を調整する役割を担っている。
図示のように、ソーシャルサブシステム264は、複数のシーケンサー1600を有している。所与の行動シーケンサー1600は、特定の社会的状況の発生を識別し、その社会的状況に相応しい、1つ以上の行動をロボット110に実行させるように構成されている。簡単な例において、所与のシーケンサー1600は、来場者150がロボット110を抱きしめたいと願っていると判定して、ロボット110に抱擁動作を実行させることができる。ロボット110は、状況に応じて、これ等の行動をキャラクターとして、又はキャラクターを離脱して実行することができる。
各々のシーケンサー1600は、合図評価器1610、及び一連の行動シーケンサー1620を有している。所与のシーケンサー1600内の合図評価器1610は、1つ以上の関連する社会的合図を検出するように構成されている。行動シーケンス1620は、潜在的に特定のシーケンスで、これ等の合図に応じて実行され得る様々な行動を含んでいる。ソーシャルサブシステム264が、多くの異なるシーケンサー1600を有しているので、ロボット110は、多数の検出された合図に適切に応答することによって、多種多様な社会的状況をうまく切り抜けるように構成することができる。
シーケンサー1600は、ロボット110のリアルタイム動作中、環境データ1630を処理して、社会的合図を検出するように構成されている。環境データ1630は、生のセンサーデータ、及びセンサーデータに基づいて生成されたメタデータを含むことができる。例えば、環境データは、3D LIDARポイントクラウドデータ、及び来場者が占有する三次元空間の特定の領域を示すデータを含み得る。シーケンサー1600の一部又は全部は、常時環境データを能動的に処理して、様々な社会的合図を検出することができる。
例えば、シーケンサー1600(0)が、合図評価器1610(0)を実行して、近くにいる来場者の集団が写真を撮りたいと思っているか否かの判定を下し、シーケンサー1600(1)が、合図評価器1610(1)を実行して、近くにいる子供がダンスをしたいと思っているか否かの判定を下すことができるであろう。所定のシーケンサー1600が、対応する社会的合図を検出した場合、当該シーケンサー1600は、ロボット110に関連する行動シーケンス1620を実行させることができる。前述の例において、合図評価器1610(0)が近くにいる来場者の集団が写真を撮りたいと思っていると判定した場合、シーケンサー1610(0)は、ロボット110に、その人々の集団と一緒にポーズを取らせることができる。
動作において、所与のシーケンサー1600は、特定の合図の検出、その合図に関連する行動の実行、次いで、環境データ1630の最評価を通した、更なる潜在的に関連する合図の識別を含む、密接に結合したフィードバックループにおいて、合図評価器1610及び行動シーケンス1620を実行する。関連する合図が検出された場合には、シーケンサー1600は、行動シーケンス1620内の別の行動を実施することができる。図17A〜17B、及び18は、ソーシャルサブシステム264が、特定の社会的状況に関連する社会的合図をどのように検出して応答するかを示す、2つの異なる例を示す図である。
図17A〜17Bは、様々な実施形態による、1人以上のテーマパークの来場者と相互作用するときに、図1の自律ロボットが実行する例示的なロジックを示す図である。この例において、ロボット110は、ロボット110を遮りたいと思っている来場者150に関わる社会的状況に直面している。ソーシャルロジック1700は、ソーシャルサブシステム264が、この状況に対するキャラクターとして、及びキャラクターを離脱した様々な応答の調整方法を説明している。特に、ソーシャルロジック1700は、ロボット110が置かれるであろうと思われる様々な状態、及びその状況に対応する際に、ロボット110が実行し得る様々な行動を含んでいる。
図示のように、当初、ロボット110は、ロボット110が幸せな気分に関連するキャラクターとしての行動を醸し出す、状態1702にある。環境データ1630に基づいて、ロボット110は、ロボット110の真正面に、身長が低く、従って子供である可能性が高い来場者150の存在を検出する。検出された来場者150は、構成可能な半径を有するロボット110を囲む「個人空間」の境界内に存在している可能性がある。これに応じ、ロボット110は、新しい移動の通過点を生成し、それに向かって移動するために、アクション1704を実行する。
しかし、環境データ1630に基づいて、ロボット110は依然としてロボット110の真正面にいる来場者150の存在を検出する。従って、ロボット110は、アクション1706を実行し、新しい移動通過点の生成及びそれに向けて移動するプロセスを繰り返す。環境データ1630の分析は、依然として来場者150が存在していることを示しているため、ロボット110は、アクション1708を介して、最後に来場者を迂回しようと試みる。ロボット110の試みは失敗し、環境データ1630は、引き続きロボット110の真正面に来場者150の存在を示している。
この時点において、ロボット110は、来場者150がロボット110の進路を妨害し、恐らく遊びたいと思っていることを示す、特定の社会的合図を識別する。所与の合図評価器1610は、この特定の状況を検出するように構成することができ、例えば、人がロボット110を妨害する可能性が非常に高いことを示すことができるであろう。1つの実施形態において、所与の合図評価器1610は、ロボット110の真正面にいる人を繰り返し検出する等、1つ以上の状況に基づいて、この特定の社会的合図を検出するように、環境データに基づいて訓練された機械学習モデルを含んでいる。
この社会的合図に応じ、ロボット110は、対応する行動シーケンス1620を実行開始して、アクション1710を実行し、これによって、ロボットは、キャラクターとして踊る動作を実行して、来場者150と社会的に関わろうとする。その後、合図評価器1610は、アクション1712を介して、進路が空き、来場者150が立ち去ったか否かを判定することができる。進路が空いた場合、ロボット110は状態1714に移行し、幸せな気分に戻る。
そうでなければ、ロボット110は状態1716に移行し、ここでも、来場者150がロボット110を妨害し続けていると判定する。この時点において、合図評価器1610は、来場者150が遊び心ではなく、意図的にロボット110を妨害していることを示す、関連する社会的合図を識別することができる。かかる行動は、概して、他の来場者150に対するロボット110の娯楽的価値が低下する恐れがあるため、受け入れられない。また、他者の意図的な妨害は好ましくない行動であり、テーマパーク等、家族に優しい環境において奨励されるべきではない。
ここで、図17Bにおいて、ロボット110は、状態1718に入り、「どきなさい!」と言うことによって、はっきりと忠告して継続的な妨害を止めさせようと試みる。次いで、アクション1720を介して、ロボット110は、来場者150の存在が継続しているか否か判定する。来場者が引き続きロボット110を妨害している場合には、ロボット110は、状態1722に入り、再び説得を試み、次いで、アクション1726を実行して、(合図評価器1610を介して)状況を再評価する。前述の行動によって、所定の時間内に妨害者を排除することができない状況下において、合図評価器1610は、関連する動作シーケンス1620における追加の行動を実施するか、又は、別法として、ロボット110の行動に対する制御を放棄し、別の状況判定器に異なる行動シーケンスを調整させることができる。
この例において、ロボット110は戦術を変更し、ロボット110が来場者150の同情に訴えるために悲しみを醸し出す、状態1730に移行する。前の行動と同様に、ロボット110は、その後、状況を再評価し、行動が成功した場合には幸せな気分に戻る。来場者150が悲しみに反応しない場合には、ロボット110は更なる社会的相互作用に関わることを拒絶する。概して、悲しみに対する無感覚は反社会的行動とみなされ、来場者150との更なる関わりは、この容認できない行動を助長する。ロボット110は、状態1736に入り、関連する合図評価器1610が、来場者150が去ったと判定するまで何もしない。来場者が最終的に去ったとき、ロボット110は状態1740〜1742に進む。
前述の例は、この特定のシナリオが無視できない頻度で発生するため、ロボット110のテーマパーク展開に特に適している。これ等の種類の状況に対処するために、ソーシャルサブシステム264は、前述の行動のいずれかを実行するのに十分な数の合図評価器1610及び行動シーケンス1620で事前にプログラムされている。一部の実施形態において、ソーシャルサブシステム264は、所与の行動シーケンス1620内のすべての行動を使い果たした後、別のシーケンサー1600に移行する。別の実施形態において、各々のシーケンサー1600は、社会的相互作用のクラス全体を調整するようにプログラムされている。ソーシャルサブシステム264が処理するように構成さている、別の例示的な社会的状況について、図18に関連して以下に説明する。
図18は、様々な実施形態による、図1の自律ロボットが、テーマパークの来場者と相互作用するときに実行する例示的なロジックを示す図である。この例において、ロボット110は、友好的にロボット110と一緒に歩きたいと望む来場者150を含む社会的状況を認識してそれに参加する。ソーシャルロジック1800は、ソーシャルサブシステム264が、この状況に対するキャラクターとしての様々な対応をどのように調整するかについて記述している。ソーシャルロジック1700と同様に、ソーシャルロジック1800は、ロボット110が置かれるであろうと思われる様々な状態、及びその状況に対応する際に、ロボット110が実行し得る様々な行動を含んでいる。
図示のように、当初、ロボット110は、ロボット110が幸せな気分に関連するキャラクターとしての行動を醸し出す、状態1802にある。環境データ1630に基づいて、ロボット110は、ロボット110の左側、かつロボット110を囲む個人空間内の来場者150の存在を検出する。関連する合図検出器1610を介して、ロボット110は、来場者150が近接していることを、来場者の個人空間を尊重するために、ロボット110が邪魔にならないように移動すべきであるという社会的合図として解釈する。それに応じ、ロボット110は、新しい移動の通過点を生成し、それに向かって移動することによって、来場者の個人空間とロボット110の個人空間との競合を回避するために、アクション1804を実行する。
次いで、ロボット110は、左腕242(1)に持続した接触を検出する。合図評価器1610は、この相互作用は、来場者150が愛情を表明したいことを意味していると解釈することができる。従って、ロボット110は状態1806に入り、関連する行動シーケンス1620内の適切な行動を実施する。例えば、ロボット110は幸せな気分を醸し出し、ゲスト150と社会的に関わり合うことができる。ロボット110は、状態1808を継続して、来場者150を見ることを含む、シーケンス内の更なる行動を実施することもできる。
前述のように、ソーシャルサブシステム264は、予想される様々な社会的状況に対処し、キャラクターとしての行動を介してこれ等の状況に加わるように、事前にプログラムすることができる。加えて、ソーシャルサブシステム264は、互いに相互運用するように構成された多数のシーケンサー1600を含むことによって、様々な社会的状況間をシームレスに移行することができる。図19は、社会的状況を管理する一般的な手法を示す図である。
図19は、様々な実施形態による、ロボットを社会的相互作用に参加させる方法ステップのフローチャートである。この方法ステップは、図1〜4及び16〜18に関連して説明されているが、当業者は、任意の順序で方法ステップを実行するように、任意のシステムを構成することができることを理解するであろう。
図示のように、ステップ1902において開始し、ロボット110内のソーシャルサブシステム264が、環境データの分析に基づいて、第1の状況が満足されていると判定する。例えば、図17A〜17Bに関連して前述したように、ソーシャルサブシステム264は、現在、来場者150が、ロボット110の真正面に存在していると判定することができるであろう。ソーシャルサブシステム264は、合図評価器1610を実行して、特定の合図に関連する状況が満足されているか否かを識別する。ステップ1904において、ソーシャルサブシステム264は、第1の状況が持続しているか否かを判定する。
第1の状況が存続していない場合には、ソーシャルサブシステム264は、ロボット110が現在の行動を継続することを許可する。しかし、第1の状況が存続又は繰り返されている場合には、方法1900はステップ1908に進む。例えば、図17A〜17Bに関連して説明した例を参照すると、ソーシャルサブシステム264は、来場者150がロボット110の真正面の位置を占有し続けていると判定することができる。1つの実施形態において、ソーシャルサブシステム264は、第1の状況を軽減するための1つ以上の行動を実施した後、ステップ1904を実行する。
ステップ1908において、ソーシャルサブシステム264は、社会的相互作用の発生を示す第1の状況に関連する社会的合図を識別する。ソーシャルサブシステム264は、例えば、1つ以上の合図評価器1610を実行して、第1の状況の存続が、1人以上の来場者150が、ロボット110を特定の社会的相互作用に参加させたいことを示唆していると判定することができるであろう。ステップ1910において、ソーシャルサブシステム264は、ロボット110に、社会的相互作用に関連する社会的行動を実行させる。例えば、図17A〜17Bに関連して前述したように、ソーシャルサブシステム264は、来場者150が社会的に関わることを望んでいると判定すると、ロボット110にキャラクターとして踊る行動を実行させることができるであろう。
ステップ1912において、ソーシャルサブシステム264は、社会的相互作用が一連の継続基準を満足しているか否かを判定する。概念的には、所与の継続基準は、ロボット110が、行動シーケンス1620の同じセットを介して社会的相互作用を継続すべきか、又は行動シーケンスの別のセットに移行すべきかを示す。例えば、図17A〜17Bの例において、ソーシャルサブシステム264は、来場者150を迂回する試みを続行すべきか、「幸せな気分」に移行すべきかを決定する前に、来場者150が去ったか否かを判定する。継続基準は、ソーシャルサブシステム264が参加するように構成されていることが、関連する合図評価器1610を介して評価することができる、各々の社会的相互作用に対して個別に定義することができる。
ステップ1912において、ソーシャルサブシステム264が、社会的相互作用が継続基準を満足していると判定した場合には、方法1900はステップ1910に戻り、ソーシャルサブシステム264は、社会的相互作用に関連する別の社会的行動を実行する。1つの実施形態において、ソーシャルサブシステム264は、所与の行動シーケンス1620内の行動を、すべての行動が使い果たされるまで実行する。
ステップ1912において、ソーシャルサブシステム264が、社会的相互作用が継続基準を満足していないと判定した場合には、方法1900は、ソーシャルサブシステム264が別の行動を開始するステップ1914に進む。そうすることによって、ソーシャルサブシステム264が、別のシーケンサー1600を実行して、社会的相互作用の戦術を変更することも、ソーシャルサブシステム264が、ロボット110に対する制御を完全に別のサブシステムに戻すこともできる。例えば、ソーシャルサブシステム264は、社会的相互作用が完了したと判定して、所与の目的地に向けた移動に戻ることができるであろう。
方法1900は、ソーシャルサブシステム264に含まれている1つ以上のシーケンサー1600のいずれかによって実行され、多くの異なる社会的状況に社会的に正しい方法で対応する。これ等のシーケンサーの各々は、異なる一連の状況、関連する合図、及び継続基準を検出するようにプログラムすることができる。加えて、任意の所与のシーケンサー1600は、例えば、現在の社会的相互作用戦略を調整するために、方法1900を実行して、ロボット110の制御を異なるシーケンサー1600に移行することができる。
概して、図1〜19において、これ等の図は、図1〜4に関連して詳述したロボット110に関連して説明した図であるが、当業者は、ロボット110の動作を実行するように構成された任意のシステムが本実施形態の範囲内に属することを理解するであろう。ロボット110及びロボットに含まれている任意の構成要素は、図20に関連して以下に説明する汎用コンピューティング装置の1つ以上のインスタンスを介して実行することができる。
図20は、様々な実施形態による、図1の自律ロボットが備えることができるコンピューティング装置のブロック図である。図示のように、コンピューティング装置2000は、プロセッサ2010、入出力(I/O)装置2020、及びメモリ2030を備えている。メモリ2030は、ソフトウェアアプリケーション2032、及びデータベース2034を含んでいる。プロセッサ2010は、データを処理し、ソフトウェアアプリケーションを実行するように構成された任意のハードウェアであってよい。I/O装置2020は、入力を受信するように構成された装置、出力を与えるように構成された装置、及び入力を受信して出力を与えるように構成された装置を有することができる。メモリ2030は、技術的に実現可能な任意の記憶媒体によって実現することができる。ソフトウェアアプリケーション2032は、プロセッサによって実行されると、本明細書に記載の動作及び/又は機能のいずれかを遂行するプログラムコードを含んでいる。ソフトウェアアプリケーション2032は、データベース2034に保存されているデータにアクセスすることができる。当業者は、コンピューティング装置2000が例示のみを目標として示してあり、本実施形態の範囲を限定することを意味するものではないことを理解するであろう。
様々な実施形態は、ロボットに、第1の動作セットを実行させながら、安全に関わるリスクを軽減させる技術に関している。これ等の技術には、ロボットに、第1の動作セットに含まれている第1の動作を実行させ、分析したセンサーデータに基づいて、安全に関わるリスクの存在を判定し、安全に関わるリスクを軽減する必要がある第1の時間間隔を決定し、安全に関わるリスクが第1の時間間隔内に軽減されない場合、セーフティサブシステムが、第1の動作セットに含まれていない第2の動作を実行し、ロボットに、安全に関わるリスクを軽減するために、第1の動作セットに含まれている第3の動作を実行させ、安全にかかわるリスクが第1の時間間隔内に軽減された場合、セーフティサブシステムが、第2の動作を中止することが含まれるが、これに限定されるものではない。
様々な別の実施形態は、ロボットに、演技に関連する一連の動作を実行させながら、社会的相互作用にうまく対応させる技術に関している。これ等の技術には、ロボットに、一連の動作に含まれている第1の動作を実行させ、分析したセンサーデータに基づいて、第1の社会的相互作用の発生を示す第1の社会的合図を識別し、ロボットに、一連の動作に含まれ、かつ第1の社会的相互作用に対応する第2の動作を実行させ、第1の社会的相互作用が存続していることを判定し、ロボットに、第1の社会的相互作用を回避するために、一連の動作に含まれていない第3の動作を実行させることが含まれるが、これに限定されるものではない。
要約すれば、対話型自律ロボットが、社会環境における展開に相応しいように構成されている。開示したロボットは、ロボットの状況に応じて、キャラクターとしての様々な行動を選択するように構成されたショーサブシステムを備え、それによって、技術的な故障が発生しても、ロボットをキャラクターとして見せることができる。開示したロボットは、セーフティプロトコルを実行する必要があるとき、キャラクターとしての行動に介入するように構成されたセーフティサブシステムを更に備えている。開示したロボットは、人間の社会的行動を解釈し、それに応じて特定の行動シーケンスを開始する、ソーシャルサブシステムも含んで構成されている。
開示した技術の少なくとも1つの利点は、1つ以上のロボットのサブシステムが故障しても、ロボットをキャラクターとして行動しているように見せることができることである。従って、ロボットの部分的故障の間、キャラクターと来場者との相互作用を中断する必要がない。もう1つの利点は、ロボットがキャラクターを中止することなく、多数の安全に関わる状況に対応するように構成され、更に、どうしても必要な場合には、キャラクターを中止する能力を保持していることである。更に別の利点は、ロボットがキャラクターに留まりながら、潜在的に困難な多くの社会的状況を識別し対応することができ、これによって、ロボットが所与のキャラクターをどれだけうまく表現できるかということに関し、更に向上させることができることである。本明細書に開示のロボットは、幾つかの特定の技術的課題に対処しているため、開示した技術は、先行技術を超える複数の技術的進歩を提供する。
1.一部の実施形態は、動作中、ロボットに社会的相互作用に対応させるコンピュータ実装方法を含み、本方法は、前記ロボットが、演技に関連する第1の動作セットに含まれている1つ以上の動作を実行している間、センサーデータを分析するステップと、センサーデータに基づいて、前記ロボットとの第1の社会的相互作用の発生を示す、第1の社会的合図を識別するステップと、前記第1の社会的合図の識別に応じ、前記ロボットに、前記第1の社会的相互作用に対応する、第2の動作セットに含まれている第2の動作を実行させるステップとを含んでいる。
2.前記センサーデータを更に分析して、前記第1の社会的合図が繰り返されたと判定するステップと、前記第1の社会的合図が繰り返されたとの判定に応じ、前記ロボットに、前記第1の社会的相互作用への参加を中止させるために、前記第2の動作セットに含まれていない第3の動作を実行させるステップとを更に含む、1項記載のコンピュータ実装方法。
3.前記センサーデータを更に分析して、前記第1の社会的合図が、再度繰り返されたと判定するステップと、前記第1の社会的合図が再度繰り返されたとの判定に応じ、前記ロボットに、動作を停止させるステップとを更に含む、1項又は2項記載のコンピュータ実装方法。
4.前記センサーデータを更に分析して、前記第1の社会的合図が停止したと判定するステップと、前記ロボットに、動作を再開させるステップとを更に含む、1〜3項いずれか1項記載のコンピュータ実装方法。
5.前記センサーデータが、前記社会的合図が、時間間隔内に、少なくとも1回繰り返されたことを示す、1〜4項いずれか1項記載のコンピュータ実装方法。
6.前記センサーデータが、障害物が前記ロボットに対応する現在の進路と交差することを示す、1〜5項いずれか1項記載のコンピュータ実装方法。
7.前記センサーデータが、障害物が前記ロボットを囲む境界内に存在していることを示す、1〜6項いずれか1項記載のコンピュータ実装方法。
8.前記第1の動作セットが、実行されると、ロボットが、起点から演技に関連する目的地まで移動する、少なくとも1つの移動動作を含む、1〜7項いずれか1項記載のコンピュータ実装方法。
9.一部の実施形態が、ロボットシステムを含み、本システムは、少なくとも1つのソフトウェアモジュールを記憶するメモリと、プロセッサであって、前記少なくとも1つのソフトウェアモジュールを実行すると、演技に関連する第1の動作セットに含まれている1つ以上の動作を実行している間、センサーデータを分析するステップと、センサーデータに基づいて、第1のエンティティとの第1の社会的相互作用の発生を示す、第1の社会的合図を識別するステップと、前記第1の社会的合図の識別に応じ、前記第1の社会的相互作用に対応する、第2の動作セットに含まれている第2の動作を実行するステップと、を実行するように構成されたプロセッサとを備えている。
10.前記プロセッサが、前記センサーデータを更に分析して、前記第1の社会的合図が繰り返されたと判定するステップと、前記第1の社会的合図が繰り返されたとの判定に応じ、前記第1の社会的相互作用への参加を中止するために、前記第2の動作セットに含まれていない第3の動作を実行するステップを実行するように更に構成された、9項記載のロボットシステム。
11.前記プロセッサが、前記センサーデータを更に分析して、前記第1の社会的合図が、再度繰り返されたと判定するステップと、前記第1の社会的合図が再度繰り返されたとの判定に応じ、前記1つ以上の動作を停止するステップと、前記センサーデータを更に分析して、前記第1の社会的合図が停止したと判定するステップと、前記ロボットに動作を再開させるステップと、を実行するように更に構成された、9項又は10項記載のロボットシステム。
12.前記センサーデータが、前記社会的合図が、時間間隔内に、少なくとも1回繰り返されたことを示している、9〜11項いずれか1項記載のロボットシステム。
13.前記センサーデータが、障害物が前記1つ以上の動作に対応する現在の進路と交差することを示している、9〜12項いずれか1項記載のロボットシステム。
14.前記センサーデータが、前記第1のエンティティが、前記1つ以上の動作が行われる第1の領域内に存在していることを示している、9〜13項いずれか1項記載のロボットシステム。
15.前記第1の動作セットが、起点から演技に関連する目的地まで移動するために実行される、少なくとも1つのナビゲーション動作を含む、9〜14項いずれか1項記載のロボットシステム。
16.前記第1の動作セットが、前記第1のエンティティとの衝突を回避するために実行される、少なくとも1つのナビゲーション動作を含む、9〜15項いずれか1項記載のロボットシステム。
17.前記第2の動作セットが、前記第1の社会的相互作用への参加を中止するために実行される、少なくとも1つの動作を含む、9〜16項いずれか1項記載のロボットシステム。
18.一部の実施形態が、プロセッサによって実行されると、ロボットの動作中、前記プロセッサに、前記ロボットが、演技に関連する第1の動作セットに含まれている1つ以上の動作を実行している間、センサーデータを分析するステップ、センサーデータに基づいて、前記ロボットとの第1の社会的相互作用の発生を示す、第1の社会的合図を識別するステップ、前記第1の社会的合図の識別に応じ、前記ロボットに、前記第1の社会的相互作用に対応する、第2の動作セットに含まれている第2の動作を実行させるステップを実行させることによって、社会的相互作用に対応させるプログラム命令を記憶する非一時的コンピュータ可読媒体を含んでいる。
19.前記センサーデータを更に分析して、前記第1の社会的合図が繰り返されたと判定するステップと、前記第1の社会的合図が繰り返されたとの判定に応じ、前記ロボットに、前記第1の社会的相互作用への参加を中止させるために、前記第2の動作セットに含まれていない第3の動作を実行させるステップとを更に含む、18項記載の非一時的コンピュータ可読媒体。
20.前記センサーデータを更に分析して、前記第1の社会的合図が、再度繰り返されたと判定するステップと、前記第1の社会的合図が再度繰り返されたとの判定に応じ、前記ロボットに、動作を停止させるステップとを更に含む、18項又は19項記載の非一時的コンピュータ可読媒体。
いずれかの請求項に列挙された、いずれかの請求項要素、及び/又は本願に記載のいずれか要素のあらゆる組み合わせは、如何なる形態であっても、意図される本実施形態及び保護の範囲に属する。
様々な実施形態の説明は、例示を目標として示したものであって、すべてを網羅するものでも、開示した実施形態を限定することを意図するものでもない。記載された実施形態の範囲及び精神から逸脱することなく、多くの改良及び変形が当業者には明らかであろう。
本実施形態の態様は、システム、方法、又はコンピュータプログラム製品として具現化することができる。従って、本開示の態様は、完全にハードウェアの実施形態、(ファームウェア、常駐ソフトウェア、マイクロコード等を含む)完全にソフトウェアの実施形態、又は本明細書において、概して、「モジュール」、「システム」、又は「コンピュータ」と呼ぶことができる、ソフトウェアとハードウェアの態様を組み合わせた実施形態を取り得る。更に、本開示の態様は、内部に具現化されたコンピュータ可読プログラムコードを有する、1つ以上のコンピュータ可読媒体に具現化された、コンピュータプログラム製品の形態を取ることができる。
1つ以上のコンピュータ可読媒体の任意の組み合わせを使用することができる。コンピュータ可読媒体は、コンピュータ可読信号媒体又はコンピュータ可読記憶媒体であってよい。コンピュータ可読記憶媒体は、例えば、電子、磁気、光学、電磁、赤外線、又は半導体システム、装置、又はデバイス、あるいはこれ等の任意の適切な組み合わせであってよいが、これに限定されるものではない。コンピュータ可読記憶媒体の更に具体的な例(非包括リスト)には、1つ以上のワイヤを有する電気接続、ポータブルコンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去プログラム可能読み取り専用メモリ(EPROM又はフラッシュメモリ)、光ファイバー、ポータブルコンパクトディスク読み取り専用メモリ(CD‐ROM)、光学記憶装置、磁気記憶装置、又はこれ等の適切な組み合わせが含まれているであろう。本ドキュメントの文脈において、コンピュータ可読記憶媒体は、命令を実行するシステム、装置、又はデバイスによって、あるいはそれに関連して使用される、プログラムを包含又は記憶することができる任意の有形媒体であってよい。
本開示の態様は、本開示の実施形態による方法、装置(システム)、及びコンピュータプログラム製品のフローチャート及び/又はブロック図を参照して前述されている。フローチャート及び/又はブロック図の各ブロック、及びフローチャート及び/又はブロック図におけるブロックの組み合わせは、コンピュータプログラム命令によって実現できることが理解されるであろう。これ等のコンピュータプログラム命令を、汎用コンピュータ、専用コンピュータ、又は他のプログラム可能なデータ処理装置のプロセッサに与えて、マシンを生成することができる。コンピュータのプロセッサ又は別のプログラム可能なデータ処理装置によって命令が実行されると、フローチャート及び/又はブロック図若しくはブロックで示される機能/行動の実行が可能になる。かかるプロセッサは、汎用プロセッサ、専用プロセッサ、特定用途向けプロセッサ、又はフィールドプログラマブルゲートアレイであってよいが、これに限定されるものではない。
図のフローチャート及びブロック図は、本開示の様々な実施形態による実現可能なシステム、方法、及びコンピュータプログラム製品のアーキテクチャ、機能、及び動作を示している。これに関し、フローチャート又はブロック図の各ブロックは、指定された論理機能を実行する1つ以上の実行可能な命令を含むモジュール、セグメント、又はコードの一部を表すことができる。また、一部の代替実装形態において、ブロックに記載された機能が、図に記載された順序と異なる順序で発生し得ることに留意されたい。例えば、連続して示された2つのブロックは、実際には、実質的に同時に実行されるか、又は含まれている機能に応じ、ブロックが逆の順序で実行される場合があり得る。また、ブロック図及び/又はフローチャートの各々ブロック、及びブロック図及び/又はフローチャートのブロックの組み合わせは、指定された機能又は動作を実行する専用ハードウェアベースシステム、又は専用ハードウェアとコンピュータ命令の組み合わせによって実現することができることにも留意されたい。
前述は本開示の実施形態に関するものであるが、その基本的な範囲から逸脱することなく、本開示の別の更なる実施形態が考案可能であり、その範囲はこれに続く特許請求の範囲によって決定される。
100 システム
110 自律ロボット
120 バックオフィス
122 ロボットインターフェース
124 ショーインターフェース
126 操作インターフェース
130 カメラ
140 ネットワーク
150 来場者
160 ショー要素
170 別の自律ロボット
222 ショーサブシステム
236 セットピースI/O
260 セーフティサブシステム
264 ソーシャルサブシステム
500、2000 コンピューティングデバイス
510 センサー
520 放射体
2010 プロセッサ
2020 I/Oデバイス
2030 メモリ
2032 ソフトウェアアプリケーション
2034 データベース

Claims (9)

  1. ロボットシステムであって、
    少なくとも1つのソフトウェアモジュールを記憶するメモリと、
    プロセッサであって、前記少なくとも1つのソフトウェアモジュールを実行すると、
    演技に関連する第1の動作セットに含まれている1つ以上の動作を実行している間、センサーデータを分析するステップと、
    センサーデータに基づいて、第1のエンティティとの第1の社会的相互作用の発生を示す、第1の社会的合図を識別するステップと、
    前記第1の社会的合図の識別に応じ、前記第1の社会的相互作用に対応する、第2の動作セットに含まれている第2の動作を実行するステップと、
    を実行するように構成されたプロセッサと、
    を備えたことを特徴とするロボットシステム。
  2. 前記プロセッサが、
    前記センサーデータを更に分析して、前記第1の社会的合図が繰り返されたと判定するステップと、
    前記第1の社会的合図が繰り返されたとの判定に応じ、前記第1の社会的相互作用への参加を中止するために、前記第2の動作セットに含まれていない第3の動作を実行するステップと、
    を実行するように更に構成されたことを特徴とする、請求項1記載のロボットシステム。
  3. 前記プロセッサが、
    前記センサーデータを更に分析して、前記第1の社会的合図が、再度繰り返されたと判定するステップと、
    前記第1の社会的合図が再度繰り返されたとの判定に応じ、前記1つ以上の動作を停止するステップと、
    前記センサーデータを更に分析して、前記第1の社会的合図が停止したと判定するステップと、
    前記ロボットに動作を再開させるステップと、
    を実行するように更に構成されたことを特徴とする、請求項2記載のロボットシステム。
  4. 前記センサーデータが、前記社会的合図が、時間間隔内に、少なくとも1回繰り返されたことを示していることを特徴とする、請求項1記載のロボットシステム。
  5. 前記センサーデータが、障害物が前記1つ以上の動作に対応する現在の進路と交差することを示していることを特徴とする、請求項1記載のロボットシステム。
  6. 前記センサーデータが、前記第1のエンティティが、前記1つ以上の動作が行われる第1の領域内に存在していることを示していることを特徴とする、請求項1記載のロボットシステム。
  7. 前記第1の動作セットが、起点から演技に関連する目的地まで移動するために実行される、少なくとも1つのナビゲーション動作を含むことを特徴とする、請求項1記載のロボットシステム。
  8. 前記第1の動作セットが、前記第1のエンティティとの衝突を回避するために実行される、少なくとも1つのナビゲーション動作を含むことを特徴とする、請求項1記載のロボットシステム。
  9. 前記第2の動作セットが、前記第1の社会的相互作用への参加を中止するために実行される、少なくとも1つの動作を含むことを特徴とする、請求項1記載のロボットシステム。
JP2019161813A 2018-09-26 2019-09-05 社会的合図をプログラム的に解釈するように構成された対話型自律ロボット Pending JP2020049648A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862737067P 2018-09-26 2018-09-26
US62/737,067 2018-09-26
US16/447,912 US11154991B2 (en) 2018-09-26 2019-06-20 Interactive autonomous robot configured for programmatic interpretation of social cues
US16/447,912 2019-06-20

Publications (1)

Publication Number Publication Date
JP2020049648A true JP2020049648A (ja) 2020-04-02

Family

ID=69883077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019161813A Pending JP2020049648A (ja) 2018-09-26 2019-09-05 社会的合図をプログラム的に解釈するように構成された対話型自律ロボット

Country Status (2)

Country Link
US (3) US11890747B2 (ja)
JP (1) JP2020049648A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022061011A (ja) * 2020-10-05 2022-04-15 オートデスク,インコーポレイテッド ソフトロボットマニピュレータのためのジェネレーティブデザイン技術

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106406312B (zh) * 2016-10-14 2017-12-26 平安科技(深圳)有限公司 导览机器人及其移动区域标定方法
US11890747B2 (en) 2018-09-26 2024-02-06 Disney Enterprises, Inc. Interactive autonomous robot configured with in-character safety response protocols
US11249122B2 (en) * 2019-08-27 2022-02-15 Vertiv Corporation Method and apparatus for providing automated power topology mapping
US20210346557A1 (en) 2020-05-08 2021-11-11 Robust AI, Inc. Robotic social interaction
DE102020125344A1 (de) 2020-09-29 2022-03-31 Deutsches Zentrum für Luft- und Raumfahrt e.V. Robotersystem

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003050559A (ja) * 2001-08-07 2003-02-21 Honda Motor Co Ltd 自律移動ロボット
JP2007041204A (ja) * 2005-08-02 2007-02-15 Brother Ind Ltd 自立型実演ロボット
JP2013099800A (ja) * 2011-11-07 2013-05-23 Fujitsu Ltd ロボット、ロボットの制御方法及び制御プログラム
US20170095925A1 (en) * 2015-10-01 2017-04-06 Disney Enterprises, Inc. Soft body robot for physical interaction with humans
WO2017169826A1 (ja) * 2016-03-28 2017-10-05 Groove X株式会社 お出迎え行動する自律行動型ロボット

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6956348B2 (en) 2004-01-28 2005-10-18 Irobot Corporation Debris sensor for cleaning apparatus
JP4303602B2 (ja) * 2004-01-09 2009-07-29 本田技研工業株式会社 顔面像取得システム
JP3832593B2 (ja) 2004-03-25 2006-10-11 船井電機株式会社 自走式掃除機
US8081849B2 (en) 2004-12-03 2011-12-20 Google Inc. Portable scanning and memory device
US7617557B2 (en) * 2004-04-02 2009-11-17 Royal Appliance Mfg. Co. Powered cleaning appliance
JP2005296510A (ja) 2004-04-15 2005-10-27 Funai Electric Co Ltd 監視カメラを備えた自走式掃除機
JP2005304540A (ja) 2004-04-16 2005-11-04 Funai Electric Co Ltd 監視カメラを備えた自走式掃除機
US7436143B2 (en) 2005-04-25 2008-10-14 M-Bots, Inc. Miniature surveillance robot
US9557814B2 (en) 2010-04-22 2017-01-31 Sony Interactive Entertainment Inc. Biometric interface for a handheld device
TW201239643A (en) 2011-03-30 2012-10-01 Micro Star Int Co Ltd Clean path guiding method with dirt detection
US9279977B2 (en) 2012-04-10 2016-03-08 California Institute Of Technology Compact laser projection systems and methods
WO2014036549A2 (en) * 2012-08-31 2014-03-06 Rethink Robotics, Inc. Systems and methods for safe robot operation
US9192280B2 (en) 2012-12-07 2015-11-24 Electrolux Home Products, Inc. Method and system for detecting and removing a clogging condition of a filter in a dishwasher
CN104161487B (zh) 2013-05-17 2018-09-04 恩斯迈电子(深圳)有限公司 移动装置
KR102104896B1 (ko) * 2014-01-17 2020-05-29 엘지전자 주식회사 로봇청소기 및 이를 이용한 휴먼 케어방법
EP2933070A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Methods and systems of handling a dialog with a robot
US9651458B2 (en) 2014-09-19 2017-05-16 Swisslog Logistics Inc. Method and system for auto safety verification of AGV sensors
US9494936B2 (en) 2015-03-12 2016-11-15 Alarm.Com Incorporated Robotic assistance in security monitoring
US10386845B1 (en) 2016-01-22 2019-08-20 State Farm Mutual Automobile Insurance Company Autonomous vehicle parking
TW201741101A (zh) 2016-05-20 2017-12-01 鴻海精密工業股份有限公司 一種具有不同服裝的智慧型機械人
WO2018019354A1 (en) 2016-07-25 2018-02-01 Swiss Reinsurance Company Ltd. An apparatus for a dynamic, score-based, telematics connection search engine and aggregator and corresponding method thereof
CN109789550B (zh) 2016-07-27 2023-05-30 华纳兄弟娱乐公司 基于小说或表演中的先前角色描绘的社交机器人的控制
WO2018028799A1 (en) 2016-08-12 2018-02-15 Swiss Reinsurance Company Ltd. Telematics system with vehicle-embedded telematics devices (oem line fitted) for score-driven, automated insurance and corresponding method
CN109643126A (zh) * 2016-09-02 2019-04-16 Groove X 株式会社 行为自主型机器人、服务器及行为控制程序
US10123674B2 (en) * 2016-09-09 2018-11-13 International Business Machines Corporation Cognitive vacuum cleaner with learning and cohort classification
CA3046868A1 (en) 2016-12-12 2018-06-21 Stephen Scott Trundle Drone pre-surveillance
US20180229372A1 (en) 2017-02-10 2018-08-16 JIBO, Inc. Maintaining attention and conveying believability via expression and goal-directed behavior with a social robot
US10335962B1 (en) * 2017-03-01 2019-07-02 Knowledge Initiatives LLC Comprehensive fault detection and diagnosis of robots
JP2018176387A (ja) * 2017-04-19 2018-11-15 富士ゼロックス株式会社 ロボット装置及びプログラム
EP3622364B1 (en) * 2017-05-09 2023-07-05 Brain Corporation System and method for motion control of a robot
US10467891B1 (en) 2017-05-10 2019-11-05 Alarm.Com Incorporated Method for allowing drone activity to modify event detection by a monitoring system
JP6979115B2 (ja) * 2017-07-14 2021-12-08 達闥机器人有限公司 ロボットの性格設定方法、装置及びロボット
CN112088070A (zh) 2017-07-25 2020-12-15 M·奥利尼克 用于操作机器人系统并执行机器人交互的系统及方法
WO2019087478A1 (ja) * 2017-10-30 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2019088681A1 (ko) * 2017-10-31 2019-05-09 경희대학교산학협력단 로봇의 안전성 향상 및 안전성 평가 방법
US20190315345A1 (en) 2018-04-16 2019-10-17 David E. Newman Blind spot potential-hazard avoidance system
JP7298860B2 (ja) 2018-06-25 2023-06-27 Groove X株式会社 仮想キャラクタを想定する自律行動型ロボット
US11890747B2 (en) 2018-09-26 2024-02-06 Disney Enterprises, Inc. Interactive autonomous robot configured with in-character safety response protocols

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003050559A (ja) * 2001-08-07 2003-02-21 Honda Motor Co Ltd 自律移動ロボット
JP2007041204A (ja) * 2005-08-02 2007-02-15 Brother Ind Ltd 自立型実演ロボット
JP2013099800A (ja) * 2011-11-07 2013-05-23 Fujitsu Ltd ロボット、ロボットの制御方法及び制御プログラム
US20170095925A1 (en) * 2015-10-01 2017-04-06 Disney Enterprises, Inc. Soft body robot for physical interaction with humans
WO2017169826A1 (ja) * 2016-03-28 2017-10-05 Groove X株式会社 お出迎え行動する自律行動型ロボット

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022061011A (ja) * 2020-10-05 2022-04-15 オートデスク,インコーポレイテッド ソフトロボットマニピュレータのためのジェネレーティブデザイン技術
JP7218407B2 (ja) 2020-10-05 2023-02-06 オートデスク,インコーポレイテッド ソフトロボットマニピュレータのためのジェネレーティブデザイン技術

Also Published As

Publication number Publication date
US11154991B2 (en) 2021-10-26
US20200094417A1 (en) 2020-03-26
US20200097011A1 (en) 2020-03-26
US20200094418A1 (en) 2020-03-26
US11590660B2 (en) 2023-02-28
US11890747B2 (en) 2024-02-06

Similar Documents

Publication Publication Date Title
JP2020049648A (ja) 社会的合図をプログラム的に解釈するように構成された対話型自律ロボット
US10970527B2 (en) Robot attention detection
US20220088776A1 (en) Robot to Human Feedback
KR102298541B1 (ko) 이미지 데이터에서 사용자를 인식하는 인공 지능 장치 및 그 방법
KR102103624B1 (ko) 자율 생활 능력을 갖는 휴머노이드 로봇
CN106660205B (zh) 用于处理类人机器人与人类交互的系统、方法和计算机程序产品
US8818556B2 (en) Multi-state model for robot and user interaction
KR20190083317A (ko) 차량의 차선 변경에 관련된 알림을 제공하는 인공 지능 장치 및 그 방법
KR101982420B1 (ko) 충돌 검출
EP3178617A2 (en) Hybrid reality based i-bot navigation and control
KR20190089790A (ko) 인공 지능을 통해 바닥 상황을 고려하여 청소하는 로봇 청소기 및 그 방법
US11507825B2 (en) AI apparatus and method for managing operation of artificial intelligence system
KR20190085895A (ko) 사용자의 시선에 따라 제어 가능한 인공 지능 장치 및 그의 동작 방법
KR20190104264A (ko) 차량에 탑재되는 인공 지능 장치 및 그 방법
KR20210047434A (ko) 로봇 청소기 및 그의 동작 방법
US20210137438A1 (en) Control system for mobile robots
KR20210050201A (ko) 로봇, 로봇의 작동 방법 및 상기 로봇을 포함하는 로봇 시스템
US20190111563A1 (en) Custom Motion Trajectories for Robot Animation
US11727774B2 (en) 3D audio for detecting objects in danger zones around VR players
KR102247911B1 (ko) 인공 지능 로봇 및 인공 지능 서버
Fujita 17.1 AI x Robotics: Technology Challenges and Opportunities in Sensors, Actuators, and Integrated Circuits
Rosa et al. Tour guide robot: a 5G-enabled robot museum guide
CN117063204A (zh) 信息处理装置、信息处理方法和程序

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231206

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240228