JP7299642B2 - 自動的センサ位置合わせおよび構成のためのシステムおよび方法 - Google Patents

自動的センサ位置合わせおよび構成のためのシステムおよび方法 Download PDF

Info

Publication number
JP7299642B2
JP7299642B2 JP2021510699A JP2021510699A JP7299642B2 JP 7299642 B2 JP7299642 B2 JP 7299642B2 JP 2021510699 A JP2021510699 A JP 2021510699A JP 2021510699 A JP2021510699 A JP 2021510699A JP 7299642 B2 JP7299642 B2 JP 7299642B2
Authority
JP
Japan
Prior art keywords
workcell
images
industrial machinery
image
image sensors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021510699A
Other languages
English (en)
Other versions
JP2021534990A (ja
Inventor
ドミトリー デドコフ,
スコット デネンバーグ,
イリヤ エー. クリヴェシュコ,
ポール ジェイコブ シュローダー,
クララ ヴュ,
パトリック ソバルヴァッロ,
アルバート モエル,
Original Assignee
ヴェオ ロボティクス, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヴェオ ロボティクス, インコーポレイテッド filed Critical ヴェオ ロボティクス, インコーポレイテッド
Publication of JP2021534990A publication Critical patent/JP2021534990A/ja
Application granted granted Critical
Publication of JP7299642B2 publication Critical patent/JP7299642B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/402Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for positioning, e.g. centring a tool relative to a hole in the workpiece, additional detection means to correct position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • G05B19/4061Avoiding collision or forbidden zones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32014Augmented reality assists operator in maintenance, repair, programming, assembly, use of head mounted display with 2-D 3-D display and voice feedback, voice and gesture command
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37555Camera detects orientation, position workpiece, points of workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40476Collision, planning for collision free path
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40557Tracking a tool, compute 3-D position relative to camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Quality & Reliability (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

(関連出願)
本願は、その全開示が、参照することによって本明細書に組み込まれる、2018年8月30日に出願された、米国仮特許出願第62/724,945号の利益および優先権を主張する。
本発明は、一般に、3次元(3D)空間内のセンサに関し、特に、3D空間内のセンサの位置および配向の自動的推定を実施するためのシステムおよび方法に関する。
産業機械類は、多くの場合、人間にとって危険である。いくつかの機械類は、これが、完全に運転停止されるまで、危険である一方、他の機械類は、種々の動作状態を有し得、そのうちのいくつかは、危険であり、そのうちのいくつかは、危険ではない。ある場合には、危険度は、機械類に対する人間の場所または距離に依存し得る。その結果、種々のタイプの「防護対策」機器が、人間および機械を分離するために開発され、それによって、機械類が人間に危害を及ぼさないように防止している。1つの非常に単純かつ一般的なタイプの防護対策は、ケージの扉の開放が、電気回路に機械類を安全状態にさせる(例えば、機械類を運転停止させる)ように構成される、機械類を囲繞するケージである。これは、人間が、これが安全ではない状態で動作している間に機械類に決して接近し得ないことを確実にする。
より洗練されたタイプの防護対策は、例えば、光学センサを伴い得る。実施例は、任意の物体が、1つ以上の光エミッタおよび検出器によって監視される領域の中に侵入したかどうかを決定する光カーテンと、センサから発する一連の光線に沿った障害物までの最小距離を検出するためにアクティブ光学感知を使用する(したがって、事前構成された2D区域の中への近接または侵入のいずれかを検出するように構成され得る)2次元(2D)LIDARセンサとを含む。加えて、3D深度センサが、最近では、防護対策改良を提供するために、種々の機械防護対策用途において採用されている。3D深度センサの実施例は、3D飛行時間カメラ、3D LIDAR、およびステレオビジョンカメラを含む。これらのセンサは、3D内の産業機械類を囲繞する面積の中への侵入を検出および位置特定する能力を提供し、これは、それらに2Dセンサに優るいくつかの利点を与える。例えば、産業ロボットの周囲の床面積を防護する2D LIDARシステムは、侵入が、人物の脚を表す場合、その人物の腕は、はるかに近接し得、2D LIDARによって検出不可能であろうため、侵入が、ロボットから離れて腕の長さの距離を優に超えて検出されるとき、ロボットを停止させる必要性があるであろう。しかしながら、3Dシステムは、人物が、実際にロボットに向かって自身の腕を伸ばすまで、ロボットが動作し続けることを可能にすることができる。これは、機械のアクションと人間のアクションとの間のはるかに緊密な結合を可能にし、これは、多くの用途において柔軟性を提供し、常に限られている工場の床上の空間を節約する。
人間の安全性が、危うくなるため、防護対策機器(特に、電子バージョン)は、IEC 61508およびISO 13849等の機能的安全性に関する厳しい業界標準に準拠しなければならない。これらの標準は、ハードウェアコンポーネントに関する故障率およびハードウェアおよびソフトウェアコンポーネントの両方に関する厳密な開発実践を規定し、システムは、ハードウェアおよびソフトウェアコンポーネントが、標準に準拠するときのみ、産業環境における使用に関して安全であると見なされる。標準準拠システムは、危険な条件およびシステム故障が、非常に高い確率で検出され得、システムが、制御されている機器を安全状態に遷移させることによってそのような事象に応答することを確実にしなければならない。例えば、安全システムは、未検出からもたらされる危険な結果を回避するために、未検出よりも誤検出を優先するように調整され得る。
しかしながら、人間および機械の分離は、生産性のために常に最適であるわけではない。例えば、いくつかのタスクは、人間および機械が協働して作業することによって最良に実施され、機械は、典型的には、より高い強度、より速い速度、より高い精度、およびより高い再現性を提供する一方、人間は、最先端の機械の能力さえもはるかに超える柔軟性、器用さ、および判断力を提供し得る。潜在的協働用途の実施例は、自動車におけるダッシュボードの配設であり、ダッシュボードは、重く、人間にとって操縦することが困難であるが、機械にとって容易であり、これを取り付けることは、正しく取り扱うために人間の器用さおよび柔軟性を要求する種々のコネクタおよび締結具を要求する。しかしながら、従来の防護対策技術は、本タイプの協働を可能にするために十分に柔軟性および適合可能ではない。したがって、これらの状況は、典型的には、多くの場合、多大な費用および複雑性において、人間によって最良に実施されるタスクの側面を自動化するか、またはロボットによってより良好に行われるタスクの側面を実施するように人間作業者を使用し(おそらく、リフト支援デバイス等の付加的機器を使用する)、反復性のストレス傷害または人間作業者にとって危険な状況への暴露につながり得る、潜在的に遅く、誤りがちな、非効率的な実行を許容するかのいずれかによって解決される。
3D感知に基づく改良された防護対策は、産業技師が、タスクの各サブセットが人間作業者の安全性を犠牲にすることなく人間または機械に最適に割り当てられるプロセスを設計することを可能にし得るが、いくつかの課題が、本質的に、安全重視環境内で3Dセンサを使用する際に存在する。最初に、センサ自体が、機能的安全標準を満たさなければならない。加えて、3Dセンサの未加工出力は、これが、2Dセンサによって提供されるデータよりもはるかに豊富であり、分析することが困難であるため、殆どの用途において直接使用されることができない。3Dセンサデータは、したがって、産業機械類に関する効果的かつ信頼性のある制御出力を発生させるために、新規の方法における処理を要求する。3Dデータに基づくシステムに関する別の課題は、システムおよび3Dセンサを構成および位置合わせすることの困難である。実際には、2Dセンサを用いても、安全防護対策を構成することは、困難であり得る。最初に、具体的区域が、通常、機械類によってもたらされる具体的危険、作業空間内の人間の可能性として考えられるアクション、作業空間レイアウト、および各個々のセンサの場所および視野を考慮して、使用事例毎に設計および構成される。特に、利用可能な床空間およびシステム処理能力を最大限にしながら、安全性を保全しようとするとき、除外区域の最適な形状を計算することは、困難であり得る。
したがって、防護対策技術を構成することは、高度な技能セットまたはツールを要求する。構成における誤りは、重大な安全上の問題をもたらし、設計および試験において有意なオーバーヘッドを要求し得る。本作業は全て、任意の変更が、作業空間に行われる場合、完全にやり直されなければならない。3Dシステム/センサによって提示される追加の自由度は、可能性として考えられる構成および危険のはるかに大きいセットをもたらし、それによって、未加工3Dセンサデータから有用な信頼性のある制御出力を発生させるために、より高いレベルのデータ処理を要求する。故に、3Dセンサによって入手されるデータの要求される処理時間および複雑性を低減させながら、機械類の周囲で動作するための人間の安全性を提供するために、作業空間を確実に監視するアプローチの必要性が、存在する。
本発明の種々の実施形態は、相互に対して、かつ制御下の1つ以上の機械類に対して位置合わせされる3Dセンサを使用して、安全目的のために作業空間を監視するためのシステムおよび方法を提供する。本明細書に使用されるように、用語「~を位置合わせする」は、1つ以上の他の物体(例えば、ロボット、床、他のセンサ等)に対する物体(例えば、センサ)の相対的姿勢を推定するプロセスを指す。「位置合わせ」の目標は、基準フレームに対する剛体変換の観点から本関係を規定することである。
センサ間の位置合わせは、入手された画像の間に十分な重複および/または区別が、存在するとき、センサによって入手された作業空間の1つ以上の3D画像に基づいて確立されてもよい。例えば、従来のコンピュータビジョン技法(例えば、グローバル位置合わせアルゴリズム)および微細位置合わせアプローチ(例えば、ICPアルゴリズム)が、センサ間の位置合わせを実施するために実装されてもよい。センサの視野の間に不十分な重複が、存在する、および/または作業空間内の不十分な詳細が、入手された画像において提供される場合、3D内の際立ったシグネチャを有する1つ以上の位置合わせ物体が、センサ位置合わせのために利用されてもよい。代替として、各センサは、作業空間内に立っている、またはある時間周期にわたって作業空間全体を通して通過する1人以上の人物、移動する機器、または他の位置合わせ物体の画像を記録してもよく、十分な数の少なくとも部分的に合致する画像が、入手されるとき、画像は、センサ位置合わせを確立するために、組み合わせられ、処理されてもよい。センサ位置合わせが、完了した後、センサの共通基準フレームが、次いで、センサによって入手されたデータが、グローバルフレーム内で処理され得るように、作業空間のグローバル基準フレームに変換されてもよい。
種々の実施形態では、センサが、それら自体の間で位置合わせされた後、センサは、作業空間内の機械類に位置合わせされる。位置合わせは、機械類および/または際立った3Dシグネチャおよび機械類に対する関連する姿勢を有する位置合わせ標的を使用して確立されることができる。例えば、センサは、最初に、位置合わせ標的に位置合わせしてもよく、次いで、本位置合わせおよび機械類への位置合わせ標的の関連する姿勢に基づいて、センサは、機械類に位置合わせしてもよい。いくつかの実施形態では、センサによって視認される作業空間内のシーンの画像が、ユーザインターフェース上に提供される。加えて、コンピュータ支援設計(CAD)および/または実際の機械類および/または作業空間の走査を使用して作成された機械類および/または作業空間の2Dまたは3Dモデルが、シーンの画像上に表示されてもよい。シーンの画像内の離散特徴および/または制約の1つ以上の対が、次いで、センサと機械類との間の位置合わせを確立するために、オペレータによって手動で、または制御システムによって自動的に選択されてもよい。種々の実施形態では、機械類へのセンサの自動化位置合わせは、作業空間内のセンサおよび機械類の以前の設定において確立される1つ以上の構成パラメータ(例えば、位置合わせを微調整するための反復回数、3D点群密度、メッシュ密度、1つ以上の収束基準等)を含む、位置合わせライブラリの使用を伴う。一実施形態では、シーンの画像内のロボットおよび/または機械類の状態は、位置合わせライブラリ内のシーンの記憶された画像内のロボットおよび/または機械類のものに対して比較され、位置合わせライブラリ内の最良に合致する状態を提供する画像が、識別されることができる。続けて、シーンの画像内の最良に合致される状態と関連付けられる構成パラメータが、読み出されることができ、それに基づいて、機械類へのセンサの位置合わせが、確立されてもよい。
機械類の動作の間、センサ間およびセンサと機械類との間の位置合わせは、リアルタイムで連続的に監視されることができる。例えば、作業空間内の静的要素のモデルへの観察されるデータの適合正確度を捕捉するメトリックのセット(例えば、位置合わせ検証、リアルタイムロボット追跡等)が、位置合わせプロセスの間に作成されてもよい。位置合わせの完了に応じて、本システムが、動作する際、メトリックは、リアルタイムで連続的に監視および更新されてもよい。メトリックまたはその初期値(すなわち、初期位置合わせの間に取得される)からのその逸脱が、規定された閾値を超える場合、システム動作の間の位置合わせは、無効であると見なされてもよく、エラー条件が、トリガされてもよい。続けて、動作中の機械類は、運転停止される、または安全状態に遷移されてもよい。加えて、機械類の動作の間にセンサによって入手された信号は、連続的に分析されてもよい。センサが、定位置に留まるが、視野が、不明瞭にされる、または遮断される、および/または測定されたセンサ信号が、劣化する場合、機械類は、同様に安全状態に遷移されてもよい。故に、種々の実施形態は、機械類の周囲で動作するための人間の安全性を提供するために、作業空間を確実に監視するアプローチを提供する。
故に、一側面では、本発明は、作業セル内の産業機械類の安全動作を確実にする方法に関する。種々の実施形態では、本方法は、作業セルの近位に複数の画像センサを配置し、画像センサのうちの少なくともいくつかを用いて、作業セルの第1の複数の画像を入手するステップと、少なくとも部分的に、第1の複数の画像に基づいて、センサを相互に位置合わせし、少なくとも部分的に、位置合わせに基づいて、第1の複数の画像をセンサの共通基準フレームに変換するステップと、センサの共通基準フレームを作業セルのグローバルフレームに変換するための変換行列を決定するステップと、複数のセンサを産業機械類に位置合わせするステップと、産業機械類の動作の間に第2の複数の画像を入手するステップと、少なくとも部分的に、入手された第2の複数の画像、変換、および産業機械類へのセンサの位置合わせに基づいて、その動作の間に産業機械類を監視するステップとを含む。一実施形態では、本方法はさらに、グローバル最適化アルゴリズムを実装し、(i)複数のセンサを相互に位置合わせし、(ii)複数のセンサを産業機械類に位置合わせするステップを含む。
第1の複数の画像は、その間に十分な重複および十分な区別が存在することを検証するために、コンピュータ的に分析されてもよい。いくつかの実施形態では、産業機械類は、少なくともロボットアームを備える。本方法はさらに、ある実施形態では、作業セル内に際立った3Dシグネチャを有する少なくとも1つの実体を提供するステップを含み、第1の複数の画像は、少なくとも1つの実体の画像を備えてもよい。
種々の実施形態では、本方法はさらに、センサのそれぞれを実体に別個に位置合わせするステップと、少なくとも部分的に、実体への各センサの別個の位置合わせに基づいて、センサを相互に位置合わせするステップとを含む。ある場合には、センサのうちの少なくとも1つは、実体に可視であり、その場合では、本方法はさらに、少なくとも1つのセンサを実体に位置合わせするステップと、少なくとも部分的に、可視センサの実体への位置合わせ、センサの相互への位置合わせ、および産業機械類に対する実体の関連する姿勢に基づいて、複数のセンサを産業機械類に位置合わせするステップとを含んでもよい。加えて、本方法はさらに、実体の状態(例えば、配向、位置等)を識別するための外部入力(例えば、ユーザ入力または実体を制御するコントローラから伝送される入力)を受信するステップを含んでもよい。
本方法はさらに、作業セル内のシーンの画像を提供するステップと、シーンの画像上の離散特徴の1つ以上の対を決定するステップと、少なくとも部分的に、離散特徴の1つ以上の対に基づいて、複数のセンサを産業機械類に位置合わせするステップとを含んでもよい。種々の実施形態では、シーンの画像は、第1の複数の画像のうちの少なくとも1つ、作業セルをマッピングする3D点群データ、および/または産業機械類または作業セルのうちの少なくとも1つの2Dまたは3D CADモデルを備える。
いくつかの実施形態では、本方法はさらに、産業機械類または作業セルに対して2Dまたは3D走査を実施するステップを含み、シーンの画像は、少なくとも部分的に、2Dまたは3D走査に基づいて構築される産業機械類または作業セルのモデルを備える。ある場合には、位置合わせステップに先立って、産業機械類の複数の画像を備える、位置合わせライブラリが、確立され、各画像は、少なくとも1つの構成パラメータと関連付けられる。シーンの画像内の産業機械類の状態が、位置合わせライブラリ内の複数の画像内の産業機械類の状態に対してコンピュータ的に比較されてもよく、シーンの画像内の産業機械類の状態に最良に合致する産業機械類の状態を提供する、位置合わせライブラリ内の画像が、識別される。複数のセンサは、次いで、少なくとも部分的に、位置合わせライブラリ内の識別された画像に対応する構成パラメータに基づいて、産業機械類に位置合わせされてもよい。構成パラメータは、例えば、産業機械類へのセンサの位置合わせを微調整するための反復回数、メッシュあたりの3D点群データの数、および/または収束基準を備えてもよい。
種々の実施形態では、本方法はさらに、第1の複数の画像を分析し、センサの視野によって網羅される作業セル内の面積を決定するステップと、分析に基づいて、決定された面積、センサの視野によって網羅されない面積、最適なシーン網羅範囲を達成するためのセンサのうちの少なくとも1つに関する姿勢、または付加的センサのための設置場所のうちの少なくとも1つを識別するステップとを含む。識別された姿勢に基づいて、対応するセンサの姿勢は、調節されてもよい。
本方法はさらに、センサの視野によって網羅される面積の輪郭を描く信号または1つ以上の光ビームを作業セルの中に投影するステップを含んでもよい。代替として、または加えて、本方法は、作業セルの画像およびセンサの視野によって網羅される面積の輪郭を拡張現実または仮想現実デバイス上に投影するステップを含んでもよい。
本方法はさらに、種々の実施形態では、産業機械類への複数のセンサの位置合わせの正確度レベルを示す初期正確度メトリックを発生させるステップと、次いで、産業機械類の動作の間、位置合わせの正確度レベルを示す後続正確度メトリックが、閾値量を上回って初期正確度メトリックから逸脱するかどうかを決定し、該当する場合、産業機械類の動作を改変するステップとを含んでもよい。後者のステップは、産業機械類の動作の間に入手される第2の複数の画像を周期的に分析し、(i)正確度メトリックを再発生させ、(ii)再発生された正確度メトリックを初期正確度メトリックと比較し、それらの間の逸脱を決定し、(iii)逸脱が、閾値を超える場合、機械類の動作を改変するステップを含んでもよい。メトリックは、位置合わせ検証またはリアルタイムロボット追跡のうちの少なくとも1つを含んでもよい。
別の側面では、本発明は、作業セル内の産業機械類の安全動作を確実にするための制御システムに関する。種々の実施形態では、本システムは、作業セルの近位の複数の画像センサと、コントローラであって、画像センサのうちの少なくともいくつかを用いて、作業セルの第1の複数の画像を入手し、少なくとも部分的に、第1の複数の画像に基づいて、センサを相互に位置合わせし、少なくとも部分的に、位置合わせに基づいて、第1の複数の画像をセンサの共通基準フレームに変換し、センサの共通基準フレームを作業セルのグローバルフレームに変換するための変換行列を決定し、複数のセンサを産業機械類に位置合わせし、産業機械類の動作の間に第2の複数の画像を入手し、少なくとも部分的に、入手された第2の複数の画像、変換、および産業機械類へのセンサの位置合わせに基づいて、その動作の間に産業機械類を監視するように構成される、コントローラとを備える。一実施形態では、コントローラはさらに、グローバル最適化アルゴリズムを実装し、(i)複数のセンサを相互に位置合わせし、(ii)複数のセンサを産業機械類に位置合わせするように構成される。
コントローラはさらに、第1の複数の画像をコンピュータ的に分析し、その間に十分な重複および十分な区別が存在することを検証するように構成されてもよい。いくつかの実施形態では、産業機械類は、少なくともロボットアームを含む。加えて、制御システムはさらに、作業セル内に際立った3Dシグネチャを有する1つ以上の実体を含んでもよく、第1の複数の画像は、実体/複数の実体の画像を含む。
種々の実施形態では、コントローラはさらに、センサのそれぞれを実体に別個に位置合わせし、少なくとも部分的に、実体への各センサの別個の位置合わせに基づいて、センサを相互に位置合わせするように構成される。ある場合には、1つ以上のセンサは、実体に可視であり、その場合では、コントローラはさらに、センサを実体に位置合わせし、少なくとも部分的に、可視センサの実体への位置合わせ、センサの相互への位置合わせ、および産業機械類に対する実体の関連する姿勢に基づいて、複数のセンサを産業機械類に位置合わせするように構成されてもよい。加えて、本システムはさらに、実体を制御するための第2のコントローラと、実体の状態(例えば、配向、位置等)を識別するための外部入力(例えば、ユーザ入力または第2のコントローラから伝送される入力)を受信するための入力モジュールとを含んでもよい。
コントローラはさらに、作業セル内のシーンの画像を提供し、シーンの画像上の離散特徴の1つ以上の対を決定し、少なくとも部分的に、離散特徴の1つ以上の対に基づいて、複数のセンサを産業機械類に位置合わせするように構成されてもよい。種々の実施形態では、シーンの画像は、第1の複数の画像のうちの少なくとも1つ、作業セルをマッピングする3D点群データ、および/または産業機械類および/または作業セルの2Dまたは3D CADモデルを含む。
いくつかの実施形態では、コントローラはさらに、産業機械類または作業セルに対する2Dまたは3D走査を引き起こすように構成され、シーンの画像は、少なくとも部分的に、2Dまたは3D走査に基づいて構築される産業機械類または作業セルのモデルを含む。ある場合には、コントローラはさらに、位置合わせステップに先立って、それぞれ、1つ以上の構成パラメータと関連付けられる、産業機械類の複数の画像を含む、位置合わせライブラリを確立し、位置合わせライブラリ内の複数の画像内の産業機械類の状態に対してシーンの画像内の産業機械類の状態をコンピュータ的に比較し、シーンの画像内の産業機械類の状態に最良に合致する産業機械類の状態を提供する、位置合わせライブラリ内の複数の画像のうちの1つを識別し、少なくとも部分的に、位置合わせライブラリ内の識別された画像に対応する構成パラメータに基づいて、複数のセンサを産業機械類に位置合わせするように構成される。構成パラメータは、例えば、産業機械類へのセンサの位置合わせを微調整するための反復回数、メッシュあたりの3D点群データの数、および/または収束基準を含んでもよい。
種々の実施形態では、コントローラはさらに、第1の複数の画像を分析し、センサの視野によって網羅される作業セル内の面積を決定し、分析に基づいて、決定された面積、センサの視野によって網羅されない面積、最適なシーン網羅範囲を達成するためのセンサのうちの少なくとも1つに関する姿勢、および/または付加的センサのための設置場所を識別するように構成される。加えて、コントローラはさらに、識別された姿勢に基づいて、対応するセンサの姿勢を調節させるように構成されてもよい。
コントローラはさらに、センサの視野によって網羅される面積の輪郭を描く信号または1つ以上の光ビームを作業セルの中に投影するように構成されてもよい。代替として、または加えて、コントローラはさらに、作業セルの画像およびセンサの視野によって網羅される面積の輪郭を拡張現実または仮想現実デバイス上に投影するように構成されてもよい。
コントローラはさらに、種々の実施形態では、産業機械類への複数のセンサの位置合わせの正確度レベルを示す初期正確度メトリックを発生させ、次いで、産業機械類の動作の間、位置合わせの正確度レベルを示す後続正確度メトリックが、閾値量を上回って初期正確度メトリックから逸脱するかどうかを決定し、該当する場合、産業機械類の動作を改変するように構成される。後のステップでは、コントローラはさらに、産業機械類の動作の間に入手される第2の複数の画像を周期的に分析し、(i)正確度メトリックを再発生させ、(ii)再発生された正確度メトリックを初期正確度メトリックと比較し、それらの間の逸脱を決定し、(iii)逸脱が、閾値を超える場合、機械類の動作を改変するように構成されてもよい。メトリックは、位置合わせ検証および/またはリアルタイムロボット追跡を含んでもよい。
本明細書に使用されるように、用語「実質的に」は、±10%を意味し、いくつかの実施形態では、±5%を意味する。本明細書全体を通した「一実施例」、「ある実施例」、「一実施形態」、または「ある実施形態」の言及は、実施例に関連して説明される特定の特徴、構造、または特性が、本技術の少なくとも1つの実施例に含まれることを意味する。したがって、本明細書全体を通した種々の場所における語句「一実施例では」、「ある実施例では」、「一実施形態」、または「ある実施形態」の出現は、必ずしも、全てが同一の実施例を指すわけではない。さらに、特定の特徴、構造、ルーチン、ステップ、または特性は、本技術の1つ以上の実施例において任意の好適な様式で組み合わせられてもよい。本明細書に提供される見出しは、便宜上のためだけのものであり、請求される技術の範囲または意味を限定または解釈することを意図していない。
本明細書は、例えば、以下の項目も提供する。
(項目1)
作業セル内の産業機械類の安全動作を確実にする方法であって、
a.前記作業セルの近位に複数の画像センサを配置し、前記画像センサのうちの少なくともいくつかを用いて、前記作業セルの第1の複数の画像を入手するステップと、
b.少なくとも部分的に、前記第1の複数の画像に基づいて、前記センサを相互に位置合わせし、少なくとも部分的に、前記位置合わせに基づいて、前記第1の複数の画像を前記センサの共通基準フレームに変換するステップと、
c.前記センサの共通基準フレームを前記作業セルのグローバルフレームに変換するための変換行列を決定するステップと、
d.前記複数のセンサを前記産業機械類に位置合わせするステップと、
e.前記産業機械類の動作の間に第2の複数の画像を入手するステップと、
f.少なくとも部分的に、前記入手された第2の複数の画像、変換、および前記産業機械類への前記センサの位置合わせに基づいて、その動作の間に前記産業機械類を監視するステップと
を含む、方法。
(項目2)
前記第1の複数の画像をコンピュータ的に分析し、その間に十分な重複および十分な区別が存在することを検証するステップをさらに含む、項目1に記載の方法。
(項目3)
前記産業機械類は、少なくともロボットアームを備える、項目1に記載の方法。
(項目4)
前記作業セル内に際立った3Dシグネチャを有する少なくとも1つの実体を提供するステップをさらに含み、前記第1の複数の画像は、前記少なくとも1つの実体の画像を備える、項目1に記載の方法。
(項目5)
前記センサのそれぞれを前記実体に別個に位置合わせするステップと、
少なくとも部分的に、前記実体への各センサの別個の位置合わせに基づいて、前記センサを相互に位置合わせするステップと
をさらに含む、項目4に記載の方法。
(項目6)
前記センサのうちの少なくとも1つは、前記実体に可視であり、前記方法はさらに、
前記少なくとも1つのセンサを前記実体に位置合わせするステップと、
少なくとも部分的に、前記可視センサの前記実体への位置合わせ、前記センサの相互への位置合わせ、および前記産業機械類に対する前記実体の関連する姿勢に基づいて、前記複数のセンサを前記産業機械類に位置合わせするステップと
を含む、項目4に記載の方法。
(項目7)
前記少なくとも1つの実体の状態を識別するための外部入力を受信するステップをさらに含む、項目4に記載の方法。
(項目8)
前記外部入力は、ユーザ入力または前記少なくとも1つの実体を制御するコントローラから伝送される入力のうちの少なくとも1つを備える、項目7に記載の方法。
(項目9)
前記作業セル内のシーンの画像を提供するステップと、
前記シーンの画像上の離散特徴の1つ以上の対を決定するステップと、
少なくとも部分的に、前記離散特徴の1つ以上の対に基づいて、前記複数のセンサを前記産業機械類に位置合わせするステップと
をさらに含む、項目1に記載の方法。
(項目10)
前記シーンの画像は、前記第1の複数の画像のうちの少なくとも1つを備える、項目9に記載の方法。
(項目11)
前記シーンの画像は、前記作業セルをマッピングする3D点群データを備える、項目9に記載の方法。
(項目12)
前記シーンの画像は、前記産業機械類または前記作業セルのうちの少なくとも1つの2Dまたは3D CADモデルを備える、項目9に記載の方法。
(項目13)
前記産業機械類または前記作業セルに対して2Dまたは3D走査を実施するステップをさらに含み、前記シーンの画像は、少なくとも部分的に、前記2Dまたは3D走査に基づいて構築される前記産業機械類または前記作業セルのモデルを備える、項目9に記載の方法。
(項目14)
ステップ(d)に先立って、それぞれ、少なくとも1つの構成パラメータと関連付けられる、前記産業機械類の複数の画像を備える、位置合わせライブラリを確立するステップと、
前記位置合わせライブラリ内の前記複数の画像内の前記産業機械類の状態に対して前記シーンの画像内の前記産業機械類の状態をコンピュータ的に比較するステップと、
前記シーンの画像内の前記産業機械類の状態に最良に合致する前記産業機械類の状態を提供する、前記位置合わせライブラリ内の前記複数の画像のうちの1つを識別するステップと、
少なくとも部分的に、前記位置合わせライブラリ内の前記識別された画像に対応する前記構成パラメータに基づいて、前記複数のセンサを前記産業機械類に位置合わせするステップと
をさらに含む、項目9に記載の方法。
(項目15)
前記構成パラメータは、前記産業機械類への前記センサの位置合わせを微調整するための反復回数、メッシュあたりの3D点群データの数、または収束基準のうちの少なくとも1つを備える、項目14に記載の方法。
(項目16)
前記第1の複数の画像を分析し、前記センサの視野によって網羅される前記作業セル内の面積を決定するステップと、
前記分析に基づいて、前記決定された面積、前記センサの視野によって網羅されない面積、最適なシーン網羅範囲を達成するための前記センサのうちの少なくとも1つに関する姿勢、または付加的センサのための設置場所のうちの少なくとも1つを識別するステップと
をさらに含む、項目1に記載の方法。
(項目17)
前記識別された姿勢に基づいて、前記対応するセンサの姿勢を調節させるステップをさらに含む、項目16に記載の方法。
(項目18)
前記センサの視野によって網羅される前記面積の輪郭を描く信号または1つ以上の光ビームを前記作業セルの中に投影するステップをさらに含む、項目16に記載の方法。
(項目19)
前記作業セルの画像および前記センサの視野によって網羅される前記面積の輪郭を拡張現実または仮想現実デバイス上に投影するステップをさらに含む、項目18に記載の方法。
(項目20)
g.前記産業機械類への前記複数のセンサの位置合わせの正確度レベルを示す初期正確度メトリックを発生させるステップと、
h.ステップ(g)に続いて、前記産業機械類の動作の間、前記位置合わせの正確度レベルを示す後続正確度メトリックが、閾値量を上回って前記初期正確度メトリックから逸脱するかどうかを決定し、該当する場合、前記産業機械類の動作を改変するステップと
をさらに含む、項目1に記載の方法。
(項目21)
ステップ(h)は、前記産業機械類の動作の間に入手される前記第2の複数の画像を周期的に分析し、(i)前記正確度メトリックを再発生させ、(ii)前記再発生された正確度メトリックを前記初期正確度メトリックと比較し、それらの間の逸脱を決定し、(iii)前記逸脱が、閾値を超える場合、前記機械類の動作を改変するステップを含む、項目20に記載の方法。
(項目22)
前記メトリックは、位置合わせ検証またはリアルタイムロボット追跡のうちの少なくとも1つを含む、項目20に記載の方法。
(項目23)
グローバル最適化アルゴリズムを実装し、(i)前記複数のセンサを相互に位置合わせし、(ii)前記複数のセンサを前記産業機械類に位置合わせするステップをさらに含む、項目1に記載の方法。
(項目24)
作業セル内の産業機械類の安全動作を確実にするための制御システムであって、
前記作業セルの近位の複数の画像センサと、
コントローラであって、
前記画像センサのうちの少なくともいくつかを用いて、前記作業セルの第1の複数の画像を入手することと、
少なくとも部分的に、前記第1の複数の画像に基づいて、前記センサを相互に位置合わせし、少なくとも部分的に、前記位置合わせに基づいて、前記第1の複数の画像を前記センサの共通基準フレームに変換することと、
前記センサの共通基準フレームを前記作業セルのグローバルフレームに変換するための変換行列を決定することと、
前記複数のセンサを前記産業機械類に位置合わせすることと、
前記産業機械類の動作の間に第2の複数の画像を入手することと、
少なくとも部分的に、前記入手された第2の複数の画像、変換、および前記産業機械類への前記センサの位置合わせに基づいて、その動作の間に前記産業機械類を監視することと
を行うように構成される、コントローラと
を備える、システム。
(項目25)
前記コントローラはさらに、前記第1の複数の画像をコンピュータ的に分析し、その間に十分な重複および十分な区別が存在することを検証するように構成される、項目24に記載の制御システム。
(項目26)
前記産業機械類は、少なくともロボットアームを備える、項目24に記載の制御システム。
(項目27)
前記作業セル内に際立った3Dシグネチャを有する少なくとも1つの実体をさらに備え、前記第1の複数の画像は、前記少なくとも1つの実体の画像を備える、項目24に記載の制御システム。
(項目28)
前記コントローラはさらに、
前記センサのそれぞれを前記実体に別個に位置合わせすることと、
少なくとも部分的に、前記実体への各センサの別個の位置合わせに基づいて、前記センサを相互に位置合わせすることと
を行うように構成される、項目27に記載の制御システム。
(項目29)
前記センサのうちの少なくとも1つは、前記実体に可視であり、前記コントローラはさらに、
前記少なくとも1つのセンサを前記実体に位置合わせすることと、
少なくとも部分的に、前記可視センサの前記実体への位置合わせ、前記センサの相互への位置合わせ、および前記産業機械類に対する前記実体の関連する姿勢に基づいて、前記複数のセンサを前記産業機械類に位置合わせすることと
を行うように構成される、項目27に記載の制御システム。
(項目30)
前記少なくとも1つの実体の状態を識別するための外部入力を受信するための入力モジュールをさらに備える、項目27に記載の制御システム。
(項目31)
前記少なくとも1つの実体を制御する第2のコントローラをさらに備え、前記外部入力は、ユーザ入力または前記第2のコントローラから伝送される入力のうちの少なくとも1つを備える、項目28に記載の制御システム。
(項目32)
コントローラはさらに、
前記作業セル内のシーンの画像を提供することと、
前記シーンの画像上の離散特徴の1つ以上の対を決定することと、
少なくとも部分的に、前記離散特徴の1つ以上の対に基づいて、前記複数のセンサを前記産業機械類に位置合わせすることと
を行うように構成される、項目24に記載の制御システム。
(項目33)
前記シーンの画像は、前記第1の複数の画像のうちの少なくとも1つを備える、項目32に記載の制御システム。
(項目34)
前記シーンの画像は、前記作業セルをマッピングする3D点群データを備える、項目32に記載の制御システム。
(項目35)
前記シーンの画像は、前記産業機械類または前記作業セルのうちの少なくとも1つの2Dまたは3D CADモデルを備える、項目32に記載の制御システム。
(項目36)
前記コントローラはさらに、前記産業機械類または前記作業セルに対する2Dまたは3D走査を引き起こすように構成され、前記シーンの画像は、少なくとも部分的に、前記2Dまたは3D走査に基づいて構築される前記産業機械類または前記作業セルのモデルを備える、項目32に記載の制御システム。
(項目37)
前記コントローラはさらに、
ステップ(d)に先立って、それぞれ、少なくとも1つの構成パラメータと関連付けられる、前記産業機械類の複数の画像を備える、位置合わせライブラリを確立することと、
前記位置合わせライブラリ内の前記複数の画像内の前記産業機械類の状態に対して前記シーンの画像内の前記産業機械類の状態をコンピュータ的に比較することと、
前記シーンの画像内の前記産業機械類の状態に最良に合致する前記産業機械類の状態を提供する前記位置合わせライブラリ内の前記複数の画像のうちの1つを識別することと、
少なくとも部分的に、前記位置合わせライブラリ内の前記識別された画像に対応する前記構成パラメータに基づいて、前記複数のセンサを前記産業機械類に位置合わせすることと
を行うように構成される、項目32に記載の制御システム。
(項目38)
前記構成パラメータは、前記産業機械類への前記センサの位置合わせを微調整するための反復回数、メッシュあたりの3D点群データの数、または収束基準のうちの少なくとも1つを備える、項目37に記載の制御システム。
(項目39)
前記コントローラはさらに、
前記第1の複数の画像を分析し、前記センサの視野によって網羅される前記作業セル内の面積を決定することと、
前記分析に基づいて、前記決定された面積、前記センサの視野によって網羅されない面積、最適なシーン網羅範囲を達成するための前記センサのうちの少なくとも1つに関する姿勢、または付加的センサのための設置場所のうちの少なくとも1つを識別することと
を行うように構成される、項目24に記載の制御システム。
(項目40)
前記コントローラはさらに、前記識別された姿勢に基づいて、前記対応するセンサの姿勢を調節させるように構成される、項目39に記載の制御システム。
(項目41)
前記コントローラはさらに、前記センサの視野によって網羅される前記面積の輪郭を描く信号または1つ以上の光ビームを前記作業セルの中に投影するように構成される、項目39に記載の制御システム。
(項目42)
前記コントローラはさらに、前記作業セルの画像および前記センサの視野によって網羅される前記面積の輪郭を拡張現実または仮想現実デバイス上に投影するように構成される、項目41に記載の制御システム。
(項目43)
前記コントローラはさらに、
g.前記産業機械類への前記複数のセンサの位置合わせの正確度レベルを示す初期正確度メトリックを発生させることと、
h.ステップ(g)に続いて、前記産業機械類の動作の間、前記位置合わせの正確度レベルを示す後続正確度メトリックが、閾値量を上回って前記初期正確度メトリックから逸脱するかどうかを決定し、該当する場合、前記産業機械類の動作を改変することと
を行うように構成される、項目24に記載の制御システム。
(項目44)
前記コントローラはさらに、前記産業機械類の動作の間に入手される前記第2の複数の画像を周期的に分析し、(i)前記正確度メトリックを再発生させ、(ii)前記再発生された正確度メトリックを前記初期正確度メトリックと比較し、それらの間の逸脱を決定し、(iii)前記逸脱が、閾値を超える場合、前記機械類の動作を改変するように構成される、項目43に記載の制御システム。
(項目45)
前記メトリックは、位置合わせ検証またはリアルタイムロボット追跡のうちの少なくとも1つを含む、項目43に記載の制御システム。
(項目46)
前記コントローラはさらに、グローバル最適化アルゴリズムを実装し、(i)前記複数のセンサを相互に位置合わせし、(ii)前記複数のセンサを前記産業機械類に位置合わせするように構成される、項目24に記載の制御システム。
図面では、同様の参照文字は、概して、異なる図全体を通して同一の部分を指す。また、図面は、必ずしも縮尺通りではなく、代わりに、概して、本発明の原理を図示することに重点が置かれている。以下の説明では、本発明の種々の実施形態が、以下の図面を参照して説明される。
図1は、本発明の種々の実施形態による、監視される作業空間の斜視図である。
図2は、本発明の種々の実施形態による、制御システムを図式的に図示する。
図3は、本発明の種々の実施形態による、それら自体の間でセンサを位置合わせするためのアプローチを図示する、フローチャートである。
図4A-4Cは、本発明の種々の実施形態による、1つ以上のセンサを作業空間内の機械類に位置合わせするための例示的アプローチを図示する、フローチャートである。 図4A-4Cは、本発明の種々の実施形態による、1つ以上のセンサを作業空間内の機械類に位置合わせするための例示的アプローチを図示する、フローチャートである。 図4A-4Cは、本発明の種々の実施形態による、1つ以上のセンサを作業空間内の機械類に位置合わせするための例示的アプローチを図示する、フローチャートである。
図5Aおよび5Bは、本発明の種々の実施形態による、作業空間内のシーンを適切に網羅するようにセンサを構成するための例示的アプローチを図示する、フローチャートである。 図5Aおよび5Bは、本発明の種々の実施形態による、作業空間内のシーンを適切に網羅するようにセンサを構成するための例示的アプローチを図示する、フローチャートである。
図6は、本発明の種々の実施形態による、機械類の動作の間にセンサ間およびセンサと機械類との間の位置合わせを検証するためのアプローチを図示する、フローチャートである。
A. 作業空間
最初に、102、102、102において代表的に示される1つ以上のセンサを含むセンサシステム101によって監視される、代表的3D作業空間100を図示する、図1を参照する。センサ1021-3は、カメラ、例えば、理想的には、高フレームレート(例えば、30Hz~100Hz)を伴う、3D飛行時間カメラ、ステレオビジョンカメラ、または3D LIDARセンサまたはレーダベースのセンサ等の従来の光学センサであってもよい。センサ1021-3の動作モードは、作業空間100の3D表現が、センサ1021-3によって取得される画像または他のデータから取得可能である限り、重要ではない。図に示されるように、センサ1021-3は、集合的に網羅してもよく、従来のロボットコントローラ108によって制御されるロボット106を含む、作業空間100を監視することができる。ロボット106は、種々のワークピースWと相互作用し、作業空間100内の人間オペレータHが、タスクを実施するためにワークピースWおよびロボット106と相互作用し得る。作業空間100はまた、補助機器110の種々のアイテムを含有してもよい。本明細書に使用されるように、ロボット106および補助機器110は、作業空間100内の機械類として表される。
種々の実施形態では、センサ1021-3のそれぞれによって取得されたデータは、制御システム112に伝送される。加えて、センサ1021-3は、センサ1021-3の構成(例えば、配向および/または位置)を変更するために種々のソフトウェアおよび/またはハードウェアコンポーネント1141-3によってサポートされてもよく、下記にさらに説明されるように、制御システム112は、作業空間100内の監視される面積の最適な網羅範囲を提供するように、センサを調節するように構成されてもよい。典型的には、立体角錐台または立体円錐台である、各センサによって網羅される空間の体積は、任意の好適な方式で表されてもよく、例えば、空間は、小さい(例えば、5cm)立方体または「ボクセル」の3Dグリッドまたは他の好適な形態の体積表現に分割されてもよい。例えば、作業空間100の3D表現は、2Dまたは3D光線追跡を使用して発生されてもよく、センサ1021-3から発する2Dまたは3D光線の交点が、作業空間100の体積座標として使用される。本光線追跡は、動的に、または作業空間100内の物体が、制御システム112によって以前に識別および捕捉される、事前算出された体積の使用を介して実施されることができる。便宜的な提示のために、続く議論は、ボクセル表現を仮定し、制御システム112は、ボクセルレベルにおいて作業空間100の内部表現を維持する。
図2は、汎用コンピュータ上で実装され得る、制御システム112の代表的実施形態をより詳細に図示する。制御システム112は、中央処理ユニット(CPU)205と、システムメモリ210と、1つ以上の不揮発性大容量記憶デバイス(1つ以上のハードディスクおよび/または光学記憶ユニット等)212とを含む。制御システム112はさらに、それを経由してCPU205、メモリ210内の機能モジュール、および記憶デバイス212が、相互に通信し、および、ディスプレイ220および周辺機器222(キーボードまたはマウス等の従来的入力デバイスを含み得る)等の内部または外部入力/出力(I/O)デバイスと通信する、双方向システムバス215を含む。制御システム112はまた、無線送受信機225と、1つ以上のI/Oポート227とを含む。送受信機225およびI/Oポート227は、ネットワークインターフェースを提供してもよい。用語「ネットワーク」は、コンピュータまたは電気通信デバイス(有線または無線電話、タブレット等)の有線または無線ネットワークを含意するように本明細書で広く使用される。例えば、コンピュータネットワークは、ローカルエリアネットワーク(LAN)または広域ネットワーク(WAN)であってもよい。LANネットワーキング環境内で使用されるとき、コンピュータは、ネットワークインターフェースまたはアダプタを通してLANに接続されてもよく、例えば、管理者が、無線でネットワークに参加するタブレットを使用して、制御システム112との通信を確立してもよい。WANネットワーキング環境内で使用されるとき、コンピュータは、典型的には、モデムまたは他の通信機構を含む。モデムは、内部または外部にあってもよく、ユーザ入力インターフェースまたは他の適切な機構を介してシステムバスに接続されてもよい。ネットワーク化されたコンピュータは、インターネット、イントラネット、エクストラネット、イーサネット(登録商標)、または通信を提供する任意の他のシステムを経由して接続されてもよい。いくつかの好適な通信プロトコルは、例えば、TCP/IP、UDP、またはOSIを含む。無線通信に関して、通信プロトコルは、IEEE 802.11x (「Wi-Fi」)、Bluetooth(登録商標)、ZigBee、IrDa、近距離無線通信(NFC)、または他の好適なプロトコルを含んでもよい。さらに、本システムのコンポーネントは、有線または無線経路の組み合わせを通して通信してもよく、通信は、コンピュータおよび電気通信ネットワークの両方を伴ってもよい。
CPU205は、典型的には、マイクロプロセッサであるが、種々の実施形態では、マイクロコントローラ、周辺集積回路要素、CSIC(特定顧客向け集積回路)、ASIC(特定用途向け集積回路)、論理回路、デジタル信号プロセッサ、FPGA(フィールドプログラマブルゲートアレイ)、PLD(プログラマブル論理デバイス)、PLA(プログラマブル論理アレイ)等のプログラマブル論理デバイス、RFIDプロセッサ、グラフィックス処理ユニット(GPU)、スマートチップ、または本発明のプロセスのステップを実装することが可能である任意の他のデバイスまたはデバイスの配列であってもよい。
システムメモリ210は、一連のフレームバッファ235、すなわち、デジタル形態において(例えば、ピクセルまたはボクセルとして、または深度マップとして)センサ1021-3によって取得された画像を記憶するパーティションを含有してもよく、データは、実際には、上記に議論されるようなI/Oポート227および/または送受信機225を介して到着してもよい。システムメモリ210は、CPU205の動作および他のハードウェアコンポーネントとのその相互作用を制御する、モジュールの群として概念的に図示される命令を含有する。オペレーティングシステム240(例えば、Windows(登録商標)またはLinux(登録商標))は、メモリ割当、ファイル管理、および大容量記憶デバイス212の動作等の低レベル基本システム機能の実行を指図する。より高いレベルにおいて、下記により詳細に説明されるように、撮像モジュール242は、フレームバッファ235内にセンサによって入手された画像を登録してもよく、分析モジュール237は、センサ1021-3によって入手された画像を分析し、例えば、入手された画像および/またはセンサ1021-3によって監視される網羅面積の間に十分な重複および/または区別が、存在するかどうかを決定してもよく、位置合わせモジュール239は、下記にさらに説明されるように、フレームバッファ235内に登録された画像に基づいて、それら自体の間でセンサを位置合わせする、および/またはセンサ1021-3を作業空間内の機械類に位置合わせしてもよく、入力モジュール241は、下記にさらに説明されるように、ロボット106および/または1つ以上の位置合わせ物体の状態(例えば、配向、位置等)を識別するために、例えば、ディスプレイ220、周辺機器222、ロボットコントローラ108、および/または付加的センサ(例えば、センサ1021-3以外)から1つ以上の外部入力データを受信する。決定された網羅面積は、空間マップ245内に記憶されてもよく、これは、本明細書に説明されるように、空間マップ内に、各ボクセル(または他の表現単位)が標識化される、作業空間100の体積表現を含有する。代替として、空間マップ245は、単純に、ボクセルの3Dアレイであり、ボクセル標識が、別個のデータベース内(メモリ210内または大容量記憶装置212内)に記憶されてもよい。
加えて、制御システム112は、250において集合的に示される従来の制御ルーチンを使用して、作業空間100内の動作または機械類を制御するために、ロボットコントローラ108と通信してもよい。下記に解説されるように、作業空間の構成は、人物および/または機械が動き回るにつれて、経時的に明確に変化し得、制御ルーチン250は、高レベルの安全性を達成するために、機械類を動作させる際のこれらの変化に応答してもよい。システムメモリ210内のモジュールは全て、限定ではないが、TensorFlow、Keras、PyTorch、またはTheano等の任意の好適なフレームワークおよびライブラリを利用して、限定ではないが、C、C++、C#、Java(登録商標)、Python、Ruby、Scala、およびLua等の高レベル言語を含む、任意の好適なプログラミング言語でコーディングされてもよい。加えて、ソフトウェアは、標的デバイス上に常駐するマイクロプロセッサを対象とするアセンブリ言語および/または機械言語で実装されることができる。
B. センサ位置合わせおよび監視
センサシステム101は、作業空間100を監視するために実装され、防護対策機構は、概して、センサ1021-3と対照的に、危険な機械類(例えば、ロボット106)に対して構成される。マルチセンサシステムでは、各センサ102の精密な場所を全ての他のセンサに対して相関させる、センサ1021-3間の位置合わせは、典型的には、設定の間および/または機械類の動作の間に確立される。一実施形態では、センサ位置合わせは、手動で実施される。例えば、人間オペレータHは、センサの焦点と3次元内で制御されている機械類との間の距離を測定し、作業空間100内に最適な網羅面積を提供するように、それに基づいて、センサ1021-3の姿勢(例えば、位置および/または配向)を手動で操作してもよい。加えて、または代替として、ディスプレイ220に示されるユーザインターフェースが、例えば、センサ1021-3の整合点および信号品質および信頼性を最大限にするために最適なセンサ位置付けを示すための信号を提供し、位置合わせ信頼性および安全信号に関するメトリックを決定および表示し、ユーザフィードバックを提供してもよい。オペレータHは、次いで、ユーザフィードバックに基づいて、センサ1021-3の姿勢を調節してもよい。センサ位置合わせは、手動で達成されることが可能であるが、これは、単一のセンサに関してでさえ負担となり、複数のセンサからの情報を組み合わせるために十分に正確な測定値を提供するために非現実的であり得る。したがって、種々の実施形態では、センサ位置合わせは、好適なコンピュータビジョン技法を使用して自動的に実施される。下記にさらに説明されるように、作業空間100内の複数のセンサ1021-3を位置合わせするためのアプローチは、容易な設定および再構成を可能にするように、十分に単純である。
1) センサ間の位置合わせ
単純にするために、各フレームバッファ235が、特定のセンサ102から(周期的にリフレッシュされ得る)画像を記憶すると仮定して、位置合わせモジュール239は、各センサからの画像の全てまたは一部をフレームバッファ235内の他のセンサからの画像と比較し、それらの画像における対応を識別するために従来のコンピュータビジョン技法(例えば、グローバル位置合わせアルゴリズム)を使用することによって、センサ1021-3間の位置合わせを実施してもよい。初期位置合わせ近似を要求しない、好適なグローバル位置合わせアルゴリズムは、概して、2つのカテゴリ、すなわち、特徴ベースの方法および強度ベースの方法に分類される。ランダムサンプルコンセンサス(RANSAC)等の特徴ベースの方法は、画像内の特徴(例えば、エッジ)を抽出し、次いで、抽出された画像特徴に基づいて、対応を識別し得、強度ベースの方法は、画像内の画像強度を決定し、次いで、強度パターンを比較するために相関メトリックを使用し得る。いったん近似または大まかな位置合わせが、実施されると、微細位置合わせアプローチ(例えば、反復最近接点(ICP)アルゴリズムまたはその好適な変形)が、位置合わせを微調整し、それら自体の間のセンサ位置合わせを完了するために実施されてもよい。その後、センサ1021-3によって入手されたデータは、位置合わせに基づいて、共通基準フレーム内(例えば、同一の座標系内)で処理されることができる。
種々の実施形態では、センサ1021-3の共通基準フレームは、作業空間100の「グローバル」フレーム(例えば、座標系)に変換される。例えば、共通2Dフレーム内のセンサ1021-3によって入手された画像を作業空間100のグローバルフレーム内の3Dデータに変換するために、フレームバッファ235内の2D範囲画像が、各範囲ピクセルの画像座標を歪み補正し、逆射影変換を歪み補正された画像座標および範囲測定値に適用することによって、センサローカル3D座標系に変換されてもよい。これは、センサローカル座標系内に構造化された点群を発生させ、これは、好適な剛体変換を使用して変換されてもよい。再び図1を参照すると、一実施形態では、変換は、3D内の際立った視覚的シグネチャを有する1つ以上の「位置合わせ物体」120を使用して決定される。例えば、位置合わせ物体は、これが、全てのセンサまたはその他に対して位置合わせされる少なくとも1つのセンサによって見られ得る作業空間内の場所に設置されてもよい。位置合わせされたセンサ1021-3を使用して、位置合わせ物体の既知のシグネチャおよび/または幾何学形状に基づいて、位置合わせ物体の画像を入手することによって、センサ1021-3の共通フレーム内のデータを作業空間100のグローバルフレーム内のデータに変換する変換が、算出されてもよい。その後、センサ1021-3によって入手されたデータは、作業空間100のグローバルフレーム内で処理されることができる。
センサ位置合わせのための上記に説明されるアプローチは、明確に異なるセンサ画像を提供するためのセンサ1021-3の視野の間の十分な重複および作業空間100内の十分な視覚的詳細が、存在するとき、好適である。しかしながら、センサ1021-3の視野の間の不十分な重複および/または作業空間100内の不十分な詳細が、存在する場合、3D内の際立ったシグネチャを有する1つ以上の位置合わせ物体120の使用が、センサ位置合わせを促進するために必要であり得る。例えば、各センサ102は、最初に、位置合わせ物体に別個に位置合わせされてもよく、センサ1021-3間の位置合わせが、次いで、各センサ102と位置合わせ物体120との間の位置合わせに基づいて確立されてもよい。本明細書に使用されるように、用語「際立った3Dシグネチャ」は、例えば、異なる角度から視認されるときに検出可能に異なる外形を提示する、一意に識別可能な位置および姿勢(したがって、回転または平行移動対称性がない)を指す。例えば、単一の立方体が、6つの潜在的配向を有するが、相互に対して既知の距離および非共線配向における2つの立方体は、際立った3Dシグネチャに関して十分な情報を提供し得る。より一般的に、位置合わせ物体は、例えば、基準または他の2Dまたは3D物体を含んでもよく、定常である、または防護された作業空間100内で人間オペレータHおよび/または機械類(例えば、ロボット上)によって携行されてもよい。
代替として、センサ1021-3間の位置合わせは、センサ1021-3のそれぞれに、作業空間内で立っている、またはある時間周期にわたって作業空間を通過する1人以上の人物、移動する機器(自動化誘導車両等)、または他の位置合わせ物体120の画像を記録させることによって達成されてもよく、十分な数の少なくとも部分的に合致する画像が、入手され、画像は、上記に説明されるアプローチを使用して正確なセンサ位置合わせを確立するために、組み合わせられ、処理されてもよい。
時折、センサ1021-3から収集されるデータは、雑音がある、または光学的に歪曲され得、したがって、いくつかの実施形態では、サブフレーム組み合わせ、雑音低減、メッシングおよび再サンプリング等の好適な技法が、センサ信号に内在する雑音を最小限にし(または少なくとも低減させる)、それによって、センサ位置合わせの正確度を改良するために実装されてもよい。加えて、検出されたセンサ信号は、センサ整合を維持するように、平均または分布推定に基づく従来のアプローチを使用して補正されてもよい。一実施形態では、雑音および歪み補正プロセスは、検出された信号および位置合わせプロセスに内在する誤差を境界する。誤差境界は、人間の安全性を確実にするために、ロボット106の動作の間に制御システム112への入力として使用されることができる。例えば、ロボット106の動作の間にセンサ1021-3によって検出された信号の雑音または歪みが、誤差境界を超える、および/またはロボットシステムが、動作の間に誤差境界外にドリフトする場合、制御システム112は、作業空間100内の機械類を安全状態(例えば、低減された速度を有する、または非アクティブ化される)に切り替えるように、ロボットコントローラ108と自動的に通信してもよい。
種々の実施形態では、グローバル最適化アルゴリズムが、グローバル誤差メトリックを最小限にすることによって、作業空間100の座標系における各センサの最適な構成または姿勢を推定するために実装される。グローバル最適化アルゴリズムの使用は、初期構成またはその推定値にかかわらず、最良のセンサ構成推定値を確実にする。例えば、対応のセットを前提として、1つの一般的なアプローチは、対毎の(典型的には、ユークリッド)距離の合計を最小限にすることである。そのような場合では、最適化目的のためのコストは、距離としてとられる。「ハウスドルフ」距離等の他の距離ベースのコストが、整合タスクに関して一般的である。いかなる対応も、識別されることができない場合、これらは、最近傍または深度画像への投影を使用して、良好な推測の精緻化を通して推定されてもよい。対応を伴わないグローバル姿勢推定は、より困難であり、費用関数は、より抽象的になり、例えば、RANSACアルゴリズムまたは類似するアプローチを使用して、例えば、最小の機能する対応セットを見出すための分枝限定アルゴリズムまたは点セットのサンプリングを介した実行可能な姿勢の検索である。
図3は、それら自体の間でセンサを位置合わせするための例示的アプローチ300を図示する、フローチャートである。第1のステップ302において、センサ1021-3はそれぞれ、作業空間の1つ以上の画像を入手してもよく、画像は、メモリ210内のフレームバッファ235内に記憶されてもよい。第2のステップ304において、好適な技法が、随意に、検出されるセンサ信号内の雑音を最小限にする(または少なくとも低減させる)、および/または歪みを補正するために実装されてもよい。第3のステップ306において、分析モジュール237は、入手された画像の間に十分な重複および/または区別が、存在するかどうかを決定するために、画像を分析してもよい。該当する場合、位置合わせモジュール239は、センサ1021-3間の位置合わせを確立するために、従来のコンピュータビジョン技法(例えば、グローバル位置合わせアルゴリズム)および微細位置合わせアプローチ(例えば、ICPアルゴリズム)を実装してもよい(ステップ308)。センサ1021-3の視野の間の不十分な重複および/または作業空間100内の不十分な詳細が、存在する場合、3D内の際立ったシグネチャを有する1つ以上の位置合わせ物体120が、識別されてもよい(ステップ310)。各センサ102は、最初に、位置合わせ物体に別個に位置合わせされてもよい(ステップ312)。続けて、センサ1021-3間の位置合わせが、次いで、各センサ102と位置合わせ物体120との間の位置合わせに基づいて確立されてもよい(ステップ310)。代替として、各センサは、作業空間内に立っている、またはある時間周期にわたって作業空間全体を通して通過する1人以上の人物、移動する機器、または他の位置合わせ物体120の画像を記録してもよい(ステップ314)。十分な数の少なくとも部分的に合致する画像が、入手されるとき、画像は、正確なセンサ位置合わせを確立するために、組み合わせられ、処理されてもよい(ステップ316)。随意に、位置合わせ後、センサ1021-3の共通基準フレームが、作業空間100のグローバルフレームに変換されてもよい(ステップ318)。
2) 機械類へのセンサの位置合わせ
作業空間100内の制御下の機械類へのセンサ1021-3の位置合わせは、ある場合には、特に、機械類が、際立った3Dシグネチャ(例えば、ロボットアーム)を有するとき、および/または機械類が、上記に説明されるように他のセンサに対して位置合わせされる少なくとも1つのセンサ102に可視であるとき、いかなる付加的器具類も伴わずに達成されることができる。それに機械類が可視であるセンサ102は、最初に、機械類に位置合わせしてもよく、本位置合わせおよびセンサ1021-3間の位置合わせに基づいて、それに機械類が不可視である他のセンサが、次いで、機械類に位置合わせしてもよい。代替として、作業空間100内の位置合わせ標的(例えば、際立った3Dシグネチャを有する位置合わせ物体120)が、センサ1021-3を機械類に位置合わせするために利用されてもよい。概して、位置合わせ標的は、これが、人間オペレータHが機械類に対する位置合わせ標的の姿勢を決定するために簡単であるように、特別に設計される。再び、センサ1021-3は、次いで、位置合わせ標的へのセンサ1021-3の位置合わせおよび機械類に対する位置合わせ標的の姿勢を介して、機械類に位置合わせされてもよい。
種々の実施形態では、ディスプレイ220上に示されるユーザインターフェースは、人間オペレータHが、制御下の機械類の重要な要素として画像のある部分を手動で指定することを可能にするために、作業空間100内のシーンの画像を提供してもよい。機械類へのセンサ1021-3の位置合わせは、次いで、ユーザ指定された重要要素を使用して実施されてもよい。シーンの画像は、センサ1021-3または作業空間100内に採用される1つ以上の付加的センサ(例えば、RGBカメラ)によって視認される実際のシーンを含んでもよい。加えて、シーンの画像は、作業空間100をマッピングする可視3D点群データを含んでもよい。一実施形態では、シーンの画像は、位置合わせ標的の少なくとも一部の幾何学形状を含む。例えば、幾何学形状は、機械類(例えば、ロボット)および/または作業空間100の2Dまたは3D CADモデルを含んでもよい。加えて、または代替として、幾何学形状は、作業空間100内のセンサ1021-3(および/または他の類似するセンサ)、機械類、または他の機器によって捕捉される2Dおよび/または3D走査に基づいて構築される、実際の機械類および/または作業空間のモデルを含んでもよい。ロボットコントローラ108によって制御されるロボット106および/または他の機械類が、位置合わせ標的として使用される場合では、ロボットコントローラ108によって受信および決定される作業空間100内のロボットおよび/または他の機械類の位置は、作業空間100の状態に対応する完全に姿勢をとった幾何学形状を取得するために、そのCADモデルと組み合わせられてもよい。加えて、ロボットコントローラ108および/または制御システム112は、走査データが、入手および蓄積される間、いかなる望ましくない移動も、起こらないことを確実にするために、ロボットおよび/または他の機械類の位置を連続的に監視してもよい。
CADモデルは、非精密であり得、したがって、いくつかの実施形態では、種々の好適な技法が、CADモデルの適合および品質を改良するために実装されることができる。例えば、作業空間100内の(例えば、制御下の機械類および人間オペレータHを封入する)作業セルの外側の床および壁は、位置合わせ正確度を改良するために、シーンの画像および/またはCADモデルから除外されてもよい。一実施形態では、CADモデルは、位置合わせに寄与しない無関係なモデルコンポーネントを取り除く、または削除することによって簡略化され、代替として、CADモデルは、棒人間等のその最小のコンポーネントに簡略化されてもよい。いくつかの実施形態では、センサ1021-3によって入手されたデータは、例えば、モデルの一部としてロボットドレスパッケージおよび/またはエンドエフェクタを組み込むことによって、2Dまたは3D CADモデルの正確度を改良するために使用されることができる。一実施形態では、2Dまたは3D CADモデルはまた、整合支援としてディスプレイ220上に示されるユーザインターフェース上で、センサ1021-3によって入手された点群データまたは視覚画像の上にオーバーレイされることができる。
位置合わせのために使用される機械類の幾何学形状は、必ずしも、衝突回避のために使用されるものと同一ではないことに留意されたい。典型的には、衝突幾何学形状は、機械類と関連付けられる配線およびドレスパッケージを含み、安全性のために包含に対して偏っている。一方、位置合わせ幾何学形状は、不偏であり、異なる分解能および精度要件を伴い、非剛性領域を除外し、信頼性のない測定を提供する領域(例えば、暗いまたは過度に反射性の表面または薄く、測定が困難であるコンポーネント)を除外する必要性があり得る。上記に説明されるように、いくつかの実施形態では、位置合わせ標的および/または作業セルの位置合わせ幾何学形状は、(CADモデルと対照的に)位置合わせを実施するために使用されるものと同一または類似するセンサを使用して、実際の位置合わせ標的および/または作業セルを走査することによって構築される。これは、意図的か偶発的かを問わず、CADモデルとロボットの実際の製造部品との間の逸脱を受けない、より信頼性のある基準幾何学形状につながり得る。
機械類へのセンサシステム101の整合/位置合わせは、ユーザインターフェースを通して手動で実施されることができる。例えば、ユーザは、キーボード入力、マウス、ジョイスティック、または他の好適なツールを使用し、相互に対する、および/またはディスプレイ220上に示される機械類に対する既知の姿勢を伴う各センサ、センサの群の姿勢を規定してもよい。本プロセスは、自動化または半自動化されることができる。整合/位置合わせを実施するためのまた別の選択肢は、深度画像内およびディスプレイ220上のユーザインターフェース上に示されるロボット106上の離散特徴の対を選択することであり、自動化または半自動化精緻化ステップが続く。例えば、人間オペレータHまたは位置合わせモジュール239は、特徴の単一の対を選ぶことによって制約を導入し、次いで、制約の存在下で機械類へのセンサシステム101の自動的位置合わせをトリガしてもよく(すなわち、制約が満たされることを確実にする)、制約は、位置合わせの信頼性を改良し得る。いくつかの実施形態では、2つの制約が、オペレータHによって手動で、または位置合わせモジュール239によって自動的に追加され、これはさらに、検索空間を制限し、自動的位置合わせをさらによりロバストにし得る。特徴の3つの対を選択することは、大まかな特徴対応の検索を省略し、代わりに、(上記に議論されるICPアルゴリズムを使用する等)精緻化ステップに直接進み、それによって、信頼性のある正確な位置合わせを提供することを可能にし得る。
再び図2を参照すると、種々の実施形態では、機械類へのセンサ1021-3の自動化位置合わせは、位置合わせライブラリ255の使用を伴い、位置合わせライブラリ255は、作業空間100内のセンサシステム101および機械類の以前の設定において確立される1つ以上の構成パラメータ(位置合わせを微調整するための反復回数、メッシュあたりの3D点群データの数、1つ以上の収束基準等)を含む。典型的には、位置合わせライブラリ255内の各構成パラメータは、作業空間100内の1つ以上の具体的ロボット106、機械類、ハードウェア構成、および/またはセンサ1021-3の特定の空間配列のために構成され、メモリ210内にシーンの個別の画像とともに、それと関連付けて記憶される。一実施形態では、制御システム112(例えば、位置合わせモジュール239)は、位置合わせライブラリ255内のシーンの記憶された画像内のロボットおよび/または機械類のものに対してシーンの画像内のロボットおよび/または機械類の状態(例えば、配向、位置等)を自動的に比較し、次いで、最良に合致する状態を提供する記憶された画像を識別する。制御システム112(例えば、位置合わせモジュール239)は、次いで、シーンの画像内の最良に合致される状態と関連付けられる構成パラメータを読み出し、それに基づいて、機械類へのセンサ1021-3の自動化位置合わせを実施してもよい。
時折、作業空間100内のロボットまたは他の機械類の単一の状態は、全ての自由度を適正に制約する位置合わせ標的を提供しない場合があり(例えば、全てのセンサ1021-3が、その現在の構成におけるロボット106を観察することができるわけではない、および/またはセンサ1021-3によって観察されるロボット特徴が、上記に説明されるように十分に際立っていないため)、種々の実施形態では、ロボット106および/または他の機械類は、手動でか、または所定のプログラムを実行するロボットコントローラ108および制御システム112によって自動的にかのいずれかで、1つ以上の付加的な既知の状態(例えば、位置合わせのために以前に正常に設定された状態)に再び姿勢をとることができる。ロボット106および/または他の機械類の状態に関連するデータおよび本手順の間にセンサ1021-3によって入手されたデータは、より信頼性のある精密な位置合わせを提供するより大きい位置合わせデータセットを提供するために組み合わせられることができる。一実施形態では、組み合わせられたデータは、上記に説明されるような機械類へのセンサ1021-3の自動化位置合わせを可能にするように、位置合わせライブラリ255内に記憶されたデータに対して比較されてもよい。加えて、ロボット106および/または他の機械類の付加的な既知の状態への再姿勢の間に入手されたデータは、さらなる比較のために位置合わせライブラリ255内に記憶されてもよい。
図4A-4Cは、1つ以上のセンサを作業空間内の機械類に位置合わせするための例示的アプローチを図示する、フローチャートである。最初に図4Aを参照すると、第1のステップ402において、作業空間内の制御下の機械類は、例えば、これが、際立った3Dシグネチャを有する、および/または他のセンサに対して位置合わせされる少なくとも1つのセンサに可視であるかどうかを決定するために、制御システム112によって分析される。例えば、センサ1021-3によって入手された画像が、機械類が、少なくとも1つの次元において回転または平行移動対称性を有していない(例えば、機械類の異なる外形が、異なる角度から視認されているときに提示される)ことを示す場合、機械類は、際立った3Dシグネチャを有していると決定される。該当する場合、位置合わせモジュール239は、最初に、それに機械類が可視であるセンサ102を機械類に位置合わせしてもよい(ステップ404)。ステップ404において実施された位置合わせおよびセンサ1021-3間の位置合わせに基づいて、位置合わせモジュール239は、次いで、それに機械類が不可視である他のセンサを機械類に位置合わせしてもよい(ステップ406)。機械類が、際立った3Dシグネチャを有していない、および/または他のセンサに対して位置合わせされる任意のセンサに不可視である場合、位置合わせモジュール239は、(例えば、センサによって入手された画像に基づいて)作業空間内の3D内の際立った3Dシグネチャを有する位置合わせ標的を識別し、機械類に対する位置合わせ標的の姿勢を決定してもよい(ステップ408)。続けて、位置合わせモジュール239は、センサ1021-3を位置合わせ標的に位置合わせし(ステップ410)、ステップ410における位置合わせおよび機械類への位置合わせ標的の関連する姿勢に基づいて、センサ1021-3を位置合わせ標的に位置合わせしてもよい(ステップ512)。
代替として、図4Bを参照すると、種々の実施形態では、センサ1021-3および/または付加的センサによって視認される作業空間100内のシーンの画像が、ディスプレイ220上に示されるユーザインターフェース上に提供される(ステップ422)。随意に、分析モジュール237は、センサ画像を分析し、シーンの画像上に作業空間100をマッピングする可視3D点群データを提供してもよい(ステップ424)。加えて、制御システム212は、機械類および/または作業空間100の2Dまたは3D CADモデルを作成し、シーンの画像上にモデルを表示してもよい(ステップ426)。加えて、または代替として、作業空間100内のセンサ1021-3(および/または他の類似するセンサ)、機械類、または他の機器は、実際の機械類および/または作業空間に対して2Dおよび/または3D走査を実施し、走査に基づいて、そのモデルを構築してもよい(ステップ428)。一実装では、ロボットコントローラ108によって受信および決定される作業空間100内のロボットおよび/または他の機械類の位置は、作業空間100の状態に対応するその完全に姿勢をとった幾何学形状を取得するために、ステップ426または428において作成されたモデルと組み合わせられてもよい(ステップ430)。種々の実施形態では、深度画像内およびユーザインターフェース上に示されるロボット106上の離散特徴の1つ以上の対が、オペレータによって手動で、または制御システム112によって自動的に選択される(ステップ432)。それに基づいて、位置合わせモジュール239は、例えば、上記に説明される精緻化ステップを使用して、位置合わせを実施してもよい(ステップ434)。加えて、または代替として、位置合わせモジュール239は、シーンの画像上の特徴の1つ以上の対を選ぶことによって1つ以上の制約を導入し(ステップ436)、次いで、制約の存在下で機械類へのセンサシステム101の自動的位置合わせを実施してもよい(ステップ438)。
図4Cを参照すると、種々の実施形態では、機械類へのセンサ1021-3の自動化位置合わせは、位置合わせライブラリ255の使用を伴う。ステップ442において、1つ以上の構成パラメータ(位置合わせを微調整するための反復回数、メッシュあたりの3D点群データの数、1つ以上の収束基準等)を含む、位置合わせライブラリ255が、作成される。第2のステップ444において、位置合わせモジュール239は、位置合わせライブラリ255内のシーンの記憶された画像内のロボットおよび/または機械類のものに対してシーンの画像内のロボットおよび/または機械類の状態を自動的に比較し、次いで、最良に合致する状態を提供する記憶された画像を識別する。位置合わせモジュール239は、次いで、シーンの画像内の最良に合致される状態と関連付けられる構成パラメータを読み出し(ステップ446)、それに基づいて、機械類へのセンサ1021-3の自動化位置合わせを実施してもよい(ステップ448)。随意に、制御システム112およびロボットコントローラ108は、ロボット106および/または他の機械類に、1つ以上の付加的な既知の状態(例えば、位置合わせのために以前に正常に採用された状態)に再び姿勢をとらせてもよい(ステップ450)。ロボット106および/または他の機械類の状態に関連するデータおよび本手順の間にセンサ1021-3によって入手されたデータは、より大きい位置合わせデータセットを提供するために組み合わせられることができる(ステップ452)。一実施形態では、組み合わせられたデータは、次いで、ステップ446において説明されるような最良に合致する状態を有する画像を識別するために、位置合わせライブラリ255内に記憶されたデータに対して比較されることができる(ステップ454)。続けて、位置合わせモジュール239は、シーンの画像内の最良に合致される状態と関連付けられる構成パラメータを読み出し(ステップ446)、それに基づいて、機械類へのセンサ1021-3の自動化位置合わせを実施することができる(ステップ448)。いくつかの実施形態では、ロボット106および/または他の機械類の付加的な既知の状態への再姿勢の間に入手されたデータは、位置合わせライブラリ255内に記憶される(ステップ456)。
3) シーンを適切に網羅するためのセンサの構成
作業空間100内の面積の網羅範囲を最良に提供するための3Dセンサ1021-3の適切な設定を決定するために、センサ1021-3に対して物体によって引き起こされるオクルージョン等の種々の考慮事項が、考慮されなければならない。種々の実施形態では、ディスプレイ220上に示されるユーザインターフェースは、構成を支援するために、全てのセンサ1021-3の網羅範囲を示す、双方向3Dディスプレイを提供する。本システムが、機械類の危険な部分または複数の部分の場所および停止時間および/または距離等の制御されている機械類についての十分な高レベル情報とともに構成される場合、制御システム112(例えば、分析モジュール237)は、センサ1021-3の構成が、十分な網羅範囲を提供する、および/または付加的センサに関する設置を示唆するかどうかに関して知的フィードバックを提供するように構成されてもよい。
いくつかの実施形態では、フィードバックはさらに、例えば、センサ1021-3の視野によって網羅されない面積の単純な列挙および/または最適なシーン網羅範囲を達成するための提案されるセンサ場所を含む。センサ1021-3の最適な設置を達成するために、種々の実施形態では、分析モジュール237は、フィードバックに基づいて、光源(図示せず)に、センサ1021-3の監視される網羅範囲および/またはセンサ毎の提案された場所の輪郭を描く信号または1つ以上の光ビームを作業空間100上に投影させてもよい。人間オペレータHは、次いで、提案されたセンサ場所および/または輪郭を描かれた網羅範囲に基づいて、センサ1021-3を設置または調節してもよい。加えて、制御システム112(例えば、分析モジュール237)は、ディスプレイ220(またはヘッドセット)上に作業空間100の画像およびセンサ網羅範囲を投影する拡張現実または仮想現実デバイスを通して、センサ設置の際にオペレータHを支援してもよい。オペレータHは、ディスプレイ220上の画像上に示されるその場所に基づいて、センサを設置/調節してもよい。センサ1021-3の設置/調節は、自動化されてもよい。例えば、上記に説明されるように、センサ1021-3は、センサ1021-3の姿勢および位置を変更するように構成されるソフトウェア/ハードウェアコンポーネント1141-3によってサポートされてもよい。種々の実施形態では、分析モジュール237によって提供されるフィードバックに基づいて、制御システム112は、センサ1021-3の最適なシーン網羅範囲を達成するように、ソフトウェア/ハードウェアコンポーネント1141-3を調節するように構成されてもよい。一実装では、制御システム112はさらに、全ての(または少なくとも殆どの)センサ1021-3によって観察され得る場所に機械類を動作させ(例えば、コントローラ108を介してロボットを移動させ)、それによって、位置合わせの正確度を改良し、および、センサ1021-3によって観察されることができないオクルージョンまたは安全ではない空間を動的に決定し、これらは、作業空間100内の安全ではない面積としてマーキングされる。
種々の実施形態では、制御システム112は、業界標準、ロボットまたは機械製造業者によって、または機械類の動的モデル(歩行速度および他の因子の保守的推定値を含む)を通して決定される保護分離距離を前提として、これが、人物がこれ(またはこれの周囲の安全区域)に到達する時間までに機械類を停止させるために、人物を検出しなければならない機械類からの最小距離を決定するようにプログラムされることができる。代替として、要求される検出距離は、ディスプレイ220を介して制御システム112に直接入力されることができる。制御システム112は、次いで、作業空間100が、全ての接近を検出するために十分に網羅されているかどうかを決定するために、全てのセンサ1021-3の視野を分析することができる。センサ網羅範囲が、不十分である場合、制御システム112は、網羅範囲不足を是正し得る、既存のセンサ1021-3のための新しい場所および/または付加的センサのための場所を提案してもよい。そうでなければ、制御システム112は、デフォルトの安全状態になり、分析モジュール237が、全ての接近がセンサ1021-3によって効果的に監視され得ることを検証するまで、任意の機械類が動作することを可能にし得ない。
いくつかの事例では、センサ1021-3が、安全性を確実にするために十分に観察することができないが、ケージ等の他の手段によって防護される面積が、存在する。この場合では、ユーザインターフェースは、人間オペレータHが、制御システム112に、これらの面積が、安全と見なされ得ることを示すことを可能にし、センサベースの安全分析および/または任意の内蔵固有安全分析をオーバーライドするように構成されることができる。
図5Aおよび5Bは、作業空間内のシーンを適切に網羅するようにセンサを構成するための例示的アプローチを図示する、フローチャートである。最初に図5Aを参照すると、第1のステップ502において、ディスプレイ220上に示されるユーザインターフェースは、全てのセンサ1021-3の網羅範囲を示す、双方向3Dディスプレイを提供してもよい。本システムが、制御されている機械類についての十分な高レベル情報とともに構成される場合、制御システム112は、例えば、センサ1021-3の視野によって網羅されない面積の単純な列挙、最適なシーン網羅範囲を達成するための提案されるセンサ場所、および/または付加的センサに関する示唆される設置として、センサ1021-3の構成によって提供される網羅面積に関する知的フィードバックを提供するであろう(ステップ504)。一実施形態では、分析モジュール237は、フィードバックに基づいて、光源に、センサ1021-3の監視される網羅範囲および/またはセンサ毎の提案された場所の輪郭を描く信号または1つ以上の光ビームを作業空間100上に投影させてもよい(ステップ506)。加えて、または代替として、分析モジュール237は、拡張現実または仮想現実デバイスに、ディスプレイ220上に作業空間100の画像およびセンサ網羅範囲を投影させてもよい(ステップ508)。分析モジュール237によって提供されるフィードバックおよび/または投影されたセンサ網羅範囲および/またはセンサの提案された場所に基づいて、制御システム112は、その姿勢を調節するように、センサと関連付けられるソフトウェア/ハードウェアコンポーネント1141-3を調節し、それによって、最適なシーン網羅範囲を達成するように構成されてもよい(ステップ510)。随意に、制御システム112はさらに、全ての(または少なくとも殆どの)センサ1021-3によって観察され得る場所に機械類を動作させ(例えば、ロボットを移動させ)(ステップ512)、それによって、位置合わせの正確度を改良し、および、センサ1021-3によって観察されることができないオクルージョンまたは安全ではない空間を動的に決定する(ステップ514)。
代替として、図5Bを参照すると、制御システム112は、これが、人物がこれに到達する時間までに機械類を停止させるために、人物を検出しなければならない機械類からの最小距離を決定するようにプログラムされることができる(ステップ522)。いくつかの実施形態では、要求される検出距離は、制御システム112に直接入力されることができる(ステップ524)。制御システム112は、次いで、作業空間100が、全ての接近を検出するために十分に網羅されているかどうかを決定するために、全てのセンサ1021-3の視野を分析することができる(ステップ526)。センサ網羅範囲が、不十分である場合、制御システム112は、網羅範囲不足を是正し得る、既存のセンサ1021-3のための新しい場所および/または付加的センサのための場所を提案してもよい(ステップ528)。そうでなければ、制御システム112は、デフォルトの安全状態になり、分析モジュール237が、全ての接近がセンサ1021-3によって効果的に監視され得ることを検証するまで、任意の機械類が動作することを可能にし得ない(ステップ530)。
4) システム動作の間の位置合わせ検証
いったんセンサ1021-3間およびセンサ1021-3と機械類との間の位置合わせが、達成されると、センサ1021-3が、作業空間100内の機械類の動作の間、同一の場所および配向に留まることが重要である。一実施形態では、センサの初期位置合わせ状態は、本システムが、動作の間に位置合わせされない、および/または作業セルが、新しい物理的場所に移動される場合に、これが、後で読み出され得るように、メモリ210内に記憶されることができる。1つ以上のセンサ1021-3が、その位置合わせされた位置から偶発的に移動される、またはドリフトすると、センサは、相互および/または機械類に対して不整合され得、その結果、センサ1021-3の網羅面積は、所定の面積外に変動し得、制御出力は、無効になり、安全上の問題をもたらすであろう。種々の実施形態では、上記に説明されるセンサ1021-3間およびセンサ1021-3と機械類との間の初期位置合わせのために使用される同一のアプローチは、(i)動作の間のセンサ1021-3間およびセンサ1021-3と機械類との間の位置合わせの継続的正確度および(ii)センサ1021-3の網羅面積を監視するために拡大されることができる。例えば、上記に説明される初期位置合わせの間、制御システム112(例えば、位置合わせモジュール239)は、位置合わせプロセスの間に作成される作業空間内の静的要素のモデルへの観察されるデータの適合正確度を捕捉するメトリックのセットを算出してもよい。これらのメトリックは、例えば、位置合わせ検証、リアルタイムロボット追跡等を含んでもよい。本システムが、動作する際、同一のメトリックは、リアルタイムで再計算される。メトリックまたは初期メトリック値(すなわち、初期位置合わせの間に取得される)からのメトリックの逸脱が、規定された閾値を超える場合、および/または網羅面積が、観察されることが予期されるものの境界外である場合、システム動作の間の位置合わせは、無効であると見なされてもよく、エラー条件が、トリガされてもよい。続けて、ロボット106および/または機械類は、ロボット/機械類が低減された速度で動作される、または非アクティブ化される、安全状態に遷移されてもよい。加えて、機械類の動作の間、センサ1021-3が、定位置に留まるが、視野が、不明瞭にされる、または遮断される、および/または測定されたセンサ信号が、(例えば、本システムのある故障を通して、または人間のアクションを通して)劣化する場合、制御システム112は、出力が無効であると決定し、次いで、機械類を安全状態に遷移させてもよい。
図6は、機械類の動作の間にセンサ間およびセンサと機械類との間の位置合わせを検証するための例示的アプローチを図示する、フローチャートである。第1のステップ602において、センサ1021-3間およびセンサ1021-3と機械類との間の初期位置合わせの間、位置合わせモジュール239は、位置合わせプロセスの間に作成される作業空間100内の静的要素のモデルへの観察されるデータの適合正確度を捕捉するメトリックのセット(例えば、位置合わせ検証、リアルタイムロボット追跡等)を算出してもよい。位置合わせの完了に応じて、本システムが、動作する際、位置合わせモジュール239は、リアルタイムで同一のメトリックを連続的に更新してもよい(ステップ604)。メトリックまたは初期メトリック値(すなわち、初期位置合わせの間に取得される)からのメトリックの逸脱が、規定された閾値を超える場合、および/または網羅面積が、観察されることが予期されるものの境界外である場合、システム動作の間の位置合わせは、無効であると見なされてもよく、エラー条件が、トリガされてもよい(ステップ606)。続けて、ロボット106および/または機械類は、ロボット/機械類が低減された速度で動作される、または非アクティブ化される、安全状態に遷移されてもよい(ステップ608)。加えて、分析モジュール237は、機械類の動作の間、入手されたセンサ信号を連続的に分析してもよい(ステップ610)。センサ1021-3が、定位置に留まるが、視野が、不明瞭にされる、または遮断される、および/または測定されたセンサ信号が、(例えば、本システムのある故障を通して、または人間のアクションを通して)劣化する場合、制御システム112は、出力が無効であると決定し、次いで、機械類を安全状態に遷移させてもよい(ステップ612)。メトリックまたは初期メトリック値からのメトリックの逸脱が、規定された閾値を超えず、網羅面積が、予期される観察面積の境界内にあり、センサの視野が、不明瞭にされず、または遮断されず、測定されたセンサ信号が、劣化しない場合、制御システム112は、機械類に、指定されたタスクを連続的に実施させてもよい(ステップ614)。
本明細書に使用される用語「コントローラ」または「制御システム」は、上記に説明されるような任意の機能性を実施するために利用される全ての必要なハードウェアコンポーネントおよび/またはソフトウェアモジュールを広く含み、コントローラは、複数のハードウェアコンポーネントおよび/またはソフトウェアモジュールを含んでもよく、機能性は、異なるコンポーネントおよび/またはモジュール間に分散されることができる。機能が、1つ以上のソフトウェアプログラムとして提供される実施形態に関して、プログラムは、上記に記載されるような好適な言語でコーディングされてもよい。加えて、ソフトウェアは、標的コンピュータ上に常駐するマイクロプロセッサを対象とするアセンブリ言語で実装されることができ、例えば、ソフトウェアは、これが、IBM PCまたはPCクローン上で実行するように構成される場合、Intel 80x86アセンブリ言語で実装されてもよい。ソフトウェアは、限定ではないが、フロッピー(登録商標)ディスク、ジャンプドライブ、ハードディスク、光学ディスク、磁気テープ、PROM、EPROM、EEPROM、フィールドプログラマブルゲートアレイ、またはCD-ROMを含む、製造品上で具現化されてもよい。ハードウェア回路を使用する実施形態は、例えば、1つ以上のFPGA、CPLD、またはASICプロセッサを使用して実装されてもよい。
本明細書に採用される用語および表現は、限定ではなく、説明の用語および表現として使用され、そのような用語および表現の使用において、示され、説明される特徴またはその一部の任意の均等物を除外するいかなる意図も、存在しない。加えて、本発明のある実施形態を説明したが、本明細書に開示される概念を組み込む他の実施形態も、本発明の精神および範囲から逸脱することなく使用され得ることが、当業者に明白となるであろう。故に、説明される実施形態は、あらゆる点で、制限的ではなく、例証的にすぎないと見なされるものである。

Claims (38)

  1. 作業セル内の産業機械類を監視する方法であって、前記方法は、
    a.前記作業セルの近位に複数の画像センサを配置し、前記複数の画像センサのうちの少なくともいくつかを用いて、前記作業セルの第1の複数の画像を入手するステップと、
    b.少なくとも部分的に、前記作業セルの前記第1の複数の画像に基づいて、相互に対する前記複数の画像センサの相対的姿勢を推定し、少なくとも部分的に、前記推定に基づいて、前記作業セルの前記第1の複数の画像を前記複数の画像センサの同一の座標系に変換するステップと、
    c.前記作業セルの画像を提供するステップと、
    d.前記産業機械類の複数の画像を備える位置合わせライブラリを確立するステップであって、それぞれ、少なくとも1つの構成パラメータと関連付けられる、ステップと、
    e.前記位置合わせライブラリ内の前記複数の画像内の前記産業機械類の姿勢に対して前記作業セルの前記画像内の前記産業機械類の姿勢を比較するステップと、
    f.前記作業セルの前記画像内の前記産業機械類の姿勢に最良に合致する前記産業機械類の姿勢を提供する前記位置合わせライブラリ内の前記複数の画像のうちの1つを識別するステップと、
    g.少なくとも部分的に、前記位置合わせライブラリ内の前記識別された画像に対応する前記構成パラメータに基づいて、前記産業機械類に対する前記複数の画像センサの相対的姿勢を推定するステップと、
    h.前記産業機械類の動作の間に第2の複数の画像を入手するステップと、
    i.少なくとも部分的に、前記入手された第2の複数の画像に基づいて、前記産業機械類の動作の間に前記産業機械類を監視するステップと
    を含み、
    前記少なくとも1つの構成パラメータは、
    前記産業機械類に対する前記複数の画像センサの相対的姿勢を推定する反復回数、または、
    3D点群密度であって、ステップ(c)において提供された前記作業セルの前記画像は、前記作業セルをマッピングする3D点群データを含む、3D点群密度
    のうちの少なくとも1つを含む、方法。
  2. 前記作業セルの前記第1の複数の画像を分析し、前記作業セルの前記第1の複数の画像の間の重複および前記作業セルの前記第1の複数の画像の間の区別が存在することを検証するステップをさらに含む、請求項1に記載の方法。
  3. 前記産業機械類は、少なくともロボットアームを備える、請求項1に記載の方法。
  4. 前記作業セル内に際立った3Dシグネチャを有する少なくとも1つの位置合わせ物体を提供するステップをさらに含み、前記作業セルの前記第1の複数の画像は、前記少なくとも1つの位置合わせ物体の画像を備える、請求項1に記載の方法。
  5. 前記少なくとも1つの位置合わせ物体に対する前記複数の画像センサのそれぞれの相対的姿勢を別個に推定するステップと、
    少なくとも部分的に、前記少なくとも1つの位置合わせ物体に対する前記複数の画像センサのそれぞれの相対的姿勢の別個の推定に基づいて、相互に対する前記複数の画像センサの相対的姿勢を推定するステップと
    をさらに含む、請求項4に記載の方法。
  6. 前記少なくとも1つの位置合わせ物体は、前記複数の画像センサのうちの少なくとも1つの画像センサに可視であり、前記方法はさらに、
    前記少なくとも1つの位置合わせ物体に対する前記複数の画像センサのうちの前記少なくとも1つの画像センサの相対的姿勢を推定するステップと、
    少なくとも部分的に、前記少なくとも1つの位置合わせ物体に対する前記複数の画像センサのうちの前記少なくとも1つの画像センサの相対的姿勢の推定、相互に対する前記複数の画像センサの相対的姿勢の推定、および前記産業機械類に対する前記少なくとも1つの位置合わせ物体の姿勢に基づいて、前記産業機械類に対する前記複数の画像センサの相対的姿勢を推定するステップと
    を含む、請求項4に記載の方法。
  7. 前記少なくとも1つの位置合わせ物体の姿勢を識別するための外部入力を受信するステップをさらに含む、請求項4に記載の方法。
  8. 前記外部入力は、ユーザ入力または前記少なくとも1つの位置合わせ物体を制御するコントローラから伝送される入力のうちの少なくとも1つを備える、請求項7に記載の方法。
  9. ステップ(c)において提供された前記作業セルの前記画像は、前記作業セルの前記第1の複数の画像のうちの少なくとも1つを備える、請求項1に記載の方法。
  10. ステップ(c)において提供された前記作業セルの前記画像は、前記産業機械類または前記作業セルのうちの少なくとも1つの2Dまたは3D CADモデルを備える、請求項1に記載の方法。
  11. 前記産業機械類または前記作業セルに対して2Dまたは3D走査を実施するステップをさらに含み、前記作業セルの前記画像は、少なくとも部分的に、前記2Dまたは3D走査に基づいて構築される前記産業機械類または前記作業セルのモデルを備える、請求項1に記載の方法。
  12. 前記作業セルの前記第1の複数の画像を分析し、前記複数の画像センサの視野によって網羅される前記作業セル内の面積を決定するステップと、
    前記分析に基づいて、前記決定された面積、前記複数の画像センサの視野によって網羅されない面積、最適なシーン網羅範囲を達成するための前記複数の画像センサのうちの少なくとも1つの画像センサに関する姿勢、または前記複数の画像センサのうちの付加的画像センサのための設置場所のうちの少なくとも1つを識別するステップと
    をさらに含む、請求項1に記載の方法。
  13. 前記識別された姿勢に基づいて、前記複数の画像センサのうちの前記少なくとも1つの画像センサの姿勢を調節させるステップをさらに含む、請求項12に記載の方法。
  14. 前記複数の画像センサの視野によって網羅される前記面積の輪郭を描く1つ以上の光ビームを前記作業セルの中に投影するステップをさらに含む、請求項12に記載の方法。
  15. 前記作業セルの画像および前記複数の画像センサの視野によって網羅される前記面積の輪郭を拡張現実または仮想現実デバイス上に投影するステップをさらに含む、請求項14に記載の方法。
  16. j.前記作業セル内の前記産業機械類のモデルへの前記作業セルの前記第1の複数の画像の適合の正確度を示す初期正確度メトリックを発生させるステップと、
    k.ステップ(j)に続いて、前記産業機械類の動作の間、前記作業セル内の前記産業機械類の前記モデルへの前記作業セルの前記第2の複数の画像の適合の正確度を示す後続正確度メトリックを発生させ、前記後続正確度メトリックが、閾値量を上回って前記初期正確度メトリックから逸脱するかどうかを決定し、前記後続正確度メトリックが、前記閾値量を上回って前記初期正確度メトリックから逸脱する場合、前記産業機械類の動作を改変するステップと
    をさらに含む、請求項1に記載の方法。
  17. ステップ(k)は、前記産業機械類の動作の間に入手される前記第2の複数の画像を周期的に分析し、(i)前記後続正確度メトリックを再発生させ、(ii)前記後続正確度メトリックを前記初期正確度メトリックと比較し、それらの間の逸脱を決定し、(iii)前記逸脱が、閾値を超える場合、前記産業機械類の動作を改変するステップを含む、請求項16に記載の方法。
  18. 前記初期正確度メトリックは、位置合わせ検証またはリアルタイムロボット追跡のうちの少なくとも1つを含む、請求項16に記載の方法。
  19. グローバル最適化アルゴリズムを実装し、(i)相互に対する前記複数の画像センサの相対的姿勢、および、(ii)前記産業機械類に対する前記複数の画像センサの相対的姿勢を推定するステップをさらに含み、
    前記グローバル最適化アルゴリズムは、
    画像内の特徴を抽出し、次いで、前記抽出された特徴に基づいて対応を識別する特徴ベースの方法、および/または、
    画像内の画像強度を決定し、次いで、強度パターンを比較するために相関メトリックを使用する強度ベースの方法
    を含む、請求項1に記載の方法。
  20. 作業セル内の産業機械類を監視するための制御システムであって、前記制御システムは、
    前記作業セルの近位の複数の画像センサと、
    コントローラであって、
    前記複数の画像センサのうちの少なくともいくつかを用いて、前記作業セルの第1の複数の画像を入手することと、
    少なくとも部分的に、前記作業セルの前記第1の複数の画像に基づいて、相互に対する前記複数の画像センサの相対的姿勢を推定し、少なくとも部分的に、前記推定に基づいて、前記作業セルの前記第1の複数の画像を前記複数の画像センサの同一の座標系に変換することと、
    前記作業セルの画像を提供することと、
    前記産業機械類の複数の画像を備える位置合わせライブラリを確立することであって、それぞれ、少なくとも1つの構成パラメータと関連付けられる、ことと、
    前記位置合わせライブラリ内の前記複数の画像内の前記産業機械類の姿勢に対して前記作業セルの前記画像内の前記産業機械類の姿勢を比較することと、
    前記作業セルの前記画像内の前記産業機械類の姿勢に最良に合致する前記産業機械類の姿勢を提供する前記位置合わせライブラリ内の前記複数の画像のうちの1つを識別することと、
    少なくとも部分的に、前記位置合わせライブラリ内の前記識別された画像に対応する前記構成パラメータに基づいて、前記産業機械類に対する前記複数の画像センサの相対的姿勢を推定することと、
    前記産業機械類の動作の間に第2の複数の画像を入手することと、
    少なくとも部分的に、前記入手された第2の複数の画像に基づいて、前記産業機械類の動作の間に前記産業機械類を監視することと
    を行うように構成される、コントローラと
    を備え、
    前記少なくとも1つの構成パラメータは、
    前記産業機械類に対する前記複数の画像センサの相対的姿勢を推定する反復回数、または、
    3D点群密度であって、提供された前記作業セルの前記画像は、前記作業セルをマッピングする3D点群データを含む、3D点群密度
    のうちの少なくとも1つを含む、制御システム。
  21. 前記コントローラはさらに、前記作業セルの前記第1の複数の画像を分析し、前記作業セルの前記第1の複数の画像の間の重複および前記作業セルの前記第1の複数の画像の間の区別が存在することを検証するように構成される、請求項20に記載の制御システム。
  22. 前記産業機械類は、少なくともロボットアームを備える、請求項20に記載の制御システム。
  23. 前記作業セル内に際立った3Dシグネチャを有する少なくとも1つの位置合わせ物体をさらに備え、前記作業セルの前記第1の複数の画像は、前記少なくとも1つの位置合わせ物体の画像を備える、請求項20に記載の制御システム。
  24. 前記コントローラはさらに、
    前記少なくとも1つの位置合わせ物体に対する前記複数の画像センサのそれぞれの相対的姿勢を別個に推定することと、
    少なくとも部分的に、前記少なくとも1つの位置合わせ物体に対する前記複数の画像センサのそれぞれの相対的姿勢の別個の推定に基づいて、相互に対する前記複数の画像センサの相対的姿勢を推定することと
    を行うように構成される、請求項23に記載の制御システム。
  25. 前記少なくとも1つの位置合わせ物体は、前記複数の画像センサのうちの少なくとも1つの画像センサに可視であり、前記コントローラはさらに、
    前記少なくとも1つの位置合わせ物体に対する前記複数の画像センサのうちの前記少なくとも1つの画像センサの相対的姿勢を推定することと、
    少なくとも部分的に、前記少なくとも1つの位置合わせ物体に対する前記複数の画像センサのうちの前記少なくとも1つの画像センサの相対的姿勢の推定、相互に対する前記複数の画像センサの相対的姿勢の推定、および前記産業機械類に対する前記少なくとも1つの位置合わせ物体の姿勢に基づいて、前記産業機械類に対する前記複数の画像センサの相対的姿勢を推定することと
    を行うように構成される、請求項23に記載の制御システム。
  26. 前記少なくとも1つの位置合わせ物体の姿勢を識別するための外部入力を受信するための入力モジュールをさらに備える、請求項23に記載の制御システム。
  27. 前記少なくとも1つの位置合わせ物体を制御する第2のコントローラをさらに備え、前記外部入力は、ユーザ入力または前記第2のコントローラから伝送される入力のうちの少なくとも1つを備える、請求項26に記載の制御システム。
  28. 提供された前記作業セルの前記画像は、前記作業セルの前記第1の複数の画像のうちの少なくとも1つを備える、請求項20に記載の制御システム。
  29. 提供された前記作業セルの前記画像は、前記産業機械類または前記作業セルのうちの少なくとも1つの2Dまたは3D CADモデルを備える、請求項20に記載の制御システム。
  30. 前記コントローラはさらに、前記産業機械類または前記作業セルに対する2Dまたは3D走査を引き起こすように構成され、前記作業セルの前記画像は、少なくとも部分的に、前記2Dまたは3D走査に基づいて構築される前記産業機械類または前記作業セルのモデルを備える、請求項20に記載の制御システム。
  31. 前記コントローラはさらに、
    前記作業セルの前記第1の複数の画像を分析し、前記複数の画像センサの視野によって網羅される前記作業セル内の面積を決定することと、
    前記分析に基づいて、前記決定された面積、前記複数の画像センサの視野によって網羅されない面積、最適なシーン網羅範囲を達成するための前記複数の画像センサのうちの少なくとも1つの画像センサに関する姿勢、または前記複数の画像センサのうちの付加的画像センサのための設置場所のうちの少なくとも1つを識別することと
    を行うように構成される、請求項20に記載の制御システム。
  32. 前記コントローラはさらに、前記識別された姿勢に基づいて、前記複数の画像センサのうちの前記少なくとも1つの画像センサの姿勢を調節させるように構成される、請求項31に記載の制御システム。
  33. 前記コントローラはさらに、前記複数の画像センサの視野によって網羅される前記面積の輪郭を描く1つ以上の光ビームを前記作業セルの中に投影するように構成される、請求項31に記載の制御システム。
  34. 前記コントローラはさらに、前記作業セルの画像および前記複数の画像センサの視野によって網羅される前記面積の輪郭を拡張現実または仮想現実デバイス上に投影するように構成される、請求項33に記載の制御システム。
  35. 前記コントローラはさらに、
    前記作業セル内の前記産業機械類のモデルへの前記作業セルの前記第1の複数の画像の適合の正確度を示す初期正確度メトリックを発生させることと、
    前記産業機械類の動作の間、前記作業セル内の前記産業機械類の前記モデルへの前記作業セルの前記第2の複数の画像の適合の正確度を示す後続正確度メトリックを発生させ、前記後続正確度メトリックが、閾値量を上回って前記初期正確度メトリックから逸脱するかどうかを決定し、前記後続正確度メトリックが、前記閾値量を上回って前記初期正確度メトリックから逸脱する場合、前記産業機械類の動作を改変することと
    を行うように構成される、請求項20に記載の制御システム。
  36. 前記コントローラはさらに、前記産業機械類の動作の間に入手される前記第2の複数の画像を周期的に分析し、(i)前記後続正確度メトリックを再発生させ、(ii)前記後続正確度メトリックを前記初期正確度メトリックと比較し、それらの間の逸脱を決定し、(iii)前記逸脱が、閾値を超える場合、前記産業機械類の動作を改変するように構成される、請求項35に記載の制御システム。
  37. 前記初期正確度メトリックは、位置合わせ検証またはリアルタイムロボット追跡のうちの少なくとも1つを含む、請求項35に記載の制御システム。
  38. 前記コントローラはさらに、グローバル最適化アルゴリズムを実装し、(i)相互に対する前記複数の画像センサの相対的姿勢、および、(ii)前記産業機械類に対する前記複数の画像センサの相対的姿勢を推定するように構成され、
    前記グローバル最適化アルゴリズムは、
    画像内の特徴を抽出し、次いで、前記抽出された特徴に基づいて対応を識別する特徴ベースの方法、および/または、
    画像内の画像強度を決定し、次いで、強度パターンを比較するために相関メトリックを使用する強度ベースの方法
    を含む、請求項20に記載の制御システム。
JP2021510699A 2018-08-30 2019-08-28 自動的センサ位置合わせおよび構成のためのシステムおよび方法 Active JP7299642B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862724945P 2018-08-30 2018-08-30
US62/724,945 2018-08-30
PCT/US2019/048520 WO2020047064A1 (en) 2018-08-30 2019-08-28 Systems and methods for automatic sensor registration and configuration

Publications (2)

Publication Number Publication Date
JP2021534990A JP2021534990A (ja) 2021-12-16
JP7299642B2 true JP7299642B2 (ja) 2023-06-28

Family

ID=69641245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021510699A Active JP7299642B2 (ja) 2018-08-30 2019-08-28 自動的センサ位置合わせおよび構成のためのシステムおよび方法

Country Status (4)

Country Link
US (2) US11156981B2 (ja)
EP (1) EP3844432A4 (ja)
JP (1) JP7299642B2 (ja)
WO (1) WO2020047064A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10078908B2 (en) * 2016-08-12 2018-09-18 Elite Robotics Determination of relative positions
US20180308379A1 (en) * 2017-04-21 2018-10-25 Accenture Global Solutions Limited Digital double platform
US11830131B2 (en) * 2018-02-06 2023-11-28 Veo Robotics, Inc. Workpiece sensing for process management and orchestration
WO2020056353A1 (en) * 2018-09-13 2020-03-19 The Charles Stark Draper Laboratory, Inc. Food-safe, washable, thermally-conductive robot cover
US12066810B2 (en) * 2020-07-06 2024-08-20 Veo Robotics, Inc. Continuous monitoring of a workcell safety system
US12053875B2 (en) * 2021-01-07 2024-08-06 Ford Global Technologies, Llc Method and system for determining sensor placement for a workspace based on robot pose scenarios
US20220278892A1 (en) * 2021-03-01 2022-09-01 Lenovo (Singapore) Pte. Ltd. Device and method for controlling communication of information
US12090665B2 (en) * 2021-04-15 2024-09-17 Ford Global Technologies, Llc Method and system for positioning sensors within a workspace
US20230196495A1 (en) * 2021-12-22 2023-06-22 Datalogic Ip Tech S.R.L. System and method for verifying positional and spatial information using depth sensors

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004508954A (ja) 2000-09-13 2004-03-25 ビ−エイイ− システムズ パブリック リミテッド カンパニ− 位置決め装置およびシステム
JP2004163200A (ja) 2002-11-12 2004-06-10 Hitachi Eng Co Ltd 三次元形状計測装置
JP2009121053A (ja) 2007-11-12 2009-06-04 Clarion Co Ltd 建設・土木作業車両の作業安全監視システム
JP2012057960A (ja) 2010-09-06 2012-03-22 Topcon Corp 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム
US20130201292A1 (en) 2010-04-16 2013-08-08 Otto-Von Guericke-Universitat Magdeburg Device For Monitoring At Least One Three-Dimensional Safety Area
JP2014509417A (ja) 2010-12-30 2014-04-17 アイロボット コーポレイション 可動式ヒューマンインターフェースロボット
JP2014140920A (ja) 2013-01-23 2014-08-07 Denso Wave Inc ロボット周辺への物体の侵入を監視する監視システムおよび監視方法
WO2018148181A1 (en) 2017-02-07 2018-08-16 Veo Robotics, Inc. Workspace safety monitoring and equipment control

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0790494B2 (ja) 1987-08-22 1995-10-04 ファナック株式会社 視覚センサのキャリブレ−ション方法
JPH06270083A (ja) * 1993-03-19 1994-09-27 Tokico Ltd ワーク位置検知装置
JPH06278064A (ja) * 1993-03-31 1994-10-04 Citizen Watch Co Ltd 視覚センサの座標変換方法
JPH08328624A (ja) * 1995-06-06 1996-12-13 Fanuc Ltd センサとロボットとの結合方法及びロボットシステム
KR20020054243A (ko) * 2000-12-27 2002-07-06 오길록 다중 영상을 이용한 대화형 모델 생성 장치 및 그 방법
US7522066B2 (en) * 2006-02-23 2009-04-21 Rockwell Automation Technologies, Inc. Systems and methods that evaluate distance to potential hazards utilizing overlapping sensing zones
JP5381871B2 (ja) 2010-03-31 2014-01-08 日立工機株式会社 2サイクルエンジンおよびそれを備えたエンジン作業機
JP5755038B2 (ja) 2010-06-28 2015-07-29 キヤノン株式会社 組立装置及び生産システム
US9188973B2 (en) * 2011-07-08 2015-11-17 Restoration Robotics, Inc. Calibration and transformation of a camera system's coordinate system
KR102211010B1 (ko) * 2013-03-15 2021-02-02 카네기 멜론 유니버시티 복잡한 표면을 관찰하고 처리하기 위한 관리 자동 로봇 장치
US9452531B2 (en) 2014-02-04 2016-09-27 Microsoft Technology Licensing, Llc Controlling a robot in the presence of a moving object
US9251598B2 (en) * 2014-04-10 2016-02-02 GM Global Technology Operations LLC Vision-based multi-camera factory monitoring with dynamic integrity scoring
US9524426B2 (en) * 2014-03-19 2016-12-20 GM Global Technology Operations LLC Multi-view human detection using semi-exhaustive search
JP6122065B2 (ja) * 2015-05-29 2017-04-26 ファナック株式会社 搬送物を吊り下げて搬送するロボットシステム
EP3397921A1 (en) * 2015-12-30 2018-11-07 Faro Technologies, Inc. Registration of three-dimensional coordinates measured on interior and exterior portions of an object
US10262222B2 (en) 2016-04-13 2019-04-16 Sick Inc. Method and system for measuring dimensions of a target object
US10078908B2 (en) * 2016-08-12 2018-09-18 Elite Robotics Determination of relative positions
US20210030199A1 (en) * 2017-03-06 2021-02-04 Miso Robotics, Inc. Augmented reality-enhanced food preparation system and related methods
EP3437804A1 (en) 2017-08-02 2019-02-06 ABB Schweiz AG Robot control method
US11263707B2 (en) * 2017-08-08 2022-03-01 Indigo Ag, Inc. Machine learning in agricultural planting, growing, and harvesting contexts
US11014240B2 (en) 2017-09-05 2021-05-25 Abb Schweiz Ag Robot having dynamic safety zones
US10445944B2 (en) 2017-11-13 2019-10-15 Rockwell Automation Technologies, Inc. Augmented reality safety automation zone system and method
JP6818708B2 (ja) 2018-02-28 2021-01-20 株式会社東芝 マニピュレータシステム、制御装置、制御方法、およびプログラム
US11158084B2 (en) * 2018-11-07 2021-10-26 K2R2 Llc Determination of relative position of an apparatus

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004508954A (ja) 2000-09-13 2004-03-25 ビ−エイイ− システムズ パブリック リミテッド カンパニ− 位置決め装置およびシステム
JP2004163200A (ja) 2002-11-12 2004-06-10 Hitachi Eng Co Ltd 三次元形状計測装置
JP2009121053A (ja) 2007-11-12 2009-06-04 Clarion Co Ltd 建設・土木作業車両の作業安全監視システム
US20130201292A1 (en) 2010-04-16 2013-08-08 Otto-Von Guericke-Universitat Magdeburg Device For Monitoring At Least One Three-Dimensional Safety Area
JP2012057960A (ja) 2010-09-06 2012-03-22 Topcon Corp 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム
JP2014509417A (ja) 2010-12-30 2014-04-17 アイロボット コーポレイション 可動式ヒューマンインターフェースロボット
JP2014140920A (ja) 2013-01-23 2014-08-07 Denso Wave Inc ロボット周辺への物体の侵入を監視する監視システムおよび監視方法
WO2018148181A1 (en) 2017-02-07 2018-08-16 Veo Robotics, Inc. Workspace safety monitoring and equipment control

Also Published As

Publication number Publication date
US20200073358A1 (en) 2020-03-05
EP3844432A4 (en) 2022-06-15
US11156981B2 (en) 2021-10-26
US11543796B2 (en) 2023-01-03
US20210389745A1 (en) 2021-12-16
JP2021534990A (ja) 2021-12-16
EP3844432A1 (en) 2021-07-07
WO2020047064A1 (en) 2020-03-05

Similar Documents

Publication Publication Date Title
JP7299642B2 (ja) 自動的センサ位置合わせおよび構成のためのシステムおよび方法
JP6898012B2 (ja) 作業空間安全監視および機器制御
EP3654125B1 (en) Industrial safety monitoring configuration using a digital twin
EP3410246B1 (en) Robot obstacle avoidance control system and method, robot, and storage medium
US7336814B2 (en) Method and apparatus for machine-vision
Rusu et al. Laser-based perception for door and handle identification
US11969893B2 (en) Automated personalized feedback for interactive learning applications
TW202012955A (zh) 具有球形視野的三維感測器的擋板
EP3936754B1 (en) Continuous monitoring of a workcell safety system
US20230359162A1 (en) Systems and methods for sensor registration based on floor alignment
Araiza-lllan et al. Dynamic regions to enhance safety in human-robot interactions
US20230196495A1 (en) System and method for verifying positional and spatial information using depth sensors
US20230099717A1 (en) Systems and methods for information-assisted sensor registration
Sachtler et al. Combined Visual and Touch-based Sensing for the Autonomous Registration of Objects with Circular Features
Shi et al. Tracking and proximity detection for robotic operations by multiple depth cameras
Chang et al. Simultaneous localization and mapping of a mobile robot with surveillance and flying cameras
Yang et al. Visual Servoing Control of Robot Manipulator
Nair et al. 3D Position based multiple human servoing by low-level-control of 6 DOF industrial robot
Mezouar Optimal Camera Trajectory under visibility constraint in visual servoing: a variational approach
Andersson et al. Camera Based Concept for Enhancement of IRB Accuracy Using Fixed Features and SLAM

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210423

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230609

R150 Certificate of patent or registration of utility model

Ref document number: 7299642

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150