JP2020064608A - 組立プロセスの自動化された監視および検査 - Google Patents

組立プロセスの自動化された監視および検査 Download PDF

Info

Publication number
JP2020064608A
JP2020064608A JP2019148451A JP2019148451A JP2020064608A JP 2020064608 A JP2020064608 A JP 2020064608A JP 2019148451 A JP2019148451 A JP 2019148451A JP 2019148451 A JP2019148451 A JP 2019148451A JP 2020064608 A JP2020064608 A JP 2020064608A
Authority
JP
Japan
Prior art keywords
assembly
computer system
current stage
assembly process
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019148451A
Other languages
English (en)
Other versions
JP7403255B2 (ja
Inventor
ホアフォン ユイ,
Huafeng Yu
ホアフォン ユイ,
ダニエル エス. レミネ,
S Remine Daniel
ダニエル エス. レミネ,
タイラー チャールズ シュタウディンガー,
Charles Staudinger Tyler
タイラー チャールズ シュタウディンガー,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Boeing Co
Original Assignee
Boeing Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boeing Co filed Critical Boeing Co
Publication of JP2020064608A publication Critical patent/JP2020064608A/ja
Application granted granted Critical
Publication of JP7403255B2 publication Critical patent/JP7403255B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/048Monitoring; Safety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64FGROUND OR AIRCRAFT-CARRIER-DECK INSTALLATIONS SPECIALLY ADAPTED FOR USE IN CONNECTION WITH AIRCRAFT; DESIGNING, MANUFACTURING, ASSEMBLING, CLEANING, MAINTAINING OR REPAIRING AIRCRAFT, NOT OTHERWISE PROVIDED FOR; HANDLING, TRANSPORTING, TESTING OR INSPECTING AIRCRAFT COMPONENTS, NOT OTHERWISE PROVIDED FOR
    • B64F5/00Designing, manufacturing, assembling, cleaning, maintaining or repairing aircraft, not otherwise provided for; Handling, transporting, testing or inspecting aircraft components, not otherwise provided for
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41805Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by assembly
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41875Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by quality surveillance of production
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4188Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by CIM planning or realisation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41885Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by modeling, simulation of the manufacturing system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32193Ann, neural base quality management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Manufacturing & Machinery (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Quality & Reliability (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Signal Processing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Transportation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • General Factory Administration (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Abstract

【課題】人間のオペレータによらない自動監視及び検査を行い、人為的ミスを低減し、時間も費用もかからない装置および方法を提供する。【解決手段】組立プロセスの自動化された監視および検査を実行するための方法および装置。この方法は、コンピュータシステムを使用して実施される。組立現場に対して配置されたセンサシステムを使用して、センサデータが、組立現場で生成される。組立現場で組立品を組み立てるための組立プロセスの現在の段階が、センサデータを使用して識別される。現在の段階のコンテキストが、識別される。組立品の品質レポートが、センサデータおよび現在の段階のコンテキストに基づいて生成される。【選択図】図4

Description

本開示は、一般に、組立現場の検査に関する。より詳細には、本開示は、組立現場での組立プロセスの自動化された監視および検査のための方法およびシステムに関する。
航空機の構造などの複雑な構造では、数百、数千、数万、または数十万ものコンポーネントの組立が必要になる場合がある。これらのタイプの複雑な構造の組立は、製造環境でいくつかの課題を提示する場合がある。例えば、組立プロセスの様々な段階で、様々なタイプまたはレベルの検査が必要になる場合がある。1つの検査ステップは、ある特定の段階で組み立てられている部品が、実際に、組み立てられると予想された部品であるかどうかを、決定することを、含み得る。別の検査ステップは、部品が正しい位置に組み立てられたかどうかを、決定することを、含み得る。さらに別の検査ステップは、部品が組立プロセス中の正しい時間に組み立てられたかどうかを、決定することを、含み得る。1つの検査ステップは、部品の組立が安全要件、品質要件、またはその両方を満たすかどうかを、決定することを、含み得る。
現在利用可能ないくつかの検査方法は、人間のオペレータによる組立品の手動検査を含む。しかし、このタイプの手動検査は、人為的ミスを起こしやすく、期待ほど正確ではない場合がある。さらに、手動検査は、期待したより時間がかかり、期待したより費用がかかる場合がある。例えば、手動検査で望ましくない特徴が識別された場合、望ましくない特徴の原因を識別するために、分解が必要になる場合がある。この分解プロセスは、期待したよりも時間と費用がかかる場合がある。したがって、上述の問題に対処するための1つ以上の装置および方法が、望まれ得る。
例示的な一実施形態では、組立プロセスの自動化された監視および検査を実行するための方法が、提供される。この方法は、コンピュータシステムを使用して実施される。組立現場に対して配置されたセンサシステムを使用して、センサデータが、組立現場で生成される。組立現場で組立品を組み立てるための組立プロセスの現在の段階が、センサデータを使用して識別される。現在の段階のコンテキストが、識別される。組立品の品質レポートが、センサデータおよび現在の段階のコンテキストに基づいて生成される。
別の例示的な実施形態では、組立プロセスの自動化された監視および検査を実行するための方法が、提供される。この方法は、コンピュータシステムを使用して実施される。組立現場に対して配置されたセンサシステムを使用して、センサデータが、組立現場で生成される。組立現場で組立品を組み立てるための組立プロセスの現在の段階が、センサデータ、データリポジトリに格納された組立情報、および機械学習、ディープラーニング、コンピュータビジョン、カスタマイズされた学習手法、計算論的学習、または人工知能学習のうちの少なくとも1つを使用して、識別される。現在の段階のコンテキストが、識別される。組立プロセスの現在の段階に対応する品質レポートが、センサデータおよび現在の段階のコンテキストに基づいて生成される。組立プロセスの現在の段階に対応するレコードが、データリポジトリに格納され、それにより組立プロセスのレコードの履歴が構築される。レコードは、センサデータの少なくとも一部および品質レポートを含む。
別の例示的な実施形態では、組立プロセスの自動化された監視および検査のためのシステムが、センサシステムおよびコンピュータシステムを含む。センサシステムは、組立現場および組立現場で組み立てられている組立品に対して配置される。コンピュータシステムは、センサシステムによって生成されたセンサデータに基づいて、組立現場で組立品を組み立てるための組立プロセスの現在の段階を識別し、現在の段階のコンテキストを識別し、センサデータおよび現在の段階のコンテキストに基づいて、組立品の品質レポートを生成する。
特徴および機能は、本開示の様々な実施形態において独立して達成されてもよいし、またはさらに他の実施形態において組み合わされてもよく、以下の説明および図面を参照して、さらなる詳細が見られ得る。
例示的な実施形態の特徴を示すと考えられる新規の特徴が、添付の特許請求の範囲に記載されている。しかしながら、例示的な実施形態、ならびにその好ましい使用モード、さらなる目的および特徴は、添付の図面と併せて、例示的な実施形態の以下の詳細な説明を参照することによって、最もよく理解されるであろう。
例示的な実施形態による、製造環境のブロック図である。 例示的な実施形態による、図1のトレーニングマネージャおよびデータリポジトリのブロック図である。 例示的な実施形態による、図1の組立マネージャのブロック図である。 例示的な実施形態による、組立現場の図である。 例示的な実施形態による、組立プロセスの自動化された監視および検査を実行するための方法のフローチャートである。 例示的な実施形態による、組立プロセスの自動化された監視および検査を実行するための方法のフローチャートである。 例示的な実施形態による、組立プロセスの現在の段階を識別するための方法のフローチャートである。 例示的な実施形態による、ロールバック検証を実行するための方法のフローチャートである。 例示的な実施形態による、組立プロセスの自動化された監視および検査のための方法のフローチャートである。 例示的な実施形態による、データ処理システムのブロック図である。 例示的な実施形態による、航空機製造および保守方法の図である。 例示的な実施形態による、航空機のブロック図である。
以下に説明する例示的な実施形態は、組立現場での組立プロセスの監視および検査を自動化するための方法およびシステムを提供する。これらの方法とシステムは、機械学習、コンピュータビジョン、および他の人工知能技術を使用して、組立プロセスの監視および検査を自動化する。さらに、これらの方法とシステムは、事前に定義された品質要件に従って、適切な位置で、組立プロセス中の正しい時間に部品が組み立てられていることを識別する自動化されたやり方を、提供する。
例示的な実施形態によって提供される自動化された監視および検査システムは、検査プロセスにおける人間の介入の必要性を減らすような仕方で、組立プロセスの品質管理を改善する。この人間の介入の必要性を減らすことにより、人間に関連するエラーを減らすことができる。さらに、自動化された監視および検査システムにより、コストと時間を節約できる。例えば、自動化された監視および検査システムは、広範囲に分解したり、実際の組立ステップを逆戻りさせたりすることなく、問題の根本原因を識別する方法を、提供する。
図1は、例示的な実施形態による、製造環境のブロック図である。製造環境100は、構造104を形成するために複数の部品102を組み立てることができる製造環境の一タイプの例である。構造104は、多くの異なる形態を取り得る。例えば、構造104は、航空機、翼、翼構造、胴体、胴体構造、フレーム、安定板、または他の何らかのタイプの構造104であってもよい。ある場合には、複数の部品102のうちの一つの部品は、ピース、コンポーネント、エレメント、部材、または他の何らかのタイプのユニットと呼ばれることもある。
複数の部品102は、製造環境100内の組立現場105で組み立てることができる。いくつかの例示的な例では、組立現場105は、製造環境100内の複数の組立現場の1つであってもよい。組立現場105は、例えば、地面の領域、プラットフォーム、足場、または複数の部品102が組み立てられる他の何らかのタイプの現場を含むことができる。
組立プロセス106に従って、複数の部品102を組み立てて、構造104を形成することができる。組立プロセス106は、複数の段階108を含むことができる。本明細書で使用される場合、複数の段階108の段階は、組立プロセス106の単一の段階、段階のシーケンス、サブ段階のシーケンス、部分組立プロセスの段階、組立プロセス106もしくは部分組立プロセスのステップ、または組立プロセス106中に並行して実行される2つ以上のステップであってもよい。組立プロセス106の任意の所与の段階で、完成前および完成まで、構造104は、組立品110と呼ばれる場合がある。ある場合には、組立品110は、「構築物」と呼ばれることもある。
監視および検査システム112は、組立プロセス106を監視し、組立プロセス106中に検査を実行するために使用される。監視および検査システム112は、自動化されたシステムであってもよい。詳細には、監視および検査システム112は、組立プロセス106の監視を自動化し、組立プロセス106中の検査を自動化して、人間の介入の必要性を低減するか、場合によっては排除さえする。
これらの例示的な例では、監視および検査システム112は、センサシステム114、トレーニングマネージャ116、組立マネージャ118、ロールバック検証器120、データリポジトリ121、および出力システム122を含む。センサシステム114は、任意の数または組み合わせのセンサを含むことができる。例えば、センサシステム114は、撮像デバイス、レーダーセンサ、ソナーセンサ、光検出と測距(LiDAR)センサ、赤外線(IR)センサ、または他の何らかのタイプのセンサのうちの少なくとも1つを含んでよい。撮像デバイスは、例えば、カメラ、ステレオカメラ、ビデオカメラ、赤外線カメラ、他の何らかのタイプの撮像デバイス、またはそれらの組み合わせを含むことができるが、これらに限定されない。例示的な一例では、センサシステム114は、撮像システムのセットを含み、各撮像システムが、1つ以上の撮像デバイスを含む。撮像システムのセットなどの項目のセットは、1つ以上の項目を含むことができる。
トレーニングマネージャ116、組立マネージャ118、およびロールバック検証器120は、ソフトウェア、ハードウェア、ファームウェア、またはそれらの組み合わせを使用して実施され得る。ソフトウェアが使用される場合、トレーニングマネージャ116、組立マネージャ118、またはロールバック検証器120のそれぞれによって実行される動作は、例えば、限定しないが、プロセッサユニット上で走るように構成されたプログラムコードを使用して、実施され得る。ファームウェアが使用される場合、トレーニングマネージャ116、組立マネージャ118、またはロールバック検証器120のそれぞれによって実行される動作は、例えば、限定しないが、プロセッサユニット上で走るように、永続性のメモリに格納されたプログラムコードとデータを使用して実施され得る。
ハードウェアが用いられる場合、ハードウェアは、トレーニングマネージャ116、組立マネージャ118、またはロールバック検証器120のそれぞれによって実行される動作を実行するように動作する1つ以上の回路を含み得る。実施態様に応じて、ハードウェアは、回路システム、集積回路、特定用途向け集積回路(ASIC)、プログラマブルロジックデバイス、または任意の数の動作を実行するように構成された他の何らかの適切なタイプのハードウェアデバイスの形態を取り得る。プログラマブルロジックデバイスは、特定の動作を実行するように構成され得る。デバイスは、これらの動作を実行するように恒久的に構成されてもよいし、または再構成可能であってもよい。プログラマブルロジックデバイスは、例えば、限定されないが、プログラマブルロジックアレイ、プログラマブルアレイロジック、フィールドプログラマブルロジックアレイ、フィールドプログラマブルゲートアレイ、または他の何らかのタイプのプログラマブルハードウェアデバイスの形態を取り得る。
これらの例示的な例では、組立マネージャ118およびロールバック検証器120は、コンピュータシステム124を使用して実施され得る。コンピュータシステム124は、単一のコンピュータまたは互いに通信する複数のコンピュータを含み得る。いくつかの実施形態では、コンピュータシステム124は、ラップトップ、タブレット、スマートフォン、または他の何らかのタイプのモバイルデバイスを含み得る。
いくつかの実施形態では、コンピュータシステム124の一部は、コンピュータシステム124の別の部分に対して遠隔に配置されてもよい。例えば、コンピュータシステム124は、製造環境100内の組立現場105にまたはその周囲に配置されたコンピュータと、コンピュータに対して遠隔に配置されたサーバシステムとを含み得る。サーバシステムは、製造環境100の内部または外部に配置され得る。ある場合には、トレーニングマネージャ116は、第1のコンピュータを使用して実施され、組立マネージャ118は、第2のコンピュータを使用して実施され、ロールバック検証器120は、第3のコンピュータを使用して実施され得る。このように、コンピュータシステム124は、組立マネージャ118およびロールバック検証器120を実施するために、多くの異なるやり方で使用され得る。
データリポジトリ121は、1つ以上のデータベース、連想メモリ、何らかの他のタイプのデータ構造、またはそれらの組み合わせを含み得る。データリポジトリ121は、トレーニングマネージャ116、組立マネージャ118、ロールバック検証器120、またはそれらの組み合わせと通信することができる。いくつかの例では、データリポジトリ121は、コンピュータシステム124の一部であってもよい。いくつかの例では、データリポジトリ121またはデータリポジトリ121の少なくとも一部は、組立現場105に対して遠隔に配置されている。
データリポジトリ121は、組立情報126を格納する。データリポジトリ121に格納され得る組立情報126のタイプの例が、以下の図2に記載されている。
出力システム122は、トレーニングマネージャ116、組立マネージャ118、ロールバック検証器120、またはそれらの組み合わせと通信することができる。出力システム122は、1つ以上の出力デバイスを含み得る。いくつかの例示的な例では、出力システム122の一部または全てが、コンピュータシステム124の一部と見なされ得る。これらの例示的な例では、出力システム122は、ディスプレイシステム128、音声システム130、または他の何らかのタイプの出力デバイスのうちの少なくとも1つを含み得る。ディスプレイシステム128は、例えば、スクリーン、タッチスクリーン、モニタ、ヘッドマウントディスプレイデバイス、または他の何らかのタイプのディスプレイデバイスのうちの少なくとも1つを含み得る。音声システム130は、例えば、マイクロホン、スピーカー、または他の何らかのタイプの音声デバイスのうちの少なくとも1つを含み得る。
センサシステム114を使用して、組立プロセス106の前、組立プロセス106中に、またはその両方でセンサデータ132を生成することができる。センサデータ132は、2次元(2D)撮像データ、3次元(3D)撮像データ、1つ以上の他のタイプのセンサデータ、またはそれらの組み合わせを含むことができる。センサデータ132は、処理のためにトレーニングマネージャ116および組立マネージャ118に送信される。いくつかの例示的な例では、センサデータ132の一部または全てが、データリポジトリ121に格納される。
組立プロセス106が始まる前に、トレーニングマネージャ116は、組立情報126、および任意選択でセンサデータ132を使用して、構造104を形成するために組み立てられるべき複数の部品102のうちの様々な部品および複数の段階108のうちの様々な段階を識別するように、組立マネージャ118をトレーニングする。さらに、トレーニングマネージャ116は、組立情報126、および任意選択でセンサデータ132を使用して、組立品110の品質メトリックを評価するように、組立マネージャ118をトレーニングする。
組立マネージャ118は、センサデータ132を処理して、組立プロセス106の現在の段階134を識別する。次に、組立マネージャ118は、現在の段階134のコンテキスト136を識別する。コンテキスト136は、例えば、現在の段階134の組立品110の公称状態、現在の段階134に存在すると予想される各部品の公称状態、現在の段階134の組立品110の公称状態の選択された許容誤差、組立品110の事前に識別された品質メトリックの選択された許容誤差、現在の段階134の前に完了したステップの識別、現在の段階134の間に完了されるべきステップの識別、現在の段階134の後に完了されるべき次のステップの識別、またはその他の情報のうちの少なくとも1つを含むことができる。
コンテキスト136は、人間のオペレータが全く識別できない、または組立現場105を見ること、もしくは視覚化することに基づいて迅速かつ容易に識別することができない情報を含んでもよい。例えば、組立プロセス106が多数の段階を含む場合、人間のオペレータは、現在の段階134または現在の段階134における組立品110の事前に識別された品質メトリックの選択された許容誤差、現在の段階134の前に完了したステップ、現在の段階134の間に完了されるべきステップ、または現在の段階134の後に完了されるべき次のステップを容易に識別できない場合がある。
現在の段階134について識別されたコンテキスト136に基づいて、組立マネージャ118は、出力システム122を介してガイダンス情報138を出力することができる。ガイダンス情報138は、例えば、現在の段階134で実行されるべきステップのリスト、現在の段階134の後に実行されるべき次のステップのリスト、またはその両方を含むことができる。ガイダンス情報138は、組立プロセス106中に実行されるべきタスクについて1人以上の人間のオペレータに通知するために使用される。
さらに、現在の段階134について識別されたコンテキスト136に基づいて、組立マネージャ118は、現在の段階134の組立品110を評価し、品質レポート140を生成することができる。品質レポート140は、品質評価と呼ばれることもある。品質レポート140は、組立品110の品質に関連する関心のある問題が存在するかどうかを示す。
組立マネージャ118によって識別された組立プロセス106の各段階について、組立マネージャ118は、対応する品質レポート140をデータリポジトリ121に格納して、組立プロセス106に関するレポートの履歴142を構築する。現在の段階134で、組立マネージャ118が、関心のある問題を検出した場合、ロールバック検証器120が、データリポジトリ121に格納された品質レポートの履歴142を逆順にロールバックして、関心のある問題の根本原因を識別することができる。
図2は、例示的な実施形態による、図1のトレーニングマネージャ116およびデータリポジトリ121のブロック図である。図1の組立プロセス106が組立現場105で実行される前に、トレーニングマネージャ116は、データリポジトリ121に格納された組立情報126を使用して、図1の複数の段階108のそれぞれを評価するように、図1の組立マネージャ118をトレーニングする。
トレーニングマネージャ116は、このトレーニングを実行するために、任意の数のアルゴリズムおよび手法を使用してもよい。例えば、トレーニングマネージャ116は、機械学習、ディープラーニング、コンピュータビジョン、他の何らかのタイプの計算論的学習、他の何らかのタイプの人工知能学習、またはそれらの組み合わせのうちの少なくとも1つを使用してもよい。
データリポジトリ121に格納された組立情報126は、様々なタイプの情報を含むことができる。例えば、組立情報126は、部品画像ライブラリ202、部品モデルライブラリ204、組立プロセスフローデータ206、組立現場モデルデータ208、組立品モデルデータ210、組立ビデオデータ212、特徴データ214、またはそれらの組み合わせを含むことができる。
部品画像ライブラリ202は、例えば、図1の複数の部品102の部品の少なくとも一部に関する1つ以上の画像を含むことができる。ある場合には、部品画像ライブラリ202は、複数の部品102のそれぞれに関する画像を含んでもよい。これらの例示的な例では、部品画像ライブラリ202はまた、以前に完了した組立プロセスからキャプチャされた部品の画像を、含んでもよい。
部品モデルライブラリ204は、例えば、図1の複数の部品102の部品の少なくとも一部に関する1つ以上のモデルを含むことができる。ある場合には、部品モデルライブラリ204は、複数の部品102のそれぞれに関するモデルを含んでもよい。部品のモデルは、例えば、コンピュータ支援設計(CAD)モデルであってもよい。
組立プロセスフローデータ206は、図1の組立プロセス106の複数の段階108のフローまたはシーケンスに関する情報を含むことができる。例示的な一例では、組立プロセスフローデータ206は、組立プロセス106の複数の段階108が進行すべきフローまたはシーケンスを表す有向組立グラフ216の形態をとる。ある場合には、この有向組立グラフ216は、互いに並行して行われるサブ段階を表すサブフローを含んでもよい。
組立現場モデルデータ208は、例えば、図1の組立現場105のベースラインモデルと、組立プロセス106の複数の段階108のそれぞれにおけるベースラインモデルの更新とを含むことができる。いくつかの例示的な例では、組立現場モデルデータ208は、複数の段階108の各段階における組立現場105のモデルを含む。組立現場モデルデータ208に含まれるモデルは、例えば、3次元モデルであってもよい。さらに、ある場合には、これらのモデルは、複数の段階108の各段階に含まれ、すでにその一部である部品の表現を含んでもよい。他の場合には、モデルは、部品のCADモデルにリンクされている。
組立品モデルデータ210は、複数の段階108における組立品110の様々な状態を表す任意の数のモデルを含むことができる。例示的な一例では、組立品モデルデータ210は、複数の段階108の第1段階での組立品110のベースラインモデルと、複数の段階108のそれぞれでの組立品110への1つ以上の部品の追加を反映するベースラインモデルの更新とを含む。組立ビデオデータ212は、組立プロセス106全体のビデオ、または以前に実行された組立プロセス106中にキャプチャされた組立プロセス106の様々な段階の複数のビデオを含むことができる。
特徴データ214は、様々な特徴に関する情報を含むことができる。特徴は、亀裂、へこみ、ねじれ、表面レベルの特徴、他のタイプの特徴、またはそれらの組み合わせを含むことができる。特徴データ214は、これらの特徴の画像を含んでもよい。これらの例示的な例では、特徴データ214は、各特徴についての選択された許容誤差を含む。例示的な一例として、特徴データ214は、亀裂の長さに対する選択された許容誤差、へこみの深さに対する選択された許容誤差、および他のタイプの選択された許容誤差を含むことができる。
これらの例示的な例では、トレーニングマネージャ116が、時間の経過とともに生成されるセンサデータ132を使用して、組立情報126を更新することができる。センサデータ132の分析が実行される全体的な精度と効率が、このタイプの更新によって改善される。
図3は、例示的な実施形態による、図1の組立マネージャ118のブロック図である。組立マネージャ118は、データアナライザ302および出力生成器304を含むことができる。
データアナライザ302は、データリポジトリ121に格納されたセンサデータ132および組立情報126を使用して、組立プロセス106中に複数の段階108の各段階を識別する。例えば、組立プロセス106中の任意の所与の時点で、データアナライザ302は、組立プロセス106の現在の段階134を識別するために、任意の数のアルゴリズムまたは手法を使用することができる。
例示的な一例では、センサデータ132は、組立現場105の撮像データ306、距離データ307、またはその両方を含む。撮像データ306は、組立現場105の2次元画像、3次元画像、ビデオ、またはそれらの組み合わせを含む。距離データ307は、レーダーセンサ、LiDARセンサ、赤外線センサ、または他の何らかのタイプのセンサのうちの少なくとも1つからのデータを含み得る。
これらの例示的な例では、データアナライザ302は、組立情報126と組み合わせて、機械学習、ディープラーニング、コンピュータビジョン、カスタマイズされた学習手法、他の何らかのタイプの計算論的学習、他の何らかのタイプの人工知能学習、またはそれらの組み合わせのうちの少なくとも1つを使用して、撮像データ306、距離データ307、またはその両方を用いて、オブジェクト308を検出および識別することができる。いくつかの例示的な例では、データアナライザ302は、オブジェクト308を検出および識別するために2次元撮像データのみを使用してもよい。
データアナライザ302は、組立情報126に基づいて、検出されたオブジェクト308を部品にマッチングさせる。例えば、データアナライザ302は、部品画像ライブラリ202、部品モデルライブラリ204、またはその両方を使用して、オブジェクト308を部品にマッチングさせることができる。このマッチングは、例えば、形状、サイズ、色、識別マーク、または他の何らかのタイプの比較ポイントに基づいて、実行することができる。
オブジェクト308が、部品とマッチングすると、それらは、マッチングしたオブジェクト309と呼ばれ得る。ある場合には、オブジェクト308の全てが、対応する部品にマッチングできるわけでない。したがって、マッチングしたオブジェクト309は、オブジェクト308の全てまたは部分集合を含むことができる。
データアナライザ302は、組立現場105の基準座標系に関するマッチングしたオブジェクト309の位置310および向き312を識別する。例えば、データアナライザ302は、最初に、ある特定の画像内のマッチングしたオブジェクト309の位置310を識別することができる。データアナライザ302は、その画像が生成された視点を、組立現場105のモデルに対する、画像を生成した撮像デバイスの対応する位置に同期させることができる。次に、レイトレーシングまたは他の何らかの手法を使用して、マッチングした各オブジェクトの位置を決定することができる。次に、そのマッチングしたオブジェクトの向きを決定することができる。他の例示的な例では、データアナライザ302は、組立品110の基準座標系に関するマッチングしたオブジェクト309の位置310および向き312を識別する。
データアナライザ302は、撮像データ306内の1つ以上の特徴314を識別することができる。特徴314は、組立品110の特定の部品、表面、または他の部分の特徴であってもよい。特徴314は、例えば、限定しないが、亀裂、へこみ、ねじれ、表面レベルの特徴、または他の何らかのタイプの特徴を含んでもよい。表面レベルの特徴は、例えば、平坦度のレベル、滑らかさのレベル、または何らかの他のタイプの表面特徴であってもよい。特徴は、選択された許容誤差を超えている場合、望ましくない特徴または不整合と見なされ得る。
データアナライザ302は、組立情報126と組み合わせて、機械学習、ディープラーニング、コンピュータビジョン、カスタマイズされた学習手法、他の何らかのタイプの計算論的学習、他の何らかのタイプの人工知能学習、またはそれらの組み合わせのうちの少なくとも1つを使用して、撮像データ306内のオブジェクト308を検出および識別することができる。
いくつかの例示的な例では、データアナライザ302は、さらに、撮像データ306内の現場要素315を識別する。現場要素315は、ツール、識別マーク、ラベル、ロボット、および組立現場105に存在し得る部品以外の要素を含むことができる。
マッチングしたオブジェクト309の識別、マッチングしたオブジェクト309の位置310、マッチングしたオブジェクト309の向き312、および現場要素315の組み合わせを使用して、データアナライザ302は、次に、組立プロセス106の現在の段階134を識別することができる。例えば、データアナライザ302は、上記の情報と組み合わせて組立情報126を使用して、現在の段階134を識別することができる。より具体的には、データアナライザ302は、図2の組立プロセスフローデータ206、組立現場モデルデータ208、組立品モデルデータ210、組立ビデオデータ212、何らかの他のタイプの情報、またはそれらの組み合わせを使用して、現在の段階134を識別することができる。ある場合には、現在の段階134の識別は、組立局所化較正または組立段階較正と呼ばれ得る。
現在の段階134が識別されると、データアナライザ302は、データリポジトリ121に格納されたコンテキスト情報316を使用して、現在の段階134のコンテキスト136を識別する。コンテキスト情報316はまた、組立情報126の一部を含んでもよい。例えば、コンテキスト情報316は、組立プロセス106の複数の段階108の各段階の品質メトリックを含んでもよい。
上述のように、現在の段階134のコンテキスト136は、現在の段階134の組立品110の公称状態、現在の段階134に存在すると予想される各部品の公称状態、現在の段階134の組立品110の公称状態の選択された許容誤差、組立品110の事前に識別された品質メトリックの選択された許容誤差、現在の段階134の前に完了したステップの識別、現在の段階134の間に完了されるべきステップの識別、現在の段階134の後に完了されるべき次のステップの識別、またはその他の情報のうちの少なくとも1つを含むことができる。
コンテキスト136が識別されると、出力生成器304は、ガイダンス情報138および品質レポート140を生成する。ガイダンス情報138は、組立プロセス106に関与する1人以上の人間のオペレータに通知するために使用される。ガイダンス情報138は、例えば、現在の段階のガイダンス318、次の段階のガイダンス320、またはその両方を含むことができる。
現在の段階のガイダンス318は、例えば、現在の段階134で実行されるべきステップのリストを含むことができる。ある場合には、現在の段階のガイダンス318は、現在の段階134の特定のタスクを実行する仕方に関する指示を含む。現在の段階のガイダンス318は、1つ以上の画像、ビデオ、またはその両方を含み、特定のタスクを実行する仕方に関して人間のオペレータをガイドするのを助けることができる。ガイダンス情報138は、図1のディスプレイシステム128を通して表示され得る。ある場合には、現在の段階のガイダンス318は、組立プロセス106の現在の段階134で特定のタスクを実行する仕方に関する音声指示などの音声ガイダンスを含む。これらの音声指示は、図1の音声システム130を通して人間のオペレータに対して出されてもよい。
次の段階のガイダンス320は、例えば、現在の段階134に続く次の段階で実行されるべきステップのリストを含むことができる。データアナライザ302、出力生成器304、またはその両方は、例えば、図2の有向組立グラフ216を使用して、この次の段階を識別することができる。いくつかの例示的な例では、次の段階のガイダンス320は、次の段階の特定のタスクを実行する仕方に関する指示を含む。次の段階のガイダンス320は、1つ以上の画像、ビデオ、またはその両方を含み、特定のタスクを実行する仕方に関して人間のオペレータをガイドするのを助けることができる。
ガイダンス情報138は、図1に記載された出力システム122を通して人間のオペレータに提示され得る。例えば、ガイダンス情報138は、図1のディスプレイシステム128を通して表示され得る。ある場合には、現在の段階のガイダンス318は、組立プロセス106の現在の段階134で特定のタスクを実行する仕方に関する音声指示などの音声ガイダンスを含んでもよい。これらの音声指示は、図1の音声システム130を通して人間のオペレータに対して出されてもよい。
さらに、現在の段階134について識別されたコンテキスト136、マッチングしたオブジェクト309、位置310、向き312、および現場要素315に基づいて、出力生成器304は、現在の段階134の組立品110を評価し、品質レポート140を生成する。品質レポート140は、組立品110の品質に関連する関心のある問題が存在するかどうかを示す。例えば、品質レポート140は、マッチング評価322、位置評価324、不整合評価326、または他の何らかのタイプの評価のうちの少なくとも1つを含む。
マッチング評価322は、オブジェクト308のうちの1つ以上が、対応する部品にマッチングすることができなかったかどうかを、示し得る。いくつかの例示的な例では、マッチング評価322は、マッチングしたオブジェクト309の1つ以上が、組立プロセス106の現在の段階134に存在すると予想される部品とマッチングしないかどうかを、示してもよい。位置評価324は、マッチングしたオブジェクト309が組立品110に対して正しい位置に組み立てられたか、または間違った位置に組み立てられたか、を示す。不整合評価326は、特徴314が識別されたかどうか、もしそうであれば、特徴314が選択された許容誤差を超えているかどうかを示す。データアナライザ302、出力生成器304、またはその両方が、図2の特徴データ214を使用して、特徴314が選択された許容誤差を超えているかどうかを決定することができる。
ある場合には、品質レポート140は、全体的な段階評価328を含んでもよい。全体的な段階評価328は、例えば、現在の段階134が選択された許容誤差内で進行しているかどうかの表示であってもよい。ある場合には、全体的な段階評価328は、「合格」、「境界線」、および「不合格」のうちの1つから選択された等級であってもよい。
品質レポート140は、様々な方法で出力システム122を介して人間のオペレータに提示され得る。例示的な一例では、品質レポート140は、ディスプレイシステム128に表示された組立現場105または組立品110の画像上に重ねられたグラフィカルインジケータを使用して提示されてもよい。例えば、画像内に識別された、正しい部品ならびに正しい位置および向きにマッチングしたオブジェクトは、第1のタイプのグラフィカルインジケータ(例えば、オブジェクトの周りの緑色の円、緑色の矢印など)で示されてもよい。画像内に識別された、ミスマッチした、間違った位置にある、または間違った向きを有するオブジェクトは、第2のタイプのグラフィカルインジケータ(例えば、オブジェクトの周りの赤色の円、赤色の矢印など)で示されてもよい。上記のように、ミスマッチしたオブジェクトは、現在の段階134に存在するべきでない部品にマッチングしたオブジェクト、またはどの部品にもマッチングしなかったオブジェクトであってもよい。
センサデータ132および組立マネージャ118によって生成された様々な情報は、データリポジトリ121に格納される。例えば、段階レコード330が、現在の段階134に関連してデータリポジトリ121に格納されてもよい。段階レコード330は、センサデータ132、オブジェクト308の識別、マッチングしたオブジェクト309の識別、位置310、向き312、および品質レポート140を含むことができる。ある場合には、段階レコード330は、ガイダンス情報138を含んでもよい。データリポジトリ121に格納されると、段階レコード330は、履歴142の一部になる。したがって、このタイプのレコードの履歴142は、識別および分析された複数の段階108の各段階のレコードを含む。
図1〜図3の図は、例示的な実施形態が実施され得る方法に対する物理的またはアーキテクチャ上の制限を暗示することを意図したものではない。図示されたコンポーネントに加えて、またはそのコンポーネントの代わりに、他のコンポーネントが使用されてもよい。一部のコンポーネントは、任意選択であってもよい。さらに、いくつかの機能コンポーネントを図示するために、ブロックが提示されている。これらのブロックのうちの1つ以上のブロックが、異なる例示的な実施形態で実施される場合に、結合され、または分割され、または結合および分割されて異なるブロックになってもよい。
図4は、例示的な実施形態による、組立現場の図である。組立現場400は、図1に記載された組立現場105の一実施態様の例であり得る。翼組立品402が、最終的に翼を形成するために組立現場400で組み立てられている。翼組立品402は、図1に記載された組立品110の一実施態様の例である。翼組立品402は、複数の部品404から構成される。
図示されているように、監視および検査システム406が、組立現場400に少なくとも部分的に存在する。監視および検査システム406は、図1の監視および検査システム112の一実施態様の例である。監視および検査システム406は、検査プラットフォーム408および検査プラットフォーム410を含む。この例示的な例では、検査プラットフォーム408および検査プラットフォーム410は、静止プラットフォームを使用して実施され得る。他の例示的な例では、検査プラットフォーム408および検査プラットフォーム410は、可動プラットフォームを使用して実施され得る。図4には2つのプラットフォームのみが示されているが、任意の数のプラットフォームが、組立現場400に存在してよい。
この例示的な例では、検査プラットフォーム408は、回転カメラ412および制御システム414を含む。同様に、検査プラットフォーム410は、回転カメラ416および制御システム418を含む。回転カメラ412および回転カメラ416は、図1のセンサシステム114の一実施態様の例である。回転カメラ412および回転カメラ416は、2次元画像を生成し得る。他の例示的な例では、検査プラットフォーム408および検査プラットフォーム410は、3次元カメラシステム、LiDARセンサシステム、または他のタイプのセンサを装備することができる。
制御システム414および制御システム418はそれぞれ、プロセッサ、メモリ、および通信ユニットを含むことができる。制御システム414および制御システム418は、それぞれ回転カメラ412および回転カメラ416の動作を制御することができる。さらに、制御システム414および制御システム418は、これらのカメラによって生成された撮像データを処理し、処理されたデータを、さらなる処理のために遠隔のコンピュータシステム(例えば、図1のコンピュータシステム124)に送信することができる。他の例示的な例では、制御システム414および制御システム418のプロセッサは、図1に記載されたコンピュータシステム124の一部として互いと通信する。
ある場合には、照明装置(図示せず)が、検査プラットフォーム408および検査プラットフォーム410のそれぞれに取り付けられるか、または一体化されてもよい。照明装置は、回転カメラ412および回転カメラ416が、より高品質の画像をキャプチャするのに役立ち得る。
回転カメラ412および回転カメラ416によって生成された撮像データは、翼組立品402の組み立て中に、自動化された検査を実行するために使用される、組立現場400および翼組立品402の画像を含む。さらに、撮像データは、組立の現在の段階に基づいて人間のオペレータ420にガイダンスを提供するために使用される。
図5は、例示的な実施形態による、組立プロセスの自動化された監視および検査を実行するための方法のフローチャートである。図5に示されている方法500は、図1〜図3に記載されている監視および検査システム112を使用して実行することができる。方法500を使用して、図1の組立現場105での組立プロセス106の監視および検査を自動化することができる。
方法500は、組立現場に対して配置されたセンサシステムを使用して組立現場でセンサデータを生成することにより、開始することができる(工程502)。例示的な一例では、センサシステムは、組立現場および組立現場で組み立てられている組立品に対して配置された複数のカメラを含む。ある場合には、1つ以上のカメラが、回転カメラであってもよい。
組立現場で組立品を組み立てるための組立プロセスの現在の段階が、センサデータを使用して識別される(工程504)。その後、組立プロセスの現在の段階のコンテキストが識別される(工程506)。上記のように、組立プロセスの段階は、単一の段階、段階のシーケンス、サブ段階のシーケンス、部分組立プロセスの段階、組立プロセスのステップ、部分組立プロセスのステップ、または組立プロセス中に並行して実行される2つ以上のステップもしくはサブ段階であってもよい。
次に、センサデータおよび現在の段階のコンテキストに基づいて、組立品の品質レポートが生成され(工程508)、その後、方法は終了する。品質レポートは、関心のある問題が少なくとも1つ存在するかどうかを示す評価を含む自動化されたレポートである。関心のある問題は、不適切な部品、不適切な部品位置、不適切な向き、亀裂、へこみ、ねじれ、表面の不整合、またはそれらの組み合わせであってもよい。方法500は、組立プロセスの各段階で繰り返されてもよい。
図6は、例示的な実施形態による、組立プロセスの自動化された監視および検査を実行するための方法のフローチャートである。図6に示されている方法600は、図1〜図3に記載されている監視および検査システム112を使用して実行することができる。方法600を使用して、図1の組立現場105での組立プロセス106の監視および検査を自動化することができる。
方法600は、組立現場に対して配置されたセンサシステムを使用して組立現場でセンサデータを生成することにより、開始する(工程602)。これらの例示的な例では、センサシステムは、組立現場で組み立てられている組立品に対して所定の固定位置に配置された複数のカメラを含む。これらの位置は、組立プロセスを評価するために最も多くの情報と最適な角度を提供する画像を提供するように選択される。カメラは、画像、ビデオ、またはその両方を生成してもよい。
次に、組立現場で組立品を組み立てるための組立プロセスの現在の段階が、センサデータ、データリポジトリに格納された組立情報、および機械学習、ディープラーニング、コンピュータビジョン、カスタマイズされた学習手法、計算論的学習、または人工知能学習のうちの少なくとも1つを使用して、識別される(工程604)。その後、現在の段階のコンテキストが識別される(工程606)。
組立プロセスの現在の段階に対応する品質レポートが、センサデータおよび現在の段階のコンテキストに基づいて生成される(工程608)。組立プロセスの現在の段階に対応するレコードが、データリポジトリに格納され、それにより組立プロセスのレコードの履歴が構築され(工程610)、その後、方法は終了する。レコードは、センサデータの少なくとも一部および品質レポートを含む。
図7は、例示的な実施形態による、組立プロセスの現在の段階を識別するための方法のフローチャートである。図7に示されている方法700は、図1〜図3に記載されている監視および検査システム112を使用して実行することができる。より具体的には、方法700は、図1および図3に記載された組立マネージャ118を使用して実行することができる。
方法700は、撮像システムによって生成された撮像データを使用して複数のオブジェクトを検出することによって開始する(工程702)。撮像システムは、組立現場および組立現場の組立品に対して配置された1つ以上のカメラを含むことができる。
次に、複数のオブジェクトの少なくとも一部が、組立品の部品とマッチングされて、それにより複数のマッチングしたオブジェクトが確立される(工程704)。工程704は、部品の画像または部品のモデルの少なくとも一方を使用して実行することができる。例えば、工程704は、図2の部品画像ライブラリ202および部品モデルライブラリ204を使用して実行することができる。工程704では、各オブジェクトが、組立品の既知の部品と比較されて、既知の部品とマッチングされるか、またはマッチングしていないとしてフラグがつけられる。これらの例示的な例では、複数のオブジェクトの少なくとも一部を、組立品の既知の部品にマッチングさせることは、機械学習、ディープラーニング、コンピュータビジョン、カスタマイズされた学習手法、計算論的学習、または人工知能学習のうちの少なくとも1つを使用して実行され得る。
その後、複数のマッチングしたオブジェクトについて、複数の位置または複数の向きのうちの少なくとも一方が、組立現場の基準座標系に関して識別される(工程706)。例えば、組み立てられている組立品の既知の部品にマッチングした各オブジェクトについて、組立現場の基準座標系に関する位置、向き、またはその両方が計算される。いくつかの例示的な例では、基準座標系は、組立品自体に関してでもよい。マッチングしたオブジェクトの位置は、組立現場に対するカメラの既知の位置、したがって組立品または組立現場のモデル(例えば、CADモデル)に対するカメラの既知の位置を使用して、識別されてもよい。
組立プロセスの現在の段階が、複数のマッチングしたオブジェクトの識別、および複数のマッチングしたオブジェクトについて識別された複数の位置または複数の向きのうちの少なくとも一方に基づいて、決定され(工程708)、その後、方法は終了する。工程708は、マッチングしたオブジェクトの位置、向き、またはその両方を、組立プロセス中の様々な段階での組立品のモデル、組立プロセス中の様々な段階での組立現場のモデル、またはその両方と比較することによって、実行され得る。図2の組立プロセスフローデータ206、組立現場モデルデータ208、組立品モデルデータ210、組立ビデオデータ212、またはそれらの組み合わせを使用して、組立プロセスの現在の段階を決定することができる。
図8は、例示的な実施形態による、ロールバック検証を実行するための方法のフローチャートである。図8に示されている方法800は、図1〜図3に記載されている監視および検査システム112を使用して実行することができる。より具体的には、方法800は、図1に記載されたロールバック検証器120を使用して実行することができる。
関心のある問題が存在していることを、組立プロセスの現在の段階の品質レポートが示しているかどうかを、決定することから、方法800は開始することができる(工程802)。関心のある問題は、不適切な部品、不適切な部品位置、不適切な向き、亀裂、へこみ、ねじれ、表面の不整合、または他の何らかのタイプの関心のある問題のうちの1つであってもよい。不適切な部品は、間違った部品が組立品に追加されたことを意味する。不適切な部品位置は、正しい部品が、間違った位置で組み立てられているか、間違った位置で組立品に追加されていることを、意味し得る。不適切な向きは、正しい部品が組立品に対して間違った向きを有することを、意味し得る。
関心のある問題が存在しない場合、方法は終了する。そうではなく、関心のある問題が存在する場合、組立プロセスの現在の段階が、処理のために選択される(工程804)。選択された段階に対応するレコードが、データリポジトリの履歴から取り出されて、分析される(工程806)。
その後、関心のある問題の根本原因が、組立プロセスの選択された段階で発生したかどうかに関する決定が、行われる(工程808)。根本原因が組立プロセスの選択された段階で発生した場合、レポートが生成され(工程810)、その後、方法は終了する。レポートは、アラートまたは関心のある問題に関する情報の通知であってもよい。ある場合には、レポートは、問題について人間のオペレータによりよく知らせることができるように、画像、ビデオ、またはその両方を含む。
しかし、組立プロセスの選択された段階で根本原因が発生しなかった場合、選択された段階が組立プロセスの最初の段階であったかどうかに関する決定が、行われる(工程812)。選択された段階が、組立プロセスの最初の段階であった場合、方法は、上記の工程810に進む。ここで、レポートは、根本原因を識別できなかったことを示す通知、アラート、または実質的なレポートの形態を取ることができる。
選択された段階が、組立プロセスの最初の段階ではなかった場合、選択された段階の直前に行われた組立プロセスの段階が、処理のために選択され(工程814)、方法は、上述の工程806に戻る。このようにして、方法800は、データリポジトリに格納されたレコードの履歴を、効率的にロールバックする。以前の組立ステップに関する情報が、人間の介入や広範囲の分解(例えば、すでに実行された組立ステップの逆戻り)を必要とせずに、分析および評価され得る。
したがって、このタイプのロールバック検証は、非常に困難または時間がかかって人間のオペレータでは実行できないような仕方で、組立プロセスの自動化された検査および品質管理を可能にする。人間のオペレータであれば、問題の根本原因を識別するために、組立プロセスを逆戻りさせて組立品の一部を分解する必要があるかもしれない。しかしながら、上記のロールバック検証プロセスは、組立の現在の段階より前に発生した問題の根本原因を簡単、迅速、効率的に識別するための自動化された方法である。
図9は、例示的な実施形態による、組立プロセスの自動化された監視および検査のための方法のフローチャートである。図9に示されている方法900は、図1〜図3に記載されている監視および検査システム112を使用して実行することができる。
方法900は、組立プロセスの現在の段階および組立プロセスの現在の段階のコンテキストを識別することによって、開始することができる(工程902)。次に、アクティブ部品が、撮像データに基づいて識別される(工程904)。撮像データは、組立現場に対して固定位置にある1つ以上のカメラによって生成され得る。アクティブ部品は、例えば、取り付けのために人間のオペレータまたはロボットによって保持されている部品であってもよい。工程904で実行される識別は、機械学習、コンピュータビジョン、または他のタイプの学習手法を使用して実行され得る。
その後、アクティブ部品のアクティブターゲット位置が、撮像データに基づいて識別される(工程906)。アクティブターゲット位置は、機械学習、コンピュータビジョン、または他のタイプの学習手法、および組立現場または組み立てられるべき組立品の3Dモデルを使用して、識別され得る。いくつかの例示的な例では、オペレータが、部品取り付けタスクを開始すると、ターゲット位置が、アクティブ組立検出と組み合わされた近接性に基づく検出によって、識別されてもよい。
次に、アクティブ部品とアクティブターゲット位置が、組立品の既知の部品とマッチングされる(工程908)。このマッチングが適切であるかどうかの決定が行われる(工程910)。アクティブ部品とアクティブターゲット位置の組み合わせが、組立プロセスの現在の段階において正しい場合、マッチングは適切と見なされ得る。
マッチングが適切である場合、撮像データを使用して、関心のある問題が存在するかどうかを決定する(工程912)。この決定は、機械学習、コンピュータビジョン、または他のタイプの学習アルゴリズムに基づいて行うことができる。工程912では、既知のタイプの問題および事前に定義された品質メトリックに基づいて、決定が行われる。
問題が存在する場合、問題の根本原因を識別するために、ロールバック検証プロセスが実行され、対応するレポートが生成される(工程914)。次に、方法は、組立プロセスの現在の段階がまだアクティブであるかどうかを決定する(工程916)。現在の段階は、組立プロセスのこの段階の一部として実行されるべき追加のステップまたはタスクがある場合、まだアクティブであると見なされる。現在の段階がまだアクティブである場合、方法は、上記の工程904に戻る。そうでない場合、方法は、上記の工程902に戻る。
再び工程912を参照すると、関心のある問題が存在しない場合、方法は、工程916に進む。再び工程910を参照すると、マッチングが適切でない場合、レポートが生成され(工程918)、次に、方法は、上述の工程904に進む。これにより、人間のオペレータまたはロボットは、新しいアクティブ部品または新しいアクティブターゲット位置を選択することができる。
工程918の後に工程902に戻ることにより、方法は、組立プロセスのアクティブ段階を「前進」させ、決定を行うために新しいコンテキストを使用してもよい。進むべき次の段階がない場合、組立プロセスは完了する。このように、組立プロセスが完了するまで、この方法が繰り返される。
図示された様々な実施形態におけるフローチャートおよびブロック図は、例示的な実施形態における装置および方法のいくつかの可能な実施態様のアーキテクチャ、機能、および動作を示している。これに関して、フローチャートまたはブロック図の各ブロックは、モジュール、セグメント、機能、および/または工程もしくはステップの一部を表してもよい。
例示的な実施形態のいくつかの代替的な実施態様では、ブロックに記載されている機能は、図に記載されている順序以外で起こってもよい。例えば、ある場合には、連続して示される2つのブロックは、関連する機能に応じて、実質的に同時に実行されてもよいし、または逆の順序で実行されてもよい。また、フローチャートまたはブロック図に示されているブロックに加えて、他のブロックを追加することもできる。
次に、図10を参照すると、ブロック図の形態のデータ処理システムの図が、例示的な実施形態に従って示されている。データ処理システム1000を使用して、図1のコンピュータシステム124を実現することができる。図示のように、データ処理システム1000は、プロセッサユニット1004、記憶デバイス1006、通信ユニット1008、入出力ユニット1010、およびディスプレイ1012間の通信を提供する通信フレームワーク1002を含む。ある場合には、通信フレームワーク1002は、バスシステムとして実装されてもよい。
プロセッサユニット1004は、ソフトウェアがいくつかの工程を実行するための命令を実行するように構成される。プロセッサユニット1004は、実施態様に応じて、いくつかのプロセッサ、マルチプロセッサコア、および/または他の何らかのタイプのプロセッサを備えてもよい。ある場合には、プロセッサユニット1004は、回路システム、特定用途向け集積回路(ASIC)、プログラマブルロジックデバイス、または他の何らかの適切なタイプのハードウェアユニットなどのハードウェアユニットの形態を取ることができる。
プロセッサユニット1004によって実行されるオペレーティングシステム、アプリケーション、および/またはプログラムの命令は、記憶デバイス1006に配置されてもよい。記憶デバイス1006は、通信フレームワーク1002を介してプロセッサユニット1004と通信することができる。本明細書で使用するとき、コンピュータ可読記憶デバイスとも呼ばれる記憶デバイスは、一時的および/または恒久的に情報を記憶することができる任意のハードウェアである。この情報は、データ、プログラムコード、および/または他の情報を含むことができるが、これらに限定されない。
メモリ1014および永続性ストレージ1016は、記憶デバイス1006の例である。メモリ1014は、例えば、ランダムアクセスメモリまたは何らかのタイプの揮発性または不揮発性記憶デバイスの形態を取ることができる。永続性ストレージ1016は、任意の数のコンポーネントまたはデバイスを備えてもよい。例えば、永続性ストレージ1016は、ハードドライブ、フラッシュメモリ、書き換え可能な光ディスク、書き換え可能な磁気テープ、または上記の何らかの組み合わせを備えてもよい。永続性ストレージ1016によって使用される媒体は、取り外し可能であってもなくてもよい。
通信ユニット1008は、データ処理システム1000が他のデータ処理システムおよび/またはデバイスと通信することを可能にする。通信ユニット1008は、物理的および/または無線通信リンクを使用して通信を提供することができる。
入出力ユニット1010は、データ処理システム1000に接続された他のデバイスから入力を受信し、他のデバイスへ出力を送信することを可能にする。例えば、入出力ユニット1010は、キーボード、マウス、および/または何らかの他のタイプの入力デバイスを介してユーザ入力を受け取ることを可能にし得る。別の例として、入出力ユニット1010は、データ処理システム1000に接続されたプリンタに出力を送信することを可能にし得る。
ディスプレイ1012は、情報をユーザに表示するように構成されている。ディスプレイ1012は、例えば、限定ではないが、モニタ、タッチスクリーン、レーザーディスプレイ、ホログラフィックディスプレイ、仮想ディスプレイデバイス、および/または何らかの他のタイプのディスプレイデバイスを備えてもよい。
この例示的な例において、様々な例示的な実施形態の方法が、コンピュータで実施される命令を使用してプロセッサユニット1004によって実行され得る。これらの命令は、プログラムコード、コンピュータ使用可能プログラムコード、またはコンピュータ可読プログラムコードと呼ばれることもあり、プロセッサユニット1004内の1つ以上のプロセッサによって読み取られて実行することができる。
これらの例では、プログラムコード1018は、選択的に取り外し可能なコンピュータ可読媒体1020上に機能的な形で配置され、プロセッサユニット1004による実行のためにデータ処理システム1000にロードまたは転送することができる。プログラムコード1018とコンピュータ可読媒体1020は一緒になってコンピュータプログラム製品1022を形成する。この例示的な例では、コンピュータ可読媒体1020は、コンピュータ可読記憶媒体1024またはコンピュータ可読信号媒体1026であってもよい。
コンピュータ可読記憶媒体1024は、プログラムコード1018を伝播または送信する媒体ではなく、プログラムコード1018を格納するために使用される物理的または有形の記憶デバイスである。コンピュータ可読記憶媒体1024は、例えば、限定ではないが、データ処理システム1000に接続された光ディスクもしくは磁気ディスクまたは永続性ストレージデバイスであってもよい。
あるいは、プログラムコード1018は、コンピュータ可読信号媒体1026を使用してデータ処理システム1000に転送されてもよい。コンピュータ可読信号媒体1026は、例えば、プログラムコード1018を含む伝播データ信号であってもよい。このデータ信号は、電磁信号、光信号、ならびに/または物理的および/もしくは無線通信リンクを介して送信できる他の何らかのタイプの信号であってもよい。
図10のデータ処理システム1000の図は、例示的な実施形態が実施され得る方法にアーキテクチャ上の制限を提供することを意図していない。異なる例示的な実施形態が、データ処理システム1000について図示されたコンポーネントに加えて、またはそのコンポーネントの代わりにコンポーネントを含むデータ処理システムで実施されてもよい。さらに、図10に示されるコンポーネントは、示されている例示的な例とは異なっていてもよい。
本開示の例示的な実施形態は、図11に示すような航空機製造および保守方法1100ならびに図12に示すような航空機1200の状況で説明されてもよい。最初に図11を参照すると、例示的な実施形態による航空機製造および保守方法の図が示されている。生産前に、航空機製造および保守方法1100は、図12の航空機1200の仕様および設計1102ならびに材料調達1104を含むことができる。
生産中に、図12の航空機1200のコンポーネントおよびサブアセンブリの製造1106ならびにシステムインテグレーション1108が行われる。その後、図12の航空機1200は、運航1112に供されるために認証および引き渡し1110を経ることができる。顧客による運航1112中、図12の航空機1200は、改造、再構成、改修、および他の整備または保守を含み得る定期的な整備および保守1114に予定されている。
航空機製造および保守方法1100の各工程は、システムインテグレータ、サードパーティ、および/またはオペレータによって実行または実施することができる。これらの例では、オペレータは、顧客であってもよい。この説明の目的のために、システムインテグレータは、限定されないが、任意の数の航空機製造業者および主要システム下請業者を含んでもよく、サードパーティは、限定されないが、任意の数のベンダー、下請業者、およびサプライヤを含んでもよく、オペレータは、航空会社、リース会社、軍事組織、サービス組織などであってもよい。
次に図12を参照すると、例示的な実施形態を実施することができる航空機の図が示されている。この例では、航空機1200は、図11の航空機製造および保守方法1100によって生産されて、複数のシステム1204および内部1206を備えた機体1202を含むことができる。システム1204の例は、推進システム1208、電気システム1210、油圧システム1212、および環境システム1214のうちの1つ以上を含む。任意の数の他のシステムが含まれてもよい。航空宇宙産業の例が示されているが、様々な例示的な実施形態が、自動車産業などの他の産業に適用されてもよい。
本明細書で具現化された装置および方法が、図11の航空機製造および保守方法1100の段階のうちの少なくとも1つで用いられ得る。詳細には、図1の構造104が、航空機製造および保守方法1100の段階のいずれか1つで製造され得る。例えば、限定ではないが、組立品110は、コンポーネントおよびサブアセンブリの製造1106、システムインテグレーション1108、定期的な整備および保守1114、または航空機製造および保守方法1100の他の何らかの段階の少なくとも1つで、複数の部品102を使用して組み立てられ得る。さらに、監視および検査システム112は、組立品110を組み立てるための組立プロセスの自動化された監視および検査を提供し得る。監視および検査システム112を使用して、機体1202、内部1206、または航空機1200の他の何らかの部分の一部である構造の監視および検査を自動化することができる。
例示的な一例では、図11のコンポーネントおよびサブアセンブリの製造1106で生産されるコンポーネントまたはサブアセンブリは、航空機1200が図11の運航1112中である間に生産されるコンポーネントまたはサブアセンブリと同様の方法で製作または製造され得る。さらに別の例として、1つ以上の装置の実施形態、方法の実施形態、またはそれらの組み合わせが、図11のコンポーネントおよびサブアセンブリの製造1106ならびにシステムインテグレーション1108などの生産段階で利用され得る。1つ以上の装置の実施形態、方法の実施形態、またはそれらの組み合わせは、航空機1200が運航1112中である間に、ならびに/または図11の整備および保守1114中に、利用されてもよい。いくつかの様々な例示的な実施形態の使用は、航空機1200の組立を実質的に促進し、かつ/または航空機1200のコストを削減することができる。
このように、例示的な実施形態は、組立プロセスの監視および検査のための自動化されたシステムおよび方法を提供する。監視および検査のための自動化されたシステムおよび方法は、他のタイプの乗り物および乗り物構造の組立(例えば、自動車の組立、宇宙船の組立など)に使用されてもよい。
本明細書で使用されるとき、「少なくとも1つ」という語句は、項目のリストとともに使用される場合、リストの項目のうちの1つ以上の項目の種々の組み合わせが使用されてもよく、かつリストの項目のうちの1つのみが必要とされればよいことを意味する。項目は、ある特定の物、物事、ステップ、動作、プロセス、またはカテゴリであってよい。言い換えれば、「少なくとも1つ」は、任意の組合せの項目または任意の数の項目が、リストから使用されてもよいが、リストの項目の全てが必要とは限らなくてもよいことを意味する。例えば、限定しないが、「項目A、項目B、または項目Cの少なくとも1つ」または「項目A、項目B、および項目Cの少なくとも1つ」は、項目A;項目Aおよび項目B;項目B;項目A、項目B、および項目C;項目Bおよび項目C;または項目Aおよび項目Cを、意味し得る。ある場合には、「項目A、項目B、または項目Cの少なくとも1つ」または「項目A、項目B、および項目Cの少なくとも1つ」は、限定しないが、項目Aが2個、項目Bが1個、および項目Cが10個;項目Bが4個および項目Cが7個;または他の何らかの適切な組み合わせを意味し得る。
さらに、本開示は、以下の条項による実施形態を含む。
条項1. コンピュータシステムを使用して実施される、組立プロセスの自動化された監視および検査を実行するための方法であって、
組立現場に対して配置されたセンサシステムを使用して、組立現場でセンサデータを生成することと、
組立現場で組立品を組み立てるための組立プロセスの現在の段階を、コンピュータシステムが、センサデータに基づいて識別することと、
コンピュータシステムが、現在の段階のコンテキストを識別することと、
コンピュータシステムが、センサデータおよび現在の段階のコンテキストに基づいて、組立品の品質レポートを生成することと、を含む方法。
条項2. センサデータを生成することが、
組立品および組立現場に対して配置された撮像システムのセットを使用して、撮像データを生成することを含む、条項1の方法。
条項3. 撮像データが、2次元撮像データである、条項2の方法。
条項4. コンピュータシステムが組立プロセスの現在の段階を識別することが、
コンピュータシステムが、撮像データを使用して複数のオブジェクトを検出することと、
コンピュータシステムが、部品の画像または部品のモデルの少なくとも一方を使用して、複数のオブジェクトの少なくとも一部を、組立品の部品にマッチングさせることであって、部品にマッチングされた複数のオブジェクトの一部が、複数のマッチングしたオブジェクトである、マッチングさせることと、を含む、条項2の方法。
条項5. コンピュータシステムが複数のオブジェクトの少なくとも一部を部品にマッチングさせることが、
機械学習、ディープラーニング、コンピュータビジョン、カスタマイズされた学習手法、計算論的学習、または人工知能学習、の少なくとも1つを使用して、コンピュータシステムが、複数のオブジェクトの少なくとも一部を組立品の部品にマッチングさせることを含む、条項4の方法。
条項6. コンピュータシステムが組立プロセスの現在の段階を識別することが、
コンピュータシステムが、組立現場の基準座標系に関して、複数のマッチングしたオブジェクトの複数の位置および複数の向きの少なくとも一方を決定することと、
コンピュータシステムが、複数のマッチングしたオブジェクトの識別および複数のマッチングしたオブジェクトの複数の位置または複数の向きの少なくとも一方に基づいて、組立プロセスの現在の段階を決定することと、をさらに含む、条項4の方法。
条項7. コンピュータシステムがコンテキストを識別することが、
コンピュータシステムが、データリポジトリに格納されたコンテキスト情報を使用して、組立プロセスの現在の段階のコンテキストを決定することであって、コンテキストが、現在の段階の組立品の公称状態、現在の段階に存在すると予想される各部品の公称状態、現在の段階の組立品の公称状態の選択された許容誤差、現在の段階の前に完了されたステップの識別、現在の段階の間に完了されるべきステップの識別、または現在の段階の後に完了されるべきステップの識別、の少なくとも1つを含む、決定することを含む、条項6の方法。
条項8. コンピュータシステムが品質レポートを生成することが、
検出された複数のオブジェクトの1つ以上が、対応する部品とマッチングできないかどうか、および複数のマッチングしたオブジェクトの1つ以上が、組立プロセスの現在の段階に存在すると予想される部品とマッチングしないかどうか、を示すマッチング評価を、コンピュータシステムが生成することを含む、条項6の方法。
条項9. コンピュータシステムが品質レポートを生成することが、
複数のマッチングしたオブジェクトのそれぞれが、正しい位置に組み立てられたか、または間違った位置に組み立てられたかを、組立プロセスの現在の段階のコンテキストに基づいて示す位置評価を、コンピュータシステムが生成することを含む、条項6の方法。
条項10. コンピュータシステムが品質レポートを生成することが、
特徴が識別されたかどうか、および識別された特徴が、選択された許容誤差を超えているかどうか、を示す不整合評価を、コンピュータシステムが生成することであって、特徴が、亀裂、へこみ、ねじれ、または表面レベルの特徴のうちの1つから選択される、生成することを含む、条項6の方法。
条項11. 機械学習、ディープラーニング、コンピュータビジョン、カスタマイズされた学習手法、計算論的学習、または人工知能学習、の少なくとも1つを使用して、コンピュータシステムが、組立品に1つ以上の特徴を検出することを、さらに含む、条項10の方法。
条項12. 組立プロセス中に人間のオペレータをガイドするためのガイダンス情報を、コンピュータシステムが、組立プロセスの現在の段階のコンテキストに基づいて生成することを、さらに含む、条項1から11のいずれかの方法。
条項13. ガイダンス情報を生成することが、
組立プロセスの現在の段階で1つ以上のタスクを実行するために人間のオペレータが使用するための現在の段階のガイダンスを、コンピュータシステムが生成することを含む、条項12の方法。
条項14. コンピュータシステムがガイダンス情報を生成することが、
組立プロセスの次の段階で1つ以上のタスクを実行するために人間のオペレータが使用するための次の段階のガイダンスを、コンピュータシステムが生成することを含む、条項12の方法。
条項15. 組立現場に対して配置されたディスプレイシステムにガイダンス情報を、コンピュータシステムが表示することを、さらに含む、条項12の方法。
条項16. コンピュータシステムが、組立プロセスの現在の段階に対応するレコードの一部として品質レポートをデータリポジトリに格納し、それにより組立プロセスのレコードの履歴を構築することを、さらに含む、条項1から15のいずれかの方法。
条項17. 組立プロセスの現在の段階の品質レポートが、関心のある問題が存在することを示しているかどうかを、コンピュータシステムが決定することと、
コンピュータシステムが、レコードの履歴をロールバックして、関心のある問題の根本原因を識別することと、をさらに含む、条項16の方法。
条項18. レコードの履歴をロールバックすることが、
組立プロセスの現在の段階の直前の、組立プロセスの選択された段階に対応する第1のレコードを、コンピュータシステムが分析することを含む、条項17の方法。
条項19. レコードの履歴をロールバックすることが、
選択された段階で根本原因が発生したかどうかを、コンピュータシステムが決定することと、
選択された段階の直前の、組立プロセスの別の段階に対応する第2のレコードを、コンピュータシステムが分析することと、をさらに含む、条項18の方法。
条項20. コンピュータシステムを使用して実施される、組立プロセスの自動化された監視および検査を実行するための方法であって、
組立現場に対して配置されたセンサシステムを使用して、組立現場でセンサデータを生成することと、
センサデータ、データリポジトリに格納された組立情報、および機械学習、ディープラーニング、コンピュータビジョン、カスタマイズされた学習手法、計算論的学習、または人工知能学習、の少なくとも1つを使用して、組立現場で組立品を組み立てるための組立プロセスの現在の段階を、コンピュータシステムが識別することと、
コンピュータシステムが、現在の段階のコンテキストを識別することと、
コンピュータシステムが、センサデータおよび現在の段階のコンテキストに基づいて、組立品の品質レポートを生成することと、
コンピュータシステムが、組立プロセスの現在の段階に対応するレコードをデータリポジトリに格納し、それにより組立プロセスのレコードの履歴を構築することであって、レコードが、センサデータの少なくとも一部および品質レポートを含む、構築することと、を含む方法。
条項21. 組立プロセスの現在の段階の品質レポートが、関心のある少なくとも1つの問題が存在することを示しているかどうかを、コンピュータシステムが決定することであって、関心のある少なくとも1つの問題が、不適切な部品、不適切な部品位置、不適切な向き、亀裂、へこみ、ねじれ、および表面の不整合のうちの1つから選択される、決定することを、さらに含む、条項20の方法。
条項22. コンピュータシステムが、レコードの履歴をロールバックして、関心のある少なくとも1つの問題の根本原因を識別することを、さらに含む、条項21の方法。
条項23. コンピュータシステムが、組立プロセス中に人間のオペレータが使用するための現在の段階のガイダンスまたは次の段階のガイダンスの少なくとも一方を生成することを、さらに含む、条項20から22のいずれかの方法。
条項24. コンピュータシステムが、現在の段階のガイダンスまたは次の段階のガイダンスの少なくとも一方をディスプレイシステムに表示することを、さらに含む、条項23の方法。
条項25. コンピュータシステムが、品質レポートの少なくとも一部をディスプレイシステムに提示して、人間のオペレータに品質レポートを知らせることを、さらに含む、条項20から24のいずれかの方法。
条項26. 組立プロセスの自動化された監視および検査のためのシステムであって、
組立現場および組立現場で組み立てられている組立品に対して配置されたセンサシステムと、
センサシステムによって生成されたセンサデータに基づいて、組立現場で組立品を組み立てるための組立プロセスの現在の段階を識別し、現在の段階のコンテキストを識別し、センサデータおよび現在の段階のコンテキストに基づいて、組立品の品質レポートを生成するコンピュータシステムと、を備えるシステム。
条項27. センサシステムが、組立現場に対して配置された少なくとも1つのカメラを含み、カメラが、2次元撮像データを生成する、条項26のシステム。
条項28. コンピュータシステムが、センサデータ、データリポジトリに格納された組立情報、および機械学習、ディープラーニング、コンピュータビジョン、カスタマイズされた学習手法、計算論的学習、または人工知能学習、の少なくとも1つを使用して、組立プロセスの現在の段階を識別する、条項26または27のシステム。
条項29. 組立情報が、部品画像ライブラリ、部品モデルライブラリ、組立プロセスフローデータ、組立現場モデルデータ、組立品モデルデータ、組立ビデオデータ、または特徴データのうちの少なくとも1つを含む、条項28のシステム。
条項30. コンテキストが、現在の段階の組立品の公称状態、現在の段階に存在すると予想される各部品の公称状態、現在の段階の組立品の公称状態の選択された許容誤差、現在の段階の前に完了されたステップの識別、現在の段階の間に完了されるべきステップの識別、または現在の段階の後に完了されるべきステップの識別、の少なくとも1つを含む、条項26から29のいずれかのシステム。
様々な例示的な実施形態の説明は、例示および説明の目的で提示されたものであり、網羅的であることまたは開示された形態の実施形態に限定されることを意図するものではない。多くの修正および変形が、当業者には明らかであろう。さらに、異なる例示的な実施形態は、他の望ましい実施形態と比較して異なる特徴を提供し得る。選択された実施形態は、実施形態の原理、実際の適用を最もよく説明し、意図された特定の用途に適した様々な修正を伴う様々な実施形態の開示を他の当業者が理解できるように、選択および説明されている。

Claims (15)

  1. コンピュータシステムを使用して実施される、組立プロセスの自動化された監視および検査を実行するための方法であって、
    組立現場に対して配置されたセンサシステムを使用して、前記組立現場でセンサデータを生成することと、
    前記組立現場で組立品を組み立てるための組立プロセスの現在の段階を、前記コンピュータシステムによって、前記センサデータに基づいて識別することと、
    前記コンピュータシステムによって、前記現在の段階のコンテキストを識別することと、
    前記コンピュータシステムによって、前記センサデータおよび前記現在の段階の前記コンテキストに基づいて、前記組立品の品質レポートを生成することと、
    を含む方法。
  2. 前記コンテキストが、識別された前記現在の段階の前記組立品の公称状態の選択された許容誤差を含み、かつ/または、
    前記品質レポートが、関心のある少なくとも1つの問題が存在するかどうかを示す評価を含む、請求項1に記載の方法。
  3. 前記センサデータを生成することが、前記組立品および前記組立現場に対して配置された撮像システムのセットを使用して撮像データを生成することを含み、好ましくは、前記撮像データが、2次元撮像データである、請求項1または2に記載の方法。
  4. 前記コンピュータシステムによって、前記組立プロセスの前記現在の段階を識別することが、
    前記コンピュータシステムによって、前記撮像データを使用して複数のオブジェクトを検出することと、
    前記コンピュータシステムによって、前記複数のオブジェクトの少なくとも一部を前記組立品の部品に、前記部品の画像および前記部品のモデルのうちの少なくとも一方を使用して、マッチングさせることと、
    を含み、
    前記部品にマッチングした前記複数のオブジェクトの前記一部が、複数のマッチングしたオブジェクトであり、
    前記コンピュータシステムによって、前記複数のオブジェクトの前記少なくとも一部を前記部品にマッチングさせることが、
    前記コンピュータシステムによって、機械学習、ディープラーニング、コンピュータビジョン、カスタマイズされた学習手法、計算論的学習、および人工知能学習のうちの少なくとも1つを使用して、前記複数のオブジェクトの前記少なくとも一部を前記組立品の部品にマッチングさせることを、好ましくは含む、請求項3に記載の方法。
  5. 前記コンピュータシステムによって、前記組立プロセスの前記現在の段階を識別することが、
    前記コンピュータシステムによって、前記組立現場の基準座標系に関して、前記複数のマッチングしたオブジェクトの複数の位置および複数の向きのうちの少なくとも一方を決定することと、
    前記コンピュータシステムによって、前記複数のマッチングしたオブジェクトの識別ならびに前記複数のマッチングしたオブジェクトの前記複数の位置および前記複数の向きのうちの前記少なくとも一方に基づいて、前記組立プロセスの前記現在の段階を決定することと、
    をさらに含み、
    前記コンピュータシステムによって、前記コンテキストを識別することが、前記コンピュータシステムによって、データリポジトリに格納されたコンテキスト情報を使用して、前記組立プロセスの前記現在の段階の前記コンテキストを決定することを、好ましくは含み、
    前記コンテキストが、前記現在の段階の前記組立品の公称状態、前記現在の段階に存在すると予想される各部品の公称状態、前記現在の段階の前に完了されたステップの識別、前記現在の段階の間に完了されるべきステップの識別、および前記現在の段階の後に完了されるべきステップの識別、のうちの少なくとも1つをさらに含む、請求項4に記載の方法。
  6. 前記コンピュータシステムによって、前記品質レポートを生成することが、
    検出された前記複数のオブジェクトのうちの1つ以上が、対応する部品とマッチングできないかどうか、および前記複数のマッチングしたオブジェクトのうちの1つ以上が、前記組立プロセスの前記現在の段階に存在すると予想される部品とマッチングしないかどうか、を示すマッチング評価を、前記コンピュータシステムによって生成することを含む、請求項5に記載の方法。
  7. 前記コンピュータシステムによって、前記品質レポートを生成することが、
    前記複数のマッチングしたオブジェクトのそれぞれが、正しい位置に組み立てられたか、または間違った位置に組み立てられたかを、前記組立プロセスの前記現在の段階の前記コンテキストに基づいて示す位置評価を、前記コンピュータシステムによって生成することを含む、請求項5または6に記載の方法。
  8. 前記コンピュータシステムによって、前記品質レポートを生成することが、
    亀裂、へこみ、ねじれ、および表面レベルの特徴のうちの1つから選択される特徴が識別されたかどうか、ならびに識別された特徴が、選択された許容誤差を超えているかどうか、を示す不整合評価を、前記コンピュータシステムによって生成することを含み、好ましくは、
    前記コンピュータシステムによって、機械学習、ディープラーニング、コンピュータビジョン、カスタマイズされた学習手法、計算論的学習、および人工知能学習のうちの少なくとも1つを使用して、1つ以上の特徴を前記組立品に検出することを、さらに含む、請求項5から7のいずれか一項に記載の方法。
  9. 前記方法が、
    前記組立プロセス中に人間のオペレータをガイドするためのガイダンス情報を、前記組立プロセスの前記現在の段階の前記コンテキストに基づいて、前記コンピュータシステムによって生成することを、さらに含み、好ましくは、
    前記コンピュータシステムによって前記ガイダンス情報を生成することが、
    前記組立プロセスの前記現在の段階で1つ以上のタスクを実行するために前記人間のオペレータが使用するための現在の段階のガイダンスであって、前記現在の段階の特定のタスクを実行する仕方に関する指示を含む現在の段階のガイダンスを、前記コンピュータシステムによって生成することを含み、かつ/または、
    前記コンピュータシステムによって前記ガイダンス情報を生成することが、
    前記組立プロセスの次の段階で1つ以上のタスクを実行するために前記人間のオペレータが使用するための次の段階のガイダンスであって、前記次の段階の特定のタスクを実行する仕方に関する指示を含む次の段階のガイダンスを、前記コンピュータシステムによって生成することを含み、かつ/または、
    前記組立現場に対して配置されたディスプレイシステムに前記ガイダンス情報を表示することを、さらに含む、請求項1から8のいずれか一項に記載の方法。
  10. 前記方法が、
    前記コンピュータシステムによって、前記組立プロセスの前記現在の段階に対応するレコードの一部として前記品質レポートをデータリポジトリに格納し、それにより前記組立プロセスのレコードの履歴を構築することを、さらに含み、好ましくは、
    前記組立プロセスの前記現在の段階の前記品質レポートが、関心のある問題が存在することを示しているかどうかを、前記コンピュータシステムによって決定することと、
    前記コンピュータシステムによって、前記レコードの履歴をロールバックして、関心のある前記問題の根本原因を識別することと、
    をさらに含み、
    より好ましくは、前記レコードの履歴をロールバックすることが、
    前記組立プロセスの前記現在の段階の直前の前記組立プロセスの選択された段階に対応する第1のレコードを、前記コンピュータシステムによって分析することを含み、
    さらにより好ましくは、前記レコードの履歴をロールバックすることが、
    前記選択された段階で前記根本原因が発生したかどうかを、前記コンピュータシステムによって決定することと、
    前記選択された段階の直前の前記組立プロセスの別の段階に対応する第2のレコードを、前記コンピュータシステムによって分析することと、
    をさらに含む、請求項1から9のいずれか一項に記載の方法。
  11. 前記組立現場で組立品を組み立てるための組立プロセスの現在の段階を、前記コンピュータシステムによって識別することが、前記センサデータ、データリポジトリに格納された組立情報、ならびに機械学習、ディープラーニング、コンピュータビジョン、カスタマイズされた学習手法、計算論的学習、および人工知能学習のうちの少なくとも1つ、を使用して実行され、
    前記方法が、
    前記組立プロセスの前記現在の段階に対応するレコードであって、前記センサデータの少なくとも一部および前記品質レポートを含むレコードを、前記コンピュータシステムによって、前記データリポジトリに格納し、それにより前記組立プロセスのレコードの履歴を構築することを、さらに含み、
    好ましくは、関心のある少なくとも1つの問題であって、不適切な部品、不適切な部品位置、不適切な向き、亀裂、へこみ、ねじれ、および表面の不整合のうちの1つから選択される関心のある少なくとも1つの問題が存在することを、前記組立プロセスの前記現在の段階の前記品質レポートが示しているかどうかを、前記コンピュータシステムによって決定することを、さらに含み、
    より好ましくは、前記コンピュータシステムによって、前記レコードの履歴をロールバックして、関心のある前記少なくとも1つの問題の根本原因を識別することを、さらに含む、請求項1から10のいずれか一項に記載の方法。
  12. 前記方法が、
    前記組立プロセス中に人間のオペレータが使用するための、前記現在の段階の特定のタスクを実行する仕方に関する指示を含む現在の段階のガイダンスおよび次の段階の特定のタスクを実行する仕方に関する指示を含む次の段階のガイダンスのうちの少なくとも一方を、前記コンピュータシステムによって生成することを、さらに含み、好ましくは、
    前記コンピュータシステムによって、前記現在の段階のガイダンスおよび前記次の段階のガイダンスのうちの前記少なくとも一方をディスプレイシステムに表示することを、さらに含み、かつ/または、
    前記コンピュータシステムによって、前記品質レポートの少なくとも一部をディスプレイシステムに提示して、人間のオペレータに前記品質レポートを知らせることを、さらに含む、請求項11に記載の方法。
  13. 組立プロセスの自動化された監視および検査のためのシステムであって、前記システムが、
    組立現場および前記組立現場で組み立てられている組立品に対して配置されたセンサシステムと、
    前記組立現場で前記組立品を組み立てるための前記組立プロセスの現在の段階を、前記センサシステムによって生成されたセンサデータに基づいて識別し、前記現在の段階のコンテキストを識別し、前記センサデータおよび前記現在の段階の前記コンテキストに基づいて、前記組立品の品質レポートを生成するコンピュータシステムと、
    を備え、
    前記コンテキストが、識別された前記現在の段階の前記組立品の公称状態の選択された許容誤差を含み、前記品質レポートが、関心のある少なくとも1つの問題が存在するかどうかを示す評価を含む、システム。
  14. 前記センサシステムが、前記組立現場に対して配置された少なくとも1つのカメラを含み、前記カメラが、2次元撮像データを生成する、請求項13に記載のシステム。
  15. 前記コンピュータシステムが、前記センサデータ、データリポジトリに格納された組立情報、ならびに機械学習、ディープラーニング、コンピュータビジョン、カスタマイズされた学習手法、計算論的学習、および人工知能学習のうちの少なくとも1つ、を使用して、前記組立プロセスの前記現在の段階を識別し、
    好ましくは、前記組立情報が、部品画像ライブラリ、部品モデルライブラリ、組立プロセスフローデータ、組立現場モデルデータ、組立品モデルデータ、組立ビデオデータ、および特徴データのうちの少なくとも1つを含み、かつ/または、
    好ましくは、前記コンテキストが、前記現在の段階の前記組立品の公称状態、前記現在の段階に存在すると予想される各部品の公称状態、前記現在の段階の前に完了されたステップの識別、前記現在の段階の間に完了されるべきステップの識別、および前記現在の段階の後に完了されるべきステップの識別、のうちの少なくとも1つを、さらに含む、請求項13または14に記載のシステム。
JP2019148451A 2018-08-14 2019-08-13 組立プロセスの自動化された監視および検査 Active JP7403255B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862718786P 2018-08-14 2018-08-14
US62/718,786 2018-08-14

Publications (2)

Publication Number Publication Date
JP2020064608A true JP2020064608A (ja) 2020-04-23
JP7403255B2 JP7403255B2 (ja) 2023-12-22

Family

ID=69514033

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019148451A Active JP7403255B2 (ja) 2018-08-14 2019-08-13 組立プロセスの自動化された監視および検査

Country Status (8)

Country Link
US (1) US11442438B2 (ja)
JP (1) JP7403255B2 (ja)
KR (1) KR20200019578A (ja)
CN (1) CN110866310B (ja)
AU (1) AU2019210612B2 (ja)
BR (1) BR102019016776A2 (ja)
CA (1) CA3050873A1 (ja)
RU (1) RU2019124093A (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210374635A1 (en) * 2020-05-29 2021-12-02 Zebra Technologies Corporation Scalable assistive data generation and delivery
CN112183946A (zh) * 2020-09-07 2021-01-05 腾讯音乐娱乐科技(深圳)有限公司 多媒体内容评估方法、装置及其训练方法
US11992952B2 (en) 2020-10-29 2024-05-28 General Electric Company Systems and methods of servicing equipment
US20220138699A1 (en) * 2020-10-29 2022-05-05 General Electric Company Systems and methods of servicing equipment
CN112633750A (zh) * 2020-12-31 2021-04-09 华录智达科技有限公司 一种基于can总线的公交车验收管理方法及系统
CN115144399B (zh) * 2022-08-30 2023-01-13 吉林省信息技术研究所 一种基于机器视觉的装配质量检测方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180082414A1 (en) * 2016-09-21 2018-03-22 Astralink Ltd. Methods Circuits Assemblies Devices Systems Platforms and Functionally Associated Machine Executable Code for Computer Vision Assisted Construction Site Inspection

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003130810A (ja) * 2001-10-24 2003-05-08 Mitsubishi Electric Corp 検査合理化システム及び合理化検査装置
US7440932B2 (en) * 2003-10-02 2008-10-21 International Business Machines Corporation Method and system for automating issue resolution in manufacturing execution and material control systems
RU2498408C2 (ru) * 2007-12-10 2013-11-10 Абб Рисерч Лтд Реализуемые компьютером способ и система для дистанционного контроля производственного процесса
US20120136470A1 (en) * 2009-05-22 2012-05-31 Aurora Control Technologies, Inc. Process for improving the production of photovoltaic products
US20120327215A1 (en) * 2009-09-22 2012-12-27 Case Steven K High speed optical sensor inspection system
US8982207B2 (en) * 2010-10-04 2015-03-17 The Boeing Company Automated visual inspection system
US20120308984A1 (en) * 2011-06-06 2012-12-06 Paramit Corporation Interface method and system for use with computer directed assembly and manufacturing
US8713998B2 (en) * 2011-06-14 2014-05-06 The Boeing Company Autonomous non-destructive evaluation system for aircraft structures
US8756459B2 (en) * 2011-10-31 2014-06-17 International Business Machines Corporation Fault detection based on diagnostic history
US9880694B2 (en) * 2013-05-09 2018-01-30 The Boeing Company Shop order status visualization system
US9612725B1 (en) 2013-02-28 2017-04-04 The Boeing Company Nonconformance visualization system
US9492900B2 (en) * 2013-03-15 2016-11-15 The Boeing Company Condition of assembly visualization system based on build cycles
US11543811B2 (en) * 2013-03-15 2023-01-03 Etegent Technologies Ltd. Manufacture modeling and monitoring
US9187188B2 (en) * 2013-07-02 2015-11-17 Premium Aerotec Gmbh Assembly inspection system and method
JP6444027B2 (ja) * 2013-12-09 2018-12-26 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、情報処理システムおよびプログラム
US9645095B2 (en) * 2014-10-06 2017-05-09 The Boeing Company System and method for inspecting a composite part during manufacture
US9869996B2 (en) * 2015-01-08 2018-01-16 The Boeing Company System and method for using an internet of things network for managing factory production
US10223589B2 (en) * 2015-03-03 2019-03-05 Cognex Corporation Vision system for training an assembly system through virtual assembly of objects
WO2016187112A1 (en) * 2015-05-15 2016-11-24 Airfusion, Inc. Portable apparatus and method for decision support for real time automated multisensor data fusion and analysis
JP2016221671A (ja) * 2015-06-02 2016-12-28 株式会社リコー 作業指示システム、画像処理装置、情報処理方法及びプログラム
US11132787B2 (en) * 2018-07-09 2021-09-28 Instrumental, Inc. Method for monitoring manufacture of assembly units
US10325363B2 (en) 2016-01-15 2019-06-18 Instrumental, Inc. Methods for automatically generating a common measurement across multiple assembly units
US20200133254A1 (en) * 2018-05-07 2020-04-30 Strong Force Iot Portfolio 2016, Llc Methods and systems for data collection, learning, and streaming of machine signals for part identification and operating characteristics determination using the industrial internet of things

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180082414A1 (en) * 2016-09-21 2018-03-22 Astralink Ltd. Methods Circuits Assemblies Devices Systems Platforms and Functionally Associated Machine Executable Code for Computer Vision Assisted Construction Site Inspection

Also Published As

Publication number Publication date
BR102019016776A2 (pt) 2020-03-10
KR20200019578A (ko) 2020-02-24
AU2019210612B2 (en) 2024-05-16
US11442438B2 (en) 2022-09-13
CA3050873A1 (en) 2020-02-14
AU2019210612A1 (en) 2020-03-05
RU2019124093A (ru) 2021-02-01
CN110866310B (zh) 2024-02-09
JP7403255B2 (ja) 2023-12-22
US20200057432A1 (en) 2020-02-20
CN110866310A (zh) 2020-03-06

Similar Documents

Publication Publication Date Title
JP7377646B2 (ja) 組立プロセスの自動化された監視および検査
JP7403255B2 (ja) 組立プロセスの自動化された監視および検査
US10679338B2 (en) Three-dimensional modeling of an object
KR102443485B1 (ko) 조립 검증의 상태를 위한 경로를 식별하는 방법 및 장치
US20160370798A1 (en) Systems and Methods for Non-Destructive Testing Involving Remotely Located Expert
AU2017225040B2 (en) Lightning strike inconsistency aircraft dispatch mobile disposition tool
US10740987B2 (en) Augmented reality system for visualizing nonconformance data for an object
US10452811B2 (en) Control of a device with respect to its numerical model
EP3611676A1 (en) Automated supervision and inspection of assembly process
US10445873B2 (en) Automated validation of condition of assembly
NL2021599B1 (en) Automated supervision and inspection of assembly process
EP4439456A2 (en) Automated supervision and inspection of assembly process
NL2021588B1 (en) Automated supervision and inspection of assembly process
Mosca et al. VISTA—Vision-based Inspection System for automated Testing of Aircraft interiors: a panoramic view
BR102016009976B1 (pt) Sistema de teste não destrutivo com especialista remoto, e, método de operação de um sistema de teste não destrutivo com especialista remoto

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231212

R150 Certificate of patent or registration of utility model

Ref document number: 7403255

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150