JP2022522436A - 組立てラインのための動的訓練 - Google Patents

組立てラインのための動的訓練 Download PDF

Info

Publication number
JP2022522436A
JP2022522436A JP2021549835A JP2021549835A JP2022522436A JP 2022522436 A JP2022522436 A JP 2022522436A JP 2021549835 A JP2021549835 A JP 2021549835A JP 2021549835 A JP2021549835 A JP 2021549835A JP 2022522436 A JP2022522436 A JP 2022522436A
Authority
JP
Japan
Prior art keywords
station
assembly
workers
worker
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021549835A
Other languages
English (en)
Other versions
JP7437054B2 (ja
Inventor
シー プットマン,マシュー
ピンスキー,バディム
キム,ウンソル
サンドストローム,アンドリュー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanotronics Imaging Inc
Original Assignee
Nanotronics Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanotronics Imaging Inc filed Critical Nanotronics Imaging Inc
Publication of JP2022522436A publication Critical patent/JP2022522436A/ja
Application granted granted Critical
Publication of JP7437054B2 publication Critical patent/JP7437054B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/19Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by positioning or contouring control systems, e.g. to control position from one programmed point to another or to control movement along a programmed continuous path
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4183Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by data acquisition, e.g. workpiece identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0633Workflow analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41805Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by assembly
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31027Computer assisted manual assembly CAA, display operation, tool, result
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31046Aid for assembly, show display on screen next workpiece, task, position to be assembled, executed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40556Multisensor to detect contact errors in assembly
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Strategic Management (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Operations Research (AREA)
  • Marketing (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)

Abstract

開示される技術の態様は、組立てラインプロセスの製造ワークフローにおけるエラーを自動的に検出し、かつ、様々なステーションにおける組立て作業者に与えられる指示または手引きの更新を介してエラーの軽減を実施するためのArtificial Intelligence Process Control(AIPC)を提供する。いくつかの実施態様では、開示される技術は、エラー検出を実施し、および/または検出されたエラーを訂正し、または製造製品を改善するために必要な指示/組立て修正を伝搬させるための1つまたは複数の機械学習モデルを利用している。

Description

関連出願の相互参照
本出願は、2019年2月28日に出願した米国特許出願第16/289,422号の優先権を主張したものであり、その内容全体は、参照により本明細書に組み込まれている。
主題技術は、組立てラインワークフローに対する改善を提供し、詳細には、機械学習モデルを使用してなされるフィードバックおよびフィードフォワードエラー伝搬予測に基づいて組立てライン作業者指示を適応的に更新するためのシステムおよび方法を包含している。以下でさらに詳細に考察されるように、技術のいくつかの態様は、製造偏差または組立て偏差に関してなされる推測に基づいて、1つまたは複数の作業者ステーションで提供される手引きビデオを自動的に適合させるためのシステムおよび方法を包含している。
従来の組立てラインワークフローでは、製造エラーを検出するためには、また、下流側プロセスにおける修正を介してエラーを除去することができる方法を決定するためには、人間(作業者)監視および専門的技術が必要である。組立てと製造、ならびに、組立てラインと生産ラインは、本明細書において交換可能に使用されていることに留意されたい。組立てエラーの検出を人間に依存しているため、エラーが見落とされ(あるいは報告されず)、また、そのまま組立てプロセスにおける下流側に伝搬される高い可能性が存在している。さらに、多くの組立て作業者は、狭い範囲の一組のタスクを実施するように訓練されているにすぎず、したがって組立てワークフローにおける上流側で生じたエラーを最も良好に訂正するための作業者自身のワークフローの修正方法を認識していないことがあり得る。
従来の製造ワークフローでは、手動検査プロセスの一部における人間のエラーの修復は、しばしば、その人間ノード上で修正行為を取ることによって処理されている。その人間にかかわる継続する問題が存在している場合、その人は、しばしば、すべての人間がそうであるように、多くの同じ限界に対して傷つき易い他の人に代えられる。ある行為を、エラーを犯すことなく、何年にもわたって絶えず繰り返すことは困難であり、また、修正行為を取ることは、ほとんどの組立て作業者の権利外である。これらの権利が与えられたとしても、そこには矛盾が存在し、また、その単一のプロセスノードのアプリケーションにおいて、その人間が有している経験によってのみ告げられることになる。さらに、何らかの間違いから、さらには何らかの積極的な修正行為から学習するための機構は存在していない。
さらに、組立てラインの電子監視には限界があり、また、上流側のステップで生じたエラーを補償するための、組立てラインにおける下流側のステップに対する臨機応変な調整を提供するための頑丈な機構を含んでいない。さらに、作業者モーションの変化および/または組立てパターンの変化が、結果として得られる製造製品に如何に影響を及ぼすかを評価し、かつ、製造製品の性能および/または特性を改善するための修正行為を提供するための新しい機構が必要である。
いくつかの態様では、開示される技術は、組立てラインにおけるワークフローを最適化するための方法に関し、方法は、組立てラインにおける第1のステーションに配置された第1の画像キャプチャデバイスから第1のモーションデータを受け取るステップであって、第1のモーションデータは、製造物品と相互作用している間に、第1のステーションと関連する第1の作業者(一人(1つ)または複数の作業者の中から選択される)によって実行されるモーションに対応する、ステップと、第1のモーションデータに基づいて、第1の作業者によって実行されたモーションに対するエラー分散を計算するステップと、エラー分散に基づいて製造物品の偏差を識別するステップとを含む。いくつかの態様では、方法は、計算されたエラー分散に基づいて、一人(1つ)または複数の作業者のうちの少なくとも一人(1つ)に提供される組立て指示を自動的に調整し、それにより修正された組立て指示を生成するステップをさらに含むことができる。
別の態様では、開示される技術は、組立てラインにおけるワークフローを最適化するためのシステムを包含し、システムは、複数の画像キャプチャデバイスであって、画像キャプチャデバイスの各々は、組立てラインにおける複数のステーションのうちの1つまたは複数に配置される、複数の画像キャプチャデバイスと、複数のステーションのうちの1つまたは複数に提供された手引きおよび指示を自動的に修正するように構成された組立て指示モジュールであって、上記複数の画像キャプチャデバイスに結合される、組立て指示モジュールとを含む。組立て指示モジュールは、複数の画像キャプチャデバイスのうちの第1の画像キャプチャデバイスから第1のモーションデータを受け取るステップであって、第1の画像キャプチャデバイスは、組立てラインにおける第1のステーションに配置され、第1のモーションデータは、製造物品と相互作用している間の第1のステーションと関連する第1の作業者によって実行されたモーションに対応する、ステップと、第1のモーションデータに基づいて、第1の作業者によって実行されたモーションに対するエラー分散を計算するステップとを含む操作を実施するように構成することができる。いくつかの実施態様では、組立て指示モジュールは、エラー分散に基づいて製造物品の偏差を識別し、また、計算されたエラー分散に基づいて、一人(1つ)または複数の作業者のうちの少なくとも一人(1つ)に提供される組立て指示を自動的に調整し、それにより修正された組立て指示を生成する操作を実施するようにさらに構成することができる。
さらに別の態様では、開示される技術は、その上に記憶された命令を含む非一時的コンピュータ可読媒体に関しており、命令は、1つまたは複数のプロセッサによって実行されると、組立てラインにおける第1のステーションに配置された第1の画像キャプチャデバイスから第1のモーションデータを受け取るステップであって、第1のモーションデータは、製造物品と相互作用している間に、第1のステーションと関連する一人(1つ)または複数の作業者の中から選択される第1の作業者によって実行されるモーションに対応する、ステップと、第1のモーションデータに基づいて、第1の作業者によって実行されたモーションに対するエラー分散を計算するステップと、エラー分散に基づいて、製造物品の偏差を識別するステップとを実施することを含む命令をプロセッサが実行することになるように構成される。いくつかの実施態様では、命令は、計算されたエラー分散に基づいて、一人(1つ)または複数の作業者のうちの少なくとも一人(1つ)に提供される組立て指示を自動的に調整し、それにより修正された組立て指示を生成する操作をプロセッサが実施することになるようにさらに構成することができる。
主題技術の特定の特徴は、添付の特許請求の範囲に示されている。しかしながらさらなる理解を提供するために含まれている添付の図面は、開示される態様を図解したものであり、説明と相俟って主題技術の原理を説明する働きをしている。
開示される技術のいくつかの態様による、例示的生産ライン展開のフローチャートを概念的に示す図である。
開示される技術のいくつかの態様による、所与の作業者ステーションで組立てエラー修正を実施するためのプロセスの例を示す図である。
主題技術のいくつかの態様を実現するために使用することができる電子システムの例を示す図である。
以下に示されている詳細な説明には、主題技術の様々な構成についての説明であることが意図されており、主題技術を実践することができる構成のみを表すことは意図されていない。添付の図面は本明細書に組み込まれており、詳細な説明の一部を構成している。詳細な説明は、主題技術についてのより完全な理解を提供するために特定の詳細を含む。しかしながら主題技術は、本明細書において示されている特定の詳細に限定されないこと、また、これらの詳細がなくても実践することができることは明確で、かつ、明らかであろう。いくつかの実例では、主題技術の概念を曖昧にすることを回避するために、構造および構成要素はブロック図の形態で示されている。
開示される技術の態様は、生産ラインの組立ておよび結果として得られる製造製品を追跡し、訓練し、かつ、漸進的に改善するための方法を提供することにより、従来の組立てラインプロセスフローの上記限界に対処する。改善は、動的視覚フィードバックおよび指示を個々の組立て作業者に提供することによって実現され、また、いくつかの実施態様では、作業者フィードバックはエラーに基づいており、エラーは、それらに限定されないが、組立てエラー、役に立たないプロセスおよび/またはモーション、生産ラインにおける1つまたは複数のポイントで検出された粗悪な製品を含むことができる。
開示される技術を実現することにより、例えば準実時間エラー検出に基づいて、個々のステーション(またはすべてのステーション)で提供される参照/指示情報を速やかに改定および変更することにより、手動実施態様方法のエラー修正の速度に対して、その速度を著しく改善することができる。本明細書において説明されているいくつかの実施形態は、ビデオの形態の参照/指示情報の使用を考察しているが、他のフォーマットも企図されている。例えば組立て/製造指示は、組立て作業者に提供される聴覚、視覚および/または触覚キューとして提供することができる。一例として、聴覚指示情報は、口頭の指示または他の聴覚インジケータを含むことができる。視覚組立て指示情報は、拡張現実感(A/R)または仮想現実感(V/R)システムの使用などのビデオまたは動画化フォーマットを含むことができる。いくつかの態様では、視覚組立て指示は、組立てラインの所与のステーションにおける、作業者によるワークピース(またはツール)の取扱い方法に関する例を提供する動画として提供することができる。さらに、いくつかの態様では、組立て/製造指示は、例えば、ロボット組立て作業者または機械組立て作業者が受け取り、かつ、実現することができる機械命令を含むことができる。本明細書において使用されている作業者という用語は、製造製品を組み立てるモーションを使用する人間、ロボットまたは機械を意味することができる。さらに、作業者という用語は、人間の作業者がロボットまたは機械器具と共に作業し、あるいは人間作業者がロボットまたは機械器具によって支援される実例の場合のように、人間支援製造実施態様を包含している。
組立て/製造指示が参照/指示ビデオとして提供される実例では、このようなビデオは、時によっては標準作業プロトコル(SOP)と呼ばれることがある。開示される技術のシステムは、最小限のハードウェア要求事項、例えば個々の作業者のためのビデオカメラおよびディスプレイの使用などのため、効果的に展開することができ、一方、機械学習訓練、更新およびエラー伝搬は、例えば計算クラスターまたはクラウド環境におけるような集中型計算資源で実施することができる。
いくつかの態様では、ビデオ指示情報は、拡張現実感表示の一部として、一人(1つ)または複数の作業者に提供することができる。すなわち指示、または標準組立て/製造方法からの偏差は、拡張現実感を使用して作業者に伝えることができ、表示は、強化されたビデオ、動画化された図形、および/または記録されたシナリオを表すビデオデータの混合として提供される。一例として、拡張現実感表示は、組み立てられているワークピース、および/または組立て/製造プロセスで使用されているツールの実時間フィードに対する動画化または図形オーバーレイとして提供される指示または手引きを提供することができる。
いくつかの実施態様では、開示される技術のシステムは、生産ラインの様々な作業者ステーションに配置された1つまたは複数のビデオキャプチャデバイスまたはモーションキャプチャデバイスを含む。キャプチャデバイスは、その特定のステーションにおける作業者のモーション/部品、デバイス、材料または他のツール(「コンポーネント」)との相互作用を記録するように構成される。いくつかの態様では、作業者モーションはビデオ記録を使用してキャプチャできるが、他のモーションキャプチャフォーマット、例えば作業者モーションおよび/またはツールまたは製造製品との作業者の相互作用を表す3-Dポイントクラウドの使用も企図されている。さらに、特定のステーションに対する一人または複数人の熟練者のモーション、およびそのステーションにおけるコンポーネントとのその熟練者の相互作用を記録することにより、ステーション毎の参照ビデオを作り出すことも可能である。熟練者毎のモーション経路を引き出すことができ、また、何人かの熟練者が使用される実施形態では、引き出されたモーション経路のセット(例えば平均)に対する計算を実施して、特定のステーションのための参照ビデオを作り出すことができる。参照ビデオは、その特定のステーションで実施されるべきモーション経路のデジタルまたは動画化表現の形態であってもよい。熟練者とは、特殊技術を有する誰か、または手引きが提供されている特定の組立てステップに関して知識がある誰かを意味することができることに留意されたい。
いくつかの実施形態では、生産ラインの様々な作業者ステーションに配置されたビデオキャプチャデバイスまたはモーションキャプチャデバイスは、組立てエラーを計算するために使用することができる、それぞれのステーションにおけるワークピース/コンポーネント/ツールの属性(例えば品質、引張り強さ、欠陥の数)もキャプチャできる。
作業者のそれぞれのステーションにおけるその相互作用をキャプチャすることにより、理想/熟練作業者相互作用/ワークフローを表すベースライン(グラウンドトルース)モデルとのキャプチャされた相互作用を比較することによって作業者エラーを検出することができる。すなわち理想化された相互作用モデルからの作業者偏差を使用して、例えば異なるステーションに提供された作業者指示/手引きを改定することにより、組立てチェーンにおける様々な場所で修復することができる組立てエラーを計算することができる。さらに、個々のステーションにおけるコンポーネントの品質をキャプチャし、かつ、そのステーションのためのベースラインコンポーネントに対して比較することも可能である。またベースラインコンポーネントからのコンポーネントの偏差を使用して、特定のステーションにおけるコンポーネントに品質等級を割り当て、あるいは様々なステーションに提供された作業者指示/手引きを改定することによって修復することができる作業者/組立てエラーを計算することも可能である。
組立て修正は、所望の実施態様に応じて様々な方法で実施することができる。いくつかの態様では、作業者変化/エラーを使用して、例えば部品を品質等級(例えばA、B、C、等々)に分類し、引き続いてこれらの部品を適切な生産ラインへ導くことによって分類を実施することができる。別の態様では、検出された組立てエラーを使用して所与のステーションにおけるプロセスを改定し、それにより品質を改善し、かつ、変化を小さくすることができる。すなわち検出された組立てエラーを使用して、指示または手引きを同じステーションに自動的に提供することができ、それにより例えばそのステーションでもたらされたエラーを訂正することができる(例えばイン-ステーションリワーク)。
例えば組立てエラー検出を使用して、エラーが生じることが分かっている所与のステーションに提供された作業者指示またはビデオに対する更新/変更を駆動することができる。一例として、エラー/偏差が第1のステーションで作業している第1の作業者によるものであることが識別されると、例えば第1のステーションの表示デバイスを介してその第1の作業者に提供された組立て指示を改定し、それにより第1のステーションを離れる製造物品に関連するエラー分散を小さくすることができる。
別の態様では、検出された組立てエラーを使用して、後続するステーション組立てを改定することができ、それによりステーション分散を克服することができる。すなわちエラー検出を使用して、上流側の作業者に起因するエラーに基づいて、新しい/更新された組立て手引きの下流側伝搬を自動的にトリガすることができる。例えば第1の作業者によって実行されたモーションに対するエラー分散を使用して、第1のステーションから下流側の第2のステーションと関連する第2の作業者に提供される組立て指示を調整することができる。
さらに別の態様では、すべてのステーションにわたって検出されたエラー分散を前方へ伝搬させることができ、それにより残りの下流側組立てチェーン全体の進行にわたって、全体または部分的なリワークを実施することができることを保証することができる。すなわち一人(1つ)または複数の下流側作業者に提供された組立て指示を調整することにより、1つまたは複数のステーションにわたって生成されるエラーを修復し/低減することができる。一例では、第2のステーションの第2の作業者によって、また、第3のステーションの第3の作業者によって引き続いて実行される作業を介して、すなわち第2および第3のステーションに提供される組立て指示を調整することにより、第1のステーションの第1の作業者に起因する製造物品のエラー分散を修復することができる。
別の例では、複数のステーションにわたって累積されたエラー分散を1つまたは複数の後続するステーションによって小さくすることができる。例えば第3のステーションおよび第4のステーション(例えばそれぞれ第3の作業者および第4の作業者)に提供される組立て指示を調整することにより、第1のステーションおよび第2のステーションにわたって累積された製造物品のエラー分散を引き続いて修復することができる。
組立てフローにおける個々の作業者/作業者ステーションをネットワークノードとして取り扱うことにより、機械学習モデルを使用して、個々のノード(ステーション)における組立て分散の低減を介してエラーを最小化することによって組立てプロセスを最適化することができる。個別のノード(作業者)分散を最小化し、また、実時間更新を実施して、前方エラー伝搬を軽減することにより、開示される技術のシステムは、最終製品に対する製造分散を著しく低減することができる。さらに、組立てワークフローにおける特定のセグメントからのエラー寄与を正確に定量化し、かつ、追跡することにより、製品品質または偏差量によって製品に等級を付け、かつ、分類することができる。したがって例えば製品品質に応じて、特定の品質分類の製品を異なる製造プロセスへ導き、あるいは異なる顧客へ導くことができる。
機械学習/人工知能(AI)モデルを使用してエラー検出を実施することができ、および/またはステーション組立て変化を最適化するために必要な修正を実施することができる。一例として、機械学習モデルは、それらに限定されないが、最終製品定格、最終製品変化統計量、所望の最終製品特性(例えば組立て時間、使用された材料の量、物理特性、欠陥の数、等々)、ステーション特化コンポーネント定格、ステーション特化コンポーネント変化、所望のステーションコンポーネント特性を含む訓練データの複数のソースを使用して訓練することができる。さらに、展開された機械学習モデルは、エラー検出およびエラー定量化計算を実施するために使用される理想化モデルの中に正規の知識が表現され得るよう、熟練者または「マスター設計者」から提供される入力に基づいて訓練し、あるいは初期化することができる。
当業者には理解されるように、機械学習に基づく分類技法は、開示される技術から偏差することなく、所望の実施態様に応じて変更することができる。例えば機械学習分類スキームは、隠れマルコフモデル、回帰型ニューラルネットワーク、畳み込みニューラルネットワーク(CNN)、深層学習、ベイズ記号モデル、敵対的生成ネットワーク(GAN)、サポートベクターマシン、画像登録法、および適用可能規則ベースシステムを、単独で、あるいは組み合わせて利用することができる。回帰アルゴリズムが使用される場合、それらは、それらに限定されないが、Stochastic Gradient Descent Regressorおよび/またはPassive Aggressive Regressor、等々を含むことができる。
機械学習分類モデルは、クラスター化アルゴリズム(例えばMini-バッチK-平均クラスター化アルゴリズム)、推奨アルゴリズム(例えばMiniwise HashingアルゴリズムまたはEuclidean Locality-Sensitive Hashing(LSH)アルゴリズム)、および/または局所外れ値因子法などの異常検出アルゴリズムに基づくことも可能である。さらに、機械学習モデルは、Mini-batch Dictionary Learningアルゴリズム、Incremental Principal Component Analysis(PCA)アルゴリズム、Latent Dirichlet Allocationアルゴリズムおよび/またはMini-バッチK-平均アルゴリズム、等々のうちの1つまたは複数などの次元削減手法を使用することも可能である。
いくつかの実施態様では、複数の異なるタイプの機械学習訓練/人工知能モデルを展開することができる。一例として、製造製品を最適化するべく、組立てラインプロセスを動的に調整するために、機械学習の一般的な形態を使用することができる。当業者には認識されるように、選択された機械化学習/人工知能モデルは、一組の組立て/製造指示を単純に含んでいるのではなく、組立てラインプロセス全体に関するフィードバック、および結果として得られる製造製品に対するその影響を提供し、また、組立てラインにおける下流側作業者ステーションに対する動的調整を提供し、それにより上流側作業者ステーションで生じる行為を補償するための方法である。このタイプの人工知能ベースフィードバックおよびフィードフォワードモデルは、本明細書においてはArtificial Intelligence Process Control(AIPC)と呼ばれている。
いくつかの実施形態では、最適な/所望の製造製品のための設計を選択することができ、また、熟練作業者を展開して、選択された設計に従って製造製品を組み立てるために個々の作業者ステーションで実施される個々のステップを実施することができる。最適とは、結果として得られる製造製品におけるエラー、または何らかの他の基準を最小化する、結果として得られる製品の所望の性能および/または特性に基づくことができる(例えば製造製品が紙飛行機である場合、最適な紙飛行機は、所望の飛行目標を達成する紙飛行機であろう)。複数の画像化デバイスを使用して、作業者のモーションおよび作業者が組み立てている製造製品との作業者の相互作用をキャプチャし、それによりビデオ、画像および/または3Dポイントクラウドデータを生成することができる。キャプチャされたデータは、組み立てられている際の製造製品に対する関係における作業者の手座標、一方の手ともう一方の手の関係、および組み立てられている際の製造製品に対する指(およびいくつかの実施形態では指の関節)の関係などの詳細な情報を提供することができる。熟練作業者から収集されたデータは、最適な/所望の製造製品を組み立てるためのグラウンドトルースとして使用することができる。さらに、作業者のモーションの変化またはエラーが、結果として得られる製造製品に対して如何に影響を及ぼし得るかを理解するために、多くの作業者を展開して、最適な製造製品を組み立てる1つまたは複数のステップを実施することができる。これは、組立てラインにおける作業者ステーション毎に実施することができる。結果として得られる最終製品およびそれらのそれぞれの組立てプロセスの両方を、互いに対して、また、グラウンドトルースに対して比較し、それによりエラーおよび/または作業者のモーションの変化が製造製品の特性および/または性能に如何に影響を及ぼし得るかを決定することができる(例えば作業者の速度は、品質がより劣る飛行機をもたらし得る)。実際の組立てプロセス(すなわち人間、ロボットまたは機械が1つまたは複数のステーションでモーションを実施しているプロセス)の間に、作業者に基づいて収集されたデータは、本明細書においては「実際の訓練データ」と呼ばれることになる。実際の訓練データは、模擬されたデータで補足することができ、それにより、より豊富なデータセットを得ることができ、また、最適な製造製品を達成するための追加変形形態を提供することができる。「最適な」および「所望の」という用語は、本明細書においては交換可能に使用されることになることに留意されたい。
いくつかの実施形態では、本明細書において考察されている異なるAI/機械学習/深層学習モデルは、Artificial Intelligence Process Control(AIPC)を達成して製造物品の組立てを最適化するために、以下で説明される特定の順序で展開することができる。AIPC深層学習モデルを実現することができる例示的プロセスは、図1に関連して(例えばAIPC深層学習モデル112に関連して)、また、図2に関連してさらに詳細に考察される。AIPC深層学習モデルを実現するために使用することができるハードウェアシステムおよび/またはデバイスの例は図3に提供されており、また、対応する説明も以下に提供されている。
第1に、CNNを組立てラインプロセスに使用して、個々の作業者ステーションにおいて、作業者の手の特徴および異なる構成の製造物品の特徴を分類することができる。
第2に、いずれもCNN分類からの所望の結果を達成するために、また、定義済みの望ましい結果のために、強化学習(RL)およびRLエージェントを使用し、かつ、報酬を与えることができる。RLエージェントは、監視しても、あるいは監視しなくてもよい。
第3に、Generative Adversarial Networks(GAN)を使用して、対立するRLエージェント間で選ぶことができる。GANは、ノードとしてGANに入力するRLエージェントの選択を人間にのみ頼る最小の人間監視を含むことができる。
第4に、RNNは、フィードバックおよびフィードフォワードシステムを作り出すための入力ノードとして勝利RLを取ることができ、したがって学習を連続的なものにすることができ、また、学習を監視しなくてもよい。
これらの4つのAI/機械学習モデルの実施態様は、以下でより詳細に考察される。
いくつかの実施形態では、実際の訓練データは、組立てプロセスにおける関連するデータを分類し、例えば作業者ステーション毎の個々の組立てステップで使用された指/手、組み立てられている製品のうちの、作業者の指が任意の時間点および空間で触れた部分、および任意の時間点および空間における、組み立てられている製造製品の形状または構成を分類するためにCNNに入力することができる。
さらに他の実施形態では、手のモーションは追跡しないが、製造製品の組立てパターンの様々な変化を表すデータを収集することも可能である(例えば製造製品が折り畳まれた紙飛行機である場合、折畳み順序を変更すること、折畳み変化を実現すること、および/または潜在的エラーを導入することに基づいてデータを収集することができ、製造製品が衣類物品である場合、例えば縫合せ順序、縫合せ変化を実現すること、および/または潜在的エラーを導入することに基づいてデータを収集することができる)。このデータは模擬することができ、および/または実際の訓練データから収集することができる。結果として得られる製造製品およびそれらのそれぞれの組立てプロセスを比較し、それによりエラーまたは組立てパターンの変化が製造製品の特性および/または性能に如何に影響を及ぼすかを決定することができる。
いくつかの態様では、機械学習モデルを生成するために使用される訓練データは、模擬されたデータからのもの、および/または実際の訓練データからのものであってもよく、それらは、組み合わせたものであっても、あるいは個別であってもよい。いくつかの実施形態では、模擬されたデータ結果を使用して機械学習モデル、例えば(それには限定されないが)Reinforcement Learning(RL)エージェントを構築することができる。他の実施形態では、実際の訓練データを使用して機械学習モデル、例えば(それには限定されないが)Reinforcement Learning(RL)エージェントを構築することができる。RLエージェントは、良好な/所望の結果を達成すると報酬が支払われ、また、悪い結果に対しては処罰される。
いくつかの実例では、多くのRLエージェント(そのうちのいくつかは実際の訓練データに基づき、また、いくつかは模擬されたデータに基づく)は、縦列をなして働くように展開することができ、また、累積授与を最大化するように構成することができ、例えば理想モデル/例からの最も小さい偏差を有する製造製品を組み立てる。RLエージェントに報酬を支払うことができる例示的結果は、可能な限り少ないステップで完全な製造製品を完成すること、製造製品を達成するために必要な材料の量または時間を低減することを含む。模擬されたデータに基づくRLエージェントおよび実際の訓練データに基づくRLエージェントを使用して、最適な/所望の製造物品をもたらす最適モーションパターンおよび/または最適組立てパターンを決定することができる。
これらの2つのグループのRLエージェント(例えば実際の訓練データに基づいて作り出されたRLエージェント、および模擬されたデータに基づいて作り出されたRLエージェント)は、それらはいずれも最適な/所望の製造製品を作る行為に対して報酬が支払われているため、ここでは共同して働くことができ、さらには競合することができる。いくつかの実施形態では、最適な製造製品のための最適な組立てパターンをもたらした模擬ベースのRLエージェントから得られたデータを使用して、実際の訓練データセットのための可能性空間を小さくすることができる。例えば模擬されたRLエージェントを使用して最適な組立てパターンを決定することができ、次に、最適ではない組立てパターンに対してではなく、最適な組立てパターンに対してのみ実際の訓練データを収集することができる。実際の訓練データの収集にのみ、あるいは最適な組立てパターンにのみ的を絞ることにより、より少ない訓練データを収集することができ、および/またはより多くの実際の訓練データを収集するためのより大きい容量を達成することができるが、それは最適な組立てパターンに対してのみである。
報酬は時によっては対立することがあるため、強化学習のみに頼って組立てラインを最適化することには限界がある。例えば製品の組立てにおいては、偽りの動き(例えば折畳んで、直ちにその折畳みを元に戻す、あるいは縫い目を追加して、直ちにその縫い目を取り除く)が最も少ない場合に対して、いくつかのRLエージェントに報酬を支払うことができ、一方、速度に対して、他のRLエージェントに報酬を支払うことができる。速度に対して報酬が支払われているRLエージェントは、組立てプロセスにおける下流側で必要な修正がより少ないため、より多くの偽りの動きがより速い組立て時間をもたらすことを決定することができる。このような実施態様トレードオフ決定をなすことは、人間が容易に判断することができるようなものではない。経験および大量の例を有している場合であっても、人間には、異なる方法で作業する異なる作業者による最終結果を把握することは如何に微妙なものであるかを理解する計算能力が依然として欠けている。
これらの対立するRLエージェント最適化を解決するために、GANを展開して決定者として作用させることができる。対立は、実際の訓練データに基づくRLエージェント同士の間、模擬されたデータに基づくRLエージェント同士の間、および/または実際の訓練データに基づくRLエージェントと模擬されたデータに基づくRLエージェントとの間であってもよい。
いくつかの実施形態では、GANは、さらに多くの頑丈なニューラルネットワークを作り出すために、RLエージェントの各々を試験し、かつ、その結果を記憶することができる。GANは、RLエージェントを取り、また、ゼロ-サムゲームにおける勝者および敗者をもたらすモデルを使用することによって動作する。GANには「ジェネレータ」および「ディスクリミネータ」が存在している。ジェネレータは、この場合、対立するRLエージェントからの報酬データを記憶することになり、また、ディスクリミネータは、これらのうちのどちらが所望の製造製品を作り出すタスクに対して最も関連しているかを評価することになる。GANは、ノード(またはニューロン)の深層ネットワークを使用して、ノードに重みを付ける方法を決定する。個々のRLエージェントは、個々のRLエージェントが既に最適決定を下していることを信じているため、対立しているRLエージェントのうちのどちらが実際に最も関連する選択をなすかを決定することはGANの役割であり、また、ディスクリミネータは、それに応じて重みを調整する。対立するRLエージェント同士の間でゼロ-サムゲームが開始されると、対立するRLエージェント同士の間で勝者のグループが生成され、これらの勝者のみが、組立てラインにおけるワークフローを最適化するために使用される機械学習モデルのために使用されることになる。勝利RLエージェントを決定するために大量のデータが生成されることになる可能性があるが、結果は、入力ノードとして使用される、これらの勝者を作り出し、かつ、見出すために使用されるものよりもはるかに貧弱である。
GAN戦争に生き残り、かつ、適切に報酬が支払われたRLエージェントが決定されると、いくつかの実施形態では、それらをRecurrent Neural Network(RNN)と呼ばれる別のAIシステムに入力することができる。RNNは、それがDeep Learning Neural Networkであり、入力データの様々な形態の重み付けを介して最終結果が最適化される点で、CNNに対して多くの類似性を有している。1つの相違は、入力から出力まで線形プロセスであるCNNとは異なり、RNNは、結果として得られる出力、さらには内部ノードを新しい訓練情報としてフィードバックするループであることである。RNNは、フィードバックシステムおよびフィードフォワードシステムの両方である。
Artificial Intelligence Process Control(AIPC)のリアルワールドアプリケーションは、組立てラインにおける、既に自分のタスクを完了した作業者へのフィードバックの提供(例えばビデオ指示を自動的に修正することによって)、ならびに組立てラインにおける下流側の、未だ自分のタスクを完了していない作業者への指示の提供(これも例えばビデオ指示を自動的に修正することによって)を含む(「フィードフォワード」)。このフィードバック-フィードフォワードシステム、すなわちAIPCは、本明細書において説明されているAI手法を、いくつかの実施形態では、本明細書において説明されている特定の順序で使用して達成することができ、したがって組立てライン上の作業者は、追加人間監視を必要とすることなく、結果として得られる製造製品を最適化する選択をなすことができる。
いくつかの実施形態では、これは、単にRNNへの上記システムの圧縮、および1つまたは複数の製造製品を作り出すプロセスの間、成功または失敗の2つの方法におけるあらゆる動きの観察を含む。個々の動きは訓練として働く。RNNの出力ノードが最適ではない場合、ネットワークは、異なる選択をなすよう、組立てラインにおける実際の個人にフィードバックすることができ、また、RNNの多くのノードおよび層を通る経路では、重みは、重み付けし直すことができ、また、出力には、成功または失敗のいずれかのラベルが振られることになる。プロセスが反復すると、重みは、自身でその精度を改善する。さらに、ネットワークは、組立てを実施する個人が働いていない場合であっても、何が働いていて、何が働いていないかを学習することができる。これは、訓練セットを増加させる。また、それは、組立てプロセスの異なる段階における調整の実施を許容する。いくつかの事例では、任意の所与の瞬間に、特定の特性を有する製造物品を製造する最良の方法は、開始点に戻ることではなく、プロセスの進行に応じて指示を調整することであることが見出され得る。この場合、RNNは、最適な製造製品のために常に最適化しており、また、生産ラインの作業者ステーションにおける、既に自分のタスクを実施した個々の作業者にフィードバックを提供し、また、生産ラインの作業者ステーションにおける、未だ自分のタスクを実施していない作業者に情報をフィードフォワードするべく学習する。
図1は、開示される技術のいくつかの態様による、生産ライン展開を実現するための例示的プロセス100のフローチャートを概念的に図解したものである。図1のプロセスはステップ102で開始され、生産展開が開始される。例示的生産ラインのワークフローは、典型的には、ワークピース(製品)が組み立てられ、あるいは製造される複数の作業者ステーション(ノード)を含む。先行するノードにおける作業が完了した後にのみ、個々の後続するノードの作業が開始されるよう、様々なノードを逐次方式で編成することができる。
ステップ104で、1つまたは複数の参照ビデオが生成され、および/または更新される。上で説明したビデオを使用して、特定のノード(本明細書においては作業者ステーションとも呼ばれる)に製造/組立て指示を提供することができる。すなわちワークフローにおける個々のノードは、その特定のノードに対応する製造ワークフローにおけるステップを完了する方法の手引きを引き渡す参照ビデオを備えることができる。
ステップ106で、ステップ104で生成されたビデオの各々がそれぞれのステーション/ノードに展開される。一例として、所与のワークフローは10個のノードを含むことができ、その各々は、それぞれの異なる/独自の参照ビデオを有している。他の実施態様では、ビデオの数は、ノードの総数より少なくてもよい。実施態様に応じて、様々なステーション/ノードに展開される参照ビデオは固有であってもよく、あるいは同様の手引き/指示を提供することができる。以下でさらに詳細に考察されるように、参照ビデオの内容は動的であってもよく、また、常に更新/増補することができる。
ステップ108で、モーションの連続記録が個々のステーション/ノードでキャプチャされる。モーション記録から得られるモーションデータは、ワークフローにおけるそれらのノード/ステーションにおけるワークピース/コンポーネント/ツールとの作業者の相互作用を記述することができる。すなわち個々のノードでキャプチャされるモーションデータは、製品組立てまたは製造の特定の部分に対応する1つまたは複数の作業者行為を表すことができ、また、そのノードと関連する参照ビデオによって提供される指示に対応し得る。いくつかの実例では、モーションキャプチャは、ビデオデータのキャプチャ、すなわちそのステーションにおける作業者の行為のすべてまたは一部の記録を含むことができる。他の実施形態では、モーションキャプチャは、例えば3Dポイントクラウドの記録を含むことができ、モーションは、画像キャプチャデバイスの視野における1つまたは複数の特定のポイントに対して記録される。作業者の行為ならびにコンポーネントの属性(例えばコンポーネント品質、引張り強さ、欠陥の数)の両方を、ワークフローにおける個々のノード/ステーションでキャプチャすることができる。
ステップ110で、プロセス方法解析偏差を計算することができ、ステップ108におけるステーションのうちの1つまたは複数に対してキャプチャされたモーションデータを解析して、例えば対応するステーションの理想化されたモーションプロファイルを含む(または表す)比較モデルからのあらゆる偏差を識別することができる。図1に図解されているように、ステップ110は、例えば比較モデルからのモーション偏差を識別/分類し、かつ、組立てまたは製造プロセスが影響を及ぼされ得た程度に関する推測を実施するように構成することができるAIPC深層学習モデルを利用することができる(ステップ112)。比較は、ステーションレベル毎に、および/または総合プロセスレベルで実施することができる。また、解析は、個々のステーションにおけるコンポーネントの属性、またはベースラインからのコンポーネントの偏差、およびステーションのモーション偏差がコンポーネントの品質に及ぼす影響の程度を考慮することも可能である。
ステップ112で呼ばれるAIPC深層学習モデルは、例えば所与のステーション/ノードに対する理想的な、または品質が制御された組立て/製造相互作用の例を含むことができる様々なタイプの訓練データの収集に基づくことができる。また、AIPC深層学習モデルは、プロセス100(ステップ111)を使用して製造された特定の製品に関する顧客からのフィードバックによって、また、プロセス100(ステップ113)を使用して製造された特定の製品の品質管理検査からのフィードバックによって、ドメイン/産業情報115によって提供されるデータを使用して増補する(または調整する)ことができる。AIPC深層学習モデルは、分散ハードウェアモジュールおよび/またはソフトウェアモジュールを含む様々な計算システムを使用して実現することができることを理解されたい。一例として、AIPC深層学習モデルは、組立てラインに展開され、かつ、様々なAI/機械学習モデルおよび/または分類子を実現するように構成された1つまたは複数のシステムに結合される複数の画像キャプチャデバイスおよび表示デバイスを含む分散システムを使用して実現することができる。
ステップ110で比較モデルからの偏差が検出され/識別されると、ステップ114で、AIPC深層学習モデル112を使用して自動調整を生成することができる。上で考察したように、ビデオ調整は、ワークフローの1つまたは複数のステーションにおける製造/組立て品質を改善することを目的とすることができる。例えば作業者に提供される指示または手引きを、エラーを低減し、あるいはエラーが発生した時点で修復する方法で変更するために、例えばエラーが発生することが分かっている(または予測される)所与のノード/ステーションにビデオ調整を適用することができる。他の実施態様では、例えば製造ワークフローが完了する前にエラーを修正するために、エラーが発生したステーションから下流側にビデオ調整を適用することができる。さらに他の実施態様では、ワークフローが完了すると、ワークフロー全体を解析することができ、また、ワークフローにおける1つまたは複数のステーションに対して調整を実施することができる。
いくつかの実施形態では、調整は、エラーが検出された直後に実時間で実施される。他の実施形態では、調整は、一定のインターバルで、またはワークフローが完了した後に実施される。
いくつかの態様では、ステップ114で決定された自動調整は、ステップ117で要約し、および/または製品品質レポートとして提供することができる。例えばモーション偏差の解析(ステップ110)によってもたらされる調整を使用して、組立て/製造プロセスの理想化されたモデルから識別された偏差に基づいて、ワークピースの様々な品質態様を記述する1つまたは複数の品質レポートを作成することができる。
図2は、本技術のいくつかの態様による、組立てエラー修正を容易にするために使用することができるエラー検出解析を実施するための例示的プロセス200を図解したものである。
ステップ210で開始され、理想化されたビデオ手引きを使用して製造/組立てを改善するプロセスを実現することができる。ステップ215で、1つまたは複数の組立てステーションのビデオ追跡が実施される。ビデオ追跡は、所与のステーション/ノードにおける人間作業者の記録を含むことができる。いくつかの実施形態では、ビデオ追跡は、所与のステーション/ノードにおけるコンポーネント属性のキャプチャをさらに含むことができる。
ステップ220~224で、組立てステーションから記録されたビデオを解析する処理が実施される。例えばいくつかの実施形態では、背景抽出を実施して、記録されたビデオ中の動き/コンポーネントを隔離することができる。いくつかの態様では、背景抽出が完了すると、処理されたビデオは、組立て作業者に関連するモーション/ビデオデータのみを含み(ステップ224)、また、含まれているコンポーネントは、対応する組立てステップ(ステップ220)に使用される。ステップ220で、追加処理を実施して、部品/コンポーネントを隔離することができる。プロセス200の線図によって図解されているように、ステップ220は、異常検出(ステップ221)、表面変化の検出(222)および部品分類および/または品質スコアリング(ステップ223)を含む追加処理操作を含むことができる。それには限定されないが、1つまたは複数のAI/機械学習アルゴリズムおよび/または分類子の使用を含む、様々な信号および/または画像処理技法を使用して、任意のビデオ処理ステップを実施し、それにより例えば異常検出(221)、表面変化の検出(222)を実施し、および/またはスコアリング/分類(ステップ223)を実施することができることを理解されたい。
処理ステップ220~224が完了した後、プロセス200は、モーション比較が実施されるステップ226へ進行することができる。モーション比較(ステップ226)は、対応する理想化されたビデオ/モーションデータとの、1つまたは複数のステーション/ノードにおける一人(1つ)または複数のステーション作業者を含むプロセス組立てステーションビデオデータの比較を含むことができる。複数のステーション/ノードにわたって実施されるモーション比較を使用して、結果として得られる部品/コンポーネント品質の変化を推測/予測することができる。
ステップ228で、様々な部品/コンポーネントに対する分散/品質分類を実施することができる。一例として、部品/コンポーネントは異なる品質層に分類することができ、および/またはそれらの関連する分類/相違に応じて、除去または修理のために識別することができる。
分類/相違が決定された後、プロセス200はステップ230へ進行することができ、ステップ230で、プロセス/ワークフロー全体の解析が、例えばステップ226および228で決定されたステーション/ノード毎の分類/相違に基づいて実施される。ワークフロー全体を解析することにより、ビデオに対する自動調整を実施することができ、それにより、上で考察したように、検出された偏差/欠陥に対処することができる。
図3は、開示される技術のシステムを実現するために使用することができる例示的処理デバイスを図解したものである。処理デバイス300は、マスター中央処理装置(CPU)362、インタフェース368およびバス315(例えばPCIバス)を含む。適切なソフトウェアまたはファームウェアの制御の下で動作すると、CPU362は、様々なエラー検出監視および開示される技術のプロセス調整ステップを実施する責任を負う。CPU362は、オペレーティングシステムおよび任意の適切なアプリケーションソフトウェアを含むソフトウェアの制御の下ですべてのこれらの機能を成し遂げることが好ましい。CPU362は、マイクロプロセッサのMotorolaファミリーからの、あるいはマイクロプロセッサのMIPSファミリーからのプロセッサなどの1つまたは複数のプロセッサ363を含むことができる。代替実施形態では、プロセッサ363は、AIPCシステム310の操作を制御するために特別に設計されたハードウェアである。特定の実施形態では、メモリ361(不揮発性RAMおよび/またはROMなど)もCPU462の一部を形成している。しかしながらメモリをシステムに結合することができる多くの異なる方法が存在している。
いくつかの態様では、処理デバイス310は、画像処理システム370を含むことができ、あるいは画像処理システム370と結合することができる。画像処理システム370は、作業者の動きを監視し、また、モーションデータを生成することができるビデオカメラなどの様々な画像キャプチャデバイスを含むことができる。一例として、画像処理システム370は、ビデオデータをキャプチャし、および/または3Dポイントクラウドを出力し/生成するように構成することができる。
インタフェース368は、典型的にはインタフェースカード(時によっては「ラインカード」と呼ばれることもある)として提供される。一般に、それらは、ネットワークを介したデータパケットの送信および受信を制御し、また、時によっては、ルータと共に使用される他の周辺装置をサポートする。提供され得るインタフェースは、とりわけ、Ethernetインタフェース、フレーム中継インタフェース、ケーブルインタフェース、DSLインタフェース、トークンリングインタフェース、等々である。さらに、高速トークンリングインタフェース、無線インタフェース、Ethernetインタフェース、Gigabit Ethernetインタフェース、ATMインタフェース、HSSIインタフェース、POSインタフェース、FDDIインタフェース、等々などの様々な極めて高速のインタフェースを提供することも可能である。一般に、これらのインタフェースは、適切な媒体との通信に適したポートを含むことができる。いくつかの事例では、それらは独立プロセッサをも含むことができ、また、いくつかの実例では揮発性RAMを含むことができる。独立プロセッサは、このような通信集約タスクをパケット交換、媒体制御および管理として制御することができる。通信集約タスクのための個別のプロセッサを提供することにより、これらのインタフェースは、マスターマイクロプロセッサ362による、経路指定計算、ネットワーク診断、安全保護機能、等々の効果的な実施を許容することができる。
図3に示されているシステムは、本発明の1つの特定の処理デバイスであるが、本発明を実現することができる唯一のネットワークデバイスアーキテクチャでは決してない。例えば通信ならびに経路指定計算、等々を取り扱う単一のプロセッサを有するアーキテクチャがしばしば使用される。さらに、他のタイプのインタフェースおよび媒体をも使用することも可能である。
ネットワークデバイスの構成に無関係に、ネットワークデバイスは、汎用ネットワーク操作のためのプログラム命令を記憶するように構成された1つまたは複数のメモリまたはメモリモジュール(メモリ361を含む)、および本明細書において説明されているローミング、経路最適化および経路指定機能のための機構を使用することができる。プログラム命令は、例えばオペレーティングシステムおよび/または1つまたは複数のアプリケーションの操作を制御することができる。移動度結合、登録および関連表、等々などの表を記憶するように1つまたは複数のメモリを構成することも可能である。
様々な実施形態の論理演算は、(1)汎用コンピュータ内のプログラム可能回路上で走る一連のコンピュータ実現ステップ、操作または手順、(2)特定用途プログラム可能回路上で走る一連のコンピュータ実現ステップ、操作または手順、および/または(3)相互接続機械モジュールまたはプログラム可能回路内のプログラムエンジンとして実現される。システム300は、記載されている方法のすべてまたは一部を実践することができ、記載されているシステムの一部であってもよく、および/または記載されている非一時的コンピュータ可読記憶媒体中の命令に従って動作することができる。このような論理演算は、プロセッサ363を制御するように構成されたモジュールとして実現することができ、それによりそのモジュールのプログラミングに従って特定の機能を実施する。
開示されているプロセスにおけるステップの任意の特定の順序または階層は、例示的手法の例証であることを理解されたい。設計の好みに基づいて、プロセスにおけるステップの特定の順序または階層を再配置することができること、または図解されているステップの一部のみを実施することができることを理解されたい。ステップのうちのいくつかは同時に実施することができる。例えば特定の状況では、多重タスキングおよび並列処理が有利であり得る。さらに、上で説明した実施形態における様々なシステムコンポーネントの分離は、このような分離がすべての実施形態に必要であるものとして理解してはならず、また、説明されているプログラムコンポーネントおよびシステムは、一般に、単一のソフトウェア製品の中で一体に統合することができ、あるいは複数のソフトウェア製品にパッケージ化することができることを理解すべきである。
上記の説明は、すべての当業者による、本明細書において説明されている様々な態様の実践を可能にするために提供されたものである。これらの態様に対する様々な修正は当業者には容易に明らかであり、また、本明細書において定義されている一般原理は、他の態様にも適用することができる。したがって特許請求の範囲には、それが本明細書において示されている態様に限定されることは意図されておらず、特許請求の範囲は、言語請求項と無矛盾の全範囲と一致し、単数形の要素に対する参照には、そうであることが明確に言及されていない限り、「1つであり、また、唯一である」ことを意味するのではなく、「1つまたは複数である」ことが意図されている。
「態様」などの語句は、このような態様が主題技術に必須であること、またはこのような態様を主題技術のすべての構成に適用することを暗に意味していない。態様に関連する開示は、すべての構成に適用することができ、あるいは1つまたは複数の構成に適用することができる。一態様などの語句は、1つまたは複数の態様を意味することができ、また、1つまたは複数の態様は、一態様を意味することができる。「構成」などの語句は、このような構成が主題技術に必須であること、またはこのような構成を主題技術のすべての構成に適用することを暗に意味していない。構成に関連する開示は、すべての構成に適用することができ、あるいは1つまたは複数の構成に適用することができる。一構成などの語句は、1つまたは複数の構成を意味することができ、また、1つまたは複数の構成は、一構成を意味することができる。
「例示的」という語は、本明細書においては、「例または例証として働く」ことを意味するべく使用されている。「例示的」として本明細書において説明されているすべての態様または設計は、他の態様または設計に勝る、好ましい、または有利なものとして必ずしも解釈されるべきではない。

Claims (20)

  1. 組立てラインにおけるワークフローを最適化するための方法であって、
    前記組立てラインにおける第1のステーションに配置された第1の画像キャプチャデバイスから第1のモーションデータを受け取るステップであって、前記第1のモーションデータが、製造物品と相互作用している間に、前記第1のステーションと関連する、一人(1つ)または複数の作業者の中から選択される第1の作業者によって実行されるモーションに対応する、ステップと、
    前記第1のモーションデータに基づいて、前記第1の作業者によって実行された前記モーションに対するエラー分散を計算するステップと、
    前記エラー分散に基づいて前記製造物品の偏差を識別するステップと、
    前記計算されたエラー分散に基づいて、前記一人(1つ)または複数の作業者のうちの少なくとも一人(1つ)に提供される組立て指示を自動的に調整し、それにより修正された組立て指示を生成するステップと
    を含む方法。
  2. 前記修正された組立て指示が、前記一人(1つ)または複数の作業者のうちの前記少なくとも一人(1つ)に、前記製造物品の前記識別された偏差を小さくし、あるいは除去するための指示を提供するように構成される、請求項1に記載の方法。
  3. 前記一人(1つ)または複数の作業者が前記第1の作業者を含む、請求項1に記載の方法。
  4. 前記一人(1つ)または複数の作業者が第2のステーションと関連する第2の作業者を含み、前記第2のステーションが前記組立てラインにおける前記第1のステーションから下流側である、請求項1に記載の方法。
  5. 前記一人(1つ)または複数の作業者が、第2のステーションと関連する第2の作業者および第3のステーションと関連する第3の作業者を含み、
    前記第2のステーションが前記組立てラインにおける前記第1のステーションから下流側であり、また、前記第3のステーションが前記組立てラインにおける前記第2のステーションから下流側である、請求項1に記載の方法。
  6. 組立てラインにおける第4のステーションに配置された第4の画像キャプチャデバイスから第4のモーションデータを受け取るステップであって、前記第4のモーションデータが、前記製造物品と相互作用している間に、前記第4のステーションと関連する第4の作業者によって実行されるモーションに対応する、ステップ
    をさらに含み、前記エラー分散を計算するステップが前記第4の作業者によって実行されるモーションにさらに基づく、請求項1に記載の方法。
  7. 前記製造物品の前記組立てにおける前記偏差を識別するステップが1つまたは複数の機械学習モデルを使用して実施される、請求項1に記載の方法。
  8. 組立てラインにおけるワークフローを最適化するためのシステムであって、
    複数の画像キャプチャデバイスであって、前記画像キャプチャデバイスの各々が、組立てラインにおける複数のステーションのうちの1つまたは複数に配置される、複数の画像キャプチャデバイスと、
    前記複数のステーションのうちの1つまたは複数に提供された手引きおよび指示を自動的に修正するように構成された組立て指示モジュールと、を備え、前記組立て指示モジュールが前記複数の画像キャプチャデバイスに結合され、前記組立て指示モジュールが、
    前記組立て指示モジュールによって、前記複数の画像キャプチャデバイスのうちの第1の画像キャプチャデバイスから第1のモーションデータを受け取るステップであって、前記第1の画像キャプチャデバイスが前記組立てラインにおける第1のステーションに配置され、前記第1のモーションデータが、製造物品と相互作用している間に、前記第1のステーションと関連する、一人(1つ)または複数の作業者の中から選択される第1の作業者によって実行されるモーションに対応する、ステップと、
    前記第1のモーションデータに基づいて、前記第1の作業者によって実行された前記モーションに対するエラー分散を計算するステップと、
    前記エラー分散に基づいて前記製造物品の偏差を識別するステップと、
    前記計算されたエラー分散に基づいて、前記一人(1つ)または複数の作業者のうちの少なくとも一人(1つ)に提供される組立て指示を自動的に調整し、それにより修正された組立て指示を生成するステップと
    を含む操作を実施するように構成される、
    システム。
  9. 前記修正された組立て指示が、前記一人(1つ)または複数の作業者のうちの前記少なくとも一人(1つ)に、前記製造物品の前記識別された偏差を小さくし、あるいは除去するための指示を提供するように構成される、請求項8に記載のシステム。
  10. 前記一人(1つ)または複数の作業者が前記第1の作業者を含む、請求項8に記載のシステム。
  11. 前記一人(1つ)または複数の作業者が第2のステーションと関連する第2の作業者を含み、前記第2のステーションが前記組立てラインにおける前記第1のステーションから下流側である、請求項8に記載のシステム。
  12. 前記一人(1つ)または複数の作業者が、第2のステーションと関連する第2の作業者および第3のステーションと関連する第3の作業者を含み、
    前記第2のステーションが前記組立てラインにおける前記第1のステーションから下流側であり、また、前記第3のステーションが前記組立てラインにおける前記第2のステーションから下流側である、請求項8に記載のシステム。
  13. 組立てラインにおける第4のステーションに配置された第4の画像キャプチャデバイスから第4のモーションデータを受け取るステップであって、前記第4のモーションデータが、前記製造物品と相互作用している間に、前記第4のステーションと関連する第4の作業者によって実行されるモーションに対応する、ステップ
    をさらに含み、前記エラー分散を計算するステップが前記第4の作業者によって実行されるモーションにさらに基づく、請求項8に記載のシステム。
  14. 前記製造物品の前記組立てにおける前記偏差を識別するステップが1つまたは複数の機械学習モデルを使用して実施される、請求項8に記載のシステム。
  15. その上に記憶された命令を含む非一時的コンピュータ可読媒体であって、前記命令が、1つまたは複数のプロセッサによって実行されると、
    組立てラインにおける第1のステーションに配置された第1の画像キャプチャデバイスから第1のモーションデータを受け取るステップであって、前記第1のモーションデータが、製造物品と相互作用している間に、前記第1のステーションと関連する一人(1つ)または複数の作業者の中から選択される第1の作業者によって実行されるモーションに対応する、ステップと、
    前記第1のモーションデータに基づいて、前記第1の作業者によって実行された前記モーションに対するエラー分散を計算するステップと、
    前記エラー分散に基づいて、前記製造物品の偏差を識別するステップと、
    前記計算されたエラー分散に基づいて、前記一人(1つ)または複数の作業者のうちの少なくとも一人(1つ)に提供される組立て指示を自動的に調整し、それにより修正された組立て指示を生成するステップと
    を含む命令を前記プロセッサが実行することになるように構成される、非一時的コンピュータ可読媒体。
  16. 前記修正された組立て指示が、前記一人(1つ)または複数の作業者のうちの前記少なくとも一人(1つ)に、前記製造物品の前記識別された偏差を小さくし、あるいは除去するための指示を提供するように構成される、請求項15に記載の非一時的コンピュータ可読媒体。
  17. 前記一人(1つ)または複数の作業者が前記第1の作業者を含む、請求項15に記載の非一時的コンピュータ可読媒体。
  18. 前記一人(1つ)または複数の作業者が第2のステーションと関連する第2の作業者を含み、前記第2のステーションが前記組立てラインにおける前記第1のステーションから下流側である、請求項15に記載の非一時的コンピュータ可読媒体。
  19. 前記一人(1つ)または複数の作業者が、第2のステーションと関連する第2の作業者および第3のステーションと関連する第3の作業者を含み、
    前記第2のステーションが前記組立てラインにおける前記第1のステーションから下流側であり、また、前記第3のステーションが前記組立てラインにおける前記第2のステーションから下流側である、請求項15に記載の非一時的コンピュータ可読媒体。
  20. 組立てラインにおける第4のステーションに配置された第4の画像キャプチャデバイスから第4のモーションデータを受け取るステップであって、前記第4のモーションデータが、前記製造物品と相互作用している間に、前記第4のステーションと関連する第4の作業者によって実行されるモーションに対応する、ステップ
    のための操作を前記プロセッサが実施することになるように構成された命令をさらに含み、前記エラー分散を計算するステップが前記第4の作業者によって実行されるモーションにさらに基づく、請求項15に記載の非一時的コンピュータ可読媒体。
JP2021549835A 2019-02-28 2019-09-30 組立てラインにおけるワークフローを最適化するための方法、デバイス及び非一時的コンピュータ可読媒体 Active JP7437054B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/289,422 2019-02-28
US16/289,422 US10481579B1 (en) 2019-02-28 2019-02-28 Dynamic training for assembly lines
PCT/US2019/053746 WO2020176137A1 (en) 2019-02-28 2019-09-30 Dynamic training for assembly lines

Publications (2)

Publication Number Publication Date
JP2022522436A true JP2022522436A (ja) 2022-04-19
JP7437054B2 JP7437054B2 (ja) 2024-02-22

Family

ID=68536277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021549835A Active JP7437054B2 (ja) 2019-02-28 2019-09-30 組立てラインにおけるワークフローを最適化するための方法、デバイス及び非一時的コンピュータ可読媒体

Country Status (7)

Country Link
US (4) US10481579B1 (ja)
EP (1) EP3908892A4 (ja)
JP (1) JP7437054B2 (ja)
KR (1) KR20210133250A (ja)
CN (1) CN113454548A (ja)
TW (1) TWI830791B (ja)
WO (1) WO2020176137A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112018070565A2 (pt) 2016-04-07 2019-02-12 Bp Exploration Operating Company Limited detecção de eventos de fundo de poço usando características de domínio da frequência acústicas
US11084225B2 (en) 2018-04-02 2021-08-10 Nanotronics Imaging, Inc. Systems, methods, and media for artificial intelligence process control in additive manufacturing
GB201820331D0 (en) 2018-12-13 2019-01-30 Bp Exploration Operating Co Ltd Distributed acoustic sensing autocalibration
US10481579B1 (en) * 2019-02-28 2019-11-19 Nanotronics Imaging, Inc. Dynamic training for assembly lines
US11209795B2 (en) 2019-02-28 2021-12-28 Nanotronics Imaging, Inc. Assembly error correction for assembly lines
EP3736754A1 (en) * 2019-05-09 2020-11-11 Siemens Aktiengesellschaft A method and apparatus for providing predictions of key performance indicators of a complex manufacturing system
CN114450135A (zh) 2019-09-10 2022-05-06 纳米电子成像有限公司 用于制造过程的系统、方法和介质
EP4045766A1 (en) 2019-10-17 2022-08-24 Lytt Limited Fluid inflow characterization using hybrid das/dts measurements
EP4080407A4 (en) * 2019-12-20 2023-02-01 BOE Technology Group Co., Ltd. COMPUTER INFERENCE DEVICE, PATTERN LEARNING DEVICE AND COMPUTER LEARNING SYSTEM
US11720068B2 (en) * 2020-01-06 2023-08-08 Opro.Ai Inc. Autonomous industrial process control system and method that provides autonomous retraining of forecast model
WO2021151504A1 (en) * 2020-01-31 2021-08-05 Lytt Limited Maching learning using time series data
CN115039040A (zh) * 2020-02-21 2022-09-09 纳米电子成像有限公司 制造过程的系统、方法和介质
EP4118512A4 (en) * 2020-03-09 2024-04-03 Nanotronics Imaging Inc SYSTEMS, PROCESSES AND SUPPORTS FOR MANUFACTURING PROCESSES
US11244262B2 (en) 2020-03-17 2022-02-08 Freeport-Mcmoran Inc. Methods and systems for deploying equipment required to meet defined production targets
WO2021249643A1 (en) 2020-06-11 2021-12-16 Lytt Limited Systems and methods for subterranean fluid flow characterization
KR20230025698A (ko) * 2020-06-18 2023-02-22 나노트로닉스 이미징, 인코포레이티드 제조 공정을 위한 시스템, 방법 및 매체
CA3182376A1 (en) 2020-06-18 2021-12-23 Cagri CERRAHOGLU Event model training using in situ data
EP3961327B1 (en) * 2020-08-27 2023-11-01 Omron Europe B.V. Assembly assistance device and method
US11335443B1 (en) 2020-09-07 2022-05-17 OpenNano Pte. Ltd. Phenotypic patient data derivation from economic data
JP2022100660A (ja) * 2020-12-24 2022-07-06 セイコーエプソン株式会社 ロボットの制御プログラムを作成する処理をプロセッサーに実行させるコンピュータープログラム、並びに、ロボットの制御プログラムを作成する方法及びシステム
KR20220133712A (ko) * 2021-03-25 2022-10-05 현대자동차주식회사 차량의 품질 관리 시스템 및 그 방법
LU102785B1 (en) 2021-04-14 2022-10-14 Dillygence Sas Simulation process of a manufacturing system
CN114253232B (zh) * 2021-12-01 2023-05-26 中国电子科技集团公司第二十九研究所 一种生产线中加工工位的配置方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001100838A (ja) * 1999-09-27 2001-04-13 Hitachi Ltd 製造職場の不良の起こし易さ評価方法及びその装置、製品の品質評価方法及びその装置並びに記録媒体
JP2002230337A (ja) * 2001-02-06 2002-08-16 Hitachi Ltd 企業間取引方法及び企業間取引仲介方法
JP2003167613A (ja) * 2001-11-30 2003-06-13 Sharp Corp 作業管理システム、作業管理方法、及びその方法を実現するためのプログラムを記憶した記録媒体
JP2005211105A (ja) * 2004-01-27 2005-08-11 Osaka Gas Co Ltd 観察対象者の動作解析システム
JP2007280366A (ja) * 2006-03-13 2007-10-25 Hitachi Ltd 設計支援方法およびそのシステム
JP2009134623A (ja) * 2007-11-30 2009-06-18 Omron Corp 工程改善支援装置、工程改善支援方法、工程改善支援用プログラム、および工程改善支援用プログラムを記録した記録媒体
US20090198464A1 (en) * 2008-01-31 2009-08-06 Caterpillar Inc. System and method for assembly inspection
JP2015181024A (ja) * 2015-05-14 2015-10-15 オムロン株式会社 作業管理システムおよび作業管理方法

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT1129509B (it) * 1980-01-14 1986-06-04 Tasco Spa Procedimento ed apparecchiatura per il ritrovamento in tempo reale di difetti in oggetti industriali
JPS6224873U (ja) 1985-07-30 1987-02-16
US4953100A (en) * 1986-10-03 1990-08-28 Omron Tateisi Electronics Co. Apparatus for inspecting packaged electronic device
US5815198A (en) * 1996-05-31 1998-09-29 Vachtsevanos; George J. Method and apparatus for analyzing an image to detect and identify defects
DE50007902D1 (de) 1999-03-02 2004-10-28 Siemens Ag Augmented-reality-system mit einsatz mobiler geräte
US6650779B2 (en) 1999-03-26 2003-11-18 Georgia Tech Research Corp. Method and apparatus for analyzing an image to detect and identify patterns
DE10057928C1 (de) * 2000-11-22 2002-02-21 Inb Vision Ag Verfahren zur Erkennung von Abweichungen der Oberflächenform von einer vorgegebenen Form
JP2004104576A (ja) 2002-09-11 2004-04-02 Mitsubishi Heavy Ind Ltd 作業用ウェアラブル装置、遠隔作業指示装置、遠隔作業指示方法および遠隔作業指示プログラム
US7202793B2 (en) 2002-10-11 2007-04-10 Attention Technologies, Inc. Apparatus and method of monitoring a subject and providing feedback thereto
JP2005250990A (ja) 2004-03-05 2005-09-15 Mitsubishi Electric Corp 作業支援装置
JP4972298B2 (ja) * 2005-08-10 2012-07-11 株式会社日立ハイテクノロジーズ 半導体デバイスの欠陥検査方法及びその装置
US8103087B2 (en) * 2006-01-20 2012-01-24 Hitachi High-Technologies Corporation Fault inspection method
JP4784752B2 (ja) 2006-06-30 2011-10-05 サクサ株式会社 画像処理装置
DE102007062376A1 (de) 2007-12-22 2009-06-25 Dietz-Automotive Gmbh & Co. Kg Verfahren zur Montage einer Baugruppe
WO2009122393A2 (en) * 2008-03-31 2009-10-08 Brightview Systems Ltd. A method and system for photovoltaic cell production yield enhancement
US9671357B2 (en) * 2009-12-10 2017-06-06 Emhardt Glass S.A. System and method for monitoring hot glass containers to enhance their quality and control the forming process
SG192295A1 (en) * 2012-01-10 2013-08-30 K One Ind Pte Ltd Flexible assembly line for tray packaging
WO2014076755A1 (ja) * 2012-11-13 2014-05-22 富士機械製造株式会社 基板生産状況監視装置
US20140247347A1 (en) 2013-03-04 2014-09-04 Matthew C. McNeill Methods and Apparatus for Video Based Process Monitoring and Control
JP6113631B2 (ja) 2013-11-18 2017-04-12 東芝三菱電機産業システム株式会社 作業確認システム
WO2015198309A1 (en) * 2014-06-23 2015-12-30 Hochman Eldad Izhak Detection of human-machine interaction errors
US9846934B2 (en) * 2015-04-13 2017-12-19 Anchor Semiconductor Inc. Pattern weakness and strength detection and tracking during a semiconductor device fabrication process
JP2017091091A (ja) 2015-11-06 2017-05-25 三菱電機株式会社 作業情報生成装置
US10805538B2 (en) * 2015-12-16 2020-10-13 Martineau & Associates, Inc. Method and apparatus for remanent imaging control
CN108604393B (zh) 2016-03-04 2022-12-30 日铁系统集成株式会社 信息处理系统、信息处理装置、信息处理方法以及计算机可读取的存储介质
DE102016203674A1 (de) 2016-03-07 2017-09-07 Homag Gmbh Verfahren zum Betreiben einer Durchlaufmaschine sowie Durchlaufmaschine
JP6608778B2 (ja) 2016-08-01 2019-11-20 株式会社日立製作所 作業動作指示装置
JP6823661B2 (ja) * 2016-09-26 2021-02-03 株式会社Fuji 部品実装機の機外作業エリア監視システム
US20180150070A1 (en) * 2016-11-29 2018-05-31 Caterpillar Inc. Portable inspection and control device
JP6506245B2 (ja) 2016-12-26 2019-04-24 ファナック株式会社 組付動作を学習する機械学習装置および部品組付システム
US10409614B2 (en) * 2017-04-24 2019-09-10 Intel Corporation Instructions having support for floating point and integer data types in the same register
CN107389701A (zh) * 2017-08-22 2017-11-24 西北工业大学 一种基于图像的pcb表观缺陷自动检测系统及方法
EP3683640B1 (en) 2017-09-30 2023-03-15 Siemens Aktiengesellschaft Fault diagnosis method and apparatus for numerical control machine tool
CN107886500A (zh) * 2017-10-13 2018-04-06 北京邮电大学 一种基于机器视觉和机器学习的产品生产监控方法及系统
US11106902B2 (en) * 2018-03-13 2021-08-31 Adobe Inc. Interaction detection model for identifying human-object interactions in image content
US10733723B2 (en) * 2018-05-22 2020-08-04 Midea Group Co., Ltd. Methods and system for improved quality inspection
WO2019239553A1 (ja) 2018-06-14 2019-12-19 三菱電機株式会社 機械学習装置、補正パラメータ調整装置および機械学習方法
US11209795B2 (en) 2019-02-28 2021-12-28 Nanotronics Imaging, Inc. Assembly error correction for assembly lines
US10481579B1 (en) * 2019-02-28 2019-11-19 Nanotronics Imaging, Inc. Dynamic training for assembly lines

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001100838A (ja) * 1999-09-27 2001-04-13 Hitachi Ltd 製造職場の不良の起こし易さ評価方法及びその装置、製品の品質評価方法及びその装置並びに記録媒体
JP2002230337A (ja) * 2001-02-06 2002-08-16 Hitachi Ltd 企業間取引方法及び企業間取引仲介方法
JP2003167613A (ja) * 2001-11-30 2003-06-13 Sharp Corp 作業管理システム、作業管理方法、及びその方法を実現するためのプログラムを記憶した記録媒体
JP2005211105A (ja) * 2004-01-27 2005-08-11 Osaka Gas Co Ltd 観察対象者の動作解析システム
JP2007280366A (ja) * 2006-03-13 2007-10-25 Hitachi Ltd 設計支援方法およびそのシステム
JP2009134623A (ja) * 2007-11-30 2009-06-18 Omron Corp 工程改善支援装置、工程改善支援方法、工程改善支援用プログラム、および工程改善支援用プログラムを記録した記録媒体
US20090198464A1 (en) * 2008-01-31 2009-08-06 Caterpillar Inc. System and method for assembly inspection
JP2015181024A (ja) * 2015-05-14 2015-10-15 オムロン株式会社 作業管理システムおよび作業管理方法

Also Published As

Publication number Publication date
JP7437054B2 (ja) 2024-02-22
TWI830791B (zh) 2024-02-01
US20230324874A1 (en) 2023-10-12
US20220043420A1 (en) 2022-02-10
US11675330B2 (en) 2023-06-13
TW202034231A (zh) 2020-09-16
US20200278657A1 (en) 2020-09-03
US11156982B2 (en) 2021-10-26
KR20210133250A (ko) 2021-11-05
US10481579B1 (en) 2019-11-19
EP3908892A1 (en) 2021-11-17
EP3908892A4 (en) 2022-10-12
WO2020176137A1 (en) 2020-09-03
CN113454548A (zh) 2021-09-28

Similar Documents

Publication Publication Date Title
JP7437054B2 (ja) 組立てラインにおけるワークフローを最適化するための方法、デバイス及び非一時的コンピュータ可読媒体
US11703824B2 (en) Assembly error correction for assembly lines
JP7207790B2 (ja) 組立てラインのための組立てエラー修正
US20230391016A1 (en) Systems, methods, and media for artificial intelligence process control in additive manufacturing
US10518357B2 (en) Machine learning device and robot system to learn processing order of laser processing robot and machine learning method thereof
Li et al. Generalized hindsight for reinforcement learning
JP6457421B2 (ja) シミュレーション結果を利用して学習を行う機械学習装置,機械システム,製造システムおよび機械学習方法
CN109816624A (zh) 外观检查装置
JP6666744B2 (ja) コンピュータプログラム、作業分析支援方法及び作業分析支援装置
WO2020176908A1 (en) Assembly error correction for assembly lines
WO2019180868A1 (ja) 画像生成装置、画像生成方法および画像生成プログラム
TWM592123U (zh) 推論系統或產品品質異常的智能系統
TW202418149A (zh) 用於最佳化一裝配線中之工作流程之方法及系統、及非暫時性電腦可讀媒體
CN116414094A (zh) 一种焊接装配智能调度方法及系统
JP2023516776A (ja) 製造プロセスのためのシステム、方法及び媒体
Zheng et al. Explaining Imitation Learning Through Frames
Papavasileiou et al. A Voice-Enabled ROS2 Framework for Human–Robot Collaborative Inspection
Li Adversarial Learning-Assisted Data Analytics in Manufacturing and Healthcare Systems
Rao et al. An improved Multiperceptron Neural network model to classify Software defects
CN114528691A (zh) 一种自然人数字化模型的演进方法
Sannen et al. Active grading ensembles for learning visual quality control from multiple humans

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221107

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230704

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230922

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240202

R150 Certificate of patent or registration of utility model

Ref document number: 7437054

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150