JP2022522159A - Assembly error correction for assembly lines - Google Patents

Assembly error correction for assembly lines Download PDF

Info

Publication number
JP2022522159A
JP2022522159A JP2021549836A JP2021549836A JP2022522159A JP 2022522159 A JP2022522159 A JP 2022522159A JP 2021549836 A JP2021549836 A JP 2021549836A JP 2021549836 A JP2021549836 A JP 2021549836A JP 2022522159 A JP2022522159 A JP 2022522159A
Authority
JP
Japan
Prior art keywords
assembly
target object
steps
target
instructions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021549836A
Other languages
Japanese (ja)
Other versions
JP7207790B2 (en
Inventor
シー プットマン,マシュー
ピンスキー,バディム
キム,ウンソル
サンドストローム,アンドリュー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanotronics Imaging Inc
Original Assignee
Nanotronics Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/587,366 external-priority patent/US11156982B2/en
Application filed by Nanotronics Imaging Inc filed Critical Nanotronics Imaging Inc
Priority claimed from PCT/US2020/029022 external-priority patent/WO2020176908A1/en
Publication of JP2022522159A publication Critical patent/JP2022522159A/en
Priority to JP2022207136A priority Critical patent/JP2023040079A/en
Application granted granted Critical
Publication of JP7207790B2 publication Critical patent/JP7207790B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41805Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by assembly
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31027Computer assisted manual assembly CAA, display operation, tool, result
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31046Aid for assembly, show display on screen next workpiece, task, position to be assembled, executed
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Manufacturing & Machinery (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

開示される技術の態様は、手動組立てプロセスの間、エラーを検出するために、また、検出されたエラーを軽減するべく、その手動組立てプロセスを完了するための一連のステップを決定するために機械学習を利用する計算モデルを提供する。いくつかの実施態様では、開示される技術は、エラーが検出される組立てプロセスのあるステップにおける目標対象を公称対象に対して評価し、それにより比較を得る。この比較に基づいて、目標対象の組立てプロセスを完了するための一連のステップが得られる。この一連のステップに基づいて、目標対象を作り出すための組立て指示が調整される。An aspect of the technique disclosed is a machine for detecting errors during the manual assembly process and for determining a series of steps to complete the manual assembly process in order to mitigate the detected errors. Provides a computational model that utilizes learning. In some embodiments, the disclosed technique evaluates a target object at a step in the assembly process where an error is detected against a nominal object, thereby obtaining a comparison. Based on this comparison, a series of steps is obtained to complete the target assembly process. Based on this series of steps, the assembly instructions for creating the target object are adjusted.

Description

関連出願の相互参照
本出願は、2019年9月30に出願した、「DYNAMIC TRAINING FOR ASSEMBLY LINES,」という名称の米国特許出願第16/587,366号の一部継続出願であり、この米国特許出願第16/587,366号は、2019年2月28日に出願した、「DYNAMIC TRAINING FOR ASSEMBLY LINES,」という名称の米国出願第16/289,422号、現在は米国特許第10,481,579号の継続出願である。さらに、本出願は、2019年4月19日に出願した、「A COMPUTATION MODEL FOR DECISION-MAKING AND ASSEMBLY OPTIMIZATION IN MANUFACTURING,」という名称の米国仮出願第62/836,192号、2019年11月6日に出願した、「A COMPUTATION MODEL FOR DECISION-MAKING AND ASSEMBLY OPTIMIZATION IN MANUFACTURING,」という名称の米国仮出願第62/931,448号、および2019年11月7日に出願した、「DEEP LEARNING QUALITY PREDICTOR FOR MANUAL ASSEMBLY VIDEO ANALYSIS,」という名称の米国仮出願第62/932,063号の利益を主張するものである。上記出願および特許の内容全体は、参照により本明細書に組み込まれている。
Mutual reference to related applications This application is a partial continuation of US Patent Application No. 16 / 587,366, entitled "DYNAMIC TRAINING FOR ASSEMBLY LINES," filed on September 30, 2019. Application No. 16 / 587,366 is a US application No. 16 / 289,422, entitled "DYNAMIC TRAINING FOR ASSEMBLY LINES," filed on February 28, 2019, and is now US Pat. No. 10,481, It is a continuation application of No. 579. In addition, this application is filed on April 19, 2019, US Provisional Application No. 62 / 863,192, entitled "A COMPUTATION MODEL FOR DECISION-MAKING AND ASSEMBLY OPTIMIZETION IN MANUFACTURING,", November 6, 2019. US provisional application No. 62 / 931,448, filed on the same day, "A COMPUTATION-MODEL FOR DECISION-MAKING AND ASSEMBLY OPTIMIZETION IN MANUFACTURING," and "DEEP PRODUCT" filed on November 7, 2019. It claims the benefit of US Provisional Application No. 62 / 923,063, entitled "FOR MANUAL ASSEMBLY VIDEO ANALYSIS,". The entire contents of the above applications and patents are incorporated herein by reference.

主題技術は、組立てラインワークフローに対する改善を提供し、詳細には、機械学習モデルを使用してなされるフィードバックおよびフィードフォワードエラー伝搬予測に基づいて組立てライン作業者指示を適応的に更新するためのシステムおよび方法を包含している。以下でさらに詳細に考察されるように、技術のいくつかの態様は、製造偏差または組立て偏差に関してなされる推測に基づいて、1つまたは複数の作業者ステーションで提供される手引きビデオを自動的に適合させるためのシステムおよび方法を包含している。 Thematic technology provides improvements to the assembly line workflow and, in particular, a system for adaptively updating assembly line worker instructions based on feedback and feedforward error propagation predictions made using machine learning models. And methods are included. As discussed in more detail below, some aspects of the technique automatically produce guidance videos provided at one or more worker stations based on speculations made regarding manufacturing deviations or assembly deviations. It includes systems and methods for adaptation.

従来の組立てラインワークフローでは、製造エラーを検出するためには、また、下流側プロセスにおける修正を介してエラーを除去することができる方法を決定するためには、人間(作業者)監視および専門的技術が必要である。組立てと製造、ならびに、組立てラインと生産ラインは、本明細書において交換可能に使用されていることに留意されたい。組立てエラーの検出を人間に依存しているため、エラーが見落とされ(あるいは報告されず)、また、そのまま組立てプロセスにおける下流側に伝搬される高い可能性が存在している。さらに、多くの組立て作業者は、狭い範囲の一組のタスクを実施するように訓練されているにすぎず、したがって組立てワークフローにおける上流側で生じたエラーを最も良好に訂正するための作業者自身のワークフローの修正方法を認識していないことがあり得る。 In traditional assembly line workflows, human (worker) monitoring and professionalism is used to detect manufacturing errors and to determine how the errors can be eliminated through corrections in downstream processes. Technology is needed. It should be noted that assembly and manufacturing, as well as assembly and production lines, are used interchangeably herein. Since the detection of assembly errors depends on humans, there is a high possibility that the errors will be overlooked (or not reported) and will be propagated downstream in the assembly process as is. In addition, many assemblers are only trained to perform a narrow set of tasks, and therefore the workers themselves to best correct errors that occur upstream in the assembly workflow. You may not be aware of how to modify your workflow.

従来の製造ワークフローでは、手動検査プロセスの一部における人間のエラーの修復は、しばしば、その人間ノード上で修正行為を取ることによって処理されている。その人間にかかわる継続する問題が存在している場合、その人は、しばしば、すべての人間がそうであるように、多くの同じ限界に対して傷つき易い他の人に代えられる。ある行為を、エラーを犯すことなく、何年にもわたって絶えず繰り返すことは困難であり、また、修正行為を取ることは、ほとんどの組立て作業者の権利外である。これらの権利が与えられたとしても、そこには矛盾が存在し、また、その単一のプロセスノードのアプリケーションにおいて、その人間が有している経験によってのみ告げられることになる。さらに、何らかの間違いから、さらには何らかの積極的な修正行為から学習するための機構は存在していない。 In traditional manufacturing workflows, repairing human errors as part of the manual inspection process is often handled by taking corrective action on that human node. If there are ongoing problems with that person, that person is often replaced by others who are vulnerable to many of the same limits, as is the case with all humans. It is difficult to constantly repeat an action for years without making an error, and taking corrective action is outside the rights of most assemblers. Even if these rights are given, there is a contradiction, and in the application of that single process node, it will only be told by the experience that the person has. Moreover, there is no mechanism for learning from any mistakes, or even from any positive corrections.

さらに、組立てラインの電子監視には限界があり、また、上流側のステップで生じたエラーを補償するための、組立てラインにおける下流側のステップに対する臨機応変な調整を提供するための頑丈な機構を含んでいない。さらに、作業者モーションの変化および/または組立てパターンの変化が、結果として得られる製造製品に如何に影響を及ぼすかを評価し、かつ、製造製品の性能および/または特性を改善するための修正行為を提供するための新しい機構が必要である。 In addition, the electronic monitoring of the assembly line is limited, and a rugged mechanism is provided to provide flexible adjustments to the downstream steps in the assembly line to compensate for errors that occur in the upstream steps. Does not include. In addition, modifications to assess how changes in worker motion and / or changes in assembly patterns affect the resulting manufactured product and to improve the performance and / or characteristics of the manufactured product. Need a new mechanism to provide.

いくつかの態様では、開示される技術は、組立てラインにおけるワークフローを最適化するための方法に関し、方法は、目標対象の組立てのあるステップにおいて、目標対象の組立てのエラーを検出するステップと、組立てプロセスのそのステップにおける目標対象と公称対象とを評価し、それにより比較を得るステップと、その比較に基づいて、目標対象と公称対象の間の偏差を最小化するために必要な一連のステップを決定するステップとを含む。いくつかの態様では、方法は、上記一連のステップに基づいて目標対象のための組立て指示を調整するためのステップをさらに含むことができる。 In some embodiments, the disclosed technique relates to a method for optimizing a workflow in an assembly line, wherein the method is to detect an error in the assembly of the target object in one step of the assembly of the target object, and to assemble. A step that evaluates the target and the nominal object at that step of the process and thereby obtains a comparison, and a series of steps necessary to minimize the deviation between the target and the nominal object based on the comparison. Includes steps to determine. In some embodiments, the method may further include a step for adjusting assembly instructions for the target object based on the series of steps described above.

別の態様では、開示される技術は、組立てラインにおけるワークフローを最適化するためのシステムを包含し、システムは、複数の画像キャプチャデバイスであって、画像キャプチャデバイスの各々は、目標対象の組立てプロセスの間、作業者の動きをキャプチャするために異なる位置に配置される、複数の画像キャプチャデバイスと、作業者に提供された手引きおよび指示を自動的に修正するように構成された組立て指示モジュールであって、上記複数の撮像デバイスに結合される、組立て指示モジュールとを含む。組立て指示モジュールは、複数の画像キャプチャデバイスからモーションデータを受け取るステップであって、モーションデータは、作業者による、目標対象を組み立てるための一組のステップの実行に対応する、ステップと、上記一組のステップのうちのあるステップにおけるモーションデータに基づいて、目標対象の組立てにおけるエラーを決定するステップとを含む操作を実施するように構成することができる。いくつかの実施態様では、組立て指示モジュールは、上記一組のステップのうちの上記ステップにおける目標対象と公称対象とを評価し、それにより比較を得るための操作を実施し、その比較に基づいて、目標対象と公称対象の間の偏差を最小化するために必要な一連のステップを決定し、かつ、上記一連のステップに基づいて、作業者に提供される組立て指示を調整するようにさらに構成することができる。修正された組立て指示の形態は、それらに限定されないが、モーションデータの生成された、あるいは編集されたビデオ、識別された偏差の自然言語処理(NLP)からのテキストベースの指示、または作業者への他のフィードバック機構を含むことができる。 In another aspect, the disclosed technology comprises a system for optimizing a workflow in an assembly line, where the system is a plurality of image capture devices, each of which is a target assembly process. During, with multiple image capture devices placed in different positions to capture the movement of the worker, and an assembly instruction module configured to automatically modify the guidance and instructions provided to the worker. It includes an assembly instruction module that is coupled to the plurality of imaging devices. The assembly instruction module is a step of receiving motion data from a plurality of image capture devices, and the motion data corresponds to an operator's execution of a set of steps for assembling a target object, and the above-mentioned set. Based on the motion data in one of the steps, the operation can be configured to include a step of determining an error in the assembly of the target object. In some embodiments, the assembly instruction module evaluates the target object and the nominal object in the above set of steps, thereby performing an operation to obtain a comparison, and based on the comparison. Further configured to determine the sequence of steps required to minimize the deviation between the target and the nominal object, and to adjust the assembly instructions provided to the operator based on the sequence of steps described above. can do. The forms of the modified assembly instructions are not limited to them, but are the generated or edited video of the motion data, the text-based instructions from the natural language processing (NLP) of the identified deviations, or to the operator. Other feedback mechanisms can be included.

さらに別の態様では、開示される技術は、その上に記憶された命令を含む非一時的コンピュータ可読媒体に関しており、命令は、1つまたは複数のプロセッサによって実行されると、目標対象の組立てプロセスのあるステップにおいて、目標対象の組立てにおけるエラーを検出するステップ、組立てプロセスの上記ステップにおける目標対象と公称対象とを評価し、それにより比較を得るステップ、およびその比較に基づいて、目標対象と公称対象の間の偏差を最小化するために必要な一連のステップを決定するステップを実施することを含む命令をプロセッサが実行することになるように構成される。いくつかの実施態様では、命令は、上記一連のステップに基づいて、目標対象のための組立て指示を調整するための操作をプロセッサが実施することになるようにさらに構成することができる。 In yet another aspect, the disclosed technology relates to a non-temporary computer-readable medium containing instructions stored on it, which, when executed by one or more processors, is a target assembly process. In one step, the step of detecting an error in the assembly of the target object, the step of evaluating the target object and the nominal object in the above steps of the assembly process and thereby obtaining a comparison, and the target object and the nominal object based on the comparison. The processor is configured to execute an instruction that involves performing a step that determines the sequence of steps required to minimize the deviation between objects. In some embodiments, the instructions can be further configured to allow the processor to perform operations to coordinate assembly instructions for the target object based on the series of steps described above.

主題技術の特定の特徴は、添付の特許請求の範囲に示されている。しかしながらさらなる理解を提供するために含まれている添付の図面は、開示される態様を図解したものであり、説明と相俟って主題技術の原理を説明する働きをしている。 Specific features of the subject technology are set forth in the appended claims. However, the accompanying drawings included to provide further understanding illustrate the aspects to be disclosed and, in combination with the explanation, serve to explain the principles of the subject art.

開示される技術のいくつかの態様による、例示的生産ライン展開のフローチャートを概念的に示す図である。It is a figure which conceptually shows the flowchart of the exemplary production line development by some aspect of the disclosed technique.

開示される技術のいくつかの態様による、所与の作業者ステーションで組立てエラー修正を実施するためのプロセスの例を示す図である。FIG. 6 illustrates an example of a process for performing assembly error correction at a given worker station, according to some aspects of the disclosed technique.

主題技術のいくつかの態様を実現するために使用することができる電子システムの例を示す図である。It is a figure which shows the example of the electronic system which can be used to realize some aspects of the subject art.

以下に示されている詳細な説明には、主題技術の様々な構成についての説明であることが意図されており、主題技術を実践することができる構成のみを表すことは意図されていない。添付の図面は本明細書に組み込まれており、詳細な説明の一部を構成している。詳細な説明は、主題技術についてのより完全な理解を提供するために特定の詳細を含む。しかしながら主題技術は、本明細書において示されている特定の詳細に限定されないこと、また、これらの詳細がなくても実践することができることは明確で、かつ、明らかであろう。いくつかの実例では、主題技術の概念を曖昧にすることを回避するために、構造および構成要素はブロック図の形態で示されている。 The detailed description given below is intended to be an explanation of the various configurations of the subject technology and is not intended to represent only the configurations in which the subject technology can be practiced. The accompanying drawings are incorporated herein and form part of a detailed description. The detailed description includes specific details to provide a more complete understanding of the subject technology. However, it will be clear and clear that the subject matter is not limited to the particular details presented herein and can be practiced without these details. In some examples, the structures and components are shown in the form of block diagrams to avoid obscuring the concept of the subject technology.

開示される技術の態様は、生産ラインの組立ておよび結果として得られる製造製品を追跡し、訓練し、かつ、漸進的に改善するための方法を提供することにより、従来の組立てラインプロセスフローの上記限界に対処する。改善は、動的視覚フィードバックまたは他のフィードバック、および指示を個々の組立て作業者に提供することによって実現され、また、いくつかの実施態様では、作業者フィードバックはエラーに基づいており、エラーは、それらに限定されないが、組立てエラー、役に立たないプロセスおよび/またはモーション、生産ラインにおける1つまたは複数のポイントで検出された粗悪な製品を含むことができる。 Aspects of the disclosed techniques are described above of conventional assembly line process flows by providing methods for tracking, training, and progressively improving production line assembly and the resulting manufactured products. Address the limits. Improvements are achieved by providing dynamic visual feedback or other feedback, and instructions to the individual assembler, and in some embodiments, the worker feedback is error-based and the error is. It can include, but is not limited to, assembly errors, useless processes and / or motions, and inferior products detected at one or more points on the production line.

開示される技術を実現することにより、例えば準実時間エラー検出に基づいて、個々のステーション(またはすべてのステーション)で提供される参照/指示情報を速やかに改定および変更することにより、手動実施態様方法のエラー修正の速度に対して、その速度を著しく改善することができる。本明細書において説明されているいくつかの実施形態は、ビデオの形態の参照/指示情報の使用を考察しているが、他のフォーマットも企図されている。例えば組立て/製造指示は、聴覚、視覚、テキストおよび/または触覚キューとして、あるいは他の形態の参照として組立て作業者に提供することができる。一例として、聴覚指示情報は、口頭の指示または他の聴覚インジケータを含むことができる。視覚組立て指示情報は、拡張現実感(A/R)または仮想現実感(V/R)システムの使用などのビデオまたは動画化フォーマットを含むことができる。いくつかの態様では、視覚組立て指示は、組立てラインの所与のステーションにおける、作業者によるワークピース(またはツール)の取扱い方法に関する例を提供する動画として提供することができる。さらに、いくつかの態様では、組立て/製造指示は、例えば、ロボット組立て作業者または機械組立て作業者が受け取り、かつ、実現することができる機械命令を含むことができる。本明細書において使用されている作業者という用語は、製造製品を組み立てるモーションを使用する人間、ロボットまたは機械を意味することができる。さらに、作業者という用語は、人間の作業者がロボットまたは機械器具と共に作業し、あるいは人間作業者がロボットまたは機械器具によって支援される実例の場合のように、人間支援製造実施態様を包含している。 Manual embodiments by implementing the disclosed techniques, for example by promptly revising and changing the reference / instruction information provided by individual stations (or all stations) based on quasi-real-time error detection. The speed can be significantly improved relative to the speed of error correction in the method. Although some embodiments described herein consider the use of reference / instruction information in the form of video, other formats are also contemplated. For example, assembly / manufacturing instructions can be provided to the assembly operator as auditory, visual, text and / or tactile cues, or as other forms of reference. As an example, auditory instruction information can include verbal instructions or other auditory indicators. The visual assembly instruction information can include a video or animation format such as the use of an augmented reality (A / R) or virtual reality (V / R) system. In some embodiments, the visual assembly instructions can be provided as a video providing an example of how the operator handles the workpiece (or tool) at a given station on the assembly line. Further, in some embodiments, the assembly / manufacturing instructions can include, for example, machine instructions that can be received and implemented by the robot assembly operator or the machine assembly operator. As used herein, the term worker can mean a human, robot or machine that uses the motion of assembling a manufactured product. Further, the term worker includes human-assisted manufacturing embodiments, as in the case of an example in which a human worker works with a robot or machine appliance, or a human worker is assisted by a robot or machine tool. There is.

組立て/製造指示が参照/指示ビデオとして提供される実例では、このようなビデオは、時によっては標準作業プロトコル(SOP)と呼ばれることがある。開示される技術のシステムは、最小限のハードウェア要求事項、例えば個々の作業者のためのビデオカメラおよびディスプレイの使用などのため、効果的に展開することができ、一方、機械学習訓練、更新およびエラー伝搬は、例えば計算クラスターまたはクラウド環境におけるような集中型計算資源で実施することができる。 In an example where assembly / manufacturing instructions are provided as reference / instruction videos, such videos are sometimes referred to as standard working protocols (SOPs). The system of disclosed technology can be effectively deployed for minimal hardware requirements, such as the use of video cameras and displays for individual workers, while machine learning training, updates. And error propagation can be performed on centralized computational resources, such as in computational clusters or cloud environments.

いくつかの態様では、ビデオ指示情報は、拡張現実感表示の一部として、一人(1つ)または複数の作業者に提供することができる。すなわち指示、または標準組立て/製造方法からの偏差は、拡張現実感を使用して作業者に伝えることができ、表示は、強化されたビデオ、動画化された図形、および/または記録されたシナリオを表すビデオデータの混合として提供される。一例として、拡張現実感表示は、組み立てられているワークピース、および/または組立て/製造プロセスで使用されているツールの実時間フィードに対する動画化または図形オーバーレイとして提供される指示または手引きを提供することができる。 In some embodiments, the video instruction information can be provided to one or more workers as part of an augmented reality display. That is, deviations from instructions or standard assembly / manufacturing methods can be communicated to the operator using augmented reality, and the display is enhanced video, animated graphics, and / or recorded scenarios. It is provided as a mixture of video data representing. As an example, augmented reality displays provide instructions or guidance provided as animations or graphic overlays on the real-time feed of the workpiece being assembled and / or the tools used in the assembly / manufacturing process. Can be done.

いくつかの実施態様では、開示される技術のシステムは、生産ラインの様々な作業者ステーションに配置された1つまたは複数のビデオキャプチャデバイスまたはモーションキャプチャデバイスを含む。キャプチャデバイスは、その特定のステーションにおける作業者のモーション/部品、デバイス、材料または他のツール(「コンポーネント」)との相互作用を記録するように構成される。いくつかの態様では、作業者モーションはビデオ記録を使用してキャプチャできるが、他のモーションキャプチャフォーマット、例えば作業者モーションおよび/またはツールまたは製造製品との作業者の相互作用を表す3-Dポイントクラウドの使用も企図されている。さらに、特定のステーションに対する一人または複数人の熟練者のモーション、およびそのステーションにおけるコンポーネントとのその熟練者の相互作用を記録することにより、ステーション毎の参照ビデオを作り出すことも可能である。このビデオは、その熟練者の行為の単一の例から、または複数の例から作り出すことができる。熟練者毎のモーション経路を引き出すことができ、また、何人かの熟練者またはいくつかの例が使用される実施形態では、引き出されたモーション経路のセット(例えば平均)に対する計算を実施して、特定のステーションのための参照ビデオを作り出すことができる。参照ビデオは、その特定のステーションで実施されるべきモーション経路のデジタルまたは動画化表現の形態であってもよい。熟練者とは、特殊技術を有する誰か、または手引きが提供されている特定の組立てステップに関して知識がある誰かを意味することができることに留意されたい。 In some embodiments, the disclosed technology system comprises one or more video capture devices or motion capture devices located at various worker stations on the production line. The capture device is configured to record the operator's motion / part, device, material or interaction with other tools (“components”) at that particular station. In some embodiments, worker motion can be captured using video recording, but a 3-D point that represents the worker's interaction with other motion capture formats, such as worker motion and / or tools or manufactured products. The use of the cloud is also planned. In addition, it is possible to create a station-by-station reference video by recording the motion of one or more experts to a particular station and the interaction of that expert with the components at that station. This video can be produced from a single example of the expert's actions, or from multiple examples. A motion path for each expert can be derived, and in embodiments where some experts or some examples are used, calculations are performed on the set of extracted motion paths (eg, average) to perform calculations. You can create a reference video for a particular station. The reference video may be in the form of a digital or animated representation of the motion path to be performed at that particular station. It should be noted that an expert can mean someone with special skills or knowledge about a particular assembly step for which guidance is provided.

いくつかの実施形態では、生産ラインの様々な作業者ステーションに配置されたビデオキャプチャデバイスまたはモーションキャプチャデバイスは、組立てエラーを計算するために使用することができる、それぞれのステーションにおけるワークピース/コンポーネント/ツールの属性(例えば品質、引張り強さ、欠陥の数)もキャプチャできる。 In some embodiments, video or motion capture devices located at various worker stations on the production line can be used to calculate assembly errors, workpieces / components / at each station. Tool attributes (eg quality, tensile strength, number of defects) can also be captured.

作業者のそれぞれのステーションにおけるその相互作用をキャプチャすることにより、理想/熟練作業者相互作用/ワークフローを表すベースライン(グラウンドトルース)モデルとのキャプチャされた相互作用を比較することによって作業者エラーを検出することができる。すなわち理想化された相互作用モデルからの作業者偏差を使用して、例えば異なるステーションに提供された作業者指示/手引きを改定することにより、組立てチェーンにおける様々な場所で修復することができる組立てエラーを計算することができる。さらに、個々のステーションにおけるコンポーネントの品質をキャプチャし、かつ、そのステーションのためのベースラインコンポーネントに対して比較することも可能である。またベースラインコンポーネントからのコンポーネントの偏差を使用して、特定のステーションにおけるコンポーネントに品質等級を割り当て、あるいは様々なステーションに提供された作業者指示/手引きを改定することによって修復することができる作業者/組立てエラーを計算することも可能である。 Worker error by comparing the captured interaction with a baseline (ground truss) model that represents ideal / skilled worker interaction / workflow by capturing that interaction at each worker's station. Can be detected. That is, assembly errors that can be repaired at various locations in the assembly chain, for example by revising the operator instructions / guidance provided to different stations, using worker deviations from the idealized interaction model. Can be calculated. In addition, it is possible to capture the quality of components at an individual station and compare them to the baseline components for that station. Workers who can also use component deviations from baseline components to assign quality grades to components at a particular station or revise worker instructions / guidance provided to various stations. / It is also possible to calculate assembly errors.

組立て修正は、所望の実施態様に応じて様々な方法で実施することができる。いくつかの態様では、作業者変化/エラーを使用して、例えば部品を品質等級(例えばA、B、C、等々)に分類し、引き続いてこれらの部品を適切な生産ラインへ導くことによって分類を実施することができる。別の態様では、検出された組立てエラーを使用して所与のステーションにおけるプロセスを改定し、それにより品質を改善し、かつ、変化を小さくすることができる。すなわち検出された組立てエラーを使用して、指示または手引きを同じステーションに自動的に提供することができ、それにより例えばそのステーションでもたらされたエラーを訂正することができる(例えばイン-ステーションリワーク)。NLPを使用して、作業者に対する指示または手引きを処理することができる。例えばNLPを使用して、口頭指示をテキスト形態に変換することができ、あるいはテキスト指示を口頭形態に変換することができる。 The assembly modification can be carried out in various ways depending on the desired embodiment. In some embodiments, worker change / error is used, for example, to classify parts into quality grades (eg, A, B, C, etc.) and subsequently by directing these parts to the appropriate production line. Can be carried out. In another aspect, the detected assembly error can be used to revise the process at a given station, thereby improving quality and reducing changes. That is, the detected assembly errors can be used to automatically provide instructions or guidance to the same station, thereby correcting, for example, errors caused at that station (eg, in-station rework). .. NLP can be used to process instructions or guidance to workers. Oral instructions can be converted to text form, or text instructions can be converted to verbal form, for example using NLP.

例えば組立てエラー検出を使用して、エラーが生じることが分かっている所与のステーションに提供された作業者指示またはビデオに対する更新/変更を駆動することができる。一例として、エラー/偏差が第1のステーションで作業している第1の作業者によるものであることが識別されると、例えば第1のステーションの表示デバイスを介してその第1の作業者に提供された組立て指示を改定し、それにより第1のステーションを離れる製造物品に関連するエラー分散を小さくすることができる。 For example, assembly error detection can be used to drive updates / changes to worker instructions or videos provided to a given station where errors are known to occur. As an example, if it is identified that the error / deviation is due to a first worker working at the first station, then to that first worker, for example, via the display device of the first station. The assembly instructions provided can be revised to reduce the error distribution associated with the manufactured article leaving the first station.

別の態様では、検出された組立てエラーを使用して、後続するステーション組立てを改定することができ、それによりステーション分散を克服することができる。すなわちエラー検出を使用して、上流側の作業者に起因するエラーに基づいて、新しい/更新された組立て手引きの下流側伝搬を自動的にトリガすることができる。例えば第1の作業者によって実行されたモーションに対するエラー分散を使用して、第1のステーションから下流側の第2のステーションと関連する第2の作業者に提供される組立て指示を調整することができる。 In another aspect, the detected assembly error can be used to revise the subsequent station assembly, thereby overcoming station distribution. That is, error detection can be used to automatically trigger downstream propagation of new / updated assembly guidance based on errors caused by upstream workers. For example, error distribution for motion performed by the first operator can be used to coordinate the assembly instructions provided to the second operator associated with the second station downstream from the first station. can.

さらに別の態様では、すべてのステーションにわたって検出されたエラー分散を前方へ伝搬させることができ、それにより残りの下流側組立てチェーン全体の進行にわたって、全体または部分的なリワークを実施することができることを保証することができる。すなわち一人(1つ)または複数の下流側作業者に提供された組立て指示を調整することにより、1つまたは複数のステーションにわたって生成されるエラーを修復し/低減することができる。一例では、第2のステーションの第2の作業者によって、また、第3のステーションの第3の作業者によって引き続いて実行される作業を介して、すなわち第2および第3のステーションに提供される組立て指示を調整することにより、第1のステーションの第1の作業者に起因する製造物品のエラー分散を修復することができる。 In yet another embodiment, the error variance detected across all stations can be propagated forward, thereby performing a full or partial rework over the progress of the entire remaining downstream assembly chain. Can be guaranteed. That is, by coordinating the assembly instructions provided to one (one) or multiple downstream workers, errors generated across one or more stations can be repaired / reduced. In one example, it is provided by a second worker at the second station and through work subsequently performed by a third worker at the third station, i.e. to the second and third stations. By adjusting the assembly instructions, it is possible to repair the error dispersion of the manufactured article due to the first operator of the first station.

別の例では、複数のステーションにわたって累積されたエラー分散を1つまたは複数の後続するステーションによって小さくすることができる。例えば第3のステーションおよび第4のステーション(例えばそれぞれ第3の作業者および第4の作業者)に提供される組立て指示を調整することにより、第1のステーションおよび第2のステーションにわたって累積された製造物品のエラー分散を引き続いて修復することができる。 In another example, the error distribution accumulated across multiple stations can be reduced by one or more subsequent stations. Accumulated across the first and second stations, for example by coordinating the assembly instructions provided to the third and fourth stations (eg, third and fourth workers, respectively). The error dispersion of the manufactured article can be subsequently repaired.

組立てフローにおける個々の作業者/作業者ステーションをネットワークノードとして取り扱うことにより、機械学習モデルを使用して、個々のノード(ステーション)における組立て分散の低減を介してエラーを最小化することによって組立てプロセスを最適化することができる。個別のノード(作業者)分散を最小化し、また、実時間更新を実施して、前方エラー伝搬を軽減することにより、開示される技術のシステムは、最終製品に対する製造分散を著しく低減することができる。さらに、組立てワークフローにおける特定のセグメントからのエラー寄与を正確に定量化し、かつ、追跡することにより、製品品質または偏差量によって製品に等級を付け、かつ、分類することができる。したがって例えば製品品質に応じて、特定の品質分類の製品を異なる製造プロセスへ導き、あるいは異なる顧客へ導くことができる。 The assembly process by treating individual workers / worker stations in the assembly flow as network nodes and using machine learning models to minimize errors through reduction of assembly distribution at individual nodes (stations). Can be optimized. By minimizing individual node (worker) distribution and also performing real-time updates to reduce forward error propagation, the disclosed technology system can significantly reduce manufacturing distribution to the final product. can. In addition, products can be graded and categorized by product quality or deviation by accurately quantifying and tracking error contributions from specific segments in the assembly workflow. Thus, for example, depending on the product quality, products of a particular quality category can be guided to different manufacturing processes or to different customers.

機械学習/人工知能(AI)モデルを使用してエラー検出を実施することができ、および/またはステーション組立て変化を最適化するために必要な修正を実施することができる。一例として、機械学習モデルは、それらに限定されないが、最終製品定格、最終製品変化統計量、所望の最終製品特性(例えば組立て時間、使用された材料の量、物理特性、欠陥の数、等々)、ステーション特化コンポーネント定格、ステーション特化コンポーネント変化、所望のステーションコンポーネント特性を含む訓練データの複数のソースを使用して訓練することができる。さらに、展開された機械学習モデルは、エラー検出およびエラー定量化計算を実施するために使用される理想化モデルの中に正規の知識が表現され得るよう、熟練者または「マスター設計者」から提供される入力に基づいて訓練し、あるいは初期化することができる。 Error detection can be performed using machine learning / artificial intelligence (AI) models, and / or the necessary modifications can be made to optimize station assembly changes. As an example, machine learning models are, but are not limited to, final product ratings, final product change statistics, desired final product characteristics (eg assembly time, amount of materials used, physical properties, number of defects, etc.). You can train using multiple sources of training data, including station-specific component ratings, station-specific component variations, and desired station component characteristics. In addition, the deployed machine learning model is provided by experts or "master designers" so that formal knowledge can be expressed in the idealized model used to perform error detection and error quantification calculations. It can be trained or initialized based on the input given.

当業者には理解されるように、機械学習に基づく分類技法は、開示される技術から偏差することなく、所望の実施態様に応じて変更することができる。例えば機械学習分類スキームは、隠れマルコフモデル、回帰型ニューラルネットワーク、畳み込みニューラルネットワーク(CNN)、強化学習、深層学習、ベイズ記号モデル、敵対的生成ネットワーク(GAN)、サポートベクターマシン、画像登録法、適用可能規則ベースシステム、および/または任意の他の適切な人工知能アルゴリズムのうちの1つまたは複数を、単独で、あるいは組み合わせて利用することができる。回帰アルゴリズムが使用される場合、それらは、それらに限定されないが、Stochastic Gradient Descent Regressorおよび/またはPassive Aggressive Regressor、等々を含むことができる。 As will be appreciated by those skilled in the art, machine learning-based classification techniques can be modified according to desired embodiments without deviation from the disclosed techniques. For example, machine learning classification schemes include hidden Markov models, recurrent neural networks, convolutional neural networks (CNN), reinforcement learning, deep learning, Bayesian symbol models, hostile generation networks (GAN), support vector machines, image registration methods, and applications. Possible rule-based systems and / or one or more of any other suitable artificial intelligence algorithms can be utilized alone or in combination. When regression algorithms are used, they can include, but are not limited to, Stochastic Gradient Descent Regressor and / or Passive Aggressive Regressor, and the like.

機械学習分類モデルは、クラスター化アルゴリズム(例えばMini-バッチK-平均クラスター化アルゴリズム)、推奨アルゴリズム(例えばMiniwise HashingアルゴリズムまたはEuclidean Locality-Sensitive Hashing(LSH)アルゴリズム)、および/または局所外れ値因子法などの異常検出アルゴリズムに基づくことも可能である。さらに、機械学習モデルは、Mini-batch Dictionary Learningアルゴリズム、Incremental Principal Component Analysis(PCA)アルゴリズム、Latent Dirichlet Allocationアルゴリズムおよび/またはMini-バッチK-平均アルゴリズム、等々のうちの1つまたは複数などの次元削減手法を使用することも可能である。 Machine learning classification models include clustering algorithms (eg Mini-Batch K-mean clustering algorithm), recommended algorithms (eg Miniwise Hashing algorithm or Euclidean Locality-Sensitive Hashing (LSH) algorithm), and / or local outlier factor methods. It is also possible to use the anomaly detection algorithm of. In addition, the machine learning model may be one or more of a Mini-batch Dictionary Learning algorithm, an Incremental Principal Component Analysis (PCA) algorithm, a Latent Dirichlet Allocation algorithm and / or a Mini-batch K-average algorithm, and the like. It is also possible to use the method.

いくつかの実施態様では、複数の異なるタイプの機械学習訓練/人工知能モデルを展開することができる。一例として、製造製品を最適化するべく、組立てラインプロセスを動的に調整するために、機械学習の一般的な形態を使用することができる。当業者には認識されるように、選択された機械化学習/人工知能モデルは、一組の組立て/製造指示を単純に含んでいるのではなく、組立てラインプロセス全体に関するフィードバック、および結果として得られる製造製品に対するその影響を提供し、また、組立てラインにおける下流側作業者ステーションに対する動的調整を提供し、それにより上流側作業者ステーションで生じる行為を補償するための方法である。このタイプの人工知能ベースフィードバックおよびフィードフォワードモデルは、本明細書においてはArtificial Intelligence Process Control(AIPC)と呼ばれている。いくつかの実施形態では、機械学習は、ターゲット化ゲート付き回帰型ユニット(GRU)モデルベース学習およびハウスドルフ距離最短化を利用して、可能回復経路の空間を効果的に探索し、それにより組立てプロセスの間にエラーを修正するための最適経路を見出す、模擬された環境における深層学習モデルに基づくことができる。さらに他の実施形態では、例えば機械学習アルゴリズムは、Long Short-Term Memoryモデルに基づくことができ、それにより組立てプロセスのビデオ入力を解析し、かつ、最終品質出力を予測することができる。さらに、機械学習モデルをNLPアルゴリズムの形態で使用して、作業者コンプライアンスおよび調整された指示の理解を最大化するために、音声へのテキストの変換またはテキストへの音声の変換などの、作業者ステーションへのフィードバックを調整することもできる。 In some embodiments, different types of machine learning training / artificial intelligence models can be deployed. As an example, a common form of machine learning can be used to dynamically adjust the assembly line process to optimize the manufactured product. As will be appreciated by those skilled in the art, the selected mechanized learning / artificial intelligence model does not simply contain a set of assembly / manufacturing instructions, but provides feedback and results on the entire assembly line process. It is a method for providing its impact on manufactured products and also providing dynamic coordination for downstream worker stations in the assembly line, thereby compensating for actions that occur at upstream worker stations. This type of artificial intelligence-based feedback and feedforward model is referred to herein as the Artificial Intelligence Process Control (AIPC). In some embodiments, machine learning utilizes targeted recurrent unit (GRU) model-based learning and Hausdorff distance minimization to effectively explore and thus assemble the space of possible recovery paths. It can be based on a deep learning model in a simulated environment that finds the optimal path to correct errors during the process. In yet another embodiment, for example, a machine learning algorithm can be based on a Long Short-Term Memory model, which can analyze the video input of the assembly process and predict the final quality output. In addition, the machine learning model is used in the form of an NLP algorithm, such as converting text to voice or converting voice to text to maximize worker compliance and comprehension of coordinated instructions. You can also adjust the feedback to the station.

いくつかの実施形態では、機械学習を利用する計算モデルを使用して、手動組立てプロセスの間のエラーを修正することができる。 In some embodiments, computational models that utilize machine learning can be used to correct errors during the manual assembly process.

目標対象は、処理手順によって定義される一連のステップを介して組み立てることができる。プロセスの間、公称対象の最終構成を得るためにはすべての残りの作業を改定する必要があることになる特定のステップkで不可逆エラーが生じ得る。いくつかの実施形態では、エラーを修正するための手法は、ステップkにおける欠陥のある目標対象を、同じステップkにおける公称対象に対して比較するステップ、またはステップkにおける欠陥のある目標対象をその最終構成の公称対象に対して比較するステップを含むことができる。これらの比較を使用して、欠陥のある目標対象の最終構成と公称対象の最終構成との間の偏差を最小化するために必要な上記一連のステップを決定することができる。いくつかの実施形態では、目標対象の品質メトリックを使用して、欠陥のある目標対象の修正を導くこともできる。 The target object can be assembled through a series of steps defined by the processing procedure. During the process, irreversible errors can occur at certain steps k where all remaining work would need to be revised to obtain the final configuration of the nominal object. In some embodiments, the method for correcting an error is to compare the defective target object in step k with respect to the nominal object in the same step k, or the defective target object in step k. It can include a step of comparison against the nominal object of the final configuration. These comparisons can be used to determine the set of steps required to minimize the deviation between the final configuration of the defective target object and the final configuration of the nominal target. In some embodiments, the quality metric of the target can also be used to guide the correction of the defective target.

一般的な数値手法は、ハウスドルフ距離アルゴリズムを使用することによって問題を解決することができ、それにより欠陥のある目標対象を組み立てるための一連のk個のステップが、公称対象をその最終構成に組み立てるための一連のステップに如何に類似しているかを決定することができる。欠陥のある組み立てられた対象における上記一連のk個のステップと、組み立てられた最終の公称対象における一連のステップとの間のハウスドルフ距離を計算によって最短化するためのいくつかの方法は、瞬時報酬公式化、多重報酬公式化、または遅延報酬公式化を介してMarkov Decision Process(MDP)を最適化することである。しかしながらこれらの公式化と関連する探索空間には、著しい量の計算資源が必要である。 A common numerical method can solve the problem by using the Hausdorff distance algorithm, which allows a series of k steps to assemble a defective target object into its final configuration. You can determine how similar it is to the sequence of steps to assemble. Several methods for computationally minimizing the Hausdorff distance between the above series of k steps in a defective assembled object and the series of steps in the final assembled nominal object are instantaneous. Optimize the Markov Distance Process (MDP) through reward formulating, multiple reward formulating, or delayed reward formulating. However, the search space associated with these formulas requires a significant amount of computational resources.

代替として、機械学習フレームワークは、強化学習を使用して、遅延報酬ポリシーエージェントと共に発展させることも可能である。強化学習フレームワークは、欠陥のある目標対象のエラーを修正するために必要な適切なステップをポリシーエージェントに決定させて、公称対象の性能メトリックと一致する性能メトリックを有する最終構成を得るように設計することができる。ポリシーエージェントに与えられる報酬は遅延され、ポリシーエージェントに報酬が支払われるのは、最終ステップが実行されたときのみである。 As an alternative, machine learning frameworks can also be evolved with delayed reward policy agents using reinforcement learning. The reinforcement learning framework is designed to let the policy agent determine the appropriate steps needed to correct an error in a defective target, resulting in a final configuration with performance metrics that match the performance metrics of the nominal target. can do. The rewards given to the policy agent are delayed and the policy agent is paid only when the final step is performed.

いくつかの実施形態では、最適な/所望の製造製品のための設計を選択することができ、また、熟練作業者を展開して、選択された設計に従って製造製品を組み立てるために個々の作業者ステーションで実施される個々のステップを実施することができる。最適とは、結果として得られる製造製品におけるエラー、または何らかの他の基準を最小化する、結果として得られる製品の所望の性能および/または特性に基づくことができる(例えば製造製品が紙飛行機である場合、最適な紙飛行機は、所望の飛行目標を達成する紙飛行機であろう)。複数の画像化デバイスを使用して、作業者のモーションおよび作業者が組み立てている製造製品との作業者の相互作用をキャプチャし、それによりビデオ、画像および/または3Dポイントクラウドデータを生成することができる。キャプチャされたデータは、組み立てられている際の製造製品に対する関係における作業者の手座標、一方の手ともう一方の手の関係、および組み立てられている際の製造製品に対する指(およびいくつかの実施形態では指の関節)の関係などの詳細な情報を提供することができる。熟練作業者から収集されたデータは、最適な/所望の製造製品を組み立てるためのグラウンドトルースとして使用することができる。単一の例からのこのグラウンドトルースは、それはそれで、初期機械学習モデルの創出に使用するためには十分であり、あるいは追加データを収集することも可能である。例えば作業者のモーションの変化またはエラーが、結果として得られる製造製品に対して如何に影響を及ぼし得るかを理解するために、多くの作業者を展開して、最適な製造製品を組み立てる1つまたは複数のステップを実施することができる。これは、組立てラインにおける作業者ステーション毎に実施することができる。結果として得られる最終製品およびそれらのそれぞれの組立てプロセスの両方を、互いに対して、また、グラウンドトルースに対して比較し、それによりエラーおよび/または作業者のモーションの変化が製造製品の特性および/または性能に如何に影響を及ぼし得るかを決定することができる(例えば作業者の速度は、品質がより劣る飛行機をもたらし得る)。実際の組立てプロセス(すなわち人間、ロボットまたは機械が1つまたは複数のステーションでモーションを実施しているプロセス)の間に、作業者に基づいて収集されたデータは、本明細書においては「実際の訓練データ」と呼ばれることになる。実際の訓練データは、模擬されたデータで補足することができ、それにより、より豊富なデータセットを得ることができ、また、最適な製造製品を達成するための追加変形形態を提供することができる。「最適な」および「所望の」という用語は、本明細書においては交換可能に使用されることになることに留意されたい。 In some embodiments, the design for the optimum / desired manufactured product can be selected, and the skilled worker can be deployed to assemble the manufactured product according to the selected design. Individual steps performed at the station can be performed. Optimal can be based on the desired performance and / or characteristics of the resulting product, minimizing errors in the resulting manufactured product, or any other criterion (eg, the manufactured product is a paper plane). If so, the best paper plane would be one that achieves the desired flight target). Using multiple imaging devices to capture worker motions and worker interactions with the manufactured product that the worker is assembling, thereby generating video, images and / or 3D point cloud data. Can be done. The captured data is the worker's hand coordinates in relation to the manufactured product as assembled, the relationship between one hand and the other, and the fingers (and some) to the manufactured product as assembled. In the embodiment, detailed information such as the relationship between the knuckles) can be provided. The data collected from skilled workers can be used as a ground truth for assembling optimal / desired manufactured products. This ground truth from a single example, it is sufficient for use in the creation of early machine learning models, or it is possible to collect additional data. One to deploy many workers to assemble the best manufactured product, for example, to understand how changes or errors in worker motion can affect the resulting manufactured product. Alternatively, multiple steps can be performed. This can be done for each worker station on the assembly line. Both the resulting final product and their respective assembly processes are compared to each other and to the ground truth, whereby errors and / or changes in worker motion are characteristic of the manufactured product and / or. Or it can be determined how it can affect performance (eg worker speed can result in a poorer quality airplane). Data collected on a worker basis during the actual assembly process (ie, the process in which a human, robot or machine is performing motion at one or more stations) is referred to herein as "actual. It will be called "training data". The actual training data can be supplemented with simulated data, which can provide a richer dataset and also provide additional variants to achieve optimal manufacturing products. can. It should be noted that the terms "optimal" and "desired" will be used interchangeably herein.

いくつかの実施形態では、本明細書において考察されている異なるAI/機械学習/深層学習モデルは、Artificial Intelligence Process Control(AIPC)を達成して製造物品の組立てを最適化するために、以下で説明される特定の順序で展開することができる。AIPC深層学習モデルを実現することができる例示的プロセスは、図1に関連して(例えばAIPC深層学習モデル112に関連して)、また、図2に関連してさらに詳細に考察される。AIPC深層学習モデルを実現するために使用することができるハードウェアシステムおよび/またはデバイスの例は図3に提供されており、また、対応する説明も以下に提供されている。 In some embodiments, the different AI / machine learning / deep learning models discussed herein are described below in order to achieve the Artificial Intelligence Process Control (AIPC) and optimize the assembly of the manufactured article. It can be deployed in the specific order described. Illustrative processes that can realize AIPC deep learning models are discussed in more detail in connection with FIG. 1 (eg, in connection with AIPC deep learning model 112) and in connection with FIG. Examples of hardware systems and / or devices that can be used to implement AIPC deep learning models are provided in FIG. 3, and corresponding descriptions are also provided below.

第1に、CNNを組立てラインプロセスに使用して、個々の作業者ステーションにおいて、作業者の手の特徴および異なる構成の製造物品の特徴を分類することができる。 First, CNNs can be used in the assembly line process to classify the characteristics of the worker's hands and the characteristics of manufactured articles of different configurations at individual worker stations.

第2に、いずれもCNN分類からの所望の結果を達成するために、また、定義済みの望ましい結果のために、強化学習(RL)およびRLエージェントを使用し、かつ、報酬を与えることができる。RLエージェントは、監視しても、あるいは監視しなくてもよい。 Second, both can use and reward reinforcement learning (RL) and RL agents to achieve the desired results from the CNN classification and for the defined desired results. .. The RL agent may or may not be monitored.

第3に、Generative Adversarial Networks(GAN)を使用して、対立するRLエージェント間で選ぶことができる。GANは、ノードとしてGANに入力するRLエージェントの選択を人間にのみ頼る最小の人間監視を含むことができる。 Third, Generative Adversarial Networks (GAN) can be used to choose between opposing RL agents. The GAN can include minimal human monitoring that relies solely on humans to select the RL agent to enter into the GAN as a node.

第4に、RNNは、フィードバックおよびフィードフォワードシステムを作り出すための入力ノードとして勝利RL(winning RLs)を取ることができ、したがって学習を連続的なものにすることができ、また、学習を監視しなくてもよい。 Fourth, RNNs can take winning RLs (winning RLs) as input nodes to create feedback and feedforward systems, thus making learning continuous and also monitoring learning. It does not have to be.

これらの4つのAI/機械学習モデルの実施態様は、以下でより詳細に考察される。 Embodiments of these four AI / machine learning models are discussed in more detail below.

いくつかの実施形態では、実際の訓練データは、組立てプロセスにおける関連するデータを分類し、例えば作業者ステーション毎の個々の組立てステップで使用された指/手、組み立てられている製品のうちの、作業者の指が任意の時間点および空間で触れた部分、および任意の時間点および空間における、組み立てられている製造製品の形状または構成を分類するためにCNNに入力することができる。 In some embodiments, the actual training data categorizes the relevant data in the assembly process, eg, fingers / hands used in individual assembly steps per worker station, of the assembled products. It can be entered into the CNN to classify the parts touched by the operator's finger at any time point and space, and the shape or composition of the assembled product at any time point and space.

さらに他の実施形態では、手のモーションは追跡しないが、製造製品の組立てパターンの様々な変化を表すデータを収集することも可能である(例えば製造製品が折り畳まれた紙飛行機である場合、折畳み順序を変更すること、折畳み変化を実現すること、および/または潜在的エラーを導入することに基づいてデータを収集することができ、製造製品が衣類物品である場合、例えば縫合せ順序、縫合せ変化を実現すること、および/または潜在的エラーを導入することに基づいてデータを収集することができる)。このデータは模擬することができ、および/または実際の訓練データから収集することができる。結果として得られる製造製品およびそれらのそれぞれの組立てプロセスを比較し、それによりエラーまたは組立てパターンの変化が製造製品の特性および/または性能に如何に影響を及ぼすかを決定することができる。 In yet another embodiment, hand motion is not tracked, but it is possible to collect data representing various changes in the assembly pattern of the manufactured product (eg, if the manufactured product is a folded paper plane, folding). Data can be collected based on changing the order, achieving folding changes, and / or introducing potential errors, for example if the manufactured product is a clothing article, suture order, suture. Data can be collected based on achieving change and / or introducing potential errors). This data can be simulated and / or collected from actual training data. The resulting manufactured products and their respective assembly processes can be compared to determine how errors or changes in assembly patterns affect the characteristics and / or performance of the manufactured products.

いくつかの実施形態では、キャプチャされたデータ(例えばビデオおよび組立てプロセスの手の追跡、等々)を使用して、最終アウトプットの品質が予測される。この品質予測により、キャプチャされたデータを使用して、製造プロセスの間、製品の品質を手動で検査する必要なく、製品を品質ビンに分類することができ、また、下流側で修正行為を取ることができる。 In some embodiments, the captured data (eg, video and hand tracking of the assembly process, etc.) is used to predict the quality of the final output. This quality prediction allows the captured data to be used to classify products into quality bins without the need to manually inspect the quality of the product during the manufacturing process and to take corrective action downstream. be able to.

いくつかの実施形態では、システムは、目標対象の手動組立てに的を絞ることができ、手動組立てでは、組立てプロセスは、作業者が一組の指示毎に目標対象に対して異なる作業を実施するいくつかの離散ステップを含む。システムは、作業者の手の位置の時間シリーズと目標対象の最終品質との間の相関を確立する深層学習モデルを使用している機械学習フレームワーク(すべての作業者行為全体)を使用して構築することができる。いくつかの実施形態では、モデルは2つのニューラルネットワークからなっていてもよく、第1のニューラルネットワークは、3D環境における作業者の手の位置データを抽出するために使用され、また、第2のニューラルネットワークは、手の位置データから不必要な要素を取り除いて目標対象の性能の最終品質と相関させるために使用される。 In some embodiments, the system can focus on manual assembly of the target, in which the assembly process is such that the worker performs different tasks on the target for each set of instructions. Includes several discrete steps. The system uses a machine learning framework (overall worker actions) that uses a deep learning model that establishes a correlation between the time series of worker hand positions and the final quality of the target. Can be built. In some embodiments, the model may consist of two neural networks, the first neural network is used to extract the position data of the worker's hand in a 3D environment, and the second. Neural networks are used to remove unwanted elements from hand position data and correlate them with the final quality of the target's performance.

いくつかの実施形態では、第1のニューラルネットワークは、ビデオ収集システムを使用して、作業者が目標対象の組立てと関連して実施する個々の離散ステップに対応する異なるノードビデオにおける組立てプロセスの間、作業者の手のビデオを記録することができる。例えば作業者は、異なる場所に配置され、また、組立てプロセスを同時に記録するように構成されたいくつかのカメラを使用して組立てプロセスを実施することができる。これらのカメラを使用して、作業者の手の予め規定された位置で、複数回にわたってビデオをキャプチャすることができる。次に、これらのビデオを処理して、目標対象の組立てプロセス全体を表すいくつかの画像またはランドマークフレームを抽出することができる。これらのランドマークフレームを使用して、組立てプロセスの間、作業者の手および指の位置またはキーポイントの画定を促進する手の追跡情報を抽出することができる。 In some embodiments, the first neural network uses a video acquisition system during the assembly process in different node videos corresponding to the individual discrete steps performed by the operator in connection with the assembly of the target object. , Can record video of worker's hand. For example, the operator can carry out the assembly process using several cameras that are located at different locations and are configured to record the assembly process at the same time. These cameras can be used to capture video multiple times in a pre-defined position on the operator's hand. These videos can then be processed to extract some images or landmark frames that represent the entire assembly process of the target. These landmark frames can be used to extract hand tracking information that facilitates the demarcation of worker hand and finger positions or keypoints during the assembly process.

いくつかの実施形態では、手の追跡情報を抽出するために、バウンディングボックス予測アルゴリズムおよび手キーポイントディテクターアルゴリズムを適用することができる。詳細には、バウンディングボックス予測アルゴリズムは、閾値画像分割を使用して、組立てプロセスからのランドマークフレームを処理し、それにより作業者の手のためのマスク画像を得ることを含むことができる。手は、ブロブ検出(blob detection)を使用してマスクの上に位置付けることができる。バウンディングボックス予測は、マスク画像を使用して、ボックスが少なくとも手のリストポイントまでの手の位置の形状の最も高い点を含むよう、作業者の手の各々の周りにボックスを形成する。次に、バウンディングボックスおよびそれらの対応するランドマークフレームが手キーポイントディテクターアルゴリズムに供給される。 In some embodiments, a bounding box prediction algorithm and a hand keypoint detector algorithm can be applied to extract hand tracking information. In particular, the bounding box prediction algorithm can include using threshold image segmentation to process landmark frames from the assembly process, thereby obtaining a mask image for the worker's hand. The hand can be positioned on the mask using blob detection. The bounding box prediction uses a mask image to form a box around each of the worker's hands so that the box contains the highest point in the shape of the hand position at least up to the hand wrist point. The bounding box and their corresponding landmark frames are then fed into the hand keypoint detector algorithm.

手キーポイントディテクターアルゴリズムは、作業者の手の特定のキーポイントを検出することができる機械学習モデルを含むことができる。手キーポイントディテクターアルゴリズムは、ランドマークフレームの中で見ることができるキーポイントだけでなく、関節、視点、対象、手の相互作用のためにフレームから閉塞されるキーポイントを予測することができる。異なる手の位置が異なる閉塞点を異なるフレームに生成するため、あるフレームにおける特定の閉塞点は、他のフレームでは閉塞され得ない。手キーポイントディテクターは、特定のレベルの確実性で閉塞されるキーポイントの場所を予測する。しかしながら閉塞されるキーポイントの場所の予測は、異なる手の位置に対して同じキーポイント場所が記録されることになり得る。手動組立てプロセスのステップの間、作業者の手を画定している手キーポイントは、次に第2のニューラルネットワークに提供される。 The hand keypoint detector algorithm can include a machine learning model that can detect specific keypoints in the worker's hand. The hand keypoint detector algorithm can predict not only the keypoints that can be seen in the landmark frame, but also the keypoints that are blocked from the frame due to the interaction of joints, viewpoints, objects, and hands. A particular block point in one frame cannot be blocked in another frame because different hand positions generate different block points in different frames. The hand keypoint detector predicts the location of a keypoint that will be blocked with a certain level of certainty. However, predictions of blocked keypoint locations can result in the same keypoint location being recorded for different hand positions. During the steps of the manual assembly process, the hand key points defining the worker's hand are then provided to the second neural network.

いくつかの実施形態では、第2のニューラルネットワークを使用して、組み立てられた対象の最終状態の品質が予測される。いくつかの実施形態では、ニューラルネットワークは、Long Short-Term Memory(LSTM)モデルに基づくことができる。LSTMは、順番に配列され、相俟って最終対象の組立てプロセス全体を表すいくつかのセルを有している。LSTMセルへの入力は、LSTMセルによって表される組立てプロセスの特定のステップにおける作業者の作業に対応する手キーポイントデータであってもよい。LSTMにおける個々のセルは、先行するセルからの情報を記憶するべきであるかどうかを決定し、更新する値を選び、セルに対する更新を実施し、出力する値を選び、次に、選ばれた値のみをセルが出力するよう、値をフィルタリングする。LSTMは、Adamオプティマイザーまたは他の適合学習率最適化アルゴリズムを使用して訓練された、1つのモデルに対するシーケンスであってもよい。ニューラルネットワークは、LSTMフレームワークを使用して、手動組立てプロセスから抽出された入力データを相関し、それにより最終製品の品質測値を決定する。 In some embodiments, a second neural network is used to predict the quality of the final state of the assembled object. In some embodiments, the neural network can be based on a Long Short-Term Memory (LSTM) model. The LSTMs are arranged in order and together have several cells that represent the entire assembly process of the final object. The input to the LSTM cell may be hand keypoint data corresponding to the worker's work at a particular step of the assembly process represented by the LSTM cell. Each cell in the LSTM determines whether information from the preceding cell should be stored, chooses the value to update, performs the update to the cell, chooses the value to output, and then chooses. Filter the values so that the cell outputs only the values. The LSTM may be a sequence for one model trained using an Adam optimizer or other adaptive learning rate optimization algorithm. The neural network uses the LSTM framework to correlate the input data extracted from the manual assembly process, thereby determining the quality measurement of the final product.

いくつかの実施形態では、目標対象のための組立てプロセスを表すビデオおよび手追跡情報、すなわちモデルを訓練するために使用される入力データは、単一の一組の組立て指示を使用して複数の目標対象を組み立てるための組立てプロセスを実施する複数の作業者から収集することができる。作業者によって組み立てられた目標対象を制御された環境で使用して、組み立てられた対象の性能に対する対応する品質測値、すなわちモデルを訓練するために必要な出力データを収集することができる。 In some embodiments, the video and hand tracking information representing the assembly process for the target object, i.e., the input data used to train the model, is a plurality of assembly instructions using a single set of assembly instructions. It can be collected from multiple workers performing the assembly process to assemble the target object. The target object assembled by the operator can be used in a controlled environment to collect the corresponding quality measurements for the performance of the assembled object, i.e. the output data needed to train the model.

いくつかの態様では、機械学習モデルを生成するために使用される訓練データは、模擬されたデータからのもの、実際の訓練データからのもの、および/または熟練者のグラウンドトルース記録からのものであってもよく、それらは、組み合わせたものであっても、あるいは個別であってもよい。いくつかの実施形態では、模擬されたデータ結果を使用して機械学習モデル、例えば(それには限定されないが)Reinforcement Learning(RL)エージェントを構築することができる。他の実施形態では、実際の訓練データを使用して機械学習モデル、例えば(それには限定されないが)Reinforcement Learning(RL)エージェントを構築することができる。RLエージェントは、良好な/所望の結果を達成すると報酬が支払われ、また、悪い結果に対しては処罰される。 In some embodiments, the training data used to generate the machine learning model is from simulated data, from actual training data, and / or from expert ground truth records. They may be in combination or individually. In some embodiments, simulated data results can be used to build machine learning models, such as (but not limited to) Reinforcement Learning (RL) agents. In other embodiments, actual training data can be used to build machine learning models, such as (but not limited to) Reinforcement Learning (RL) agents. RL agents are rewarded for achieving good / desired results and are punished for bad results.

いくつかの実例では、多くのRLエージェント(そのうちのいくつかは実際の訓練データに基づき、また、いくつかは模擬されたデータに基づく)は、縦列をなして働くように展開することができ、また、累積授与を最大化するように構成することができ、例えば理想モデル/例からの最も小さい偏差を有する製造製品を組み立てる。RLエージェントに報酬を支払うことができる例示的結果は、可能な限り少ないステップで完全な製造製品を完成すること、製造製品を達成するために必要な材料の量または時間を低減することを含む。模擬されたデータに基づくRLエージェントおよび実際の訓練データに基づくRLエージェントを使用して、最適な/所望の製造物品をもたらす最適モーションパターンおよび/または最適組立てパターンを決定することができる。 In some examples, many RL agents, some based on actual training data and some based on simulated data, can be deployed to work in columns, It can also be configured to maximize cumulative awards, eg assembling manufactured products with the smallest deviation from an ideal model / example. Illustrative results that can be rewarded to an RL agent include completing a complete manufactured product in as few steps as possible, reducing the amount or time of material required to achieve the manufactured product. RL agents based on simulated data and RL agents based on actual training data can be used to determine optimal motion patterns and / or optimal assembly patterns that result in the optimal / desired manufactured article.

これらの2つのグループのRLエージェント(例えば実際の訓練データに基づいて作り出されたRLエージェント、および模擬されたデータに基づいて作り出されたRLエージェント)は、それらはいずれも最適な/所望の製造製品を作る行為に対して報酬が支払われているため、ここでは共同して働くことができ、さらには競合することができる。いくつかの実施形態では、最適な製造製品のための最適な組立てパターンをもたらした模擬ベースのRLエージェントから得られたデータを使用して、実際の訓練データセットのための可能性空間を小さくすることができる。例えば模擬されたRLエージェントを使用して最適な組立てパターンを決定することができ、次に、最適ではない組立てパターンに対してではなく、最適な組立てパターンに対してのみ実際の訓練データを収集することができる。実際の訓練データの収集にのみ、あるいは最適な組立てパターンにのみ的を絞ることにより、より少ない訓練データを収集することができ、および/またはより多くの実際の訓練データを収集するためのより大きい容量を達成することができるが、それは最適な組立てパターンに対してのみである。 These two groups of RL agents (eg, RL agents created based on actual training data and RL agents created based on simulated data) are both optimal / desired manufactured products. You can work together and even compete here because you are paid for the act of making. In some embodiments, the data obtained from a simulated-based RL agent that yields the optimal assembly pattern for the optimal manufactured product is used to reduce the potential space for the actual training dataset. be able to. For example, a simulated RL agent can be used to determine the optimal assembly pattern and then collect the actual training data only for the optimal assembly pattern, not for the non-optimal assembly pattern. be able to. By focusing only on the collection of actual training data or only on the optimal assembly pattern, less training data can be collected and / or larger for collecting more actual training data. Capacity can be achieved, but only for optimal assembly patterns.

報酬は時によっては対立することがあるため、強化学習のみに頼って組立てラインを最適化することには限界がある。例えば製品の組立てにおいては、偽りの動き(例えば折畳んで、直ちにその折畳みを元に戻す、あるいは縫い目を追加して、直ちにその縫い目を取り除く)が最も少ない場合に対して、いくつかのRLエージェントに報酬を支払うことができ、一方、速度に対して、他のRLエージェントに報酬を支払うことができる。速度に対して報酬が支払われているRLエージェントは、組立てプロセスにおける下流側で必要な修正がより少ないため、より多くの偽りの動きがより速い組立て時間をもたらすことを決定することができる。このような実施態様トレードオフ決定をなすことは、人間が容易に判断することができるようなものではない。経験および大量の例を有している場合であっても、人間には、異なる方法で作業する異なる作業者による最終結果を把握することは如何に微妙なものであるかを理解する計算能力が依然として欠けている。 Rewards can sometimes conflict, so there is a limit to optimizing an assembly line by relying solely on reinforcement learning. For example, in product assembly, some RL agents have the least false movements (eg, fold and immediately undo the fold, or add a seam and immediately remove the seam). Can be rewarded, while other RL agents can be rewarded for speed. An RL agent that is paid for speed can determine that more false movements result in faster assembly time because less modifications are required downstream in the assembly process. Making such an embodiment trade-off decision is not something that humans can easily determine. Even with experience and a large number of examples, humans have the computational power to understand how subtle it is to grasp the end result by different workers working differently. Still missing.

これらの対立するRLエージェント最適化を解決するために、GANを展開して決定者として作用させることができる。対立は、実際の訓練データに基づくRLエージェント同士の間、模擬されたデータに基づくRLエージェント同士の間、および/または実際の訓練データに基づくRLエージェントと模擬されたデータに基づくRLエージェントとの間であってもよい。 To resolve these conflicting RL agent optimizations, GANs can be deployed and act as determiners. Conflicts are between RL agents based on actual training data, between RL agents based on simulated data, and / or between RL agents based on actual training data and RL agents based on simulated data. May be.

いくつかの実施形態では、GANは、さらに多くの頑丈なニューラルネットワークを作り出すために、RLエージェントの各々を試験し、かつ、その結果を記憶することができる。GANは、RLエージェントを取り、また、ゼロ-サムゲームにおける勝者および敗者をもたらすモデルを使用することによって動作する。GANには「ジェネレータ」および「ディスクリミネータ」が存在している。ジェネレータは、この場合、対立するRLエージェントからの報酬データを記憶することになり、また、ディスクリミネータは、これらのうちのどちらが所望の製造製品を作り出すタスクに対して最も関連しているかを評価することになる。GANは、ノード(またはニューロン)の深層ネットワークを使用して、ノードに重みを付ける方法を決定する。個々のRLエージェントは、個々のRLエージェントが既に最適決定を下していることを信じているため、対立しているRLエージェントのうちのどちらが実際に最も関連する選択をなすかを決定することはGANの役割であり、また、ディスクリミネータは、それに応じて重みを調整する。対立するRLエージェント同士の間でゼロ-サムゲームが開始されると、対立するRLエージェント同士の間で勝者のグループが生成され、これらの勝者のみが、組立てラインにおけるワークフローを最適化するために使用される機械学習モデルのために使用されることになる。勝利RLエージェントを決定するために大量のデータが生成されることになる可能性があるが、結果は、入力ノードとして使用される、これらの勝者を作り出し、かつ、見出すために使用されるものよりもはるかに貧弱である。 In some embodiments, the GAN can test each of the RL agents and store the results in order to create even more robust neural networks. GAN works by taking an RL agent and also using a model that results in winners and losers in zero-sum games. There are "generators" and "discriminators" in GAN. The generator will in this case store reward data from conflicting RL agents, and the discriminator will assess which of these is most relevant to the task of producing the desired manufactured product. Will be done. GAN uses a deep network of nodes (or neurons) to determine how to weight the nodes. Since individual RL agents believe that individual RL agents have already made optimal decisions, it is not possible to determine which of the conflicting RL agents actually makes the most relevant choice. It is the role of the GAN, and the discriminator adjusts the weights accordingly. When a zero-sum game is started between opposing RL agents, a group of winners is created between the opposing RL agents, and only these winners are used to optimize the workflow in the assembly line. Will be used for machine learning models. A large amount of data may be generated to determine the winning RL agent, but the result is more than the one used to create and find these winners used as input nodes. Is also much poorer.

GAN戦争に生き残り、かつ、適切に報酬が支払われたRLエージェントが決定されると、いくつかの実施形態では、それらをRecurrent Neural Network(RNN)と呼ばれる別のAIシステムに入力することができる。RNNは、それがDeep Learning Neural Networkであり、入力データの様々な形態の重み付けを介して最終結果が最適化される点で、CNNに対して多くの類似性を有している。1つの相違は、入力から出力まで線形プロセスであるCNNとは異なり、RNNは、結果として得られる出力、さらには内部ノードを新しい訓練情報としてフィードバックするループであることである。RNNは、GRUなどのフィードバックシステムおよびフィードフォワードシステムの両方である。 Once the RL agents that have survived the GAN war and have been properly paid are determined, in some embodiments they can be entered into another AI system called a Recurrent Neural Network (RNN). RNNs have many similarities to CNNs in that they are Deep Learning Neural Networks and the final result is optimized through weighting of various forms of input data. One difference is that unlike a CNN, which is a linear process from input to output, an RNN is a loop that feeds back the resulting output, as well as internal nodes, as new training information. RNNs are both feedback systems such as GRUs and feedforward systems.

いくつかの実施形態では、機械学習フレームワークは、ターゲット化GRUモデル-ベース学習を利用して構築することができる。GRUモデルは、その予測能力および比較的短い訓練時間のため、強化学習の代わりに選ぶことができる。GRUは、メモリに記憶するべき、あるいは状態を更新するべき観察と、忘れ去るべき、あるいは状態をリセットするべき観察との間を区別するためにRNNに使用される。 In some embodiments, the machine learning framework can be built utilizing targeted GRU model-based learning. The GRU model can be selected as an alternative to reinforcement learning because of its predictive ability and relatively short training time. GRUs are used by RNNs to distinguish between observations that should be stored or updated in memory and observations that should be forgotten or reset.

いくつかの実施形態では、GRUモデルは、目標対象を構築するために必要な組立てステップの数に対応するいくつかのGRUセルから構成することができる。組立てステップの数のうちの1つを表す個々のGRUセルは、いくつかの入力パラメータおよび隠れ状態出力を有することができる。組立てプロセスにおける最終ステップを表すGRUセルは、目標対象を出力することになる。モデルの出力は、公称対象からの目標対象の偏差である。この偏差は、目標対象から公称対象までのステップ方式ハウスドルフ距離、および公称対象の最終構成の性能メトリックを使用して計算することができる。個々のGRUセルは、リセット、更新および新しいゲートによって画定される。GRUニューラルネットワークは反復して訓練され、それによりGRUニューラルネットワークを特定の副題の解決に向かってバイアスさせ、また、GRUのための一組の重みを識別する。例えば反復毎に、後続するステップにおける組立てプロセスを完了するためにいくつかの予測(特定のステップにおける可能なエラー毎に1つの予測)が生成される。さらに、修正された組立てプロセスの対応する予測された距離測度を生成することができる。これらの予測された組立てプロセス完了は、仮想表現システム、および「グラウンドトルース」距離測度を得るために計算されたそれらのステップ方式ハウスドルフ距離の中で描写することができる。「グラウンドトルース」と予測された距離測度の差を計算してモデルにフィードバックすることができ、そのネットワーク重みは、次の反復を生成する後方伝搬を介して調整される。このプロセスは、GRUのための上記一組の重みが識別されるまで継続することができる。いくつかの実施形態では、確率的勾配降下法(stochastic gradient descent method)を使用して、欠陥のある目標対象を修正し、また、満足すべき最終構成を得るために必要なステップを引き出すことができる。 In some embodiments, the GRU model can consist of several GRU cells corresponding to the number of assembly steps required to build the target object. Each GRU cell representing one of the number of assembly steps can have several input parameters and hidden state outputs. The GRU cell, which represents the final step in the assembly process, will output the target object. The output of the model is the deviation of the target object from the nominal object. This deviation can be calculated using the step Hausdorff distance from the target to the nominal target and the performance metrics of the final configuration of the nominal target. Individual GRU cells are defined by resets, updates and new gates. The GRU neural network is iteratively trained, thereby biasing the GRU neural network towards the solution of a particular subtitle and also identifying a set of weights for the GRU. For example, at each iteration, several predictions (one prediction for each possible error in a particular step) are generated to complete the assembly process in subsequent steps. In addition, the corresponding predicted distance measures for the modified assembly process can be generated. These predicted assembly process completions can be depicted in a virtual representation system, and in those stepped Hausdorff distances calculated to obtain a "ground torus" distance measure. The difference between the predicted distance measures can be calculated and fed back to the model as "ground truth", and its network weights are adjusted via backpropagation to generate the next iteration. This process can continue until the above set of weights for GRU is identified. In some embodiments, a stochastic gradient descent method may be used to correct the defective target and to elicit the steps necessary to obtain a satisfactory final configuration. can.

いくつかの実施形態では、処理中の目標対象のパラメータコンピュータ支援設計および製図(CAD)モデルなどのシミュレーションを生成して、機械学習モデルを開発し、かつ、検証することができる。CADシステムは、処理中の目標対象の現在の状態に対応する局所座標フレーム、および個々の組立てステップを表す入力パラメータを使用することができる。処理中の目標対象の局所座標フレームおよび入力パラメータを使用することにより、CADシステムは、組立てステップ毎に寸法情報を決定することができる。CADシステムは、次に、個々のステップにおける出力の構成を表す三次元CADモデルを生成することができる。CADシステムは、組立てプロセスにおけるすべてのステップが実行されるまでこのプロセスを継続することができ、また、組み立てられた対象の最終構成のCADモデルを出力することができる。CADシステムに様々な入力パラメータを提供することにより、異なる構成のCADモデルを生成することができる。長さまたは幅などの特定の範囲の入力基準を有する一組のCADモデルを得るために、この入力基準の統計的なサンプルをCADシステムに提供して、上記一組のCADモデルを生成することができる。 In some embodiments, simulations such as parameter computer-aided design and drafting (CAD) models of the target being processed can be generated to develop and validate machine learning models. The CAD system can use local coordinate frames corresponding to the current state of the target object being processed, as well as input parameters representing individual assembly steps. By using the local coordinate frame and input parameters of the target object being processed, the CAD system can determine the dimensional information for each assembly step. The CAD system can then generate a three-dimensional CAD model that represents the composition of the output at each step. The CAD system can continue this process until every step in the assembly process has been performed, and can output a CAD model of the final configuration of the assembled object. By providing various input parameters to the CAD system, it is possible to generate CAD models with different configurations. To obtain a set of CAD models with a specific range of input criteria such as length or width, provide a statistical sample of this input criteria to the CAD system to generate the set of CAD models described above. Can be done.

CADモデルは、可変レベルの詳細および知的要素であってもよいが、訓練されたモデルおよびシステムは、とりわけより低い詳細CADシステムと共に動作するように設計され、それにより非計算的に高価な方法における膨大な数の例を生成することができ、また、訓練されたモデルおよびプロファイリングのための十分な表面形態学詳細を提供することができる。いくつかの実施形態では、参照されるCADシステムは、Finite Element Analysis(FEA)または基本表面モデル化ツールと対にすることができ、それにより表面の構造解析を生成することができる。このデータは、モデル訓練および解析のための追加品質スコアとして使用することができる。 CAD models may be variable levels of detail and intellectual elements, but trained models and systems are specifically designed to work with lower detail CAD systems, thereby making it a non-computational and expensive method. A huge number of examples can be generated in, and sufficient surface morphology details can be provided for trained models and profiling. In some embodiments, the referenced CAD system can be paired with a Finite Element Analysis (FEA) or basic surface modeling tool, whereby a structural analysis of the surface can be generated. This data can be used as an additional quality score for model training and analysis.

いくつかの実施形態では、CADシステムは、モデルからの例の要求に応じて、あるいは追加探究データの必要に応じて追加表面モデルを生成することができるよう、モデル訓練に組み込むことができる。この手法は物理的観察と対であり、空間の膨大な量の物理的サンプルを必要とすることなく、予め訓練されたモデルを展開することができる。 In some embodiments, the CAD system can be incorporated into model training so that additional surface models can be generated as required by the example from the model or as needed for additional inquiry data. This technique is paired with physical observation and allows the development of pre-trained models without the need for a huge amount of physical samples in space.

いくつかの実施形態では、組み立てられた対象の最終構成のCADモデルをシミュレーションに使用して性能メトリックを生成することができる。組み立てられた対象の最終構成のCADモデルを使用することにより、シミュレーションは、数値および計算方法を利用して性能メトリックを生成することができる。 In some embodiments, a CAD model of the final configuration of the assembled object can be used in the simulation to generate performance metrics. By using the CAD model of the final configuration of the assembled object, the simulation can generate performance metrics using numerical and computational methods.

Artificial Intelligence Process Control(AIPC)のリアルワールドアプリケーションは、組立てラインにおける、既に自分のタスクを完了した作業者へのフィードバックの提供(例えばビデオ指示を自動的に修正することによって)、ならびに組立てラインにおける下流側の、未だ自分のタスクを完了していない作業者への指示の提供(これも例えばビデオ指示を自動的に修正することによって)を含む(「フィードフォワード」)。このフィードバック-フィードフォワードシステム、すなわちAIPCは、本明細書において説明されているAI手法を、いくつかの実施形態では、本明細書において説明されている特定の順序で使用して達成することができ、したがって組立てライン上の作業者は、追加人間監視を必要とすることなく、結果として得られる製造製品を最適化する選択をなすことができる。 The Artificial Intelligence Process Control (AIPC) real-world application provides feedback (eg, by automatically modifying video instructions) to workers who have already completed their tasks on the assembly line, as well as downstream on the assembly line. Includes providing instructions (also by automatically modifying video instructions, for example) to workers who have not yet completed their tasks on the side (“feed forward”). This feedback-feedforward system, ie AIPC, can be achieved using the AI techniques described herein using, in some embodiments, in the particular order described herein. Therefore, the operator on the assembly line can make the choice to optimize the resulting manufactured product without the need for additional human monitoring.

いくつかの実施形態では、これは、単にRNNへの上記システムの圧縮、および1つまたは複数の製造製品を作り出すプロセスの間、成功または失敗の2つの方法におけるあらゆる動きの観察を含む。個々の動きは訓練として働く。RNNの出力ノードが最適ではない場合、ネットワークは、異なる選択をなすよう、組立てラインにおける実際の個人にフィードバックすることができ、また、RNNの多くのノードおよび層を通る経路では、重みは、重み付けし直すことができ、また、出力には、成功または失敗のいずれかのラベルが振られることになる。プロセスが反復すると、重みは、自身でその精度を改善する。さらに、ネットワークは、組立てを実施する個人が働いていない場合であっても、何が働いていて、何が働いていないかを学習することができる。これは、訓練セットを増加させる。また、それは、組立てプロセスの異なる段階における調整の実施を許容する。いくつかの事例では、任意の所与の瞬間に、特定の特性を有する製造物品を製造する最良の方法は、開始点に戻ることではなく、プロセスの進行に応じて指示を調整することであることが見出され得る。この場合、RNNは、最適な製造製品のために常に最適化しており、また、生産ラインの作業者ステーションにおける、既に自分のタスクを実施した個々の作業者にフィードバックを提供し、また、生産ラインの作業者ステーションにおける、未だ自分のタスクを実施していない作業者に情報をフィードフォワードするべく学習する。 In some embodiments, this simply involves compressing the system into an RNN, and observing any movement in two ways, success or failure, during the process of producing one or more manufactured products. Individual movements serve as training. If the output node of the RNN is not optimal, the network can feed back to the actual individual in the assembly line to make different choices, and in the path through many nodes and layers of the RNN, the weights are weighted. It can be redone, and the output will be labeled as either successful or unsuccessful. As the process iterates, the weights improve their accuracy on their own. In addition, the network can learn what is working and what is not working, even if the individual performing the assembly is not working. This increases the training set. It also allows the implementation of adjustments at different stages of the assembly process. In some cases, the best way to produce a manufactured article with specific properties at any given moment is to adjust the instructions as the process progresses, rather than returning to the starting point. Can be found. In this case, the RNN is constantly optimizing for the best manufactured product and also provides feedback to individual workers who have already performed their tasks at the worker station on the production line and also on the production line. Learn to feed forward information to workers who have not yet performed their tasks at the worker station.

図1は、開示される技術のいくつかの態様による、生産ライン展開を実現するための例示的プロセス100のフローチャートを概念的に図解したものである。図1のプロセスはステップ102で開始され、生産展開が開始される。例示的生産ラインのワークフローは、典型的には、ワークピース(製品)が組み立てられ、あるいは製造される複数の作業者ステーション(ノード)を含む。先行するノードにおける作業が完了した後にのみ、個々の後続するノードの作業が開始されるよう、様々なノードを逐次方式で編成することができる。 FIG. 1 is a conceptual illustration of a flow chart of an exemplary process 100 for realizing a production line deployment according to some aspects of the disclosed technology. The process of FIG. 1 is started in step 102 and production deployment is started. An exemplary production line workflow typically involves multiple worker stations (nodes) from which workpieces (products) are assembled or manufactured. Various nodes can be sequentially organized so that the work of each succeeding node is started only after the work of the preceding node is completed.

ステップ104で、1つまたは複数の参照ビデオが生成され、および/または更新される。上で説明したビデオを使用して、特定のノード(本明細書においては作業者ステーションとも呼ばれる)に製造/組立て指示を提供することができる。すなわちワークフローにおける個々のノードは、その特定のノードに対応する製造ワークフローにおけるステップを完了する方法の手引きを引き渡す参照ビデオを備えることができる。 In step 104, one or more reference videos are generated and / or updated. The video described above can be used to provide manufacturing / assembly instructions to a particular node (also referred to herein as a worker station). That is, each node in the workflow can be equipped with a reference video that provides guidance on how to complete the steps in the manufacturing workflow for that particular node.

ステップ106で、ステップ104で生成されたビデオの各々がそれぞれのステーション/ノードに展開される。一例として、所与のワークフローは10個のノードを含むことができ、その各々は、それぞれの異なる/独自の参照ビデオを有している。他の実施態様では、ビデオの数は、ノードの総数より少なくてもよい。実施態様に応じて、様々なステーション/ノードに展開される参照ビデオは固有であってもよく、あるいは同様の手引き/指示を提供することができる。以下でさらに詳細に考察されるように、参照ビデオの内容は動的であってもよく、また、常に更新/増補することができる。 In step 106, each of the videos generated in step 104 is expanded to its respective station / node. As an example, a given workflow can include 10 nodes, each with its own different / unique reference video. In other embodiments, the number of videos may be less than the total number of nodes. Depending on the embodiment, the reference video deployed to the various stations / nodes may be unique or may provide similar guidance / instructions. As discussed in more detail below, the content of the reference video may be dynamic and can be constantly updated / augmented.

ステップ108で、モーションの連続記録が個々のステーション/ノードでキャプチャされる。モーション記録から得られるモーションデータは、ワークフローにおけるそれらのノード/ステーションにおけるワークピース/コンポーネント/ツールとの作業者の相互作用を記述することができる。すなわち個々のノードでキャプチャされるモーションデータは、製品組立てまたは製造の特定の部分に対応する1つまたは複数の作業者行為を表すことができ、また、そのノードと関連する参照ビデオによって提供される指示に対応し得る。いくつかの実例では、モーションキャプチャは、ビデオデータのキャプチャ、すなわちそのステーションにおける作業者の行為のすべてまたは一部の記録を含むことができる。他の実施形態では、モーションキャプチャは、例えば3Dポイントクラウドの記録を含むことができ、モーションは、画像キャプチャデバイスの視野における1つまたは複数の特定のポイントに対して記録される。作業者の行為ならびにコンポーネントの属性(例えばコンポーネント品質、引張り強さ、欠陥の数)の両方を、ワークフローにおける個々のノード/ステーションでキャプチャすることができる。 At step 108, continuous recording of motion is captured at each station / node. Motion data obtained from motion recordings can describe worker interactions with workpieces / components / tools at those nodes / stations in the workflow. That is, the motion data captured on an individual node can represent one or more worker actions corresponding to a particular part of product assembly or manufacturing, and is provided by a reference video associated with that node. Can respond to instructions. In some examples, motion capture can include capturing video data, i.e. recording all or part of the worker's actions at the station. In other embodiments, motion capture can include, for example, recording a 3D point cloud, where motion is recorded for one or more specific points in the field of view of the image capture device. Both worker behavior and component attributes (eg component quality, tensile strength, number of defects) can be captured at individual nodes / stations in the workflow.

ステップ110で、プロセス方法解析偏差を計算することができ、ステップ108におけるステーションのうちの1つまたは複数に対してキャプチャされたモーションデータを解析して、例えば対応するステーションの理想化されたモーションプロファイルを含む(または表す)比較モデルからのあらゆる偏差を識別することができる。図1に図解されているように、ステップ110は、例えば比較モデルからのモーション偏差を識別/分類し、かつ、組立てまたは製造プロセスが影響を及ぼされ得た程度に関する推測を実施するように構成することができるAIPC深層学習モデルを利用することができる(ステップ112)。比較は、ステーションレベル毎に、および/または総合プロセスレベルで実施することができる。また、解析は、個々のステーションにおけるコンポーネントの属性、またはベースラインからのコンポーネントの偏差、およびステーションのモーション偏差がコンポーネントの品質に及ぼす影響の程度を考慮することも可能である。 At step 110, process method analysis deviations can be calculated to analyze the motion data captured for one or more of the stations in step 108, eg, an idealized motion profile for the corresponding station. Any deviation from a comparative model that contains (or represents) can be identified. As illustrated in FIG. 1, step 110 is configured to identify / classify motion deviations from, for example, comparative models and to make inferences about the extent to which the assembly or manufacturing process could be affected. It is possible to utilize an AIPC deep learning model that can be used (step 112). Comparisons can be made at the station level and / or at the integrated process level. The analysis can also take into account the component's attributes at individual stations, or the component's deviation from the baseline, and the extent to which the station's motion deviation affects the component's quality.

ステップ112で呼ばれるAIPC深層学習モデルは、例えば所与のステーション/ノードに対する理想的な、または品質が制御された組立て/製造相互作用の例を含むことができる様々なタイプの訓練データの収集に基づくことができる。また、AIPC深層学習モデルは、プロセス100(ステップ111)を使用して製造された特定の製品に関する顧客からのフィードバックによって、また、プロセス100(ステップ113)を使用して製造された特定の製品の品質管理検査からのフィードバックによって、ドメイン/産業情報115によって提供されるデータを使用して増補する(または調整する)ことができる。AIPC深層学習モデルは、分散ハードウェアモジュールおよび/またはソフトウェアモジュールを含む様々な計算システムを使用して実現することができることを理解されたい。一例として、AIPC深層学習モデルは、組立てラインに展開され、かつ、様々なAI/機械学習モデルおよび/または分類子を実現するように構成された1つまたは複数のシステムに結合される複数の画像キャプチャデバイスおよび表示デバイスを含む分散システムを使用して実現することができる。 The AIPC deep learning model referred to in step 112 is based on the collection of various types of training data, which can include, for example, examples of ideal or quality controlled assembly / manufacturing interactions for a given station / node. be able to. The AIPC deep learning model is also based on customer feedback on a particular product manufactured using process 100 (step 111) and on a particular product manufactured using process 100 (step 113). Feedback from quality control inspections can be augmented (or adjusted) with the data provided by Domain / Industry Information 115. It should be understood that AIPC deep learning models can be implemented using various computing systems including distributed hardware modules and / or software modules. As an example, an AIPC deep learning model is a plurality of images deployed on an assembly line and coupled to one or more systems configured to implement various AI / machine learning models and / or classifiers. It can be achieved using a distributed system that includes capture and display devices.

ステップ110で比較モデルからの偏差が検出され/識別されると、ステップ114で、AIPC深層学習モデル112を使用して自動調整を生成することができる。上で考察したように、ビデオ調整は、ワークフローの1つまたは複数のステーションにおける製造/組立て品質を改善することを目的とすることができる。例えば作業者に提供される指示または手引きを、エラーを低減し、あるいはエラーが発生した時点で修復する方法で変更するために、例えばエラーが発生することが分かっている(または予測される)所与のノード/ステーションにビデオ調整を適用することができる。他の実施態様では、例えば製造ワークフローが完了する前にエラーを修正するために、エラーが発生したステーションから下流側にビデオ調整を適用することができる。さらに他の実施態様では、ワークフローが完了すると、ワークフロー全体を解析することができ、また、ワークフローにおける1つまたは複数のステーションに対して調整を実施することができる。 Once the deviation from the comparative model is detected / identified in step 110, the AIPC deep learning model 112 can be used to generate an automatic adjustment in step 114. As discussed above, video tuning can be aimed at improving manufacturing / assembly quality at one or more stations in the workflow. For example, where an error is known (or expected) to change, for example, to change the instructions or guidance provided to the operator in a way that reduces or repairs the error when it occurs. Video adjustments can be applied to a given node / station. In another embodiment, video adjustments can be applied downstream from the station where the error occurred, for example to correct the error before the manufacturing workflow is complete. In yet another embodiment, once the workflow is complete, the entire workflow can be analyzed and adjustments can be made to one or more stations in the workflow.

いくつかの実施形態では、調整は、エラーが検出された直後に実時間で実施される。他の実施形態では、調整は、一定のインターバルで、またはワークフローが完了した後に実施される。 In some embodiments, the adjustment is performed in real time immediately after the error is detected. In other embodiments, adjustments are made at regular intervals or after the workflow is complete.

いくつかの態様では、ステップ114で決定された自動調整は、ステップ117で要約し、および/または製品品質レポートとして提供することができる。例えばモーション偏差の解析(ステップ110)によってもたらされる調整を使用して、組立て/製造プロセスの理想化されたモデルから識別された偏差に基づいて、ワークピースの様々な品質態様を記述する1つまたは複数の品質レポートを作成することができる。 In some embodiments, the automatic adjustment determined in step 114 can be summarized in step 117 and / or provided as a product quality report. One or one that describes various aspects of the quality of the workpiece based on the deviations identified from the idealized model of the assembly / manufacturing process, for example using the adjustments provided by the analysis of motion deviations (step 110). You can create multiple quality reports.

図2は、本技術のいくつかの態様による、組立てエラー修正を容易にするために使用することができるエラー検出解析を実施するための例示的プロセス200を図解したものである。 FIG. 2 illustrates an exemplary process 200 for performing error detection analysis that can be used to facilitate assembly error correction according to some aspects of the technique.

ステップ210で開始され、理想化されたビデオ手引きを使用して製造/組立てを改善するプロセスを実現することができる。ステップ215で、1つまたは複数の組立てステーションのビデオ追跡が実施される。ビデオ追跡は、所与のステーション/ノードにおける人間作業者の記録を含むことができる。いくつかの実施形態では、ビデオ追跡は、所与のステーション/ノードにおけるコンポーネント属性のキャプチャをさらに含むことができる。 Starting at step 210, an idealized video guide can be used to implement the process of improving manufacturing / assembly. At step 215, video tracking of one or more assembly stations is performed. Video tracking can include recordings of human workers at a given station / node. In some embodiments, video tracking can further include capture of component attributes at a given station / node.

ステップ220~224で、組立てステーションから記録されたビデオを解析する処理が実施される。例えばいくつかの実施形態では、背景抽出を実施して、記録されたビデオ中の動き/コンポーネントを隔離することができる。いくつかの態様では、背景抽出が完了すると、処理されたビデオは、組立て作業者に関連するモーション/ビデオデータのみを含み(ステップ224)、また、含まれているコンポーネントは、対応する組立てステップ(ステップ220)に使用される。ステップ220で、追加処理を実施して、部品/コンポーネントを隔離することができる。プロセス200の線図によって図解されているように、ステップ220は、異常検出(ステップ221)、表面変化の検出(222)および部品分類および/または品質スコアリング(ステップ223)を含む追加処理操作を含むことができる。それには限定されないが、1つまたは複数のAI/機械学習アルゴリズムおよび/または分類子の使用を含む、様々な信号および/または画像処理技法を使用して、任意のビデオ処理ステップを実施し、それにより例えば異常検出(221)、表面変化の検出(222)を実施し、および/またはスコアリング/分類(ステップ223)を実施することができることを理解されたい。 In steps 220 to 224, a process of analyzing the video recorded from the assembly station is performed. For example, in some embodiments, background extraction can be performed to isolate movements / components in the recorded video. In some embodiments, once background extraction is complete, the processed video contains only the motion / video data relevant to the assembler (step 224), and the contained components are the corresponding assembly steps (step 224). Used in step 220). At step 220, additional processing can be performed to isolate the component / component. As illustrated by the diagram of process 200, step 220 performs additional processing operations including anomaly detection (step 221), surface change detection (222) and component classification and / or quality scoring (step 223). Can include. Any video processing step can be performed using a variety of signal and / or image processing techniques, including, but not limited to, the use of one or more AI / machine learning algorithms and / or classifiers. It should be appreciated that, for example, anomaly detection (221), surface change detection (222), and / or scoring / classification (step 223) can be performed.

処理ステップ220~224が完了した後、プロセス200は、モーション比較が実施されるステップ226へ進行することができる。モーション比較(ステップ226)は、対応する理想化されたビデオ/モーションデータとの、1つまたは複数のステーション/ノードにおける一人(1つ)または複数のステーション作業者を含むプロセス組立てステーションビデオデータの比較を含むことができる。複数のステーション/ノードにわたって実施されるモーション比較を使用して、結果として得られる部品/コンポーネント品質の変化を推測/予測することができる。 After the processing steps 220-224 are completed, the process 200 can proceed to step 226 where the motion comparison is performed. Motion comparison (step 226) is a comparison of process-assembled station video data involving one (one) or multiple station workers at one or more stations / nodes with the corresponding idealized video / motion data. Can be included. Motion comparisons performed across multiple stations / nodes can be used to infer / predict the resulting changes in component / component quality.

ステップ228で、様々な部品/コンポーネントに対する分散/品質分類を実施することができる。一例として、部品/コンポーネントは異なる品質層に分類することができ、および/またはそれらの関連する分類/相違に応じて、除去または修理のために識別することができる。 At step 228, distribution / quality classification can be performed for various parts / components. As an example, parts / components can be classified into different quality layers and / or identified for removal or repair depending on their related classification / difference.

分類/相違が決定された後、プロセス200はステップ230へ進行することができ、ステップ230で、プロセス/ワークフロー全体の解析が、例えばステップ226および228で決定されたステーション/ノード毎の分類/相違に基づいて実施される。ワークフロー全体を解析することにより、ビデオに対する自動調整を実施することができ、それにより、上で考察したように、検出された偏差/欠陥に対処することができる。 After the classification / difference is determined, process 200 can proceed to step 230, where the analysis of the entire process / workflow is the station / node classification / difference determined, for example, in steps 226 and 228. It is carried out based on. By analyzing the entire workflow, automatic adjustments to the video can be performed, thereby addressing the detected deviations / defects as discussed above.

図3は、開示される技術のシステムを実現するために使用することができる例示的処理デバイスを図解したものである。処理デバイス300は、マスター中央処理装置(CPU)362、インタフェース368およびバス315(例えばPCIバス)を含む。適切なソフトウェアまたはファームウェアの制御の下で動作すると、CPU362は、様々なエラー検出監視および開示される技術のプロセス調整ステップを実施する責任を負う。CPU362は、オペレーティングシステムおよび任意の適切なアプリケーションソフトウェアを含むソフトウェアの制御の下ですべてのこれらの機能を成し遂げることが好ましい。CPU362は、マイクロプロセッサのMotorolaファミリーからの、あるいはマイクロプロセッサのMIPSファミリーからのプロセッサなどの1つまたは複数のプロセッサ363を含むことができる。代替実施形態では、プロセッサ363は、AIPCシステム310の操作を制御するために特別に設計されたハードウェアである。特定の実施形態では、メモリ361(不揮発性RAMおよび/またはROMなど)もCPU462の一部を形成している。しかしながらメモリをシステムに結合することができる多くの異なる方法が存在している。 FIG. 3 illustrates an exemplary processing device that can be used to implement a system of disclosed technology. The processing device 300 includes a master central processing unit (CPU) 362, an interface 368 and a bus 315 (eg, a PCI bus). When operated under the control of appropriate software or firmware, the CPU 362 is responsible for performing process adjustment steps for various error detection and monitoring and disclosed technologies. It is preferred that the CPU 362 accomplish all these functions under the control of the software, including the operating system and any suitable application software. The CPU 362 can include one or more processors 363, such as processors from the Motorola family of microprocessors or from the MIPS family of microprocessors. In an alternative embodiment, processor 363 is hardware specifically designed to control the operation of AIPC system 310. In certain embodiments, memory 361 (such as non-volatile RAM and / or ROM) also forms part of the CPU 462. However, there are many different ways in which memory can be combined into a system.

いくつかの態様では、処理デバイス310は、画像処理システム370を含むことができ、あるいは画像処理システム370と結合することができる。画像処理システム370は、作業者の動きを監視し、また、モーションデータを生成することができるビデオカメラなどの様々な画像キャプチャデバイスを含むことができる。一例として、画像処理システム370は、ビデオデータをキャプチャし、および/または3Dポイントクラウドを出力し/生成するように構成することができる。 In some embodiments, the processing device 310 may include image processing system 370 or may be coupled with image processing system 370. The image processing system 370 can include various image capture devices such as video cameras that can monitor the movement of the operator and also generate motion data. As an example, the image processing system 370 can be configured to capture video data and / or output / generate a 3D point cloud.

インタフェース368は、典型的にはインタフェースカード(時によっては「ラインカード」と呼ばれることもある)として提供される。一般に、それらは、ネットワークを介したデータパケットの送信および受信を制御し、また、時によっては、ルータと共に使用される他の周辺装置をサポートする。提供され得るインタフェースは、とりわけ、Ethernetインタフェース、フレーム中継インタフェース、ケーブルインタフェース、DSLインタフェース、トークンリングインタフェース、等々である。さらに、高速トークンリングインタフェース、無線インタフェース、Ethernetインタフェース、Gigabit Ethernetインタフェース、ATMインタフェース、HSSIインタフェース、POSインタフェース、FDDIインタフェース、等々などの様々な極めて高速のインタフェースを提供することも可能である。一般に、これらのインタフェースは、適切な媒体との通信に適したポートを含むことができる。いくつかの事例では、それらは独立プロセッサをも含むことができ、また、いくつかの実例では揮発性RAMを含むことができる。独立プロセッサは、このような通信集約タスクをパケット交換、媒体制御および管理として制御することができる。通信集約タスクのための個別のプロセッサを提供することにより、これらのインタフェースは、マスターマイクロプロセッサ362による、経路指定計算、ネットワーク診断、安全保護機能、等々の効果的な実施を許容することができる。 Interface 368 is typically provided as an interface card (sometimes referred to as a "line card"). In general, they control the sending and receiving of data packets over the network and, in some cases, support other peripherals used with routers. Interfaces that may be provided are, among other things, Ethernet interfaces, frame relay interfaces, cable interfaces, DSL interfaces, Token Ring interfaces, and the like. Further, it is also possible to provide various extremely high-speed interfaces such as a high-speed token ring interface, a wireless interface, an Ethernet interface, a Gigabit Ethernet interface, an ATM interface, an HSSI interface, a POS interface, an FDDI interface, and the like. In general, these interfaces can include suitable ports for communication with the appropriate medium. In some cases they can also include independent processors, and in some examples they can also include volatile RAM. The independent processor can control such communication aggregation tasks as packet switching, medium control and management. By providing a separate processor for the communication aggregation task, these interfaces can allow the master microprocessor 362 to effectively perform routing calculations, network diagnostics, security functions, and so on.

図3に示されているシステムは、本発明の1つの特定の処理デバイスであるが、本発明を実現することができる唯一のネットワークデバイスアーキテクチャでは決してない。例えば通信ならびに経路指定計算、等々を取り扱う単一のプロセッサを有するアーキテクチャがしばしば使用される。さらに、他のタイプのインタフェースおよび媒体をも使用することも可能である。 The system shown in FIG. 3 is one particular processing device of the invention, but is by no means the only network device architecture that can implement the invention. Architectures with a single processor dealing with, for example, communications and routing computations, etc. are often used. In addition, other types of interfaces and media can be used.

ネットワークデバイスの構成に無関係に、ネットワークデバイスは、汎用ネットワーク操作のためのプログラム命令を記憶するように構成された1つまたは複数のメモリまたはメモリモジュール(メモリ361を含む)、および本明細書において説明されているローミング、経路最適化および経路指定機能のための機構を使用することができる。プログラム命令は、例えばオペレーティングシステムおよび/または1つまたは複数のアプリケーションの操作を制御することができる。移動度結合(mobility binding)、登録および関連表、等々などの表を記憶するように1つまたは複数のメモリを構成することも可能である。 Regardless of the configuration of the network device, the network device is one or more memories or memory modules (including memory 361) configured to store program instructions for general purpose network operations, and described herein. Mechanisms for roaming, routing and routing functions are available. Program instructions can, for example, control the operation of the operating system and / or one or more applications. It is also possible to configure one or more memories to store tables such as mobility binding, registration and association tables, and so on.

様々な実施形態の論理演算は、(1)汎用コンピュータ内のプログラム可能回路上で走る一連のコンピュータ実現ステップ、操作または手順、(2)特定用途プログラム可能回路上で走る一連のコンピュータ実現ステップ、操作または手順、および/または(3)相互接続機械モジュールまたはプログラム可能回路内のプログラムエンジンとして実現される。システム300は、記載されている方法のすべてまたは一部を実践することができ、記載されているシステムの一部であってもよく、および/または記載されている非一時的コンピュータ可読記憶媒体中の命令に従って動作することができる。このような論理演算は、プロセッサ363を制御するように構成されたモジュールとして実現することができ、それによりそのモジュールのプログラミングに従って特定の機能を実施する。 The logical operations of the various embodiments are: (1) a series of computer realization steps, operations or procedures running on a programmable circuit in a general purpose computer, (2) a series of computer realization steps, operations running on a special purpose programmable circuit. Or implemented as a procedure and / or (3) interconnect mechanical module or program engine in a programmable circuit. System 300 may practice all or part of the described method, may be part of the described system, and / or in the non-temporary computer-readable storage medium described. Can operate according to the instructions of. Such logical operations can be implemented as a module configured to control the processor 363, thereby performing a particular function according to the programming of that module.

開示されているプロセスにおけるステップの任意の特定の順序または階層は、例示的手法の例証であることを理解されたい。設計の好みに基づいて、プロセスにおけるステップの特定の順序または階層を再配置することができること、または図解されているステップの一部のみを実施することができることを理解されたい。ステップのうちのいくつかは同時に実施することができる。例えば特定の状況では、多重タスキングおよび並列処理が有利であり得る。さらに、上で説明した実施形態における様々なシステムコンポーネントの分離は、このような分離がすべての実施形態に必要であるものとして理解してはならず、また、説明されているプログラムコンポーネントおよびシステムは、一般に、単一のソフトウェア製品の中で一体に統合することができ、あるいは複数のソフトウェア製品にパッケージ化することができることを理解すべきである。 It should be understood that any particular sequence or hierarchy of steps in the disclosed process is an illustration of an exemplary approach. It should be understood that a particular order or hierarchy of steps in the process can be rearranged, or only some of the steps illustrated can be performed, based on design preferences. Some of the steps can be performed at the same time. For example, in certain situations, multiple tasking and parallel processing may be advantageous. Moreover, the separation of the various system components in the embodiments described above should not be understood as such separation is required for all embodiments, and the program components and systems described are not included. It should be understood that, in general, it can be integrated into a single software product or packaged into multiple software products.

上記の説明は、すべての当業者による、本明細書において説明されている様々な態様の実践を可能にするために提供されたものである。これらの態様に対する様々な修正は当業者には容易に明らかであり、また、本明細書において定義されている一般原理は、他の態様にも適用することができる。したがって特許請求の範囲には、それが本明細書において示されている態様に限定されることは意図されておらず、特許請求の範囲は、言語請求項と無矛盾の全範囲と一致し、単数形の要素に対する参照には、そうであることが明確に言及されていない限り、「1つであり、また、唯一である」ことを意味するのではなく、「1つまたは複数である」ことが意図されている。 The above description is provided to allow all skill in the art to practice the various aspects described herein. Various modifications to these embodiments will be readily apparent to those of skill in the art, and the general principles defined herein can be applied to other embodiments as well. Therefore, the claims are not intended to be limited to the embodiments set forth herein, and the claims are consistent with the language claims and are singular. References to elements of form do not mean "one and only", but "one or more" unless explicitly stated to be so. Is intended.

「態様」などの語句は、このような態様が主題技術に必須であること、またはこのような態様を主題技術のすべての構成に適用することを暗に意味していない。態様に関連する開示は、すべての構成に適用することができ、あるいは1つまたは複数の構成に適用することができる。一態様などの語句は、1つまたは複数の態様を意味することができ、また、1つまたは複数の態様は、一態様を意味することができる。「構成」などの語句は、このような構成が主題技術に必須であること、またはこのような構成を主題技術のすべての構成に適用することを暗に意味していない。構成に関連する開示は、すべての構成に適用することができ、あるいは1つまたは複数の構成に適用することができる。一構成などの語句は、1つまたは複数の構成を意味することができ、また、1つまたは複数の構成は、一構成を意味することができる。 A phrase such as "aspect" does not imply that such an aspect is essential to the subject art or that such an aspect applies to all configurations of the subject art. The disclosures associated with the embodiments can be applied to all configurations, or to one or more configurations. A phrase such as one aspect can mean one or more aspects, and one or more aspects can mean one aspect. Words such as "construction" do not imply that such a configuration is essential to the subject matter or that such a configuration applies to all configurations of the subject matter. Disclosures related to configurations can be applied to all configurations, or to one or more configurations. A phrase such as one configuration can mean one or more configurations, and one or more configurations can mean one configuration.

「例示的」という語は、本明細書においては、「例または例証として働く」ことを意味するべく使用されている。「例示的」として本明細書において説明されているすべての態様または設計は、他の態様または設計に勝る、好ましい、または有利なものとして必ずしも解釈されるべきではない。
開示の供述
The term "exemplary" is used herein to mean "act as an example or an example." All aspects or designs described herein as "exemplary" should not necessarily be construed as preferred or advantageous over other aspects or designs.
Disclosure statement

供述1:組立てラインにおけるワークフローを最適化するための方法であって、方法は、目標対象の組立てプロセスのあるステップにおいて、目標対象の組立てのエラーを検出するステップと、組立てプロセスのそのステップにおける目標対象と公称対象とを評価し、それにより比較を得るステップと、その比較に基づいて、目標対象と公称対象の間の偏差を最小化するために必要な一連のステップを決定するステップと、上記一連のステップに基づいて目標対象のための組立て指示を調整するステップとを含む。 Statement 1: A method for optimizing the workflow in the assembly line, where the method is to detect an error in the assembly of the target object at a step in the assembly process of the target object and the goal in that step of the assembly process. A step of evaluating an object and a nominal object, thereby obtaining a comparison, and a step based on the comparison, determining a series of steps necessary to minimize the deviation between the target object and the nominal object, and the above. Includes steps to adjust assembly instructions for the target object based on a series of steps.

供述2:供述1の方法であって、目標対象は、組立てプロセスの上記ステップにおける公称対象に対して評価される。 Statement 2: In the method of Statement 1, the target object is evaluated against the nominal object in the above steps of the assembly process.

供述3:供述1から2のいずれかの方法であって、目標対象は、公称対象の最終構成に対して評価される。 Statement 3: In any of the methods of Statements 1 and 2, the target object is evaluated against the final configuration of the nominal object.

供述4:供述1から3のいずれかの方法であって、上記一連のステップは、偏差を最小化するように構成された機械学習モデルを使用して決定される。 Statement 4: Any of the methods of Statements 1 to 3, the series of steps is determined using a machine learning model configured to minimize deviations.

供述5:供述1から4のいずれかの方法であって、偏差は、目標対象の組立てプロセスを完了するための上記一連のステップと、公称対象の組立てプロセスを完了するための別の一連のステップとの間の類似性に基づいて決定される。 Statement 5: In any of the methods of Statements 1 to 4, the deviation is a series of steps described above for completing the assembly process of the target object and another series of steps for completing the assembly process of the nominal object. Determined based on the similarity between and.

供述6:供述1から5のいずれかの方法であって、偏差は、報酬公式化を介したMarkov Decision Process(MDP)を使用して最小化される。 Statement 6: In any of the methods of Statements 1-5, the deviation is minimized using Markov Decision Process (MDP) via reward formulation.

供述7:供述1から6のいずれかの方法であって、確率的勾配降下法を使用して、目標対象の組立てプロセスを完了するための上記一連のステップが引き出される。 Statement 7: Any of the methods of Statements 1-6, the stochastic gradient descent method is used to derive the above series of steps to complete the assembly process of the target object.

供述8:組立てラインにおけるワークフローを最適化するためのシステムであって、システムは、複数の画像キャプチャデバイスであって、画像キャプチャデバイスの各々は、目標対象の組立てプロセスの間、作業者の動きをキャプチャするために異なる位置に配置される、複数の画像キャプチャデバイスと、作業者に提供された手引きおよび指示を自動的に修正するように構成された組立て指示モジュールであって、上記複数の画像キャプチャデバイスに結合される、組立て指示モジュールとを含み、組立て指示モジュールは、該組立て指示モジュールによって、複数の画像キャプチャデバイスからモーションデータを受け取るステップであって、モーションデータは、作業者による、目標対象を組み立てるための一組のステップの実行に対応する、ステップと、上記一組のステップのうちのあるステップにおけるモーションデータに基づいて、目標対象の組立てにおけるエラーを決定するステップと、上記一組のステップのうちの上記ステップにおける目標対象と公称対象とを評価し、それにより比較を得るステップと、その比較に基づいて、目標対象と公称対象の間の偏差を最小化するために必要な一連のステップを決定するステップと、上記一連のステップに基づいて、作業者に提供される組立て指示を調整するステップとを含む操作を実施するように構成される。 Statement 8: A system for optimizing the workflow in the assembly line, where the system is a plurality of image capture devices, each of which captures the movement of the operator during the assembly process of the target. Multiple image capture devices located at different locations for capture and an assembly instruction module configured to automatically modify the guidance and instructions provided to the operator, the multiple image captures described above. The assembly instruction module includes an assembly instruction module coupled to the device, which is a step of receiving motion data from a plurality of image capture devices by the assembly instruction module, and the motion data is a target target by an operator. A step corresponding to the execution of a set of steps for assembling, a step of determining an error in assembling the target object based on motion data in a certain step of the above set of steps, and the above set of steps. A series of steps required to evaluate the target object and the nominal object in the above steps, thereby obtaining a comparison, and to minimize the deviation between the target object and the nominal object based on the comparison. It is configured to carry out an operation including a step of determining an image and a step of adjusting an assembly instruction provided to an operator based on the above series of steps.

供述9:供述8のシステムであって、モーションデータは、目標対象を組み立てている間の作業者の手の動きのデジタル記録を含む。 Statement 9: In the system of Statement 8, the motion data includes a digital recording of the worker's hand movements while assembling the target object.

供述10:供述8から9のいずれかのシステムであって、組立て指示モジュールは、確率的勾配降下法を適用して上記一連のステップを引き出すようにさらに構成される。 Statement 10: In any system of Statements 8-9, the assembly instruction module is further configured to apply stochastic gradient descent to derive the series of steps described above.

供述11:供述8から10のいずれかのシステムであって、組立て指示モジュールは、機械学習モデルを使用して上記一連のステップを決定するようにさらに構成され、機械学習モデルは偏差を最小化するように構成される。 Statement 11: In any system of Statements 8-10, the assembly instruction module is further configured to use a machine learning model to determine the sequence of steps described above, the machine learning model minimizing deviations. It is configured as follows.

供述12:供述8から11のいずれかのシステムであって、偏差は、目標対象の組立てを完了するための上記一連のステップと、公称対象の組立てを完了するための別の一連のステップとの間の類似性に基づいて決定される。 Statement 12: In any system of statements 8-11, the deviation is the sequence of steps described above for completing the assembly of the target object and another sequence of steps for completing the assembly of the nominal object. Determined based on similarities between.

供述13:供述8から12のいずれかのシステムであって、偏差は、報酬公式化を介したMarkov Decision Process(MDP)を使用して最小化される。 Statement 13: In any system of statements 8-12, deviations are minimized using Markov Decision Process (MDP) via reward formulation.

供述14:供述8から13のいずれかのシステムであって、組立て指示モジュールは、モーションデータから、目標対象の組立てを表す一組の画像を引き出し、また、上記一組の画像を評価して、目標対象を組み立てるための作業者による上記一組のステップの実行を識別するようにさらに構成される。 Statement 14: In any of the systems of Statements 8 to 13, the assembly instruction module extracts a set of images representing the assembly of the target object from the motion data, and evaluates the set of images. It is further configured to identify the execution of the above set of steps by the operator to assemble the target object.

供述15:その上に記憶された命令を含む非一時的コンピュータ可読媒体であって、命令は、1つまたは複数のプロセッサによって実行されると、目標対象の組立てプロセスのあるステップにおいて、目標対象の組立てにおけるエラーを検出すること、組立てプロセスの上記ステップにおける目標対象と公称対象とを評価し、それにより比較を得ること、その比較に基づいて、目標対象と公称対象の間の偏差を最小化するために必要な一連のステップを決定すること、および上記一連のステップに基づいて、目標対象のための組立て指示を調整することを含む命令をプロセッサが実行することになるように構成される。 Statement 15: A non-temporary computer-readable medium containing instructions stored on it that, when executed by one or more processors, are the targets of the target at some step in the process of assembling the target. Detecting errors in assembly, evaluating the target and nominal objects in the above steps of the assembly process, and obtaining a comparison thereby, minimizing the deviation between the target and the nominal object based on the comparison. The processor is configured to execute instructions, including determining a set of steps required for this, and adjusting assembly instructions for the target object based on the set of steps described above.

供述16:供述15の非一時的コンピュータ可読媒体であって、命令は、プロセッサが確率的勾配降下法を使用して上記一連のステップを引き出すことになるようにさらに構成される。 Statement 16: A non-temporary computer-readable medium of Statement 15, the instructions are further configured such that the processor derives the sequence of steps using stochastic gradient descent.

供述17:供述15から16のいずれかの非一時的コンピュータ可読媒体であって、目標対象は、組立てプロセスの上記ステップにおける公称対象に対して評価される。 Statement 17: A non-temporary computer-readable medium of any of statements 15-16, the target object being evaluated against the nominal object in the above steps of the assembly process.

供述18:供述15から17のいずれかの非一時的コンピュータ可読媒体であって、目標対象は、公称対象の最終構成に対して評価される。 Statement 18: A non-temporary computer-readable medium of any of statements 15-17, the target object being evaluated against the final configuration of the nominal object.

供述19:供述15から18のいずれかの非一時的コンピュータ可読媒体であって、命令は、偏差を最小化するように構成された機械学習モデルをプロセッサが使用して上記一連のステップを決定することになるようにさらに構成される。 Statement 19: A non-temporary computer-readable medium of any of statements 15-18, the instruction determines the sequence of steps described above using a machine learning model configured to minimize deviations. Further configured to be.

供述20:供述15から19のいずれかの非一時的コンピュータ可読媒体であって、偏差は、報酬公式化を介したMarkov Decision Process(MDP)を使用して最小化される。 Statement 20: A non-temporary computer-readable medium of any of statements 15-19, the deviation of which is minimized using Markov Decision Process (MDP) via reward formulation.

Claims (15)

組立てラインにおけるワークフローを最適化するための方法であって、
目標対象の組立てプロセスのあるステップにおいて、前記目標対象の組立てのエラーを検出するステップと、
前記組立てプロセスの前記ステップにおける前記目標対象と公称対象とを評価し、それにより比較を得るステップと、
前記比較に基づいて、前記目標対象と前記公称対象の間の偏差を最小化するために必要な一連のステップを決定するステップと、
前記一連のステップに基づいて前記目標対象のための組立て指示を調整し、それにより調整された組立て指示を得るステップと
を含む方法。
A method for optimizing the workflow in the assembly line,
In a step of the target target assembly process, a step of detecting the target target assembly error and a step of detecting the target target assembly error.
A step of evaluating the target object and the nominal object in the step of the assembly process and thereby obtaining a comparison.
Based on the comparison, a step of determining a series of steps required to minimize the deviation between the target object and the nominal object, and
A method comprising the step of adjusting an assembly instruction for the target object based on the series of steps and thereby obtaining the adjusted assembly instruction.
前記目標対象が前記組立てプロセスの前記ステップにおける前記公称対象に対して評価される、請求項1に記載の方法。 The method of claim 1, wherein the target object is evaluated against the nominal object in the step of the assembly process. 前記目標対象が前記公称対象の最終構成に対して評価される、請求項1および2のいずれかに記載の方法。 The method of any one of claims 1 and 2, wherein the target object is evaluated for the final configuration of the nominal object. 前記一連のステップが、前記偏差を最小化するように構成された機械学習モデルを使用して決定される、請求項1から3のいずれかに記載の方法。 The method according to any one of claims 1 to 3, wherein the series of steps is determined using a machine learning model configured to minimize the deviation. 前記機械学習モデルがゲート付き回帰型ユニット(GRU)モデルである、請求項4に記載の方法。 The method of claim 4, wherein the machine learning model is a gated recurrent unit (GRU) model. 前記機械学習モデルがLong Short-Term Memory(LSTM)モデルに基づく、請求項4に記載の方法。 The method of claim 4, wherein the machine learning model is based on a Long Short-Term Memory (LSTM) model. 前記機械学習モデルが前記目標対象のための前記組立てプロセスを表す追跡情報を使用して訓練され、前記追跡情報が一組の作業者から収集される、請求項4に記載の方法。 4. The method of claim 4, wherein the machine learning model is trained with tracking information representing the assembly process for the target object, and the tracking information is collected from a set of workers. 前記組立てプロセスに対応するモーションデータをキャプチャするステップをさらに含み、前記モーションデータが前記目標対象を組み立てている間の手の動きのデジタル記録を含む、請求項1から7のいずれかに記載の方法。 The method of any of claims 1-7, further comprising capturing the motion data corresponding to the assembly process, comprising digitally recording the movement of the hand while the motion data is assembling the target object. 前記モーションデータから前記目標対象の前記組立てを表す一組の画像を抽出するステップと、
前記一組の画像を評価し、それにより前記目標対象を組み立てるための前記作業者による前記一連のステップの実行を識別するステップと
をさらに含む、請求項8に記載の方法。
A step of extracting a set of images representing the assembly of the target object from the motion data, and
8. The method of claim 8, further comprising a step of evaluating the set of images and thereby identifying the operator's execution of the series of steps to assemble the target object.
前記目標対象の前記組立てにおける前記エラーが1つまたは複数の機械学習モデルを使用して検出される、請求項1から9のいずれかに記載の方法。 The method of any of claims 1-9, wherein the error in the assembly of the target object is detected using one or more machine learning models. 前記調整された組立て指示が、前記目標対象の前記偏差を最小化するための指示を作業者に提供するように構成される、請求項1から10のいずれかに記載の方法。 The method of any of claims 1-10, wherein the adjusted assembly instructions are configured to provide the operator with instructions for minimizing the deviation of the target object. 前記偏差が、前記目標対象の前記組立てプロセスを完了するための前記一連のステップと、前記公称対象の組立てプロセスを完了するための別の一連のステップとの間の類似性に基づいて決定される、請求項1から11のいずれかに記載の方法。 The deviation is determined based on the similarity between the series of steps to complete the assembly process of the target object and another series of steps to complete the assembly process of the nominal object. , The method according to any one of claims 1 to 11. 前記偏差が、報酬公式化を介したMarkov Decision Process(MDP)を使用して最小化される、請求項1から12のいずれかに記載の方法。 The method of any of claims 1-12, wherein the deviation is minimized using Markov Decision Process (MDP) via reward formulation. 前記調整された組立て指示が、作業者に前記調整された組立て指示を提供するために1つまたは複数の自然言語処理(NLP)アルゴリズムを使用して変換される、請求項1から13のいずれかに記載の方法。 One of claims 1 to 13, wherein the adjusted assembly instructions are transformed using one or more natural language processing (NLP) algorithms to provide the operator with the adjusted assembly instructions. The method described in. 確率的勾配降下法を使用して、前記目標対象の前記組立てプロセスを完了するための前記一連のステップが引き出される、請求項1から14のいずれかに記載の方法。 The method of any of claims 1-14, wherein the stochastic gradient descent method is used to derive the series of steps to complete the assembly process of the target object.
JP2021549836A 2019-04-19 2020-04-20 Assembly error correction for assembly lines Active JP7207790B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022207136A JP2023040079A (en) 2019-04-19 2022-12-23 Assembly error correction for assembly lines

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201962836192P 2019-04-19 2019-04-19
US62/836,192 2019-04-19
US16/587,366 US11156982B2 (en) 2019-02-28 2019-09-30 Dynamic training for assembly lines
US16/587,366 2019-09-30
US201962931448P 2019-11-06 2019-11-06
US62/931,448 2019-11-06
US201962932063P 2019-11-07 2019-11-07
US62/932,063 2019-11-07
PCT/US2020/029022 WO2020176908A1 (en) 2019-02-28 2020-04-20 Assembly error correction for assembly lines

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022207136A Division JP2023040079A (en) 2019-04-19 2022-12-23 Assembly error correction for assembly lines

Publications (2)

Publication Number Publication Date
JP2022522159A true JP2022522159A (en) 2022-04-14
JP7207790B2 JP7207790B2 (en) 2023-01-18

Family

ID=78094438

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021549836A Active JP7207790B2 (en) 2019-04-19 2020-04-20 Assembly error correction for assembly lines
JP2022207136A Pending JP2023040079A (en) 2019-04-19 2022-12-23 Assembly error correction for assembly lines

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022207136A Pending JP2023040079A (en) 2019-04-19 2022-12-23 Assembly error correction for assembly lines

Country Status (3)

Country Link
JP (2) JP7207790B2 (en)
KR (1) KR20220005434A (en)
CN (1) CN113544604A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024005068A1 (en) * 2022-06-30 2024-01-04 コニカミノルタ株式会社 Prediction device, prediction system, and prediction program

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240040951A (en) 2022-09-22 2024-03-29 (주)아이준 Optimizing method for manual assembly process
WO2024065189A1 (en) * 2022-09-27 2024-04-04 Siemens Aktiengesellschaft Method, system, apparatus, electronic device, and storage medium for evaluating work task
CN117272425B (en) * 2023-11-22 2024-04-09 卡奥斯工业智能研究院(青岛)有限公司 Assembly method, assembly device, electronic equipment and storage medium
CN117635605A (en) * 2024-01-23 2024-03-01 宁德时代新能源科技股份有限公司 Battery visual inspection confirmation method and device, electronic equipment and storage medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004104576A (en) * 2002-09-11 2004-04-02 Mitsubishi Heavy Ind Ltd Wearable device for working, and device, method and program for remotely indicating working
JP2005250990A (en) * 2004-03-05 2005-09-15 Mitsubishi Electric Corp Operation support apparatus
JP2008009868A (en) * 2006-06-30 2008-01-17 Saxa Inc Image processor
JP2015099022A (en) * 2013-11-18 2015-05-28 東芝三菱電機産業システム株式会社 Operation confirmation system
JP2017091091A (en) * 2015-11-06 2017-05-25 三菱電機株式会社 Work information generation device
JP6224873B1 (en) * 2016-03-04 2017-11-01 新日鉄住金ソリューションズ株式会社 Information processing system, information processing apparatus, information processing method, and program
JP2018022210A (en) * 2016-08-01 2018-02-08 株式会社日立製作所 Working motion instruction apparatus

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4056716A (en) * 1976-06-30 1977-11-01 International Business Machines Corporation Defect inspection of objects such as electronic circuits
US6757571B1 (en) * 2000-06-13 2004-06-29 Microsoft Corporation System and process for bootstrap initialization of vision-based tracking systems
JP2003167613A (en) * 2001-11-30 2003-06-13 Sharp Corp Operation management system and method and recording medium with its program for realizing the same method stored
US8131055B2 (en) * 2008-01-31 2012-03-06 Caterpillar Inc. System and method for assembly inspection
WO2018204410A1 (en) * 2017-05-04 2018-11-08 Minds Mechanical, Llc Metrology system for machine learning-based manufacturing error predictions
US10061300B1 (en) * 2017-09-29 2018-08-28 Xometry, Inc. Methods and apparatus for machine learning predictions and multi-objective optimization of manufacturing processes

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004104576A (en) * 2002-09-11 2004-04-02 Mitsubishi Heavy Ind Ltd Wearable device for working, and device, method and program for remotely indicating working
JP2005250990A (en) * 2004-03-05 2005-09-15 Mitsubishi Electric Corp Operation support apparatus
JP2008009868A (en) * 2006-06-30 2008-01-17 Saxa Inc Image processor
JP2015099022A (en) * 2013-11-18 2015-05-28 東芝三菱電機産業システム株式会社 Operation confirmation system
JP2017091091A (en) * 2015-11-06 2017-05-25 三菱電機株式会社 Work information generation device
JP6224873B1 (en) * 2016-03-04 2017-11-01 新日鉄住金ソリューションズ株式会社 Information processing system, information processing apparatus, information processing method, and program
JP2018022210A (en) * 2016-08-01 2018-02-08 株式会社日立製作所 Working motion instruction apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024005068A1 (en) * 2022-06-30 2024-01-04 コニカミノルタ株式会社 Prediction device, prediction system, and prediction program

Also Published As

Publication number Publication date
JP7207790B2 (en) 2023-01-18
KR20220005434A (en) 2022-01-13
JP2023040079A (en) 2023-03-22
CN113544604A (en) 2021-10-22

Similar Documents

Publication Publication Date Title
TWI830791B (en) Method and system for optimizing workflow in an assembly line, and non-transitory computer-readable media
US11703824B2 (en) Assembly error correction for assembly lines
JP7207790B2 (en) Assembly error correction for assembly lines
US20230391016A1 (en) Systems, methods, and media for artificial intelligence process control in additive manufacturing
US10518357B2 (en) Machine learning device and robot system to learn processing order of laser processing robot and machine learning method thereof
CN109117380B (en) Software quality evaluation method, device, equipment and readable storage medium
EP3912003A1 (en) Assembly error correction for assembly lines
WO2019180868A1 (en) Image generation device, image generation method, and image generation program
TWM592123U (en) Intelligent system for inferring system or product quality abnormality
TWI801820B (en) Systems and methods for manufacturing processes
Hadi et al. Enhancing software defect prediction using principle component analysis and self-organizing map
JP2020071777A (en) Time-series feature extraction device, time-series feature extraction method, and program
Chernyshev et al. Digital Object Detection of Construction Site Based on Building Information Modeling and Artificial Intelligence Systems.
EP4075221A1 (en) Simulation process of a manufacturing system
Zheng et al. Explaining Imitation Learning through Frames
EP4075330A1 (en) Monitoring process of a manufacturing system
Tebrizcik et al. Improvement of Quality Performance in Mask Production by Feature Selection and Machine Learning Methods and An Application
Rao et al. An improved Multiperceptron Neural network model to classify Software defects
Li Adversarial Learning-Assisted Data Analytics in Manufacturing and Healthcare Systems
CN117252851A (en) Standard quality detection management platform based on image detection and identification
Khatibi Investigating the effect of software project type on accuracy of software development effort estimation in COCOMO model
DALLA ZUANNA A Domain Adaptation approach for sequence modeling through Deep Learning in semiconductor manufacturing: adversarial training setup with Temporal Convolutional Network and Long-Short Term Memory models

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220819

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221223

R150 Certificate of patent or registration of utility model

Ref document number: 7207790

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150