JP7428769B2 - 柔軟で適応的なロボット学習のための人間ロボット協働 - Google Patents

柔軟で適応的なロボット学習のための人間ロボット協働 Download PDF

Info

Publication number
JP7428769B2
JP7428769B2 JP2022157396A JP2022157396A JP7428769B2 JP 7428769 B2 JP7428769 B2 JP 7428769B2 JP 2022157396 A JP2022157396 A JP 2022157396A JP 2022157396 A JP2022157396 A JP 2022157396A JP 7428769 B2 JP7428769 B2 JP 7428769B2
Authority
JP
Japan
Prior art keywords
subtask
sequences
subtasks
robot
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022157396A
Other languages
English (en)
Other versions
JP2023054769A (ja
Inventor
カウル ラニート
アチャリヤ ジョイデップ
ガウア スダンシュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JP2023054769A publication Critical patent/JP2023054769A/ja
Application granted granted Critical
Publication of JP7428769B2 publication Critical patent/JP7428769B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/092Reinforcement learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40116Learn by operator observation, symbiosis, show, watch
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40391Human to robot skill transfer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Description

本開示は、一般的に産業システムに関し、より詳細には人間ロボット協働が関わる機械学習システムに関する。
工場では、産業ロボットは、溶接、組み立て、ピックアンドプレース等のタスクを実行するようにプログラムされる。しかしながら、産業ロボットに関連する多くの課題があり、たとえば製造ラインに小さな変更が必要である場合、新たなタスク仕様を満たすようにロボットを再設計し再利用するために、インテグレータが呼び出されることがよくある。さらに、これらのロボットは、ロボットプログラミングインターフェースに関してかなり柔軟性がなく、多くの場合、使用が難しく、幅広いプログラミング知識を必要とし、それにより、ロボットの目的を容易に変更するライン作業者の能力が制限される。
これらの課題を解消するために、工場での人間-ロボット協働が増えつつあり、その場合、ロボットは、人間が行うことを学習する必要がある。典型的には、ロボット学習は、ロボットを教えることを含む。本明細書に記載される実施態様例は、ロボットが人間の動作を観測することによって学習するより適応的で柔軟な技法を含む。既存の技術では、人間は一般に、ロボットが理解し学習するために正しいシーケンスでタスクを実行し、又は人間のデモンストレーションのより正確なセンサ読み取りのためにウェアラブルセンサを使用する。さらに、これらの技術は、タスク終了時の製品の品質を使用して、ロボットタスク実行と比較する。しかしながら、製造ラインでは、各タスクが実行された後、品質情報が利用可能ではないことがあり、それにより、各タスクの品質の推定が必要とされる。
本明細書に記載される実施態様例では、人間がタスクを実行する際に人間の動作を記録し、人間の動作における変化点を観測することによってこれらのタスクをサブタスクに分類し、次いで最終製品品質に基づいてサブタスクの品質を推定するシステム及び方法がある。さらに、サブタスクシーケンス順も決定され、これは次いで、ロボット学習のために同じタスクを実行している複数のロボットに送信される。
本開示の態様は方法を含むことができ、本方法は、複数のサブタスクと関連付けられた情報を受信することであって、受信される情報は、関連付けられたロボットをエッジシステムにおいてトレーニングするために人間の動作と関連付けられるものを、受信することと、複数のサブタスクの各々に対して品質評価を行うことと、複数のサブタスクから1つ又は複数のサブタスクシーケンスを決定することと、1つ又は複数のサブタスクシーケンスの各々と関連付けられた複数のサブタスクの各々の品質評価に基づいて、1つ又は複数のサブタスクシーケンスの各々を評価することと、1つ又は複数のサブタスクシーケンスの各々の評価に基づいて、1つ又は複数のサブタスクシーケンスのうちの、関連付けられたロボットをトレーニングするためのサブタスクシーケンスを出力することとを含むことができる。
本開示の態様は、命令を含むことができるコンピュータプログラムを含むことができ、命令は、複数のサブタスクと関連付けられた情報を受信することであって、受信される情報は、関連付けられたロボットをエッジシステムにおいてトレーニングするために人間の動作と関連付けられるものを、受信することと、複数のサブタスクの各々に対して品質評価を行うことと、複数のサブタスクから1つ又は複数のサブタスクシーケンスを決定することと、1つ又は複数のサブタスクシーケンスの各々と関連付けられた複数のサブタスクの各々の品質評価に基づいて、1つ又は複数のサブタスクシーケンスの各々を評価することと、1つ又は複数のサブタスクシーケンスの各々の評価に基づいて、1つ又は複数のサブタスクシーケンスのうちの、関連付けられたロボットをトレーニングするためのサブタスクシーケンスを出力することとを行うことを含む。コンピュータプログラムは、非一時的コンピュータ可読媒体に記憶することができ、1つ又は複数のプロセッサによって実行することができる。
本開示の態様はシステムを含むことができ、本システムは、複数のサブタスクと関連付けられた情報を受信する手段であって、受信される情報は、関連付けられたロボットをエッジシステムにおいてトレーニングするために人間の動作と関連付けられるものを、受信する手段と、複数のサブタスクの各々に対して品質評価を行う手段と、複数のサブタスクから1つ又は複数のサブタスクシーケンスを決定する手段と、1つ又は複数のサブタスクシーケンスの各々と関連付けられた複数のサブタスクの各々の品質評価に基づいて、1つ又は複数のサブタスクシーケンスの各々を評価する手段と、1つ又は複数のサブタスクシーケンスの各々の評価に基づいて、1つ又は複数のサブタスクシーケンスのうちの、関連付けられたロボットをトレーニングするためのサブタスクシーケンスを出力する手段とを含むことができる。
本開示の態様は装置を含むことができ、本装置はプロセッサを含むことができ、プロセッサは、複数のサブタスクと関連付けられた情報を受信することであって、受信される情報は、関連付けられたロボットをエッジシステムにおいてトレーニングするために人間の動作と関連付けられるものを、受信することと、複数のサブタスクの各々に対して品質評価を行うことと、複数のサブタスクから1つ又は複数のサブタスクシーケンスを決定することと、1つ又は複数のサブタスクシーケンスの各々と関連付けられた複数のサブタスクの各々の品質に基づいて、1つ又は複数のサブタスクシーケンスの各々を評価することと、1つ又は複数のサブタスクシーケンスの各々の評価に基づいて、1つ又は複数のサブタスクシーケンスのうちの、関連付けられたロボットをトレーニングするためのサブタスクシーケンスを出力することとを行うように構成される。
本開示の態様は装置を含むことができ、本装置は、命令を記憶する1つ又は複数のコンピュータ可読媒体と、1つ又は複数のコンピュータ可読媒体に記憶された命令を実行して、プロセスを実行するプロセッサとを含むことができ、プロセスは、複数のサブタスクと関連付けられた情報を受信することであって、受信される情報は、関連付けられたロボットをエッジシステムにおいてトレーニングするために人間の動作と関連付けられるものを、受信することと、複数のサブタスクの各々に対して品質評価を行うことと、複数のサブタスクから1つ又は複数のサブタスクシーケンスを決定することと、1つ又は複数のサブタスクシーケンスの各々と関連付けられた複数のサブタスクの各々の品質評価に基づいて、1つ又は複数のサブタスクシーケンスの各々を評価することと、1つ又は複数のサブタスクシーケンスの各々の評価に基づいて、1つ又は複数のサブタスクシーケンスのうちの、関連付けられたロボットをトレーニングするためのサブタスクシーケンスを出力することとを含む。
図1(a)および図1(b)は、一実施態様例による工場での2つのシナリオを示す。 図2は、一実施態様例によるアーキテクチャの全体図を示す。 図3は、一実施態様例による製造システムが関わる解決策アーキテクチャを示す。 図4は、一実施態様例による、ERPシステムからタスクテンプレート取得モジュールに送信される一例のタスク情報テーブルを示す。 図5は、一実施態様例による人間の動作のサブタスク学習モジュールの流れ図を示す。 図6は、一実施態様例によるサブタスク学習モジュールの流れ図を示す。 図7(a)および図7(b)は、それぞれ一実施態様例によるスクリュードライバ例を使用したサブタスク識別ステップの一例を示す。 図8は、一実施態様例による、サブタスク学習モジュールからサブタスク評価モジュールに送信されるテーブルの一例を示す。 図9は、一実施態様例による、各サブタスクの特徴ベクトルを解析するためのサブタスク評価モジュールの流れ図を示す。 図10は、一実施態様例による、サブタスク評価モジュールからの確率分布データベースの一例を示す。 図11は、一実施態様例によるタスク再構築モジュールに送信されるテーブルの例を示す。 図12は、一実施態様例による、所与のタスクID及び作業セルタイプについて、複数のタスクシーケンスが生成され評価されるタスク再構築モジュールの一例を示す。 図13(a)は、一実施態様例による、エッジビデオモジュールとコアビデオモジュールとの間の通信を示し、図13(b)は、一実施態様例による、タスク及び作業セル管理のための管理情報の一例を示す。 図14は、一実施態様例による、タスク再構築シーケンスがロボット学習モジュールに送信され、関連するサブタスクビデオクリップが、サブタスクビデオクリップ取得ステップを使用してエッジビデオモジュールから送信される、ロボット学習システムの流れ図を示す。 図15(a)および図15(b)は、ぞれぞれ一実施態様例による作業製品の一例の上面図および側面図を示す。 図16は、幾つかの実施態様例での使用に適した一例のコンピュータデバイスを有する一例の計算環境を示す。
以下の詳細な説明は、図及び本願の実施態様例の詳細を提供する。図間の冗長要素の参照番号及び説明は、明確にするために省かれている。説明全体を通して使用される用語は、例として提供され、限定を意図しない。例えば、「自動」という用語の使用は、本願の実施態様を実施する当業者の所望の実施に応じて、実施態様の特定の態様の使用者又は実施態様の特定の態様にわたる管理者の制御を伴う完全自動実施態様又は半自動実施態様を含み得る。選択は、ユーザインターフェース若しくは他の入力手段を通してユーザによって行うことができ、又は所望のアルゴリズムを通して実施することができる。本明細書に記載される実施態様例は、単独で又は組み合わせて利用することができ、実施態様例の機能は、所望の実施態様に従って任意の手段を通して実施することができる。
工場では、製品を完成させるために使用される一連のタスクを詳述した明確に定義されたタスク記述テンプレート(即ち作業指示)がある。製品は作業セルにおいて製造される。各作業セルにはロボット及び人間の作業者が割り当てられる。人間の作業者は、時間の経過とともに変化する可能性があり、ロボットを有する作業セルに存在しないことがある。
本明細書に記載される実施態様例では、ロボットは、特定の製品のタスクテンプレートをダウンロードし、人間のタスクを観測し、サブタスクを学習し、製品品質情報を入力として取得する。
本明細書に記載される実施態様例では、工場内の全てのロボットは、この情報を(例えばロボット識別子(ID)、人間オペレータプロファイル、製品ID等の)メタデータと共に中央ロボット知識サーバに供給する。
実施態様例では、大域機械学習(ML)アルゴリズムが、全てのロボットからの全ての入力にわたる{サブタスク、品質}ペアリングを考慮することによって所与のタスクの正しいサブタスクを決定し、そのタスクを行っている各ロボットにこの情報をフィードバックする。
実施態様例では、大域アルゴリズムはサブタスクの最適順を決定し、次いでこれは、ロボット学習のために、そのタスクを実行している各ロボットに送信される。
図1(a)及び図1(b)は、一実施態様例による工場における2つのシナリオを示す。具体的には、図1(a)は、人間の作業者101が、エッジ学習システム301に接続されたロボット201の傍らで作業している一例を示す。ロボット201には、人間の作業者を観測するために、ロボットビジョン2011も装備されている。同様に、図1(b)でも、エッジ学習システム302がロボット202に接続され、ロボット202にはロボットビジョン2021が装備されている。しかしながら、図1(b)では、人間は存在しない。タスクを実行するようにロボットをトレーニングするためには、人間の動作が必要とされる。
本明細書に記載される実施態様例では、全てのエッジ学習システムに接続されるコア学習システムが提案され、エッジ学習システムは、タスクを実行している人間動作のビデオデータを集め、これらの動作を処理してサブタスクにし、サブタスク評価及びサブタスクシーケンス再構築に向けてそれをコア学習システムに送信する。その後直ちに、コア学習システムは、ロボットがタスクを効率的に学習するために、タスクの更新されたサブタスクシーケンスをエッジ学習システムに送信する。人間が作業セルに存在しない場合(即ち図1(b)の場合)であっても、コア学習システムは、サブタスクシーケンス情報及びビデオをエッジ学習システム302に送信し、それにより、タスクを実行する技能をロボットが効率的に学習できるようにする。
上述した実施態様例は、人間の作業者を観測するために、ロボット201に設置されたロボットビジョン2011又は他のカメラ若しくは撮像デバイスを含むが、人間の作業者を観測するために他のシステムを利用することもでき、本開示はそれに限定されない。例えば、所望の実施態様により、人間の作業者は、人間の作業者が動作しているエリアを見る別個のカメラ及び/又は他の撮像センサ(例えば赤外線センサ、深度カメラ等)によって観測され得る等である。
図2は、一実施態様例によるアーキテクチャの全体図を示す。実施態様例では、製造システム501はエッジ学習システム301及び302に接続され、品質情報を含み、品質情報は、ネットワーク接続801を通してコア学習システム401に移送される。製造システム501は、ネットワーク接続601及び602を通してもエッジ学習システム301及び302に接続され、製造システムは、作業セルにおける各ロボット201及び人間101の協働に対して実行されるべきタスクについての情報を提供する。2つのエッジ学習システム301、302の各々はそれぞれロボット201、202に接続される。ロボット201にはロボットビジョン2011が装備され、ロボット202にはロボットビジョン2021が装備される。エッジ学習システム301、302は、ネットワーク接続701及び702を通してコア学習システム401にそれぞれ接続され、コア学習システム401は、機械学習モデルを走らせて、タスクを複数のサブタスクに分割し、サブタスクを評価し、ロボット学習に最良のサブタスクシーケンスを準備する中央サーバとして機能する。
図3は、一実施態様例による、企業リソース計画(ERP)システム5011及び製品品質チェックシステム5012も含む製造システム501を含む解決策アーキテクチャを示す。ERPシステム5011は、タスクスケジュールの生成から財務記録の維持までの工場における生産の全ての側面を管理する統合システムである。製品品質チェックシステム5012は、タスク完了後、製品の品質を追跡する。製造システム501におけるERPシステム5011及び製品品質チェックシステム5012は、エッジ学習システム301及びコア学習システム401に接続される。エッジ学習システム301は、タスク完了のための人間の動作のビデオクリップを記録し、各サブタスクを識別するために使用されるため、これらの2つのシステムは好ましい。コア学習システム401は、個々のサブタスクを評価し、ロボット学習に正しいサブタスクシーケンスを再構築するために使用される。図3の実施態様例では、1つのコア学習システム401及び複数のエッジ学習システム301(例えばロボットがある各作業セルに1つ)が存在することができる。それ故、コア学習システム401は他のエッジ学習システム301と通信し、同じタスクについてのロボット学習のタスクシーケンスを分散させ、又はロボット学習に必要とされる単一/複数のサブタスクを送信する。
エッジ学習システム301は、ERPシステム5011によって送信されたタスクテンプレート取得モジュール3011を使用してタスクを明確化し、ロボットビジョンモジュール3012を使用してロボットビジョンから人間の動作を記録し、タスクをサブタスクに分割し、サブタスク学習モジュール3013を使用して各サブタスクビデオを生成するシステムである。これらのサブタスクビデオは、エッジビデオモジュール3014を使用してエッジビデオデータベース(DB)3015に記憶される。エッジビデオモジュール3014は、エッジにおいて生成された現在のビデオを保存し、コア学習システム401によって送信されたビデオを更新する。次にエッジビデオモジュール3014において更新されたビデオは、ロボット学習モジュール3016に送信され、タスク完了の精度を高めるために、ロボットがサブタスクの学習を順次開始する。
コア学習システム401はサブタスク評価モジュール4011を含み、サブタスク評価モジュール4011は、サブタスク学習モジュール3013及び製品品質チェックシステム5012からサブタスクビデオを取得し、機械学習アルゴリズムを使用して、サブタスク品質を予測する。推定されたサブタスク品質は次いでタスク再構築モジュール4012に送信され、タスク再構築モジュール4012は、品質情報及び正しいサブタスクシーケンスの頻度を使用して、サブタスクシーケンスを評価する。評価されたサブタスクシーケンスは、以下のようにロボット学習モジュール3016を介して関連付けられたロボットをトレーニングするのに使用することができる。サブタスクシーケンスの評価を使用して、サブタスクシーケンスを選択する。サブタスクシーケンスは次いでコアビデオモジュール4013に送信されて、エッジビデオモジュール3014からの各ビデオを要求し、サブタスクビデオをコアビデオデータベース(DB)4014に記憶する。選択されたサブタスクシーケンス及びサブタスクビデオは次いで、7013を経由してロボット学習モジュール3016に送信することができる。
図4は、一実施態様例による、ERPシステム5011からタスクテンプレート取得モジュール3011に送信される一例のタスク情報テーブルを示す。このテーブルは、製品識別情報(ID)601a、作業セル識別情報(ID)601b、並びにタスク番号601d及びタスク識別情報(ID)601c等のタスク情報を含むことができる。タスク番号601dは、1つの製品のために作業セルによって完了すべきタスクのスケジュールを示し、各タスク番号にはタスクID 601cが割り当てられる。このテーブルはERPシステムによって生成され、タスクの情報は各エッジ学習システム301、302に送信される(図2から)。
図5は、一実施態様例による、ロボットビジョンモジュール3012が人間の動作を記録し、タスクビデオをサブタスク学習モジュール3013に送信するサブタスク学習モジュール3013の流れ図を示す。サブタスク学習モジュール3013は変化点検出ステップ3013aを含み、このステップにおいて、タスクビデオにおける人間の動作の有意な変化に基づいて時間期間が識別される。その後、個々の時間期間について、サブタスクがサブタスク識別ステップ3013bを使用して識別される。次いでサブタスクビデオクリップ生成ステップ3013cを使用して、これらのサブタスク及び各時間期間を使用して各サブタスクのビデオクリップを生成する。サブタスク及び各ビデオクリップが生成された後、特徴抽出ステップ3013dを使用して各ビデオクリップから、特徴ベクトルの形態で特徴が抽出される。次いで、ステップ3013eにおいて、特徴ベクトルはタスク情報(図4に示される)に関連するメタデータと共にコア学習モジュール401に送信される。
図6は、一実施態様例による、ロボットビジョンモジュール3012からのタスクビデオクリップは、ビデオクリップ中の変化点に基づいて[T1,T5]に分割され、次いでサブタスク[S0001,S0002,S0001,S0002,S0003]が識別されるサブタスク学習モジュール3013の流れ図を示す。時間期間及びサブタスクIDを使用して、各サブタスクのビデオクリップが生成され、特徴ベクトルの形態である各動作特徴が抽出される。これらの動作特徴は、ビデオから時空間特徴をシームレスに抽出することができる2D畳み込みニューラルネットワーク膨張に基づく2ストリーム膨張3D畳み込みニューラルネットワーク(I3D)等の技法を使用してビデオクリップから抽出される。所望の実施態様に従って他の技法を利用してもよく、本開示はそれに限定されない。
これらの特徴ベクトルはタスクについてのメタデータ(タスクID、作業者セルID、作業者ID等)と共にコア学習システム401に送信される。図6の例では、サブタスクID S0001及びS0002は反復性であるが、サブタスクS0003は、除去する必要があるノイズとして現れる。この除去はサブタスク識別ステップ3013bにおいて行われる。
図7(a)及び図7(b)は、一実施態様例による、組立て部品が、スクリュードライバを使用して複数のねじ頭を組立て部品に螺着することによって組み立てられる一例のサブタスク識別ステップ3013bを示す。この例では、S0001、S0002、S0003、及びS0004によって示されるように、4つの異なるサブタスクが識別される。図7(a)及び図7(b)の2つの図は4つの共通サブタスクを示すが、これらのサブタスクの実行シーケンスは異なる。図7(a)では、4つのサブタスクは順次実行されて、1つのねじを締め、その後、同じ順序を使用して次のねじが締められる。
しかしながら、図7(b)では、同じ4つのサブタスクが実行されるが、図7(a)と同じ順序ではない。ここでは、全てのねじはまず、人間によってピックアップされ、組み立て部品上に配置され、続けて個々のねじ締めを介して締められる。この例は、所与のタスクIDのサブタスクシーケンスが、異なる作業者間で様々であり得、又は同じ作業者で異なる時点で様々であり得ることを示す。
図8は、一実施態様例による、サブタスク学習モジュール3013からサブタスク評価モジュール4011に送信されるテーブルの一例を示す。このテーブルは、図4に記載のようにERPシステム5011から受信されるタスクID 7011a、作業者ID情報7011b、作業セルID及びタイプ7011c等のタスクメタデータを含むことができる。例えば、作業セルタイプは、人間がいない作業セル又はセル配置が異なるコーナーセルを示すことができる。同じタイプを有する作業セルIDは同じ順序のサブタスクシーケンスを有することができる。さらに、サブタスクID 7011e及び各特徴ベクトル7011dと共にサブタスク学習モジュール3013によって生成されたサブタスクシーケンス7011fがこのテーブルに含まれてもよい。
図9は、一実施態様例による、サブタスク学習モジュール3013からの各サブタスクの特徴ベクトルが解析されて、サブタスク品質を予測する、サブタスク評価モジュール4011の流れ図を示す。最初のステップ4011aは、確率分布を初期化することである。次いで、その特徴の全てにわたるサブタスクの分布を記憶しているデータベース4011bがある。その間、サブタスク特徴サンプル7011が評価に向けて新たな特徴を送信する場合、分布を使用することにより、サブタスク品質が、サブタスク品質推定ステップ4011cを使用して推定される(即ちサブタスクにラベルを生成する)。サブタスク品質を使用して4011c、最終タスク品質が予測され(4011d)、製造システムから取得されたタスク8011の実際の品質と比較され、その結果は損失関数として計算される4011e。この損失関数を使用して、確率分布は更新され(4011f)、次いでサブタスク品質情報はタスク再構築モジュール4012に送信される。サブタスク品質が強化学習技法を使用して推定されるサブタスク評価モジュール4011に関わるステップについて下述する。
サブタスクの各々の品質評価/品質チェックを生成するために、サブタスク評価モジュール4011の第1のステップにおいて、各サブタスクSTについて、fが、分布P[t]に従った各サブタスクのサンプリング特徴ベクトルとして使用される。第2のステップにおいて、サブタスク評価モジュール4011は特徴ベクトルをクラスタリングし、各サブタスクST後の品質チェッカを表すバイナリ関数Ψを学習するために適した閾値を適用する。第3のステップにおいて、サブタスク評価モジュール4011はΨ(f)=qcを設定する。
1つ又は複数のサブタスクシーケンスの各々と関連付けられた複数のサブタスクの各々の品質評価に基づいて1つ又は複数のサブタスクシーケンスの各々を評価するために、第4のステップにおいて、サブタスク評価モジュール4011はこれらの生成されたqcs(各サブタスクの品質チェック/評価)を使用して、タスクqcFinalでの最終品質チェックにおける予測能力を見る。第5のステップにおいて、サブタスク評価モジュール4011は、qc、qc、qc3、・・・、qc(last subtask-1)を使用してqcFinalを予測する関数を構築する。第6のステップにおいて、サブタスク評価モジュール4011は、製品品質チェックシステム5012からタスクの実際の品質チェックQCを取得する。第7のステップにおいて、サブタスク評価モジュール4011は検証データセットを使用し、タスクの実際の品質チェックQCと比較したqcFinalの予測に基づく報酬を生成する。第8のステップにおいて、サブタスク評価モジュール4011はこの報酬を使用して、各iについてP[t]に基づいてP[t+1]を更新する。第9のステップにおいて、第1のステップ~第6のステップが、必要な数のトレーニングエポックに対して繰り返される。第10のステップにおいて、P[tfinal]に基づいて、サブタスク評価モジュール4011は、有効品質チェックであるqcを各サブタスクSTに割り当てる。
図10は、一実施態様例による、サブタスク評価モジュール4011からの一例の確率分布データベース4011bを示す。このデータベースは、使用されている特徴4011bd及び各確率推定4011bcと共にタスクID 4011ba及びサブタスクID 4011bbを含む。確率推定4011bcは、どの特徴/ビンがサブタスク選択により有用であるかを示す。
図11は、一実施態様例による、サブタスク品質転送7014を介してタスク再構築モジュール4012に送信されるテーブルの例を示す。これらのテーブルは、タスクID、作業者ID、並びに作業セルID及びタイプについての情報を含む。さらに、テーブルは、サブタスクID、各特徴ベクトル情報、並びに品質チェック及び図9に関して説明した対応するステップを使用してサブタスク評価モジュール4011によって評価された各正確性尺度も含む。ここでは、シーケンス順が異なり、正確性も異なる作業者ID及び作業セルIDで変化する2つのそのようなテーブルが示される。複数のサブタスクID列が図11に示されており、(例えば、異なる作業者によるタスク実行又はタスク実行に異なるパターンを有する同じ作業者からのタスク実行に起因して)特定のタスクに複数のシーケンスが存在し得ることを示す。さらに、各シーケンスは複数のサブタスクを有することもできる。
図12は、一実施態様例による、所与のタスクID及び作業セルタイプについて、複数のタスクシーケンスが生成され評価されるタスク再構築モジュール4012のテーブルの一例を示す。具体的には、図12は、図11に示されたテーブルが結合されて、以下のように式(1)に実証されるように選択される正しいシーケンスを示す、図11の一拡張例を示す。全てのタスクシーケンスから、より高い正確値を有する全てのサブタスクを有する多くのタスクシーケンスが存在することになる。次いでこれらのより正確なサブタスクシーケンスを使用して、ロボットが正確性タスクを学習し実行するのに最良のシーケンスを識別する。例えば、ここでは、観測の総数はn=100であり、第1のシーケンスは36回観測され、25回正しかった。
同様に、第2のシーケンスは59回観測され、46回正しく、第3のシーケンスは5回しか観測されず、4回正しかった。そのような場合、第2のシーケンスが、ロボットが学習するのに適したシーケンスになる。このシーケンスは最大数の正しいシーケンスを有し、最大回数、行われた。
それ故、xが、シーケンスがn回の観測で観測された回数であり、yが、シーケンスが正しかった回数である場合、下記式(1)となる。
図13(a)は、一実施態様例による、エッジビデオモジュール3014、3024とコアビデオモジュール4013との間の通信を示す。ここで、コアビデオモジュール4013は、ロボット学習に正しいサブタスクシーケンスを取得し、ここで、コアビデオモジュールは、要求されたビデオを送信するようにエッジビデオモジュールA 3014に要求する(7012aを通して)。次いでエッジビデオモジュールは要求されたビデオを問い合わせ、ビデオを(7012bを介して)コアビデオモジュール4013に送信する。その後、コアビデオモジュール4013はビデオをコアビデオデータベースに記憶し、そのビデオをエッジビデオモジュールB 3024に送信し、エッジビデオモジュールB 3024はサブタスクビデオを更新し、そのデータベースに記憶する。
図13(b)は、一実施態様例による、タスク及び作業セル管理のための管理情報の一例を示す。管理情報例は、製造システム501において管理することができ、作業セルにわたり同様のサブタスク又はタスクを共有するために、図13(a)に示すようにコアビデオモジュール4013等のモジュールによって利用される。タスクが特定の生産エリアにわたって同じである場合、管理情報は、同じタスクを有する生産エリアを追跡するのに使用することができ、それにより、異なるエッジ学習システムにわたる再構築されたタスクの分配を促進する。しかしながら、タスクは同じではないが、それでもなおサブタスクの幾つかが類似する場合、その他のエッジ学習システムは、図13(a)に示すようにコア学習システムからビデオを要求することができ、そこからコアビデオモジュール4013は管理情報を使用して、対応するビデオを分配することができる。管理情報は、作業セルID、タスクID、サブタスクシーケンス、及びサブタスクを含むことができるが、それに限定されず、所望の実施態様に応じて追加情報を省いてもよく、又は追加情報を追加してもよい。この例では、作業セルA及び作業セルBは、管理情報によって管理されるサブタスクにおいて同じサブタスクを共有するため、それにより、図13(a)に示すように、コアビデオモジュール4013はモジュールAを参照して、サブタスクのビデオを取得し、そのビデオをモジュールBに転送することができる。
図14は、一実施態様例による、タスク再構築シーケンスが7013を通してロボット学習モジュール3016に送信され、関連するサブタスクビデオクリップがサブタスクビデオクリップ取得ステップ3016aを使用してエッジビデオモジュール3014から送信されるロボット学習システム3016の流れ図を示す。サブタスクビデオクリップはここでは、所望の実施態様に従って、軌道、人間-物体相互作用、人間の姿勢、及び他の情報等のロボット学習についての情報を抽出するのに使用される。サブタスクビデオクリップ及びタスク再構築シーケンスは両方とも、ロボット学習のために抽出された特徴として提供され、サブタスク学習モジュールは異なり得る。次いでビデオクリップを使用して、ビデオフレーム抽出ステップ3016bを使用してビデオフレームを抽出し、これらのフレームの各々は処理されて、サブタスク動作セグメント化ステップ3016cを使用して動作をセグメント化し、これらのセグメント化されたビデオフレームにも、タスク再構築シーケンスと関連付けられた一意の識別子が割り当てられる。3016dにおいて、サブタスクのセグメント化されたビデオフレームから、接続されたウェイポイント(点又はエンドエフェクタ姿勢のシーケンス)のセット、ロボット操作に使用される、位置情報、速度情報、及び加速度情報等の軌道パラメータについての情報を含む軌道が生成される。これらの軌道は、物体のピックアンドプレースに役立つエンドエフェクタの情報も含むことになる。軌道及びエンドエフェクタ姿勢は次いで、軌道及びエンドエフェクタ姿勢学習ステップ3016eを使用してトレーニングされ、軌道及びエンドエフェクタ姿勢学習ステップ3016eにおいて、強化学習(RL)技法等の技法を用いて、観測からサブタスクシーケンスを学習して、タスク全体を実行するようにロボットをトレーニングする。次いで3016fにおいて、このトレーニングされたモデルをシミュレーション環境で使用して、ロボット動作をテストし、次いでリアルロボットタスク転送ステップ3016gを使用して、作業セルにおけるリアルロボットに展開する。本発明で使用される枠組みは、MoveItパッケージ等の技法が運動計画、ロボットの操作及び制御に使用され、Gazeboシミュレータが、シミュレーション環境でロボット動作をテストするのに使用されるロボットオペレーティングシステム(ROS)である。
実施態様例による解決策説明の一例を図3に関して提供する。製造システム501におけるERPシステム5011によって作業指示が作成される。この作業指示は、製造する製品についての情報及び作業セル情報を含む。作業指示例は、タスクが、4個のねじを使用することによって部品Aを部品Bに取り付けることである部品組み立て(図15(a)及び図15(b)を参照する)である。それ故、人間のタスクは、4個のねじを部品B上に配置し、スクリュードライバを使用してこれらのねじを締めることである。
第1のステップにおいて、作業指示はまず、人間及びロボットの両方が作業セルに存在する各エッジ学習システム301に送信される。第2のステップにおいて、作業指示が受信されると、ロボットビジョンモジュール3012は、タスクを実行している人間の記録を開始する。
第3のステップにおいて、タスクのビデオ記録後、サブタスク学習モジュール3013は、人間の動作の任意の有意な変化を調べて、ビデオを複数のサブタスクビデオに分割することによってこのビデオを処理する。サブタスク学習モジュール3013によって識別されるこれらのサブタスクは、
i.作業空間から部品Bをピックアップし、
ii.部品Bを部品Aの上に置き、
iii.作業空間からねじ1をピックアップし、
iv.ねじ1を部品B上に置き、
v.作業空間からスクリュードライバをピックアップし、
vi.スクリュードライバを使用してねじ1を締め、
vii.全てのねじが締められるまでサブステップiii~viを続ける
である。
次いでサブタスク学習モジュール3013の第4のステップにおいて、第3のステップにおいて識別されたサブタスク及びそれらの各ビデオクリップに一意の識別子(ID)が与えられ、I3D等の畳み込みニューラルネットワーク(CNN)ベースの方法を使用して、個々のビデオクリップから特徴が抽出される。実施態様例では、CNNベースの方法は、所望の実施態様に応じて、限定されないが、リカレントニューラルネットワーク(RNN)ベースの方法、セグメントベースの方法、マルチストリームネットワーク等の他のニューラルネットワークベースの方法で置換することができ、本開示はCNNベースの方法に限定されない。次いで第5のステップにおいて、ビデオクリップはエッジビデオモジュール3014を通してエッジビデオデータベース(DB)3015に記憶される。次いで第6のステップにおいて、第4のステップからのサブタスク及びそれらの各特徴は、コア学習モジュール401中のサブタスク評価モジュール4011に送信される。第7のステップにおいて、サブタスク評価モジュール4011はサブタスク品質を予測し、次いでこれを使用して、タスク品質を予測し、次いで、製品品質チェックシステム5012によって提供されるタスクの実際の品質と予測されたタスク品質を比較する。サブタスク評価に関わるステップは以下である。

i. 4つのサブタスクST、ST、ST、STがあると考える。
・例えば、
ST:ねじをピックアップし、
ST:ねじを部品B上に置き、
ST:スクリュードライバをピックアップし、
ST:スクリュードライバを用いてねじを締める。
、f、f、fは、分布P[t]に従ってビデオクリップから第4のステップにおいて抽出された4つのサブタスクST(式中、i=1,2,3,4である)のサンプリング特徴ベクトルである。
・例えば、
:ねじから人間の手までの距離(ピクセル単位)、
:ねじから部品Bの中心までの距離(ピクセル単位)、
:スクリュードライバから人間の手までの距離(ピクセル単位)、
:スクリュードライバからねじ頭までの距離(ピクセル単位)。
サブタスクデータをM回収集する。
(f (j),f (j),f (j),f (j)j=1

ii. Mデータ点を使用してこれらの特徴ベクトルをクラスタリングし、適した閾値を適用して、各サブタスクST後の品質チェッカを表す4つのバイナリ関数Ψ(i=1,2,3,4)を学習する。したがって、各Ψの出力は0(異常)又は1(正常)のいずれかである。次いで各j=1,・・・,Mについて、各サブタスク品質を推定する:

Ψ(f (j))=qc (j)
Ψ(f (j))=qc (j)
Ψ(f (j))=qc (j)
Ψ(f (j))=qc (j)

iii. qc (j)、qc (j)、qc (j)、qc (j)を使用して、qcFinal (j)を予測する。
・例えば、qcFinal (j)は単に積であることができる:
qcFinal (j)=qc (j)・qc (j)・qc (j)・qc (j)

iv. j=1,2,3,・・・,MについてタスクTの実際のQC(j)を得る。

v. モデルを検証するためにM’データ点を収集する。実際のQC(j)と比較したqcFinal (j)の予測に基づいて報酬Rlearn (j)を生成する。

・報酬が高い場合、サブタスク品質チェック推定は正しい。
・報酬が低い場合、品質チェック推定は誤っている。
・例えば:予測されたqcFinal (j)=0であるqc (j)=0、qc (j)=1、qc (j)=1、qc (j)=1を考える。これは、実際のタスク品質チェックQC(j)=1である場合、より低い報酬につながるはずである。

vi. 個々の報酬Rlearn (j)を結合して、全体検証セットの単一の報酬Rlearnにする。Rlearnを使用し、各i=1,2,3,4についてP[t]に基づいてP[t+1]を更新する。
・それ故、P[t]が時間tにおける第iのサブタスクの特徴ベクトルにわたる確率分布を表す場合、Rlearnを使用して新たな分布を取得する:P[t+1]←(Rlearn,P[t])。

vii. 必要とされるトレーニングエポックの数だけ、ステップi~viを適用する。

viii. P[tfinal]に基づいて、各サブタスクSTの有効品質チェックであるqcを割り当てる。
次いで第8のステップにおいて、サブタスク評価モジュール4011は各サブタスクの品質チェックを生成し、次いでタスク再構成モジュール4012は、式1を使用して複数の正しいサブタスクシーケンスから最良シーケンスを選択する。異なるサブタスクシーケンスの一例を図7に示し、最良サブタスクシーケンス選択例を図12に示す。
第9のステップにおいて、所与のタスクの最良サブタスクシーケンスを選択した後、図13(a)に示すように、コアビデオモジュール4013はエッジビデオモジュールからのビデオを要求し、ビデオを他のエッジ学習モジュールに送信する。
第10のステップにおいて、ロボットは、サブタスクシーケンスのビデオクリップを使用してタスクを学習し始める準備ができ、ビデオフレームがまず、ビデオクリップから抽出され、一意の識別子が各フレームに与えられ、フレームはセグメント化されて、動作を識別する。サブタスクの動作フレームを使用して、そのサブタスクの軌道が生成される。サブタスクに複数の軌道が生成され、モデルがトレーニングされ、シミュレーションにおいてロボットの動作をテストするのに使用される。その後、学習しテストされたモデルは、リアルタイムタスク実行に向けてリアルロボットに転送される。
実施態様例は、産業設定において機械学習モデルをトレーニングし管理するシステムを含む。具体的には、特定の生産エリアにわたる類似性を利用することにより、これらのエリアを一緒にグループ化し、人間の姿勢データを使用して、人間の活動又は作業者が従事している特定のタスクを予測するモデルを効率的にトレーニングすることが可能である。具体的には、実施態様例は、各生産エリアに独立してモデルを構築する従来の方法を廃止し、異なる環境間の共通性を利用する。
図16は、エッジ学習システム301、コア学習システム401、又は製造システム501の促進等の幾つかの実施態様例における使用に適したコンピュータデバイス例を有する計算環境例を示す。
計算環境1600におけるコンピュータデバイス1605は、1つ又は複数の処理ユニット、コア、又はプロセッサ1610、メモリ1615(例えばRAM、及び/又はROM等)、内部ストレージ1620(例えば磁気、光学、固体状態ストレージ、及び/又はオーガニック)、及び/又はI/Oインターフェース1625を含むことができ、これらのいずれかは、情報を通信するために通信機構若しくはバス1630に結合することができ、又はコンピュータデバイス1605に組み込むことができる。I/Oインターフェース1625は、所望の実施態様に応じて、カメラから画像を受信し、又は画像をプロジェクタ若しくはディスプレイに提供するようにも構成される。
コンピュータデバイス1605は、入力/ユーザインターフェース1635及び出力デバイス/インターフェース1640に通信可能に結合することができる。入力/ユーザインターフェース1635及び出力デバイス/インターフェース1640のいずれか一方又は両方は、有線又は無線インターフェースであることができ、脱着可能であることができる。入力/ユーザインターフェース1635は、物理的であれ又は仮想であれ、入力(例えばボタン、タッチスクリーンインターフェース、キーボード、ポインティング/カーソル制御機構、マイクロホン、カメラ、点字、運動センサ、及び/又は光学リーダ等)の提供に使用することができる任意のデバイス、構成要素、センサ、又はインターフェースを含み得る。出力デバイス/インターフェース1640は、ディスプレイ、テレビジョン、モニタ、プリンタ、スピーカ、又は点字等を含み得る。幾つかの実施態様例では、入力/ユーザインターフェース1635及び出力デバイス/インターフェース1640は、コンピュータデバイス1605に組み込むことができ、又は物理的に結合することができる。他の実施態様例では、他のコンピュータデバイスが、コンピュータデバイス1605の入力/ユーザインターフェース1635及び出力デバイス/インターフェース1640として機能し得、又はそれらの機能を提供し得る。
コンピュータデバイス1605の例には、限定されないが、高度モバイルデバイス(例えば、スマートフォン、車両及び他の機械内のデバイス、人間及び動物によって携帯されるデバイス等)、モバイルデバイス(例えばタブレット、ノートブック、ラップトップ、パーソナルコンピュータ、ポータブルテレビジョン、ラジオ等)、及び可動用に設計されていないデバイス(例えばデスクトップコンピュータ、他のコンピュータ、情報キオスク、1つ又は複数プロセッサが内部に組み込まれ、且つ/又は1つ又は複数のプロセッサに結合されたテレビジョン、ラジオ等)があり得る。
コンピュータデバイス1605は、外部ストレージ1645及びネットワーク1650と通信可能に結合されて(例えばI/Oインターフェース1625を介して)、同じ又は異なる構成の1つ又は複数のコンピュータデバイスを含め、任意の数のネットワーク接続された構成要素、デバイス、及びシステムと通信することができる。コンピュータデバイス1605又は任意の接続されたコンピュータデバイスは、サーバ、クライアント、シンサーバ、汎用機械、若しくは専用機械として機能し、サーバ、クライアント、シンサーバ、汎用機械、若しくは専用機械のサービスを提供し、又はサーバ、クライアント、シンサーバ、汎用機械、専用機械、又は別の名称で呼ばれることができる。
I/Oインターフェース1625は、限定されないが、計算環境1600内の少なくとも全ての接続された構成要素、デバイス、及びネットワークに及び/又はこれらから情報を通信するために任意の通信又はI/Oプロトコル又は規格(例えばEthernet、802.11x、ユニバーサルシステムバス、WiMax、モデム、セルラネットワークプロトコル等)を使用する有線インターフェース及び/又は無線インターフェースを含むことができる。ネットワーク1650は、任意のネットワーク又はネットワーク(例えばインターネット、ローカルエリアネットワーク、ワイドエリアネットワーク、電話回線網、セルラネットワーク、衛星ネットワーク等)の任意の組合せであることができる。
コンピュータデバイス1605は、一時的媒体及び非一時的媒体を含めコンピュータ使用可能又はコンピュータ可読媒体を使用することができ、且つ/又はそれらを使用して通信することができる。一時的媒体は、伝送媒体(例えば金属ケーブル、光ファイバ)、信号、搬送波等を含む。非一時的媒体は、磁気媒体(例えばディスク及びテープ)、光学媒体(例えばCD、ROM、デジタルビデオディスク、Blu-rayディスク(登録商標))、固体状態媒体(例えばRAM、ROM、フラッシュメモリ、固体状態ストレージ)、及び他の不揮発性ストレージ又はメモリを含む。
コンピュータデバイス1605は、幾つかの計算環境例において技法、方法、アプリケーション、プロセス、又はコンピュータ実行可能命令を実施するのに使用することができる。コンピュータ実行可能命令は、一時的媒体から読み出されて非一時的媒体に記憶することができ、非一時的媒体から読み出すことができる。実行可能命令は、任意のプログラミング、スクリプト、及び機械言語(例えばC、C++、C#、Java、Visual Basic、Python、Perl、JavaScript等)の1つ又は複数からのものであることができる。
プロセッサ1610は、ネイティブ又は仮想環境において任意のオペレーティングシステム(OS)(図示せず)下で実行することができる。異なるユニットが互いと、OSと、及び他のアプリケーション(図示せず)と通信するために、論理ユニット1660、アプリケーションプログラミングインターフェース(API)ユニット1665、入力ユニット1670、出力ユニット1675、及びユニット間通信メカニズム1695を含む1つ又は複数のアプリケーションを展開することができる。記載されたユニット及び要素の設計、機能、構成、又は実装は様々であることができ、提供される説明に限定されない。
幾つかの実施態様例では、情報又は実行命令は、APIユニット1665によって受信されると、1つ又は複数の他のユニット(例えば論理ユニット1660、入力ユニット1670、出力ユニット1675)に通信され得る。幾つかの場合、論理ユニット1660は、上述した幾つかの実施態様例において、ユニット間の情報フローを制御し、APIユニット1665、入力ユニット1670、出力ユニット1675によって提供されるサービスを指示するように構成し得る。例えば、1つ又は複数のプロセス又は実施態様のフローは、論理ユニット1660のみにより又はAPIユニット1665と併せて制御し得る。入力ユニット1670は、実施態様例に記載される計算の入力を得るように構成し得、出力ユニット1675は、実施態様例に記載される計算に基づいて出力を提供するように構成し得る。
プロセッサ1610は、図3及び図9に示すように、複数のサブタスクと関連付けられた情報、人間の動作と関連付けられた受信情報を受信して、関連付けられたロボットをエッジシステムにおいてトレーニングし、複数のサブタスクの各々に対して品質評価を行い、複数のサブタスクから1つ又は複数のサブタスクシーケンスを決定し、1つ又は複数のサブタスクシーケンスの各々と関連付けられた複数のサブタスクの各々の品質評価に基づいて、1つ又は複数のサブタスクシーケンスの各々を評価し、1つ又は複数のサブタスクシーケンスの各々の評価に基づいて、関連付けられたロボットをトレーニングするための、1つ又は複数のサブタスクシーケンスのうちのサブタスクシーケンスを出力するように構成することができる。
実施態様例では、ロボットと関連付けられたエッジシステムからの複数のサブタスクと関連付けられる情報はビデオクリップを含むことができ、各ビデオクリップは、複数のサブタスクからのサブタスクと関連付けられ、プロセッサ1610は、図5及び図6に示すように、サブタスクのうちの、1つ又は複数のサブタスクシーケンスの各々と関連付けられたサブタスクと関連付けられた、ビデオクリップのうちのビデオクリップを提供することにより、1つ又は複数のサブタスクシーケンスの各々の評価に基づいて、1つ又は複数のサブタスクシーケンスのうちのサブタスクシーケンスを出力して、関連付けられたロボットをトレーニングするように構成される。
実施態様例では、図3及び図9の3012及び5012に示すように、ロボットは、ビデオを記録するように構成されたロボットビジョンを含むことができ、ビデオからビデオクリップが生成され、製造システムは、実行のために複数のサブタスクを含むタスクをエッジシステムに提供し、1つ又は複数のサブタスクシーケンスの各々の評価のために、タスクの品質評価を提供するように構成される。
所望の実施態様に応じて、ビデオクリップは、図2、図3、及び図5に示すように複数のサブタスクの人間の動作を含むことができる。一実施態様例では、ビデオクリップは、ロボットとは別個のカメラによって記録することができる。
図7(a)及び図7(b)に示すように、プロセッサ1610は、特徴抽出から決定される、人間の動作の変化点検出に基づいて、複数のサブタスクの各々を認識するように更に構成することができ、変化点検出から検出された変化点を利用して、時間期間によって複数のサブタスクの各々を分ける。
図3、図5、及び図6の3013に示すように、所望の実施態様に応じて、エッジシステムは、複数のサブタスクを識別し、識別に基づいて複数のサブタスクと関連付けられた情報を提供するように構成することができる。
実施態様例では、プロセッサ1610は、サブタスク評価モジュール4011、図9~図11、並びにその中の流れ図によって示されるように、1つ又は複数のサブタスクシーケンスの各々と関連付けられた複数のサブタスクの各々の品質評価から、1つ又は複数のサブタスクシーケンスの各々の品質評価を提供するように構成された関数を構築し、検証セットを利用して1つ又は複数のサブタスクシーケンスの各々の品質評価を評価し、強化学習に基づいて1つ又は複数のサブタスクシーケンスの各々の品質評価の評価に基づいて関数を変更し、構築すること、利用すること、及び変更することを繰り返して、関数を最終決定し、最終決定された関数を実行して1つ又は複数のサブタスクシーケンスの各々を評価することにより、1つ又は複数のサブタスクシーケンスの各々と関連付けられた複数のサブタスクの各々の品質評価に基づいて1つ又は複数のサブタスクシーケンスの各々の評価を行うことができる。
プロセッサ1610は、図11、図12、及び図14におけるロボット学習によって示されるように、出力された評価を用いて関連付けられたロボットをトレーニングするように構成することもでき、関連付けられたロボットをトレーニングすることは、1つ又は複数のサブタスクシーケンスの各々出力された評価及び頻度に基づいて、1つ又は複数のサブタスクシーケンスのうちのサブタスクシーケンスを選択することと、1つ又は複数のサブタスクシーケンスのうちの選択されたサブタスクシーケンスの各々に対応するビデオフレームを抽出することと、抽出されたビデオフレームから動作をセグメント化することと、セグメント化された動作から関連付けられたロボットの軌道及び軌道パラメータを決定することと、軌道、軌道パラメータ、及びセグメント化された動作に基づいて関連付けられたロボットに対して強化学習を実行して、1つ又は複数のサブタスクシーケンスのうちの選択されたサブタスクシーケンスを学習することとを含む。
詳細な説明の幾つかの部分は、コンピュータ内の動作のアルゴリズム及び象徴的表現に関して提示されている。これらのアルゴリズムの説明及び象徴的表現は、当業者に革新の本質を伝えるためにデータ処理技術の当業者によって使用される手段である。アルゴリズムは、所望の最終状態又は結果に繋がる一連の定義されたステップである。実施態様例では、実行されるステップは、具体的な結果を達成するために具体的な数量の物理的操作を必要とする。
特に別記される場合を除き、考察から明らかなように、説明全体を通して、「処理」、「計算」、「算出」、「決定」、又は「表示」等の用語を利用した考察が、コンピュータシステム又はコンピュータシステムのレジスタ及びメモリ内で物理的(電子)数量として表されるデータを操作し、コンピュータシステムのメモリ、レジスタ、又は他の情報ストレージ、伝送又は表示デバイス内で物理的数量として同様に表される他のデータに変換する他の情報処理デバイスの動作及びプロセスを含むことができることが理解される。
実施態様例は、本明細書における動作を実行する装置に関することもできる。この装置は、特に所要目的に向けて構築されてもよく、又は1つ若しくは複数のコンピュータプログラムによって選択的にアクティブ化若しくは再構成される1つ若しくは複数の汎用コンピュータを含んでもよい。そのようなコンピュータプログラムは、コンピュータ可読記憶媒体又はコンピュータ可読信号媒体等のコンピュータ可読媒体に記憶し得る。コンピュータ可読記憶媒体は、限定されないが、光ディスク、磁気ディスク、読み取り専用メモリ、ランダムアクセスメモリ、固体状態デバイス及びドライブ、又は電子情報の記憶に適した任意の他のタイプの有形若しくは非一時的媒体等の有形媒体を含み得る。コンピュータ可読信号媒体は、搬送波等の媒体を含み得る。本明細書に提示されたアルゴリズム及びディスプレイは、本質的に、いかなる特定のコンピュータ又は他の装置にも関連しない。コンピュータプログラムは、所望の実施態様の動作を実行する命令を含む純粋なソフトウェア実装を含むことができる。
種々の汎用システムは、本明細書における例に従ってプログラム及びモジュールと併用し得、又は所望の方法ステップの実行により特化した装置を構築することが好都合であると分かることがある。加えて、実施態様例はいかなる特定のプログラミング言語も参照して説明されていない。本明細書に記載の実施態様例の教示を実施するために、多様なプログラミング言語が使用可能なことが理解されよう。プログラミング言語の命令は、1つ又は複数の処理デバイス、例えば中央演算処理装置(CPU)、プロセッサ、又はコントローラによって実行し得る。
当技術分野で既知のように、上述した動作はハードウェア、ソフトウェア、又はソフトウェアとハードウェアの何らかの組合せによって実行することができる。実施態様例の種々の態様は、回路及び論理デバイス(ハードウェア)を使用して実施してもよく、一方、他の態様は、プロセッサによって実行されると、本願の実施態様を実行する方法をプロセッサに実行させる、機械可読媒体に記憶された命令(ソフトウェア)を使用して実施してもよい。さらに、本願の幾つかの実施態様例は、ハードウェアのみで実行してもよく、一方、他の実施態様例はソフトウェアのみで実行してもよい。さらに、記載される種々の機能は、単一のユニットで実行することもでき、又は任意の数の方法で幾つかの構成要素に分散することもできる。ソフトウェアによって実行される場合、方法は、コンピュータ可読媒体に記憶された命令に基づいて汎用コンピュータ等のプロセッサによって実行し得る。所望の場合、命令は、圧縮され且つ/又は暗号化された形式で媒体に記憶することができる。
さらに、本明細書の検討及び本願の教示の実施から、本願の他の実施態様が当業者には明らかになろう。記載される実施態様例の種々の態様及び/又は構成要素は単独で又は任意の組合せで使用することができる。本明細書及び実施態様例が単なる例として見なされることが意図され、本願の真の範囲及び趣旨は以下の特許請求の範囲によって示される。
101、102 人間の作業者
201、202 ロボット
301、302 エッジ学習システム
401 コア学習システム
501 製造システム
601、602、701、702、801 ネットワーク接続
601a 製品ID
601b 作業セルID
601c タスクID
601d タスク番号
1600 計算環境
1605 コンピュータデバイス
1610 プロセッサ
1615 メモリ
1620 内部ストレージ
1625 I/Oインターフェース
1630 バス
1635 入力/ユーザインターフェース
1640 出力デバイス/インターフェース
1645 外部ストレージ
1650 ネットワーク
1660 論理ユニット
1665 APIユニット
1670 入力ユニット
1675 出力ユニット
1695 ユニット間通信メカニズム
2011、2021 ロボットビジョン
3011 タスクテンプレート取得モジュール
3012 ロボットビジョンモジュール
3013 サブタスク学習モジュール
3013a 変化点検出ステップ
3013b サブタスク識別ステップ
3013c サブタスクビデオクリップ生成ステップ
3013d 特徴抽出ステップ
3014、3024 エッジビデオモジュール
3015 エッジビデオデータベース
3016 ロボット学習モジュール
3016a サブタスクビデオクリップ取得ステップ
3016b ビデオフレーム抽出ステップ
3016c サブタスク動作セグメント化ステップ
3016d 軌道生成ステップ
3016e 軌道及びエンドエフェクタ姿勢学習ステップ
1016f タスクシミュレーション実行ステップ
3016g リアルロボットタスク転送ステップ
4011 サブタスク評価モジュール
4011a 確率分布初期化ステップ
4011b データベース
4011bb、7011e サブタスクID
4011bc 確率推定
4011bd 特徴
4011c サブタスク品質推定ステップ
4011d タスク品質予測ステップ
4011e 損失関数計算ステップ
4012 タスク再構築モジュール
4013 コアビデオモジュール
4014 コアビデオデータベース
5011 企業リソース計画システム
5012 製品品質チェックシステム
7011 サブタスク特徴サンプル
7011b 作業者ID情報
7011c 作業セルID及びタイプ
7011d 特徴ベクトル
7011f サブタスクシーケンス
7014 サブタスク品質転送
8011 タスク

Claims (17)

  1. 複数のサブタスクと関連付けられた情報を受信することと、前記受信される情報は、当該情報に関連付けられたロボットをエッジシステムにおいてトレーニングするために人間の動作と関連付けられるものであり、
    前記複数のサブタスクの各々に対して品質評価を行うことと、
    前記複数のサブタスクから1つ又は複数のサブタスクシーケンスを決定することと、
    前記1つ又は複数のサブタスクシーケンスの各々と関連付けられた前記複数のサブタスクの各々の前記品質評価に基づいて、前記1つ又は複数のサブタスクシーケンスの各々を評価することと、
    前記1つ又は複数のサブタスクシーケンスの各々の前記評価に基づいて、前記1つ又は複数のサブタスクシーケンスのうちの、前記関連付けられたロボットをトレーニングするためのサブタスクシーケンスを出力することと、
    を含む、コンピュータによって実行される方法。
  2. 前記関連付けられたロボットを前記エッジシステムにおいてトレーニングするための前記人間の動作と関連付けられた情報は、ビデオクリップを含み、前記ビデオクリップの各々は前記複数のサブタスと関連付けられ、
    前記1つ又は複数のサブタスクシーケンスのうちの、前記関連付けられたロボットをトレーニングするためのサブタスクシーケンスを出力することは、前記サブタスクのうちの、前記1つ又は複数のサブタスクシーケンスの各々と関連付けられたサブタスクと関連付けられた、前記ビデオクリッを提供することを含む、請求項1に記載の方法。
  3. 前記ロボットは、ビデオを記録するように構成されたロボットビジョンを含み、前記ビデオから前記ビデオクリップが生成され、
    製造システムは、実行のために前記エッジシステムに前記複数のサブタスクを含むタスクを提供し、前記1つ又は複数のサブタスクシーケンスの各々の前記評価のために、前記タスクの品質評価を提供するように構成される、請求項2に記載の方法。
  4. 前記ビデオクリップは、前記複数のサブタスクの前記人間の動作を含む、請求項2に記載の方法。
  5. 前記ビデオクリップに対する特徴抽出から決定される前記人間の動作への変化点検出に基づいて、前記複数のサブタスクの各々を認識することを更に含み、前記変化点検出から検出される変化点は、時間期間によって前記複数のサブタスクの各々を分けるのに利用される、請求項4に記載の方法。
  6. 前記ビデオクリップは、前記ロボットとは別個のカメラによって記録される、請求項2に記載の方法。
  7. 前記1つ又は複数のサブタスクシーケンスの各々と関連付けられた前記複数のサブタスクの各々の前記品質評価に基づいて、前記1つ又は複数のサブタスクシーケンスの各々を評価することは、
    前記1つ又は複数のサブタスクシーケンスの各々と関連付けられた前記複数のサブタスクの各々の前記品質評価から、前記1つ又は複数のサブタスクシーケンスの各々の品質評価を提供するように構成された関数を構築することと、
    検証セットを利用すること、前記検証セットは、前記1つ又は複数のサブタスクシーケンスの各々の前記品質評価を評価するものであり、
    強化学習に基づいて、前記1つ又は複数のサブタスクシーケンスの各々の前記品質評価の前記評価に基づいて前記関数を変更することと、
    前記構築すること、前記利用すること、及び前記変更することを繰り返し、前記関数を最終決定することと、
    前記最終決定された関数を実行し、前記1つ又は複数のサブタスクシーケンスの各々を評価することと、
    を含む、請求項1に記載の方法。
  8. 前記1つ又は複数のサブタスクシーケンスの各々の前記評価を使用して、前記関連付けられたロボットをトレーニングすることは、
    前記1つ又は複数のサブタスクシーケンスの各々の前記出力された評価及び頻度に基づいて、前記1つ又は複数のサブタスクシーケンスのうちのサブタスクシーケンスを選択することと、
    前記1つ又は複数のサブタスクシーケンスのうちの前記選択されたサブタスクシーケンスの各々に対応するビデオフレームを抽出することと、
    前記抽出されたビデオフレームから動作をセグメント化することと、
    前記セグメント化された動作から前記関連付けられたロボットの軌道及び軌道パラメータを決定することと、
    前記軌道、前記軌道パラメータ、及び前記セグメント化された動作に基づいて強化学習を前記関連付けられたロボットに対して実行して、前記1つ又は複数のサブタスクシーケンスのうちの前記選択されたサブタスクシーケンスを学習することと、
    を含む、請求項1に記載の方法。
  9. プロセスを実行するための命令を記憶した非一時的コンピュータ可読媒体であって、前記プロセスは、
    複数のサブタスクと関連付けられた情報を受信することと、前記受信される情報は、当該情報に関連付けられたロボットをエッジシステムにおいてトレーニングするために人間の動作と関連付けられるものであり、
    前記複数のサブタスクの各々に対して品質評価を行うことと、
    前記複数のサブタスクから1つ又は複数のサブタスクシーケンスを決定することと、
    前記1つ又は複数のサブタスクシーケンスの各々と関連付けられた前記複数のサブタスクの各々の前記品質評価に基づいて、前記1つ又は複数のサブタスクシーケンスの各々を評価することと、
    前記1つ又は複数のサブタスクシーケンスの各々の前記評価に基づいて、前記1つ又は複数のサブタスクシーケンスのうちの、前記関連付けられたロボットをトレーニングするためのサブタスクシーケンスを出力することと、
    を含む、非一時的コンピュータ可読媒体。
  10. 前記関連付けられたロボットを前記エッジシステムにおいてトレーニングするための前記人間の動作と関連付けられた情報は、ビデオクリップを含み、前記ビデオクリップの各々は前記複数のサブタスと関連付けられ、
    前記1つ又は複数のサブタスクシーケンスのうちの、前記関連付けられたロボットをトレーニングするためのサブタスクシーケンスを出力することは、前記サブタスクのうちの、前記1つ又は複数のサブタスクシーケンスの各々と関連付けられたサブタスクと関連付けられた、前記ビデオクリッを提供することを含む、請求項9に記載の非一時的コンピュータ可読媒体。
  11. 前記ロボットは、ビデオを記録するように構成されたロボットビジョンを含み、前記ビデオから前記ビデオクリップが生成され、
    製造システムは、実行のために前記エッジシステムに前記複数のサブタスクを含むタスクを提供し、前記1つ又は複数のサブタスクシーケンスの各々の前記評価のために、前記タスクの品質評価を提供するように構成される、請求項10に記載の非一時的コンピュータ可読媒体。
  12. 前記ビデオクリップは、前記複数のサブタスクの前記人間の動作を含む、請求項10に記載の非一時的コンピュータ可読媒体。
  13. 前記命令は、前記ビデオクリップに対する特徴抽出から決定される前記人間の動作への変化点検出に基づいて、前記複数のサブタスクの各々を認識することを更に含み、前記変化点検出から検出される変化点は、時間期間によって前記複数のサブタスクの各々を分けるのに利用される、請求項12に記載の非一時的コンピュータ可読媒体。
  14. 前記ビデオクリップは、前記ロボットとは別個のカメラによって記録される、請求項10に記載の非一時的コンピュータ可読媒体。
  15. 前記1つ又は複数のサブタスクシーケンスの各々と関連付けられた前記複数のサブタスクの各々の前記品質評価に基づいて、前記1つ又は複数のサブタスクシーケンスの各々を評価することは、
    前記1つ又は複数のサブタスクシーケンスの各々と関連付けられた前記複数のサブタスクの各々の前記品質評価から、前記1つ又は複数のサブタスクシーケンスの各々の品質評価を提供するように構成された関数を構築することと、
    検証セットを利用することと、前記検証セットは、前記1つ又は複数のサブタスクシーケンスの各々の前記品質評価を評価するものであり、
    強化学習に基づいて、前記1つ又は複数のサブタスクシーケンスの各々の前記品質評価の前記評価に基づいて前記関数を変更することと、
    前記構築すること、前記利用すること、及び前記変更することを繰り返し、前記関数を最終決定することと、
    前記最終決定された関数を実行し、前記1つ又は複数のサブタスクシーケンスの各々を評価することと、
    を含む、請求項9に記載の非一時的コンピュータ可読媒体。
  16. 前記1つ又は複数のサブタスクシーケンスの各々の前記評価を使用して、前記関連付けられたロボットをトレーニングすることは、
    前記1つ又は複数のサブタスクシーケンスの各々の前記出力された評価及び頻度に基づいて、前記1つ又は複数のサブタスクシーケンスのうちのサブタスクシーケンスを選択することと、
    前記1つ又は複数のサブタスクシーケンスのうちの前記選択されたサブタスクシーケンスの各々に対応するビデオフレームを抽出することと、
    前記抽出されたビデオフレームから動作をセグメント化することと、
    前記セグメント化された動作から前記関連付けられたロボットの軌道及び軌道パラメータを決定することと、
    前記軌道、前記軌道パラメータ、及び前記セグメント化された動作に基づいて強化学習を前記関連付けられたロボットに対して実行して、前記1つ又は複数のサブタスクシーケンスのうちの前記選択されたサブタスクシーケンスを学習することと、
    を含む、請求項9に記載の非一時的コンピュータ可読媒体。
  17. プロセッサを備える装置であって、前記プロセッサは、
    複数のサブタスクと関連付けられた情報を受信することと、前記受信される情報は、当該情報に関連付けられたロボットをエッジシステムにおいてトレーニングするために人間の動作と関連付けられるものであり、
    前記複数のサブタスクの各々に対して品質評価を行うことと、
    前記複数のサブタスクから1つ又は複数のサブタスクシーケンスを決定することと、
    前記1つ又は複数のサブタスクシーケンスの各々と関連付けられた前記複数のサブタスクの各々の前記品質評価に基づいて、前記1つ又は複数のサブタスクシーケンスの各々を評価することと、
    前記1つ又は複数のサブタスクシーケンスの各々の前記評価に基づいて、前記1つ又は複数のサブタスクシーケンスのうちの、前記関連付けられたロボットをトレーニングするためのサブタスクシーケンスを出力することと、
    を行うように構成される、装置。
JP2022157396A 2021-10-04 2022-09-30 柔軟で適応的なロボット学習のための人間ロボット協働 Active JP7428769B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/493,652 US20230104775A1 (en) 2021-10-04 2021-10-04 Human robot collaboration for flexible and adaptive robot learning
US17/493,652 2021-10-04

Publications (2)

Publication Number Publication Date
JP2023054769A JP2023054769A (ja) 2023-04-14
JP7428769B2 true JP7428769B2 (ja) 2024-02-06

Family

ID=85774321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022157396A Active JP7428769B2 (ja) 2021-10-04 2022-09-30 柔軟で適応的なロボット学習のための人間ロボット協働

Country Status (2)

Country Link
US (1) US20230104775A1 (ja)
JP (1) JP7428769B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230182295A1 (en) * 2021-12-15 2023-06-15 Intrinsic Innovation Llc Sampling for robotic skill adaptation

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018180364A1 (ja) 2017-03-29 2018-10-04 Kddi株式会社 障害自動復旧システム、制御装置、手順作成装置およびコンピュータ可読記憶媒体
US10766136B1 (en) 2017-11-03 2020-09-08 Amazon Technologies, Inc. Artificial intelligence system for modeling and evaluating robotic success at task performance
JP2021107970A (ja) 2019-12-27 2021-07-29 川崎重工業株式会社 訓練データ選別装置、ロボットシステム及び訓練データ選別方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018180364A1 (ja) 2017-03-29 2018-10-04 Kddi株式会社 障害自動復旧システム、制御装置、手順作成装置およびコンピュータ可読記憶媒体
US10766136B1 (en) 2017-11-03 2020-09-08 Amazon Technologies, Inc. Artificial intelligence system for modeling and evaluating robotic success at task performance
JP2021107970A (ja) 2019-12-27 2021-07-29 川崎重工業株式会社 訓練データ選別装置、ロボットシステム及び訓練データ選別方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
大里 虹平 ほか,"模倣学習を用いた動画からの動作獲得",情報処理学会研究報告 コンピュータビジョンとイメージメディア(CVIM),一般社団法人情報処理学会,2019年,第2019-CVIM-217巻, 第11号,pp. 1-4,ISSN 2188-8701

Also Published As

Publication number Publication date
US20230104775A1 (en) 2023-04-06
JP2023054769A (ja) 2023-04-14

Similar Documents

Publication Publication Date Title
US20210034980A1 (en) Real-time visualization of machine learning models
Borgi et al. Data analytics for predictive maintenance of industrial robots
CN111222737B (zh) 用于实时技能评估的方法及系统以及计算机可读介质
US10579042B2 (en) Defect rate analytics to reduce defectiveness in manufacturing
JP6817974B2 (ja) 計算機システム
US11775412B2 (en) Machine learning models applied to interaction data for facilitating modifications to online environments
US11500370B2 (en) System for predictive maintenance using generative adversarial networks for failure prediction
JP7428769B2 (ja) 柔軟で適応的なロボット学習のための人間ロボット協働
JP7468675B2 (ja) 機械学習モデル
US20220366244A1 (en) Modeling Human Behavior in Work Environment Using Neural Networks
CN115135463A (zh) 工业系统的预测模型学习方法、装置和系统
Wang et al. A smart operator advice model by deep learning for motion recognition in human–robot coexisting assembly line
Park et al. Data science for motion and time analysis with modern motion sensor data
Tran et al. Assessing human worker performance by pattern mining of Kinect sensor skeleton data
US11514693B2 (en) Model-based image labeling and/or segmentation
US20210192779A1 (en) Systems, Methods, and Media for Manufacturing Processes
US11120383B2 (en) System and methods for operator profiling for improving operator proficiency and safety
Theodoropoulos et al. Cyber-physical systems in non-rigid assemblies: A methodology for the calibration of deformable object reconstruction models
JP2023537766A (ja) 自動化されたデータサイエンスプロセスのためのシステム及び方法
Jeong et al. Data Preparation for AI-Assisted Video Analysis in Manual Assembly Task: A Step Towards Industry 5.0
US20230229119A1 (en) Robotic process automation (rpa)-based data labelling
US20240119628A1 (en) Automatic generation of 'as-run' results in a three dimensional model using augmented reality
WO2022190435A1 (ja) 命令記述支援システム、命令記述支援方法および命令記述支援プログラム
Selvaraj et al. Real-time action localization of manual assembly operations using deep learning and augmented inference state machines
US20230022356A1 (en) Method and system for human activity recognition in an industrial setting

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240125

R150 Certificate of patent or registration of utility model

Ref document number: 7428769

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150