JP7184511B2 - 対話形式で認知する作業支援システム及び方法 - Google Patents

対話形式で認知する作業支援システム及び方法 Download PDF

Info

Publication number
JP7184511B2
JP7184511B2 JP2017234756A JP2017234756A JP7184511B2 JP 7184511 B2 JP7184511 B2 JP 7184511B2 JP 2017234756 A JP2017234756 A JP 2017234756A JP 2017234756 A JP2017234756 A JP 2017234756A JP 7184511 B2 JP7184511 B2 JP 7184511B2
Authority
JP
Japan
Prior art keywords
data
real
sensor
processing unit
physical structure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017234756A
Other languages
English (en)
Other versions
JP2018160232A (ja
Inventor
ウィリアム ジェー. ウッド,
マーク エイチ. ボイド,
メラニー ケー. ローラング,
デーヴィッド エイチ. クスダ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Boeing Co
Original Assignee
Boeing Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boeing Co filed Critical Boeing Co
Publication of JP2018160232A publication Critical patent/JP2018160232A/ja
Application granted granted Critical
Publication of JP7184511B2 publication Critical patent/JP7184511B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • G05B19/0423Input/output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/453Help systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5038Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the execution order of a plurality of tasks, e.g. taking priority or time dependency constraints into consideration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/4881Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/20Administration of product repair or maintenance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/24Use of tools
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/24Pc safety
    • G05B2219/24019Computer assisted maintenance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32014Augmented reality assists operator in maintenance, repair, programming, assembly, use of head mounted display with 2-D 3-D display and voice feedback, voice and gesture command
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32226Computer assisted repair, maintenance of system components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/242Query formulation
    • G06F16/243Natural language query formulation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Description

本開示は、物理的構造を生産し、維持するためのシステム及び方法に関し、より具体的には、物理的構造に作業を実施するユーザに指導を提供するシステム及び方法に関する。
従来の保守活動には、適切な保守作業を調べて、これらの作業の各ステップを進めるためにユーザ(保守管理者)が参照する紙の保守マニュアルが使用される。その結果、保守管理者は、紙の保守マニュアルを見つけて、所望の保守作業に関するマニュアルの適切な部分を探し、(大抵他の場所に位置する)どのツール及び他の資源が必要であるかを決定し、これらのツール及び資源を手に入れる必要がある。保守管理者は次に、各ステップについて紙の保守マニュアルを参照し、ステップを実施し、その後次のステップを決定するために紙の保守マニュアルを再び参照しなければならない。保守管理者が常に仕事の手を止めて各ステップのためにマニュアルの指示を参照しなければならないため、作業を実施するのに要する時間が長引き、保守管理者の役割におけるエラーの可能性が高くなる。要するに、紙の保守マニュアルを保管し、また取り出さなければならず、簡単に検索し、また質問することができず、保守管理者が保守作業と関連するマニュアルとの間で移動しなければならないことで、保守プロセスのペースが落ちてしまう。
デジタル保守マニュアルは存在しており、マニュアルをポータブルで検索可能にすることによってこれらの不利点の幾つかが軽減されるが、保守管理者はやはり、デジタル保守マニュアルと対話するのにフリーハンドでなければならない。デジタル保守マニュアルには動画が含まれうるが、このような動画は通常、保守管理者がステップを実施することができるよりも速くあるいは遅く再生されるため、保守管理者は常に、動画の再生を開始、また再開(又は巻き戻し)する必要がある。
上記デジタル保守マニュアルを改善するシステムが利用可能である。例えば、保守ステップを通して保守管理者を指導するために、拡張現実メガネを使用する拡張現実が用いられる。本書に参照されることで組み込まれる、Victoria Woollaston氏による「End of the Mechanic? BMW Smart Glasses Make it Possible for Anyone to Spot and Fix a Car Engine Fault Just by Looking at It」(Daily Mail 2014年1月21日発行)に記載されているように、ある上記のようなシステムがBavarian Motor Works社によって提案されている。BMW Smart Glasses Make it Possible for Anyone to Spot and Fix a Car Engine Fault Just by Looking at It,” by Victoria Woollaston, Daily Mail, published January 21, 2014, which is hereby incorporated by reference herein.これもまた本書に参照されることで組み込まれる、Steve Henderson及びSteven Feiner氏らによる「Augmented Reality for Maintenance and Repair (ARMAR)」(Columbia University Computer Graphics and User Interfaces Lab,2016)にも同様のシステムの一例が記載されている。これには、例えば従属部品のラベル付け、指導つきの保守ステップ、リアルタイムの診断データ、及び安全警告等の情報とともに、システムに対するユーザの物理的視界を向上させる頭部装着、動き追跡型ディスプレイを使用することによって保安要員の生産性、正確さ、及び安全を改善するために実際に修理した機器に重ね合わされ、登録されたリアルタイムのコンピュータグラフィックの使用が開示されている。上記システムは、例えば、これもまた本書に参照されることによって組み込まれる、Brian Barrett氏による「Daqri Smart Helmet」(Wired 2016年1月7日)に記載されている、DAQRI社から入手可能なスマートヘルメットを使用しうる。
残念ながら、上記既存のシステムでは、多くの保守問題は解決されない。例えば、BMWシステムのユーザとの対話処理には、例えば「次のステップ」等の口頭のコマンドを与える保守管理者に限定される音声対話が伴う。このシステムは、実施される作業も、ユーザからの普通の言葉の要求が使用されるその作業のステップも決定しない。この結果、所与の問題に対し、どの作業を実施するかを保守管理者がやはり決定しなくてはならない(例えば、適切な作業又は作業ステップを見つけるためにユーザが普通の言葉で目的を達成することを可能にする診断もいかなる特徴も存在しない)。これに関しては、ARMAR及びDAQRIシステムも同様に不十分である。
上述したシステムはまた、(ステップが適切に実施されたことを承認する、又はステップが適切に実施されていないことを示して修正措置を提供するフィードバックを提供するために)ステップの実施を監視する、あるいはステップの実施を記録したデータを提供することもできない。例えば、実施されるステップは、ボルトにナットを特定のトルクで締めつけることであってよい。
フィードバックを提供するためにステップの実施を監視することに関しては、上述したシステムはいずれも、保守管理者がナットを適切な仕様に沿ってきつく締めつけるのに失敗したかどうか、保守管理者が適切なツールを使用しているか否か、ユーザが、締めつける前にナットをボルトのねじ山にアラインメントしなかったか否かを感知しない。上記エラーは、タイミング良く発見されないことが多く、発見された場合、エラーを修正することができるように、分解する、あるいは作業ステップを反対の順序で実施することが必要となり得るため、時間の無駄となる。また、上述したシステムはいずれも、ユーザがステップを実施している間にステップが適切に実施されているか否かを感知することができず、したがって使用されるツール、又は作業が行われる構造のいずれかへの損傷を防止することができない。
ロギングに関しては、上述したシステムはいずれも、ステップの実施に関するいかなるデータも記録しない。上記データを使用して、保守手順を更に改善する、あるいは上記手順にどれくらいの時間がかかるかを推定することができる。また、データを使用して、その後の故障の原因を識別することもできる(例えば、特定の供給業者からのナットをトルク仕様の上限まで回転させたときに、その後の故障が多く見られた等)。
したがって、上述の問題点の少なくとも幾つかと、起こりうる他の問題点を考慮する方法及び装置を有することが望ましい。
上述した要件に対処するために、本書は、ステーションにおいて物理的構造に実施される少なくとも1つのステップを有する作業を実施するための指導を提供するシステム及び方法を開示する。一実施形態では、本方法は、指導処理ユニットにおいて、実施エンティティから作業を呼び出すコマンドを受信することと、指導処理ユニットにおいて、コマンドから少なくとも1つのステップを決定することと、指導処理ユニットから実施エンティティへ少なくとも1つのステップの実施を図示する指示データを送信することと、指導処理ユニットにおいて、物理的構造に近接してステップの実施を感知するセンサによって生成されるリアルタイムのセンサデータを受信することと、センサデータにしたがってステップの完成度評価を計算することとを含む。本システム及び方法は、例えば拡張現実環境を通して音声及び3Dの視覚的合図の組み合わせである情報を送ることにより保守工程を完全にハンズフリーにすることによって保守工程を更に効率的にすることができ、したがって、複雑な保守工程が実施される航空機又は他の製品の保守、修理、及び運航におけるエラー、再加工、安全性リスク、及び遅延が低減する。本システム及び方法はまた、複雑な保守工程が実施される航空機又は他の製品の保守、修理、及び運航のための訓練を減らし、実行コストを削減しうる。
別の実施形態は、ステーションにおいて物理的構造に実施される少なくとも1つのステップを有する作業を実施するための指導を提供するシステムによって明らかにされ、この実施形態では、システムは、物理的構造に近接したセンサと、呈示装置と、指示を含む指示記憶メモリに通信可能に結合されたプロセッサを備える指導処理ユニットとを備える。指示には、実施エンティティから、作業を呼び出すコマンドを受信し、コマンドから少なくとも1つのステップを決定し、呈示装置によって呈示するために、実施エンティティに少なくとも1つのステップの実施を図示する指示データを送信し、物理的構造に近接してステップの実施を感知するセンサによって生成されるリアルタイムのセンサデータを受信し、センサデータにしたがってステップの完成度評価を計算する指示が含まれる。本システムは、例えば拡張現実環境を通して音声及び3Dの視覚的合図の組み合わせである情報を送ることにより保守工程を完全にハンズフリーにすることによって保守工程を更に効率的にすることができ、したがって、複雑な保守工程が実施される航空機又は他の製品の保守、修理、及び運航におけるエラー、再加工、安全性リスク、及び遅延を低減させる。本システム及び方法はまた、複雑な保守工程が実施される航空機又は他の製品の保守、修理、及び運航のための訓練を減らし、実行コストを削減しうる。
上述の特徴、機能および利点は、本発明のさまざまな実施形態において個別に実現可能でありうるか、又は、下記の説明および図面を参照して更なる詳細を理解可能な、更に他の実施形態において組み合わされうる。
ここで、図面を参照する。各図面を通じて、類似の参照番号は対応する部品を表す。
例示の保守/組み立て/試験施設を示す図である。 ステーションの一実施形態を表す機能ブロック図である。 作業の完了にユーザを導くために使用される例示の処理ステップの一実施形態を示す図である。 作業の完了にユーザを導くために使用される例示の処理ステップの一実施形態を示す図である。 作業の完了にユーザを導くために使用される例示の処理ステップの一実施形態を示す図である。 ステーションと中央プロセッサの他の要素とともに、指導処理ユニットの動作を示す図である。 ステーションの指導プロセッサ及び関連要素の例示の試験台の実施態様を示す図である。 ステーションの指導プロセッサ及び関連要素の例示の試験台の実施態様を示す図である。 地理位置情報システムの処理エレメントを実行するのに使用されうる、例示のコンピュータシステムを示す図である。
以下の説明において、本明細書の一部を形成し、例として幾つかの実施形態を示す添付図面を参照する。他の実施形態も利用可能であり、また本開示の範囲を逸脱せずに構造的な変更を加えることができることを理解すべきである。
概要
本書に記載されるシステム及び方法は、保守管理者が正確な保守手順を見つけることを支援し、各保守ステップを通して音声及び視覚的合図を使用して保守管理者を指示し、センサのフィードバックの使用を通して各ステップの正確さを確認することによって、プラットフォーム又は他の物理的構造の保守管理者の完成度及び能率を向上させる。一実施形態では、センサは、インターネットオブシングス(loT)を介して一体化される。本システムは、(1)視覚及び他のloTセンサを使用して、保守管理者向けに適切な作業指示書を選択するために初期診断を実施する、(2)保守管理者の手動の入力に頼る代わりに認証された音声の痕跡をセンサに提供するために、保守工程に関連した画像及びデータを自動的に収集する、(3)保守管理者の訓練の機会を含む、プロセス改善の機会を識別するためにはどれくらい長く保守ステップを実施すべきかを示す完成度及びサイクル時間の測定基準を自動的に収集する能力を提供する。一実施形態では、本システムは、自然言語を使用した音声制御下で作動し、コマンドを発信し、保守環境を制御する。例えば、保守管理者は、電気のスイッチに手を伸ばす代わりに、電気をつけるように音声で要求することができる。
本システム及び方法は、幾つかの認知能力を、音声テキスト化、テキスト音声化、自然言語処理、機械学習及び拡張現実を含む新たな保守ツールへ追加する。これらの能力により、保守管理者が、正確な音声コマンドを記憶する必要なく、自然に話されるコマンドを使用して保守ツールと対話することが可能になる。ツールはまた、自然言語処理及び機械学習を使用して、音声コマンドの意図を判断し、必要に応じて上記コマンドに反応する。ハンズフリーの拡張現実を使用して、自然言語の音声コマンドと現実世界の物体上に重ねられた3Dの視覚情報を提供するフィードバックが、ツールから保守管理者に呈示される。
ツールは幾つかの異なる能力を結集することにより、それぞれの個別の構成要素よりも更に強力な終端システムとなる。一実施形態では、ツールは、loT、認知自然言語処理、及び高機能のドキュメントインデックス作成及びクエリを組み合わせる。これにより、保守管理者が、保守を迅速に、また効率的に実施するのに必要な全ての知識に簡単にアクセスすることが可能になる。またツールにより、拡張現実環境を通して情報を音声及び3Dの視覚的合図の組み合わせとして送ることによって、保守工程が完全にハンズフリーにもなる。ツールはまた、大抵マニュアルと未確認の保守ステップが要求される既存の保守ツールに、認知能力とloTフィードバックも加える。認知能力の追加により、保守管理者が迅速で効率的な方法で関連保守情報を見つけることが可能になり、loTフィードバックの追加により、各ステップの適切な完了が確認されるため、再加工が削減される。
主に保守作業の実施に関して説明しているが、ツールは生産用途に、あるいは製造及び品質管理を含む作業が物理的構造に実施されるいかなるところでも等しく用いられる。例えば、以下に説明する技法は、自動車、航空機、宇宙船及び水容器を含む物理的構造の組み立て及び試験に適用可能である。
図1は、例示の保守/組み立て/試験(MAT)施設100(以下に簡略化して施設又はMAT100と称される)を示す図である。MAT100は、作業が実施される一または複数のステーション102A~102N(以下に代替的にステーション102と称される)を有する。各ステーション102は、保守が実施される、パーツが組み立てられる/分解される、又は試験が実施される物理的構造106を含む。ステーション102は、物理的構造106に作業を実施するために使用される一または複数のツール110A~110N(代替的に以下に一又は複数のツール110と称される)も備えうる。上記作業は、例えば一または複数の人108P又は一または複数のロボット108R(以下に代替的に一または複数のユーザ108と称される)等の一または複数のユーザによって実施されうる。
一又は複数の物理的構造106、ツール110、及びユーザ108は、関連の物理的構造106、ツール110、又はユーザ108の特性をそれぞれ測定する又は監視する一又は複数のセンサ(まとめてセンサ112と呼ばれる)を含む。例えば、物理的構造106は、物理的構造106の特性を感知する一または複数の物理的構造センサ112Bを含みうる。この特性には、例えば物理的構造106の別の部分に対する付属器官の位置又は角度等の物理的特性、例えば導体又は物理的構造106への電圧又は電流測定等の電気的特性、又は任意の種類のセンサによって測定可能な他のいずれかの品質が含まれうる。物理的構造センサ112Bには、物理的構造106の完成したアセンブリのパーツであるセンサ、あるいは、保守又は生産目的で物理的構造106に取り付けられ、その後、組み立て又は保守が完了する前に取り外される物理的構造センサ112Bが含まれうる。例えば、物理的構造106は、航法及び制御の目的で、方向舵の位置を測定する一体型電位差計を含む方向舵等の動翼を備えうる。この例では、この電位差計を、使用可能な組み立てだけでなく、試験目的のために、物理的構造106の物理的構造センサ112Bの一つとして使用可能である。他の実施形態では、MAT工程を実施するために、別の物理的構造センサ112Bを物理的構造に取り付け可能である。例えば、別々の電位差計を方向舵に取り付けることができ、このセンサによる方向舵の位置測定が、一体型電位差計によって測定された方向舵の位置と比較されうる。
同様に、一又は複数のツール110は各々、関連ツール110A~110Nの特性をそれぞれ感知する又は測定するために使用される一又は複数のセンサ112DA~112DNを含みうる。その特性は同じように、一又は複数の物理的特性、電気的特性又はセンサ112によって測定される他のいずれかの品質を含みうる。例えば、ツール110Aはトルクレンチを備えていてよく、センサ112DAは、トルクレンチによって例えばボルト又はナット等の物理的構造106の一部に付与されるトルクを測定しうる。上記センサ112Dはまた、(使用中にツール110の温度を監視するために)温度センサも含みうる。
同様に、一又は複数のユーザ108は、一又は複数のセンサ112を含みうる、あるいは使用しうる。一又は複数のユーザ108は例えば、人108P又はロボット108Rを含みうる。ロボット108Rは、ロボット108Rの特性、ステーション102Aの(物理的構造106のツール110、又は人108Pを含む)他のエレメントの一又は複数の特性を感知する一または複数のロボットセンサ112Fを含みうる。一実施形態では、ロボット108Rは、複数の電位差計を含み、複数の電位差計は、ロボット108Rの構造の相対位置の表示を提供し、ここから、ロボット108Rの頭又は作業面の位置が決定されうる。これを使用して、例えば、ロボット108、及びその構造のいずれかの作業端の位置を時間の関数として決定することができる。別の実施形態では、ロボット108Rは、作業端に又はその近くに配置されたカメラ又は他の可視センサを含むことにより、作業端の周囲領域の視覚表示を取得することができる。センサ112Fは、MAT工程を実施するために、ロボット108Rに組み込まれていてよい(例:コマンドに対するロボットの応答を制御するためにロボット108Rによってセンサ測定が使用される)、あるいは、ステーション102においてのみ使用するためにロボット108Rに追加されていてよい。上記ロボットセンサ112Fは、(使用中にロボット108R、又はロボット108Rの一部の温度を監視するために)温度センサも含みうる。
別の例として、人108Pは、一又は複数のセンサ112Eを身に着ける場合がある。上記センサ112Eは、例えば、拡張現実ヘッドセットを含みうる。上記ヘッドセットは通常、三次元の頭部装着型ディスプレイ(人のそれぞれの目に別々の画像を提供する)、及び頭部動作追跡センサを含む。上記動作追跡センサは、例えば、加速度計又はジャイロスコープ、構造化光システム、及び視線追跡センサ等の慣性センサを含みうる。人108Pが拡張現実ヘッドセットを身に着けると自分の周囲を見ることができるが、この周囲に三次元画像が重ね合わされている。上記三次元画像には、例えば、物理的構造106の一部、又は作業のステップによって必要とされる物理的構造106に対する変更を含みうる。慣性センサと視線センサを使用して、ユーザが慣性空間において見ている方向、及びこれらの画像に重ね合わされた物理的構造の画像を決定することができる。
拡張現実ヘッドセットは、ビデオ映像を記録するのみでなく、実際の映像に重ね合わされたビデオ映像も呈示するため、上記ヘッドセットは、センサとしてのみだけでなく、ユーザ108に情報を呈示する拡張現実ヘッドセット114Bの呈示エレメントとも見なされうる。ステーション102Aはまた、指示情報を表示するためのディスプレイ114A等のもっと伝統的な呈示装置も含みうる。
センサ112Eはまた、例えば人の付属器官の慣性状態を測定しうる、加速度計又はジャイロ等の付属器官に装着された慣性センサ等の他のセンサ112Eも含みうる。幾つかの実施形態では、センサは、体温又は心拍数を測定するセンサ等の、人108Pを監視するセンサを含みうる。上記センサによって得られた情報は、人108Pによって実施されている作業が特に難しいものであるかを決定するのに有益である。
ステーション102Aは、環境センサ112Aも含みうる。環境センサ112Aは、ステーション102の環境の特性を測定するセンサである。これには、例えば、(例:温度計又は湿度計を使用して)環境温度又は湿度を測定するセンサと、物理的構造106のエレメント、ツール110、ユーザ108、又は指導処理ユニット104を含む、ステーション102のいずれかのエレメントの物理的位置又は互いに対する近接度を決定する可視センサが含まれうる。環境センサ112Aは、ステーション102Aの他のエレメントに配置されたエレメントを含みうる。環境センサ112Aは、受動システム、能動システム、又は半能動システムを備えうる。例えば、能動環境センサの一実施形態は、ステーション102の別のエレメント(例:ロボット108Rのアーム)に位置づけされたリフレクタ、リフレクタを照らす照明器具、及び照らされたセンサの位置を測定する可視センサを備えうる。受動環境センサの一例は、可視光、紫外線、又は赤外線の波長に敏感であってよい、例えばビデオ又は静止カメラ等の可視センサである。環境センサ112Aは、物理的構造106とその特性を識別するのに使用されうる無線自動識別(RFID)システムも含みうる。
任意の、又は全てのセンサ112は、指導処理ユニット104(
Figure 0007184511000001
記号によって示す)に通信可能に結合されており、指導処理ユニット104はセンサからデータを受信することが可能である。更に、指導処理ユニット104は、他のステーション102B~102Nの指導処理ユニットに、また中央プロセッサ120(
Figure 0007184511000002
記号によって示す)に通信可能に結合されていてよい。
図2は、ステーション102の一実施形態の図である。ステーション102は、指導処理ユニット104、一又は複数のセンサ112、エフェクタ202、呈示装置114(ディスプレイ114A及び拡張現実ヘッドセット114Bの呈示エレメントを含む)、及び物理的構造106を含む。
指導処理ユニット104は、センサ112からセンサデータを受信し、幾つかの実施形態では、センサ112にもセンサコマンドを提供する。上記コマンドは、例えば、センサ112の解像度又は可動域に関するコマンドを含みうる。指導処理ユニット104はまた、コマンドも送信し、エフェクタからもデータを受信する。上記エフェクタは、例えば、センサ112又はロボット108Rの一方を制御するステッピングモータを含む場合がある。
図示した実施形態では、指導処理ユニット104は、プロセッサ208に通信可能に結合されたインターフェース206を含む。センサ112は、インターフェース206を介してプロセッサ208にセンサデータを提供する。更に、センサ112は、インターフェース206を介してプロセッサからコマンドを受信しうる。同様に、プロセッサ208は、インターフェース206を介してコマンドをエフェクタ202に提供し、エフェクタ202からもデータを受信しうる。
指導処理ユニット104は、作業を完了させるために物理的構造に実施されるステップの実施を図示する指示データを呈示装置114へ提供し、インターフェース206を介してセンサ112を制御するためのコマンドも提供しうる。同様に、呈示装置114は、指導処理ユニット104にコマンド又は情報を提供しうる。
指導処理ユニット104は、実行されたときに指導処理ユニット104に以下に説明する工程を実施させるプロセッサの指示を記憶している一または複数のメモリに通信可能に結合されたプロセッサ208を備える。プロセッサ208は、複数のプロセッサ208を含んでいてよく、上記プロセッサ208は、互いから遠く離れて位置していてよい。以下に更に説明する一実施形態では、プロセッサ208は、分散した処理エレメントを備える。
図3A~3Bは、物理的構造106への一または複数のステップを伴う作業を完了させるためにユーザ108を指導するのに使用可能な例示の処理ステップの一実施形態を示す図である。ブロック302において、ユーザ108又は実施エンティティは、物理的構造106に実施される作業を呼び出すコマンドを送信する。ブロック304において、指導処理ユニット104によってコマンドが受信される。
一実施形態では、このコマンドは、音声センサによって感知され、指導処理ユニット104へ供給されるハンズフリー(例:音声)コマンドであり、指導処理ユニット104において、スピーチ認識モジュールによって認識され、文字に翻訳される。上記音声コマンドは、固定コマンド言語(指導処理ユニット104によって要求されるコマンド構文と言い回しを学ぶ責任がユーザ108に負わされている)及び自然言語(音声コマンドを解釈して、適切な作業及びステップを検索するために必要な構文及び言い回しに翻訳する責任が指導処理ユニット104に負わされている)であってよい。固定コマンド言語は、ユーザの話し言葉を文字に翻訳するソフトウェア構成要素をトレーニングすることによって達成されるドメイン固有トレーニングを含みうる。
他の実施形態では、コマンドは、リモートコントロール、コンピュータのキーボード、マウス、ゲームコントローラ、又はタッチスクリーンディスプレイ等の指導処理ユニット104に通信可能に結合されたコントローラ装置を介したデジタルコマンドを含む。別の実施形態では、コマンドは、監視システムによって感知され、デジタルコマンドに翻訳される。例えば、コマンドは、ユーザ108によって実施されるジェスチャーを使用して全体的に又は部分的に実行され、結像センサ(例えば環境センサ112A)によって感知されて指導処理ユニットへ供給され得、上記ジェスチャーは、指導処理ユニットにおいて分析され、解釈され、デジタルコマンドに翻訳される。
更に別の実施形態では、コマンドは、他のステーション102又は中央プロセッサ120のロボット108R又は他のロボット向けに、制御システムからシステム間メッセージを介して受信されるデジタルコマンドである。
次に、指導処理ユニット104は、受信したコマンドから実施される一または複数のステップを決定する。受信したコマンドは、多数の異なる形態のものであってよい。一実施形態では、コマンドは、特定の作業というよりは一般的な目的を含む。例えば、ユーザ108は、「空調が機能していない」というコマンドを発信しうる。このコマンドを受けると、指導処理ユニット104は、物理的構造のどんな問題が、空調が機能しない原因でありうるかを決定する。この決定をするにあたって、指導処理ユニット104は、内蔵された診断(OBD)型センサからの入力を受け入れうる。指導処理ユニット104は次に、コマンドに応じて一または複数の作業を決定し、決定された作業から少なくとも1つのステップを決定する。例えば、故障した空調の例の場合、指導処理ユニットは、どの構成要素に欠陥があるかを診断するための作業だけでなく、それぞれが空調システムの各構成要素をチェックするための複数の作業を生成しうる。各作業は、各作業の階層下に一または複数の部分作業を有しうる。作業及び部分作業の階層の基礎は、ユーザ108に対する特定の指示に適した活動の単位を表すステップである。上述した例では、ステップは、空調コンプレッサの1つのねじを取り外すこと、あるいは空調コンプレッサのサブシステムを取り外すことでありうる。ステップが定義される階層レベルは、ステップの複雑さとユーザ108の経験に応じて変化しうる。例えば、音声コマンドは、ユーザ108がどれくらい経験を積んでいるかの表示と、この経験レベルにしたがって定義されたステップの階層レベルを含みうる。本書に更に定義されるように、指導処理ユニット104は、ユーザ108がどれほど良好にステップ又は作業を実施したかを示す実施データを記憶することができ、この情報を使用して、ユーザ108の経験レベルを決定することができ、その結果、ユーザの経験レベルに適切なステップ又は指示が得られる。この場合、ユーザ108は、RFID技法、又は他の手段を介したユーザ入力(例:ユーザの名前を打ち込む又は言うこと)により決定されうる。
一実施形態では、受信したコマンドから作業を決定することは、自然言語インタープリタを使用して受信したコマンドからデータベースクエリを生成することを含む。上記インタープリタにより、ユーザが通常の会話型言語でコマンドを発信することが可能になる。コマンド内の単語は解析され、解析された単語は構文、意味論、ディスコース及びスピーチについて分析される。その結果は、適切な言語及び構文のデータベースクエリである。このクエリは、指導処理ユニット(例:中央プロセッサ120)に通信可能に結合されたデータベースに提供され、データベースクエリの結果から作業が決定される。作業が識別されたら、作業に基づいてクエリが生成され、ユーザの経験及び能力を条件として、実施される適切なステップが読み出される。
一実施形態では、作業は、物理的構造106に実施される複数の作業のうちの1つであり、データベースクエリは更に、現在の文脈データにしたがって決定される。上記文脈データは例えば、物理的構造106に実施された複数の作業のうちの他の作業、及び物理的構造自体によって作業に課される制約、及び環境(例:他のエレメント又は物理的構造の位置、温度、湿度、ツール110の性能限界)ついての情報を含む。例えば、別の特定の作業を実施するのに必要なステップを変更するような作業が、物理的構造106に実施されている可能性がある。空調システムの例を再び参照する。別の作業により、サブシステム又はパーツが取り外されていてよく、これにより現在の作業において、そのサブシステム又はパーツの取り外しが不必要となる。逆に、現在の作業を実施するのに追加のステップが必要となるようなステップ又は作業が実施される場合がある。例えば、以前の作業で構成要素を接着させる必要があった場合、現在の作業において、その接着剤が固定するための待機期間が必要となりうる。現在の作業において実施されるステップの定義を変更又は修正するために、以前完了させた作業からの完成度評価も使用可能である。例えば、以前の作業にボルトのナットを特定のトルクで締めつけるステップが含まれる場合、ボルトに適用された測定トルク(その以前のステップの完成度評価)を使用して、後続作業においてそのナットを取り外すのに要するトルクを推定することができる。
他の実施形態では、作業は例えば作業指示書又は他の情報等の実施される仕事関連の、記憶された情報を使用して決定されうる。作業(及びステップ)はまた、物理的構造106又は環境の状態によって課される制約にも基づいて決定されうる。例えば、以前の作業で物理的構造106の少なくとも一部が分解されていてよく、この場合、物理的構造の一部を分解するのに必要なステップは要らなくなる。逆に、以前の作業で物理的構造106が、追加のステップを実施しなければならなくなるように、変更される可能性がある。別の例として、所与の周囲温度においてステップを実施しなければならない場合がある。周囲温度が低すぎる場合、作業には、周囲温度をより高い値に上げるステップが含まれ得、周囲温度が十分である場合はこのステップは要らなくなる。別の例として、物理的構造の電位差計で測定される電圧は、周囲温度に応じて変わりうる。この温度を感知し、上記周囲温度に基づいて電位差計の適切な設定を決定するために、環境センサ112Aが使われうる。他の環境的制約には、例えばロボット108Rのアーム、ツール110、又は他の物理的構造等のステーション102の他のエレメントの位置が含まれ得、これは、これらの構造の位置により、物理的構造106が分解されるのが防止されうるためである。この場合、環境センサは、物理的構造106と近くのエレメントの位置を感知する可視光センサを含みうる。また、環境には、どのツール110がステーション102で利用可能であるか、そして作業を完了させるためにどのツール110を他の場所から取り出さなければならないかも含まれうる。この場合、環境センサ112Aは、ツール上にRFIDタグを含みうる。
図3Aを再び参照する。指導処理ユニットは次に、ブロック308に示すように、一又は複数のステップを図示する指示データを送信する。ブロック310に示すように、指示データが(拡張現実ヘッドセット114Bのディスプレイ114A及び/又は呈示エレメント、又はスピーカ又は他の音声センサ(図示せず)を含みうる)一または複数の呈示装置114によって受信される。視覚呈示装置の場合、ステップの視覚表示が呈示される。一例では、ステップの視覚表示がディスプレイ114Aに呈示される。別の例では、ステップの視覚表示が、拡張現実ヘッドセット114Bの呈示エレメントを介して拡張現実において呈示される。
一実施形態では、一または複数のステップを図示する指示データは、拡張現実ヘッドセットを介して拡張現実において呈示するためのステップの視覚表示を含む。拡張現実ヘッドセットは通常、三次元の頭部装着型ディスプレイ(それぞれの目に対して別々の画像を提供する)、ステレオサウンドのための2つの拡声器、及び頭部動作追跡センサ(ジャイロスコープ、加速度計、及び立体照明システムを含みうる)を備える。ある拡張現実ヘッドセットは、視標追跡センサも有する。頭部(及びオプションとして視標)追跡センサを使用することによって、拡張現実ヘッドセットは、慣性空間でのそれ自体の位置及び配向を自覚し、この情報を指導処理ユニット104に提供する。指導処理ユニット104はこの情報を使用して、ユーザ108が見るべきものを決定し、ユーザ108に呈示された画像上に他の画像を重ねることができる。例えば、ユーザ108が物理的構造106を見ている場合、指導処理ユニット104は、拡張現実ヘッドセット114Bに配設されたディスプレイ上で、指示を実施するために物理的に操作されるべき特定のパーツを強調表示しうる。ユーザ108は従って、指導処理ユニット104が、図示されたステップとユーザ108が見ている背景画像とを一致させるように働くため、物理的アセンブリの各パーツに対して具体的にどの作業を完了させるべきかを認識することができ、特に有益である。これにより、ユーザ108が物理的構造106の一部を他と勘違いしにくくなる(例えば、ユーザが間違ったボルトをゆるめなくなる)ため、エラーもなくなる。指示データはまた通常、音声情報(例:実施されるステップの口頭説明、又はステップの実施中又は実施後に物理的構造がどんな音がするべきかの聴覚表示)を含み、拡張現実ヘッドセット114Bの呈示エレメントは通常、拡張現実ヘッドセット114Bの拡声器を使用してこの情報を呈示する。一実施形態では、口頭指示は、自然言語(例:普通の人間の会話音声)で与えられる。上記自然言語の指示は、どの言語(例:英語、ドイツ語、中国語等)であってもよい。映像及び/又は音声指示は、携帯電話、又はタブレットコンピュータ、及びデスクトップコンピュータ装置等のモバイルコンピュータ装置を含む様々な装置に付与されうる。
ユーザ108は、ブロック312に示すように、ステップを図示する呈示された指示データを受信し、ステップの実施を開始する。これは通常、人108Pによって達成されるが、ロボット108R又はロボット108Rと共に働いている人108Pによって、各々がステップのサブセットを実施している人108Pとロボット108Rによって、又は一または複数のステップにおいて共に働いている人108P及びロボット108Rによって達成される。
ブロック314に示すように、ステップが実施されている間、ステップの実施を感知するセンサデータが生成される。ブロック316に示すようにセンサデータが送信され、ブロック318に示すように指導処理ユニット104によって受信される。センサデータは、ステップの実施を監視する、例えばステップの進行具合を判断する、及びいつ、また果たしてステップが完了したかを決定するために使用される。センサデータはまた、ユーザ108がいつステップの実施を実際に開始したか(例:後にユーザ108がステップを完了させるのにかかった時間を計算するのに有用である)を決定するためにも使用されうる。センサデータはまた、期間にわたるステップの実施を示すデータを記憶するのにも使用されうる。上記データは、後の時点で故障を診断するのに有益でありうる。
このセンサデータは、ステーション102においてセンサ112のいずれか1つあるいは組み合わせによって生成されうる。上記センサ112は、作業が実施される物理的構造106の一または複数の状態を観察しうる。これは、物理的構造自体又は環境センサ112Aに統合された又は取り付けられた物理的構造センサ112Bを使用して達成されうる。物理的構造センサ112Bと環境センサ112Aは、視覚センサ及び/又は非視覚センサを含みうる。例えば、一実施形態では、環境センサ112Aは、自動運転車で使用される技法と同様のオブジェクト及びパターン認識技法を使用して、物理的構造106の状態を視覚的に観察する可視センサを含む。上記センサ112Bは、埋め込みセンサ及びRFIDタグを含みうる。
作業を実施している実施エンティティ又はユーザ108の一又は複数の状態:上記状態を測定するための一または複数のセンサ112Eは、音声センサ、撮像及び映像センサ、例えばジャイロスコープ及び加速度計等の慣性計測センサ、及び心拍モニタ等の個人センサを含む頭部装着型装置を含みうる。
作業を実施するのに使用される装置(例:ツール110、テスト機器及びパーツ)の一または複数の状態:これは、環境センサが物理的構造を観察しうるのと同じ方法で、ツール110又は環境センサ112Aに装着された又は統合されたセンサ112DA~112DNを使用して達成されうる。上記ツールは、RFIDタグ又は埋め込みツールセンサを含みうる。
作業上で協働する装置の一または複数の状態:これには例えば、一または複数のロボットセンサ112Fによって測定されるように、ロボット108Rの一または複数の状態が含まれ、あるいは
作業が実施される周囲環境の一または複数の状態:これには例えば、ステーション102又はステーション102のいずれかのエレメントの温度、ステーションの湿度、ステーションの電力消費、又はステーション102のエレメントの場所を時間の関数として感知する環境センサ112Aが含まれうる。上記環境センサは、画像センサ、音声センサ、温度センサ、及び湿度センサを含みうる。
一例では、ステップは、ユーザ108がトルクレンチであるツール110Aを使用してボルトのナットを締め付けることである。トルクレンチは、ツール110Aによって加えられたトルクの量を感知するトルクセンサ112DAを含む。この実施形態では、トルクセンサ112DAは、物理的構造106に印加されたトルクを測定し、測定トルクを含むセンサデータを指導処理ユニット104に送信する。上記送信は、ケーブルを使用して、又は無線手段によって達成されうる。別の例では、ステップは、マイクロスイッチが作動する(例えばオフの位置からオンの位置へ切り替えられる)までユーザがねじを回すことである。この場合、センサは、ねじが回されている間にオフの位置に関連づけられた電圧を送り、ねじが適切な位置まで回された時に、スイッチが作動し、オンの位置に関連付けられた電圧が送られる。この場合、ある電圧又は別の電圧からなるリアルタイムのセンサデータが送信される。
再び図3Aを参照する。指導処理ユニット104は、ブロック320に示すように、センサデータから完成度評価を計算する。これは例えば、受信したセンサデータを閾値と比較し、受信したセンサデータと閾値との比較から完成度評価を計算することによって達成されうる。完成度評価を使用して、以下に更に説明するように、ステップの実施を監視する、及び/又はステップの実施を検証することができる。ボルトのナットを特定のトルクに締め付けるために使用されるトルクレンチの例では、受信したリアルタイムのセンサデータがトルクの閾値(例えば10ニュートンメータ)と比較され、完成度評価が感知されたトルクとトルクの閾値との差から計算される。
一実施形態では、指導処理ユニット104はオプションとして、作業の進行具合についてのリアルタイムのフィードバックをユーザ108に提供する。これを、図3Bの点線ブロックで示す。ブロック322ではオプションとして、センサデータと閾値との比較にしたがってフィードバックデータを生成し、送信する。このフィードバックデータはオプションとして、ブロック324及び326に示すように、呈示装置114によって受信され、ユーザ108に呈示される。実施データの生成とフィードバックの送信により、ユーザがステップ自体を実施している間にステップの進行具合に関する情報を受け取ることが可能になる 例えば、ボルトのナットを締めつけているユーザ108の場合、ブロック322~326では、測定トルクと、トルク要件又は閾値との差を含む完成度評価を計算し、この差をゲージ、デジタルディスプレイ、又は他の手段の観点からユーザに呈示することができる。フィードバックはまた、ユーザが視覚的呈示を見ずにトルクを調節することができるように、聴覚的(例:適切なトルク値が達成されたら警告音を出す)、又は聴覚的と視覚的の両方(例:いずれも適切なトルクが達成されたときに示される、ブルズアイグラフ(bullseye graph)で測定トルクとトルク要件との比較の視覚的な表示と、発信音を伴う聴覚的フィードバック)又はピッチの変化であってもよい。
フィードバックにより、物理的又は安全性の考慮の助けとして、環境状態と閾値との比較も得られうる。例えば、上記データ及び関連閾値の比較には、温度、湿度、危険な装置の位置及び/又は動き(例えば、フォークリフトがユーザに、及び/又は作業の一または複数のステップの実施中にユーザ108の付属器官がありうるところの距離内あるいは閾値内に近づいている等)が含まれ、安全装置を有効にしうる、又はロックアウトしうる。同様に、収集されたセンサデータは、他のエレメントを制御して、上記の危険を防止するために、他のステーション102において、あるいはMAT100のステーション102間でこれらの他のエレメントに提供されうる(例えば、ステップがこれから実施され、フォークリフトが安全距離だけ離れて近づかないようにすべきことをオペレータに警告するために、センサデータをフォークリフトに送信する)。
ブロック328において、指導処理ユニット104は、ステップが完了したか否かを決定する。これは、閾値とセンサデータから計算された完成度評価が定められた公差内にあるかを決定することによって達成されうる。一実施形態では、これは、評価された状態又は実際の状態に対してステップが適切に完了しているか、物理的構造106の状態、ステーション102又はMAT100のエレメントの状態を、物理的状態106の予測される状態、例えばツール110又はMAT100のエレメント等のステーション102のエレメントの予測される状態と比較することによって、達成される。ボルトのナットを締めつけているユーザ108の例を再び参照すると、ブロック328は、完成度評価(要求値を表す測定トルクと定められたトルク要件との差)がトルク要件の公差(例:0.1Nm)内である時に、ボルトを締めつけるステップが完了したことを示す。
ステップが完了していない場合、さらなるセンサデータを受信して処理するために、処理はブロック318へ戻る。図示した実施形態には、ステップの実施が失敗である(例:ステップの実施を阻む問題が起こった)かを決定する、オプションのステップ障害テスト330も含む。ステップの実施が失敗である場合、前の特定のステップが失敗したことを背景に、別のステップを決定するために、処理がブロック306へ引き継がれる。ステップの実施が失敗でない場合、前と同じく追加のセンサデータを受け取り処理するために、処理がブロック318に戻る。ステップの失敗は、ステップの指示が送られた(例:ブロック308)時に始まったタイマーと、ステップを完了すると予測される時間との比較を使用して決定されうる。あるいは、物理的構造106へのステップが実際に始まった時を示すために、センサデータを使用してタイマーを開始することができる。ステップの失敗はまた、ステップを実施するのに要するツール110の失敗、あるいは、ステーション102の環境がステップの実施に要する状態に達しなかったことにしたがって、決定されうる。例えば、ステップが摂氏23度の周囲温度を要求し、ステーション102を収容している施設の空調又は暖房がその値に到達できない場合である。
ブロック328において、ステップが完了したと判断された場合、処理はブロック332に引き継がれ、ブロック332において、完了したステップの実施に関するフィードバックデータが生成され、送信される。このフィードバックデータは、ブロック334~336に示すように、呈示装置114又は他の手段によって受信され、ユーザ108に呈示される。このフィードバックデータを使用して、ステップが首尾よく完了した(あるいは不成功に終わった)という確認をユーザ108へ送信し、ステップの実施後に呈示しうる。
最後に、図3Cを参照すると、ブロック338において、ステップの実施に対して収集された又は計算された情報が記憶される。この情報には、幾つかの又は全てのセンサ112からのセンサデータ、及び完成度評価が含まれうる。ユーザ108が要求されるステップ又は作業を実施するのに要した時間を含む他の情報も記憶されうる。
上記データを使用して、決定されたステップが要求される作業の実施においてどれくらい効率的であり、経済的であるかを決定することができ、作業の実施における他の可能なステップと比較することができる。例えば、最初に作業を遂行するためにステーション102の第1のセットに特定のステップシーケンスが付与され得、ステーション102の別のセットに異なるテストシーケンスが付与されうる。ステーションの各セットに対してテストを実施するのに要する時間が決定され、センサデータを使用して、どれほど良好にステップが実施されたかの観点から、品質評価と比較されうる。このように、2つの可能なステップシーケンスを実際の結果と比較することが可能であり、2つの可能なステップシーケンスのうちの最も効率的なものが、今後の活動に選択される。
センサデータ及び完成度評価を使用して、ブロック306に示すステップを決定するプロセスを改善することができる。例えば、経験のあるユーザ108は、ただステップを実施するというだけでなく、どのようにステップを実施するかということにより、より正確に、また短い時間で仕事をすることが可能になることを知っている可能性がある。センサデータを使用すれば、ユーザ108が行った上記技法及び追加のステップは、要求されるステップの最初の定義には入っていないかもしれないが、今後ステップ(複数可)をどのように実施するかということにおいて識別され組み込まれうる。早期生産においては、例えば、ステップの概要が経験を積んだユーザに提供され得、これらのユーザの追加のステップ又は省略したステップを使用して、作業を実施するのに要するステップを決定するプロセスが最適化されうる。
これは、機械学習技法を使用することによって達成可能である。例えば、MAT100は、一連のステップを介して特定の手順を実施するための指示をユーザ108へ提供し、ユーザ108は示されたステップを実施する。MAT100は次に、ステップを実施しているユーザ108のセンサデータ、及び他の完成度評価を使用して、どの指示(又は指示のたぐい)がユーザを混乱させたかを(例:機械学習を介して)「学び」、また、必要に応じて指示をより理解しやすいように修正することができる。
これは、例えばステップがユーザ108に呈示された時と、ユーザがステップを実施し始めた時との間の経過時間、及び/又はステップの実施を完了するのにユーザ108がかけた経過時間(ユーザ108の方で混乱したことを示す超過時間を含む)から決定されうる。MAT100は更に、より明確にするために、又はその他の改善のためにステップを変更するのに、機械学習技法を使用しうる。センサデータを使用して、ユーザの混乱の源を決定することができる。例えば、特定のステップのために選択されたツールに関するセンサデータは、ステップを実施しようとした際にユーザ108が適切なツールを使用したという見解を確認する、あるいは否定することができる。ユーザ108は、直接入力(ユーザが混乱したという意見又はわからない指示を明確にするためにユーザ108によって提起された質問)を提供することも可能である。
手段/ステップは、全てのユーザ108に対して、ユーザが以前ステップを実施した際の完成度の総計に基づいて変更することができる、又はユーザごとに変更することができるため、MAT100によって生成され、各ユーザ108に呈示されるステップは、以前実施されたステップ又は手順におけるユーザの以前の完成度に基づいて、特定のユーザ108それぞれに向けてカスタマイズされる。例えば、MAT100は、特定の作業を完了するために実施される基準のステップのセットを生成しうる。更に経験を積んだユーザ又はこれらの作業を迅速に完了させたユーザには、簡略バージョンの指示が呈示されうるが、あまり経験のないユーザ又はこれらの作業を完了するのに長くかかったユーザには、ステップをどのように改善することができるか、又は更に迅速に完了させることができるかを提案するバージョンの指示が呈示されうる。上記バージョンは例えば、割り当てられたステップ又は作業をより迅速に完了させた他のユーザ108がしたがったセンサデータに基づいていてよい。これにより、作業を実施している全てのユーザ108の経験を、あまり経験していないユーザにすばやく共有することができる。更に、機械学習技法及びセンサデータを使用して、ユーザの経験及び専門知識を推定することができ、MAT100は、その経験に相応する指示を呈示しうる。例えば、同じ作業を実施するためにステップの異なる指示セットを生成することができ、MAT100は、ユーザが公言した経験レベル又はユーザの推定される経験レベルに応じて、ユーザ108にどの指示セットを提供するかを決定しうる。
機械学習技法を使用して、ステップの実施中に収集されるセンサデータを使用して、問題を診断し解決することも可能である。これらの失敗を、データマイニング又は機械学習技法を使用した製品の組み立て又は維持においてどのように一または複数のステップを実施するかに結び付ける試みとして、物理的構造106の生産又は保守からのセンサデータが検査されうる。例えば、製品のあるセットに特定の故障(例:ボルトの故障)が見つかりうる。データマイニング技法を使用して、物理的構造106の生産又は保守において収集されるセンサデータを解析して、パターンと、故障したこれらの物理的構造とを相互に関連付けることができる。一例では、この解析により、故障したボルトはそれぞれ故障しなかったボルトよりも高いトルクがかかっていると結論づけられ、トルクの仕様が不正確であり、変更すべきである可能性が高まりうる。更に複雑な例では、解析において、ボルトにかかったのはトルクではなく、関連パーツにおける締め付けパターン又は欠陥であったことが明らかになりうる。
最後に、ブロック340において、作業が完了したか(例えば作業を完了するのに追加のステップが必要か)が決定される。一実施形態では、これは、測定された又は実際の状態に対して作業が適切に完了した場合に、物理的構造106の状態、ステーション102又はMAT100のエレメントの状態を、物理的構造106の予期される状態、例えばツール110又はMAT100のエレメント等のステーション102のエレメントの予期される状態と比較することによって、達成される。追加のステップが必要な場合、処理は、次のステップを決定するブロック306を経由し、上述したように処理が継続される。追加のステップが必要でない場合、ブロック344において、処理が(もしあれば)次の作業に導かれる。一実施形態では、これは、ステップ及び作業が適切に完了した場合に、ステーション102又はMAT100のエレメントの状態を、ステーション102又はMAT100の予期される状態と比較することによって達成される。このプロセスにより、複雑な保守工程が実施される航空機又は他の製品の保守、修理及び運航におけるエラー、再加工、安全性リスク、及び遅延を削減することができる。このプロセスにより、複雑な保守工程が実施される航空機又は他の製品の保守、修理及び運航におけるトレーニング費用を削減し、実行費用を低減することもできる。
作業の実施に関するデータ(例:作業全体を実施するのにかかる経過時間又は期間、又は他の作業の完成度評価)はブロック342に示すように、オプションとして生成され、また記憶されうる。
作業又はステップの実施データは、ステップの実施のリアルタイムのデジタルドキュメンテーションの目的で、作業又はステップの実施データを生成するために使用されるセンサデータとともにリアルタイムで生成され、MAT100の他のエレメントに送信されアーカイバル及び/又は最適化の目的、サプライチェーン更新のためのパーツ使用、監査ログ及び保守記録に使用されうる。
図4は、ステーション102及び中央プロセッサ120の他のエレメントとともに、指導処理ユニット104の工程を示す図である。この実施形態では、指導処理ユニット104は、センサ112及びエフェクタ(例:ツール110)とデータを送受信するために、インターフェース206に通信可能に結合されたInternet of Things(IoT)ゲートウェイ402を使用して実行される。
センサインターフェース206を使用して、ゲートウェイ402はセンサ112及びツール110からデータを収集し、MAT100の一または複数の公開サーバ404A~404N(以下に一または複数の公開サーバ404と称する)及び/又は一または複数のプライベートサーバ406で処理する及び/又は記憶するためにこの情報を提供する。公開サーバ404は、「クラウドの中に」位置する(例えば、ステーション102又はMAT100から離れており、通常別のエンティティによって管理される)クラウドベースの処理及び記憶デバイスである。プライベートサーバ406は、通常ステーション102及び/又はMAT100を備え、同じエンティティによって管理されるデータ処理及び記憶デバイスである。
ゲートウェイ402はまた、一又は複数の公開サーバ404及びプライベートサーバ406からコマンド及びデータを受信し、これらのコマンドをインターフェース206へ、したがって一または複数のセンサ112及び一または複数のツール110へ必要に応じて提供する。公開サーバ404及びプライベートサーバ406はまた、例えばディスプレイ114A又は音声再生装置等の呈示装置204に一又は複数のステップを図示する指示データも提供する。機械学習/処理モジュール408は、指示データにアクセスし、以前の指示データ、及びセンサ112及びツール110のデータに基づいて指示データを変更しうる。
図5A及び5Bは、ステーション102の指導処理ユニット104と、関連エレメントの例示のテストベッドの実装態様を示す図である。この実施形態では、センサ112は、押しボタン502(例えば高論理信号を有するデジタル電圧信号を出力し、解放された時に低論理信号を出力することによって瞬間的な押しに応答するGROVEボタン)と、電位差計504(アナログ電圧信号を提供する)とを含む。エフェクタ又はツール110は例えば、デジタルコマンドを受信する発光ダイオード506と、デジタルコマンドを受信するステッピングモータ508及び/又は集積回路(I2C)間コマンドを受信する液晶ディスプレイ510とを含む。インターフェース206は、例えばGROVEベースのシールド512等の入出力(I/O)ボードに通信可能に連結されたモジュラープロセッサ装置514(例えばARDUINOプロセッサ)によって実行されうる。
更に、この実施形態では、loTゲートウェイ402は、例えばNODE-RED等のloTプログラミングツール516を実行するRASPBIAN等のオペレーティングシステム(OS)518で動作するゲートウェイプロセッサ519によって実行される。loTゲートウェイ402は、WiFiを介してオープンソースのリアルタイムメッセージング(MQTT)を実行し、他のloTゲートウェイ402のいずれかの組み合わせと情報の送受信をすることができる。
loTゲートウェイ402は、一又は複数の公開サーバ404A~404N(以下にまとめて一または複数の公開サーバ404及び/又は一または複数のプライベートサーバ406と称される)と通信する。各公開サーバ404A~404Nは、各々がハードウェア装置の相互通信を提供するソフトウェア統合ツールを実行するそれぞれの認知システム520A~520N、及びそれぞれのクラウドプラットフォーム528A~528Nをそれぞれ含む。各認知システム520は、人工知能(AI)及び解析ソフトウェアを組み合わせて、質問に答えることができるシステムを作成する。
一実施形態では、各公開サーバ404は、異なる供給元による異なるソフトウェア構成を使用して実行されうる。例えば、認知システム520Aは、NODE-REDソフトウェア統合ツール522Aを実行するBLUEMIXクラウドプラットフォーム528Aで動作するIBM社のWATSONloTプラットフォームを備えていてよく、認知システム520Nは、ジャバアプリケーション統合ツール522Nを実行するAZUREアプリケーションサービス528Nで動作するマイクロソフト社のAZUREloTハブを備えていてよい。
サーバ404及び406は、representational state transfer(REST)対応のアプリケーションプログラムインターフェース(API)532を介して拡張現実(AR)アプリケーション534を実行する視覚ツール536と安全に通信して、公認のエンティティのみがシステムにアクセスできるようにAPIセキュリティを提供する。RESTのアーキテクチャ制約へのコンプライアンスにより、エレメント間のやり取りが制限され、構文やエレメントが互いに通信しあう手段が標準化される。この結果、アーキテクチャエレメントは基本的に「プラグ着脱可能」であり、工程を大幅に変えたり、他のアーキテクチャエレメントを変更したりすることなく、1つのバージョンのアーキテクチャエレメントを別のバージョンに置き換えることが可能である。一実施形態では、視覚ツールは、マイクロソフト社から入手可能な例えばHOLOLENS等のARオーサリングツールによって実行される。この視覚ツール536を使用し、一または複数の公開サーバ404及び/又は一または複数のプライベートサーバ406へのウェブベースのアクセスを得るためにRESTベースのAPIを使用することによって、モバイル装置上でloTデータを閲覧することができる。一実施形態では、プライベートサーバ406は、Message Queue Telemetry Transport (MQTT)ブローカ524及びNODE-REDソフトウェア統合ツール526を実行するオペレーティングシステム530を使用して実行されうる。
ハードウェア環境
図6に、指導処理ユニット104、中央プロセッサ120、呈示装置114、及び/又はセンサ112を含む、上記に開示された処理エレメントを実行するのに使用可能な例示のコンピュータシステム600を示す。コンピュータ602は、一または複数のプロセッサ604A及び604B、及び例えばランダムアクセスメモリ(RAM)606等のメモリを備える。一または複数のプロセッサは、汎用プロセッサ604A及び/又は特殊用途プロセッサ604Bを含みうる。汎用プロセッサ604Aは通常、いずれの特定のコンピュータ言語又はソフトウェアも必要とせず、一般的な処理工程を実施するように設計されているが、特定の用途向けにプログラミングすることも可能である。特殊用途プロセッサ604Bには、特定のコンピュータ言語又はソフトウェアを必要とする場合があり、ハードウェアの幾つかの機能を実施することができ、通常、特定の用途向けに最適化される。コンピュータ602は、例えばグラフィカルユーザインターフェース(GUI)上でユーザにウインドウ等の画像を呈示するディスプレイ622に動作可能に結合されている。コンピュータ602は、例えばキーボード614、マウス装置616、プリンタ628等の他の装置に結合させることができる。当然ながら、当業者は、上記の構成要素の任意の組み合わせ、又は任意の数の異なる構成要素、周辺機器、及び他の装置をコンピュータ602とともに使用可能であることを認識するだろう。
一般に、コンピュータ602は、メモリ606に記憶されたオペレーティングシステム608の制御下で動作し、ユーザとやり取りして入力を受信し、GUIモジュール618Aを通して結果をコマンド送信し呈示する。GUIモジュール618Bを別々のモジュールとして図示したが、GUI機能を実施する指示は、オペレーティングシステム608、コンピュータプログラム610に内在し又は分散していてよい、あるいは特殊目的メモリ及びプロセッサで実行されうる。コンピュータ602はまた、例えばC++、C#、ジャバ、Python、又は他の言語等のプログラミング言語で書かれたコンピュータアプリケーションプログラム610をプロセッサ604可読コードに翻訳できるようにするコンパイラ612も実行する。完了した後に、コンピュータプログラム610は、コンパイラ612を使用して生成された関係及び論理を使用して、コンピュータ602のメモリ606に記憶されたデータにアクセスし、操作する。コンピュータ602はまた、オプションとして、他のコンピュータと通信するための例えばモデム、衛星リンク、イーサネットカード、又は他の装置等の外部通信装置も備える。
一実施形態では、オペレーティングシステム608、コンピュータシステム610、及びコンパイラ612を実行する指示は、コンピュータ可読媒体、例えばハードドライブ、CD-ROMドライブ、フラッシュドライブ等の一または複数の固定又は取り外し可能なデータ記憶デバイスを含みうる記憶デバイス624に理解可能に具現化されている。更に、オペレーティングシステム608及びコンピュータプログラム610は、コンピュータ602によって読み取られ実行された時に、本書に記載された工程をコンピュータ602に実施させる指示から成っている。コンピュータプログラム610及び/又は作動指示もまた、メモリ606及び/又はデータ通信装置630に理解可能に具現化され、これによりコンピュータプログラム製品又は製造品が作製される。上記のように本書で使用する「製造品」、「プログラム記憶デバイス」及び「コンピュータプログラム製品」という語は、任意のコンピュータ可読デバイス又は媒体からアクセス可能なコンピュータプログラムを網羅するように意図される。
当業者は、本開示の範囲から逸脱せずにこの構成に多くの修正を行うことができることを認識するだろう。例えば、当業者は、上記の構成要素、又は任意の数の異なる構成要素、周辺機器、及び他の装置の任意の組み合わせが使用可能であることを認識するだろう。
結論
ここで、本開示の好ましい実施形態の説明を締めくくる。
上述は、保守管理者が自然言語を使ってアプリケーションに話すことを可能にする認知補佐機構を開示するものである。保守管理者は、複雑なユーザインターフェース又は暗記した音声コマンドを使用する必要なく、ハンズフリーでアプリケーションと迅速にやり取りすることが可能である。補助機構は、拡張現実の音声及び視覚的合図を使用して、保守管理者に指示を与える。補助機構は、保守作業全体において保守管理者を実地検証し、loTセンサを使用して適切に実行されたかを検証する。ステップが完了した後に、loTセンサが予測したようでない場合、その状況をどのように解決するかが保守管理者に知らされる。
好ましい実施形態の上述した説明は、例示及び説明の目的で呈示されている。これは、網羅的であったり、開示された厳密な形態に本開示を限定することを意図したものではない。上記の教示に照らして、多くの修正及び変形が可能である。権利の範囲はこの詳細説明によってではなく、本書に記載の特許請求の範囲によって限定されるべきである。
更に、本開示は下記の条項による実施形態を含む。
条項1.ステーションにおいて物理的構造に実施される少なくとも1つのステップを有する作業を実施するための指導を提供する方法であって、
(a)指導処理ユニットにおいて、実施エンティティから作業を呼び出すコマンドを受信することと、
(b)指導処理ユニットにおいて、コマンドから少なくとも1つのステップを決定することと、
(c)少なくとも1つのステップの実施を図示する指示データを指導処理ユニットから実施エンティティへ送信することと、
(d)指導処理ユニットにおいて、物理的構造に近接し、ステップの実施を感知するセンサによって生成されたリアルタイムのセンサデータを受信することと、
(e)リアルタイムのセンサデータにしたがって、ステップの完成度評価を計算することと
を含む方法。
条項2.ステップの完成度評価を計算することは、
リアルタイムのセンサデータを閾値と比較することと、
比較にしたがって完成度評価を計算することと、
完成度評価にしたがってステップの実施を検証することと
を含む、条項1に記載の方法。
条項3.比較にしたがってフィードバックデータを生成することと、
指導処理ユニットから、ステーションで呈示するためのフィードバックデータを送信することと
を更に含む、条項2に記載の方法。
条項4.リアルタイムのセンサデータにしたがって、ステップの完成度評価を計算することは、
リアルタイムのセンサデータを使用してフィードバックデータを生成することと、
ステーションにおいてフィードバックデータを呈示することと
を含む、条項2に記載の方法。
条項5.ステップの実施と同時にフィードバックデータが呈示され、
ステップが完了するまでステップ(c)及び(d)を繰り返すこと
を更に含む、条項4に記載の方法。
条項6.フィードバックデータは、ステップの実施後に呈示される、条項4に記載の方法。
条項7.指導処理ユニットによってリアルタイムのセンサデータからステップ実施の完成度評価を計算することと、
完成度評価を記憶することと
を更に含む、条項1から6のいずれか一項に記載の方法。
条項8.完成度評価は、ステップを実施する経過時間であり、経過時間は、閾値とリアルタイムのセンサデータから計算される、上述の条項7に記載の方法。
条項9.指導処理ユニットによって、リアルタイムのセンサデータを記憶することと、
リアルタイムのセンサデータを、別の物理的構造に対するステップの別の実施を感知する他のリアルタイムのセンサデータと比較することと
を更に含む、条項1から8のいずれか一項に記載の方法。
条項10.受信したコマンドから作業を決定することと、
決定された作業から少なくとも1つのステップを決定することと
を更に含む、条項1から9のいずれか一項に記載の方法。
条項11.受信したコマンドから作業を決定することが、
自然言語インタープリタを使用して受信したコマンドからデータベースクエリを生成することと、
作業を決定するために、データベースクエリにしたがってデータベースに対してクエリを実行することと
を含み、
決定された作業から少なくとも1つのステップを決定することが、
決定された作業から少なくとも1つのステップを決定すること
を含む、条項10に記載の方法。
条項12.作業が、物理的構造に実施される複数の作業のうちの1つであり、
データベースクエリは更に、
物理的構造に実施された複数の作業のうちの他の作業についての情報と、
物理的構造及びステーションの環境のうちの少なくとも一方によって作業に課される制約と
を含む現在のコンテキストデータにしたがって決定される、条項11に記載の方法。
条項13.少なくとも1つのステップの実施を図示する指示データは、拡張現実ヘッドセットを介して拡張現実において呈示するためのステップの視覚表示を含む、条項1から12のいずれか一項に記載の方法。
条項14.リアルタイムのセンサデータは物理的構造の状態を表す、条項1から13のいずれか一項に記載の方法。
条項15.センサはステップの実施を観察する可視センサであり、リアルタイムのセンサデータは映像データを含む、条項14に記載の方法。
条項16.センサはステップが実施される物理的構造に配置される、条項14に記載の方法。
条項17.リアルタイムのセンサデータはステップを実施するのに使用されるツールの状態を表す、条項1から16のいずれか一項に記載の方法。
条項18.センサはステップの実施を観察する可視センサであり、リアルタイムのセンサデータは映像データを含む、条項17に記載の方法。
条項19.センサはステップを実施するのに使用されるツールに配置される、条項17に記載の方法。
条項20.リアルタイムのセンサデータは作業上で協働する装置の状態を表す、条項1から19のいずれか一項に記載の方法。
条項21.データは作業が実施される環境の状態を表す、条項1から20のいずれか一項に記載の方法。
条項22.コマンドはユーザからのハンズフリーのコマンドである、条項1から21のいずれか一項に記載の方法。
条項23.ステーションにおいて物理的構造に実施される少なくとも1つのステップを有する作業を実施するための指導を提供するシステムであって、
指導処理ユニットであって、
実施エンティティから、作業を呼び出すコマンドを受信し、
コマンドから少なくとも1つのステップを決定し、
少なくとも1つのステップの実施を図示する指示データを実施エンティティへ送信し、
ステップの実施を感知する物理的構造に近接したセンサによって生成されたリアルタイムのセンサデータを受信し、
リアルタイムのセンサデータにしたがってステップの完成度評価を計算する
ための指示を含む指示を記憶するメモリに通信可能に結合されたプロセッサ
を備える指導処理ユニット
を備えるシステム。
条項24.リアルタイムのセンサデータにしたがってステップの完成度評価を計算するための指示は、
リアルタイムのセンサデータを閾値と比較し、
比較にしたがって完成度評価を計算し、
完成度評価にしたがってステップの完成度を検証する
ための指示を含む、条項23に記載のシステム。
条項25.指示が、
比較にしたがってフィードバックデータを生成し、
ステーションにおいて呈示するために、指導処理ユニットからフィードバックデータを送信する
ための指示を更に含む、条項24に記載のシステム。
条項26.リアルタイムのセンサデータにしたがってステップの完成度評価を計算するための指示が、
リアルタイムのセンサデータを使用してフィードバックデータを生成し、
ステーションにおいてフィードバックデータを呈示する
ための指示を含む、条項24に記載のシステム。
条項27.フィードバックデータが、ステップの実施と同時に呈示され、
指示は更に、ステップが完了するまでステップ(c)及び(d)を繰り返すための指示を含む、条項26に記載のシステム。
条項28.フィードバックデータが、ステップの実施後に呈示される、条項26に記載のシステム。
条項29.指示は更に、
リアルタイムのセンサデータからステップの実施の完成度評価を計算し、
完成度評価を記憶する
ための指示を含む、条項23から28のいずれか一項に記載のシステム。
条項30.完成度評価は、ステップの実施にかかる経過時間であり、経過時間は、閾値とリアルタイムのセンサデータから計算される、上述の条項29に記載のシステム。
条項31.指示が更に、
指導処理ユニットによって、リアルタイムのセンサデータを記憶し、
リアルタイムのセンサデータを、別の物理的構造に対する別のステップの実施を感知する他のリアルタイムのセンサデータと比較する
ための指示を含む、条項23から30のいずれか一項に記載のシステム。
条項32.指示は更に、
受信したコマンドから作業を決定し、
決定した作業から少なくとも1つのステップを決定する
ための指示を含む、条項23から31のいずれか一項に記載のシステム。
条項33.受信したコマンドから作業を決定するための指示は、
自然言語インタープリタを使用して、受信したコマンドからデータベースクエリを生成し、
作業を決定するために、データベースクエリにしたがってデータベースに対するクエリを実行する
ための指示を含み、
決定された作業から少なくとも1つのステップを決定するための指示は、
決定された作業から少なくとも1つのステップを決定する
ための指示を含む、条項32に記載のシステム。
条項34.作業が、物理的構造に実施される複数の作業のうちの1つであり、
データベースクエリは更に、
物理的構造に実施される複数の作業のうちの他の作業についての情報と、
物理的構造及びステーションの環境のうちの少なくとも一方によって作業に課される制約と
を含む現在のコンテキストデータにしたがって決定される、条項33に記載のシステム。
条項35.少なくとも1つのステップの実施を図示する指示データは、拡張現実ヘッドセットを介して拡張現実において呈示するためのステップの視覚表示を含む、条項23から34のいずれか一項に記載のシステム。
条項36.リアルタイムのセンサデータは、物理的構造の状態を表す、条項23から35のいずれか一項に記載のシステム。
条項37.センサは、ステップの実施を観察する可視センサであり、リアルタイムのセンサデータは映像データを含む、条項36に記載のシステム。
条項38.センサは、ステップが実施される物理的構造に配置される、条項36に記載のシステム。
条項39.リアルタイムのセンサデータは、ステップを実施するのに使用されるツールの状態を表す、条項23から38のいずれか一項に記載のシステム。
条項40.センサは、ステップの実施を観察する可視センサであり、リアルタイムのセンサデータは映像データを含む、条項39に記載のシステム。
条項41.センサは、ステップを実施するのに使用されるツールに配置される、条項39に記載のシステム。
条項42.データは、作業上で協働する装置の状態を表す、条項23から41のいずれか一項に記載のシステム。
条項43.データは、作業が実施される環境の状態を表す、条項23から42のいずれか一項に記載のシステム。
条項44.コマンドは、ユーザからのハンズフリーコマンドである、条項23から43のいずれか一項に記載のシステム。
条項45.ステーションにおいて物理的構造に実施される少なくとも1つのステップを有する作業を実施するための指導を提供するシステムであって、
物理的構造に近接したセンサと、
呈示装置と、
指導処理ユニットであって、
実施エンティティから、作業を呼び出すコマンドを受信し、
コマンドから少なくとも1つのステップを決定し、
呈示装置によって呈示するために、実施エンティティに少なくとも1つのステップの実施を図示する指示データを送信し、
ステップの実施を感知する物理的構造に近接したセンサによって生成されたリアルタイムのセンサデータを受信し、
リアルタイムのセンサデータにしたがってステップの完成度評価を計算する
ための指示を含む指示を記憶するメモリに通信可能に結合されたプロセッサ
を備える指導処理ユニットと
を備えるシステム。

Claims (15)

  1. ステーション(102)において物理的構造(106)に実施される少なくとも1つのステップを有する作業を実施するための指導を提供する方法であって、
    (a)指導処理ユニット(104)において、実施エンティティから前記作業を呼び出すコマンドを受信することと、
    (b)前記指導処理ユニット(104)において、前記コマンドから前記少なくとも1つのステップを決定することと、
    (c)前記少なくとも1つのステップの実施を図示する指示データを前記指導処理ユニット(104)から前記実施エンティティへ送信することと、
    (d)前記指導処理ユニット(104)において、前記物理的構造(106)に近接し、前記ステップの実施を感知するセンサ(112)によって生成されたリアルタイムのセンサ(112)データを受信することと、
    (e)前記リアルタイムのセンサ(112)データに基づいて、前記ステップの完成度評価を計算することと、
    (f)前記完成度評価に基づいて前記ステップが完了したか否かを判断することと、
    (g)前記リアルタイムのセンサ(112)データと前記完成度評価に基づいて、機械学習技法を使用して、前記作業を実施するために要する前記少なくとも1つのステップを決定するプロセスを最適化することと、
    を含む方法。
  2. 前記ステップの完成度評価を計算することは、
    前記リアルタイムのセンサ(112)データを閾値と比較することと、
    前記比較にしたがって前記完成度評価を計算することと、
    前記完成度評価にしたがって前記ステップの実施を検証することと、
    を含む、請求項1に記載の方法。
  3. 前記比較にしたがってフィードバックデータを生成することと、
    前記指導処理ユニット(104)から、前記ステーション(102)で呈示するための前記フィードバックデータを送信することと、
    を更に含む、請求項2に記載の方法。
  4. 前記リアルタイムのセンサ(112)データに基づいて、前記ステップの前記完成度評価を計算することは、
    前記リアルタイムのセンサ(112)データを使用してフィードバックデータを生成することと、
    前記ステーション(102)において前記フィードバックデータを呈示することと、
    を含む、請求項2に記載の方法。
  5. 前記ステップの実施と同時に前記フィードバックデータが呈示され、
    前記ステップが完了するまでステップ(c)及び(d)を繰り返すこと
    を更に含む、請求項4に記載の方法。
  6. 前記指導処理ユニット(104)によって前記リアルタイムのセンサ(112)データから前記ステップの前記実施の完成度評価を計算することと、
    前記完成度評価を記憶することと、
    を更に含む、請求項1から5のいずれか一項に記載の方法。
  7. 前記完成度評価は、前記ステップを実施する経過時間であり、前記経過時間は、閾値と前記リアルタイムのセンサ(112)データから計算される、請求項6に記載の方法。
  8. 前記指導処理ユニット(104)によって、前記リアルタイムのセンサ(112)データを記憶することと、
    前記リアルタイムのセンサ(112)データを、別の物理的構造(106)に対する前記ステップの別の実施を感知する他のリアルタイムのセンサ(112)データと比較することと、
    を更に含む、請求項1から7のいずれか一項に記載の方法。
  9. 前記受信したコマンドから前記作業を決定することと、
    前記決定された作業から前記少なくとも1つのステップを決定することと、
    を更に含む、請求項1から8のいずれか一項に記載の方法。
  10. 前記受信したコマンドから前記作業を決定することが、
    自然言語インタープリタを使用して前記受信したコマンドからデータベースクエリを生成することと、
    前記作業を決定するために、前記データベースクエリにしたがってデータベースに対してクエリを実行することと、
    を含み、
    前記決定された作業から前記少なくとも1つのステップを決定することが、
    前記決定された作業から前記少なくとも1つのステップを決定すること
    を含む、請求項9に記載の方法。
  11. 前記作業が、前記物理的構造(106)に実施される複数の作業のうちの1つであり、
    前記データベースクエリは更に、
    前記物理的構造(106)に実施された前記複数の作業のうちの他の作業についての情報と、
    物理的構造(106)及び前記ステーション(102)の環境のうちの少なくとも一方によって前記作業に課される制約と、
    を含む現在のコンテキストデータにしたがって決定される、請求項10に記載の方法。
  12. 前記少なくとも1つのステップの実施を図示する前記指示データは、拡張現実ヘッドセット(114B)を介して拡張現実において呈示するための前記ステップの視覚表示を含み、前記リアルタイムのセンサ(112)データはオプションとして前記物理的構造(106)の状態を表し、前記リアルタイムのセンサ(112)データはオプションとして前記ステップを実施するのに使用されるツール(110)の状態を表す、請求項1から11のいずれか一項に記載の方法。
  13. 前記センサ(112)は前記ステップの実施を観察する可視センサであり、前記リアルタイムのセンサ(112)データは映像データを含み、前記センサ(112)はオプションとして、前記ステップを実施するのに使用される前記ツール(110)に配置される、請求項12に記載の方法。
  14. 前記リアルタイムのセンサ(112)データは前記作業上で協働する装置の状態を表し、前記データはオプションとして前記作業が実施される環境の状態を表し、前記コマンドはオプションとしてユーザからのハンズフリーのコマンドである、請求項1から13のいずれか一項に記載の方法。
  15. ステーション(102)において物理的構造(106)に実施される少なくとも1つのステップを有する作業を実施するための指導を提供するシステムであって、
    指導処理ユニット(104)であって、
    請求項1から14のいずれか一項に記載の方法を実施するための指示を含む指示を記憶するメモリ(606)に通信可能に結合されたプロセッサ(604)
    を備える指導処理ユニット(104)
    を備えるシステム。
JP2017234756A 2016-12-09 2017-12-07 対話形式で認知する作業支援システム及び方法 Active JP7184511B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201662432495P 2016-12-09 2016-12-09
US62/432,495 2016-12-09
US15/649,382 US11348475B2 (en) 2016-12-09 2017-07-13 System and method for interactive cognitive task assistance
US15/649,382 2017-07-13

Publications (2)

Publication Number Publication Date
JP2018160232A JP2018160232A (ja) 2018-10-11
JP7184511B2 true JP7184511B2 (ja) 2022-12-06

Family

ID=60262671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017234756A Active JP7184511B2 (ja) 2016-12-09 2017-12-07 対話形式で認知する作業支援システム及び方法

Country Status (8)

Country Link
US (1) US11348475B2 (ja)
EP (1) EP3333654B1 (ja)
JP (1) JP7184511B2 (ja)
KR (1) KR102494817B1 (ja)
CN (1) CN108228345B (ja)
BR (1) BR102017025093A8 (ja)
CA (1) CA2982575A1 (ja)
RU (1) RU2767145C2 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6995770B2 (ja) * 2016-06-15 2022-01-17 アイロボット・コーポレーション 自律移動ロボットを制御するためのシステムおよび方法
TWI659659B (zh) * 2017-09-06 2019-05-11 國立臺灣大學 車輛資訊及環境監測複合式車載系統及其資料處理及傳輸方法
CN108363556A (zh) * 2018-01-30 2018-08-03 百度在线网络技术(北京)有限公司 一种基于语音与增强现实环境交互的方法和系统
US10862971B2 (en) * 2018-04-27 2020-12-08 EMC IP Holding Company LLC Internet of things gateway service for a cloud foundry platform
US11406896B1 (en) 2018-06-08 2022-08-09 Meta Platforms, Inc. Augmented reality storytelling: audience-side
WO2020006142A1 (en) 2018-06-26 2020-01-02 Fanuc America Corporation Automatic dynamic diagnosis guide with augmented reality
US20200005165A1 (en) * 2018-06-28 2020-01-02 International Business Machines Corporation Dynamically determining a region of effectiveness of athletes during game play based on predictive factors
US11200811B2 (en) * 2018-08-03 2021-12-14 International Business Machines Corporation Intelligent recommendation of guidance instructions
DE102018213208A1 (de) * 2018-08-07 2020-02-13 MTU Aero Engines AG Verfahren zum Durchführen von Wartungsarbeiten an einer komplexen Montagebaugruppe
CN110858158B (zh) * 2018-08-23 2024-04-05 京东科技控股股份有限公司 分布式任务调度方法、装置、电子设备、存储介质
GB201817061D0 (en) 2018-10-19 2018-12-05 Sintef Tto As Manufacturing assistance system
JP7096544B2 (ja) * 2018-10-22 2022-07-06 株式会社Subaru ねじ締付装置及びねじ締付方法
US11890494B2 (en) 2018-11-09 2024-02-06 Qwake Technologies, Inc. Retrofittable mask mount system for cognitive load reducing platform
US10896492B2 (en) 2018-11-09 2021-01-19 Qwake Technologies, Llc Cognitive load reducing platform having image edge enhancement
US10417497B1 (en) 2018-11-09 2019-09-17 Qwake Technologies Cognitive load reducing platform for first responders
US10854007B2 (en) 2018-12-03 2020-12-01 Microsoft Technology Licensing, Llc Space models for mixed reality
US20200302331A1 (en) * 2019-03-20 2020-09-24 International Business Machines Corporation Intelligent problem solving using visual input
CN110011848B (zh) * 2019-04-03 2020-07-31 南方电网数字电网研究院有限公司 一种移动运维审计系统
JP7392281B2 (ja) * 2019-04-22 2023-12-06 株式会社ジェイテクト 作業支援システム
KR102104326B1 (ko) * 2019-06-28 2020-04-27 한화시스템 주식회사 증강현실 기반 정비 교육 시스템 및 방법
US11915376B2 (en) 2019-08-28 2024-02-27 Qwake Technologies, Inc. Wearable assisted perception module for navigation and communication in hazardous environments
US11958183B2 (en) * 2019-09-19 2024-04-16 The Research Foundation For The State University Of New York Negotiation-based human-robot collaboration via augmented reality
JP2021072001A (ja) * 2019-10-31 2021-05-06 キヤノン株式会社 プログラム、情報処理装置、情報処理方法、及び情報処理システム
US11894130B2 (en) 2019-12-26 2024-02-06 Augmenticon Gmbh Pharmaceutical manufacturing process control, support and analysis
TWI738214B (zh) * 2020-02-13 2021-09-01 國立虎尾科技大學 物聯網廣播設備名稱多對多狀態識別系統
JP2023045089A (ja) * 2021-09-21 2023-04-03 株式会社東芝 分析装置、分析システム、分析方法、プログラム、及び記憶媒体
CN116483192A (zh) * 2022-01-14 2023-07-25 台达电子工业股份有限公司 具有拆装检核功能的虚拟现实系统及其拆装检核方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003517158A (ja) 1999-11-12 2003-05-20 フェニックス ソリューションズ インコーポレーテッド 分散型リアルタイム音声認識システム
JP2003524814A (ja) 1999-03-02 2003-08-19 シーメンス アクチエンゲゼルシヤフト 情報データ、特にサービス報告書の情報データを音声ベースで検出する強調現実感システム
JP2005066787A (ja) 2003-08-26 2005-03-17 Matsushita Electric Works Ltd 締付け工具
JP2011131331A (ja) 2009-12-24 2011-07-07 Toyota Motor Corp 締結部材の締め付けトルク検査方法及び締め付けトルク検査システム
JP2013031900A (ja) 2011-08-02 2013-02-14 Mitsubishi Electric Corp ねじ締め装置およびねじ締め方法
JP2013166211A (ja) 2012-02-15 2013-08-29 Honda Motor Co Ltd 締付方法及び締付機の制御装置

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2002240192A1 (en) * 2001-01-30 2002-08-12 R. Christopher Decharms Methods for physiological monitoring, training, exercise and regulation
US7620894B1 (en) * 2003-10-08 2009-11-17 Apple Inc. Automatic, dynamic user interface configuration
WO2009079036A1 (en) * 2007-08-09 2009-06-25 Vialogy Llc Network centric sensor policy manager for ipv4/ipv6 capable wired and wireless networks
CN101159697B (zh) * 2007-11-23 2010-12-08 南京大学 无线传感器网络中时延限制下实现最小能耗路由的方法
US9183560B2 (en) * 2010-05-28 2015-11-10 Daniel H. Abelow Reality alternate
CA2825726C (en) * 2011-02-11 2019-05-21 Paul Ryznar Light guided assembly system and method
WO2012142250A1 (en) 2011-04-12 2012-10-18 Radiation Monitoring Devices, Inc. Augumented reality system
US9927940B2 (en) * 2011-06-03 2018-03-27 Massachusetts Institute Of Technology Method and apparatus accounting for independent cognitive capacities in the right vs. left half of vision
US9504414B2 (en) * 2012-04-13 2016-11-29 Adidas Ag Wearable athletic activity monitoring methods and systems
US9406170B1 (en) * 2012-07-16 2016-08-02 Amazon Technologies, Inc. Augmented reality system with activity templates
US10573037B2 (en) 2012-12-20 2020-02-25 Sri International Method and apparatus for mentoring via an augmented reality assistant
US9058053B2 (en) 2012-10-26 2015-06-16 The Boeing Company Virtual reality display system
US20140201629A1 (en) * 2013-01-17 2014-07-17 Microsoft Corporation Collaborative learning through user generated knowledge
US20150088547A1 (en) * 2013-09-22 2015-03-26 Ricoh Company, Ltd. Mobile Information Gateway for Home Healthcare
US9911351B2 (en) 2014-02-27 2018-03-06 Microsoft Technology Licensing, Llc Tracking objects during processes
US10810529B2 (en) * 2014-11-03 2020-10-20 Hand Held Products, Inc. Directing an inspector through an inspection
WO2016171894A1 (en) * 2015-04-20 2016-10-27 NSF International Computer-implemented methods for remotely interacting with performance of food quality and workplace safety tasks using a head mounted display
US9610476B1 (en) * 2016-05-02 2017-04-04 Bao Tran Smart sport device
US10022614B1 (en) * 2016-05-02 2018-07-17 Bao Tran Smart device
US10042604B2 (en) * 2016-07-01 2018-08-07 Metrik LLC Multi-dimensional reference element for mixed reality environments
KR20180043627A (ko) * 2016-10-20 2018-04-30 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치를 제어하는 방법
US10822108B2 (en) * 2017-03-06 2020-11-03 Textron Innovations Inc. Augmented reality system for pilot and passengers
US10692287B2 (en) * 2017-04-17 2020-06-23 Microsoft Technology Licensing, Llc Multi-step placement of virtual objects
US10127227B1 (en) * 2017-05-15 2018-11-13 Google Llc Providing access to user-controlled resources by automated assistants
US11056105B2 (en) * 2017-05-18 2021-07-06 Aiqudo, Inc Talk back from actions in applications
US11397558B2 (en) * 2017-05-18 2022-07-26 Peloton Interactive, Inc. Optimizing display engagement in action automation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003524814A (ja) 1999-03-02 2003-08-19 シーメンス アクチエンゲゼルシヤフト 情報データ、特にサービス報告書の情報データを音声ベースで検出する強調現実感システム
JP2003517158A (ja) 1999-11-12 2003-05-20 フェニックス ソリューションズ インコーポレーテッド 分散型リアルタイム音声認識システム
JP2005066787A (ja) 2003-08-26 2005-03-17 Matsushita Electric Works Ltd 締付け工具
JP2011131331A (ja) 2009-12-24 2011-07-07 Toyota Motor Corp 締結部材の締め付けトルク検査方法及び締め付けトルク検査システム
JP2013031900A (ja) 2011-08-02 2013-02-14 Mitsubishi Electric Corp ねじ締め装置およびねじ締め方法
JP2013166211A (ja) 2012-02-15 2013-08-29 Honda Motor Co Ltd 締付方法及び締付機の制御装置

Also Published As

Publication number Publication date
RU2767145C2 (ru) 2022-03-16
RU2017136560A3 (ja) 2021-02-10
CN108228345B (zh) 2023-06-02
KR102494817B1 (ko) 2023-02-02
KR20180066823A (ko) 2018-06-19
JP2018160232A (ja) 2018-10-11
EP3333654A1 (en) 2018-06-13
CN108228345A (zh) 2018-06-29
BR102017025093A2 (pt) 2018-06-26
RU2017136560A (ru) 2019-04-17
BR102017025093A8 (pt) 2023-04-25
US11348475B2 (en) 2022-05-31
CA2982575A1 (en) 2018-06-09
US20180165978A1 (en) 2018-06-14
EP3333654B1 (en) 2022-03-09

Similar Documents

Publication Publication Date Title
JP7184511B2 (ja) 対話形式で認知する作業支援システム及び方法
JP6386786B2 (ja) 複合システムの構成要素上で実行されるタスクをサポートするユーザの追跡
US10366521B1 (en) Augmented reality assembly assistance and monitoring
KR101990284B1 (ko) 음성인식을 이용한 지능형 인지기술기반 증강현실시스템
US20130010068A1 (en) Augmented reality system
WO2016179185A1 (en) Head-mounted display for performing ophthalmic examinations
EP3745301A1 (en) System and method for integrating machine learning and crowd-sourced data annotation
US11817003B2 (en) Content presentation system and content presentation method
US20200057432A1 (en) Automated supervision and inspection of assembly process
CN107422686A (zh) 用于允许对一个或更多个装置的远程控制的设备
JP2019144716A (ja) 非定常状態検出システム、及び非定常状態検出方法
US10593223B2 (en) Action evaluation apparatus, action evaluation method, and computer-readable storage medium
JP2021018751A (ja) プログラム、情報処理方法及び情報処理装置
US20170316240A1 (en) Controlling the output of contextual information using a computing device
US20230260415A1 (en) Remote expert method and system utilizing quantitative quality assurance in mixed reality
US11455750B2 (en) Operator characteristic-based visual overlays
WO2022212622A1 (en) Digital companion for perceptually enabled task guidance
US11491655B2 (en) Alarm notification system for robot
JP2020091556A (ja) 作業支援装置、作業支援システム、作業支援方法及びプログラム
US20230377283A1 (en) Control structures for procedural guidance systems
US20240161645A1 (en) Digital companion for perceptually enabled task guidance
US20240135525A1 (en) Method and system of providing assistance during an operation performed on an equipment
US20220301266A1 (en) Augmented reality guided inspection
CN115943484A (zh) 半导体制造环境中的自动化协助
KR20210070677A (ko) 로봇의 이상 상태를 출력하는 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221124

R150 Certificate of patent or registration of utility model

Ref document number: 7184511

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150