JP7210169B2 - コンテンツ提示システムおよびコンテンツ提示方法 - Google Patents

コンテンツ提示システムおよびコンテンツ提示方法 Download PDF

Info

Publication number
JP7210169B2
JP7210169B2 JP2018124690A JP2018124690A JP7210169B2 JP 7210169 B2 JP7210169 B2 JP 7210169B2 JP 2018124690 A JP2018124690 A JP 2018124690A JP 2018124690 A JP2018124690 A JP 2018124690A JP 7210169 B2 JP7210169 B2 JP 7210169B2
Authority
JP
Japan
Prior art keywords
work
content
worker
training
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018124690A
Other languages
English (en)
Other versions
JP2020003708A (ja
Inventor
慎太郎 土屋
貴之 藤原
健太郎 大西
克朗 菊地
賀仁 成田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Systems Ltd
Original Assignee
Hitachi Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Systems Ltd filed Critical Hitachi Systems Ltd
Priority to JP2018124690A priority Critical patent/JP7210169B2/ja
Priority to PCT/JP2018/031354 priority patent/WO2020003547A1/ja
Priority to EP18924092.2A priority patent/EP3637389A4/en
Priority to US16/626,031 priority patent/US11367365B2/en
Publication of JP2020003708A publication Critical patent/JP2020003708A/ja
Priority to US17/747,560 priority patent/US11817003B2/en
Application granted granted Critical
Publication of JP7210169B2 publication Critical patent/JP7210169B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/0069Engineering, e.g. mechanical, electrical design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0635Risk analysis of enterprise or organisation activities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06398Performance of employee with respect to a job function
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Description

本発明は、現場の作業者や訓練者にコンテンツを提示するコンテンツ提示システムおよびコンテンツ提示方法に関する。
作業者が現場で保守・点検等の作業(現場作業)を行う前に、作業者に所要の技能・知識を習得させるための訓練が行われている。通常、訓練は、講師が現場作業における危険個所やチェックすべきポイントを説明する集合教育の形式で行われる。訓練では、実際に作業対象となる機器を使って講師が説明することもある。
一方、現場作業では、作業手順の情報、作業対象機器の情報、使用する作業工具の情報など、様々な情報が必要となる。現場で作業する作業者に必要な情報を提供して現場作業を支援する支援システムは既に知られている(例えば、特許文献1参照)。
特許文献1には、現場業務、異常事態への対処、現場作業者の訓練を総合的に支援するシステムが開示されている。具体的には、現場業務を支援する情報と現場業務に想定される異常事態に関する情報を備えるデータベースを利用して、現場作業や訓練を行うようになっている。
現場作業では予期せぬ事故が発生したり、作業を失敗することもある。現場で発生した事故や作業の失敗は、報告書などで訓練現場にフィードバックされている。そして、報告書に記載の事故や失敗の情報をデータベースに蓄積し、作業者が利用できるようにしている。
特開2001-331216号公報
しかしながら、特許文献1に記載の従来の支援システムにあっては、現場作業で発生した失敗等を効率的に訓練コンテンツに反映することは何ら考慮されていなかった。また、従来の支援システムでは、訓練コンテンツを作成した後に、現場に導入された機器の仕様や現場環境が変わった場合、訓練コンテンツをメンテナンスすることに多くの工数がかかっていた。
本発明は、上述のような課題を解決するためになされたものであり、現場作業で発生した失敗等を訓練コンテンツに効率的に反映することができ、訓練コンテンツのメンテナンスが容易なコンテンツ提示システムおよびコンテンツ提示方法を提供することを目的とする。
本発明に係るコンテンツ提示システムは、上記目的を達成するため、作業対象機器の3次元形状情報と作業手順に基づく訓練用コンテンツを訓練者(3)に提示し、前記作業対象機器の3次元形状情報を基に拡張現実を用いて作業手順を提示するコンテンツ提示システム(1)であって、前記作業対象機器の3次元形状情報を含む前記訓練用コンテンツおよび前記作業手順の作業動作についての評価基準情報を記憶する記憶部と前記訓練用コンテンツを前記訓練者に提示可能に出力する出力部とを有する第1のコンテンツ出力装置(430)と、前記作業対象機器の3次元形状情報を基に拡張現実による作業手順を示す第2のコンテンツ出力装置(330)と、現場の作業者(2)の作業中の3次元動作を少なくとも身体動作の測定情報として取得する動作測定装置(117)と、前記作業動作の測定情報に基づいて前記作業動作を評価するための評価基準情報を基に作業の成否を判定する判定装置(335)と、前記作業動作の測定情報および前記判定装置の判定結果に基づいて前記訓練用コンテンツを作成および更新するコンテンツ作成装置(340)と、を備え、前記判定装置は、前記動作測定装置からの前記測定情報に基づいて前記作業者の所定の身体動作が検出されたとき、該身体動作に及ぶまでの模範作業者の前記作業中の特定段階の作業動作の測定情報を基に前記作業が失敗か否かを判定し、前記コンテンツ作成装置は、前記判定装置での判定結果が前記作業の失敗であると判定されたとき、前記失敗の要因を抑制するよう前記訓練用コンテンツを更新することを特徴としている。
上述のように、本コンテンツ提示システムは、動作測定装置が、現場の作業者の作業中の3次元動作を少なくとも身体動作の測定情報として取得し、判定装置が、作業動作の測定情報に基づいて作業動作を評価するための評価基準情報を基に、作業が失敗か否かを判定する。そして、作業が失敗であると判定されたとき、コンテンツ作成装置が、失敗の要因を抑制するように訓練用コンテンツを更新する。すなわち、作業現場と訓練が効率的かつ有機的に連携できるシステムとなっている。
具体的には、判定装置は、動作測定装置からの測定情報に基づいて作業者の所定の身体動作が検出されたとき、該身体動作に及ぶまでの模範作業者の作業中の特定段階の作業動作の測定情報を基に作業が失敗か否かを判定する。そして、コンテンツ作成装置または第1のコンテンツ出力装置は、判定装置での判定結果が作業の失敗であると判定されたとき、失敗の要因を抑制するよう訓練用コンテンツを更新する。
この構成により、判定結果が作業の失敗であると判定されたとき失敗の要因を抑制するよう訓練用コンテンツを更新するため、現場作業で発生した事故、手順ミス、使用工具の間違いなどの作業の失敗(以下、失敗と総称する)を、訓練教育で使用している訓練コンテンツに効率的に反映することができ、訓練コンテンツのメンテナンスも容易になる。
また、本発明のコンテンツ提示システムでは、前記判定装置は、前記動作測定装置からの前記作業者の前記作業手順に従った前記作業の測定情報を、前記模範作業者による前記作業の測定情報と比較して、両作業動作の整合度合を判定し、前記コンテンツ作成装置は、前記判定装置の判定結果に応じて、前記整合度合を高めるよう前記訓練用コンテンツを更新するようにしてもよい。
この構成により、模範作業者の作業動作を効果的に訓練者に教えるように、訓練コンテンツを更新することができる。
また、本発明のコンテンツ提示システムでは、前記判定装置は、前記特定段階の作業動作について前記整合度合が所定値以下であると判定されたとき、前記特定段階の作業動作に対応する前記作業者の特定部位の3次元の変移および作業時間を含む測定情報を基に前記作業の失敗か否かを判定するようにしてもよい。
この構成により、作業者の作業の失敗を確実に検知することができるので、訓練コンテンツに効率的に反映することができる。
また、本発明のコンテンツ提示システムは、前記作業者が用いる作業者端末(10)と管理サーバ(30、40)とをさらに含み、前記動作測定装置が前記作業者端末に備えられ、前記第1のコンテンツ出力装置、前記第2のコンテンツ出力装置、前記判定装置、および前記コンテンツ作成装置が、それぞれ前記作業者端末にネットワーク接続される前記管理サーバで構成されていてもよい。
この構成により、作業現場と訓練現場が離れている場合であっても、作業者の作業の失敗の情報を訓練コンテンツに効率的に反映することができる。
また、本発明のコンテンツ提示方法は、作業者端末(10)と該作業者端末に接続された管理サーバ(30、40)とを含むコンテンツ提示システムを用いて、作業対象機器の3次元形状情報と作業手順に基づく訓練用コンテンツを訓練者(3)に提示し、前記作業対象機器の3次元形状情報を基に拡張現実を用いて作業手順を提示するコンテンツ提示方法であって、前記管理サーバが、前記作業対象機器の3次元形状情報を含む前記訓練用コンテンツおよび前記作業手順の作業動作についての評価基準情報を記憶するとともに、前記訓練用コンテンツを前記訓練者に提示可能に出力する第1のコンテンツ出力ステップと、前記管理サーバが、前記作業対象機器の3次元形状情報を基に拡張現実による作業手順を示す第2のコンテンツ出力ステップと、前記作業者端末が、現場の作業者(2)の作業中の3次元動作を少なくとも身体動作の測定情報として取得する動作測定ステップと、前記管理サーバが、前記作業動作の測定情報に基づいて前記作業動作を評価するための評価基準情報を基に、作業の成否を判定する判定ステップと、前記管理サーバが、前記作業動作の測定情報および前記判定ステップの判定結果に基づいて前記訓練用コンテンツを作成および更新するコンテンツ作成ステップと、を備え、前記判定ステップでは、前記動作測定ステップで取得された前記測定情報に基づいて前記作業者の所定の身体動作が検出されたとき、該身体動作に及ぶまでの模範作業者の前記作業中の特定段階の作業動作の測定情報を基に前記作業が失敗か否かを判定し、前記コンテンツ作成ステップでは、前記判定ステップでの判定結果が前記作業の失敗であると判定されたとき、前記失敗の要因を抑制するよう前記訓練用コンテンツを更新することを特徴としている。
この構成により、判定結果が作業の失敗であると判定されたとき失敗の要因を抑制するよう訓練用コンテンツを更新するため、現場作業の失敗(例えば、手順ミス、使用工具の間違い、事故、作業の失敗など)の情報を、訓練教育で使用している訓練コンテンツに効率的に反映することができ、訓練コンテンツのメンテナンスも容易になる。
本発明によれば、現場作業で発生した失敗を効率的に訓練コンテンツに反映することができ、訓練コンテンツのメンテナンスが容易なコンテンツ提示システムを提供することができる。
本発明の実施形態に係るコンテンツ提示システムの構成図である。 本発明の実施形態に係るコンテンツ提示システムのネットワーク接続された構成図である。 図1に示される作業者端末の構成図である。 図1に示される訓練者端末の構成図である。 図1に示されるシステム管理サーバの構成図である。 図1に示される訓練コンテンツ管理サーバの構成図である。 図3に示される作業行動情報記録データベースの構成図である。 図3に示される作業者情報記録データベースの構成図である。 図3に示される作業対象機器情報記録データベースの構成図である。 図4に示される訓練端末データベースの構成図である。 図5に示される作業分析結果データベースの構成図である。 図6に示される訓練コンテンツデータベースの構成図である。 本発明の実施形態に係るコンテンツ提示システムを用いて行う現場作業のシーケンス図である。 本発明の実施形態に係るコンテンツ提示システムを用いて行う作業分析処理のシーケンス図である。 本発明の実施形態に係るコンテンツ提示システムを用いて行う訓練のシーケンス図である。 本発明の実施形態に係るコンテンツ提示方法を説明するフローチャートである。 作業者端末の画面の表示例(正常時)を示す説明図である。 作業者端末の画面の表示例(異常時)を示す説明図である。 訓練者端末の画面の表示例(正常時)を示す説明図である。 訓練者端末の画面の表示例(異常時)を示す説明図である。
以下、本発明の実施形態に係るコンテンツ提示システムについて、図面を参照して説明する。
本実施形態に係るコンテンツ提示システム1は、現場で機器の保守・点検等の作業を行う作業者2や訓練現場の訓練者3に作業手順などの必要な情報を提示するとともに、訓練者3に訓練コンテンツを提示するシステムである。
具体的には、コンテンツ提示システム1は、作業を行う対象の機器(作業対象機器)4の3次元形状情報と作業手順に基づく訓練用コンテンツを訓練者3に提示するようになっている。また、コンテンツ提示システム1は、現場の作業者2や訓練者3に、作業対象機器4やそれに対応する訓練対象機器5の3次元形状情報を基に拡張現実を用いて作業手順を提示するようになっている。
図1は、本発明の実施形態に係るコンテンツ提示システム1の構成を示す構成図である。図2は、ネットワーク接続されたコンテンツ提示システム1の構成図である。図1および図2に示すように、コンテンツ提示システム1は、作業者端末10と、訓練者端末20と、システム管理サーバ30と、訓練コンテンツ管理サーバ40とを備え、それらがネットワーク8、9を介して接続されている。
本発明の実施形態に係るコンテンツ提示システム1は、ネットワークを介さない構成であってもよく、また、システム管理サーバ30と訓練コンテンツ管理サーバ40とが統合されて1つの管理サーバを構成するようにしてもよい。
(作業者端末)
まず、作業者端末10について説明する。
作業者端末10は、例えば、ヘッドマウントディスプレイ(HMD)、スマートフォン、タブレット端末などである。また、作業者端末10は、作業者2に取り付けられた生体センサから生体情報を取得するようになっている。生体情報としては、例えば、心拍数、血圧、体温、発汗量などが挙げられる。
図3は、作業者端末10の構成を示す構成図である。
図3に示すように、作業者端末10は、制御部100、各種処理プログラムを格納したメモリ101、各種データベースを格納した端末内部ストレージ102、通信部107、録音部106、録画部105、表示部103、音声出力部104、認証部108、空間認識部109、位置検出部110、外部機器接続部111、および電源供給部112を備えている。
制御部100は、CPU、ROM、RAM、入出力インタフェース、外部記憶装置等を有するコンピュータを用いる構成であってもよく、その機能の一部または全部は、メモリ101に記憶された各種処理プログラムをCPUで実行することにより実現することができる。
通信部107は、ネットワークを介してシステム管理サーバ30および訓練コンテンツ管理サーバ40と通信を行うようになっている。
録音部106は、マイクを備え、作業時の作業者2の音声、作業対象機器4から発する音、周囲の音などを録音するようになっている。
録画部105は、カメラまたはビデオカメラを備え、例えば、作業対象機器4と作業者2の腕が映り込むようにして、作業を録画するようになっている。
表示部103は、作業手順を含んだ作業コンテンツを、拡張現実の技術により表示するものであり、具体的には、ヘッドマウントディスプレイ(HMD)、スマートフォン、タブレット端末など表示部で構成される。
音声出力部104は、スピーカを備え、例えば、作業手順を含んだ作業コンテンツを拡張現実の技術により表示部103に表示する際に併せて、または単独で、作業者2に対して音声により作業手順を案内したり、音声により注意喚起をするようになっている。
認証部108は、公知の認証方法を用いて作業者2の利用資格を確認するものであり、利用資格を有する作業者2のみが作業者端末10を利用できるようになっている。
空間認識部109は、ToF(Time Of Flight)センサを備え、作業対象機器4と作業者2との距離を測定することにより、作業対象機器4に対する作業者2の空間的な位置関係を検知するようになっている。これにより、例えば、作業者2と作業対象機器4との接触を検知できるようになっている。
位置検出部110は、GPS(Global Positioning System)により作業者端末10の位置を検出できるようになっている。
外部機器接続部111は、必要に応じて、例えば、モニター装置、プリンタ装置、外部記憶装置などの外部機器と接続するようになっている。
電源供給部112は、作業者端末10を駆動するのに必要な電力を供給するようになっている。
メモリ101には、映像記録処理部113、音声記録処理部114、情報重畳処理部115、情報送受信処理部116、3次元動作検出処理部117、位置情報処理部118、空間認識処理部119、画像認識部121、ユーザ生体情報取得部122、および現場判定部127を構成する各種処理プログラムが格納されている。これらの処理プログラムは、制御部100のCPUにより実行されることにより、それぞれの処理機能を実現できるようになっている。
映像記録処理部113は、制御部100のCPUにより処理プログラムが実行されることにより、録画部105を駆動、制御して作業の映像を記録(録画)する処理を実行するようになっている。
音声記録処理部114は、制御部100のCPUにより処理プログラムが実行されることにより、録音部106を駆動、制御して作業中の音声を記録する処理を実行するようになっている。
情報重畳処理部115は、制御部100のCPUにより処理プログラムが実行されることにより、例えば、拡張現実の画面において作業手順の情報を重畳して表示する処理を実行するようになっている。
情報送受信処理部116は、制御部100のCPUにより処理プログラムが実行されることにより、通信部107を駆動、制御してシステム管理サーバ30または訓練コンテンツ管理サーバ40と情報を送受する処理を実行するようになっている。また、作業者2に取り付けられた生体センサが無線通信機能を有し、生体情報を送信できる場合には、情報送受信処理部116が通信部107を駆動、制御して生体センサから送信された作業者2の生体情報を受信するようにしてもよい。
3次元動作検出処理部117は、制御部100のCPUにより処理プログラムが実行されることにより、作業映像、画像認識結果、空間認識結果、作業対象機器4の3次元形状情報などにより、現場の作業者2の作業中の3次元動作を測定、検出する処理を実行するようになっている。3次元動作は、例えば、作業者2の身体の特定部位(腕、手首など)の特徴点(関節、指先など)についての、3次元空間内の位置の変移の情報として検出できる。なお、3次元動作検出処理部117が本発明の動作測定装置に対応する。
位置情報処理部118は、制御部100のCPUにより処理プログラムが実行されることにより、位置検出部110を駆動、制御して作業者端末10の位置を検出する処理を実行するようになっている。
空間認識処理部119は、制御部100のCPUにより処理プログラムが実行されることにより、空間認識部109を駆動、制御して作業対象機器4と作業者2との距離を測定する処理を実行するようになっている。
画像認識部121は、制御部100のCPUにより処理プログラムが実行されることにより、録画部105により録画された画像に対し、画像認識処理を実行し、作業対象機器4や作業者2(腕、手首など)や作業工具6を認識できるようになっている。
ユーザ生体情報取得部122は、制御部100のCPUにより処理プログラムが実行されることにより、作業者2に取り付けられた生体センサから作業者2の生体情報を取得できるようになっている。
現場判定部127は、制御部100のCPUにより処理プログラムが実行されることにより、現場での作業者2の作業の3次元動作が、対応する手順での基準の3次元動作から乖離しているか否かを判定するようになっている。基準の3次元動作は、模範作業者が作業を行ったときの3次元動作であり、事前に測定し情報を取得しておく。また、現場判定部127が、基準の3次元動作に比べて現場作業における作業者2の3次元動作の乖離が大きいと判定したとき、作業者端末10の表示部103に注意喚起の表示を行うようにしてもよい。
端末内部ストレージ102には、作業行動情報記録データベース123、作業者情報記録データベース124、および作業対象機器情報記録データベース125が格納されている。
図7は、作業行動情報記録データベース123の構成を示す構成図である。図7に示すように、作業行動情報記録データベース123の各レコード(行)に記録される項目は、作業者No、観察部位(特定部位)、作業No、手順No、正常動作No、記録録画、記録音声、動作整合度、作業位置変移、および作業時間である。
作業者Noは、各作業者に一意に割り当てられた識別番号である。観察部位は、例えば、作業者2の腕、手首、足などであり、作業内容により観察すべき部位が定められる。作業Noは、作業を特定するために一意に割り当てられた番号である。手順Noは、作業Noで特定される作業についての作業手順のうち、どの手順かを特定する番号である。正常動作Noは、正常動作(基準動作)を特定するために一意に割り当てられた番号である。
記録動画は、作業を記録した動画ファイル名が記載されており、システム管理サーバ30のストレージ302等に別途保存された記録動画にアクセスできるようになっている。記録音声は、作業時に音声を記録した音声ファイル名が記載されており、システム管理サーバ30のストレージ302等に別途保存された記録音声にアクセスできるようになっている。
動作整合度は、模範作業者の3次元動作を3次元基準動作(正常動作)とし、3次元基準動作に対して作業者の3次元動作がどの程度整合しているかを示す指標である。作業位置変移は、動作整合度の低い対象の動作に対して、観察部位の特徴点の位置変移を記録したものである。例えば、図7において、上から3番目のレコード(行)と7番目のレコード(行)は動作整合度がそれぞれ20%と60%となっており、他と比較して低いことが分かる。このような場合に、観察部位である作業者2の腕の特徴点の位置変移を記録しておく。作業時間は、作業に要した時間である。
作業行動情報記録データベース123には、作業者2が作業Noと手順Noで特定される作業を行うごとに、レコード(行)データが追加されるようになっている。
図8は、作業者情報記録データベース124の構成を示す構成図である。図8に示すように、作業者情報記録データベース124の各レコード(行)に記録される項目は、作業者No、作業No、手順No、心拍数、血圧、体温、発汗、作業時間である。
作業者No、作業No、手順No、作業時間は、作業行動情報記録データベース123と同じである。心拍数、血圧、体温、発汗は、作業者2に取り付けられた生体センサから取得した情報である。
作業全体の平均値と比較して大きく乖離している項目を見つけることにより、事故や失敗の発生した作業を抽出することができる。例えば、図8の上から3番目のレコード(行)は、他と比べて、心拍数、血圧、発汗が多いことが分かる。また、上から7番目のレコード(行)は、体温が他と比べて低いことが分かる。これらの情報から、事故や失敗の発生した作業および原因(人為的な原因か否か等)を推定することができる。
作業者情報記録データベース124には、作業者2が作業Noと手順Noで特定される作業を行うごとに、レコード(行)データが追加されるようになっている。
図9は、作業対象機器情報記録データベース125の構成を示す構成図である。図9に示すように、作業対象機器情報記録データベース125の各レコード(行)に記録される項目は、作業者No、観察機器、作業No、手順No、正常動作No、記録動画、記録音声、動作整合度、およびモデルである。
作業者No、作業No、手順No、正常動作No、記録動画、記録音声、動作整合度は、作業行動情報記録データベース123と同じである。
観察機器は、作業Noの手順Noで特定される作業の対象となる機器あるいは観察対象となる機器(例えば、ねじ、ワイヤ、カバー、ハンドル、キーボードなど)を示す。モデルは、作業対象機器4の3次元形状情報を含んだ3Dモデルファイル名が記載されており、端末内部ストレージ102等に別途保存された3Dモデルファイルにアクセスできるようになっている。3Dモデルファイルは、システム管理サーバ30のストレージ302や、訓練コンテンツ管理サーバ40の訓練コンテンツストレージ402に格納しておいてもよいし、いずれかのストレージに格納し、他で使用する場合は転送するようにしてもよい。
作業対象機器情報記録データベース125の各レコード(行)には、作業者端末10で取得された情報が格納されている。また、作業対象機器情報記録データベース125の各レコード(行)には、作業者端末10の表示部103などに配信する情報も格納されている。
作業対象機器情報記録データベース125には、作業者2が作業Noと手順Noで特定される作業を行うごとに、レコード(行)データが追加されるようになっている。
(訓練者端末)
次に訓練者端末20について説明する。
訓練者端末20は、例えば、ヘッドマウントディスプレイ(HMD)、スマートフォン、タブレット端末などである。また、訓練者端末20は、訓練者3に取り付けられた生体センサから訓練者3の生体情報を取得するようになっている。生体情報としては、例えば、心拍数、血圧、体温、発汗量などが挙げられる。
図4は、訓練者端末20の構成を示す構成図である。
図4に示されるように、訓練者端末20は、制御部200、各種処理プログラムを格納したメモリ201、各種データベースを格納した訓練コンテンツストレージ202、通信部207、録音部206、録画部205、表示部203、音声出力部204、認証部208、空間認識部209、位置検出部210、外部機器接続部211、および電源供給部212を備えている。
訓練者端末20の制御部200、各種処理プログラムを格納したメモリ201、通信部207、録音部206、録画部205、表示部203、音声出力部204、認証部208、空間認識部209、位置検出部210、外部機器接続部211、および電源供給部212は、作業者端末10の対応する構成要素と同じ機能を有するので、詳細な説明は省略する。
メモリ201には、映像記録処理部213、音声記録処理部214、情報重畳処理部215、情報送受信処理部216、3次元動作検出処理部217、位置情報処理部218、空間認識処理部219、画像認識部221、ユーザ生体情報取得部222、および現場判定部227を構成する各種処理プログラムが格納されている。これらの処理プログラムは、制御部200のCPUにより実行されることにより、それぞれの処理機能を実現できるようになっている。上記処理プログラムは、作業者端末10の対応する処理プログラムと同様の機能を実現するので、詳細な説明は省略する。
訓練コンテンツストレージ202には、訓練行動情報記録データベース223、訓練者情報記録データベース224、訓練対象機器情報記録データベース225、および訓練端末データベース226が備えられている。
訓練行動情報記録データベース223、訓練者情報記録データベース224、訓練対象機器情報記録データベース225については、作業者が訓練者に代わった点を除き、作業者端末10の対応するデータベース構造と同じであるので、詳細な説明は省略する。
図10は、訓練端末データベース226の構成を示す構成図である。図10に示すように、訓練端末データベース226の各レコード(行)に記録される項目は、作業者No、対象機器、対象部位、手順No、表示仕様定義No、表示内容、作業動画、作業音声である。
作業Noは、作業を特定するために一意に割り当てられた番号である。対象機器は、訓練で使用する機器(例えば、ねじ、ワイヤ、カバー、キーボードなど)を示す。対象部位は、例えば、作業者2の腕、手首などであり、作業内容によって定められる。手順Noは、作業Noで特定される作業についての作業手順のうち、どの手順かを特定する番号である。
表示仕様定義Noは、画面の表示仕様を定めた表示仕様定義を特定するために一意に割り当てられた番号である。表示内容は、例えば、注意喚起を行うのか、手順の説明を行うのか等の表示内容を示す。
作業動画は、訓練時に訓練者に提示する作業動画の動画ファイル名が記載されており、訓練コンテンツ管理サーバ40のストレージ402等に別途保存された作業動画にアクセスできるようになっている。作業音声は、訓練時に訓練者に提示する作業音声を記録した音声ファイル名が記載されており、訓練コンテンツ管理サーバ40のストレージ402等に別途保存された作業音声にアクセスできるようになっている。
訓練コンテンツ管理サーバ40から、訓練に必要なデータだけが配信され、訓練端末データベース226に格納されるようになっている。
(システム管理サーバ)
次に、システム管理サーバ30について説明する。
図5は、システム管理サーバ30の構成図である。
図5に示すように、システム管理サーバ30は、制御部300、各種処理プログラムを格納したメモリ301、各種データベースを格納したストレージ302、通信部307、表示部303、認証部308、外部機器接続部311、電源供給部312、作業端末管理部330、作業分析/解析部335、および訓練コンテンツ管理部340を備えている。
なお、作業端末管理部330が本発明の第2のコンテンツ出力装置に対応し、作業分析/解析部335が本発明の判定装置に対応し、訓練コンテンツ管理部340が本発明のコンテンツ作成装置に対応する。
制御部300は、CPU、ROM、RAM、入出力インタフェース、外部記憶装置等を有するコンピュータを用いる構成であってもよく、システム管理サーバ30の機能の一部または全部は、メモリ301に記憶された各種処理プログラムをCPUで実行することにより実現することができる。
通信部307は、ネットワークを介して作業者端末10および訓練コンテンツ管理サーバ40と通信を行うようになっている。
表示部303は、液晶ディスプレイ等で構成され、作業者2の作業映像やシステムの管理状況等を表示できるようになっている。
認証部308は、公知の認証方法を用いてユーザの利用資格を確認するものであり、利用資格を有するユーザのみがシステム管理サーバ30を利用できるようになっている。
外部機器接続部311は、必要に応じて、例えば、モニター装置、プリンタ装置、外部記憶装置などの外部機器と接続できるようになっている。
電源供給部312は、システム管理サーバ30を駆動するのに必要な電力を供給するようになっている。
<メモリ>
メモリ301には、映像データ処理部313、音声データ処理部314、情報重畳処理部315、情報送受信処理部316、3次元データ処理部317、位置データ処理部318、空間データ処理部319、画像処理部321、および音声認識/解析部322を構成する各種処理プログラムが格納されている。これらの処理プログラムは、制御部300のCPUにより実行されることにより、それぞれの処理機能を実現できるようになっている。
映像データ処理部313は、制御部300のCPUにより処理プログラムが実行されることにより、作業者端末10から送信された作業映像データに対して、各種データ処理を行うようになっている。
音声データ処理部314は、制御部300のCPUにより処理プログラムが実行されることにより、作業者端末10から送信された作業音声データに対して、各種データ処理を行うようになっている。
情報重畳処理部315は、制御部300のCPUにより処理プログラムが実行されることにより、例えば、拡張現実の画面において作業手順の情報を重畳して表示する処理を実行するようになっている。
情報送受信処理部316は、制御部300のCPUにより処理プログラムが実行されることにより、通信部307を駆動、制御して作業者端末10または訓練コンテンツ管理サーバ40と情報を送受する処理を実行するようになっている。
3次元データ処理部317は、制御部300のCPUにより処理プログラムが実行されることにより、訓練コンテンツの作成、変更や作業記録の分析などにおいて、作業対象機器4の3次元形状情報を考慮しつつ、3次元データに対して、各種データ処理を実行するようになっている。例えば、作業者2の3次元動作を認識するためのデータ処理などを行う。
位置データ処理部318は、制御部300のCPUにより処理プログラムが実行されることにより、作業者端末10から送信された位置データに対して、各種データ処理を実行するようになっている。
空間データ処理部319は、制御部300のCPUにより処理プログラムが実行されることにより、作業者端末10から送信された空間(距離)データに対して、各種データ処理を実行するようになっている。
画像処理部321は、制御部300のCPUにより処理プログラムが実行されることにより、画像認識等のデータ処理を実行するようになっている。画像認識により、例えば、作業対象機器4、作業者2の腕や手、作業工具6などを認識することができる。
音声認識/解析部322は、制御部300のCPUにより処理プログラムが実行されることにより、作業者端末10から送信された音声データに対して、音声認識等のデータ処理を実行するようになっている。音声認識により、例えば、作業者2の音声、作業対象機器4の発する音などを認識することができる。
<作業端末管理部>
作業端末管理部330は、作業コンテンツ配信部331、および機器状態管理部332を備えている。なお、作業端末管理部330が、本発明の第2のコンテンツ出力装置に対応している。
作業コンテンツ配信部331は、作業コンテンツを作業者端末10に配信するようになっている。別言すれば、作業コンテンツ配信部331は、作業対象機器4の3次元形状情報を基に拡張現実により作業手順を現場の作業者2に提示するようになっている。作業コンテンツは、作業者端末10の表示部103に作業現場の実際の映像の上に拡張現実を用いて重畳されて表示される映像と、音声出力部104より出力される音声とを含んで構成される。作業コンテンツは、映像だけでもよいし、音声だけでもよい。
具体的には、作業コンテンツは、例えば、作業者端末10の表示部103への作業手順の説明の表示、注意喚起の表示、環境情報およびステータス情報の表示を含む。作業手順の説明としては、例えば「手順3:ワイヤーをねじで固定してください」という表示が挙げられる。環境情報としては、例えば現場環境の温度、湿度が挙げられる。ステータス情報としては、手順整合度、作業の進捗度、経過時間、作業者の体調などが挙げられる。
注意喚起の表示は、例えば「手順が間違っています!!」などであり、例えば、現場判定部127が、基準の3次元動作に比べて現場作業における作業者2の3次元動作の乖離が大きいと判定したとき、表示部103に表示するようにしてもよい。
機器状態管理部332は、作業対象機器4を含めて作業に関係する機器の仕様およびその状態、ならびに作業現場の環境に関する情報を記憶し、管理するようになっている。
<作業分析/解析部>
作業分析/解析部335は、作業行動記録集計部336、行動要因分析部337、作業記録分析部338、および分析結果出力部339を備えている。なお、作業分析/解析部335が本発明の判定装置に対応する。
作業行動記録集計部336は、作業者2による作業行動の記録を取得し、集計するようになっている。作業者2の作業行動の情報は、ストレージ302に格納された作業行動情報記録データベース323に記憶されている。
行動要因分析部337は、作業行動の要因、例えば作業の失敗の要因を分析するようになっている。作業の失敗の要因は、作業者の体調によるものか、体調に問題なければ、不注意によるものか、連絡ミスか、作業手順やマニュアルに問題があるのか、など様々な観点から分析する必要がある。作業の失敗の要因は、作業者2あるいはその監督者が分析して入力するようにしてもよい。
作業記録分析部338は、作業記録(作業行動情報、作業者情報、作業対象機器情報など)を、動作整合度、使用工具の適否、作業時間、作業対象機器との接触の有無、生体情報などの観点から分析し、作業の成否を判断するようになっている。
例えば、作業者端末10の3次元動作検出処理部117からの作業者2の作業の測定情報を、模範作業者による作業の測定情報と比較して、両作業動作の整合度合を算出するようにしてもよい。
整合度合は、例えば、同一の作業について模範作業者の特定部位(腕、手首、足など)の特徴点(例えば関節部位)の3次元位置変移を基準に、作業者2の対応する特定部位の特徴点の3次元位置変移の基準からの乖離を算出することにより取得するようにしてもよい。整合度合は、動作の開始時や終了時で算出してもよいし、作業の開始時と終了時の間で所定間隔で数回算出するようにしてもよいし、その平均を算出してもよい。乖離が所定の基準値を超えた場合に、作業の失敗であると判定するようにしてもよい。
また、作業者2が使用する工具6を作業映像の画像認識により識別して、その作業に適した工具を使用しているか否かを判定するようにしてもよい。不適切な工具を使用している場合には、作業の失敗であると判定するようにしてもよい。
また、作業者2の作業映像の画像認識により、作業手順に従った作業をしているか否かを判定するようにしてもよい。手順ミス(順番の誤り)、手順抜けなど指示された作業手順に従っていないことが判明すると、作業の失敗であると判定するようにしてもよい。
また、作業者2の作業にかかった時間が、基準時間を超えると、作業の失敗であると判定するようにしてもよい。基準時間は、模範作業者の作業時間および他の作業者の作業時間を基に、例えば平均作業時間の2倍等に適宜に設定することができる。
また、作業対象機器4またはその一部が高温等の理由で接触不可の場合、作業者2の作業映像の画像認識により、作業者2または作業者2が使用する工具6が、作業対象機器4に接触したか否かを判定するようにしてもよい。この判定において、画像認識の情報に加えて、または単独で、作業者端末10の空間認識部109が取得した空間データ(作業者2から作業対象機器4までの距離の情報)を利用して、接触判定をおこなってもよい。接触している場合には、作業の失敗であると判定するようにしてもよい。
分析結果出力部339は、作業記録の分析結果を作業分析結果データベース326等に出力するようになっている。
また、判定装置としての作業分析/解析部335は、記憶部を有し、現場での作業動作の測定情報に基づいて作業動作を評価するための評価基準情報を記憶している。評価基準情報は、作業を予め実行する模範作業者の作業動作を測定情報として取得し、該測定情報に基づき該作業のうち特定段階の作業動作について作成しておいてもよい。
具体的には、例えば、作業者端末10の現場判定部127が、現場作業における作業者2の身体の3次元動作が基準の3次元動作から乖離していると判定した場合に、作業記録分析部338は、該身体動作に及ぶまでの模範作業者の該作業中の特定段階の作業動作の測定情報(すなわち評価基準情報)を基に該作業が失敗か否かを判定するようにしてもよい。作業者端末10において、失敗した可能性の高い作業を選別し、その作業についてシステム管理サーバ30の作業分析/解析部335が精密に作業の失敗か否かを判定することにより、効率的に失敗判定をすることができる。
<訓練コンテンツ管理部>
訓練コンテンツ管理部340は、訓練コンテンツ照合部341、および訓練コンテンツ作成/更新部342を備えている。なお、訓練コンテンツ管理部340が本発明のコンテンツ作成装置に対応する。
訓練コンテンツ照合部341は、作業分析を行った現場作業について、訓練コンテンツ管理サーバ40に格納されている対応する訓練コンテンツと照合するようになっている。
訓練コンテンツ作成/更新部342は、訓練コンテンツ照合部341による照合の結果、作業分析を行った現場作業に対応する訓練コンテンツが無い場合、新たに訓練コンテンツを作成する。また、訓練コンテンツ作成/更新部342は、作業分析を行った現場作業に対応する訓練コンテンツが既に有る場合、分析・判定結果に基づく修正内容を反映させるように訓練コンテンツを変更する。
具体的には、訓練コンテンツ作成/更新部342は、作業分析/解析部335による判定結果が当該作業の失敗であると判定されたとき、失敗の要因を抑制するように訓練用コンテンツを更新するようになっている。訓練用コンテンツの更新は、訓練コンテンツ管理サーバ40側の、例えば訓練コンテンツ管理部440や訓練端末管理部430が行うようにしてもよい。
また、訓練コンテンツ作成/更新部342は、作業分析/解析部335による整合度合の判定結果に応じて、整合度合を高めるよう訓練用コンテンツを更新するようにしてもよい。この訓練用コンテンツの更新は、訓練コンテンツ管理サーバ40側の、例えば訓練コンテンツ管理部440や訓練端末管理部430が行うようにしてもよい。
また、訓練コンテンツ作成/更新部342は、作業対象機器4を含めて作業に関与する機器の仕様が変更された場合、あるいは作業現場の環境が変更された場合、その変更情報を反映させるように訓練コンテンツを変更するようにしてもよい。機器の仕様および作業現場の環境に関する情報は、作業端末管理部330の機器状態管理部332に記憶されている。制御部300の制御下で、機器仕様等が変更されると、訓練コンテンツ作成/更新部342が、機器状態管理部332を参照して、訓練コンテンツの変更を行うようにしてもよい。
<ストレージ>
ストレージ302には、作業行動情報記録データベース323、作業者情報記録データベース324、作業対象機器情報記録データベース325、および作業分析結果データベース326が格納されている。
作業行動情報記録データベース323、作業者情報記録データベース324、作業対象機器情報記録データベース325については、作業者端末10の対応するデータベース構造と同じであるので、詳細な説明は省略する。
図11は、作業分析結果データベース326の構成を示す構成図である。図11に示すように、作業分析結果データベース326の各レコード(行)に記録される項目は、作業No、対象機器、対象部位、修正手順No、修正対象、修正カテゴリ、修正内容、記録動画、記録音声、作業位置変移、およびモデルである。
作業Noは、作業を特定するために一意に割り当てられた番号である。対象機器は、作業対象の機器であり、例えば、ワイヤやキーボードなどである。対象部位は、作業分析を行う対象部位であり、例えば、作業者の手首や腕などである。
修正手順Noは、作業分析の結果、修正された手順Noを示す。修正対象は、修正分析の結果、修正された対象を示す。修正カテゴリは、修正をカテゴライズしたものであり、例えば、「前に挿入」、「変更」などがある。修正内容は、修正の具体的な内容を示し、例えば、注意喚起や仕様変更などが挙げられる。
記録動画は、作業を記録した動画ファイル名が記載されており、システム管理サーバ30のストレージ302などに別途保存された記録動画にアクセスできるようになっている。記録音声は、作業時の音声を記録した音声ファイル名が記載されており、ストレージ302などに別途保存された記録音声にアクセスできるようになっている。
作業位置変移は、対象部位の特徴点の位置変移を示す。モデルは、作業対象機器4の3次元形状情報を含んだ3Dモデルファイル名が記載されており、ストレージ302などに別途保存された3Dモデルファイルにアクセスできるようになっている。
システム管理サーバ30は、作業分析の結果を基に、修正対象の作業手順、および修正する内容を決定し、作業分析結果データベース326に格納する。修正する内容として、危険表示の追加、注意喚起の表示の追加、機器の仕様情報の変更、現場環境の情報の変更などが挙げられる。
(訓練コンテンツ管理サーバ)
次に、訓練コンテンツ管理サーバ40について説明する。
図6は、訓練コンテンツ管理サーバ40の構成図である。
図6に示すように、訓練コンテンツ管理サーバ40は、制御部400、各種処理プログラムを格納したメモリ401、各種データベースを格納したストレージ402、通信部407、表示部403、認証部408、外部機器接続部411、電源供給部412、訓練端末管理部430、訓練分析/解析部435、および訓練コンテンツ管理部440を備えている。
なお、訓練端末管理部430が、本発明の第1のコンテンツ出力装置に対応する。
制御部400は、CPU、ROM、RAM、入出力インタフェース、外部記憶装置等を有するコンピュータを用いる構成であってもよく、訓練コンテンツ管理サーバ40の機能の一部または全部は、メモリ401に記憶された各種処理プログラムをCPUで実行することにより実現することができる。
通信部407は、ネットワーク8、9を介して訓練者端末20、作業者端末10およびシステム管理サーバ30と通信を行うようになっている。
表示部403は、液晶ディスプレイ等で構成され、訓練の映像に加えて、訓練コンテンツの管理状況等、コンテンツ管理に必要な情報を表示できるようになっている。
認証部408は、公知の認証方法を用いてユーザの利用資格を確認するものであり、利用資格を有するユーザのみが訓練コンテンツ管理サーバ40を利用できるようになっている。
外部機器接続部411は、必要に応じて、例えば、モニター装置、プリンタ装置、外部記憶装置などの外部機器と接続できるようになっている。
電源供給部412は、訓練コンテンツ管理サーバ40を駆動するのに必要な電力を供給するようになっている。
メモリ401には、映像データ処理部413、音声データ処理部414、情報重畳処理部415、情報送受信処理部416、3次元データ処理部417、位置データ処理部418、空間データ処理部419、画像認識部421、およびユーザ生体情報取得部422を構成する各種処理プログラムが格納されている。これらの処理プログラムは、制御部400のCPUにより実行されることにより、それぞれの処理機能を実現できるようになっている。
映像データ処理部413は、制御部400のCPUにより処理プログラムが実行されることにより、訓練者端末20から送信された訓練映像データに対して、各種データ処理を行うようになっている。
音声データ処理部414は、制御部400のCPUにより処理プログラムが実行されることにより、訓練者端末20から送信された訓練音声データに対して、音声認識等のデータ処理を実行するようになっている。音声認識により、例えば、訓練者3の音声、訓練対象機器の発する音などを認識することができる。
情報重畳処理部415は、制御部400のCPUにより処理プログラムが実行されることにより、例えば、仮想現実または拡張現実の画面において作業手順の情報を重畳して表示する処理を実行するようになっている。
情報送受信処理部416は、制御部400のCPUにより処理プログラムが実行されることにより、通信部407を駆動、制御して訓練者端末20、作業者端末10またはシステム管理サーバ30と情報を送受する処理を実行するようになっている。
3次元データ処理部417は、制御部400のCPUにより処理プログラムが実行されることにより、訓練コンテンツの作成、変更や訓練記録の分析などにおいて、訓練対象機器の3次元形状情報を用いつつ、3次元データに対して、各種データ処理を実行するようになっている。例えば、訓練者3の3次元動作を認識するためのデータ処理を行ってもよい。
位置データ処理部418は、制御部400のCPUにより処理プログラムが実行されることにより、訓練者端末20から送信された位置データに対して、各種データ処理を実行するようになっている。
空間データ処理部419は、制御部400のCPUにより処理プログラムが実行されることにより、訓練者端末20から送信された空間(距離)データに対して、各種データ処理を実行するようになっている。
画像認識部421は、制御部400のCPUにより処理プログラムが実行されることにより、画像認識等のデータ処理を実行するようになっている。画像認識により、例えば、訓練対象機器5、訓練者3の腕や手、作業工具6などを認識することができる。
ユーザ生体情報取得部422は、制御部400のCPUにより処理プログラムが実行されることにより、訓練者3に取り付けられた生体センサから訓練者3の生体情報を取得できるようになっている。
<訓練端末管理部>
訓練端末管理部430は、訓練コンテンツ配信部431、および機器状態管理部432を備えている。なお、訓練端末管理部430が、本発明の第1のコンテンツ出力装置に対応している。
訓練コンテンツ配信部431は、出力部を備え、訓練コンテンツを訓練者3に提示可能に訓練者端末20に配信するようになっている。訓練コンテンツは、訓練者端末20の表示部203に訓練現場の実際の映像の上に拡張現実を用いて重畳されて表示される映像と、音声出力部204より出力される音声とを含んで構成される。或いは、訓練コンテンツは、訓練者端末20の表示部203に仮想現実を用いて表示される映像と、音声出力部204より出力される音声とを含んで構成されるようにしてもよい。訓練コンテンツは、映像だけでもよいし、音声だけでもよい。
具体的には、訓練コンテンツは、例えば、訓練者端末20の表示部203への作業手順の説明の表示、注意喚起の表示、環境情報およびステータス情報の表示を含む。作業手順の説明としては、例えば「手順3:ワイヤーをねじで固定してください」という表示が挙げられる。環境情報としては、例えば作業現場の温度、湿度が挙げられる。ステータス情報としては、手順整合度、作業の進捗度、経過時間、訓練者の体調などが挙げられる。
また、訓練コンテンツ配信部431は、記憶部を備え、作業対象機器4の3次元形状情報を含む訓練用コンテンツ、および作業手順の作業動作についての評価基準情報を記憶するようになっている。なお、訓練コンテンツ配信部431が、本発明の第1のコンテンツ出力装置の出力部および記憶部に対応している。
機器状態管理部432は、訓練対象機器5を含めて訓練に関連する機器の仕様および状態、ならびに訓練環境に関する情報を記憶し、管理するようになっている。
<訓練分析/解析部>
訓練分析/解析部435は、訓練行動記録集計部436、行動要因分析部437、訓練記録分析部438、および分析結果出力部439を備えている。
訓練行動記録集計部436は、訓練者3による訓練行動の記録を取得、集計するようになっている。
行動要因分析部437は、訓導行動の要因、例えば訓練作業の失敗の要因を分析するようになっている。訓練作業の失敗の要因は、訓練者あるいはその監督者が分析して入力するようにしてもよい。
訓練記録分析部438は、訓練記録(訓練行動情報、訓練者情報、訓練対象機器情報など)を、動作整合度、使用工具の適否、作業時間、訓練対象機器との接触の有無、生体情報などの観点から分析し、訓練の成否を判断するようになっている。この判断手法については、作業記録分析部338による作業の成否の判断手法と同じである。
分析結果出力部439は、訓練記録の分析結果を、後で説明する訓練コンテンツ管理部440や、訓練者端末20の表示部203に適宜出力するようになっている。
<訓練コンテンツ管理部>
訓練コンテンツ管理部440は、習熟度管理部441、成績結果集計部442、および訓練コンテンツ作成/更新部443を備えている。
習熟度管理部441は、特定の作業について訓練者3の習熟度を管理するようになっている。具体的には、作業Noと訓練者3の識別番号と習熟度とを関連付けて記憶し、管理するようになっている。
成績結果集計部442は、分析結果出力部439から送られた訓練記録の分析結果等に基づいて、訓練者3の訓練の成績結果を集計するようになっている。
訓練コンテンツ作成/更新部443については、作業者が訓練者に代わった点を除き、システム管理サーバ30の訓練コンテンツ作成/更新部342と構成が同じであるので、詳細な説明は省略する。
<ストレージ>
ストレージ402には、訓練行動情報記録データベース423、訓練者情報記録データベース424、訓練対象機器情報記録データベース425、および訓練コンテンツデータベース426が格納されている。
訓練行動情報記録データベース423、訓練者情報記録データベース424、および訓練対象機器情報記録データベース425については、作業者が訓練者に代わった点を除き、作業者端末10の対応するデータベース構造と同じであるので、詳細な説明は省略する。
図12は、訓練コンテンツデータベース426の構成を示す構成図である。図12に示すように、訓練コンテンツデータベース426の各レコード(行)に記録される項目は、作業No、対象機器、対象部位、手順No、表示使用定義No、表示内容、修正内容、作業動画、作業音声、位置変移、およびモデルである。
作業Noは、作業を特定するために一意に割り当てられた番号である。対象機器は、訓練対象の機器であり、例えば、ねじ、ワイヤ、カバー、キーボードなどである。対象部位は、訓練分析を行う対象部位であり、例えば、作業者の手首や腕などである。手順Noは、作業Noで特定される作業についての作業手順のうち、どの手順かを特定する番号である。
表示仕様定義Noは、画面の表示仕様を定めた表示仕様定義を特定するために一意に割り当てられた番号である。表示内容は、例えば、注意喚起を行うのか、手順の説明を行うのか等の表示内容を示す。修正内容は、修正の具体的な内容を示し、例えば、注意喚起や仕様変更などが挙げられる。
作業動画は、訓練時に訓練者に提示する作業動画の動画ファイル名が記載されており、ストレージ402等に別途保存された作業動画にアクセスできるようになっている。作業音声は、訓練時に訓練者に提示する作業音声を記録した音声ファイル名が記載されており、ストレージ402等に別途保存された作業音声にアクセスできるようになっている。
位置変移は、対象部位の特徴点の位置座標の変移を示す。モデルは、訓練対象機器の3次元形状情報を含んだ3Dモデルファイル名が記載されており、ストレージ402等に別途保存された3Dモデルファイルにアクセスできるようになっている。
訓練コンテンツ管理サーバ40の訓練コンテンツデータベース426に格納された既存の訓練コンテンツは、システム管理サーバ30が分析した結果に基づいて更新されるようになっている。
次に、コンテンツ提示システム1の動作シーケンスについて説明する。
図13は、コンテンツ提示システム1を用いて行う現場作業のシーケンス図である。
まず、作業者端末10は、システム管理サーバ30に作業手順を問い合わせる(S1)。問い合わせを受けたシステム管理サーバ30は、作業手順の情報を作業者端末10に配信する(S2)。
次いで、作業者2は、作業手順に従って作業を開始、実行するとともに(S3)、作業者端末10は、録画部105により作業環境を撮影するとともに、作業者2に取り付けられた生体センサから生体情報を取得する(S4)。
次いで、作業者端末10の現場判定部127は、3次元動作検出処理部117により作業者2の3次元動作が基準の3次元動作から乖離しているか否かを判断する(S5)。判断結果がNOの場合、ステップS8に進む。判断結果がYESの場合、撮影した映像データ等をシステム管理サーバ30に送信する(S6)。システム管理サーバ30は、作業者端末10から送信された撮影データ等を受信する(S7)。この撮影データ等は作業の失敗の分析に用いられる。
ステップS8では、最後の手順か否かを判断する。最後の手順でない場合(NO)、ステップS3に戻り、次の手順の作業を開始、実行する。最後の手順の場合(YES)、現場作業を終了する。
図14は、コンテンツ提示システム1を用いて行う作業分析処理のシーケンス図である。
まず、システム管理サーバ30は、作業者端末10から撮影データ等を受信する(S7)。
次いで、システム管理サーバ30の作業分析/解析部335により、失敗の原因の解析を行う(S10)。
次いで、失敗の原因が人為的か否かを判断する(S11)。人為的である場合(YES)、作業記録分析部338により生体情報の解析を行う(S13)。人為的でない場合(NO)、作業記録分析部338により3次元データの解析を行う(S12)。
次いで、失敗の原因の重要度を判定する(S14)。重要度は、作業者の体調不良、不注意、連絡ミス、マニュアルの間違いなどの失敗の原因がもたらす結果の影響度を考慮して、予め数値でランク付けしておいてもよい。
次いで、訓練コンテンツ照合部341により、訓練コンテンツ管理サーバ40に格納されている訓練コンテンツとの照合を行い(S15)、更新箇所の同定を行う(S16)。
次いで、訓練コンテンツ作成/更新部342により訓練コンテンツの更新を行う(S17)。更新された訓練コンテンツは、訓練コンテンツ管理サーバ40に送られ、訓練コンテンツデータベース426に格納される。
図15は、コンテンツ提示システム1を用いて行う訓練のシーケンス図である。
まず、訓練者端末20は、訓練コンテンツ管理サーバ40に訓練手順を問い合わせる(S20)。問い合わせを受けた訓練コンテンツ管理サーバ40は、訓練手順の情報を訓練者端末20に配信する(S21)。
次いで、訓練者3は、訓練手順に従って訓練作業を開始、実行するとともに(S22)、訓練者端末20は、録画部205により作業環境を撮影し、訓練者3に取り付けられた生体センサから生体情報を取得する(S23)。
次いで、訓練者端末20の現場判定部227は、3次元動作検出処理部217により訓練者3の3次元動作が基準の3次元動作から乖離しているか否かを判断する(S24)。判断結果がNOの場合、ステップS26に進む。判断結果がYESの場合、注意喚起等のアラート表示を訓練者端末20の表示部203に表示し(S25)、ステップ22に戻る。
ステップS26では、最後の手順か否かを判断する。最後の手順でない場合(NO)、ステップS22に戻り、次の手順の作業を開始、実行する。最後の手順の場合(YES)、訓練結果の情報を訓練コンテンツ管理サーバ40に送信し(S27)、該訓練結果の情報を訓練コンテンツ管理サーバ40が受信する(S28)。この訓練結果の情報は、訓練者3の訓練成績の集計等に用いられる。
次に、本実施形態に係るコンテンツ提示方法を説明する。
図16は、本実施形態に係るコンテンツ提示方法のフローチャートである。
まず、作業対象機器4の3次元形状情報を基に、作業者端末10の表示部103に拡張現実により作業手順を表示する(S30)。
次いで、作業者端末10の3次元動作検出処理部117により、作業手順で示された作業を行う作業者2の3次元動作を測定する(S31)。
次いで、システム管理サーバ30の作業分析/解析部335により、作業者2の作業が失敗か否かを判定する(S32)。具体的には、作業者2の3次元動作を測定して得られた測定情報に基づいて作業者2の所定の身体動作が検出されたとき、該身体動作に及ぶまでの模範作業者の作業中の特定段階の作業動作の測定情報(3次元基準動作)を基に作業が失敗か否かを判定する。
さらに具体的には、例えば、作業者端末10の現場判定部127により、作業者2の3次元動作が3次元基準動作より所定値以上乖離していると判定されると、システム管理サーバ30の作業分析/解析部335により、さらに精密に、作業者2の特定部位の特徴点の位置の変移を、同一作業における模範作業者の対応する特定部位の特徴点の位置の変移と比較することにより、動作整合度を算出する。この動作整合度と作業者2の体調、使用工具の適否、経過時間などを総合的に判断することにより、作業が失敗か否かを判定する。
次いで、作業が失敗であると判定されたとき、システム管理サーバ30の訓練コンテンツ管理部340が、失敗の要因を抑制するように訓練用コンテンツを更新する(S33)。例えば、失敗した作業手順において画面上で注意喚起する。対応する訓練用コンテンツが存在しない場合は、訓練用コンテンツを新たに作成する。変更または作成された訓練用コンテンツは、訓練コンテンツ管理サーバ40の訓練コンテンツデータベース426に格納される。
訓練コンテンツ管理部340は、作業対象機器4の仕様の変更情報や、現場環境の変更情報も反映するように、訓練用コンテンツを更新してもよい。
次いで、訓練コンテンツ管理サーバ40の訓練端末管理部430は、変更された訓練用コンテンツを訓練者3に提示して作業者2の訓練を実行する(S34)。
上記構成により、判定結果が作業の失敗であると判定されたとき失敗の要因を抑制するよう訓練用コンテンツを更新するため、現場作業の失敗を、訓練教育で使用している訓練コンテンツに効率的に反映することができ、訓練コンテンツのメンテナンスも容易になる。
次に、コンテンツの変更内容を説明するために、作業者端末10の表示部103の画面表示例を説明する。
図17は、現場作業が正常に行われている時における作業者端末10の表示部103の画面の表示例を示す説明図である。
画面には、作業現場を実際に撮影している映像の上に拡張現実により、画面上部に手順表示が、画面左部に環境情報/ステータス表示が重畳されて表示されている。
図18は、作業者2の異常動作時、例えば、作業者端末10の現場判定部127が作業者2の作業動作が基準の動作から乖離していると判定した時における、作業者端末10の表示部103の画面の表示例を示す説明図である。
画面には、作業現場を実際に撮影している映像の上に拡張現実により、画面上部に手順表示が、画面左部に環境情報/ステータス表示が、画面中央部に注意喚起の表示が重畳されて表示されている。注意喚起の表示は、例えば、「!!手順が間違っています!!」などである。
図19は、訓練が正常に行われている時における訓練者端末20の表示部203の画面の表示例を示す説明図である。
画面には、訓練現場を実際に撮影している映像の上に拡張現実により、画面上部に手順表示が、画面左部に環境情報/ステータス表示が、画面右部に注意喚起の表示が重畳されて表示されている。注意喚起の表示は、例えば、「よく間違いが起こる手順です。手元に注意してください。」などである。この注意喚起の表示は、現場作業において作業者2が作業を失敗したときの情報を訓練用コンテンツに反映し、失敗の要因を抑制するものである。
図20は、訓練者3の異常動作時、例えば、訓練者端末20の現場判定部227が訓練者3の作業動作が基準の動作から乖離していると判定した時における、訓練者端末20の表示部203の画面の表示例を示す説明図である。
画面には、訓練現場を実際に撮影している映像の上に拡張現実により、画面上部に手順表示が、画面左部に環境情報/ステータス表示が、画面中央部に注意喚起の表示が重畳されて表示されている。注意喚起の表示は、例えば、「!!手順が間違っています!!」などである。なお、図19、図20は訓練用コンテンツを拡張現実により提示しているが、仮想現実により提示するようにしてもよいことはもちろんである。
上記のように、現場作業で失敗があった場合、訓練において同一作業で同一の作業手順の時に、失敗の要因を抑制するように、注意喚起を表示させるようにしている。注意喚起は画面上の表示とともに、或いはそれに代えて音声で行ってもよい。
次に、作用・効果について説明する。
上述のように、本実施形態に係るコンテンツ提示システム1は、作業者端末10の3次元動作検出処理部117が、現場の作業者2の作業中の3次元動作を少なくとも身体動作の測定情報として取得し、システム管理サーバ30の作業分析/解析部335が、作業動作の測定情報に基づいて作業動作を評価するための評価基準情報を基に、作業者の3次元動作を分析し、作業が失敗か否かを判定する。そして、作業が失敗であると判定されたとき、システム管理サーバ30の訓練コンテンツ管理部340が、失敗の要因を抑制するように訓練用コンテンツを更新または作成する。すなわち、作業現場と訓練が効率的かつ有機的に連携できるシステムとなっている。
具体的には、システム管理サーバ30の作業分析/解析部335は、作業者端末10の3次元動作検出処理部117からの測定情報に基づいて作業者の所定の身体動作が検出されたとき、該身体動作に及ぶまでの模範作業者の作業中の特定段階の作業動作の測定情報を基に作業が失敗か否かを判定する。そして、システム管理サーバ30の訓練コンテンツ管理部340は、作業分析/解析部335での判定結果が作業の失敗であると判定されたとき、失敗の要因を抑制するよう訓練用コンテンツを更新する。
この構成により、判定結果が作業の失敗であると判定されたとき失敗の要因を抑制するよう訓練用コンテンツを更新するため、現場作業の失敗を、訓練教育で使用している訓練コンテンツに効率的に反映することができ、訓練コンテンツのメンテナンスも容易になる。
また、本実施形態に係るコンテンツ提示システム1では、システム管理サーバ30の作業分析/解析部335は、作業者端末10の3次元動作検出処理部117からの作業者2の作業手順に従った作業動作の測定情報を、模範作業者による作業動作の測定情報と比較して、両作業動作の整合度合を判定し、システム管理サーバ30の訓練コンテンツ管理部340は、判定結果に応じて、整合度合を高めるよう訓練用コンテンツを更新するように構成されている。
この構成により、模範作業者の作業動作を効果的に訓練者3に教えるように、訓練コンテンツを更新することができる。
また、本実施形態に係るコンテンツ提示システム1では、システム管理サーバ30の作業分析/解析部335は、特定段階の作業動作について整合度合が所定値以下であると判定されたとき、特定段階の作業動作に対応する訓練者3の特定部位の3次元の変移および作業時間を含む測定情報を基に作業の失敗か否かを判定するように構成されている。
この構成により、作業者の作業の失敗を確実に検知することができるので、訓練コンテンツに効率的に反映することができる。
また、本実施形態に係るコンテンツ提示システム1は、作業者が用いる作業者端末10と、訓練者3が用いる訓練者端末20と、システム管理サーバ30と、訓練コンテンツ管理サーバ40を含み、それらがネットワーク接続されている。
この構成により、作業現場と訓練現場が離れている場合であっても、作業者2の作業の失敗を訓練コンテンツに効率的に反映することができる。
以上説明したように、本発明は現場作業で発生した失敗等を効率的に訓練コンテンツに反映することができ、訓練コンテンツのメンテナンスが容易であるという効果を有し、コンテンツ提示システムおよびコンテンツ提示方法の全般に有用である。
1 コンテンツ提示システム
10 作業者端末
20 訓練者端末
30 システム管理サーバ(管理サーバ)
40 訓練コンテンツ管理サーバ(管理サーバ)
117 3次元動作検出処理部(動作測定装置)
330 作業端末管理部(第2のコンテンツ出力装置)
335 作業分析/解析部(判定装置)
340 訓練コンテンツ管理部(コンテンツ作成装置)
430 訓練端末管理部(第1のコンテンツ出力装置)

Claims (5)

  1. 作業対象機器の3次元形状情報と作業手順に基づく訓練用コンテンツを訓練者(3)に提示し、前記作業対象機器の3次元形状情報を基に拡張現実を用いて作業手順を提示するコンテンツ提示システム(1)であって、
    前記作業対象機器の3次元形状情報を含む前記訓練用コンテンツおよび前記作業手順の作業動作についての評価基準情報を記憶する記憶部と前記訓練用コンテンツを前記訓練者に提示可能に出力する出力部とを有する第1のコンテンツ出力装置(430)と、
    前記作業対象機器の3次元形状情報を基に拡張現実による作業手順を示す第2のコンテンツ出力装置(330)と、
    現場の作業者(2)の作業中の3次元動作を少なくとも身体動作の測定情報として取得する動作測定装置(117)と、
    前記作業動作の測定情報に基づいて前記作業動作を評価するための評価基準情報を基に作業の成否を判定する判定装置(335)と、
    前記作業動作の測定情報および前記判定装置の判定結果に基づいて前記訓練用コンテンツを作成および更新するコンテンツ作成装置(340)と、を備え、
    前記判定装置は、前記動作測定装置からの前記測定情報に基づいて前記作業者の所定の身体動作が検出されたとき、該身体動作に及ぶまでの模範作業者の前記作業中の特定段階の作業動作の測定情報を基に前記作業が失敗か否かを判定し、
    前記コンテンツ作成装置は、前記判定装置での判定結果が前記作業の失敗であると判定されたとき、前記失敗の要因を抑制するよう前記訓練用コンテンツを更新することを特徴とするコンテンツ提示システム。
  2. 前記判定装置は、前記動作測定装置からの前記作業者の前記作業手順に従った前記作業の測定情報を、前記模範作業者による前記作業の測定情報と比較して、両作業動作の整合度合を判定し、
    前記コンテンツ作成装置は、前記判定装置の判定結果に応じて、前記整合度合を高めるよう前記訓練用コンテンツを更新することを特徴とする請求項1に記載のコンテンツ提示システム。
  3. 前記判定装置は、前記特定段階の作業動作について前記整合度合が所定値以下であると判定されたとき、前記特定段階の作業動作に対応する前記作業者の特定部位の3次元の変移および作業時間を含む測定情報を基に前記作業の失敗か否かを判定することを特徴とする請求項2に記載のコンテンツ提示システム。
  4. 前記作業者が用いる作業者端末(10)と管理サーバ(30、40)とをさらに含み、前記動作測定装置が前記作業者端末に備えられ、前記第1のコンテンツ出力装置、前記第2のコンテンツ出力装置、前記判定装置、および前記コンテンツ作成装置が、それぞれ前記作業者端末にネットワーク接続される前記管理サーバで構成されていることを特徴とする請求項1ないし3のいずれか一項に記載のコンテンツ提示システム。
  5. 作業者端末(10)と該作業者端末に接続された管理サーバ(30、40)とを含むコンテンツ提示システムを用いて、作業対象機器の3次元形状情報と作業手順に基づく訓練用コンテンツを訓練者(3)に提示し、前記作業対象機器の3次元形状情報を基に拡張現実を用いて作業手順を提示するコンテンツ提示方法であって、
    前記管理サーバが、前記作業対象機器の3次元形状情報を含む前記訓練用コンテンツおよび前記作業手順の作業動作についての評価基準情報を記憶するとともに、前記訓練用コンテンツを前記訓練者に提示可能に出力する第1のコンテンツ出力ステップと、
    前記管理サーバが、前記作業対象機器の3次元形状情報を基に拡張現実による作業手順を示す第2のコンテンツ出力ステップと、
    前記作業者端末が、現場の作業者(2)の作業中の3次元動作を少なくとも身体動作の測定情報として取得する動作測定ステップと、
    前記管理サーバが、前記作業動作の測定情報に基づいて前記作業動作を評価するための評価基準情報を基に、作業の成否を判定する判定ステップと、
    前記管理サーバが、前記作業動作の測定情報および前記判定ステップの判定結果に基づいて前記訓練用コンテンツを作成および更新するコンテンツ作成ステップと、を備え、
    前記判定ステップでは、前記動作測定ステップで取得された前記測定情報に基づいて前記作業者の所定の身体動作が検出されたとき、該身体動作に及ぶまでの模範作業者の前記作業中の特定段階の作業動作の測定情報を基に前記作業が失敗か否かを判定し、
    前記コンテンツ作成ステップでは、前記判定ステップでの判定結果が前記作業の失敗であると判定されたとき、前記失敗の要因を抑制するよう前記訓練用コンテンツを更新することを特徴とするコンテンツ提示方法。
JP2018124690A 2018-06-29 2018-06-29 コンテンツ提示システムおよびコンテンツ提示方法 Active JP7210169B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018124690A JP7210169B2 (ja) 2018-06-29 2018-06-29 コンテンツ提示システムおよびコンテンツ提示方法
PCT/JP2018/031354 WO2020003547A1 (ja) 2018-06-29 2018-08-24 コンテンツ提示システムおよびコンテンツ提示方法
EP18924092.2A EP3637389A4 (en) 2018-06-29 2018-08-24 CONTENT PRESENTATION SYSTEM AND METHOD
US16/626,031 US11367365B2 (en) 2018-06-29 2018-08-24 Content presentation system and content presentation method
US17/747,560 US11817003B2 (en) 2018-06-29 2022-05-18 Content presentation system and content presentation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018124690A JP7210169B2 (ja) 2018-06-29 2018-06-29 コンテンツ提示システムおよびコンテンツ提示方法

Publications (2)

Publication Number Publication Date
JP2020003708A JP2020003708A (ja) 2020-01-09
JP7210169B2 true JP7210169B2 (ja) 2023-01-23

Family

ID=68986262

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018124690A Active JP7210169B2 (ja) 2018-06-29 2018-06-29 コンテンツ提示システムおよびコンテンツ提示方法

Country Status (4)

Country Link
US (2) US11367365B2 (ja)
EP (1) EP3637389A4 (ja)
JP (1) JP7210169B2 (ja)
WO (1) WO2020003547A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3586725A1 (en) * 2018-06-28 2020-01-01 Koninklijke Philips N.V. Blood pressure measurement analysis method and system
JP7210169B2 (ja) * 2018-06-29 2023-01-23 株式会社日立システムズ コンテンツ提示システムおよびコンテンツ提示方法
CA3206993A1 (en) * 2020-12-31 2022-07-07 Schneider Electric Systems Usa, Inc. Systems and methods for providing operator variation analysis for steady state operation of continuous or batch wise continuous processes
US20240071245A1 (en) * 2021-03-09 2024-02-29 Mitsubishi Electric Corporation Ar content display device, ar content display system, ar content display method and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017064831A (ja) 2015-09-29 2017-04-06 日立Geニュークリア・エナジー株式会社 遠隔作業支援システム及び遠隔作業支援方法
US20180061269A1 (en) 2016-09-01 2018-03-01 Honeywell International Inc. Control and safety system maintenance training simulator

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0392719A (ja) * 1989-09-05 1991-04-17 Toshiba Corp 設備保守作業支援装置
JP2783729B2 (ja) * 1992-07-28 1998-08-06 株式会社東芝 保修支援装置
JPH10333543A (ja) * 1997-06-04 1998-12-18 Mitsubishi Electric Corp 訓練装置
JP2001331216A (ja) 2000-05-18 2001-11-30 Central Res Inst Of Electric Power Ind 現場業務支援システム
US20030046401A1 (en) * 2000-10-16 2003-03-06 Abbott Kenneth H. Dynamically determing appropriate computer user interfaces
US9147174B2 (en) * 2008-08-08 2015-09-29 Snap-On Incorporated Image-based inventory control system using advanced image recognition
US20120249797A1 (en) * 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US20150309316A1 (en) * 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
KR101390383B1 (ko) * 2010-11-16 2014-04-29 한국전자통신연구원 가상현실 기반 훈련 시뮬레이터를 위한 가변형 플랫폼 관리 장치
US9015245B1 (en) * 2011-07-20 2015-04-21 Google Inc. Experience sharing with commenting
US9566004B1 (en) * 2011-11-22 2017-02-14 Kinevid, Llc. Apparatus, method and system for measuring repetitive motion activity
US20150185731A1 (en) * 2013-12-26 2015-07-02 Hyundai Motor Company Work-in-process inspection system using motion detection, and method thereof
US20150277416A1 (en) * 2014-03-31 2015-10-01 Mitsubishi Electric Research Laboratories, Inc. Method for Anomaly Detection in Discrete Manufacturing Processes
US10120413B2 (en) * 2014-09-11 2018-11-06 Interaxon Inc. System and method for enhanced training using a virtual reality environment and bio-signal data
US9305216B1 (en) * 2014-12-15 2016-04-05 Amazon Technologies, Inc. Context-based detection and classification of actions
US9665960B1 (en) * 2014-12-22 2017-05-30 Amazon Technologies, Inc. Image-based item location identification
JP6452092B2 (ja) * 2015-04-28 2019-01-16 パナソニックIpマネジメント株式会社 コンテンツ提供支援方法、及び、サーバ装置
EP3104241B1 (en) * 2015-06-12 2020-09-16 Accenture Global Services Limited An augmented reality method and system for measuring and/or manufacturing
CA2992833A1 (en) 2015-07-17 2017-01-26 Ivd Mining Virtual reality training
US9824437B2 (en) * 2015-12-11 2017-11-21 Daqri, Llc System and method for tool mapping
WO2017150293A1 (ja) * 2016-03-04 2017-09-08 新日鉄住金ソリューションズ株式会社 情報処理システム、情報処理装置、情報処理方法及びプログラム
US20170344919A1 (en) * 2016-05-24 2017-11-30 Lumo BodyTech, Inc System and method for ergonomic monitoring in an industrial environment
US10438415B2 (en) * 2017-04-07 2019-10-08 Unveil, LLC Systems and methods for mixed reality medical training
JP2019049780A (ja) * 2017-09-07 2019-03-28 富士通株式会社 教師データ作成プログラム、教師データ作成装置、及び教師データ作成方法
US11355025B2 (en) * 2017-09-14 2022-06-07 Vrsim, Inc. Simulator for skill-oriented training
US11482126B2 (en) * 2017-10-03 2022-10-25 ExtendView, Inc. Augmented reality system for providing movement sequences and monitoring performance
US11227439B2 (en) * 2018-03-29 2022-01-18 Eon Reality, Inc. Systems and methods for multi-user virtual reality remote training
JP7289190B2 (ja) * 2018-06-29 2023-06-09 株式会社日立システムズ コンテンツ提示システム
JP7210169B2 (ja) * 2018-06-29 2023-01-23 株式会社日立システムズ コンテンツ提示システムおよびコンテンツ提示方法
JP7191560B2 (ja) * 2018-06-29 2022-12-19 株式会社日立システムズ コンテンツ作成システム
US11107236B2 (en) * 2019-04-22 2021-08-31 Dag Michael Peter Hansson Projected augmented reality interface with pose tracking for directing manual processes
US11442429B2 (en) * 2019-12-06 2022-09-13 Mitsubishi Electric Research Laboratories, Inc. Systems and methods for advance anomaly detection in a discrete manufacturing process with a task performed by a human-robot team
US11216656B1 (en) * 2020-12-16 2022-01-04 Retrocausal, Inc. System and method for management and evaluation of one or more human activities

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017064831A (ja) 2015-09-29 2017-04-06 日立Geニュークリア・エナジー株式会社 遠隔作業支援システム及び遠隔作業支援方法
US20180061269A1 (en) 2016-09-01 2018-03-01 Honeywell International Inc. Control and safety system maintenance training simulator

Also Published As

Publication number Publication date
US20220351641A1 (en) 2022-11-03
US20210358327A1 (en) 2021-11-18
US11817003B2 (en) 2023-11-14
EP3637389A4 (en) 2021-03-10
JP2020003708A (ja) 2020-01-09
EP3637389A1 (en) 2020-04-15
WO2020003547A1 (ja) 2020-01-02
US11367365B2 (en) 2022-06-21

Similar Documents

Publication Publication Date Title
JP7210169B2 (ja) コンテンツ提示システムおよびコンテンツ提示方法
US10290232B2 (en) Automated detection of performance characteristics in an injection training system
JP6386786B2 (ja) 複合システムの構成要素上で実行されるタスクをサポートするユーザの追跡
US20200388177A1 (en) Simulated reality based confidence assessment
US11011074B2 (en) Information processing system, information processor, information processing method and program
EP1709519A1 (en) A virtual control panel
US20210335148A1 (en) Content presentation system
CN112930561A (zh) 基于虚拟现实的个人防护设备训练系统
US11004355B2 (en) Intelligent wearable device, and working assistance method and system based thereon
Havard et al. A use case study comparing augmented reality (AR) and electronic document-based maintenance instructions considering tasks complexity and operator competency level
US20200073532A1 (en) Design review device, design review method, and program
EP3637330B1 (en) Content creation system
US20210264813A1 (en) Work support device and work supporting method
Fauziah et al. Development of a real-time ergonomic assessment tool to minimize musculoskeletal disorders risk
JP2021056922A (ja) 人動作支援システム及びその方法
Angel et al. Developing an AR Based Tool for Teaching Motion Analysis on Assembly Tasks
JP7418711B1 (ja) 注意抽出システム、及び注意抽出方法
TWM596380U (zh) 人工智慧擴增實境輔助系統
KR20230079932A (ko) 객체인식을 이용한 휴대용 군정비 교육 시스템
JP7289169B1 (ja) 情報処理装置、方法、プログラム、およびシステム
JP7406038B1 (ja) 作業支援システム及び作業支援方法
Akanmu et al. Towards a Cyber-Physical Postural Training System for Construction Workers
Szakonyi et al. Rule-base formulation for clips-based work ergonomic assessment
JP2023055313A (ja) 準備体操評価装置、準備体操評価方法、及び準備体操評価プログラム
JP2023155799A (ja) 作業状態検出システムおよび方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220819

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20221007

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20221012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230111

R150 Certificate of patent or registration of utility model

Ref document number: 7210169

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150