JP7361985B2 - Arコンテンツ表示装置、arコンテンツ表示システム、arコンテンツ表示方法およびプログラム - Google Patents

Arコンテンツ表示装置、arコンテンツ表示システム、arコンテンツ表示方法およびプログラム Download PDF

Info

Publication number
JP7361985B2
JP7361985B2 JP2023505095A JP2023505095A JP7361985B2 JP 7361985 B2 JP7361985 B2 JP 7361985B2 JP 2023505095 A JP2023505095 A JP 2023505095A JP 2023505095 A JP2023505095 A JP 2023505095A JP 7361985 B2 JP7361985 B2 JP 7361985B2
Authority
JP
Japan
Prior art keywords
work
worker
marker
proficiency
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023505095A
Other languages
English (en)
Other versions
JPWO2022190455A1 (ja
Inventor
源汰 橘▲高▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2022190455A1 publication Critical patent/JPWO2022190455A1/ja
Application granted granted Critical
Publication of JP7361985B2 publication Critical patent/JP7361985B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06398Performance of employee with respect to a job function
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Educational Technology (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Operations Research (AREA)
  • Marketing (AREA)
  • Quality & Reliability (AREA)
  • Game Theory and Decision Science (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • General Factory Administration (AREA)

Description

本開示は、ARコンテンツ表示装置、ARコンテンツ表示システム、ARコンテンツ表示方法およびプログラムに関する。
近年のヘッドマウントディスプレイの発展、AR(Augmented Reality)のコンテンツ作成アプリの登場などにより、作業指示および技能教育のためにARの技術を製造現場に適用することが検討されている。一方で製品を製造する作業手順、模範作業者の作業動作などをARで表示するためのコンテンツ作成には専門知識と設計工数が必要である。またコンテンツ作成後も作業手順の見直しにより手戻りが発生する。そこで、作業指示および技能教育のためのARコンテンツを自動的に作成する技術が求められている。
特許文献1には、仮想現実または拡張現実用の作業手順、模範作業者の作業動作などに基づく訓練用コンテンツを作成し、この訓練用コンテンツをもとに作業者の一連の作業を評価し、コンテンツを更新するコンテンツ作成システムが開示されている。
特開2020-3707号公報
特許文献1に記載の技術では、作業者の習熟度に関係なくARコンテンツが表示されるので、この技術を作業指示および技能教育に適用したとしても、作業者の習熟度によっては、作業の遂行および技能の習得に期間を要する可能性があり、非効率である。
本開示は、ARコンテンツを表示して作業指示および技能教育を行う現場において、作業の遂行および技能の習得を効率化することを目的としている。
上記目的を達成するため、本開示に係るARコンテンツ表示装置は、作業情報生成部と、記憶部と、習熟度算出部と、ARマーカー決定部と、ARマーカー出力部とを備える。作業情報生成部は、作業者が装着し、ARマーカーに対応するARコンテンツを表示するウェアラブル端末から画像データを取得し、画像データに基づいて作業者の作業動作を示す作業情報を生成する。記憶部は、作業情報、模範作業者の作業動作を示す模範作業情報およびARマーカーを示すARマーカー情報を記憶する。習熟度算出部は、作業情報が示す作業動作を含む工程と同じ工程の、前回の作業情報および模範作業情報に基づいて、作業者と模範作業者との工程内の各作業手順における作業動作の差分を作業者の習熟度として算出し、作業者の習熟度を示す習熟度情報を生成する。ARマーカー決定部は、習熟度情報に基づいて、工程内の各作業手順に割り当てるARマーカーを決定する。ARマーカー出力部は、ARマーカー決定部が決定したARマーカーを示すARマーカー情報をウェアラブル端末に出力する。
本開示によれば、ARコンテンツを表示して作業指示および技能教育を行う現場において、作業者の習熟度に基づいて、ARコンテンツを表示することで、作業の遂行および技能の習得を効率化することができる。
実施の形態に係るARコンテンツ表示システムの構成例を示す図 実施の形態に係る位置座標データの例を示す図 実施の形態に係る作業分類の発生回数の集計結果の例を示す図 実施の形態に係る問題動作の発生回数の集計結果の例を示す図 実施の形態に係るARコンテンツ表示処理を示すフローチャート 実施の形態に係る作業分類習熟度算出処理を示すフローチャート 実施の形態に係る問題動作習熟度算出処理を示すフローチャート 実施の形態に係るARコンテンツ表示装置のハードウェア構成の一例を示す図
以下に、本実施の形態に係るARコンテンツ表示装置、ARコンテンツ表示システム、ARコンテンツ表示方法およびプログラムについて図面を参照して詳細に説明する。なお、図中同一または相当する部分には同じ符号を付す。本実施の形態では、製造現場において作業指示および技能教育ために作業者が装着するウェアラブル端末にARコンテンツを表示する例について説明する。
実施の形態に係るARコンテンツ表示システム100の構成について、図1を用いて説明する。図1に示すように、ARコンテンツ表示システム100は、ウェアラブル端末3にARコンテンツを表示させるARコンテンツ表示装置1と、作業者が装着するウェアラブル端末3とを備える。ARコンテンツ表示装置1とウェアラブル端末3とは、例えば無線で接続されている。
ウェアラブル端末3は、例えばヘッドマウントディスプレイ、スマートフォン、タブレット端末、Webカメラなどであって、撮影機能を備える。ウェアラブル端末3は、撮影した画像を示す画像データをARコンテンツ表示装置1に送信する。ARコンテンツ表示装置1は、受信した画像データに基づいて作業者の作業動作を示す作業情報を生成する。ARコンテンツ表示装置1は、作業者の前回の作業情報と模範作業者の作業動作を示す模範作業情報と比較し、その差分に基づいてARコンテンツのARマーカーを決定してウェアラブル端末3に送信する装置である。ウェアラブル端末3は、受信したARマーカーに対応するARコンテンツを表示する。
ARコンテンツ表示装置1は、ウェアラブル端末3から画像データを取得し、画像データに基づいて作業情報を生成する作業情報生成部11と、作業情報生成部11が生成した作業情報、模範作業情報およびARマーカーを示すARマーカー情報とを記憶する記憶部12とを備える。模範作業情報およびARマーカー情報は、例えば、製品の製造を管理する生産管理システムから取得してもよい。また、ARコンテンツ表示装置1は、前回の作業情報と模範作業情報とに基づいて、作業者と模範作業者と作業動作の差分を作業者の習熟度として算出する習熟度算出部13と、作業者の習熟度に基づいてARマーカーを決定するARマーカー決定部14と、決定したARマーカーをウェアラブル端末3に出力するARマーカー出力部15とを備える。
作業情報生成部11は、ウェアラブル端末3から取得した画像データを解析し、作業者の作業動作を示す作業情報を生成する。具体的には、作業情報生成部11は、画像データの画像に写っている対象物の位置座標を検出する。対象物は、例えば、作業者の頭、目、手、製品および部品である。ウェアラブル端末3から取得した画像データには、ウェアラブル端末3が備える加速度センサ、アイトラッキング機能、モーションカメラなどによって得られたデータを含んでもよい。作業情報生成部11は、作業者が開始した工程および作業手順を特定する。作業者が開始した工程および作業手順を特定方法は、例えば、予め作業手順ごとの作業動作を示す対象物の位置座標の変化を記憶しておき、記憶部12に逐次記憶される新たな作業情報が示す対象物の位置座標の変化が一致する工程および作業手順を開始したと特定する。工程は、例えば、「ネジを締める」、「部品aを部品bに取り付ける」といった製品の製造する各段階の作業の開始から終了までを表す。作業手順は、工程に含まれる各作業の手順を表す。作業情報生成部11は、作業者、作業者が行っている工程および作業手順、ならびに、単位時間ごとの対象物の位置座標を含む作業情報を生成する。
ここで、作業情報生成部11が生成する作業情報について、図2を用いて説明する。図2の例では、作業情報は、作業者を示す「作業者」、作業者が行っている工程を示す「工程SEQ」、作業者が行っている作業手順を示す「手順SEQ」、画像データを取得した日付を示す「日付」、画像データを取得した時刻を示す「時刻」、対象物を示す「対象物」、対象物のX軸座標を示す「X軸」、対象物のY軸座標を示す「Y軸」、および、対象物のZ軸座標を示す「Z軸」の項目を有する。Headは作業者の頭、Eye(R)は作業者の右目、Eye(L)は作業者の左目、Hand(R)は作業者の右手、Hand(L)は作業者の左手、Productは製品、Partsは部品を表している。
図1に戻り、作業情報生成部11は、作業者が開始した工程および作業手順を特定すると、単位時間ごとに生成した作業情報を逐次、記憶部12に記憶させる。記憶部12が予め記憶する模範作業情報は、作業情報と同じ形式のデータであって、模範作業者が過去に行った各工程の各作業手順における単位時間ごとの対象物の位置座標を示す。
習熟度算出部13は、新たな作業情報が記憶部12に記憶されると、新たな作業情報が示す工程および作業手順の前回の作業情報と、同じ工程および作業手順の模範作業情報とに基づいて、作業者と模範作業者と作業動作の差分を作業者の習熟度として算出する。習熟度には、作業分類に基づく習熟度と、問題動作に基づく習熟度とがある。
まず、作業分類による習熟度について説明する。習熟度算出部13は、前回の作業情報に含まれる単位時間ごとの作業者の頭、手および目の位置座標(X軸、Y軸、Z軸)、ならびに、製品の位置座標(X軸、Y軸、Z軸)に基づいて、単位時間中の作業者の動作を「主作業」、「付随作業」、「運搬」、「停滞」の4つに分類する。習熟度算出部13は、作業者の手の位置座標に変化がなかった場合、作業者の動作を「停滞」に分類する。作業者の手の位置座標に変化があった場合、以下の数1を用いて、作業者の頭の位置座標の水平方向の変化量を算出し、作業者が移動したか否かを判定する。時点i-1から時点iまでが単位時間である。
Figure 0007361985000001
習熟度算出部13は、時点iにおける頭のX軸、Z軸の位置座標をそれぞれHXi、HZiとし、水平方向(X-Z座標)の変化量が、閾値0.3m以上である場合、作業者が移動したと判定し、閾値0.3m未満である場合、作業者が移動していないと判定する。判定数1の例では、閾値を0.3mとしているが、この値は例示であって、その他の値でもよい。
習熟度算出部13は、作業者が移動していないと判定した場合、作業者の動作を「主作業」に分類する。習熟度算出部13は、作業者が移動したと判定した場合、以下の数2を用いて、製品の位置座標の変化量を算出し、製品が移動したか否か判定する。
Figure 0007361985000002
習熟度算出部13は、時点iにおける製品のX軸、Y軸、Z軸の位置座標をそれぞれPXi、PYi、PZiとし、製品の位置座標の3軸方向の変化量が、閾値0.5m以上である場合、製品が移動したと判定し、閾値0.5m未満である場合に、製品が移動していないと判定する。数2の例では、閾値を0.5mとしているが、この値は例示であって、その他の値でもよい。
習熟度算出部13は、製品が移動していないと判定した場合、作業者の動作を「付随作業」に分類する。習熟度算出部13は、製品が移動したと判定した場合、作業者の動作を「運搬」に分類する。以下、単位時間中の作業者の動作を「主作業」、「付随作業」、「運搬」、「停滞」の4つに分類する上記の処理を作業分類判定処理という。習熟度算出部13は、単位時間ごとに作業分類判定処理を実行する。例えば作業時間100秒の作業手順に対して単位時間5秒で判定する場合、習熟度算出部13は、20回(i≦20)作業分類判定処理を行う。習熟度算出部13は、当該作業手順における各作業分類の発生回数を集計し、数3を用いて割合を算出する。
Figure 0007361985000003
ここで、作業分類の発生回数の集計結果について、図3を用いて説明する。図3は、作業者Aの工程SEQ001の工程に含まれる手順SEQ1001の作業手順における作業者の作業動作中の各作業分類の発生回数の集計結果の例を示す。作業者Aは、工程SEQ001の工程に含まれる手順SEQ1001の作業手順において、「主作業」を10回、「付随作業」を4回、「運搬」を1回、「停滞」を5回行っている。
習熟度算出部13は、模範作業者の模範作業情報についても同様に、同じ工程の同じ作業手順における各作業分類の発生回数を集計し、数3を用いて割合を算出する。習熟度算出部13は、作業情報に基づいて算出した各作業分類の割合と、模範作業情報に基づいて算出した各作業分類の割合との差分を作業者の習熟度として算出する。作業情報に基づいて算出した各作業分類の割合と、模範作業情報に基づいて算出した各作業分類の割合との差分が大きいほど、作業者の習熟度が低いと言える。以下、作業情報に基づいて算出した各作業分類の割合と、模範作業情報に基づいて算出した各作業分類の割合との差分を作業分類習熟度という。習熟度算出部13は、工程内の各作業手順の作業分類習熟度を示す作業分類習熟度情報をARマーカー決定部14に送る。作業分類習熟度情報は、習熟度情報の例である。
続いて、問題動作による習熟度について説明する。一般的に製造現場の問題動作として「歩く」、「運ぶ」、「背伸びする」、「しゃがむ」、「叩く」および「探す」が知られている。習熟度算出部13は、当該作業手順における、これらの問題動作の発生回数を集計し、割合を算出する。
まず、習熟度算出部13は、上記の数1を用いて、作業者の頭の位置座標の水平方向の変化量を算出し、作業者の頭が水平方向に移動したか否かを判定する。作業者の頭が水平方向に移動したと判定した場合であって、手の位置座標に変化があった場合、習熟度算出部13は、以下の数4および数5を用いて、作業者の手の位置座標の水平方向の変化量を算出し、作業者の手が水平方向に移動したか否かを判定する。
Figure 0007361985000004
Figure 0007361985000005
習熟度算出部13は、時点iにおける左手のX軸、Z軸の位置座標をそれぞれLHXi、LHZiとし、右手のX軸、Z軸の位置座標をそれぞれRHXi、RHZiとし、水平方向(X-Z座標)の変化量が、閾値0.3m以上である場合、手が水平方向に移動したと判定し、閾値0.3m未満である場合、手が水平方向に移動していないと判定する。数4および数5の例では、閾値を0.3mとしているが、この値は例示であって、その他の値でもよい。数4または数5のどちらか一方でも満たす場合、習熟度算出部13は、作業者の手が水平方向に移動したと判定する。
また、習熟度算出部13は、以下の数6および数7を用いて、作業者の手の位置座標の垂直方向の変化量を算出し、作業者の手が垂直方向に移動したか否かを判定する。
Figure 0007361985000006
Figure 0007361985000007
習熟度算出部13は、時点iにおける左手のY軸の位置座標をLHYi、右手のY軸の位置座標をRHYiとし、垂直方向(Y座標)の変化量が、閾値0.3m以上である場合、手が垂直方向に移動したと判定し、閾値0.3m未満である場合、手が垂直方向に移動していないと判定する。数6および数7の例では、閾値を0.3mとしているが、この値は例示であって、その他の値でもよい。数6または数7のどちらか一方でも満たす場合、習熟度算出部13は、作業者の手が垂直方向に移動したと判定する。
習熟度算出部13は、作業者の手が水平方向と垂直方向とのどちらにも移動したと判定した場合、変化量の大きいほうに作業者が手を動かしたと判定する。変化量が同じ場合は、垂直方向に作業者が手を動かしたと判定する。習熟度算出部13は、垂直方向に作業者が手を動かしたと判定し、LHYi-LHYi-1<0、または、RHYi-RHYi-1<0である場合は、「叩く」動作が発生したと判定する。
習熟度算出部13は、水平方向に作業者が手を動かしたと判定した場合、上記の数2を用いて、製品が移動したか否か判定する。習熟度算出部13は、製品が移動したと判定した場合は「運ぶ」動作が発生したと判定し、製品が移動していないと判定した場合は、「歩く」動作が発生したと判定する。
作業者の頭が水平方向に移動したと判定した場合であって、手の位置座標に変化がなかった場合、習熟度算出部13は、習熟度算出部13は、以下の数8および数9を用いて、作業者の目の位置座標の変化量を算出し、作業者の目線が移動したか否かを判定する。
Figure 0007361985000008
Figure 0007361985000009
習熟度算出部13は、時点iにおける左目のX軸、Y軸、Z軸の位置座標をそれぞれLEXi、LEYi、LEZi、右目のX軸、Y軸、Z軸の位置座標をそれぞれREXi、REYi、REZi、とし、3軸方向の変化量が、0.01m以上である場合、目線が移動したと判定し、0.01m未満である場合、目線が移動していないと判定する。数8および数9の例では、閾値を0.01mとしているが、この値は例示であって、その他の値でもよい。数8および数9のどちらか一方でも満たす場合、習熟度算出部13は、作業者の目線が移動したと判定する。習熟度算出部13は、作業者の目線が移動したと判定した場合は「探す」動作が発生したと判定し、作業者の目線が移動していないと判定した場合は、問題動作がなかったと判定する。
一方、作業者の頭が水平方向に移動していないと判定した場合、習熟度算出部13は、以下の数10を用いて、作業者の頭の位置座標の垂直方向の変化量を算出し、作業者の頭が垂直方向に移動したか否かを判定する。
習熟度算出部13は、時点iにおける頭のY軸の位置座標をそれぞれHYiとし、垂直方向(Y座標)の変化量が、閾値0.3m以上である場合に、頭が垂直方向に移動したと判定し、閾値0.3m未満である場合に、頭が垂直方向に移動していないと判定する。数10の例では、閾値を0.3mとしているが、この値は例示であって、その他の値でもよい。
Figure 0007361985000010
作業者の頭が垂直方向に移動していないと判定した場合、習熟度算出部13は、問題動作は発生しなかったと判定する。作業者の頭が垂直方向に移動したと判定した場合、習熟度算出部13は、HYi-HYi-1>0の場合、「背伸びする」動作が発生したと判定し、HYi-HYi-1<0の場合、「しゃがむ」動作が発生したと判定する。以下、「歩く」、「運ぶ」、「背伸びする」、「しゃがむ」、「叩く」および「探す」の問題動作が発生したか否かを判定する上記の処理を問題動作判定処理という。習熟度算出部13は、単位時間ごとに問題動作判定処理を実行する。例えば作業時間100秒の作業手順に対して単位時間5秒で判定する場合、習熟度算出部13は、20回(i≦20)問題動作判定処理を行う。習熟度算出部13は、当該作業手順における、各問題動作の発生回数を集計し、数11を用いて割合を算出する。
Figure 0007361985000011
ここで、問題動作の発生回数の集計結果について、図4を用いて説明する。図4は、工程SEQ001の工程に含まれる手順SEQ1001の作業手順における各問題動作の発生回数の集計結果の例を示す。作業者Aは、工程SEQ001の工程に含まれる手順SEQ1001の作業手順において、「歩く」を1回、「運ぶ」を1回、「しゃがむ」を3回行っている。
習熟度算出部13は、模範作業者の模範作業情報についても同様に、同じ工程の同じ作業手順における各問題動作の発生回数を集計し、数11を用いて割合を算出する。習熟度算出部13は、作業情報に基づいて算出した各問題動作の割合と、模範作業情報に基づいて算出した各問題動作の割合との差分を作業者の習熟度として算出する。作業情報に基づいて算出した各問題動作の割合と、模範作業情報に基づいて算出した各問題動作の割合との差分が大きいほど、作業者の習熟度は低いと言える。以下、作業情報に基づいて算出した各問題動作の割合と、模範作業情報に基づいて算出した各問題動作の割合との差分を問題動作習熟度という。習熟度算出部13は、工程内の各作業手順の問題動作習熟度を示す問題動作習熟度情報をARマーカー決定部14に送る。問題動作習熟度情報は、習熟度情報の例である。
ARマーカー決定部14は、作業分類習熟度情報および問題動作習熟度情報を受け取ると、当該工程の各作業手順に対応するARマーカーを記憶部12から抽出する。各工程の各作業手順に対応するARマーカーは、例えば模範作業情報に基づいて、予め対応するARコンテンツおよび表示位置が決定されているものとする。ARマーカー決定部14は、以下の数12を目的関数とし、作業分類習熟度情報または問題動作習熟度情報に基づいて、目的関数が最大となるように作業手順に割り当てるARマーカーを決定する。
Figure 0007361985000012
Pは、工程内の作業手順pの集合である。Tは、模範作業者の工程内の作業手順pの時点tからt’までの作業時間の集合である。Wは、問題動作の集合である。ARpは、作業手順pに対応するARマーカーの集合である。apwは、作業手順pにおける作業分類習熟度または問題動作習熟度である。
bptt’は、作業手順pの作業時間の差異の割合であって、作業時間の差異の割合bptt’=(作業手順pの模範作業者の作業時間-作業者の作業時間)/作業工程pの模範作業者の作業時間の計算式を用いて算出する。xptjは、作業手順pにARマーカーjを割り当てるなら1、割り当てないなら0とする意思決定変数である。
また、ARマーカー決定部14は、数13に示すメモリ容量の制約条件、または、数14に示すARコンテンツの表示の制約条件を満たして、目的関数が最大となるように作業手順に割り当てるARマーカーを決定する。
Figure 0007361985000013
数13は、ARコンテンツをウェアラブル端末3のメモリ容量の上限を超えずに表示するための制約条件である。ARマーカーjのARコンテンツの表示に使用するメモリ量をMj、ウェアラブル端末3で一度に使用できるメモリ容量の上限をupとする。数13において左辺は、作業手順pに割り当てるARマーカーに対応するARコンテンツの使用メモリ総量を表し、右辺はメモリ容量の上限値となっているため、一度に使用できるメモリ容量の上限を超えずにARコンテンツを表示することができる。つまり、数13の制約条件を満たすように、割り当てるARマーカーを決定すれば、ウェアラブル端末3のパフォーマンスを落とさずにARコンテンツを表示することができる。
また、メモリ容量が十分な場合であっても作業者の視認性を低下させないために、表示するARコンテンツ数の上限を設定してもよい。
Figure 0007361985000014
数14は、同じ位置座標に重畳してARコンテンツを表示しないための制約条件である。位置座標の集合をF、作業手順pの時間tの位置座標fに表示されるARマーカーの集合をARptfとする。数14において左辺は作業手順pの時間tの位置座標fに表示されるARマーカーの総数であり、1以下に設定することでARコンテンツを重畳表示しない設定にできる。数14からfを除けば、同時に表示されるARコンテンツの数を制限することができる。
ARマーカー決定部14は、目的関数である数12と、制約条件である数13または数14を用いて、目的関数を最大化する組み合わせ最適化問題を解決し、作業手順に割り当てるARマーカーを決定する。この組み合わせ最適化問題を解決するために、例えば、ヒューリスティックアルゴリズムを使用してもよいし、最適解を導出する数理最適化ソルバーを使用してもよい。ARマーカー決定部14は、記憶部12に記憶された新たな作業情報に基づいて、ARマーカーを割り当てた作業手順が開始されたか否かを判定する。ARマーカー決定部14は、ARマーカーを割り当てた作業手順が開始されたと判定したタイミングで、当該ARマーカーを示すARマーカー情報をARマーカー出力部15に送る。
ARマーカー出力部15は、受け取ったARマーカー情報をウェアラブル端末3に送信する。ウェアラブル端末3は、受信したARマーカー情報が示すARマーカーに対応するARコンテンツを表示する。数13または数14の制約条件を満たし、数12に示す目的関数が最大となるように作業手順に割り当てるARマーカーを決定することにより、作業分類習熟度または問題動作習熟度が大きい作業手順、つまり、作業者の習熟度が低い作業手順について優先的にARコンテンツが表示される。
ここで、ARコンテンツ表示装置1が実行する処理の流れについて、図5~図7を用いて説明する。図5に示すARコンテンツ表示処理は、ARコンテンツ表示装置1に電源が投入された時に開始する。ARコンテンツ表示装置1の作業情報生成部11は、ウェアラブル端末3から画像データを取得しない場合(ステップS11;NO)、処理はステップS19に移行する。作業情報生成部11は、ウェアラブル端末3から画像データを取得すると(ステップS11;YES)、画像データに基づいて、作業者が開始した工程および作業手順を特定し、作業情報を生成する(ステップS12)。ステップS12は、作業情報生成ステップの例である。作業情報生成部11は、作業者が開始した工程および作業手順を特定すると、単位時間ごとに生成した作業情報を逐次記憶部12に記憶させる。
図2の例では、作業情報は、作業者を示す「作業者」、作業者が行っている工程を示す「工程SEQ」、作業者が行っている作業手順を示す「手順SEQ」、画像データを取得した日付を示す「日付」、画像データを取得した時刻を示す「時刻」、対象物を示す「対象物」、対象物のX軸座標を示す「X軸」、対象物のY軸座標を示す「Y軸」、および、対象物のZ軸座標を示す「Z軸」の項目を有する。Headは作業者の頭、Eye(R)は作業者の右目、Eye(L)は作業者の左目、Hand(R)は作業者の右手、Hand(L)は作業者の左手、Productは製品、Partsは部品を表している。
図5に戻り、習熟度算出部13は、新たな作業情報が記憶部12に記憶されると、作業分類習熟度算出処理を実行し(ステップS13)、作業分類習熟度情報を生成する。習熟度算出部13は、生成した作業分類習熟度情報をARマーカー決定部14に送る。また、習熟度算出部13は、問題動作習熟度算出処理を実行し(ステップS14)、問題動作習熟度情報を生成する。ステップS13およびステップS14は、習熟度算出ステップの例である。習熟度算出部13は、生成した問題動作習熟度情報をARマーカー決定部14に送る。ステップS13とステップS14はどちらが先でもよい。
ARマーカー決定部14は、作業分類習熟度情報および問題動作習熟度情報を受け取ると、当該工程の各作業手順に対応するARマーカーを記憶部12から抽出する。ARマーカー決定部14は、上記の数12を目的関数とし、作業分類習熟度情報または問題動作習熟度情報に基づいて、目的関数が最大となるように各作業手順に割り当てるARマーカーを決定する(ステップS15)。ステップS15は、ARマーカー決定ステップの例である。このとき、ARマーカー決定部14は、上記の数13に示すメモリ容量の制約条件、または、数14に示すARコンテンツの表示数の制約条件を満たして、目的関数を最大化するARマーカーを決定するものとする。ARマーカー決定部14は、記憶部12に記憶された新たな作業情報に基づいて、ARマーカーを割り当てた作業手順が開始された否かを判定する(ステップS16)。ARマーカーを割り当てた作業手順が開始されていない場合(ステップS16;NO)、ARマーカー決定部14は、ステップS16を繰り返して、ARマーカーを割り当てた作業手順の開始を待機する。ARマーカーを割り当てた作業手順が開始された場合(ステップS16;YES)、ARマーカー決定部14は、当該ARマーカーを示すARマーカー情報をARマーカー出力部15に送る。
ARマーカー出力部15は、受け取ったARマーカー情報をウェアラブル端末3に送信する(ステップS17)。ステップS17は、ARマーカー出力ステップの例である。ウェアラブル端末3は、受信したARマーカー情報が示すARマーカーに対応するARコンテンツを表示する。
ARマーカー決定部14は、記憶部12に記憶された新たな作業情報に基づいて、工程が終了したか否かを判定する(ステップS18)。工程が終了していなければ(ステップS18;NO)、処理はステップS16に戻り、ステップS16~ステップS18を繰り返す。工程が終了すると(ステップS18;YES)、ARコンテンツ表示装置1の電源がOFFになっていなければ(ステップS19;NO)、処理はステップS11に戻り、ステップS11~ステップS19を繰り返す。電源がOFFになると(ステップS19;YES)、処理は終了する。
続いて、ステップS13で定義した作業分類習熟度算出処理の流れについて、図6を用いて説明する。ARコンテンツ表示装置1の習熟度算出部13は、前回の作業情報に含まれる単位時間ごとの作業者の頭、手および目の位置座標(X軸、Y軸、Z軸)、ならびに、製品の位置座標(X軸、Y軸、Z軸)に基づいて、作業者の手の位置座標に変化があったか否かを判定する(ステップS21)。作業者の手の位置座標に変化がなかった場合(ステップS21;NO)、作業者の動作を「停滞」に分類する(ステップS22)。作業者の手の位置座標に変化があった場合(ステップS21;YES)、上記の数1を用いて、作業者の頭の位置座標の水平方向の変化量を算出し、作業者が移動したか否かを判定する(ステップS23)。
習熟度算出部13は、作業者が移動していないと判定した場合(ステップS23;NO)、作業者の動作を「主作業」に分類する(ステップS24)。習熟度算出部13は、作業者が移動したと判定した場合(ステップS23;YES)、上記の数2を用いて、製品の位置座標の変化量を算出し、製品が移動したか否か判定する(ステップS25)。
習熟度算出部13は、製品が移動していないと判定した場合(ステップS25;NO)、作業者の動作を「付随作業」に分類する(ステップS26)。習熟度算出部13は、製品が移動したと判定した場合(ステップS25;YES)、作業者の動作を「運搬」に分類する(ステップS27)。作業手順の最後まで分類していない場合(ステップS28;NO)、処理はステップS21に戻り、ステップS21~ステップS28を繰り返す。作業手順の最後まで分類した場合(ステップS28;YES)、習熟度算出部13は、当該作業手順における各作業分類の発生回数を集計し、上記の数3を用いて各作業分類の割合を算出する(ステップS29)。
ここで、作業分類の発生回数の集計結果について、図3を用いて説明する。図3は、作業者Aの工程SEQ001の工程に含まれる手順SEQ1001の作業手順における作業者の作業動作中の各作業分類の発生回数の集計結果の例を示す。作業者Aは、工程SEQ001の工程に含まれる手順SEQ1001の作業手順において、「主作業」を10回、「付随作業」を4回、「運搬」を1回、「停滞」を5回行っている。
図6に戻り、習熟度算出部13は、模範作業者の模範作業情報についても同様に、ステップS21~ステップS28を実行する。各ステップにおいて作業者は模範作業者と読み替える。習熟度算出部13は、作業情報に基づいて算出した各作業分類の割合と、模範作業情報に基づいて算出した各作業分類の割合との差分を作業者の習熟度として算出し、工程内の各作業手順の作業分類習熟度を示す作業分類習熟度情報を生成する(ステップS30)。作業分類習熟度が大きいほど、作業者の習熟度が低いと言える。習熟度算出部13は、作業分類習熟度情報をARマーカー決定部14に送り、処理を終了する。
続いて、ステップS14で定義した問題動作習熟度算出処理の流れについて、図7を用いて説明する。ARコンテンツ表示装置1の上記の数1を用いて、作業者の頭の位置座標の水平方向の変化量を算出し、作業者の頭が水平方向に移動したか否かを判定する(ステップS31)。作業者の頭が水平方向に移動したと判定した場合(ステップS31;YES)、習熟度算出部13は、手の位置座標に変化があったか否かを判定する(ステップS32)。手の位置座標に変化があった場合(ステップS32;YES)、習熟度算出部13は、上記の数4、数5、数6および数7を用いて、作業者の手の位置座標の水平方向および垂直方向の変化量を算出し、作業者が垂直方向に手を動かしたか否かを判定する(ステップS33)。
習熟度算出部13は、垂直方向に作業者が手を動かしたと判定した場合(ステップS33;YES)、LHYi-LHYi-1<0、または、RHYi-RHYi-1<0であるか否かを判定する(ステップS34)。LHYi-LHYi-1<0、または、RHYi-RHYi-1<0である場合(ステップS34;YES)、「叩く」動作が発生したと判定する(ステップS35)。LHYi-LHYi-1<0、または、RHYi-RHYi-1<0でなかった場合(ステップS34;NO)、問題動作はなかったと判定する(ステップS36)。
習熟度算出部13は、垂直方向に作業者が手を動かしたと判定しなかった場合(ステップS33;NO)、つまり、水平方向に作業者が手を動かしたと判定した場合、上記の数2を用いて、製品が移動したか否か判定する(ステップS37)。習熟度算出部13は、製品が移動したと判定した場合は(ステップS37;YES)、「運ぶ」動作が発生したと判定し(ステップS38)、製品が移動していないと判定した場合は(ステップS37;NO)、「歩く」動作が発生したと判定する(ステップS39)。
手の位置座標に変化がなかった場合(ステップS32;NO)、習熟度算出部13は、上記の数8および数9を用いて、作業者の目の位置座標の変化量を算出し、作業者の目線が移動したか否かを判定する(ステップS40)。習熟度算出部13は、作業者の目線が移動したと判定した場合は(ステップS40;YES)、「探す」動作が発生したと判定し(ステップS41)、作業者の目線が移動していないと判定した場合は(ステップS40;NO)、問題動作がなかったと判定する(ステップS42)。
一方、作業者の頭が水平方向に移動していないと判定した場合(ステップS31;NO)、習熟度算出部13は、上記の数10を用いて、作業者の頭の位置座標の垂直方向の変化量を算出し、作業者の頭が垂直方向に移動したか否かを判定する(ステップS43)。
作業者の頭が垂直方向に移動していないと判定した場合(ステップS43;NO)、習熟度算出部13は、問題動作は発生しなかったと判定する(ステップS44)。作業者の頭が垂直方向に移動したと判定した場合(ステップS44;YES)、習熟度算出部13は、HYi-HYi-1>0であるか否かを判定する(ステップS45)。HYi-HYi-1>0である場合(ステップS45;YES)、習熟度算出部13は、「背伸びする」動作が発生したと判定する(ステップS46)。HYi-HYi-1>0でない場合(ステップS45;NO)、つまり、HYi-HYi-1<0である場合、習熟度算出部13は、「しゃがむ」動作が発生したと判定する(ステップS47)。
作業手順の最後まで問題動作を判定していない場合(ステップS48;NO)、処理はステップS31に戻り、ステップS31~ステップS48を繰り返す。作業手順の最後まで問題動作を判定した場合(ステップS48;YES)、習熟度算出部13は、当該作業手順における各作業分類の発生回数を集計し、上記の数3を用いて各作業分類の割合を算出する(ステップS49)。
ここで、作業分類の発生回数の集計結果について、図4を用いて説明する。図4は、作業者Aの工程SEQ001の工程に含まれる手順SEQ1001の作業手順における作業者の作業動作中の各問題動作の発生回数の集計結果の例を示す。作業者Aは、工程SEQ001の工程に含まれる手順SEQ1001の作業手順において、「歩く」を1回、「運ぶ」を1回、「しゃがむ」を3回行っている。
図7に戻り、習熟度算出部13は、模範作業者の模範作業情報についても同様に、ステップS31~ステップS49を実行する。各ステップにおいて作業者は模範作業者と読み替える。習熟度算出部13は、作業情報に基づいて算出した各問題動作の割合と、模範作業情報に基づいて算出した各問題動作の割合との差分を作業者の習熟度として算出し、工程内の各作業手順の問題動作習熟度を示す問題動作習熟度情報を生成する(ステップS50)。問題動作習熟度が大きいほど、作業者の習熟度が低いと言える。習熟度算出部13は、問題動作習熟度情報をARマーカー決定部14に送り、処理を終了する。
実施の形態に係るARコンテンツ表示装置1によれば、ARコンテンツを表示して作業指示および技能教育を行う現場において、作業者の習熟度に基づいて、ARコンテンツを表示することで、作業の遂行および技能の習得を効率化することができる。
また、数13に示すメモリ容量の制約条件を設けることで、ARアプリのパフォーマンスの低下を防止することができる。さらにあ、数14に示すARコンテンツの表示の制約条件を設けることで、作業者の視認性を確保することができる。
ARコンテンツ表示装置1のハードウェア構成について図8を用いて説明する。図8に示すように、ARコンテンツ表示装置1は、一時記憶部101、記憶部102、計算部103、入力部104、送受信部105および表示部106を備える。一時記憶部101、記憶部102、入力部104、送受信部105および表示部106はいずれもBUSを介して計算部103に接続されている。
計算部103は、例えばCPU(Central Processing Unit)である。計算部103は、記憶部102に記憶されている制御プログラムに従って、作業情報生成部11、習熟度算出部13およびARマーカー決定部14の処理を実行する。
一時記憶部101は、例えばRAM(Random-Access Memory)である。一時記憶部101は、記憶部102に記憶されている制御プログラムをロードし、計算部103の作業領域として用いられる。
記憶部102は、フラッシュメモリ、ハードディスク、DVD-RAM(Digital Versatile Disc - Random Access Memory)、DVD-RW(Digital Versatile Disc - ReWritable)などの不揮発性メモリである。記憶部102は、ARコンテンツ表示装置1の処理を計算部103に行わせるためのプログラムを予め記憶し、また、計算部103の指示に従って、このプログラムが記憶するデータを計算部103に供給し、計算部103から供給されたデータを記憶する。記憶部12は、記憶部102に構成される。
入力部104は、キーボード、ポインティングデバイス、音声入力機器などの入力装置と、入力装置をBUSに接続するインターフェース装置である。入力部104を介して、ユーザが入力した情報が計算部103に供給される。
送受信部105は、ネットワークに接続する網終端装置または無線通信装置、およびそれらと接続するシリアルインターフェースまたはLAN(Local Area Network)インターフェースである。送受信部105は、作業情報生成部11およびARマーカー出力部15として機能する。
表示部106は、LCD(Liquid Crystal Display)、有機EL(electroluminescence)ディスプレイなどの表示装置である。ARコンテンツ表示装置1にデータを直接入力する構成では、表示部106は、入力画面を表示する。
図1に示すARコンテンツ表示装置1の作業情報生成部11、記憶部12、習熟度算出部13、ARマーカー決定部14およびARマーカー出力部15の処理は、制御プログラムが、一時記憶部101、計算部103、記憶部102、入力部104、送受信部105および表示部106などを資源として用いて処理することによって実行する。
その他、前記のハードウェア構成およびフローチャートは一例であり、任意に変更および修正が可能である。
計算部103、一時記憶部101、記憶部102、入力部104、送受信部105、表示部106などのARコンテンツ表示装置1の処理を行う中心となる部分は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。例えば、前記の動作を実行するためのコンピュータプログラムを、フレキシブルディスク、CD-ROM(Compact Disc - Read Only Memory)、DVD-ROM(Digital Versatile Disc - Read Only Memory)などのコンピュータが読み取り可能な記録媒体に格納して配布し、当該コンピュータプログラムをコンピュータにインストールすることにより、前記の処理を実行するARコンテンツ表示装置1を構成してもよい。また、インターネットに代表される通信ネットワーク上のサーバ装置が有する記憶装置に当該コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロードすることでARコンテンツ表示装置1を構成してもよい。
また、ARコンテンツ表示装置1の機能を、OS(Operating System)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体、記憶装置に格納してもよい。
また、輸送波にコンピュータプログラムを重畳し、通信ネットワークを介して提供することも可能である。例えば、通信ネットワーク上の掲示板(BBS, Bulletin Board System)に前記コンピュータプログラムを掲示し、通信ネットワークを介して前記コンピュータプログラムを提供してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できる構成にしてもよい。
上記の実施の形態では、ARマーカー決定部14は、数13に示すメモリ容量の制約条件、または、数14に示すARコンテンツの表示の制約条件を満たして、目的関数が最大となるように作業手順に割り当てるARマーカーを決定するが、これに限らず、どちらの制約条件も満たして、目的関数が最大となるように作業手順に割り当てるARマーカーを決定してもよい。
上記の実施の形態では、製造現場において作業指示および技能教育ために作業者が装着するウェアラブル端末にARコンテンツを表示する例について説明したが、これに限らず、作業者が装着するウェアラブル端末にARコンテンツを表示する現場に適用可能である。この場合、それぞれの現場における作業分類および問題動作を設定する。
上記の実施の形態では、ARコンテンツ表示処理の中で、作業分類習熟度算出処理および問題動作習熟度算出処理を毎回実行するフローチャートになっているが、作業分類習熟度算出処理および問題動作習熟度算出処理を予め実行して起き、作業分類習熟度情報および問題動作習熟度情報を記憶部12に記憶しておいてもよい。
なお、本開示は、本開示の広義の精神と範囲を逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、上述した実施の形態は、この開示を説明するためのものであり、本開示の範囲を限定するものではない。即ち、本開示の範囲は、実施の形態ではなく、請求の範囲によって示される。そして、請求の範囲内及びそれと同等の開示の意義の範囲内で施される様々な変形が、この開示の範囲内とみなされる。
本出願は、2021年3月9日に出願された、日本国特許出願特願2021-37344号に基づく。本明細書中に日本国特許出願特願2021-37344号の明細書、特許請求の範囲、図面全体を参照として取り込むものとする。
1 ARコンテンツ表示装置、3 ウェアラブル端末、11 作業情報生成部、12 記憶部、13 習熟度算出部、14 ARマーカー決定部、15 ARマーカー出力部、100 ARコンテンツ表示システム、101 一時記憶部、102 記憶部、103 計算部、104 入力部、105 送受信部、106 表示部。

Claims (8)

  1. 作業者が装着し、ARマーカーに対応するARコンテンツを表示するウェアラブル端末から画像データを取得し、前記画像データに基づいて作業者の作業動作を示す作業情報を生成する作業情報生成部と、
    前記作業情報、模範作業者の作業動作を示す模範作業情報およびARマーカーを示すARマーカー情報を記憶する記憶部と、
    前記作業情報が示す作業動作を含む工程と同じ工程の、前回の前記作業情報および前記模範作業情報に基づいて、前記作業者と前記模範作業者との工程内の各作業手順における作業動作の差分を前記作業者の習熟度として算出し、前記作業者の習熟度を示す習熟度情報を生成する習熟度算出部と、
    前記習熟度情報に基づいて、工程内の各作業手順に割り当てるARマーカーを決定するARマーカー決定部と、
    前記ARマーカー決定部が決定したARマーカーを示す前記ARマーカー情報を前記ウェアラブル端末に出力するARマーカー出力部と、
    を備えるARコンテンツ表示装置。
  2. 前記ARマーカー決定部は、同時に表示されるARコンテンツの数の制約条件を満たして、工程内の各作業手順に割り当てるARマーカーを決定する、
    請求項1に記載のARコンテンツ表示装置。
  3. 前記作業情報生成部は、前記画像データの画像に写っている前記作業者の頭、目および手、ならびに、物品を含む対象物の位置座標を検出し、単位時間ごとの前記対象物の位置座標を含む前記作業情報を生成する、
    請求項1または2に記載のARコンテンツ表示装置。
  4. 前記習熟度算出部は、
    前記作業情報が示す作業動作を含む工程と同じ工程の、前回の前記作業情報および前記模範作業情報に基づいて、前記作業者および前記模範作業者の作業動作の作業分類を判定し、前記作業者と前記模範作業者との工程内の各作業手順における、主作業、付随作業、運搬、または停滞の作業分類に応じた割合の差分を前記作業者の習熟度として算出する、
    請求項1から3のいずれか1項に記載のARコンテンツ表示装置。
  5. 前記習熟度算出部は、
    前記作業情報が示す作業動作を含む工程と同じ工程の、前回の前記作業情報および前記模範作業情報に基づいて、前記作業者および前記模範作業者の作業動作から問題動作を判定し、前記作業者と前記模範作業者との工程内の各作業手順における問題動作に応じた割合の差分を前記作業者の習熟度として算出する、
    請求項1から4のいずれか1項に記載のARコンテンツ表示装置。
  6. 作業者が装着し、ARマーカーに対応するARコンテンツを表示するウェアラブル端末と、
    前記ウェアラブル端末から画像データを取得し、前記画像データに基づいて作業者の作業動作を示す作業情報を生成する作業情報生成部、
    前記作業情報、模範作業者の作業動作を示す模範作業情報およびARマーカーを示すARマーカー情報を記憶する記憶部、
    前記作業情報が示す作業動作を含む工程と同じ工程の、前回の前記作業情報および前記模範作業情報に基づいて、前記作業者と前記模範作業者との工程内の各作業手順における作業動作の差分を前記作業者の習熟度として算出し、前記作業者の習熟度を示す習熟度情報を生成する習熟度算出部、
    前記習熟度情報に基づいて、工程内の各作業手順に割り当てるARマーカーを決定するARマーカー決定部、ならびに、
    前記ARマーカー決定部が決定したARマーカーを示す前記ARマーカー情報を前記ウェアラブル端末に出力するARマーカー出力部、
    を有するARコンテンツ表示装置と、
    を備えるARコンテンツ表示システム。
  7. ARコンテンツ表示装置が実行する、
    作業者が装着し、ARマーカーに対応するARコンテンツを表示するウェアラブル端末から画像データを取得し、前記画像データに基づいて作業者の作業動作を示す作業情報を生成する作業情報生成ステップと、
    前記作業情報が示す作業動作を含む工程と同じ工程の、前回の前記作業情報および模範作業者の作業動作を示す模範作業情報に基づいて、前記作業者と前記模範作業者との工程内の各作業手順における作業動作の差分を前記作業者の習熟度として算出し、前記作業者の習熟度を示す習熟度情報を生成する習熟度算出ステップ、
    前記習熟度情報に基づいて、工程内の各作業手順に割り当てるARマーカーを決定するARマーカー決定ステップと、
    前記ARマーカー決定ステップで決定したARマーカーを示すARマーカー情報を前記ウェアラブル端末に出力するARマーカー出力ステップと、
    を備えるARコンテンツ表示方法。
  8. コンピュータを、
    作業者が装着し、ARマーカーに対応するARコンテンツを表示するウェアラブル端末から画像データを取得し、前記画像データに基づいて作業者の作業動作を示す作業情報を生成する作業情報生成部、
    前記作業情報が示す作業動作を含む工程と同じ工程の、前回の前記作業情報および模範作業者の作業動作を示す模範作業情報に基づいて、前記作業者と前記模範作業者との工程内の各作業手順における作業動作の差分を前記作業者の習熟度として算出し、前記作業者の習熟度を示す習熟度情報を生成する習熟度算出部、
    前記習熟度情報に基づいて、工程内の各作業手順に割り当てるARマーカーを決定するARマーカー決定部、ならびに、
    前記ARマーカー決定部が決定したARマーカーを示すARマーカー情報を前記ウェアラブル端末に出力するARマーカー出力部、
    として機能させるプログラム。
JP2023505095A 2021-03-09 2021-11-02 Arコンテンツ表示装置、arコンテンツ表示システム、arコンテンツ表示方法およびプログラム Active JP7361985B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021037344 2021-03-09
JP2021037344 2021-03-09
PCT/JP2021/040466 WO2022190455A1 (ja) 2021-03-09 2021-11-02 Arコンテンツ表示装置、arコンテンツ表示システム、arコンテンツ表示方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2022190455A1 JPWO2022190455A1 (ja) 2022-09-15
JP7361985B2 true JP7361985B2 (ja) 2023-10-16

Family

ID=83227793

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023505095A Active JP7361985B2 (ja) 2021-03-09 2021-11-02 Arコンテンツ表示装置、arコンテンツ表示システム、arコンテンツ表示方法およびプログラム

Country Status (3)

Country Link
US (1) US20240071245A1 (ja)
JP (1) JP7361985B2 (ja)
WO (1) WO2022190455A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7745802B1 (ja) * 2025-04-30 2025-09-29 株式会社エヌ・エフ・ラボラトリーズ 評価装置、評価方法、およびコンピュータプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017058783A (ja) 2015-09-14 2017-03-23 富士ゼロックス株式会社 情報処理装置、情報処理方法、情報処理システム及びプログラム
WO2017119127A1 (ja) 2016-01-08 2017-07-13 三菱電機株式会社 作業支援装置、作業学習装置及び作業支援システム
JP2020003708A (ja) 2018-06-29 2020-01-09 株式会社日立システムズ コンテンツ提示システムおよびコンテンツ提示方法
JP2020034849A (ja) 2018-08-31 2020-03-05 オムロン株式会社 作業支援装置、作業支援方法及び作業支援プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4913913B2 (ja) * 2010-04-28 2012-04-11 新日鉄ソリューションズ株式会社 情報処理システム、情報処理方法及びプログラム
US9336238B2 (en) * 2012-06-16 2016-05-10 Evrio, Inc. Mobile wireless object recognition and control
US20210327303A1 (en) * 2017-01-24 2021-10-21 Tienovix, Llc System and method for augmented reality guidance for use of equipment systems
US11819369B2 (en) * 2018-03-15 2023-11-21 Zoll Medical Corporation Augmented reality device for providing feedback to an acute care provider
JP7191560B2 (ja) * 2018-06-29 2022-12-19 株式会社日立システムズ コンテンツ作成システム
KR102243259B1 (ko) * 2019-10-07 2021-04-21 주식회사 한화 시선 추적 기술을 기반으로 하는 작업자의 작업을 학습 및 평가하기 위한 장치 및 그 방법
US11620796B2 (en) * 2021-03-01 2023-04-04 International Business Machines Corporation Expert knowledge transfer using egocentric video

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017058783A (ja) 2015-09-14 2017-03-23 富士ゼロックス株式会社 情報処理装置、情報処理方法、情報処理システム及びプログラム
WO2017119127A1 (ja) 2016-01-08 2017-07-13 三菱電機株式会社 作業支援装置、作業学習装置及び作業支援システム
JP2020003708A (ja) 2018-06-29 2020-01-09 株式会社日立システムズ コンテンツ提示システムおよびコンテンツ提示方法
JP2020034849A (ja) 2018-08-31 2020-03-05 オムロン株式会社 作業支援装置、作業支援方法及び作業支援プログラム

Also Published As

Publication number Publication date
US20240071245A1 (en) 2024-02-29
WO2022190455A1 (ja) 2022-09-15
JPWO2022190455A1 (ja) 2022-09-15

Similar Documents

Publication Publication Date Title
JP6082101B2 (ja) 身体動作採点装置、ダンス採点装置、カラオケ装置及びゲーム装置
US20160269631A1 (en) Image generation method, system, and apparatus
US20130241821A1 (en) Image processing system, image processing method, and storage medium storing image processing program
TW201324435A (zh) 資訊處理裝置,資訊處理方法及程式
JP7339604B2 (ja) 動作認識装置、動作認識方法、動作認識プログラム及び動作認識システム
CN114120436B (zh) 动作识别模型的训练方法、动作识别方法及相关装置
JPWO2020049847A1 (ja) 推定装置、学習装置、推定方法、学習方法及びプログラム
JP7361985B2 (ja) Arコンテンツ表示装置、arコンテンツ表示システム、arコンテンツ表示方法およびプログラム
JP2021523440A (ja) オプティカルフロー計算方法及びコンピューティング機器
US11961601B1 (en) Adaptive user interface for determining errors in performance of activities
US20240185549A1 (en) Wallpaper display method and apparatus, and electronic device
JP7236694B2 (ja) 情報処理方法、及び情報処理システム
CN110796156B (zh) 信息处理方法及信息处理系统
US9251242B2 (en) Data relatedness assessment device, data relatedness assessment method, and recording medium
JPWO2022224447A5 (ja) 制御装置、制御方法及びプログラム
US11380071B2 (en) Augmented reality system and display method for anchoring virtual object thereof
CN112289404A (zh) 一种步态训练计划的生成方法、装置、设备及存储介质
CN114496279B (zh) 菌群移植配型的排序方法、系统、计算机设备及存储介质
CN113449406A (zh) 打紧工具方案推荐方法和装置及存储介质
CN113971230B (zh) 动作搜索方法、装置、电子设备及存储介质
JP7433126B2 (ja) 画像表示システム、画像表示装置、サーバ、画像表示方法およびプログラム
CN114225420A (zh) 动作数据获取方法、系统、装置、设备和存储介质
US20170056774A1 (en) Object manipulation method, object manipulation program, and information processing apparatus
JP2008276530A (ja) 干渉計算装置およびその制御方法
JP2017505957A5 (ja)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231003

R150 Certificate of patent or registration of utility model

Ref document number: 7361985

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150