JP2023155799A - 作業状態検出システムおよび方法 - Google Patents
作業状態検出システムおよび方法 Download PDFInfo
- Publication number
- JP2023155799A JP2023155799A JP2022065344A JP2022065344A JP2023155799A JP 2023155799 A JP2023155799 A JP 2023155799A JP 2022065344 A JP2022065344 A JP 2022065344A JP 2022065344 A JP2022065344 A JP 2022065344A JP 2023155799 A JP2023155799 A JP 2023155799A
- Authority
- JP
- Japan
- Prior art keywords
- line
- sight
- work
- reference point
- worker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 85
- 238000000034 method Methods 0.000 title claims abstract description 27
- 230000003190 augmentative effect Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 210000003128 head Anatomy 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 210000001508 eye Anatomy 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 238000007689 inspection Methods 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 238000004590 computer program Methods 0.000 description 2
- 230000000875 corresponding effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 101150002378 gC gene Proteins 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 230000002207 retinal effect Effects 0.000 description 2
- 238000011144 upstream manufacturing Methods 0.000 description 2
- 241000287181 Sturnus vulgaris Species 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 238000003754 machining Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 238000007591 painting process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
- 238000004381 surface treatment Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Images
Landscapes
- General Factory Administration (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
【課題】作業対象物への作業状態をより正確に検出できるようにした作業状態検出システムおよび方法を提供すること。【解決手段】作業対象物2へ作業するときの視線を検出する作業状態検出システム1は、作業対象物に作業者3の視線を追跡するための基準点51を設定する視線基準点設定部14と、作業者の視線31を検出する視線検出部15と、視線検出部により検出された視線に基づいて、作業者の視線が作業対象物に接触する接触点21の視線基準点51からの相対座標値を視線軌跡データとして算出し、算出された視線軌跡データを記憶部17へ保存させる視線追跡部16とを備える。【選択図】図1
Description
本発明は、作業状態検出システムおよび方法に関する。
検査作業、組立作業、加工作業などでは、作業品質の維持と向上のために、作業の安定性と均一化が望まれている。特許文献1では、視線追跡装置を作業者に装着して作業者の視線を追跡することにより、配線を自動的に識別して、誤配線を防止する。特許文献2では、作業者の視線を追跡して正解の視線追跡データと比較することにより、作業指示書への記載漏れを検知する。さらに特許文献2では、作業者の動きを検出して、作業場所の平面図または立体図に表示させる。
作業者が作業対象物に対して作業しているときの視線を追跡すると、可視化された視線と実際の視線とがずれることがある。さらに、作業対象物を回転させたり裏返しにしたりするように、作業対象物の姿勢が変わる場合、作業者の視線追跡に誤差が生じる。
作業者の視線を一定の基準の下で正確に検出できない場合、熟練作業者の視線の動きと未熟な作業者の視線の動きとを対比することができず、視線の動きから作業品質を解析することができない。
本発明は、以上の課題に鑑みてなされたものであり、その目的は、作業対象物への作業状態をより正確に検出できるようにした作業状態検出システムおよび方法を提供することにある。
上記課題を解決すべく、本発明の一つの観点に従う作業状態検出システムは、作業対象物へ作業するときの視線を検出する作業状態検出システムであって、作業対象物に作業者の視線を追跡するための基準点を設定する視線基準点設定部と、作業者の視線を検出する視線検出部と、視線検出部により検出された視線に基づいて、作業者の視線が作業対象物に接触する接触点の視線基準点からの相対座標値を視線軌跡データとして算出し、算出された視線軌跡データを記憶部へ保存させる視線追跡部とを備える。
本発明によれば、作業者の視線が作業対象物に接触する接触点の視線基準点からの相対座標値として視線軌跡データを算出するため、作業対象物の位置ずれなどの影響を抑制して、視線を安定して検出することができる。
以下、図面に基づいて、本発明の実施の形態を説明する。本実施形態で述べる作業状態検出システム1は、作業者3が作業対象物2に対して作業する際の、作業者3の視線を作業対象物2内に設定される視線基準点51に基づいて正確に検出する。視線基準点51は、作業対象物2に仮想的に重ね合わされる、作業対象物2の3次元モデル内に設定してもよい。あるいは、作業対象物2を撮影した画像データから作業対象物2の形状を認識し、作業対象物2内に視線基準点51を仮想的に設定してもよい。
いずれの場合も、視線基準点51は、作業対象物2内(作業対象物2に重ねられた3次元モデル内)にあるため、作業者3と作業対象物2の位置関係が変化した場合でも、作業者3の視線31が作業対象物2の表面に接触する接触点21と視線基準点51との関係に影響を与えない。さらに、作業者3の目の位置(身長)が人によって多少異なったとしても、接触点21と視線基準点51の関係に与える影響を少なくできる。
したがって、本実施形態によれば、作業者3が作業対象物2対する作業中に、作業者3の視線31を正確に検出することができる。同じ作業者3の同じ作業対象物2に対する作業中の視線31の動きを、それぞれ異なる日時で比較することもできる。作業に熟練した作業者3の作業中の視線31の動きと、作業に熟練していない作業者3の作業中の視線31の動きとを比較することもできる。これにより、熟練作業者の暗黙知を形式知に変換し、作業に不慣れな作業者を教育する教育資料を生成することもできる。
本実施形態の作業状態検出システム1は、例えば、検査作業、検品作業、組立作業、加工作業、溶接作業、塗装作業などの作業に適用可能である。作業対象物2は、電気製品、自動車、ロボット、制御盤、蓄電池など種々の物体に適用可能である。作業対象物2は、氷または石塊のような素材でもよい。この場合、作業者3は職人または芸術家などであり、作業者3が素材を加工していく際の支線31の動きを検出することができる。
さらに、後述の実施例では、作業者3の視線31の動きだけでなく、作業者3の指先の動き、または作業者3の頭部の動きも視線基準点51を基準として検出する。これら指先の動きまたは頭部の動きを視線の動きと一緒に検出することにより、作業者3の作業状態をより詳しく解析することができる。
図1~図8を用いて第1実施例を説明する。図1は、本実施例に係る作業状態検出システム1のシステム構成図である。作業状態検出システム1は、後述のように計算機を用いて構成することができ、その機能部として、撮影画像取得部11、3次元モデル取得部12、重ね合わせ部13、視線基準点設定部14、視線検出部15、視線軌跡データ算出部16、記憶部17および出力部18を備える。
撮影画像取得部11は、MRゴーグル4に設けられたカメラ404(図2参照)から作業者3に見える画像を取得する機能を持つ。3次元モデル取得部12は、作業対象物2の3次元モデルを取得する機能を持つ。重ね合わせ部13は、MRゴーグル4で撮影された画像中の作業対象物2に対して、3次元モデルを重ね合わせる機能を持つ。視線基準点設定部14は、3次元モデルの所定の位置に視線基準点51を設定する機能を持つ。図中、3次元モデルを「3Dモデル」と略記する。MRゴーグル4は、拡張現実(AR)ゴーグルでもよい。MRゴーグル4は、作業者3の見える現実空間内の物体を認識し、現実空間(現実世界)に3次元モデルを重ね合わせることができる装置であればよく、その名称や種類は問わない。
撮影画像取得部11、3次元モデル取得部12、重ね合わせ部13は、MRゴーグル4内で実現されてもよい。MRゴーグル4については、図3でさらに後述する。
視線検出部15は、MRゴーグル4に設けられた視線追跡センサ405(図2参照)により実現される。ハードウェアとしては視線追跡センサ405であるが、機能として捉える場合、視線検出部15となる。「視線追跡部」としての視線軌跡データ算出部16は、検出された視線の軌跡を計算し、視線軌跡データとして記憶部17に記憶させる。
ここで、視線軌跡データ算出部16は、作業者3の視線31が作業対象物2の表面に接触する点(接触点)21の位置を、視線基準点51からの相対座標値として算出する。MRゴーグル4の視線追跡センサ405により追跡される視線が作業対象物2の表面に届かない場合、センサ505で追跡される視線を作業対象物2へ向けて計算機内で延長すればよい。なお、接触点21は、視線31が作業対象物2の表面に交わる交点21または視点21と呼ぶこともできる。視線軌跡データ算出部16は、作業対象物2の表面の視線、すなわち接触点21を時間順に並べたデータを視線軌跡データとして算出する。
記憶部17は、視線軌跡データを記憶する。記憶部17は、例えば、半導体メモリ装置、ハードディスク装置、フラッシュメモリ装置などの記憶装置から構成される。出力部18は、記憶部17に記憶されたデータ(ここでは視線軌跡データ)を作業状態解析システム6などの外部システムへ出力する。
作業状態解析システム6は、例えば、或る作業者3の視線軌跡データの変化を所定期間にわたって解析したり、同一の作業対象物2に対する同一作業について、或る作業者3の視線軌跡データと他の作業者の視線軌跡データとを対比することもできる。
図2は、作業状態検出システム1のハードウェア構成を示す。作業状態検出システム1は、例えば、作業状態検出装置100と、MRゴーグル4を含む。
作業状態検出装置100は、計算機として構成されており、例えば、プロセッサ101、メモリ102、通信部103、ユーザインターフェース部104、ストレージ105を備える。図中では、ユーザインターフェースを「UI」と略記する。
プロセッサ101は、ストレージ105に格納された所定のコンピュータプログラム(不図示)をメモリ102に読み出して実行することにより、図1で述べた機能部11~18を実現させる。プロセッサ101は、1つに限らない。プロセッサ101は、専用の演算処理を行う特定の演算装置を含んでもよい。
通信部103は、例えば、MRゴーグル4および外部システム5,6と通信する装置である。MRゴーグル4と通信する通信部と、外部システム5,6と通信する通信部とに分けてもよい。ここでは、両者が1つの通信部であるかのように示す。ユーザインターフェース部104は、作業状態検出システム1を利用するユーザに対して、情報入力機能および情報出力機能を提供する。ユーザインターフェース装置104は、例えば、モニタディスプレイ、プリンタ、キーボード、ポインティングデバイス、タッチパネル(いずれも不図示)などを用いて構成される。ユーザは、VRゴーグル(不図示)またはMRゴーグルを用いて、仮想空間上で作業状態検出システム1を利用することもできる。
MRゴーグル4は、作業者3に見える現実世界(現実空間)に仮想空間を重ねて表示させる装置であり、作業者3の頭部に装着される。MRゴーグル4は、例えば、プロセッサ401、メモリ402、通信部403、カメラ404、視線追跡センサ405、網膜ディスプレイ406、スピーカー407、マイクロフォン408を備える。
プロセッサ401は、メモリ402に格納された所定のコンピュータプログラム(不図示)を読み込んで実行することにより、例えば、視線を検出する機能と、情報をユーザの網膜に描写する機能などを実現させる。通信部403は、作業状態検出装置100と双方向通信する装置である。
カメラ404は、作業者の視線で現実世界を撮影する装置である。カメラ404は、奥行きを検出可能な測距機能を備えてもよい。視線追跡センサ405は、例えば、ユーザの眼球の動きをカメラで認識することにより、視線を検出する。網膜ディスプレイ406は、ユーザの網膜に画像を投影することにより、現実世界に仮想的な画像を重ね合わせて作業者3に提供する。
スピーカー407およびマイクロフォン408は、MRゴーグル4に内蔵されてもよいし、内蔵されていなくてもよい。
外部システム5,6は、作業状態検出システム1に接続される外部の計算機である。1つの外部システム5は、例えばCADシステムなどの、作業対象物2の3次元モデルデータを作業状態検出システム1へ提供する上流側システムである。他の1つの外部システム6は、作業状態検出システム1で算出された視線軌跡データを利用して作業者3の作業状態などを解析する下流システムである。
図3は、上流システム5がCADシステムなどのように、作業対象物2の3次元モデルデータを作成する計算機である場合を示す。外部システム5は、3次元モデルデータを生成する3次元モデル生成部52と、生成された3次元モデルデータをMRゴーグル4で使用するためのデータ50に変換する3次元モデル変換部53とを備える。以下、MRゴーグル4用に変換された3次元モデルのデータを3次元モデル50と呼ぶ。
MR(Mixed Reality:複合現実)ゴーグル4は、現実世界の視覚情報に仮想空間の情報を重ねて提供する装置である。MRゴーグル4は、カメラ404で撮影された画像データから空間を認識する。MRゴーグル4は、空間認識された作業対象物2上に3次元モデル50を位置合わせして重ね合わせる。
図4は、作業者3に現実に見えている作業対象物2に対して、作業対象物2の3次元モデル50を重ね合わせて、作業者3の視線を追跡する様子を示す。
図4(1)に示すように、作業者3がMRゴーグル4を装着して現実世界の作業対象物2を見ると、MRゴーグル4の空間認識部41は、作業対象物2を認識する。図4(1),(2)に示すように、MRゴーグル4の空間認識部41は、認識された作業対象物2に対して、3次元モデル50を重ね合わせる。
図4(3)に示すように、作業者3が作業対象物2を見ると、作業者3の視線31が作業対象物2の表面(3次元モデル50の表面)に接触する点21を得る。その接触点21と、3次元モデル50の中心に設定された視線基準点51との位置関係を相対座標値として算出する。作業対象物2の内部に視線基準点51が設定されるため、作業対象物2と視線31の接触点21との関係は、作業者3の目の高さや作業対象物2の姿勢変化による影響を受けにくい。
図5は、作業状態検出処理のフローチャートである。作業状態検出システム1は、作業対象物2の3次元モデルのデータを生成し、視線基準点51を設定する(S11)。そして、作業状態検出システム1は、生成された3次元モデルのデータをMRゴーグル4で使用するためのデータに変換し、MRゴーグル4に転送する(S12)。
作業者3がMRゴーグル4を介して作業対象物2を見ると、カメラ404により作業対象物2が撮影され、撮影された画像データは作業状態検出装置100へリアルタイムで送信される(S13)。
それと略同時にMRゴーグル4は、作業対象物2を空間認識し、認識された作業対象物2に3次元モデル50を重ね合わせる(S14)。作業状態検出システム1は、作業者3の視線31が作業対象物2に接触する点21と視線基準点51との位置関係を相対座標値として算出し(S15)、算出された相対座標値のデータ群を視線軌跡データとして記憶部17に記憶させる(S16)。
図6は、視線軌跡データを利用して作業状態を解析する処理を示すフローチャートである。本処理は、作業状態解析システム6により実行される。作業状態検出システム1内に作業状態解析システム6を設けてもよい。
作業状態解析システム6は、視線軌跡データを取得すると共に(S21)、MRゴーグル4のカメラ404で撮影された作業者目線の画像データも取得する(S22)。作業状態解析システム6は、画像データ内の作業対象物2に対して視線軌跡データを構成する各接触点21(視点21)を重ねて表示する(S23)。作業状態解析システム6は、視線軌跡データの統計情報を算出する(S25)。
作業状態解析システム6は、作業者3の視点21がプロットされた作業対象物2の動画像データと、3次元モデル50に作業者の視点31がプロットされた動画像データと、統計情報とを対応付けて出力する(S26)。視線基準点51は、3次元モデル50に設定されるため、視線31が作業対象物2の表面に接触する位置21は、3次元モデル50の表面と視線31とが交わる点として算出される。したがって、作業状態解析システム6は、視線軌跡データに含まれる視点21のプロットされた作業対象物2および3次元モデル50を同時に出力できる。
図7は、作業状態解析システム6の出力する解析画面G1の例である。図7の上側には、熟練作業者U1の作業状態の解析結果が示されている。図7の下側には、未熟な作業者U2の作業状態が示されている。
作業状態解析画面G1は、例えば、作業中の動画を表示する作業動画表示部GP11と、3次元モデル50に対する視線変化(視点の移動の変化)を再現した再現部GP12と、統計情報を表示する統計情報表示部GP13を備える。
作業中の動画では、作業対象物2の表面に視点を示すマークが表示されている。同様に、3次元モデルにも視点を示すマークが表示されている。図7では、視点の位置と順番を丸付き数字で示す。統計情報表示部GP13では、視点の滞留時間(または頻度)の情報がグラフ化されて示されている。
熟練作業者U1の視線軌跡データと未熟な作業者U2の視線軌跡データとを比較すると、熟練作業者U1は注視箇所が未熟な作業者U2のそれよりも少なく、無駄な場所を見ていない。換言すれば、未熟な作業者U2は、作業との関係が低い場所を無駄に注視していることがわかる(図7右下の丸付き数字2参照)。
図8は、視線基準点51の設定位置の例を示す。図1などでは、視線基準点51を3次元モデル50の中心に設定する場合を述べた。3次元モデル50の中心は、3次元モデル50が均一な素材から形成されると仮定した場合の重心でもよい。作業対象物2の実際の構造から算出される重心に視線基準点51を設定してもよい。
さらに、図8(1)に示すように、視線基準点51Aを3次元モデル50の側面に設定してもよい。図8(2)に示すように、視線基準点51Bを3次元モデル50の中心よりも奥に設定してもよい。図8(3)に示すように、視線基準点51Cを3次元モデル50の上面に設定してもよい。図8(4)に示すように、視線基準点51Dを3次元モデル50の頂点のいずれかに設定してもよい。このように、視線基準点51は、3次元モデルの任意の箇所に設定することができる。
このように構成される本実施例によれば、視線基準点51は、作業対象物2内(作業対象物2に重ねられた3次元モデル50)に設けられるため、作業者3と作業対象物2の位置関係が変化した場合でも、視点(接触点)21と視線基準点51との関係に影響を与えない。このため作業状態検出システム1は、作業者3が作業対象物2対する作業中に、作業者3の視線31を正確に検出することができる。
そして、作業状態解析システム6は、正確に検出された視線軌跡データを用いて、作業者3の作業状態を正確に解析できる。そして、作業状態解析システム6は、熟練作業者の暗黙知を形式知に変換し、作業に不慣れな作業者を教育する教育資料を生成することもできる。さらに、作業状態解析システム6は、例えば、作業指示マニュアルの改善、作業工程の改善、設計の改善などに役立つ解析結果を出力することができる。
図9および図10を用いて、実施例2を説明する。本実施例を含む以下の各実施例では、実施例1との差異を中心に説明する。本実施例では、作業対象物2の形状が作業工程の進行につれて変化する場合を説明する。一般に、検品工程、検査工程などでは、作業対象物2は完成品であるため、その形状が大きく変化することは少ない。作業対象物2の表面にシールなどが貼付される程度である。表面処理工程、塗装工程なども作業対象物2の形状は大きく変化しない。
これに対し、加工工程、組立工程では、作業が進むにつれて作業対象物2の外形形状が大きく変化する。この場合、作業対象物2の形状変化に応じた3次元モデルを使用しないと、作業者3の視線31が見ている場所21を正確に求めることができない。そこで、本実施例では、作業工程の進行に応じて、すなわち作業指示の切り替わりに応じて、視線検出に使用する3次元モデルを更新する。
図9は、3次元モデルを生成する処理を示すフローチャートである。作業状態検出システム1は、作業指示ごとに(S31)、作業対象物2の3次元モデルのデータを生成する(S32)。作業状態検出システム1は、生成された3次元モデルのデータに視線基準点51を設定し、MRゴーグル4で使用するための3次元モデル50に変換して(S33)、作業指示を特定する情報とともに記憶部17に記憶させる(S34)。
図示せぬ作業現場では、作業指示ボードまたは作業指示ディスプレイなどで、「部品Aの上に部品Bを固定してください」といった作業指示が作業員3に出される。作業指示が変わるたびに、すなわち作業工程が進むにつれて、作業対象物2の形状は変化する。しかし、作業対象物2の形状変化は、決められた工程にしたがって決められた通りに変化していく。したがって、作業状態検出システム1は、例えば、作業対象物2の設計データを保持するCADシステムと、作業指示マニュアルを管理するマニュアル管理システムなどと連携することにより、作業指示ごとに(作業工程ごとに)必要な3次元モデル50をあらかじめ作成することができる。
図10は、作業状態検出処理のフローチャートである。作業状態検出システム1は、作業指示が変化したか判定する(S41)。作業状態検出システム1は、作業指示が変化すると(S41:YES)、新しい作業指示に対応する3次元モデル50を記憶部17から取得し(S42)、MRゴーグル4にセットさせる。
MRゴーグル4のカメラ404が作業対象物2を撮影し(S43)、作業対象物2を空間認識すると(S44)、作業者3の視線31が作業対象物2の表面(3次元モデル50の表面)に接触する点21が検出され、その接触点(視点または交点)21と視線基準点51との位置関係が相対座標値として算出され(S45)、視線軌跡データとして記憶部17に記憶される(S46)。
このように構成される本実施例も実施例1と同様の作用効果を奏する。さらに、本実施例では、作業指示に連動して(作業工程の進行に連動して)、3次元モデル50を更新するため、作業対象物2の形状が変化する作業に対しても、作業者3の視線を正確に検出することができる。
図11および図12を用いて、実施例3を説明する。本実施例では、作業対象物2を撮影した画像データを画像解析することにより作業対象物2の形状を認識し、形状認識された作業対象物2に視線基準点51を設定する。すなわち、本実施例では、視線基準点51を作業対象物2内に設定するための3次元モデル50を使用しない。
図11は、作業状態検出システム1Aのシステム構成図である。本実施例の作業状態検出システム1Aでは、撮影画像取得部11から形状認識部71へ作業対象物2の映った画像データが入力され、作業対象物2の形状が認識される。視線基準点設定部14Aは、認識された作業対象物2に視線基準点51を設定する。
図12は、視線基準点設定処理のフローチャートである。作業状態検出システム1Aは、作業対象物2を撮影した画像データを取得すると(S51)、作業対象物2の形状を認識する(S52)。
作業状態検出システム1Aは、作業対象物2の形状または姿勢が変化したか判定し(S53)、作業対象物2の形状または姿勢のいずれかが変化した場合(S53:YES)、作業対象物2に視線基準点51を設定する(S54)。
そして、作業状態検出システム1Aは、視線基準点51の設定された3次元モデルのデータをMRゴーグル4で使用するためのデータに変換し(S55)、記憶部17に記憶させる(S56)。作業者3の視線31が作業対象物2の表面に接触する点21の位置は、形状認識された作業対象物2の表面と視線31の交点として求めることができる。
このように構成される本実施例も実施例1と同様の作用効果を奏する。さらに、本実施例では、3次元モデルを使用せずに、作業対象物2の形状変化や姿勢変化に追従させて視線基準点51を設定することができる。したがって、本実施例では、作業指示に連動して(作業工程の進行に連動して)、視線基準点51を設定できるため、加工作業などの作業対象物2の形状が変化する作業に対しても、作業者3の視線を正確に検出できる。
図13を用いて実施例4を説明する。本実施例では、作業者3の視線31の動きだけでなく、作業者3の指先の動きも検出し、視線軌跡データと指先軌跡データを対応付けて出力する。
図13は、作業状態検出システム1Bのシステム構成図である。作業状態検出システム1Bは、図1に示す作業状態検出システム1と比較して、指先軌跡データ算出部72をさらに備える。
指先軌跡データ算出部72は、MRゴーグル4のカメラ404で撮影された画像中の、作業者3の指先を検出し、その移動軌跡を算出して記憶部17に記憶させる。出力部18は、作業中の画像データと視線軌跡データと指先軌跡データを対応付けて作業状態解析システム6へ出力することができる。
このように構成される本実施例も実施例1と同様の作用効果を奏する。さらに本実施例では、作業者3の作業中の視線の動きだけでなく、その指先の動きも同時に検出するため、作業者の作業状態をより正確に解析することができる。
図14を用いて実施例5を説明する。本実施例では、作業者3の指先にかかる力を圧力センサ73で検出して、指先軌跡データと共に記憶部17に記憶する。さらに、本実施例では、MRゴーグル4のカメラ404に代えて、あるいはカメラ404と共に、外部カメラ74を使用する。
図14は本実施例の作業状態検出システム1Cを示すシステム構成図である。作業者3は、圧力センサ73を内蔵する作業用手袋を装着している。作業者3の外側には、作業者3の少なくとも上半身を視野に収める外部カメラ74が設けられている。
圧力センサ73で検出された圧力は、センサデータ取得部75により取得されて記憶部17に記憶される。外部カメラ74で撮影された画像データ(動画像データ)は、指先軌跡データ算出部77に入力され、画像中の指先の移動軌跡が算出される。算出された指先軌跡データは、記憶部17に記憶される。外部カメラ74で作業者の指先の位置を算出する場合、例えば、MRゴーグル4の中央との相対座標値を算出すればよい。
このように構成される本実施例も実施例1と同様の作用効果を奏する。さらに本実施例では、作業者の視線および指先の軌跡と、作業者の手に加わる圧力とを検出して記憶させることができるため、作業状態解析システム6は、より正確に作業状態を解析することができる。
図15を用いて実施例6を説明する。本実施例では、実施例5の構成に加えて、作業者3の頭部の位置の変化も検出する。
図15は、本実施例の作業状態検出システム1Dを示すシステム構成図である。本実施例では、外部カメラ74で撮影された作業中の画像データは、指先軌跡データ算出部77と頭部軌跡データ算出部78とに入力される。
頭部軌跡データ算出部78は、例えば、作業者3の胸部中央を基準として頭部の中心の位置を算出する。これに代えて、視線基準点51を基準にして、指先軌跡データおよび頭部軌跡データを算出してもよい。
このように構成される本実施例も実施例1と同様の作用効果を奏する。さらに本実施例では、作業中の作業者の頭部の位置も検出することができるため、頭部の位置変化で視線軌跡データを補正することにより、より正確に作業者3の視線31の軌跡を算出することができる。さらに、作業者3が作業中に作業対象物2以外の場所を見ている場合、その方向を算出して対象物を特定することもできる。
なお、本発明は上記した実施例に限定されず、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換することが可能である。さらに、各実施例は、明らかに矛盾しない限り、適宜組み合わせることができる。
1,1A、1B,1C,1D:作業状態検出システム、2:作業対象物、3:作業者、4:MRゴーグル4、5:外部システム、6:作業状態解析システム、11:撮影画像取得部、12:3次元モデル取得部、13:重ね合わせ部、14,14A:視線基準点設定部、15:視線検出部、16:視線軌跡データ算出部、17:記憶部、21:接触点、31:視線、50:3次元モデル、51:視線基準点、71:形状認識部、指先軌跡データ算出部、73:圧力センサ、74:外部カメラ、75:センサデータ取得部75、作業中画像取得部76、77:指先軌跡データ算出部、78:頭部軌跡データ算出部
Claims (11)
- 作業対象物へ作業するときの視線を検出する作業状態検出システムであって、
前記作業対象物に作業者の視線を追跡するための基準点を設定する視線基準点設定部と、
前記作業者の視線を検出する視線検出部と、
前記視線検出部により検出された視線に基づいて、前記作業者の視線が前記作業対象物に接触する接触点の前記視線基準点からの相対座標値を視線軌跡データとして算出し、前記算出された視線軌跡データを記憶部へ保存させる視線追跡部と、
を備える作業状態検出システム。 - さらに、出力部を備え、
前記出力部は、前記作業対象物に対する作業の様子を撮影した画像データと、前記保存された視線軌跡データとを対応付けて出力する
請求項1に記載の作業状態検出システム。 - 前記視線基準点設定部は、現実世界の前記作業対象物に重ねて表示される前記作業対象物の三次元モデルに前記視線基準点を設定する
請求項2に記載の作業状態検出システム。 - 前記視線基準点設定部は、前記作業対象物を撮影した画像データに基づいて前記作業対象物の形状を認識し、前記形状認識された作業対象物に前記視線基準点を設定する
請求項2に記載の作業状態検出システム。 - 前記視線基準点設定部は、前記作業対象物についての作業手順の進行に応じて、前記視線基準点を再設定する
請求項1~4のいずれか一項に記載の作業状態検出システム。 - さらに、前記作業者の指先の軌跡を検出する指先軌跡検出部を備え、
前記指先軌跡検出部は、前記指先の位置の前記視線基準点からの相対座標値を指先軌跡データとして算出し、前記算出された指先軌跡データを前記記憶部へ保存させる
請求項5に記載の作業状態検出システム。 - さらに、前記作業者の頭の軌跡を検出する頭部軌跡検出部を備え、
前記頭部軌跡検出部は、前記頭部の前記視線基準点からの相対座標値を頭部軌跡データとして算出し、前記算出された頭部軌跡データを前記記憶部へ保存させる
請求項6に記載の作業状態検出システム。 - 前記視線基準点設定部は、前記視線基準点を前記三次元モデルの中心に設定する
請求項3に記載の作業状態検出システム。 - 前記視線基準点設定部は、前記視線基準点を前記作業対象物の中心に設定する
請求項4に記載の作業状態検出システム。 - 前記視線検出部は、前記作業者の視線方向を撮影し、撮影された現実世界に仮想空間を重ねて前記作業者に提供する拡張現実型アイウェアであって、視線を検出する機能を備えている
請求項1に記載の作業状態検出システム。 - 作業対象物への作業状態を作業状態検出システムにより検出させる方法であって、
前記作業状態検出システムは、
作業対象物に作業者の視線を追跡するための視線基準点を設定し、
前記作業者の視線を検出し、
前記検出された視線に基づいて、前記作業者の視線が前記作業対象物に接触する接触点の前記視線基準点からの相対座標値を視線軌跡データとして算出し、
前記算出された視線軌跡データを記憶部へ保存させる
作業状態検出方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022065344A JP2023155799A (ja) | 2022-04-11 | 2022-04-11 | 作業状態検出システムおよび方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022065344A JP2023155799A (ja) | 2022-04-11 | 2022-04-11 | 作業状態検出システムおよび方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023155799A true JP2023155799A (ja) | 2023-10-23 |
Family
ID=88417977
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022065344A Pending JP2023155799A (ja) | 2022-04-11 | 2022-04-11 | 作業状態検出システムおよび方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023155799A (ja) |
-
2022
- 2022-04-11 JP JP2022065344A patent/JP2023155799A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109804220B (zh) | 用于跟踪头部运动的装置和方法 | |
CN110977931B (zh) | 使用了增强现实和混合现实的机器人控制装置及显示装置 | |
CN110913751B (zh) | 具有滑动检测和校正功能的可穿戴眼睛跟踪系统 | |
CN116724285A (zh) | 用于控制虚拟和图形元素的微手势 | |
Eswaran et al. | Augmented reality-based guidance in product assembly and maintenance/repair perspective: A state of the art review on challenges and opportunities | |
JP2008136789A (ja) | 眼球パラメータ推定装置及び方法 | |
CN111487946B (zh) | 机器人系统 | |
JP2005227876A (ja) | 画像処理方法、画像処理装置 | |
KR20150040580A (ko) | 가상 공간 멀티 터치 인터랙션 장치 및 방법 | |
JP2010257081A (ja) | 画像処理方法及び画像処理装置 | |
JPH04372012A (ja) | 入力装置 | |
JP4982279B2 (ja) | 学習支援装置および学習支援方法 | |
US20220155881A1 (en) | Sensing movement of a hand-held controller | |
Zaldívar-Colado et al. | A mixed reality for virtual assembly | |
Su et al. | A natural bare-hand interaction method with augmented reality for constraint-based virtual assembly | |
JP2023155799A (ja) | 作業状態検出システムおよび方法 | |
JP7125872B2 (ja) | 作業支援装置、および、作業支援方法 | |
US20220331972A1 (en) | Robot Image Display Method, Recording Medium, And Robot Image Display System | |
US11544913B2 (en) | Method and system for wearable device-based manual providing | |
WO2022074886A1 (ja) | 姿勢検出装置、姿勢検出方法および寝相判定方法 | |
US20230353860A1 (en) | System, imaging apparatus, information processing apparatus, information processing method, and information processing program | |
JP2021009552A (ja) | 情報処理装置、情報処理方法およびプログラム | |
Matsumoto et al. | 3D model-based 6-DOF head tracking by a single camera for human-robot interaction | |
Yeh et al. | Assistive Sensory Feedback for Trajectory Tracking in Augmented Reality | |
US11829519B1 (en) | Systems, methods, and apparatuses for a wearable control device to facilitate performance of manufacturing and various motor tasks |