JP2020170482A - Work instruction system - Google Patents
Work instruction system Download PDFInfo
- Publication number
- JP2020170482A JP2020170482A JP2019073158A JP2019073158A JP2020170482A JP 2020170482 A JP2020170482 A JP 2020170482A JP 2019073158 A JP2019073158 A JP 2019073158A JP 2019073158 A JP2019073158 A JP 2019073158A JP 2020170482 A JP2020170482 A JP 2020170482A
- Authority
- JP
- Japan
- Prior art keywords
- work
- instruction
- worker
- instruction system
- environment information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000009434 installation Methods 0.000 claims description 9
- 239000003550 marker Substances 0.000 description 18
- 230000005540 biological transmission Effects 0.000 description 15
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000000034 method Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- General Factory Administration (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、取付作業を支援するための作業指示システムに関する。 The present invention relates to a work instruction system for supporting mounting work.
従来から、現実世界の物事に対してコンピュータによる情報を付加する拡張現実(AR:Augmented Reality)が知られている。特許文献1は、この拡張現実を利用した設営アシストシステムを開示する。
Conventionally, augmented reality (AR), which adds computer-based information to things in the real world, has been known.
特許文献1の設営アシストシステムは、検出された視界画像内の、既知長を有する基準ポールの大きさ及び位置に基づいて、メガネ型端末の現在位置及び姿勢を特定する構成となっている。
The setup assist system of
特許文献1の構成は、既知長の基準ポールを複数の既知点のそれぞれに設置する必要があるとともに、視界画像内において2つ以上の基準ポールが含まれている場合のみ、メガネ型端末の自己位置を推定することができる。
In the configuration of
しかし、例えば大きさが数メートルの大型物を組み立てる作業等を考えると、作業者の視界のうち大きな割合を大型物が占めることも多いので、視界に複数の基準ポールが含まれるように基準ポールを設置することが困難な場合も多い。この結果、特許文献1の構成は、作業者(メガネ型端末)の自己位置を正確に推定することができない。
However, considering the work of assembling a large object with a size of several meters, for example, the large object often occupies a large proportion of the worker's field of view, so the reference pole is included so that the field of view includes multiple reference poles. It is often difficult to install. As a result, the configuration of
本発明は以上の事情に鑑みてされたものであり、その目的は、移動端末単体で自己位置を推定でき、大型物の組立てに適用が容易な作業指示システムを提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a work instruction system which can estimate a self-position by a mobile terminal alone and can be easily applied to the assembly of a large object.
本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段とその効果を説明する。 The problem to be solved by the present invention is as described above, and next, the means for solving this problem and its effect will be described.
本発明の観点によれば、以下の構成の作業指示システムが提供される。即ち、この作業指示システムは、作業対象物の取付作業に関する指示を行う。この作業指示システムは、作業環境情報取得部と、指示出力部と、を備える。前記作業環境情報取得部は、作業者とともに移動し、作業環境に関する作業環境情報を取得する。前記指示出力部は、前記作業者とともに移動し、当該作業者に作業指示を出力する。前記作業環境情報取得部は、取得した前記作業環境情報に基づいて、前記作業環境内の基準位置に対する自己位置を推定可能である。 From the viewpoint of the present invention, a work instruction system having the following configuration is provided. That is, this work instruction system gives instructions regarding the attachment work of the work object. This work instruction system includes a work environment information acquisition unit and an instruction output unit. The work environment information acquisition unit moves together with the worker to acquire work environment information related to the work environment. The instruction output unit moves together with the worker and outputs a work instruction to the worker. The work environment information acquisition unit can estimate its own position with respect to a reference position in the work environment based on the acquired work environment information.
これにより、作業環境情報に基づいて指示出力部から指示することで、作業者は、取付治具等を要せずに、作業対象物を正確な位置に取り付けることができる。この結果、取付ミスを低減でき、品質の向上を図ることができるとともに、取付治具の作成、管理に関する費用及び手間を無くすことができ、コストの低減を実現できる。 As a result, by instructing from the instruction output unit based on the work environment information, the operator can mount the work object at an accurate position without the need for a mounting jig or the like. As a result, mounting errors can be reduced, quality can be improved, and costs and labor related to the creation and management of mounting jigs can be eliminated, and cost reduction can be realized.
本発明によれば、移動端末単体で自己位置を推定でき、大型物の組立てに適応できる作業指示システムを提供することができる。 According to the present invention, it is possible to provide a work instruction system capable of estimating a self-position by a mobile terminal alone and adapting to the assembly of a large object.
次に、図面を参照して本発明の実施の形態を説明する。図1は、本発明の一実施形態に係る作業指示システム100が適用される作業現場を概略的に示す斜視図である。図2は、作業指示システム100の概略な構成を示すブロック図である。図3は、表示される3Dモデルを示す図である。図4は、作業者が目にする情報の一例を示す図である。
Next, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a perspective view schematically showing a work site to which the
本実施形態の作業指示システム100は、例えば、図1に示すように、1つ又は複数の取付作業が必要となる物の組立て等に用いられる。取付作業は様々であるが、以下では、大きな部品である本体部90に、他の小さな部品を取り付ける場合を例にして説明する。小さな部品は、第1パーツ91、第2パーツ92、第3パーツ93、及び第4パーツ94である。
The
第1パーツ91、第2パーツ92、第3パーツ93、及び第4パーツ94は、作業対象物に相当する。本体部90は、作業対象物の取付先に相当する。以下では、全てのパーツが取り付けられた状態の本体部90を完成品と称することがある。
The
作業指示システム100は、図1に示すように、主として、移動端末1と、指示装置2と、から構成される。
As shown in FIG. 1, the
移動端末1は、例えば、作業者に装着されるメガネ型端末から構成され、作業者とともに移動する。移動端末1は、装着部10と、作業環境情報取得部11と、端末側送受信部12と、指示出力部13と、を備える。
The
装着部10は、作業者の適宜の場所(例えば、頭部)に装着される。装着部10は、例えば、メガネのテンプル部及び耳掛け部に相当する部分として構成される。ただし、これに限定されず、装着部10は、作業者がかぶるヘルメット等から構成されても良い。
The
作業環境情報取得部11は、作業現場の環境(作業環境)に関する作業環境情報を取得するために用いられる。作業環境情報取得部11は、例えば、作業環境の映像(画像)を取得可能なカメラ等から構成され、装着部10に取り付けられている。即ち、作業環境情報取得部11は、作業者とともに移動する。
The work environment
作業環境情報取得部11で取得する作業環境情報は、作業者の周囲の状況を反映したものである。本実施形態において、作業環境情報は、作業者の周囲を撮影したカメラ映像である。映像を撮影する装置(カメラ)は、作業者の視界よりも広い視界を有しても良いし、作業者の視界とは別の向きの視界を有しても良い。
The work environment information acquired by the work environment
作業環境情報取得部11は、自己位置推定機能を有し、取得した作業環境情報から自己位置(即ち作業者の位置)を推定することができる。この自己位置推定機能は、例えば、SLAM機能である。SLAMは、Simultaneous Localization and Mappingの略称である。
The work environment
SLAM機能は周知であるので簡単に説明すると、カメラが取得した映像の各フレームから特徴点を抽出し、フレーム間での特徴点の移動量を分析することで、カメラの位置及び姿勢の変化を取得する機能である。 The SLAM function is well known, so to explain it briefly, by extracting feature points from each frame of the image acquired by the camera and analyzing the amount of movement of the feature points between frames, changes in the position and orientation of the camera can be detected. It is a function to acquire.
本実施形態の作業指示システム100においては、1つ又は複数のマーカーが予め設定されている。それぞれのマーカーの絶対位置は、組立作業の前に、作業指示システム100に入力される。
In the
マーカーは、動かない場所に設定されることが好ましい。マーカーは、視覚的にユニークな特徴を本体部90自体が部分的に有する場合には、当該部分をそのまま用いて設定することができる。また、特別な図形又は模様等が表示されたシールを、本体部90、作業場所の床等に貼り付けることによって、マーカーを実現することもできる。マーカーを一意に識別可能とするために、シールの図形、模様及び色等をマーカー毎に異ならせることが好ましい。
The marker is preferably set in a place where it does not move. When the
作業環境情報取得部11のカメラが取得する映像には、マーカーが現れる場合があれば、現れない場合もある。作業環境情報取得部11は、公知の画像処理によって、映像に現れるマーカーを自動的に検出する。また、作業環境情報取得部11は、検出された1つ又は複数のマーカーについて、当該マーカーが何れのマーカーであるかを特定する。
The marker may or may not appear in the image acquired by the camera of the work environment
映像にマーカーが含まれる場合は、当該マーカーが映像において現れる位置に基づいて、作業環境情報取得部11の絶対的な自己位置及び自己姿勢を計算により得ることができる。映像にマーカーが含まれない場合は、直近の過去にマーカーに基づいて取得した絶対的な自己位置及び自己姿勢と、その取得時点からSLAM機能で取得したカメラの位置及び姿勢の変化と、によって、現在の絶対的な自己位置及び自己姿勢を推定することができる。
When the image contains a marker, the absolute self-position and self-posture of the work environment
絶対的な自己位置は、例えば、作業者が作業をする空間(作業空間)に3次元直交座標系を定義したときの原点(基準位置)に対する位置として、3次元座標で表現することができる。自己姿勢は、3次元直交座標系を用いた3次元ベクトルとして表現することができる。原点の位置は任意であるが、例えば本体部90における特徴的な点となるように設定することができる。前述のマーカーの絶対位置とは、この3次元座標を意味する。
The absolute self-position can be expressed in three-dimensional coordinates as, for example, a position with respect to the origin (reference position) when a three-dimensional Cartesian coordinate system is defined in the space (work space) where the worker works. The self-posture can be expressed as a three-dimensional vector using a three-dimensional Cartesian coordinate system. The position of the origin is arbitrary, but it can be set so as to be a characteristic point in the
これにより、GNSS等の電波が届かない屋内においても、作業環境情報取得部11は、画像処理等によって自己位置を算出することで、移動端末1(言い換えれば、作業者の頭部)の位置及び姿勢を推定することができる。これにより、本体部90に取り付けるべきパーツの位置等の情報を、3次元的に、かつ、作業者が現実の空間を直接見る見え方と幾何学的に整合するように、作業者の視界に重畳して表示することが可能になる。
As a result, even indoors where radio waves such as GNSS do not reach, the work environment
本実施形態の作業環境情報取得部11は、作業者指示入力部としても機能する。具体的には、作業環境情報取得部11は、作業者のジェスチャーに関する映像を取得し、作業者のジェスチャーから認識した作業者指示を、端末側送受信部12を介して指示装置2に送信する。ジェスチャーは指示の内容に応じて定められる。具体的なジェスチャーは任意であるが、例えば、作業環境情報取得部11のカメラに映るように片手を差し出して左右に振る動作とすることができる。これにより、作業者が、作業環境情報取得部11を介して、指示装置2に対して、作業開始、作業停止、パーツ回転等の指示を行うことができる。以下では、作業者が指示装置2に対して出す指示を作業者コマンドと呼ぶことがある。
The work environment
ジェスチャー認識は、作業環境情報取得部11に代えて端末側送受信部12側で行われても良い。具体的には、作業環境情報取得部11は、取得した映像を、端末側送受信部12を介して指示装置2にリアルタイムで送信する。指示装置2は、画像処理等によって、作業者のジェスチャーで表現される作業者コマンドを認識する。
Gesture recognition may be performed on the terminal side transmission /
端末側送受信部12は、指示装置2と無線通信可能に構成されている。無線通信の方式は任意であるが、例えば、無線LANを用いることが考えられる。
The terminal-side transmission /
端末側送受信部12は、無線通信により、作業環境情報取得部11で取得されたカメラ映像、自己位置及び自己姿勢等を指示装置2に送信し、指示装置2からの作業指示を受信する。端末側送受信部12は、指示装置2から受信した作業指示を指示出力部13に出力する。
The terminal-side transmission /
本実施形態の作業指示システム100においては、当該作業指示は、パーツの形状、取付向き、及び取付位置のうち少なくとも何れかを含む。
In the
指示出力部13は、端末側送受信部12を介して指示装置2から受信した作業指示を表示する表示部14を備える。表示部14は、例えば、図略の投影装置と、ヘッドアップディスプレイと、から構成される。
The
投影装置は、作業指示をヘッドアップディスプレイに投影することにより表示させる。ヘッドアップディスプレイは、例えば、ハーフミラーからなる光学透過型のヘッドアップディスプレイとして構成され、レンズとして装着部10に取り付けられている。レンズは、両眼型であっても良いし、片眼型であっても良い。
The projection device displays the work instruction by projecting it on the head-up display. The head-up display is configured as, for example, an optical transmission type head-up display composed of a half mirror, and is attached to the mounting
表示部14は、図4に示すように、投影装置を介して、作業者が見る現実の状況に対応する位置に作業指示が表示されるように、ヘッドアップディスプレイに作業指示を投影する。
As shown in FIG. 4, the
これにより、装着部10を装着している作業者が、投影装置によりヘッドアップディスプレイに投影された作業指示等を確認しながら、作業現場の様子をシースルーで観察することができるとともに、取付対象のパーツの取付位置等の情報を容易に把握することができる。
As a result, the worker who wears the mounting
言い換えれば、表示部14は、作業者が目にする現実の状況に、パーツの形状等を示す作業指示のコンピュータ情報を重畳して表示することで、いわゆる拡張現実又は複合現実(MR:Mixed Reality)を実現している。従って、作業指示をより現実的かつ明確に表示することができ、作業者が作業内容をより正確に把握することができる。この結果、パーツや取付位置の間違い等の作業ミスを防止することができ、作業時間の短縮及び作業品質の向上を図ることができる。
In other words, the
表示部14は、作業指示をアニメーションで表示しても良い。例えば、作業環境情報取得部11を介して取得された、作業者が手で持っているパーツの姿勢と、取付状態の姿勢と、が異なることを指示装置2が検出した場合、指示装置2は、手持ちのパーツを現在の姿勢から取付状態の姿勢まで向きを変える指示を、表示部14にアニメーションで表示させる。アニメーションの表現は様々であるが、例えば、矢印の図形が周回するように動くアニメーションとすることができる。この指示に従うことで、作業者はパーツを正確な姿勢に容易に調整することができ、作業を一層スムーズに行うことができる。また、アニメーションにより、作業者は指示を直感的に素早く理解することができる。
The
指示装置2は、公知のコンピュータから構成されている。このコンピュータは、図略のCPU、ROM、RAM、HDD、入出力部等を備える。HDDには、各種プログラムやデータ等が記憶されている。HDDに記憶されるデータには、取付作業に関する本体部90、パーツ、及び完成品の3Dデータが含まれる。CPUは、各種プログラム等をHDDから読み出して実行することができる。
The
指示装置2は、上記入出力部から構成された作業予定入力部21を備える。組立作業の責任者は、作業予定入力部21を介して、作業予定に関する様々な情報を事前に入力することができる。この情報には、組立作業に関する本体部90、各パーツ、及び完成品の3Dデータ等の情報が含まれる。また、指示装置2に入力される情報には、組立作業に含まれる複数の取付作業の作業順序等が含まれる。作業予定入力部21を介して入力された様々な情報は、上記のHDD等に記憶される。
The
指示装置2は、HDDに記憶された作業順序に基づく作業指示のそれぞれを、端末側送受信部12を介して指示出力部13に出力する。指示出力部13は、端末側送受信部12を介して指示装置2から受信した作業指示のそれぞれを表示部14で表示させる。即ち、指示出力部13は、指示装置2からの作業指示を、作業予定入力部21を介して入力された作業順序に従って表示部14に表示させる。
The
続いて、具体的な組立作業を例として、本実施形態の作業指示システム100の動作を詳細に説明する。この組立作業は、図1に示す第1パーツ91、第2パーツ92、第3パーツ93、及び第4パーツ94を、本体部90に取り付ける複数の取付作業を含んでいる。
Subsequently, the operation of the
組立作業の開始前に、管理者が各種の3Dデータを、作業予定入力部21を介して指示装置2に入力する。この3Dデータには、組立作業の完成品の3Dデータ、及び、取付先の本体部90の3Dデータが含まれる。また、指示装置2に入力される3Dデータには、第1パーツ91、第2パーツ92、第3パーツ93、及び第4パーツ94の3Dデータが含まれる。
Before the start of the assembly work, the manager inputs various 3D data to the
続いて、管理者は、指示装置2にマーカーの位置(前述の絶対位置)を設定する。設定されたマーカーの位置は、移動端末1に送信され、作業環境情報取得部11に登録される。管理者は、本体部90に対するそれぞれのパーツの取付位置(図1に示す第1取付位置A、第2取付位置B、第3取付位置C、第4取付位置D)を設定する。
Subsequently, the administrator sets the position of the marker (absolute position described above) in the
更に、管理者は、第1パーツ91、第2パーツ92、第3パーツ93、及び第4パーツ94の作業順序(例えば、図1に示す第1取付位置A、第2取付位置B、第3取付位置C、第4取付位置Dの順に取付作業を行う順序)を、作業予定入力部21を介して指示装置2に入力する。なお、この作業順序は、例えば、パーツのIDや、組立仕様書で決められた順序に基づいて設定することができる。
Further, the administrator can perform the work order of the
作業予定入力部21に上記内容が入力される順番は、必要に応じて変更することができる。
The order in which the above contents are input to the work
続いて、作業者が作業現場において、移動端末1を装着している状態で、作業を開始する旨の作業者コマンドに相当するジェスチャーを行う。これにより、指示装置2は、組立作業の開始を認識する。
Subsequently, the worker makes a gesture corresponding to the worker command to start the work at the work site while wearing the
作業者は、移動端末1を装着した状態で、徒歩等で移動することができる。移動端末1は、常時、カメラ映像を取得するとともに、これに基づいて、移動端末1自身の位置及び姿勢を取得する。移動端末1は、カメラ映像、自機の位置及び姿勢を、指示装置2にリアルタイムで送信する。
The worker can move on foot or the like with the
指示装置2は、HDDで記憶された作業順序に応じて、指示出力部13を介して、作業者に第1取付位置Aに取り付ける第1パーツ91を取得するパーツ取得指示を行う。このパーツ取得指示は、例えば、パーツの保管場所までの経路を3Dの矢印で表現したモデルを表示することで、実現することができる。この3D矢印は、ガイド情報に相当する。このとき、移動端末1の現在の位置及び姿勢に基づいて、経路を示す3Dの矢印を仮に現実空間に配置した場合に当該矢印が作業者からどのように見えるかの計算が行われる。この計算は、詳細な説明は省略するが、公知の3Dコンピュータグラフィックスの計算で実現することができる。この計算結果に従って矢印が描画されることで、作業者が現実空間を見る見え方と整合したガイド情報を表示部14に表示することができる。これにより、作業者は現在位置からどのように移動すれば良いかを、自分が現実に見ている周囲の状況との関係で直感的に理解でき、パーツの保管場所まで容易にたどり着くことができる。
The
作業者がパーツの保管場所に到着すると、指示出力部13は、端末側送受信部12を介して指示装置2から受信したパーツの形状情報を表示部14で表示させる。なお、作業者がパーツの保管場所に到着したことは、移動端末1の現在位置を用いて容易に判定することができる。表示部14は、例えば、作業者の目の前であって、手持ちのパーツを容易に確認できるところで、第1パーツ91の3Dモデルを表示する。
When the worker arrives at the storage location of the parts, the
これにより、作業者が、表示部14で表示された第1パーツ91の3Dモデルを参照して、第1パーツ91を探すことができるとともに、手持ちの第1パーツ91を、図3(a)に示すように、3Dモデルと重畳するように比較することができる。この結果、手持ちの第1パーツ91の正誤を容易に判断することができる。
As a result, the operator can search for the
本実施形態の作業指示システム100においては、作業者が、表示部14で表示された第1パーツ91の3Dモデルを回転させる指示に相当する作業者コマンドを、作業環境情報取得部11を介して指示装置2に送ることができる。これにより、作業者は、表示される第1パーツ91の3Dモデルを、(例えば、あたかもターンテーブルに乗っているかのように)回転させながら、手持ちの第1パーツ91と比較することができる。従って、第1パーツ91の正誤をより一層好適に判断することができる。
In the
なお、パーツの形状情報は、パーツの3Dモデルの代わりに、例えば、図3(b)に示すように当該パーツの取付先の凹形状を示す3Dモデルを用いることもできる。この場合においても、作業者が、手持ちのパーツを取付先の3Dモデルに合わせることで、手持ちのパーツの正誤を容易に確認することができる。 As the shape information of the part, instead of the 3D model of the part, for example, as shown in FIG. 3B, a 3D model showing the concave shape of the mounting destination of the part can be used. Even in this case, the operator can easily confirm the correctness of the parts on hand by matching the parts on hand with the 3D model to which the parts are attached.
指示装置2は、例えば、映像内の2次元座標と、対応する3次元物体表面上の点をマッチングする2D−3Dモデルマッチング技術によって、作業者が手持ちの第1パーツ91の正誤を判定しても良い。この場合、作業者の手持ちの第1パーツ91が正しいと判定した場合、指示装置2は、作業者が手持ちの第1パーツ91に対応する位置に、「OK」等の文字、又は適宜のマーク等を表示部14に表示させることで、作業者に知らせることができる。なお、当該2D−3Dモデルマッチング技術は公知であるため、説明を省略する。
The
正しい第1パーツ91を手に持った状態で、作業者は、次の作業の指示を要求する作業者コマンドを、作業環境情報取得部11を介して指示装置2に送る。これを受けて、指示装置2は、本体部90の第1取付位置Aまで作業者を案内するガイド情報を、指示出力部13を介して作業者に対して出力する。
With the correct
作業者が第1取付位置Aに到着した後、指示装置2は、図4に示すように、第1パーツ91の取付位置を示す作業指示を、指示出力部13を介して作業者に対して出力する。図4では、第1パーツ91の半透明的な表示(鎖線で表現されている)によってその形状及び取付向きが示されているとともに、矢印の先端によって第1パーツ91の取付位置が示されている。なお、図4は作業指示の一例であって、作業指示の表示方法はこれに限定されない。例えば、第1パーツ91の形状、取付向き、及び取付位置のうち1つ又は2つだけが指示されても良い。
After the worker arrives at the first mounting position A, the
これらの指示は、上述と同様に、矢印等の3D図形を仮に現実空間に配置した場合に、当該矢印が作業者からどのように見えるかの計算が行われ、この計算結果に基づいて表示される。従って、作業者には、現実の状況にあたかも図4の矢印等が実在するかのように見える。作業者は、目の前に映った作業指示に従って、第1パーツ91を本体部90に容易に取り付けることができる。
Similar to the above, these instructions are calculated based on the calculation result of how the arrow looks to the operator when a 3D figure such as an arrow is placed in the real space. To. Therefore, to the worker, it seems as if the arrow or the like in FIG. 4 actually exists in the actual situation. The operator can easily attach the
上記のように、作業環境情報取得部11は自己位置推定機能を有し、得られた自己位置に基づいた位置に、図4の矢印等が表示される。従って、図4に示すように作業者が本体部90の一部しか見えない場合においても、第1パーツ91の取付場所等を正確に把握することができる。この結果、取付治具等を要せずに、第1パーツ91を正確な位置に取り付けることができる。
As described above, the work environment
自己位置及び自己姿勢の取得精度を考慮すれば、作業環境情報取得部11のカメラが取得する映像に、何れかのマーカーが常時現れていることが好ましい。しかしながら、本実施形態の移動端末1は、マーカーが現れなくても、SLAM機能により自己位置及び自己姿勢を得ることができる。従って、作業指示システム100は、マーカーのシールを貼ることが難しい入り組んだ場所等でも、作業に関して作業者に指示を正しく行うことができる。
Considering the acquisition accuracy of the self-position and the self-posture, it is preferable that any marker always appears in the image acquired by the camera of the work environment
第1パーツ91の取付作業が完了した後、作業者は、次の作業の指示を要求する作業者コマンドを、作業環境情報取得部11を介して指示装置2に出す。これを受けて、指示装置2は、作業環境情報取得部11を介して、第1パーツ91が取り付けられた状態を撮影する。
After the installation work of the
指示装置2は、撮影した第1パーツ91の取付状態画像と、予め入力された完成品の3Dデータと、を画像処理等によって比較し、比較結果に基づいて、第1パーツ91が正しく取り付けられていたか否かを判定しても良い。第1パーツ91が正確に取り付けられたと判定した場合、指示装置2は、第2取付位置Bにおける第2パーツ92の取付作業に関する作業指示を、上記第1パーツ91の取付作業に関する作業指示と同様に、指示出力部13を介して作業者に対して出力する。第1パーツ91が正確に取り付けられていないと判定した場合、指示装置2は、修正作業の指示を、指示出力部13を介して作業者に対して出力する。
The
なお、この第1パーツ91の取付作業の正誤の判定は、作業者により行われても良い。このとき、第1パーツ91が取り付けられた状態の標準画像が表示部14に表示されると、作業者が判定を正確に行うことができ、好ましい。
The correctness of the mounting work of the
このように、指示装置2は、第1取付位置A、第2取付位置B、第3取付位置C、第4取付位置Dの順に、それぞれの位置における取付作業に関する作業指示を、指示出力部13を介して作業者に対して出力する。これにより、正確な順序で組立作業を行うことができるとともに、作業者が迷わず、作業を円滑に続けることができる。
In this way, the
部品を取り付ける場合の繰返し作業においては、従来から、治具を用いて位置決めしながら取り付けることが行われている。しかし、大型構造物を組み立てる場合、治具も大きくなるので、使い回すとは言っても治具の製造コストが無視できない。また、大きな治具を設置したり取り外したりする工数及び時間も増大してしまう。この点、本実施形態では、表示部14に表示される指示が、治具の代わりとして機能する。従って、治具がなくても、作業者はパーツを素早く正確に本体部90に対して取り付けることができる。
In the repetitive work of mounting parts, conventionally, mounting is performed while positioning using a jig. However, when assembling a large structure, the jig also becomes large, so that the manufacturing cost of the jig cannot be ignored even if it is reused. In addition, the man-hours and time for installing and removing a large jig also increase. In this respect, in the present embodiment, the instruction displayed on the
以上に説明したように、本実施形態の作業指示システム100は、パーツの取付作業に関する指示を行う。作業指示システム100は、作業環境情報取得部11と、指示出力部13と、を備える。作業環境情報取得部11は、作業者とともに移動し、作業環境に関するカメラ映像を取得する。指示出力部13は、作業者とともに移動し、当該作業者に作業指示を出力する。作業環境情報取得部11は、取得したカメラ映像に基づいて、作業環境内の基準位置に対する自己位置を推定可能である。
As described above, the
これにより、自己位置及びカメラ映像に基づいて指示出力部13から指示することで、作業者は、取付治具等を要せずに、パーツを正確な位置に取り付けることができる。この結果、取付ミスを低減でき、品質の向上を図ることができるとともに、取付治具の作成、管理に関する費用及び手間を無くすことができ、コストの低減を実現できる。
As a result, by instructing from the
また、本実施形態の作業指示システム100において、指示出力部13は、作業指示を表示する表示部14を備える。指示出力部13は、パーツの取付先となる部分が図4に示すように作業者の視野に含まれている場合に、当該取付先に対応するパーツの形状、取付向き、及び取付位置を含む作業指示を、取付先となる部分又はその近傍に重畳するように表示部14に表示させる。
Further, in the
これにより、作業者がパーツの取付位置等の情報を一層容易に確認することができ、作業をよりスムーズに行うことができる。 As a result, the operator can more easily confirm the information such as the mounting position of the parts, and the work can be performed more smoothly.
また、本実施形態の作業指示システム100は、作業予定入力部21を備える。作業予定入力部21は、作業予定を入力する。作業予定入力部21において複数の取付作業が入力された場合、指示出力部13は、作業予定入力部21で設定された作業順序に従って、複数の取付作業に関する作業指示を作業者に対して出力する。
Further, the
これにより、例えば、複数の取付作業を有する組立て等において、作業者は、作業指示システム100からの指示の順番に従うだけで、正確な順序で取付作業を行うことができる。従って、組立作業を一層容易に行うことができる。
Thereby, for example, in an assembly having a plurality of mounting operations, the operator can perform the mounting operations in an accurate order only by following the order of instructions from the
また、本実施形態の作業指示システム100において、指示出力部13は、作業者を現在位置から取付作業が行われる作業位置まで案内するガイド情報を出力し、作業者が作業位置に到着すると、当該作業位置で行われる取付作業に関する作業指示を作業者に対して出力する。
Further, in the
これにより、作業者が迷わずに、作業を続々と続けることができ、作業をよりスムーズに行うことができる。この結果、作業時間を短縮することができる。 As a result, the worker can continue the work one after another without hesitation, and the work can be performed more smoothly. As a result, the working time can be shortened.
また、本実施形態の作業指示システム100において、指示出力部13は、パーツの実物と重畳可能に、当該パーツの形状を確認するための3Dモデルを表示する。
Further, in the
これにより、作業者が、実物と3Dモデルとを比較することができ、手持ちの実物の正誤を容易に判断することができる。 As a result, the operator can compare the actual product with the 3D model, and can easily determine the correctness of the actual product on hand.
また、本実施形態の作業指示システム100においては、3Dモデルは、作業者の指示に応じて回転可能に表示される。
Further, in the
これにより、必要に応じて3Dモデルの姿勢を変更することで、様々な視点で実物と3Dモデルとを比較して確認することができる。 As a result, by changing the posture of the 3D model as needed, it is possible to compare and confirm the actual product and the 3D model from various viewpoints.
また、本実施形態の作業指示システム100においては、指示出力部13は、パーツの形状、取付向き、取付位置の少なくとも1つを含む作業指示をアニメーションで表示する。
Further, in the
これにより、パーツの取付けに関する情報を一層分かり易く表示することができる。 As a result, information regarding the mounting of parts can be displayed in a more understandable manner.
また、本実施形態の作業指示システム100は、作業環境情報取得部11を備える。作業環境情報取得部11は、作業者が行う指示を入力する。作業環境情報取得部11は、作業者のジェスチャーを認識可能に構成されている。
Further, the
これにより、作業者が作業完了等を容易にシステムに指示することができる。 As a result, the worker can easily instruct the system to complete the work.
また、本実施形態の作業指示システム100においては、作業環境情報取得部11は、取付作業が完了した状態を撮影可能に構成されている。
Further, in the
これにより、取付作業のエビデンスとして保存することができる。また、標準状態と比較することで、作業の正誤を容易に確認することができる。 As a result, it can be saved as evidence of installation work. In addition, the correctness of the work can be easily confirmed by comparing with the standard state.
以上に本発明の好適な実施の形態を説明したが、上記の構成は例えば以下のように変更することができる。 Although the preferred embodiment of the present invention has been described above, the above configuration can be changed as follows, for example.
指示出力部13は、音声による作業指示を作業者に出力する音声出力部を備えても良い。この場合、指示装置2からの作業指示を、音声により作業者に伝えることができる。
The
指示装置2が、移動端末1から取得された作業環境情報(具体的には、カメラ映像)を表示する表示部を備えても良い。この場合、組立現場にいる作業者とは異なる作業者が、指示装置2の表示部で表示された情報に基づいて、組立現場にいる作業者に音声等で作業指示を出しても良い。このように、指示出力部13は、コンピュータが行う指示に代えて、人間の指示を作業者に出力する構成としても良い。
The
表示部14は、上記の構成に限定されず、例えば、ビデオ透過型のヘッドアップディスプレイとして構成されても良い。この場合、表示部14は、作業環境情報取得部11から取得した現実映像と、指示装置2から受信された作業指示と、を重畳した映像を表示する。作業者は、表示部14で表示された映像を介して作業現場の状況及び作業指示を確認する。
The
指示装置2は、パーツ保管場所において、複数の取付作業が必要となる複数のパーツを取得するパーツ取得指示を全て出した後、本体部90における初めての取付位置(即ち第1取付位置A)まで移動する移動指示を出しても良い。
After issuing all the parts acquisition instructions for acquiring a plurality of parts that require a plurality of mounting operations at the parts storage location, the
作業環境情報取得部11は、音声入力部を備えても良い。音声入力部で取得した音声の情報は、周囲の映像とともに、作業環境情報として端末側送受信部12に送信することができる。作業者が例えば特定の言葉を喋ることにより、作業者コマンドを音声認識によって実現することもできる。この構成によれば、作業者が部品を両手で持っており、手でのジェスチャーが難しい場合でも、作業者からの指示を容易に行うことができる。
The work environment
取得したパーツの正誤の判定は、パーツに貼り付けられているバーコードや2次元マトリクスコード等を介して判定することもできる。 The correctness of the acquired part can also be determined via a barcode or a two-dimensional matrix code attached to the part.
カメラ映像以外によるSLAMが行われても良い。例えば、作業環境情報取得部11が、LIDARの計測結果に基づいたSLAMを行うように構成することができる。LIDARとは、Light Detectiоn and Rangingの略称である。LIDARは、周囲の物体の形状を取得する3次元計測センサの一種である。この場合、LIDARによって得られた点群が、作業環境情報に該当する。
SLAM may be performed by other than the camera image. For example, the work environment
指示装置2は、移動端末1と一体型に構成されても良い。この場合、移動端末1と指示装置2とが無線通信するための構成(例えば、端末側送受信部12)を省略することができる。
The
11 作業環境情報取得部
13 指示出力部
90 本体部(取付先)
91 第1パーツ(作業対象物)
92 第2パーツ(作業対象物)
93 第3パーツ(作業対象物)
94 第4パーツ(作業対象物)
100 作業指示システム
11 Work environment
91 First part (work object)
92 Second part (work object)
93 Third part (work object)
94 4th part (work object)
100 work instruction system
Claims (10)
作業者とともに移動し、作業環境に関する作業環境情報を取得する作業環境情報取得部と、
前記作業者とともに移動し、当該作業者に作業指示を出力する指示出力部と、
を備え、
前記作業環境情報取得部は、取得した前記作業環境情報に基づいて、前記作業環境内の基準位置に対する自己位置を推定可能であることを特徴とする作業指示システム。 A work instruction system that gives instructions regarding the installation work of work objects.
The work environment information acquisition department, which moves with workers and acquires work environment information related to the work environment,
An instruction output unit that moves with the worker and outputs work instructions to the worker,
With
The work environment information acquisition unit is a work instruction system characterized in that it can estimate its own position with respect to a reference position in the work environment based on the acquired work environment information.
前記指示出力部は、前記作業指示を表示する表示部を備え、
前記指示出力部は、前記作業対象物の取付先となる部分が作業者の視野に含まれている場合に、当該取付先に対応する前記作業対象物の形状、取付向き、及び取付位置のうち少なくとも1つを含む前記作業指示を、当該取付先となる部分又はその近傍に重畳するように前記表示部に表示することを特徴とする作業指示システム。 The work instruction system according to claim 1.
The instruction output unit includes a display unit that displays the work instruction.
When the portion to be attached to the work object is included in the field of view of the operator, the instruction output unit is included in the shape, attachment direction, and attachment position of the work object corresponding to the attachment destination. A work instruction system characterized in that the work instruction including at least one is displayed on the display unit so as to be superimposed on or in the vicinity of the attachment destination portion.
前記指示出力部は、音声により前記作業指示を出力する音声出力部を備えることを特徴とする作業指示システム。 The work instruction system according to claim 1 or 2.
The instruction output unit is a work instruction system including a voice output unit that outputs the work instruction by voice.
作業予定を入力する作業予定入力部を備え、
前記作業予定入力部において複数の前記取付作業が入力された場合、前記指示出力部は、前記作業予定入力部で設定された作業順序に従って、複数の前記取付作業に関する前記作業指示を作業者に対して出力することを特徴とする作業指示システム。 The work instruction system according to any one of claims 1 to 3.
Equipped with a work schedule input section for inputting work schedules
When a plurality of the mounting operations are input in the work schedule input unit, the instruction output unit issues the work instructions regarding the plurality of installation operations to the operator according to the work order set in the work schedule input unit. A work instruction system characterized by outputting.
前記指示出力部は、作業者を現在位置から前記取付作業が行われる作業位置まで案内するガイド情報を出力し、作業者が前記作業位置に到着すると、当該作業位置で行われる前記取付作業に関する前記作業指示を作業者に対して出力することを特徴とする作業指示システム。 The work instruction system according to any one of claims 1 to 4.
The instruction output unit outputs guide information that guides the worker from the current position to the work position where the installation work is performed, and when the worker arrives at the work position, the above-mentioned mounting work performed at the work position is performed. A work instruction system characterized by outputting work instructions to workers.
前記指示出力部は、前記作業対象物の実物と重畳可能に、当該作業対象物の形状を確認するための3Dモデルを表示することを特徴とする作業指示システム。 The work instruction system according to any one of claims 1 to 5.
The instruction output unit is a work instruction system characterized in that a 3D model for confirming the shape of the work object is displayed so as to be superposed on the actual object of the work object.
前記3Dモデルは、作業者の指示に応じて回転可能に表示されることを特徴とする作業指示システム。 The work instruction system according to claim 6.
The 3D model is a work instruction system characterized in that it is displayed rotatably according to an instruction of an operator.
前記指示出力部は、前記作業対象物の形状、取付向き、及び取付位置のうち少なくとも1つを含む前記作業指示をアニメーションで表示することを特徴とする作業指示システム。 The work instruction system according to any one of claims 1 to 7.
The instruction output unit is a work instruction system characterized in that the work instruction including at least one of the shape, attachment direction, and attachment position of the work object is displayed by animation.
前記作業者が行う指示を入力する作業者指示入力部を備え、
前記作業者指示入力部は、前記作業者のジェスチャー及び音声のうち少なくとも何れかを認識可能に構成されていることを特徴とする作業指示システム。 The work instruction system according to any one of claims 1 to 8.
It is provided with a worker instruction input unit for inputting instructions given by the worker.
The worker instruction input unit is a work instruction system characterized in that at least one of the gesture and the voice of the worker can be recognized.
前記作業環境情報取得部は、取付作業が完了した状態を撮影可能に構成されていることを特徴とする作業指示システム。 The work instruction system according to any one of claims 1 to 9.
The work environment information acquisition unit is a work instruction system characterized in that it is configured to be capable of photographing a state in which the installation work is completed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019073158A JP2020170482A (en) | 2019-04-05 | 2019-04-05 | Work instruction system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019073158A JP2020170482A (en) | 2019-04-05 | 2019-04-05 | Work instruction system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020170482A true JP2020170482A (en) | 2020-10-15 |
Family
ID=72746094
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019073158A Pending JP2020170482A (en) | 2019-04-05 | 2019-04-05 | Work instruction system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020170482A (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120075343A1 (en) * | 2010-09-25 | 2012-03-29 | Teledyne Scientific & Imaging, Llc | Augmented reality (ar) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene |
WO2015001611A1 (en) * | 2013-07-02 | 2015-01-08 | 株式会社日立製作所 | Network construction assistance system and method |
JP2015102880A (en) * | 2013-11-21 | 2015-06-04 | 三菱電機株式会社 | Work support system |
CN105094794A (en) * | 2014-05-06 | 2015-11-25 | 霍尼韦尔国际公司 | Apparatus and method for providing augmented reality for maintenance applications |
US20160112479A1 (en) * | 2014-10-16 | 2016-04-21 | Wipro Limited | System and method for distributed augmented reality |
US20160364913A1 (en) * | 2015-06-12 | 2016-12-15 | Accenture Global Services Limited | Augmented reality method and system for measuring and/or manufacturing |
-
2019
- 2019-04-05 JP JP2019073158A patent/JP2020170482A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120075343A1 (en) * | 2010-09-25 | 2012-03-29 | Teledyne Scientific & Imaging, Llc | Augmented reality (ar) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene |
WO2015001611A1 (en) * | 2013-07-02 | 2015-01-08 | 株式会社日立製作所 | Network construction assistance system and method |
JP2015102880A (en) * | 2013-11-21 | 2015-06-04 | 三菱電機株式会社 | Work support system |
CN105094794A (en) * | 2014-05-06 | 2015-11-25 | 霍尼韦尔国际公司 | Apparatus and method for providing augmented reality for maintenance applications |
US20160112479A1 (en) * | 2014-10-16 | 2016-04-21 | Wipro Limited | System and method for distributed augmented reality |
US20160364913A1 (en) * | 2015-06-12 | 2016-12-15 | Accenture Global Services Limited | Augmented reality method and system for measuring and/or manufacturing |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11565427B2 (en) | Robot system | |
US8731276B2 (en) | Motion space presentation device and motion space presentation method | |
JP6491574B2 (en) | AR information display device | |
JP6008397B2 (en) | AR system using optical see-through HMD | |
CN104897091A (en) | Articulated arm coordinate measuring machine | |
JP2017191351A (en) | Work support system and method | |
JP2006285788A (en) | Mixed reality information generation device and method | |
KR102418994B1 (en) | Method for providng work guide based augmented reality and evaluating work proficiency according to the work guide | |
JP7414395B2 (en) | Information projection system, control device, and information projection control method | |
JP2017100234A (en) | Teaching result display system | |
JP6970858B2 (en) | Maintenance support system, maintenance support method, program and processed image generation method | |
JP6061334B2 (en) | AR system using optical see-through HMD | |
JP6295296B2 (en) | Complex system and target marker | |
JP5215211B2 (en) | Related information display position specifying system and related information display position specifying program | |
KR20200072535A (en) | Multi-layer viewing system and method | |
JP6696925B2 (en) | Operation support device | |
KR20190048810A (en) | Apparatus and method for providing augmented reality contents | |
JP2021065971A (en) | Robot teaching system, image forming method and program | |
JP2020170482A (en) | Work instruction system | |
JP2019066196A (en) | Inclination measuring device and inclination measuring method | |
KR102263836B1 (en) | Method for recognizing worker position in manufacturing line and apparatus thereof | |
JPWO2018100631A1 (en) | Information processing device | |
JP2001239983A (en) | Outfit assisting system | |
JP7293057B2 (en) | Radiation dose distribution display system and radiation dose distribution display method | |
JP2021039567A (en) | Work support system and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230209 |
|
A603 | Late request for extension of time limit during examination |
Free format text: JAPANESE INTERMEDIATE CODE: A603 Effective date: 20230413 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230801 |