JP2020170482A - Work instruction system - Google Patents

Work instruction system Download PDF

Info

Publication number
JP2020170482A
JP2020170482A JP2019073158A JP2019073158A JP2020170482A JP 2020170482 A JP2020170482 A JP 2020170482A JP 2019073158 A JP2019073158 A JP 2019073158A JP 2019073158 A JP2019073158 A JP 2019073158A JP 2020170482 A JP2020170482 A JP 2020170482A
Authority
JP
Japan
Prior art keywords
work
instruction
worker
instruction system
environment information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019073158A
Other languages
Japanese (ja)
Inventor
直弘 中村
Naohiro Nakamura
直弘 中村
繁一 志子田
Shigekazu Shikoda
繁一 志子田
厚輝 中川
Atsuteru Nakagawa
厚輝 中川
允 邨瀬
Makoto Murase
允 邨瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Heavy Industries Ltd
Original Assignee
Kawasaki Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Heavy Industries Ltd filed Critical Kawasaki Heavy Industries Ltd
Priority to JP2019073158A priority Critical patent/JP2020170482A/en
Publication of JP2020170482A publication Critical patent/JP2020170482A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • General Factory Administration (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a work instruction system which can estimate the self position by a movable terminal alone and can be applied to assembly of a large object.SOLUTION: The work instruction system issues an instruction on a work of attaching a work target object. The work instruction system includes a work environment information acquisition unit and an instruction output unit. The work environment information acquisition unit acquires work environment information on a work environment while moving with a worker. The instruction output unit outputs a work instruction to a worker while moving with the worker. The work environment information acquisition unit can estimate the self position to the reference position in the work environment on the basis of the work environment information.SELECTED DRAWING: Figure 1

Description

本発明は、取付作業を支援するための作業指示システムに関する。 The present invention relates to a work instruction system for supporting mounting work.

従来から、現実世界の物事に対してコンピュータによる情報を付加する拡張現実(AR:Augmented Reality)が知られている。特許文献1は、この拡張現実を利用した設営アシストシステムを開示する。 Conventionally, augmented reality (AR), which adds computer-based information to things in the real world, has been known. Patent Document 1 discloses a setup assist system utilizing this augmented reality.

特許文献1の設営アシストシステムは、検出された視界画像内の、既知長を有する基準ポールの大きさ及び位置に基づいて、メガネ型端末の現在位置及び姿勢を特定する構成となっている。 The setup assist system of Patent Document 1 is configured to specify the current position and posture of the glasses-type terminal based on the size and position of the reference pole having a known length in the detected field of view image.

特開2018−106358号公報JP-A-2018-106358

特許文献1の構成は、既知長の基準ポールを複数の既知点のそれぞれに設置する必要があるとともに、視界画像内において2つ以上の基準ポールが含まれている場合のみ、メガネ型端末の自己位置を推定することができる。 In the configuration of Patent Document 1, it is necessary to install reference poles of known lengths at each of a plurality of known points, and only when two or more reference poles are included in the visual field image, the self of the glasses-type terminal The position can be estimated.

しかし、例えば大きさが数メートルの大型物を組み立てる作業等を考えると、作業者の視界のうち大きな割合を大型物が占めることも多いので、視界に複数の基準ポールが含まれるように基準ポールを設置することが困難な場合も多い。この結果、特許文献1の構成は、作業者(メガネ型端末)の自己位置を正確に推定することができない。 However, considering the work of assembling a large object with a size of several meters, for example, the large object often occupies a large proportion of the worker's field of view, so the reference pole is included so that the field of view includes multiple reference poles. It is often difficult to install. As a result, the configuration of Patent Document 1 cannot accurately estimate the self-position of the worker (glasses type terminal).

本発明は以上の事情に鑑みてされたものであり、その目的は、移動端末単体で自己位置を推定でき、大型物の組立てに適用が容易な作業指示システムを提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a work instruction system which can estimate a self-position by a mobile terminal alone and can be easily applied to the assembly of a large object.

本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段とその効果を説明する。 The problem to be solved by the present invention is as described above, and next, the means for solving this problem and its effect will be described.

本発明の観点によれば、以下の構成の作業指示システムが提供される。即ち、この作業指示システムは、作業対象物の取付作業に関する指示を行う。この作業指示システムは、作業環境情報取得部と、指示出力部と、を備える。前記作業環境情報取得部は、作業者とともに移動し、作業環境に関する作業環境情報を取得する。前記指示出力部は、前記作業者とともに移動し、当該作業者に作業指示を出力する。前記作業環境情報取得部は、取得した前記作業環境情報に基づいて、前記作業環境内の基準位置に対する自己位置を推定可能である。 From the viewpoint of the present invention, a work instruction system having the following configuration is provided. That is, this work instruction system gives instructions regarding the attachment work of the work object. This work instruction system includes a work environment information acquisition unit and an instruction output unit. The work environment information acquisition unit moves together with the worker to acquire work environment information related to the work environment. The instruction output unit moves together with the worker and outputs a work instruction to the worker. The work environment information acquisition unit can estimate its own position with respect to a reference position in the work environment based on the acquired work environment information.

これにより、作業環境情報に基づいて指示出力部から指示することで、作業者は、取付治具等を要せずに、作業対象物を正確な位置に取り付けることができる。この結果、取付ミスを低減でき、品質の向上を図ることができるとともに、取付治具の作成、管理に関する費用及び手間を無くすことができ、コストの低減を実現できる。 As a result, by instructing from the instruction output unit based on the work environment information, the operator can mount the work object at an accurate position without the need for a mounting jig or the like. As a result, mounting errors can be reduced, quality can be improved, and costs and labor related to the creation and management of mounting jigs can be eliminated, and cost reduction can be realized.

本発明によれば、移動端末単体で自己位置を推定でき、大型物の組立てに適応できる作業指示システムを提供することができる。 According to the present invention, it is possible to provide a work instruction system capable of estimating a self-position by a mobile terminal alone and adapting to the assembly of a large object.

本発明の一実施形態に係る作業指示システムが適用される作業現場を概略的に示す斜視図。The perspective view which shows typically the work site to which the work instruction system which concerns on one Embodiment of this invention is applied. 作業指示システムの概略な構成を示すブロック図。A block diagram showing a schematic configuration of a work instruction system. 表示される3Dモデルを示す図。The figure which shows the displayed 3D model. 作業者が目にする情報の一例を示す図。The figure which shows an example of the information which a worker sees.

次に、図面を参照して本発明の実施の形態を説明する。図1は、本発明の一実施形態に係る作業指示システム100が適用される作業現場を概略的に示す斜視図である。図2は、作業指示システム100の概略な構成を示すブロック図である。図3は、表示される3Dモデルを示す図である。図4は、作業者が目にする情報の一例を示す図である。 Next, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a perspective view schematically showing a work site to which the work instruction system 100 according to the embodiment of the present invention is applied. FIG. 2 is a block diagram showing a schematic configuration of the work instruction system 100. FIG. 3 is a diagram showing a displayed 3D model. FIG. 4 is a diagram showing an example of information that the operator sees.

本実施形態の作業指示システム100は、例えば、図1に示すように、1つ又は複数の取付作業が必要となる物の組立て等に用いられる。取付作業は様々であるが、以下では、大きな部品である本体部90に、他の小さな部品を取り付ける場合を例にして説明する。小さな部品は、第1パーツ91、第2パーツ92、第3パーツ93、及び第4パーツ94である。 The work instruction system 100 of the present embodiment is used, for example, for assembling an object that requires one or more attachment operations, as shown in FIG. There are various mounting operations, but in the following, a case where another small component is attached to the main body 90, which is a large component, will be described as an example. The small parts are the first part 91, the second part 92, the third part 93, and the fourth part 94.

第1パーツ91、第2パーツ92、第3パーツ93、及び第4パーツ94は、作業対象物に相当する。本体部90は、作業対象物の取付先に相当する。以下では、全てのパーツが取り付けられた状態の本体部90を完成品と称することがある。 The first part 91, the second part 92, the third part 93, and the fourth part 94 correspond to work objects. The main body 90 corresponds to the attachment destination of the work object. In the following, the main body 90 in a state where all the parts are attached may be referred to as a finished product.

作業指示システム100は、図1に示すように、主として、移動端末1と、指示装置2と、から構成される。 As shown in FIG. 1, the work instruction system 100 mainly includes a mobile terminal 1 and an instruction device 2.

移動端末1は、例えば、作業者に装着されるメガネ型端末から構成され、作業者とともに移動する。移動端末1は、装着部10と、作業環境情報取得部11と、端末側送受信部12と、指示出力部13と、を備える。 The mobile terminal 1 is composed of, for example, a glasses-type terminal worn by an operator and moves together with the operator. The mobile terminal 1 includes a mounting unit 10, a work environment information acquisition unit 11, a terminal-side transmission / reception unit 12, and an instruction output unit 13.

装着部10は、作業者の適宜の場所(例えば、頭部)に装着される。装着部10は、例えば、メガネのテンプル部及び耳掛け部に相当する部分として構成される。ただし、これに限定されず、装着部10は、作業者がかぶるヘルメット等から構成されても良い。 The mounting portion 10 is mounted at an appropriate place (for example, the head) of the operator. The mounting portion 10 is configured as, for example, a portion corresponding to a temple portion and an ear hook portion of eyeglasses. However, the present invention is not limited to this, and the mounting portion 10 may be composed of a helmet or the like worn by an operator.

作業環境情報取得部11は、作業現場の環境(作業環境)に関する作業環境情報を取得するために用いられる。作業環境情報取得部11は、例えば、作業環境の映像(画像)を取得可能なカメラ等から構成され、装着部10に取り付けられている。即ち、作業環境情報取得部11は、作業者とともに移動する。 The work environment information acquisition unit 11 is used to acquire work environment information regarding the work site environment (work environment). The work environment information acquisition unit 11 is composed of, for example, a camera or the like capable of acquiring an image (image) of the work environment, and is attached to the mounting unit 10. That is, the work environment information acquisition unit 11 moves together with the worker.

作業環境情報取得部11で取得する作業環境情報は、作業者の周囲の状況を反映したものである。本実施形態において、作業環境情報は、作業者の周囲を撮影したカメラ映像である。映像を撮影する装置(カメラ)は、作業者の視界よりも広い視界を有しても良いし、作業者の視界とは別の向きの視界を有しても良い。 The work environment information acquired by the work environment information acquisition unit 11 reflects the situation around the worker. In the present embodiment, the work environment information is a camera image of the surroundings of the worker. The device (camera) for capturing an image may have a field of view wider than the field of view of the operator, or may have a field of view different from the field of view of the worker.

作業環境情報取得部11は、自己位置推定機能を有し、取得した作業環境情報から自己位置(即ち作業者の位置)を推定することができる。この自己位置推定機能は、例えば、SLAM機能である。SLAMは、Simultaneous Localization and Mappingの略称である。 The work environment information acquisition unit 11 has a self-position estimation function, and can estimate the self-position (that is, the position of the worker) from the acquired work environment information. This self-position estimation function is, for example, a SLAM function. SLAM is an abbreviation for Simultaneous Localization and Mapping.

SLAM機能は周知であるので簡単に説明すると、カメラが取得した映像の各フレームから特徴点を抽出し、フレーム間での特徴点の移動量を分析することで、カメラの位置及び姿勢の変化を取得する機能である。 The SLAM function is well known, so to explain it briefly, by extracting feature points from each frame of the image acquired by the camera and analyzing the amount of movement of the feature points between frames, changes in the position and orientation of the camera can be detected. It is a function to acquire.

本実施形態の作業指示システム100においては、1つ又は複数のマーカーが予め設定されている。それぞれのマーカーの絶対位置は、組立作業の前に、作業指示システム100に入力される。 In the work instruction system 100 of the present embodiment, one or a plurality of markers are preset. The absolute position of each marker is input to the work instruction system 100 prior to the assembly work.

マーカーは、動かない場所に設定されることが好ましい。マーカーは、視覚的にユニークな特徴を本体部90自体が部分的に有する場合には、当該部分をそのまま用いて設定することができる。また、特別な図形又は模様等が表示されたシールを、本体部90、作業場所の床等に貼り付けることによって、マーカーを実現することもできる。マーカーを一意に識別可能とするために、シールの図形、模様及び色等をマーカー毎に異ならせることが好ましい。 The marker is preferably set in a place where it does not move. When the main body 90 itself partially has a visually unique feature, the marker can be set by using the portion as it is. Further, a marker can be realized by attaching a sticker on which a special figure or pattern is displayed to the main body 90, the floor of the work place, or the like. In order to make the markers uniquely identifiable, it is preferable to make the shape, pattern, color, etc. of the sticker different for each marker.

作業環境情報取得部11のカメラが取得する映像には、マーカーが現れる場合があれば、現れない場合もある。作業環境情報取得部11は、公知の画像処理によって、映像に現れるマーカーを自動的に検出する。また、作業環境情報取得部11は、検出された1つ又は複数のマーカーについて、当該マーカーが何れのマーカーであるかを特定する。 The marker may or may not appear in the image acquired by the camera of the work environment information acquisition unit 11. The work environment information acquisition unit 11 automatically detects markers appearing in the video by known image processing. In addition, the work environment information acquisition unit 11 specifies which marker the marker is for one or more detected markers.

映像にマーカーが含まれる場合は、当該マーカーが映像において現れる位置に基づいて、作業環境情報取得部11の絶対的な自己位置及び自己姿勢を計算により得ることができる。映像にマーカーが含まれない場合は、直近の過去にマーカーに基づいて取得した絶対的な自己位置及び自己姿勢と、その取得時点からSLAM機能で取得したカメラの位置及び姿勢の変化と、によって、現在の絶対的な自己位置及び自己姿勢を推定することができる。 When the image contains a marker, the absolute self-position and self-posture of the work environment information acquisition unit 11 can be obtained by calculation based on the position where the marker appears in the image. If the image does not include a marker, it depends on the absolute self-position and attitude acquired based on the marker in the latest past and the change in camera position and attitude acquired by the SLAM function from the time of acquisition. The current absolute self-position and self-posture can be estimated.

絶対的な自己位置は、例えば、作業者が作業をする空間(作業空間)に3次元直交座標系を定義したときの原点(基準位置)に対する位置として、3次元座標で表現することができる。自己姿勢は、3次元直交座標系を用いた3次元ベクトルとして表現することができる。原点の位置は任意であるが、例えば本体部90における特徴的な点となるように設定することができる。前述のマーカーの絶対位置とは、この3次元座標を意味する。 The absolute self-position can be expressed in three-dimensional coordinates as, for example, a position with respect to the origin (reference position) when a three-dimensional Cartesian coordinate system is defined in the space (work space) where the worker works. The self-posture can be expressed as a three-dimensional vector using a three-dimensional Cartesian coordinate system. The position of the origin is arbitrary, but it can be set so as to be a characteristic point in the main body 90, for example. The absolute position of the marker mentioned above means the three-dimensional coordinates.

これにより、GNSS等の電波が届かない屋内においても、作業環境情報取得部11は、画像処理等によって自己位置を算出することで、移動端末1(言い換えれば、作業者の頭部)の位置及び姿勢を推定することができる。これにより、本体部90に取り付けるべきパーツの位置等の情報を、3次元的に、かつ、作業者が現実の空間を直接見る見え方と幾何学的に整合するように、作業者の視界に重畳して表示することが可能になる。 As a result, even indoors where radio waves such as GNSS do not reach, the work environment information acquisition unit 11 calculates its own position by image processing or the like to obtain the position of the mobile terminal 1 (in other words, the worker's head) and The posture can be estimated. As a result, information such as the position of the parts to be attached to the main body 90 is three-dimensionally and geometrically matched with the way the worker directly sees the real space in the worker's field of view. It becomes possible to superimpose and display.

本実施形態の作業環境情報取得部11は、作業者指示入力部としても機能する。具体的には、作業環境情報取得部11は、作業者のジェスチャーに関する映像を取得し、作業者のジェスチャーから認識した作業者指示を、端末側送受信部12を介して指示装置2に送信する。ジェスチャーは指示の内容に応じて定められる。具体的なジェスチャーは任意であるが、例えば、作業環境情報取得部11のカメラに映るように片手を差し出して左右に振る動作とすることができる。これにより、作業者が、作業環境情報取得部11を介して、指示装置2に対して、作業開始、作業停止、パーツ回転等の指示を行うことができる。以下では、作業者が指示装置2に対して出す指示を作業者コマンドと呼ぶことがある。 The work environment information acquisition unit 11 of the present embodiment also functions as a worker instruction input unit. Specifically, the work environment information acquisition unit 11 acquires a video related to the gesture of the worker, and transmits the worker instruction recognized from the gesture of the worker to the instruction device 2 via the transmission / reception unit 12 on the terminal side. Gestures are determined according to the content of the instruction. The specific gesture is arbitrary, but for example, one hand can be extended and shaken to the left or right so as to be reflected in the camera of the work environment information acquisition unit 11. As a result, the worker can instruct the instruction device 2 to start work, stop work, rotate parts, and the like via the work environment information acquisition unit 11. In the following, an instruction issued by the operator to the instruction device 2 may be referred to as an operator command.

ジェスチャー認識は、作業環境情報取得部11に代えて端末側送受信部12側で行われても良い。具体的には、作業環境情報取得部11は、取得した映像を、端末側送受信部12を介して指示装置2にリアルタイムで送信する。指示装置2は、画像処理等によって、作業者のジェスチャーで表現される作業者コマンドを認識する。 Gesture recognition may be performed on the terminal side transmission / reception unit 12 instead of the work environment information acquisition unit 11. Specifically, the work environment information acquisition unit 11 transmits the acquired video to the instruction device 2 in real time via the terminal-side transmission / reception unit 12. The instruction device 2 recognizes the worker command expressed by the gesture of the worker by image processing or the like.

端末側送受信部12は、指示装置2と無線通信可能に構成されている。無線通信の方式は任意であるが、例えば、無線LANを用いることが考えられる。 The terminal-side transmission / reception unit 12 is configured to enable wireless communication with the instruction device 2. The wireless communication method is arbitrary, but for example, a wireless LAN can be considered.

端末側送受信部12は、無線通信により、作業環境情報取得部11で取得されたカメラ映像、自己位置及び自己姿勢等を指示装置2に送信し、指示装置2からの作業指示を受信する。端末側送受信部12は、指示装置2から受信した作業指示を指示出力部13に出力する。 The terminal-side transmission / reception unit 12 transmits the camera image, self-position, self-posture, etc. acquired by the work environment information acquisition unit 11 to the instruction device 2 by wireless communication, and receives the work instruction from the instruction device 2. The terminal-side transmission / reception unit 12 outputs the work instruction received from the instruction device 2 to the instruction output unit 13.

本実施形態の作業指示システム100においては、当該作業指示は、パーツの形状、取付向き、及び取付位置のうち少なくとも何れかを含む。 In the work instruction system 100 of the present embodiment, the work instruction includes at least one of the shape of the part, the mounting direction, and the mounting position.

指示出力部13は、端末側送受信部12を介して指示装置2から受信した作業指示を表示する表示部14を備える。表示部14は、例えば、図略の投影装置と、ヘッドアップディスプレイと、から構成される。 The instruction output unit 13 includes a display unit 14 that displays work instructions received from the instruction device 2 via the terminal-side transmission / reception unit 12. The display unit 14 includes, for example, a projection device (not shown) and a head-up display.

投影装置は、作業指示をヘッドアップディスプレイに投影することにより表示させる。ヘッドアップディスプレイは、例えば、ハーフミラーからなる光学透過型のヘッドアップディスプレイとして構成され、レンズとして装着部10に取り付けられている。レンズは、両眼型であっても良いし、片眼型であっても良い。 The projection device displays the work instruction by projecting it on the head-up display. The head-up display is configured as, for example, an optical transmission type head-up display composed of a half mirror, and is attached to the mounting portion 10 as a lens. The lens may be a binocular type or a monocular type.

表示部14は、図4に示すように、投影装置を介して、作業者が見る現実の状況に対応する位置に作業指示が表示されるように、ヘッドアップディスプレイに作業指示を投影する。 As shown in FIG. 4, the display unit 14 projects the work instruction on the head-up display so that the work instruction is displayed at a position corresponding to the actual situation seen by the operator via the projection device.

これにより、装着部10を装着している作業者が、投影装置によりヘッドアップディスプレイに投影された作業指示等を確認しながら、作業現場の様子をシースルーで観察することができるとともに、取付対象のパーツの取付位置等の情報を容易に把握することができる。 As a result, the worker who wears the mounting portion 10 can observe the state of the work site through see-through while checking the work instructions and the like projected on the head-up display by the projection device, and the mounting target. Information such as the mounting position of parts can be easily grasped.

言い換えれば、表示部14は、作業者が目にする現実の状況に、パーツの形状等を示す作業指示のコンピュータ情報を重畳して表示することで、いわゆる拡張現実又は複合現実(MR:Mixed Reality)を実現している。従って、作業指示をより現実的かつ明確に表示することができ、作業者が作業内容をより正確に把握することができる。この結果、パーツや取付位置の間違い等の作業ミスを防止することができ、作業時間の短縮及び作業品質の向上を図ることができる。 In other words, the display unit 14 superimposes computer information of work instructions indicating the shape of parts and the like on the actual situation seen by the operator, thereby displaying so-called augmented reality or mixed reality (MR). ) Is realized. Therefore, the work instruction can be displayed more realistically and clearly, and the worker can grasp the work content more accurately. As a result, work mistakes such as mistakes in parts and mounting positions can be prevented, work time can be shortened, and work quality can be improved.

表示部14は、作業指示をアニメーションで表示しても良い。例えば、作業環境情報取得部11を介して取得された、作業者が手で持っているパーツの姿勢と、取付状態の姿勢と、が異なることを指示装置2が検出した場合、指示装置2は、手持ちのパーツを現在の姿勢から取付状態の姿勢まで向きを変える指示を、表示部14にアニメーションで表示させる。アニメーションの表現は様々であるが、例えば、矢印の図形が周回するように動くアニメーションとすることができる。この指示に従うことで、作業者はパーツを正確な姿勢に容易に調整することができ、作業を一層スムーズに行うことができる。また、アニメーションにより、作業者は指示を直感的に素早く理解することができる。 The display unit 14 may display the work instruction by animation. For example, when the instruction device 2 detects that the posture of the part held by the operator and the posture in the mounted state, which are acquired through the work environment information acquisition unit 11, are different, the instruction device 2 , The display unit 14 is animated to display an instruction to change the direction of the hand-held part from the current posture to the mounted posture. There are various expressions of animation, but for example, it can be an animation in which the figure of an arrow moves in a circular motion. By following this instruction, the operator can easily adjust the parts to the correct posture, and the work can be performed more smoothly. Animation also allows the operator to intuitively and quickly understand the instructions.

指示装置2は、公知のコンピュータから構成されている。このコンピュータは、図略のCPU、ROM、RAM、HDD、入出力部等を備える。HDDには、各種プログラムやデータ等が記憶されている。HDDに記憶されるデータには、取付作業に関する本体部90、パーツ、及び完成品の3Dデータが含まれる。CPUは、各種プログラム等をHDDから読み出して実行することができる。 The instruction device 2 is composed of a known computer. This computer includes a CPU, ROM, RAM, HDD, input / output unit, etc., which are not shown. Various programs, data, and the like are stored in the HDD. The data stored in the HDD includes 3D data of the main body 90, parts, and the finished product related to the mounting work. The CPU can read various programs and the like from the HDD and execute them.

指示装置2は、上記入出力部から構成された作業予定入力部21を備える。組立作業の責任者は、作業予定入力部21を介して、作業予定に関する様々な情報を事前に入力することができる。この情報には、組立作業に関する本体部90、各パーツ、及び完成品の3Dデータ等の情報が含まれる。また、指示装置2に入力される情報には、組立作業に含まれる複数の取付作業の作業順序等が含まれる。作業予定入力部21を介して入力された様々な情報は、上記のHDD等に記憶される。 The instruction device 2 includes a work schedule input unit 21 composed of the input / output units. The person in charge of the assembly work can input various information about the work schedule in advance via the work schedule input unit 21. This information includes information such as the main body 90 related to the assembly work, each part, and 3D data of the finished product. Further, the information input to the instruction device 2 includes the work order of a plurality of mounting operations included in the assembly operation. Various information input via the work schedule input unit 21 is stored in the HDD or the like.

指示装置2は、HDDに記憶された作業順序に基づく作業指示のそれぞれを、端末側送受信部12を介して指示出力部13に出力する。指示出力部13は、端末側送受信部12を介して指示装置2から受信した作業指示のそれぞれを表示部14で表示させる。即ち、指示出力部13は、指示装置2からの作業指示を、作業予定入力部21を介して入力された作業順序に従って表示部14に表示させる。 The instruction device 2 outputs each of the work instructions stored in the HDD based on the work order to the instruction output unit 13 via the terminal-side transmission / reception unit 12. The instruction output unit 13 causes the display unit 14 to display each of the work instructions received from the instruction device 2 via the terminal-side transmission / reception unit 12. That is, the instruction output unit 13 causes the display unit 14 to display the work instruction from the instruction device 2 according to the work order input via the work schedule input unit 21.

続いて、具体的な組立作業を例として、本実施形態の作業指示システム100の動作を詳細に説明する。この組立作業は、図1に示す第1パーツ91、第2パーツ92、第3パーツ93、及び第4パーツ94を、本体部90に取り付ける複数の取付作業を含んでいる。 Subsequently, the operation of the work instruction system 100 of the present embodiment will be described in detail by taking a specific assembly work as an example. This assembly work includes a plurality of mounting work for mounting the first part 91, the second part 92, the third part 93, and the fourth part 94 shown in FIG. 1 to the main body 90.

組立作業の開始前に、管理者が各種の3Dデータを、作業予定入力部21を介して指示装置2に入力する。この3Dデータには、組立作業の完成品の3Dデータ、及び、取付先の本体部90の3Dデータが含まれる。また、指示装置2に入力される3Dデータには、第1パーツ91、第2パーツ92、第3パーツ93、及び第4パーツ94の3Dデータが含まれる。 Before the start of the assembly work, the manager inputs various 3D data to the instruction device 2 via the work schedule input unit 21. This 3D data includes 3D data of the finished product of the assembly work and 3D data of the main body 90 of the attachment destination. Further, the 3D data input to the instruction device 2 includes 3D data of the first part 91, the second part 92, the third part 93, and the fourth part 94.

続いて、管理者は、指示装置2にマーカーの位置(前述の絶対位置)を設定する。設定されたマーカーの位置は、移動端末1に送信され、作業環境情報取得部11に登録される。管理者は、本体部90に対するそれぞれのパーツの取付位置(図1に示す第1取付位置A、第2取付位置B、第3取付位置C、第4取付位置D)を設定する。 Subsequently, the administrator sets the position of the marker (absolute position described above) in the instruction device 2. The set marker position is transmitted to the mobile terminal 1 and registered in the work environment information acquisition unit 11. The administrator sets the mounting positions of the respective parts with respect to the main body 90 (first mounting position A, second mounting position B, third mounting position C, fourth mounting position D shown in FIG. 1).

更に、管理者は、第1パーツ91、第2パーツ92、第3パーツ93、及び第4パーツ94の作業順序(例えば、図1に示す第1取付位置A、第2取付位置B、第3取付位置C、第4取付位置Dの順に取付作業を行う順序)を、作業予定入力部21を介して指示装置2に入力する。なお、この作業順序は、例えば、パーツのIDや、組立仕様書で決められた順序に基づいて設定することができる。 Further, the administrator can perform the work order of the first part 91, the second part 92, the third part 93, and the fourth part 94 (for example, the first mounting position A, the second mounting position B, and the third part shown in FIG. 1). The order in which the mounting work is performed in the order of the mounting position C and the fourth mounting position D) is input to the instruction device 2 via the work schedule input unit 21. The work order can be set based on, for example, the part ID or the order determined in the assembly specifications.

作業予定入力部21に上記内容が入力される順番は、必要に応じて変更することができる。 The order in which the above contents are input to the work schedule input unit 21 can be changed as needed.

続いて、作業者が作業現場において、移動端末1を装着している状態で、作業を開始する旨の作業者コマンドに相当するジェスチャーを行う。これにより、指示装置2は、組立作業の開始を認識する。 Subsequently, the worker makes a gesture corresponding to the worker command to start the work at the work site while wearing the mobile terminal 1. As a result, the instruction device 2 recognizes the start of the assembly work.

作業者は、移動端末1を装着した状態で、徒歩等で移動することができる。移動端末1は、常時、カメラ映像を取得するとともに、これに基づいて、移動端末1自身の位置及び姿勢を取得する。移動端末1は、カメラ映像、自機の位置及び姿勢を、指示装置2にリアルタイムで送信する。 The worker can move on foot or the like with the mobile terminal 1 attached. The mobile terminal 1 constantly acquires a camera image, and based on this, acquires the position and posture of the mobile terminal 1 itself. The mobile terminal 1 transmits the camera image, the position and posture of the own device to the instruction device 2 in real time.

指示装置2は、HDDで記憶された作業順序に応じて、指示出力部13を介して、作業者に第1取付位置Aに取り付ける第1パーツ91を取得するパーツ取得指示を行う。このパーツ取得指示は、例えば、パーツの保管場所までの経路を3Dの矢印で表現したモデルを表示することで、実現することができる。この3D矢印は、ガイド情報に相当する。このとき、移動端末1の現在の位置及び姿勢に基づいて、経路を示す3Dの矢印を仮に現実空間に配置した場合に当該矢印が作業者からどのように見えるかの計算が行われる。この計算は、詳細な説明は省略するが、公知の3Dコンピュータグラフィックスの計算で実現することができる。この計算結果に従って矢印が描画されることで、作業者が現実空間を見る見え方と整合したガイド情報を表示部14に表示することができる。これにより、作業者は現在位置からどのように移動すれば良いかを、自分が現実に見ている周囲の状況との関係で直感的に理解でき、パーツの保管場所まで容易にたどり着くことができる。 The instruction device 2 gives a part acquisition instruction to the operator via the instruction output unit 13 to acquire the first part 91 to be attached to the first attachment position A according to the work order stored in the HDD. This parts acquisition instruction can be realized, for example, by displaying a model in which the route to the parts storage location is represented by a 3D arrow. This 3D arrow corresponds to guide information. At this time, based on the current position and posture of the mobile terminal 1, it is calculated how the arrow will look to the operator if a 3D arrow indicating the route is temporarily arranged in the real space. This calculation can be realized by a known calculation of 3D computer graphics, although detailed description is omitted. By drawing the arrow according to the calculation result, the guide information consistent with the way the operator sees the real space can be displayed on the display unit 14. As a result, the worker can intuitively understand how to move from the current position in relation to the surrounding situation that he / she actually sees, and can easily reach the storage location of the parts. ..

作業者がパーツの保管場所に到着すると、指示出力部13は、端末側送受信部12を介して指示装置2から受信したパーツの形状情報を表示部14で表示させる。なお、作業者がパーツの保管場所に到着したことは、移動端末1の現在位置を用いて容易に判定することができる。表示部14は、例えば、作業者の目の前であって、手持ちのパーツを容易に確認できるところで、第1パーツ91の3Dモデルを表示する。 When the worker arrives at the storage location of the parts, the instruction output unit 13 causes the display unit 14 to display the shape information of the parts received from the instruction device 2 via the terminal-side transmission / reception unit 12. It should be noted that the arrival of the worker at the storage location of the parts can be easily determined by using the current position of the mobile terminal 1. The display unit 14 displays the 3D model of the first part 91, for example, in front of the operator where the parts on hand can be easily confirmed.

これにより、作業者が、表示部14で表示された第1パーツ91の3Dモデルを参照して、第1パーツ91を探すことができるとともに、手持ちの第1パーツ91を、図3(a)に示すように、3Dモデルと重畳するように比較することができる。この結果、手持ちの第1パーツ91の正誤を容易に判断することができる。 As a result, the operator can search for the first part 91 by referring to the 3D model of the first part 91 displayed on the display unit 14, and can see the first part 91 on hand in FIG. 3A. As shown in, it can be compared so as to overlap with the 3D model. As a result, the correctness of the first part 91 on hand can be easily determined.

本実施形態の作業指示システム100においては、作業者が、表示部14で表示された第1パーツ91の3Dモデルを回転させる指示に相当する作業者コマンドを、作業環境情報取得部11を介して指示装置2に送ることができる。これにより、作業者は、表示される第1パーツ91の3Dモデルを、(例えば、あたかもターンテーブルに乗っているかのように)回転させながら、手持ちの第1パーツ91と比較することができる。従って、第1パーツ91の正誤をより一層好適に判断することができる。 In the work instruction system 100 of the present embodiment, the operator issues a worker command corresponding to an instruction to rotate the 3D model of the first part 91 displayed on the display unit 14 via the work environment information acquisition unit 11. It can be sent to the instruction device 2. This allows the operator to compare the displayed 3D model of the first part 91 with the first part 91 on hand while rotating (for example, as if he were on a turntable). Therefore, the correctness of the first part 91 can be determined more preferably.

なお、パーツの形状情報は、パーツの3Dモデルの代わりに、例えば、図3(b)に示すように当該パーツの取付先の凹形状を示す3Dモデルを用いることもできる。この場合においても、作業者が、手持ちのパーツを取付先の3Dモデルに合わせることで、手持ちのパーツの正誤を容易に確認することができる。 As the shape information of the part, instead of the 3D model of the part, for example, as shown in FIG. 3B, a 3D model showing the concave shape of the mounting destination of the part can be used. Even in this case, the operator can easily confirm the correctness of the parts on hand by matching the parts on hand with the 3D model to which the parts are attached.

指示装置2は、例えば、映像内の2次元座標と、対応する3次元物体表面上の点をマッチングする2D−3Dモデルマッチング技術によって、作業者が手持ちの第1パーツ91の正誤を判定しても良い。この場合、作業者の手持ちの第1パーツ91が正しいと判定した場合、指示装置2は、作業者が手持ちの第1パーツ91に対応する位置に、「OK」等の文字、又は適宜のマーク等を表示部14に表示させることで、作業者に知らせることができる。なお、当該2D−3Dモデルマッチング技術は公知であるため、説明を省略する。 The instruction device 2 determines the correctness of the first part 91 held by the operator by, for example, a 2D-3D model matching technique that matches the two-dimensional coordinates in the image with the points on the surface of the corresponding three-dimensional object. Is also good. In this case, when it is determined that the first part 91 held by the worker is correct, the instruction device 2 places a character such as "OK" or an appropriate mark at the position corresponding to the first part 91 held by the worker. Etc. can be displayed on the display unit 14 to notify the operator. Since the 2D-3D model matching technique is known, the description thereof will be omitted.

正しい第1パーツ91を手に持った状態で、作業者は、次の作業の指示を要求する作業者コマンドを、作業環境情報取得部11を介して指示装置2に送る。これを受けて、指示装置2は、本体部90の第1取付位置Aまで作業者を案内するガイド情報を、指示出力部13を介して作業者に対して出力する。 With the correct first part 91 in hand, the worker sends a worker command requesting an instruction for the next work to the instruction device 2 via the work environment information acquisition unit 11. In response to this, the instruction device 2 outputs guide information for guiding the operator to the first mounting position A of the main body 90 to the operator via the instruction output unit 13.

作業者が第1取付位置Aに到着した後、指示装置2は、図4に示すように、第1パーツ91の取付位置を示す作業指示を、指示出力部13を介して作業者に対して出力する。図4では、第1パーツ91の半透明的な表示(鎖線で表現されている)によってその形状及び取付向きが示されているとともに、矢印の先端によって第1パーツ91の取付位置が示されている。なお、図4は作業指示の一例であって、作業指示の表示方法はこれに限定されない。例えば、第1パーツ91の形状、取付向き、及び取付位置のうち1つ又は2つだけが指示されても良い。 After the worker arrives at the first mounting position A, the instruction device 2 issues a work instruction indicating the mounting position of the first part 91 to the worker via the instruction output unit 13, as shown in FIG. Output. In FIG. 4, the semi-transparent display (represented by a chain line) of the first part 91 indicates its shape and mounting direction, and the tip of the arrow indicates the mounting position of the first part 91. There is. Note that FIG. 4 is an example of a work instruction, and the display method of the work instruction is not limited to this. For example, only one or two of the shape, mounting orientation, and mounting position of the first part 91 may be indicated.

これらの指示は、上述と同様に、矢印等の3D図形を仮に現実空間に配置した場合に、当該矢印が作業者からどのように見えるかの計算が行われ、この計算結果に基づいて表示される。従って、作業者には、現実の状況にあたかも図4の矢印等が実在するかのように見える。作業者は、目の前に映った作業指示に従って、第1パーツ91を本体部90に容易に取り付けることができる。 Similar to the above, these instructions are calculated based on the calculation result of how the arrow looks to the operator when a 3D figure such as an arrow is placed in the real space. To. Therefore, to the worker, it seems as if the arrow or the like in FIG. 4 actually exists in the actual situation. The operator can easily attach the first part 91 to the main body 90 according to the work instructions displayed in front of him.

上記のように、作業環境情報取得部11は自己位置推定機能を有し、得られた自己位置に基づいた位置に、図4の矢印等が表示される。従って、図4に示すように作業者が本体部90の一部しか見えない場合においても、第1パーツ91の取付場所等を正確に把握することができる。この結果、取付治具等を要せずに、第1パーツ91を正確な位置に取り付けることができる。 As described above, the work environment information acquisition unit 11 has a self-position estimation function, and an arrow or the like in FIG. 4 is displayed at a position based on the obtained self-position. Therefore, as shown in FIG. 4, even when the operator can see only a part of the main body 90, the mounting location of the first part 91 and the like can be accurately grasped. As a result, the first part 91 can be mounted at an accurate position without the need for a mounting jig or the like.

自己位置及び自己姿勢の取得精度を考慮すれば、作業環境情報取得部11のカメラが取得する映像に、何れかのマーカーが常時現れていることが好ましい。しかしながら、本実施形態の移動端末1は、マーカーが現れなくても、SLAM機能により自己位置及び自己姿勢を得ることができる。従って、作業指示システム100は、マーカーのシールを貼ることが難しい入り組んだ場所等でも、作業に関して作業者に指示を正しく行うことができる。 Considering the acquisition accuracy of the self-position and the self-posture, it is preferable that any marker always appears in the image acquired by the camera of the work environment information acquisition unit 11. However, the mobile terminal 1 of the present embodiment can obtain a self-position and a self-posture by the SLAM function even if the marker does not appear. Therefore, the work instruction system 100 can correctly instruct the operator regarding the work even in a complicated place where it is difficult to attach the marker sticker.

第1パーツ91の取付作業が完了した後、作業者は、次の作業の指示を要求する作業者コマンドを、作業環境情報取得部11を介して指示装置2に出す。これを受けて、指示装置2は、作業環境情報取得部11を介して、第1パーツ91が取り付けられた状態を撮影する。 After the installation work of the first part 91 is completed, the worker issues a worker command requesting an instruction for the next work to the instruction device 2 via the work environment information acquisition unit 11. In response to this, the instruction device 2 photographs the state in which the first part 91 is attached via the work environment information acquisition unit 11.

指示装置2は、撮影した第1パーツ91の取付状態画像と、予め入力された完成品の3Dデータと、を画像処理等によって比較し、比較結果に基づいて、第1パーツ91が正しく取り付けられていたか否かを判定しても良い。第1パーツ91が正確に取り付けられたと判定した場合、指示装置2は、第2取付位置Bにおける第2パーツ92の取付作業に関する作業指示を、上記第1パーツ91の取付作業に関する作業指示と同様に、指示出力部13を介して作業者に対して出力する。第1パーツ91が正確に取り付けられていないと判定した場合、指示装置2は、修正作業の指示を、指示出力部13を介して作業者に対して出力する。 The instruction device 2 compares the photographed mounting state image of the first part 91 with the 3D data of the finished product input in advance by image processing or the like, and based on the comparison result, the first part 91 is correctly mounted. It may be determined whether or not it was. When it is determined that the first part 91 is correctly attached, the instruction device 2 gives the work instruction regarding the attachment work of the second part 92 at the second attachment position B in the same manner as the work instruction regarding the attachment work of the first part 91. It is output to the operator via the instruction output unit 13. When it is determined that the first part 91 is not correctly attached, the instruction device 2 outputs a correction work instruction to the operator via the instruction output unit 13.

なお、この第1パーツ91の取付作業の正誤の判定は、作業者により行われても良い。このとき、第1パーツ91が取り付けられた状態の標準画像が表示部14に表示されると、作業者が判定を正確に行うことができ、好ましい。 The correctness of the mounting work of the first part 91 may be determined by an operator. At this time, if the standard image with the first part 91 attached is displayed on the display unit 14, the operator can make an accurate determination, which is preferable.

このように、指示装置2は、第1取付位置A、第2取付位置B、第3取付位置C、第4取付位置Dの順に、それぞれの位置における取付作業に関する作業指示を、指示出力部13を介して作業者に対して出力する。これにより、正確な順序で組立作業を行うことができるとともに、作業者が迷わず、作業を円滑に続けることができる。 In this way, the instruction device 2 gives work instructions regarding the attachment work at each position in the order of the first attachment position A, the second attachment position B, the third attachment position C, and the fourth attachment position D. Output to the operator via. As a result, the assembly work can be performed in an accurate order, and the work can be continued smoothly without the operator getting lost.

部品を取り付ける場合の繰返し作業においては、従来から、治具を用いて位置決めしながら取り付けることが行われている。しかし、大型構造物を組み立てる場合、治具も大きくなるので、使い回すとは言っても治具の製造コストが無視できない。また、大きな治具を設置したり取り外したりする工数及び時間も増大してしまう。この点、本実施形態では、表示部14に表示される指示が、治具の代わりとして機能する。従って、治具がなくても、作業者はパーツを素早く正確に本体部90に対して取り付けることができる。 In the repetitive work of mounting parts, conventionally, mounting is performed while positioning using a jig. However, when assembling a large structure, the jig also becomes large, so that the manufacturing cost of the jig cannot be ignored even if it is reused. In addition, the man-hours and time for installing and removing a large jig also increase. In this respect, in the present embodiment, the instruction displayed on the display unit 14 functions as a substitute for the jig. Therefore, the operator can quickly and accurately attach the parts to the main body 90 without a jig.

以上に説明したように、本実施形態の作業指示システム100は、パーツの取付作業に関する指示を行う。作業指示システム100は、作業環境情報取得部11と、指示出力部13と、を備える。作業環境情報取得部11は、作業者とともに移動し、作業環境に関するカメラ映像を取得する。指示出力部13は、作業者とともに移動し、当該作業者に作業指示を出力する。作業環境情報取得部11は、取得したカメラ映像に基づいて、作業環境内の基準位置に対する自己位置を推定可能である。 As described above, the work instruction system 100 of the present embodiment gives instructions regarding the attachment work of the parts. The work instruction system 100 includes a work environment information acquisition unit 11 and an instruction output unit 13. The work environment information acquisition unit 11 moves with the worker and acquires a camera image related to the work environment. The instruction output unit 13 moves together with the worker and outputs a work instruction to the worker. The work environment information acquisition unit 11 can estimate its own position with respect to the reference position in the work environment based on the acquired camera image.

これにより、自己位置及びカメラ映像に基づいて指示出力部13から指示することで、作業者は、取付治具等を要せずに、パーツを正確な位置に取り付けることができる。この結果、取付ミスを低減でき、品質の向上を図ることができるとともに、取付治具の作成、管理に関する費用及び手間を無くすことができ、コストの低減を実現できる。 As a result, by instructing from the instruction output unit 13 based on the self-position and the camera image, the operator can mount the part at an accurate position without the need for a mounting jig or the like. As a result, mounting errors can be reduced, quality can be improved, and costs and labor related to the creation and management of mounting jigs can be eliminated, and cost reduction can be realized.

また、本実施形態の作業指示システム100において、指示出力部13は、作業指示を表示する表示部14を備える。指示出力部13は、パーツの取付先となる部分が図4に示すように作業者の視野に含まれている場合に、当該取付先に対応するパーツの形状、取付向き、及び取付位置を含む作業指示を、取付先となる部分又はその近傍に重畳するように表示部14に表示させる。 Further, in the work instruction system 100 of the present embodiment, the instruction output unit 13 includes a display unit 14 for displaying work instructions. The instruction output unit 13 includes the shape, mounting direction, and mounting position of the part corresponding to the mounting destination when the portion to be mounted on the part is included in the field of view of the operator as shown in FIG. The work instruction is displayed on the display unit 14 so as to be superimposed on the portion to be attached or in the vicinity thereof.

これにより、作業者がパーツの取付位置等の情報を一層容易に確認することができ、作業をよりスムーズに行うことができる。 As a result, the operator can more easily confirm the information such as the mounting position of the parts, and the work can be performed more smoothly.

また、本実施形態の作業指示システム100は、作業予定入力部21を備える。作業予定入力部21は、作業予定を入力する。作業予定入力部21において複数の取付作業が入力された場合、指示出力部13は、作業予定入力部21で設定された作業順序に従って、複数の取付作業に関する作業指示を作業者に対して出力する。 Further, the work instruction system 100 of the present embodiment includes a work schedule input unit 21. The work schedule input unit 21 inputs a work schedule. When a plurality of mounting operations are input in the work schedule input unit 21, the instruction output unit 13 outputs work instructions related to the plurality of installation operations to the operator according to the work order set in the work schedule input unit 21. ..

これにより、例えば、複数の取付作業を有する組立て等において、作業者は、作業指示システム100からの指示の順番に従うだけで、正確な順序で取付作業を行うことができる。従って、組立作業を一層容易に行うことができる。 Thereby, for example, in an assembly having a plurality of mounting operations, the operator can perform the mounting operations in an accurate order only by following the order of instructions from the work instruction system 100. Therefore, the assembly work can be performed more easily.

また、本実施形態の作業指示システム100において、指示出力部13は、作業者を現在位置から取付作業が行われる作業位置まで案内するガイド情報を出力し、作業者が作業位置に到着すると、当該作業位置で行われる取付作業に関する作業指示を作業者に対して出力する。 Further, in the work instruction system 100 of the present embodiment, the instruction output unit 13 outputs guide information that guides the operator from the current position to the work position where the mounting work is performed, and when the operator arrives at the work position, the instruction output unit 13 corresponds to the work instruction system 100. Outputs work instructions to the operator regarding the installation work performed at the work position.

これにより、作業者が迷わずに、作業を続々と続けることができ、作業をよりスムーズに行うことができる。この結果、作業時間を短縮することができる。 As a result, the worker can continue the work one after another without hesitation, and the work can be performed more smoothly. As a result, the working time can be shortened.

また、本実施形態の作業指示システム100において、指示出力部13は、パーツの実物と重畳可能に、当該パーツの形状を確認するための3Dモデルを表示する。 Further, in the work instruction system 100 of the present embodiment, the instruction output unit 13 displays a 3D model for confirming the shape of the part so that it can be superimposed on the actual part.

これにより、作業者が、実物と3Dモデルとを比較することができ、手持ちの実物の正誤を容易に判断することができる。 As a result, the operator can compare the actual product with the 3D model, and can easily determine the correctness of the actual product on hand.

また、本実施形態の作業指示システム100においては、3Dモデルは、作業者の指示に応じて回転可能に表示される。 Further, in the work instruction system 100 of the present embodiment, the 3D model is rotatably displayed according to the instruction of the operator.

これにより、必要に応じて3Dモデルの姿勢を変更することで、様々な視点で実物と3Dモデルとを比較して確認することができる。 As a result, by changing the posture of the 3D model as needed, it is possible to compare and confirm the actual product and the 3D model from various viewpoints.

また、本実施形態の作業指示システム100においては、指示出力部13は、パーツの形状、取付向き、取付位置の少なくとも1つを含む作業指示をアニメーションで表示する。 Further, in the work instruction system 100 of the present embodiment, the instruction output unit 13 displays an animation of a work instruction including at least one of a part shape, a mounting direction, and a mounting position.

これにより、パーツの取付けに関する情報を一層分かり易く表示することができる。 As a result, information regarding the mounting of parts can be displayed in a more understandable manner.

また、本実施形態の作業指示システム100は、作業環境情報取得部11を備える。作業環境情報取得部11は、作業者が行う指示を入力する。作業環境情報取得部11は、作業者のジェスチャーを認識可能に構成されている。 Further, the work instruction system 100 of the present embodiment includes a work environment information acquisition unit 11. The work environment information acquisition unit 11 inputs an instruction given by the worker. The work environment information acquisition unit 11 is configured to be able to recognize the gesture of the worker.

これにより、作業者が作業完了等を容易にシステムに指示することができる。 As a result, the worker can easily instruct the system to complete the work.

また、本実施形態の作業指示システム100においては、作業環境情報取得部11は、取付作業が完了した状態を撮影可能に構成されている。 Further, in the work instruction system 100 of the present embodiment, the work environment information acquisition unit 11 is configured to be capable of photographing a state in which the installation work is completed.

これにより、取付作業のエビデンスとして保存することができる。また、標準状態と比較することで、作業の正誤を容易に確認することができる。 As a result, it can be saved as evidence of installation work. In addition, the correctness of the work can be easily confirmed by comparing with the standard state.

以上に本発明の好適な実施の形態を説明したが、上記の構成は例えば以下のように変更することができる。 Although the preferred embodiment of the present invention has been described above, the above configuration can be changed as follows, for example.

指示出力部13は、音声による作業指示を作業者に出力する音声出力部を備えても良い。この場合、指示装置2からの作業指示を、音声により作業者に伝えることができる。 The instruction output unit 13 may include a voice output unit that outputs a voice work instruction to the operator. In this case, the work instruction from the instruction device 2 can be transmitted to the operator by voice.

指示装置2が、移動端末1から取得された作業環境情報(具体的には、カメラ映像)を表示する表示部を備えても良い。この場合、組立現場にいる作業者とは異なる作業者が、指示装置2の表示部で表示された情報に基づいて、組立現場にいる作業者に音声等で作業指示を出しても良い。このように、指示出力部13は、コンピュータが行う指示に代えて、人間の指示を作業者に出力する構成としても良い。 The instruction device 2 may include a display unit that displays work environment information (specifically, a camera image) acquired from the mobile terminal 1. In this case, a worker different from the worker at the assembly site may give a work instruction to the worker at the assembly site by voice or the like based on the information displayed on the display unit of the instruction device 2. As described above, the instruction output unit 13 may be configured to output a human instruction to the operator instead of the instruction given by the computer.

表示部14は、上記の構成に限定されず、例えば、ビデオ透過型のヘッドアップディスプレイとして構成されても良い。この場合、表示部14は、作業環境情報取得部11から取得した現実映像と、指示装置2から受信された作業指示と、を重畳した映像を表示する。作業者は、表示部14で表示された映像を介して作業現場の状況及び作業指示を確認する。 The display unit 14 is not limited to the above configuration, and may be configured as, for example, a video transmission type head-up display. In this case, the display unit 14 displays an image in which the actual image acquired from the work environment information acquisition unit 11 and the work instruction received from the instruction device 2 are superimposed. The operator confirms the situation at the work site and the work instruction through the image displayed on the display unit 14.

指示装置2は、パーツ保管場所において、複数の取付作業が必要となる複数のパーツを取得するパーツ取得指示を全て出した後、本体部90における初めての取付位置(即ち第1取付位置A)まで移動する移動指示を出しても良い。 After issuing all the parts acquisition instructions for acquiring a plurality of parts that require a plurality of mounting operations at the parts storage location, the instruction device 2 reaches the first mounting position (that is, the first mounting position A) in the main body 90. You may issue a move instruction to move.

作業環境情報取得部11は、音声入力部を備えても良い。音声入力部で取得した音声の情報は、周囲の映像とともに、作業環境情報として端末側送受信部12に送信することができる。作業者が例えば特定の言葉を喋ることにより、作業者コマンドを音声認識によって実現することもできる。この構成によれば、作業者が部品を両手で持っており、手でのジェスチャーが難しい場合でも、作業者からの指示を容易に行うことができる。 The work environment information acquisition unit 11 may include a voice input unit. The voice information acquired by the voice input unit can be transmitted to the terminal-side transmission / reception unit 12 as work environment information together with the surrounding video. Worker commands can also be realized by voice recognition, for example, when the worker speaks a specific word. According to this configuration, even when the operator holds the parts with both hands and it is difficult to make a gesture with the hands, the operator can easily give an instruction.

取得したパーツの正誤の判定は、パーツに貼り付けられているバーコードや2次元マトリクスコード等を介して判定することもできる。 The correctness of the acquired part can also be determined via a barcode or a two-dimensional matrix code attached to the part.

カメラ映像以外によるSLAMが行われても良い。例えば、作業環境情報取得部11が、LIDARの計測結果に基づいたSLAMを行うように構成することができる。LIDARとは、Light Detectiоn and Rangingの略称である。LIDARは、周囲の物体の形状を取得する3次元計測センサの一種である。この場合、LIDARによって得られた点群が、作業環境情報に該当する。 SLAM may be performed by other than the camera image. For example, the work environment information acquisition unit 11 can be configured to perform SLAM based on the measurement result of LIDAR. LIDAR is an abbreviation for Light Detectiоn and Ringing. LIDAR is a type of three-dimensional measurement sensor that acquires the shape of surrounding objects. In this case, the point cloud obtained by LIDAR corresponds to the work environment information.

指示装置2は、移動端末1と一体型に構成されても良い。この場合、移動端末1と指示装置2とが無線通信するための構成(例えば、端末側送受信部12)を省略することができる。 The instruction device 2 may be configured integrally with the mobile terminal 1. In this case, the configuration for wireless communication between the mobile terminal 1 and the instruction device 2 (for example, the terminal-side transmission / reception unit 12) can be omitted.

11 作業環境情報取得部
13 指示出力部
90 本体部(取付先)
91 第1パーツ(作業対象物)
92 第2パーツ(作業対象物)
93 第3パーツ(作業対象物)
94 第4パーツ(作業対象物)
100 作業指示システム
11 Work environment information acquisition unit 13 Instruction output unit 90 Main unit (mounting destination)
91 First part (work object)
92 Second part (work object)
93 Third part (work object)
94 4th part (work object)
100 work instruction system

Claims (10)

作業対象物の取付作業に関する指示を行う作業指示システムであって、
作業者とともに移動し、作業環境に関する作業環境情報を取得する作業環境情報取得部と、
前記作業者とともに移動し、当該作業者に作業指示を出力する指示出力部と、
を備え、
前記作業環境情報取得部は、取得した前記作業環境情報に基づいて、前記作業環境内の基準位置に対する自己位置を推定可能であることを特徴とする作業指示システム。
A work instruction system that gives instructions regarding the installation work of work objects.
The work environment information acquisition department, which moves with workers and acquires work environment information related to the work environment,
An instruction output unit that moves with the worker and outputs work instructions to the worker,
With
The work environment information acquisition unit is a work instruction system characterized in that it can estimate its own position with respect to a reference position in the work environment based on the acquired work environment information.
請求項1に記載の作業指示システムであって、
前記指示出力部は、前記作業指示を表示する表示部を備え、
前記指示出力部は、前記作業対象物の取付先となる部分が作業者の視野に含まれている場合に、当該取付先に対応する前記作業対象物の形状、取付向き、及び取付位置のうち少なくとも1つを含む前記作業指示を、当該取付先となる部分又はその近傍に重畳するように前記表示部に表示することを特徴とする作業指示システム。
The work instruction system according to claim 1.
The instruction output unit includes a display unit that displays the work instruction.
When the portion to be attached to the work object is included in the field of view of the operator, the instruction output unit is included in the shape, attachment direction, and attachment position of the work object corresponding to the attachment destination. A work instruction system characterized in that the work instruction including at least one is displayed on the display unit so as to be superimposed on or in the vicinity of the attachment destination portion.
請求項1又は2に記載の作業指示システムであって、
前記指示出力部は、音声により前記作業指示を出力する音声出力部を備えることを特徴とする作業指示システム。
The work instruction system according to claim 1 or 2.
The instruction output unit is a work instruction system including a voice output unit that outputs the work instruction by voice.
請求項1から3までの何れか一項に記載の作業指示システムであって、
作業予定を入力する作業予定入力部を備え、
前記作業予定入力部において複数の前記取付作業が入力された場合、前記指示出力部は、前記作業予定入力部で設定された作業順序に従って、複数の前記取付作業に関する前記作業指示を作業者に対して出力することを特徴とする作業指示システム。
The work instruction system according to any one of claims 1 to 3.
Equipped with a work schedule input section for inputting work schedules
When a plurality of the mounting operations are input in the work schedule input unit, the instruction output unit issues the work instructions regarding the plurality of installation operations to the operator according to the work order set in the work schedule input unit. A work instruction system characterized by outputting.
請求項1から4までの何れか一項に記載の作業指示システムであって、
前記指示出力部は、作業者を現在位置から前記取付作業が行われる作業位置まで案内するガイド情報を出力し、作業者が前記作業位置に到着すると、当該作業位置で行われる前記取付作業に関する前記作業指示を作業者に対して出力することを特徴とする作業指示システム。
The work instruction system according to any one of claims 1 to 4.
The instruction output unit outputs guide information that guides the worker from the current position to the work position where the installation work is performed, and when the worker arrives at the work position, the above-mentioned mounting work performed at the work position is performed. A work instruction system characterized by outputting work instructions to workers.
請求項1から5までの何れか一項に記載の作業指示システムであって、
前記指示出力部は、前記作業対象物の実物と重畳可能に、当該作業対象物の形状を確認するための3Dモデルを表示することを特徴とする作業指示システム。
The work instruction system according to any one of claims 1 to 5.
The instruction output unit is a work instruction system characterized in that a 3D model for confirming the shape of the work object is displayed so as to be superposed on the actual object of the work object.
請求項6に記載の作業指示システムであって、
前記3Dモデルは、作業者の指示に応じて回転可能に表示されることを特徴とする作業指示システム。
The work instruction system according to claim 6.
The 3D model is a work instruction system characterized in that it is displayed rotatably according to an instruction of an operator.
請求項1から7までの何れか一項に記載の作業指示システムであって、
前記指示出力部は、前記作業対象物の形状、取付向き、及び取付位置のうち少なくとも1つを含む前記作業指示をアニメーションで表示することを特徴とする作業指示システム。
The work instruction system according to any one of claims 1 to 7.
The instruction output unit is a work instruction system characterized in that the work instruction including at least one of the shape, attachment direction, and attachment position of the work object is displayed by animation.
請求項1から8までの何れか一項に記載の作業指示システムであって、
前記作業者が行う指示を入力する作業者指示入力部を備え、
前記作業者指示入力部は、前記作業者のジェスチャー及び音声のうち少なくとも何れかを認識可能に構成されていることを特徴とする作業指示システム。
The work instruction system according to any one of claims 1 to 8.
It is provided with a worker instruction input unit for inputting instructions given by the worker.
The worker instruction input unit is a work instruction system characterized in that at least one of the gesture and the voice of the worker can be recognized.
請求項1から9までの何れか一項に記載の作業指示システムであって、
前記作業環境情報取得部は、取付作業が完了した状態を撮影可能に構成されていることを特徴とする作業指示システム。
The work instruction system according to any one of claims 1 to 9.
The work environment information acquisition unit is a work instruction system characterized in that it is configured to be capable of photographing a state in which the installation work is completed.
JP2019073158A 2019-04-05 2019-04-05 Work instruction system Pending JP2020170482A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019073158A JP2020170482A (en) 2019-04-05 2019-04-05 Work instruction system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019073158A JP2020170482A (en) 2019-04-05 2019-04-05 Work instruction system

Publications (1)

Publication Number Publication Date
JP2020170482A true JP2020170482A (en) 2020-10-15

Family

ID=72746094

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019073158A Pending JP2020170482A (en) 2019-04-05 2019-04-05 Work instruction system

Country Status (1)

Country Link
JP (1) JP2020170482A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120075343A1 (en) * 2010-09-25 2012-03-29 Teledyne Scientific & Imaging, Llc Augmented reality (ar) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene
WO2015001611A1 (en) * 2013-07-02 2015-01-08 株式会社日立製作所 Network construction assistance system and method
JP2015102880A (en) * 2013-11-21 2015-06-04 三菱電機株式会社 Work support system
CN105094794A (en) * 2014-05-06 2015-11-25 霍尼韦尔国际公司 Apparatus and method for providing augmented reality for maintenance applications
US20160112479A1 (en) * 2014-10-16 2016-04-21 Wipro Limited System and method for distributed augmented reality
US20160364913A1 (en) * 2015-06-12 2016-12-15 Accenture Global Services Limited Augmented reality method and system for measuring and/or manufacturing

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120075343A1 (en) * 2010-09-25 2012-03-29 Teledyne Scientific & Imaging, Llc Augmented reality (ar) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene
WO2015001611A1 (en) * 2013-07-02 2015-01-08 株式会社日立製作所 Network construction assistance system and method
JP2015102880A (en) * 2013-11-21 2015-06-04 三菱電機株式会社 Work support system
CN105094794A (en) * 2014-05-06 2015-11-25 霍尼韦尔国际公司 Apparatus and method for providing augmented reality for maintenance applications
US20160112479A1 (en) * 2014-10-16 2016-04-21 Wipro Limited System and method for distributed augmented reality
US20160364913A1 (en) * 2015-06-12 2016-12-15 Accenture Global Services Limited Augmented reality method and system for measuring and/or manufacturing

Similar Documents

Publication Publication Date Title
US11565427B2 (en) Robot system
US8731276B2 (en) Motion space presentation device and motion space presentation method
JP6491574B2 (en) AR information display device
JP6008397B2 (en) AR system using optical see-through HMD
CN104897091A (en) Articulated arm coordinate measuring machine
JP2017191351A (en) Work support system and method
JP2006285788A (en) Mixed reality information generation device and method
KR102418994B1 (en) Method for providng work guide based augmented reality and evaluating work proficiency according to the work guide
JP7414395B2 (en) Information projection system, control device, and information projection control method
JP2017100234A (en) Teaching result display system
JP6970858B2 (en) Maintenance support system, maintenance support method, program and processed image generation method
JP6061334B2 (en) AR system using optical see-through HMD
JP6295296B2 (en) Complex system and target marker
JP5215211B2 (en) Related information display position specifying system and related information display position specifying program
KR20200072535A (en) Multi-layer viewing system and method
JP6696925B2 (en) Operation support device
KR20190048810A (en) Apparatus and method for providing augmented reality contents
JP2021065971A (en) Robot teaching system, image forming method and program
JP2020170482A (en) Work instruction system
JP2019066196A (en) Inclination measuring device and inclination measuring method
KR102263836B1 (en) Method for recognizing worker position in manufacturing line and apparatus thereof
JPWO2018100631A1 (en) Information processing device
JP2001239983A (en) Outfit assisting system
JP7293057B2 (en) Radiation dose distribution display system and radiation dose distribution display method
JP2021039567A (en) Work support system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230209

A603 Late request for extension of time limit during examination

Free format text: JAPANESE INTERMEDIATE CODE: A603

Effective date: 20230413

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230801