JP7468722B2 - Manufacturing support system, method, and program - Google Patents

Manufacturing support system, method, and program Download PDF

Info

Publication number
JP7468722B2
JP7468722B2 JP2023013855A JP2023013855A JP7468722B2 JP 7468722 B2 JP7468722 B2 JP 7468722B2 JP 2023013855 A JP2023013855 A JP 2023013855A JP 2023013855 A JP2023013855 A JP 2023013855A JP 7468722 B2 JP7468722 B2 JP 7468722B2
Authority
JP
Japan
Prior art keywords
assembly
parts
identification information
image
worker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023013855A
Other languages
Japanese (ja)
Other versions
JP2023065371A (en
Inventor
航 粟津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Motors Corp
Original Assignee
Mitsubishi Motors Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Motors Corp filed Critical Mitsubishi Motors Corp
Publication of JP2023065371A publication Critical patent/JP2023065371A/en
Application granted granted Critical
Publication of JP7468722B2 publication Critical patent/JP7468722B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23PMETAL-WORKING NOT OTHERWISE PROVIDED FOR; COMBINED OPERATIONS; UNIVERSAL MACHINE TOOLS
    • B23P21/00Machines for assembling a multiplicity of different parts to compose units, with or without preceding or subsequent working of such parts, e.g. with programme control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Automation & Control Theory (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • General Factory Administration (AREA)

Description

本発明は、作業者による部品の組み付け作業を支援するための製造支援システム,方法,プログラムに関する。 The present invention relates to a manufacturing support system, method, and program for supporting workers in assembling parts.

従来、製造業の生産現場において、作業者に光透過型のヘッドマウントディスプレイを装着させ、作業内容や作業手順の指示などの情報を実景に重ねて表示(重畳表示)することで作業支援を実施するシステムが知られている。例えば、製品検査に際し、実際の検査対象物(実像)の近傍に合格画像(過去に合格と判定された検査対象物の画像)を表示することで、検査作業を支援する技術が提案されている。また、部品の組み付け作業において、特定の場所が強調されるように丸印で囲むことや、配線材の配索経路を表示することで作業性を向上させることも提案されている。これらの支援を実施することで、目視検査や組み付け作業の効率が改善されうる(特許文献1,2参照)。 Conventionally, systems have been known in manufacturing production sites that provide work support by having workers wear a light-transmitting head-mounted display and superimposing (overlapping) information such as the work content and work procedure instructions on a real scene. For example, a technology has been proposed to support inspection work during product inspection by displaying a pass image (an image of an inspection object that has previously been judged to pass) near the actual inspection object (real image). It has also been proposed to improve workability in part assembly work by encircling specific locations with a circle to highlight them, or by displaying the wiring route. By providing such support, the efficiency of visual inspection and assembly work can be improved (see Patent Documents 1 and 2).

国際公開第2017/033561号International Publication No. 2017/033561 特開2018-014218号公報JP 2018-014218 A

ところで、組み付け作業の現場においては、専門用語や解読が困難な符号(情報伝達のために複数の記号を組み合わせたもの)を用いて作業内容が指示されることがあり、作業初心者には作業内容を正確に把握することすら難しいという側面もある。また、複数の部品が組み付け対象に組み付けられる作業では、作業者から見たときの組み付け対象の姿勢や向きによって、部品のレイアウトが違って見えることがある。そのため、部品の組み付け状態が合格画像と異なるように見える場合であっても、実際には適切な状態である場合がある。さらに、複数の部品を同時に確認することになるため、不適切な組み付け状態が目視検査で見過ごされることもある。このように、従来の作業支援システムでは、複数の部品が組み付けられる作業での組み付けミスが発生しやすく、作業効率を改善しにくいという課題がある。 Meanwhile, at assembly work sites, work instructions are sometimes given using technical terms or difficult-to-decipher symbols (combinations of multiple symbols to convey information), making it difficult for beginners to accurately grasp the work content. In addition, in work in which multiple parts are assembled into an assembly target, the layout of the parts may look different depending on the posture and orientation of the assembly target as seen by the worker. Therefore, even if the assembled state of the parts looks different from the acceptable image, it may actually be in an appropriate state. Furthermore, since multiple parts are checked at the same time, inappropriate assembly states may be overlooked in visual inspection. Thus, with conventional work support systems, there is a problem that assembly errors are likely to occur in work in which multiple parts are assembled, making it difficult to improve work efficiency.

本件の目的の一つは、上記のような課題に鑑みて創案されたものであり、部品の組み付け作業に関する作業効率を改善できる製造支援システム,方法,プログラムを提供することである。なお、この目的に限らず、後述する「発明を実施するための形態」に示す各構成から導き出される作用効果であって、従来の技術では得られない作用効果を奏することも、本件の他の目的として位置付けることができる。 One of the objectives of the present invention was devised in light of the above-mentioned problems, and is to provide a manufacturing support system, method, and program that can improve the work efficiency of part assembly work. In addition to this objective, another objective of the present invention is to achieve effects that cannot be obtained with conventional technology, which are derived from the configurations shown in the "Mode for carrying out the invention" described below.

(1)開示の製造支援システムは、作業者による部品の組み付け作業を支援するための製造支援システムである。本システムは、前記作業者の視界内の実景を撮影する撮影装置と前記実景に虚像を重畳表示する表示装置とを内蔵し、前記作業者の頭部に装着されるスマートグラスを備える。また、組み付け対象に対する複数の前記部品の組み付け位置及び組み付け向きの情報を含む組み付けパターンとこれに対応する識別情報との関係を規定する第一データベースを備える。さらに、前記作業者の視界内の実景の座標系に適合するように、前記部品の虚像を前記表示装置に表示させる制御装置を備える。 (1) The disclosed manufacturing support system is a manufacturing support system for supporting a worker in assembling parts. The system includes smart glasses to be worn on the head of the worker, which incorporate an imaging device that captures an image of a real scene within the field of vision of the worker and a display device that displays a virtual image superimposed on the real scene. The system also includes a first database that defines the relationship between an assembly pattern, including information on the assembly positions and assembly orientations of a plurality of parts relative to an assembly target, and corresponding identification information. The system further includes a control device that causes the display device to display a virtual image of the part so as to conform to the coordinate system of the real scene within the field of vision of the worker.

前記制御装置には、抽出部,取得部,認識部,描画部が設けられる。前記抽出部は、前記撮影装置の撮影画像の中から、前記組み付け作業の内容が記載された作業指示書に含まれる前記識別情報を抽出する。前記取得部は、前記第一データベースに基づき、前記識別情報に対応する前記部品の組み付け位置及び組み付け向きの情報を含む組み付けパターンを取得する。前記認識部は、前記撮影装置の撮影画像の中から、前記組み付け対象を認識する。前記描画部は、前記組み付け対象に複数の前記部品が組み付けられた完成時の位置及び向きで複数の前記部品の虚像を描画する。 The control device is provided with an extraction unit, an acquisition unit, a recognition unit, and a drawing unit. The extraction unit extracts the identification information included in a work instruction sheet describing the contents of the assembly work from the image captured by the imaging device. The acquisition unit acquires an assembly pattern including information on the assembly position and assembly orientation of the part corresponding to the identification information based on the first database. The recognition unit recognizes the assembly target from the image captured by the imaging device. The drawing unit draws virtual images of the multiple parts in the positions and orientations at which the multiple parts will be assembled on the assembly target when completed.

(2)前記部品の保管場所と前記組み付け対象に組み付けられる前記部品の個数(使用数)と前記識別情報との関係が規定された第二データベースを備えることが好ましい。この場合、前記取得部が、前記第二データベースに基づき、前記識別情報に対応する前記部品の保管場所の情報と前記部品の個数の情報とを取得する。また、前記認識部が、前記撮影装置の撮影画像の中から、前記保管場所を認識する。さらに、前記描画部が、前記部品の個数の情報を前記保管場所の近傍に表示する。 (2) It is preferable to have a second database in which the relationship between the storage location of the part, the number of the part (number of parts used) to be assembled to the assembly target, and the identification information is defined. In this case, the acquisition unit acquires information on the storage location of the part corresponding to the identification information and information on the number of the parts based on the second database. In addition, the recognition unit recognizes the storage location from within the image captured by the imaging device. Furthermore, the drawing unit displays information on the number of the parts near the storage location.

(3)前記認識部が、前記撮影画像中における前記保管場所に設置されたマーカーを認識することが好ましい。
(4)前記制御装置が、判定部と強調表示部とを有することが好ましい。この場合、前記判定部は、前記撮影装置の撮影画像と前記識別情報とに基づき、前記部品の組み付け状態が前記組み付けパターンに一致するか否かを判定する。また、前記強調表示部は、前記部品の組み付け状態が前記組み付けパターンに一致しない部位を、前記作業者の視界内の実景の座標系に適合するように強調表示する。
(3) It is preferable that the recognition unit recognizes a marker placed at the storage location in the captured image.
(4) It is preferable that the control device has a determination unit and a highlighting unit. In this case, the determination unit determines whether or not the assembly state of the part matches the assembly pattern based on the captured image by the photographing device and the identification information. Also, the highlighting unit highlights a portion of the part whose assembly state does not match the assembly pattern so as to fit into a coordinate system of an actual scene within the field of vision of the operator.

作業指示書に含まれる識別情報を抽出し、これに対応する位置,向きで部品の虚像を描画することで、組み付けられる部品の種類や数やレイアウトが作業指示書ごとに異なっている場合であっても、正しい位置,向きに組み付けの手本を示すことができ、組み付け作業を支援することができる。また、作業指示書ごとに異なる部品の組み付け状態を作業者が暗記しておく必要がなくなり、組み付けミスを削減でき、生産性(作業効率)を向上させることができる。 By extracting the identification information contained in the work instructions and drawing a virtual image of the part in the corresponding position and orientation, even if the type, number, or layout of the parts to be assembled differs for each work instruction, an example of assembly can be shown in the correct position and orientation, and assembly work can be supported. In addition, workers no longer need to memorize the assembly state of parts, which differs for each work instruction, reducing assembly errors and improving productivity (work efficiency).

製造支援システムの適用対象を示す図である。FIG. 1 is a diagram showing an application target of a manufacturing support system. 製造支援システムの構成を説明するための図である。FIG. 1 is a diagram for explaining a configuration of a manufacturing support system. 製造支援システムのハードウェア構成を示すブロック図である。FIG. 2 is a block diagram showing a hardware configuration of the manufacturing support system. 製造支援プログラムのソフトウェア構成を示すブロック図である。FIG. 4 is a block diagram showing a software configuration of a manufacturing support program. (A),(B)はデータベースの構成例である。(A) and (B) are examples of database configurations. (A)~(C)は部品の虚像の表示例を説明するための図である。13A to 13C are diagrams for explaining examples of displaying virtual images of parts. (A),(B)は部品の個数の表示例を説明するための図である。13A and 13B are diagrams for explaining examples of displaying the number of parts. 検査結果の強調表示例を説明するための図である。FIG. 13 is a diagram for explaining an example of highlighting of test results. 組み付け工程での製造支援手法を説明するためのフローチャートである。11 is a flowchart for explaining a manufacturing support technique in an assembly process. 検査工程での製造支援手法を説明するためのフローチャートである。11 is a flowchart for explaining a manufacturing support method in an inspection process. (A),(B)は製造支援システムの変形例を説明するための図である。13A and 13B are diagrams for explaining a modified example of the manufacturing support system.

以下、図面を参照して実施形態としての製造支援システム,方法,プログラムについて説明する。以下に示す実施形態はあくまでも例示に過ぎず、以下の実施形態で明示しない種々の変形や技術の適用を排除する意図はない。本実施形態の各構成は、それらの趣旨を逸脱しない範囲で種々変形して実施することができる。また、必要に応じて取捨選択することができ、あるいは適宜組み合わせることができる。 The manufacturing support system, method, and program as embodiments will be described below with reference to the drawings. The embodiments described below are merely examples, and are not intended to exclude the application of various modifications or techniques not explicitly stated in the following embodiments. Each configuration of this embodiment can be modified in various ways without departing from the spirit of the embodiment. In addition, they can be selected as needed, or combined as appropriate.

本実施形態の製造支援システムは、作業者51による部品の組み付け作業を支援するウェアラブルガジェットを利用したシステムであり、図1に示すような自動車50の製造工程に適用される。ここでは、作業者51が資材保管棚53から部品を取り出して自動車50に組み付ける作業の支援について説明する。組み付けられる部品の具体例としては、リレー,スイッチ,ランプなどの電装品をはじめとして、ガラス,バンパー,パワートレーン,シート,タイヤなどが挙げられる。また、部品の組み付け対象(部品が組み付けられる装置)の具体例としては、リレーボックス,スイッチボックス,インストルメントパネル,ドア,車体などが挙げられる。部品の組み付け作業における組み付け対象及び部品の種類は多岐にわたり、本件の製造支援システム,方法,プログラムはあらゆる部品の組み付け作業に適用可能である。 The manufacturing support system of this embodiment is a system that uses a wearable gadget to support the part assembly work by a worker 51, and is applied to the manufacturing process of an automobile 50 as shown in FIG. 1. Here, support for the work of a worker 51 taking parts from a material storage shelf 53 and assembling them in an automobile 50 will be described. Specific examples of parts to be assembled include electrical components such as relays, switches, and lamps, as well as glass, bumpers, power trains, seats, and tires. Specific examples of objects to which parts are to be assembled (devices to which parts are to be assembled) include relay boxes, switch boxes, instrument panels, doors, and vehicle bodies. There are a wide variety of objects to be assembled and types of parts in part assembly work, and the manufacturing support system, method, and program of this embodiment can be applied to the assembly work of any parts.

作業支援の内容は、作業者51の頭部に装着されるスマートグラス10を利用した、視覚情報の提供である。図2に示すように、スマートグラス10は作業者51のヘルメット52に固定される。このスマートグラス10には、表示装置13と撮影装置16とが内蔵される。撮影装置16は、作業者51の視界内の実景や作業指示書54などを撮影するカメラである。また、表示装置13は、作業者51の視界内の実景に虚像を重畳表示するデバイスである。表示方式は、作業者51の網膜に虚像を投影する方式(網膜投影型)としてもよいし、ハーフミラーの表面に虚像を投影する方式(透過型)としてもよく、あるいは撮影装置16で撮影された実景と虚像とを合成した映像を表示する方式(非透過型)としてもよい。 The work support is the provision of visual information using smart glasses 10 worn on the head of the worker 51. As shown in FIG. 2, the smart glasses 10 are fixed to the helmet 52 of the worker 51. The smart glasses 10 are equipped with a display device 13 and a photographing device 16. The photographing device 16 is a camera that photographs the real scene within the field of view of the worker 51 and the work instructions 54. The display device 13 is a device that displays a virtual image superimposed on the real scene within the field of view of the worker 51. The display method may be a method of projecting a virtual image onto the retina of the worker 51 (retinal projection type), a method of projecting a virtual image onto the surface of a half mirror (transmissive type), or a method of displaying an image obtained by combining the real scene and the virtual image photographed by the photographing device 16 (non-transmissive type).

いずれの方式においても、作業者51の視点で見える実景の座標系に適合するように、さまざまな虚像が表示される。この虚像は、実景の座標系に適合する透視投影画像(あるいはその透視投影画像をデフォルメしたもの)であり、例えば部品の三次元CAD(Computer-Aided Design)データに基づく簡易的なポリゴンモデルとしてレンダリングされる。なお、特許文献1,2のような既存の表示手法では、描画オブジェクトが二次元のオブジェクトである。これに対して本件の表示手法では、描画オブジェクトが三次元のオブジェクトとされ、各描画オブジェクトが実景の座標系内で仮想的に配置される。 In either method, various virtual images are displayed so as to fit the coordinate system of the real scene as seen from the viewpoint of the worker 51. The virtual images are perspective projection images (or deformed versions of those perspective projection images) that fit the coordinate system of the real scene, and are rendered, for example, as simple polygon models based on three-dimensional CAD (Computer-Aided Design) data of parts. In existing display methods such as those in Patent Documents 1 and 2, the drawn objects are two-dimensional objects. In contrast, in the display method of this case, the drawn objects are three-dimensional objects, and each drawn object is virtually positioned within the coordinate system of the real scene.

作業支援の内容は、任意の制御装置(電子計算機,コンピューター)によって制御される。ここでいう「電子制御装置」は、スマートグラス10に内蔵されたものであってもよいし、スマートグラス10とは別に用意されたものであってもよい。例えば、ネットワーク19上のサーバー30やワークステーションにプログラムをインストールしておき、そこで演算された表示内容をスマートグラス10に表示させるシステムとしてもよい。この場合、図2に示すように、中継器36を介してネットワーク19に接続されたサーバー30を利用してもよい。あるいは、ネットワーク19に接続されていない状態でも動作するプログラムをスマートグラス10にインストールしておいてもよい。 The content of the work support is controlled by an arbitrary control device (electronic calculator, computer). The "electronic control device" referred to here may be one built into the smart glasses 10, or one prepared separately from the smart glasses 10. For example, a system may be used in which a program is installed in a server 30 or a workstation on the network 19, and the display content calculated there is displayed on the smart glasses 10. In this case, as shown in FIG. 2, a server 30 connected to the network 19 via a repeater 36 may be used. Alternatively, a program that operates even when not connected to the network 19 may be installed in the smart glasses 10.

[1.ハードウェア構成]
図3は、スマートグラス10とサーバー30との協働によって実現される製造支援システムのハードウェア構成を示すブロック図である。スマートグラス10には、記録媒体18(リムーバブルメディア)に記録されたプログラムを読み込むための記録媒体ドライブ11,記憶装置12,表示装置13,入力装置14,通信装置15,撮影装置16(カメラ),マイク17,電子制御装置20が設けられる。同様に、サーバー30にも、記録媒体ドライブ31,記憶装置32,表示装置33,入力装置34,通信装置35,電子制御装置40が内蔵される。それぞれの要素の機能は、スマートグラス10に内蔵される同一名称の要素とほぼ同様であることから説明を省略する。
[1. Hardware Configuration]
3 is a block diagram showing the hardware configuration of a manufacturing support system realized by cooperation between the smart glasses 10 and the server 30. The smart glasses 10 are provided with a recording medium drive 11 for reading a program recorded on a recording medium 18 (removable media), a storage device 12, a display device 13, an input device 14, a communication device 15, a photographing device 16 (camera), a microphone 17, and an electronic control device 20. Similarly, the server 30 also has a recording medium drive 31, a storage device 32, a display device 33, an input device 34, a communication device 35, and an electronic control device 40 built in. The functions of each element are almost the same as those of the elements of the same name built in the smart glasses 10, so the description will be omitted.

記録媒体18は、例えばフラッシュメモリーカードやユニバーサルシリアルバス規格に準拠した半導体メモリ装置,光ディスクなどである。記録媒体ドライブ11は、記録媒体18に記録,保存された情報(プログラムやデータ)を読み取る読取装置である。記憶装置12は、長期的に保持されるデータやプログラムが格納されるメモリ装置であり、例えばフラッシュメモリやEEPROM(Electrically Erasable Programmable Read-Only Memory),ソリッドステートドライブなどの不揮発性メモリがこれに含まれる。 The recording medium 18 is, for example, a flash memory card, a semiconductor memory device conforming to the Universal Serial Bus standard, an optical disk, etc. The recording medium drive 11 is a reading device that reads information (programs and data) recorded and stored on the recording medium 18. The storage device 12 is a memory device that stores data and programs that are to be retained for a long period of time, and includes, for example, non-volatile memory such as a flash memory, an EEPROM (Electrically Erasable Programmable Read-Only Memory), and a solid-state drive.

表示装置13は、作業者51に対して視覚情報を提供するためのデバイスの一つである。網膜投影型のデバイスでは、作業者51の網膜が結像面となる。一方、透過型や非透過型のデバイスでは、作業者51の視界内に配置されるハーフミラーやディスプレイ〔例えば液晶ディスプレイ(Liquid Crystal Display,LCD)や有機ELディスプレイ(Organic Electro-Luminescence Display,OELD)〕の表面が結像面となる。 The display device 13 is one of the devices for providing visual information to the worker 51. In a retinal projection type device, the retina of the worker 51 serves as the image forming surface. On the other hand, in a transmissive or non-transmissive type device, the surface of a half mirror or a display (such as a Liquid Crystal Display (LCD) or an Organic Electro-Luminescence Display (OLED)) placed within the field of view of the worker 51 serves as the image forming surface.

入力装置14は、電子制御装置20,40への入力信号を入力するためのポインティングデバイスの一つである。入力装置14の具体例としては、無線キーボードや無線マウスなどのデバイスがスマートグラス10に接続可能である。また、スマートグラス10のテンプル(柄,側面側の部分)には、押しボタンや物理キーなどの入力装置14が設けられる。また、マイク17は作業者51の音声を入力信号として入力するためのデバイスである。 The input device 14 is one of the pointing devices for inputting an input signal to the electronic control devices 20, 40. Specific examples of the input device 14 include devices such as a wireless keyboard and a wireless mouse that can be connected to the smart glasses 10. In addition, the temples (handle, side parts) of the smart glasses 10 are provided with input devices 14 such as push buttons and physical keys. In addition, the microphone 17 is a device for inputting the voice of the worker 51 as an input signal.

通信装置15は、スマートグラス10の外部との通信を司る装置であり、例えばネットワーク19を介してサーバー30との間で無線通信を行うためのデバイスである。図2に示す中継器36は、通信装置15に含まれるものと見なすことができる。近距離無線通信規格に準拠した入出力装置がスマートグラス10に接続される場合には、それらの入出力装置が通信装置15を介して接続される。 The communication device 15 is a device that controls communication with the outside of the smart glasses 10, and is, for example, a device for performing wireless communication with the server 30 via the network 19. The repeater 36 shown in FIG. 2 can be considered to be included in the communication device 15. When input/output devices that comply with a short-range wireless communication standard are connected to the smart glasses 10, those input/output devices are connected via the communication device 15.

撮影装置16は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサを内蔵したディジタルビデオカメラである。この撮影装置16は、スマートグラス10のリム(レンズの周縁)やブリッジ(左右のレンズの接続部分)などに取り付けられ、スマートグラス10を装着した作業者51の視界を撮影するように機能する。撮影装置16で撮影された撮影画像の情報は、電子制御装置20やサーバー30に伝達される。なお、ここでいう「撮影画像」には、静止画像だけでなく動画中に含まれる1フレーム(1コマ)の画像も含まれる。 The image capturing device 16 is a digital video camera with a built-in image sensor such as a CCD (Charge-Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor). The image capturing device 16 is attached to the rim (periphery of the lens) or bridge (connection between the left and right lenses) of the smart glasses 10, and functions to capture the field of view of the worker 51 wearing the smart glasses 10. Information on the captured image captured by the image capturing device 16 is transmitted to the electronic control device 20 and the server 30. Note that the "captured image" referred to here includes not only still images but also one frame of an image included in a video.

撮影装置16の位置や撮影方向は、スマートグラス10に対して固定されており、表示装置13の位置もスマートグラス10に対して固定されている。したがって、スマートグラス10と作業者51の視線との関係が一定に保たれている限り、撮影装置16で撮影された実景と同じ環境内に存在するかのように見える虚像(すなわち、座標系が実景に適合する三次元のオブジェクト)を表示装置13で描画することができる。なお、撮影装置16で撮影された画像中の被写体について、三次元空間内での位置や姿勢を算出するには、公知のAR(Augmented Reality,拡張現実)開発ライブラリを利用することができる。また、実景に適合する三次元オブジェクトの描画には、公知の三次元レンダラーやAR描画エンジンを利用することができる。 The position and shooting direction of the image capturing device 16 are fixed with respect to the smart glasses 10, and the position of the display device 13 is also fixed with respect to the smart glasses 10. Therefore, as long as the relationship between the smart glasses 10 and the line of sight of the worker 51 is kept constant, a virtual image (i.e., a three-dimensional object whose coordinate system matches the real scene) that appears to exist in the same environment as the real scene captured by the image capturing device 16 can be rendered by the display device 13. Note that a publicly known AR (Augmented Reality) development library can be used to calculate the position and orientation in three-dimensional space of the subject in the image captured by the image capturing device 16. Also, a publicly known three-dimensional renderer or AR rendering engine can be used to render a three-dimensional object that matches the real scene.

電子制御装置20には、プロセッサ21(中央処理装置),メモリ22(メインメモリ,主記憶装置),補助記憶装置23,インタフェース装置24などが内蔵され、バス25を介して互いに通信可能に接続される。プロセッサ21は、制御ユニット(制御回路)や演算ユニット(演算回路),キャッシュメモリ(レジスタ群)などを内蔵する中央処理装置である。また、メモリ22は、プログラムや作業中のデータが格納される記憶装置であり、例えばROM(Read Only Memory),RAM(Random Access Memory)がこれに含まれる。 The electronic control device 20 incorporates a processor 21 (central processing unit), memory 22 (main memory, primary storage device), auxiliary storage device 23, interface device 24, etc., which are communicatively connected to each other via a bus 25. The processor 21 is a central processing unit incorporating a control unit (control circuit), an arithmetic unit (arithmetic circuit), cache memory (register group), etc. The memory 22 is a storage device in which programs and data being worked on are stored, and includes, for example, ROM (Read Only Memory) and RAM (Random Access Memory).

補助記憶装置23は、メモリ22よりも長期的に保持されるデータやファームウェアが格納されるメモリ装置であり、例えばフラッシュメモリやEEPROMなどの不揮発性メモリがこれに含まれる。また、インタフェース装置24は、電子制御装置20と外部との間の入出力(Input and Output;I/O)を司るものである。電子制御装置20は、インタフェース装置24を介して、記録媒体ドライブ11,記憶装置12,表示装置13,入力装置14,通信装置15などに接続される。 The auxiliary storage device 23 is a memory device that stores data and firmware that are retained for a longer period of time than the memory 22, and includes non-volatile memories such as flash memory and EEPROM. The interface device 24 is responsible for input and output (I/O) between the electronic control device 20 and the outside. The electronic control device 20 is connected to the recording medium drive 11, storage device 12, display device 13, input device 14, communication device 15, etc. via the interface device 24.

なお、サーバー30の電子制御装置40にも、プロセッサ41(中央処理装置),メモリ42(メインメモリ,主記憶装置),補助記憶装置43,インタフェース装置44などが内蔵され、バス45を介して互いに通信可能に接続される。それぞれの要素の機能は、電子制御装置20に内蔵される同一名称の要素とほぼ同様であることから説明を省略する。また、具体的な電子制御装置のハードウェア構成を上記の構成に限定する意図はなく、公知の各種構成を適用してもよい。 The electronic control device 40 of the server 30 also includes a processor 41 (central processing unit), memory 42 (main memory, primary storage device), auxiliary storage device 43, interface device 44, etc., which are connected to each other via a bus 45 so that they can communicate with each other. The functions of each element are almost the same as the elements of the same name built into the electronic control device 20, so a description thereof will be omitted. Furthermore, there is no intention to limit the specific hardware configuration of the electronic control device to the above configuration, and various known configurations may be applied.

[2.ソフトウェア構成]
図4は、スマートグラス10やサーバー30で実行される製造支援プログラム9の処理内容を説明するためのブロック図である。これらの処理内容は、アプリケーションプログラムとしてスマートグラス10及びサーバー30の記憶装置12,32や記録媒体18などに記録され、メモリー上に展開されて実行される。ここで実行される処理内容を機能的に分類すると、製造支援プログラム9には、抽出部3,取得部4,認識部5,描画部6,判定部7,強調表示部8が設けられる。また、これらの各要素が参照可能なデータベースとして、第一データベース1,第二データベース2が設けられる。
2. Software Configuration
4 is a block diagram for explaining the processing contents of the manufacturing support program 9 executed by the smart glasses 10 and the server 30. These processing contents are recorded as application programs in the storage devices 12, 32 and the recording medium 18 of the smart glasses 10 and the server 30, and are deployed on the memory and executed. If the processing contents executed here are classified functionally, the manufacturing support program 9 is provided with an extraction unit 3, an acquisition unit 4, a recognition unit 5, a drawing unit 6, a determination unit 7, and a highlighting unit 8. In addition, a first database 1 and a second database 2 are provided as databases to which each of these elements can refer.

第一データベース1は、組み付け対象に対する部品の組み付けパターンとこれに対応する識別情報との関係を規定するものである。識別情報とは、作業者51に指示される作業内容を特定するための情報であり、例えば作業番号,作業対象車両番号,指示対象車両番号などと呼ばれる。本実施形態では、図2に示すように、作業番号が作業管理者から提示される作業指示書54に記載されているものとする。作業指示書54は、作業者51が組み付け作業を実施する前に、作業管理者から提示されるものとし、あるいは、組み付け対象となる自動車50に貼付されているものとする。 The first database 1 specifies the relationship between the assembly pattern of parts for the assembly target and the corresponding identification information. The identification information is information for specifying the work content instructed to the worker 51, and is called, for example, the work number, the work target vehicle number, the instruction target vehicle number, etc. In this embodiment, as shown in FIG. 2, the work number is described in the work instruction sheet 54 presented by the work manager. The work instruction sheet 54 is presented by the work manager before the worker 51 performs the assembly work, or is affixed to the automobile 50 that is the object of assembly.

第一データベース1の内容を図5(A)に例示する。第一データベース1には、少なくとも組み付け作業を識別するための作業番号と、その作業で組み付けられる部品のレイアウト(組み付けパターン)を特定するための情報(組み付け位置,組み付け向き)との関係が規定される。その作業で組み付けられる部品の種類数が複数である場合には、一つの作業番号に対して複数種の部品の組み付けパターンが設定される。図5(A)に示す例では、作業番号「ABCDE01234」に対し、三種の部品(a-01,a-02,a-03)の組み付けパターンが設定されている。 The contents of the first database 1 are shown in FIG. 5(A). The first database 1 defines the relationship between at least a job number for identifying an assembly job and information (assembly position, assembly direction) for specifying the layout (assembly pattern) of the parts to be assembled in that job. If there are multiple types of parts to be assembled in that job, assembly patterns for multiple types of parts are set for one job number. In the example shown in FIG. 5(A), assembly patterns for three types of parts (a-01, a-02, a-03) are set for job number "ABCDE01234".

なお、作業対象となる自動車50の車種やグレード,仕向地などが異なれば、部品の種類や組み付けパターンも異なるものとなる。一般に、自動車50の組み付け作業において、作業者51が習得すべき組み付けパターンは数十から数百パターンに及び、これらのパターンを暗記するのには数ヶ月から数年の経験が必要だと言われている。一方、本実施形態ではこれらのすべてのパターンが第一データベース1に規定され、作業番号に対して紐付けられる。これにより、作業者51は組み付けパターンの暗記作業から解放される。 If the model, grade, destination, etc. of the automobile 50 being worked on differs, the types of parts and assembly patterns will also differ. In general, when assembling an automobile 50, the worker 51 must learn dozens to hundreds of assembly patterns, and it is said that it takes several months to several years of experience to memorize these patterns. On the other hand, in this embodiment, all of these patterns are defined in the first database 1 and linked to the work number. This relieves the worker 51 from the task of memorizing the assembly patterns.

部品の組み付け位置は、組み付け対象(例えばリレーボックス)に固定された座標系を基準として、少なくとも三つのパラメーターで特定することができる。同様に、部品の組み付け向きについても、組み付け対象に固定された座標系を基準として、少なくとも三つのパラメーターで特定することができる。したがって、一つの部品のレイアウトを特定するための情報は、6つ以上のパラメーターを用いることで一意に特定することができる。 The installation position of a part can be specified by at least three parameters, with a coordinate system fixed to the object (e.g., a relay box) as the reference. Similarly, the installation orientation of a part can be specified by at least three parameters, with a coordinate system fixed to the object as the reference. Therefore, information for specifying the layout of a single part can be uniquely specified by using six or more parameters.

第二データベース2は、上記の識別情報(作業番号)と部品の保管場所及び使用数(組み付けられる部品の個数)との関係を規定するものである。部品の保管場所とは、例えば図1に示す資材保管棚53に収納される多数の部品トレイのうち、どのトレイに入っている部品なのかを表す情報である。ある作業で使用される部品の保管場所が常に固定されている場合には、少なくとも三つのパラメーターで部品の位置(保管場所)を特定可能である。一方、作業状況によって部品の保管場所が変更される可能性がある場合には、保管場所を特定するための情報を第二データベース2の各レコードに付加することが好ましい。 The second database 2 defines the relationship between the above-mentioned identification information (job number) and the storage location and number of uses (number of parts to be assembled) of the part. The storage location of a part is information that indicates which of the many parts trays stored in the material storage shelf 53 shown in FIG. 1 the part is in. If the storage location of a part used in a certain job is always fixed, the position (storage location) of the part can be identified using at least three parameters. On the other hand, if there is a possibility that the storage location of the part may change depending on the work situation, it is preferable to add information for identifying the storage location to each record in the second database 2.

図5(B)に示す例では、作業番号「ABCDE01234」で使用される部品「a-01」の使用数が3であり、その保管場所が場所コード「aA11bB22cC33dD44」となっている。その部品が実際に保管されている場所には、場所コード「aA11bB22cC33dD44」を表す文字列や記号やバーコード,二次元コードなどが掲示される。部品ごとに異なる場所コードを付与することで、各部品の保管場所が一意に特定されうる。 In the example shown in FIG. 5(B), the part "a-01" used in operation number "ABCDE01234" has a usage count of 3, and its storage location is location code "aA11bB22cC33dD44". A character string, symbol, barcode, or two-dimensional code representing the location code "aA11bB22cC33dD44" is posted at the location where the part is actually stored. By assigning a different location code to each part, the storage location of each part can be uniquely identified.

抽出部3は、撮影装置16の撮影画像の中から、組み付け作業の内容が記載された作業指示書54に含まれる識別情報(作業番号)を抽出するものである。作業指示書54は、作業者51が部品の組み付け作業を実施する前に撮影されるものとする。本実施形態の抽出部3は、図2に示す作業指示書54のバーコードを読み取ることで、作業番号を抽出する機能を持つ。ここで抽出された作業番号の情報は、取得部4に伝達される。 The extraction unit 3 extracts, from the image captured by the image capture device 16, identification information (job number) included in the work instruction sheet 54 that describes the details of the assembly work. The work instruction sheet 54 is assumed to be photographed before the worker 51 performs the part assembly work. The extraction unit 3 of this embodiment has a function of extracting the job number by reading the barcode of the work instruction sheet 54 shown in FIG. 2. The job number information extracted here is transmitted to the acquisition unit 4.

取得部4は、二つの機能を有する。第一の機能は、第一データベース1に基づく情報取得であり、第二の機能は、第二データベース2に基づく情報取得である。ここで取得された情報は、描画部6に伝達される。
前者の機能は、第一データベース1に基づき、抽出部3で抽出された識別情報(作業番号)に対応する部品の組み付けパターンを取得するものである。例えば、抽出部3で抽出された作業番号が「ABCDE01234」である場合には、図5(A)に示す第一データベース1でこれに対応する三種の部品(a-01,a-02,a-03)のそれぞれについて、組み付けパターン(組み付け位置及び組み付け向きの情報)が取得される。
後者の機能は、第二データベース2に基づき、識別情報(作業番号)に対応する部品の保管場所及び使用数の情報を取得するものである。例えば、図5(B)に示す第二データベース2に基づき、三種の部品(a-01,a-02,a-03)のそれぞれについて、場所コード及び使用数の情報が取得される。
The acquisition unit 4 has two functions. The first function is to acquire information based on the first database 1, and the second function is to acquire information based on the second database 2. The information acquired here is transmitted to the drawing unit 6.
The former function is to obtain an assembly pattern of a part corresponding to the identification information (operation number) extracted by the extraction unit 3, based on the first database 1. For example, if the operation number extracted by the extraction unit 3 is "ABCDE01234", an assembly pattern (information on the assembly position and assembly direction) is obtained for each of the three types of parts (a-01, a-02, a-03) corresponding thereto in the first database 1 shown in Fig. 5(A).
The latter function is to obtain information on the storage location and the number of parts used that correspond to the identification information (job number) based on the second database 2. For example, based on the second database 2 shown in Fig. 5(B), information on the location code and the number of parts used is obtained for each of three types of parts (a-01, a-02, a-03).

認識部5は、撮影装置16による撮影画像の中に存在する特定の物体やマークを認識するものである。認識部5は、少なくとも「部品の組み付け対象」を認識する機能を持つ。例えば、リレーの組み付け作業〔図5(A)中の作業番号「ABCDE01234」〕では、そのリレーが組み付けられるリレーボックス55が撮影画像の中にあるか否かが判定される。この判定では、リレーボックス55の三次元CADデータが参照される。図6(A)に示すように、撮影画像中にリレーボックス55が検出されると、撮影画像中の特徴点(リレーボックス55の端辺に含まれる点や頂点など)の分布に基づき、撮影位置(撮影装置16の位置)を基準としたリレーボックス55の位置及び姿勢が推定される。これにより、作業者51の視界内でのリレーボックス55の見え方が特定される。ここで特定される組み付け対象の位置及び姿勢の情報は、描画部6に伝達され、部品を描画するときに参照される。 The recognition unit 5 recognizes specific objects and marks present in the image captured by the image capture device 16. The recognition unit 5 has at least the function of recognizing the "part installation target." For example, in a relay installation task [task number "ABCDE01234" in FIG. 5A], it is determined whether the relay box 55 to which the relay is to be installed is present in the captured image. In this determination, the three-dimensional CAD data of the relay box 55 is referenced. As shown in FIG. 6A, when the relay box 55 is detected in the captured image, the position and orientation of the relay box 55 based on the shooting position (position of the image capture device 16) are estimated based on the distribution of feature points (points and vertices included in the edge of the relay box 55, etc.) in the captured image. This identifies how the relay box 55 appears within the field of view of the worker 51. The information on the position and orientation of the installation target identified here is transmitted to the drawing unit 6 and is referenced when drawing the part.

また、認識部5は、撮影画像の中から「部品の保管場所」を認識する機能を併せ持つ。例えば、リレーの組み付け作業〔図5(B)中の作業番号「ABCDE01234」〕では、場所コード「aA11bB22cC33dD44」を表す文字列や記号や二次元コードなどが認識される。図7(A)に示すように、撮影画像中に場所コードを表すマーカー58が検出されると、そのマーカー58の位置や形状に基づき、撮影位置を基準としたマーカー58の位置や姿勢が推定される。ここで認識される部品の保管場所の情報も、描画部6に伝達される。 The recognition unit 5 also has the function of recognizing the "storage location of parts" from the captured image. For example, in a relay assembly task [task number "ABCDE01234" in FIG. 5(B)], a character string, symbol, or two-dimensional code representing the location code "aA11bB22cC33dD44" is recognized. As shown in FIG. 7(A), when a marker 58 representing the location code is detected in the captured image, the position and orientation of the marker 58 relative to the capture position are estimated based on the position and shape of the marker 58. Information on the storage location of parts recognized here is also transmitted to the drawing unit 6.

描画部6は、部品の組み付け時に表示装置13の表示内容を制御するものであり、おもに三つの機能を有する。第一の機能は、組み付け対象に部品が組み付けられた完成時の位置及び向きで、部品の虚像を描画するものである。ここでいう「虚像」とは、部品の組み付けが完了したときの状態(完成図)を示すものであり、組み付け作業の「手本」となるものである。これを参照しながら組み付け作業を実施することで、作業経験の浅い作業者51であっても組み付けミスをしにくくなり、作業効率が向上する。 The drawing unit 6 controls the display content of the display device 13 when parts are being assembled, and has three main functions. The first function is to draw a virtual image of the part in the position and orientation it will be in when assembled to the object to be assembled. The "virtual image" here indicates the state (finished drawing) when assembly of the part is complete, and serves as a "model" for the assembly work. By performing the assembly work while referring to this, even an inexperienced worker 51 is less likely to make an assembly mistake, improving work efficiency.

部品の虚像は、認識部5で認識された組み付け対象に座標系が適合するように描画される。例えば、図6(A)に示すリレーボックス55に対する部品の虚像は、リレーボックス55に組み付けされた状態に相当する位置及び姿勢で描画される。図6(B)は、ここで描画される部品の虚像のみを取り出して示すものである。リレーボックス55と部品の虚像とを重畳させることで、図6(C)に示すように、あたかもリレーボックス55の上に部品が存在しているかのように見せることができる。 The virtual image of the part is drawn so that the coordinate system matches the assembly target recognized by the recognition unit 5. For example, the virtual image of the part for the relay box 55 shown in FIG. 6(A) is drawn in a position and orientation corresponding to the state in which the part is assembled to the relay box 55. FIG. 6(B) shows only the virtual image of the part drawn here. By superimposing the relay box 55 and the virtual image of the part, it is possible to make it appear as if the part is present on top of the relay box 55, as shown in FIG. 6(C).

描画部6における第二の機能は、組み付け作業で使用される部品の個数(使用数)の情報をリレーボックス55の近傍に描画する機能であり、第三の機能は、その個数の情報を保管場所の近傍に描画するものである。個数の情報をリレーボックス55の近傍に表示する際には、図6(B)に示すように、リレーボックス55に組み付けられる部品に重ならない位置に描画することが好ましい。また、リレーボックス55に対して各部品が組み付けられる面が平面状であるとすれば、各部品の虚像をその平面上で配列することが好ましい。同様に、個数の情報を保管場所の近傍に描画する際には、図7(B)に示すように、マーカー58や部品トレイに重ならない位置に描画することが好ましい。なお、部品の個数だけでなく部品番号や部品の外観などを一緒に表示することで、保管の状態をよりわかりやすく伝達してもよい。 The second function of the drawing unit 6 is to draw information on the number of parts (usage number) used in the assembly work near the relay box 55, and the third function is to draw the information on the number near the storage location. When displaying the information on the number near the relay box 55, it is preferable to draw it at a position that does not overlap with the parts to be assembled to the relay box 55, as shown in FIG. 6(B). Also, if the surface on which the parts are assembled to the relay box 55 is flat, it is preferable to arrange the virtual images of each part on that plane. Similarly, when drawing the information on the number near the storage location, it is preferable to draw it at a position that does not overlap with the marker 58 or the part tray, as shown in FIG. 7(B). It is also possible to convey the storage status more clearly by displaying not only the number of parts but also the part numbers and the appearances of the parts.

判定部7は、部品の組み付け作業が完了したときに、その作業内容が適切であるか否かを自動的に判定するものである。ここでは、撮影画像と識別情報(作業番号)とに基づき、部品の組み付け状態が第一データベース1に規定された組み付けパターンに一致するか否かが判定される。例えば、撮影画像中の各部品を特定し、組み付け対象に対する各部品の位置及び姿勢を推定することで、組み付けパターンとの比較を実施してもよい。あるいは、あらかじめ用意された完成状態の画像と撮影画像とを比較してもよい。 The judgment unit 7 automatically judges whether the work content is appropriate when the part assembly work is completed. Here, based on the captured image and identification information (work number), it is judged whether the assembly state of the parts matches an assembly pattern defined in the first database 1. For example, each part in the captured image may be identified, and the position and orientation of each part relative to the assembly target may be estimated, and a comparison with the assembly pattern may be performed. Alternatively, the captured image may be compared with a previously prepared image of the completed state.

本実施形態の判定部7は、学習済みのオートエンコーダを利用して、部品の組み付け状態を判定する。具体的には、撮影画像をオートエンコーダに入力し、その出力画像を取得するとともに、入力画像と出力画像との差異を算出する。オートエンコーダの学習データとしては、部品が正しく組み付けられた組み付け対象をさまざまな位置,角度から撮影した数千枚の画像が用いられる。このようなオートエンコーダに撮影画像を入力したとき、その撮影画像中の組み付け状態が適切であれば、出力される画像が入力画像とほぼ同一の画像となる。一方、組み付け状態に不適切な箇所があれば、その箇所の像が「正しい組み付け状態に近い像」に変換されて出力される。つまり、組み付け状態が不適切な箇所は、オートエンコーダに対する入力画像と出力画像との差異として検出可能である。そこで判定部7は、入力画像と出力画像との差異を算出し、その差異が所定のしきい値以上となる箇所を「異常度が高い箇所」として算出する。 In this embodiment, the judgment unit 7 judges the assembly state of the parts using a trained autoencoder. Specifically, a captured image is input to the autoencoder, and the output image is obtained, and the difference between the input image and the output image is calculated. As the learning data for the autoencoder, several thousand images of the assembly target in which the parts are correctly assembled are taken from various positions and angles. When a captured image is input to such an autoencoder, if the assembly state in the captured image is appropriate, the output image will be almost identical to the input image. On the other hand, if there is an inappropriate part in the assembly state, the image of that part is converted to an "image close to the correct assembly state" and output. In other words, a part in an inappropriate assembly state can be detected as a difference between the input image and the output image for the autoencoder. Therefore, the judgment unit 7 calculates the difference between the input image and the output image, and calculates the part where the difference is equal to or greater than a predetermined threshold as a "part with a high degree of abnormality".

強調表示部8は、判定部7で判定された「異常度が高い箇所」を強調表示するものである。ここでは、部品の組み付け状態が組み付けパターンに一致しない部位が、作業者の視界内の実景の座標系に適合するように強調表示される。本実施形態の強調表示部8は、「異常度が高い箇所」を赤くハイライトした画像を表示装置13に表示する機能を持つ。これにより、図8に示すように、組み付け状態が不適切な箇所が強調され、組み付けミスの存在が作業者51にわかりやすく伝達される。 The highlighting unit 8 highlights the "highly abnormal areas" determined by the determining unit 7. Here, areas where the assembly state of the parts does not match the assembly pattern are highlighted so as to fit the coordinate system of the actual scene within the worker's field of vision. The highlighting unit 8 in this embodiment has the function of displaying an image on the display device 13 in which the "highly abnormal areas" are highlighted in red. This highlights the areas where the assembly state is inappropriate, as shown in FIG. 8, and the existence of an assembly error is clearly communicated to the worker 51.

[3.フローチャート]
図9は、部品の組み付け工程の流れを説明するためのフローチャートである。本フロー中のフラグAは、識別情報(作業番号)が読み取られた状態であるか否かを表すものであり、識別情報が読み取られていない初期状態ではA=0に設定されている。まず、撮影装置16で撮影画像が撮影され、その内容が認識される(ステップA1)。また、フラグAの値が判定され(ステップA2)、A=0であるときには撮影画像中に作業指示書54が認識されたか否かが判定される(ステップA3)。
3. Flowchart
9 is a flow chart for explaining the flow of the part assembly process. The flag A in this flow indicates whether or not the identification information (job number) has been read, and is set to A=0 in the initial state where the identification information has not been read. First, an image is taken by the photographing device 16, and its contents are recognized (step A1). The value of the flag A is then determined (step A2), and if A=0, it is determined whether or not the work instruction sheet 54 has been recognized in the photographed image (step A3).

ここで、作業指示書54が認識されると、作業指示書54に記載されている作業番号を抽出部3が抽出する(ステップA4)。これを受けて取得部4は第一データベース1を参照し、作業番号に対応する部品の組み付けパターンを取得する(ステップA5)。また、取得部4は第二データベース2を参照して、作業番号に対応する部品の保管場所,使用数の情報を取得する(ステップA6)。その後、フラグAの値がA=1に設定される(ステップA7)。次回以降の演算周期では、制御がステップA1からステップA8へと進行する。 When the work instruction 54 is recognized, the extraction unit 3 extracts the work number written on the work instruction 54 (step A4). In response, the acquisition unit 4 refers to the first database 1 and acquires the assembly pattern of the part corresponding to the work number (step A5). The acquisition unit 4 also refers to the second database 2 and acquires information on the storage location and number of parts used corresponding to the work number (step A6). After that, the value of flag A is set to A=1 (step A7). In the next and subsequent calculation cycles, control proceeds from step A1 to step A8.

ステップA8では、撮影画像中に場所コードを表すマーカー58が認識されたか否かが判定される。ここでマーカー58が検出されている場合には、図7(B)に示すように、部品の保管場所や使用数の情報がスマートグラス10の表示装置13に表示される。作業者51は、これを参照しながら部品を資材保管棚53から取り出し、組み付け作業の準備を整えることができる。また、ステップA10では、部品の組み付け対象が認識されたか否かが判定される。ここで組み付け対象が認識されている場合には、図6(C)に示すように、部品の虚像が表示装置13に表示される。作業者51は、これを参照しながら部品を組み付けることができる。 In step A8, it is determined whether a marker 58 indicating a location code has been recognized in the captured image. If a marker 58 has been detected, information on the storage location of the part and the number of parts used is displayed on the display device 13 of the smart glasses 10, as shown in FIG. 7(B). The worker 51 can refer to this information to take the part out of the material storage shelf 53 and prepare for the assembly work. In addition, in step A10, it is determined whether an object to which the part is to be assembled has been recognized. If an object to which the part is to be assembled has been recognized, a virtual image of the part is displayed on the display device 13, as shown in FIG. 6(C). The worker 51 can refer to this information to assemble the part.

図10は、部品の組み付け完了時における検査工程の流れを説明するためのフローチャートである。検査工程は、組み付け作業が完了したときに、作業者51が所定の入力操作(例えば、所定の音声指示やボタン操作など)を行うことで開始されるようにしてもよい。あるいは画像解析により部品の組み付け作業が完了したことを自動的に検知して、検査工程を開始してもよい。 Figure 10 is a flow chart for explaining the flow of the inspection process when the assembly of parts is completed. The inspection process may be started by the worker 51 performing a predetermined input operation (e.g., a predetermined voice instruction or button operation) when the assembly work is completed. Alternatively, the inspection process may be started by automatically detecting the completion of the assembly work of parts through image analysis.

前者の場合、ステップB1において、作業者51による入力操作に関する各種情報が入力される。ここで、所定の検査開始条件(例えば、所定の音声指示がなされること)が成立すると(ステップB2)、撮影装置16での撮影画像が入力画像としてオートエンコーダに入力され、その出力画像が取得される(ステップB3)。また、入力画像と出力画像との差異が算出されるとともに、その差異がしきい値以上となる箇所が強調表示される。作業者51は、これを参照しながら不適切な組み付け状態を是正することができる。 In the former case, in step B1, various information related to input operations by the worker 51 is input. Here, when a predetermined inspection start condition (for example, a predetermined voice instruction is given) is met (step B2), the image captured by the imaging device 16 is input as an input image to the autoencoder, and the output image is obtained (step B3). In addition, the difference between the input image and the output image is calculated, and the parts where the difference is equal to or greater than a threshold value are highlighted. The worker 51 can refer to this and correct any improper assembly state.

[4.作用・効果]
(1)上記の製造支援システム,方法,プログラムでは、作業指示書54に含まれる識別情報(作業番号)が抽出され、これに対応する位置、向きで部品の虚像が描画される。また、識別情報(作業番号)と部品の組み付けパターンとの関係は、第一データベース1にあらかじめ規定される。これにより、組み付け作業に係る部品の種類や使用数,レイアウトが作業指示書54ごとに異なっている場合であっても、正しい位置かつ正しい向きで部品の組み付けの手本を示すことができ、組み付け作業を支援することができる。
[4. Actions and Effects]
(1) In the above-described manufacturing support system, method, and program, identification information (job number) included in the work instruction sheet 54 is extracted, and a virtual image of the part is drawn in a position and orientation corresponding to the extracted information. In addition, the relationship between the identification information (job number) and the part assembly pattern is defined in advance in the first database 1. As a result, even if the type, number of parts used, and layout of parts involved in the assembly work differ depending on each work instruction sheet 54, it is possible to show an example of how to assemble the parts in the correct position and in the correct orientation, thereby supporting the assembly work.

また、作業者51は作業指示書54ごとに異なる部品の組み付けパターンを暗記しておく必要がなくなり、組み付けミスを削減することができる。さらに、組み付け作業中は常に手本となる虚像が表示されているため、作業者51が誤った組み付けを覚えてしまう懸念がなくなり、作業者51の習熟度を迅速に高めることができる。したがって、部品の組み付け作業に関する作業効率(生産性)を向上させることができる。 In addition, the worker 51 is no longer required to memorize different part assembly patterns for each work instruction sheet 54, which reduces assembly errors. Furthermore, because a model virtual image is always displayed during the assembly work, there is no concern that the worker 51 will remember incorrect assembly, and the worker 51's proficiency can be improved quickly. Therefore, the work efficiency (productivity) related to the part assembly work can be improved.

(2)識別情報(作業番号)と部品の保管場所及び使用数との関係は、第二データベース2にあらかじめ規定される。これを用いて、部品の保管場所の近傍に使用数の情報を描画することで、部品の取り違えミスを予防することができる。例えば、外観が類似する複数の部品が混在する組み付け作業において、ピックアップミス(部品の取り出し間違い)を削減することができる。したがって、組み付け作業における不良率を低減させることができ、作業効率をさらに向上させることができる。 (2) The relationship between the identification information (operation number) and the storage location and number of uses of the part is predefined in the second database 2. Using this, information on the number of uses can be drawn near the storage location of the part, thereby preventing mistakes in picking up parts. For example, in an assembly operation in which multiple parts with similar appearances are mixed together, pick-up mistakes (mistakes in picking up parts) can be reduced. This makes it possible to reduce the defect rate in the assembly operation and further improve work efficiency.

(3)図7(A)に示すように、マーカー58を用いて部品の保管場所を特定することで、部品の仕様変更や保管場所の変更に対して柔軟に対応することが可能となり、作業効率をさらに向上させることができる。例えば、部品の保管場所が変更されたときには、部品と一緒にマーカー58も移動させればよい。なお、部品の種類や保管場所が変更されない場合には、マーカー58の代わりにその部品の外観や保管場所の外観などに基づく支援を実施してもよい。 (3) As shown in FIG. 7(A), by using marker 58 to identify the storage location of a part, it becomes possible to flexibly respond to changes in part specifications and storage locations, thereby further improving work efficiency. For example, when the storage location of a part is changed, marker 58 can be moved together with the part. Note that, when the type of part or storage location is not changed, assistance may be provided based on the appearance of the part or the appearance of the storage location instead of marker 58.

(4)図8に示すように、組み付け状態の異常度が高い箇所を実景の座標系に適合するように強調表示することで、その箇所を作業者51に気付かせやすくすることができる。これにより、組み付けミスを直ちに修正することができ、作業効率をさらに向上させることができる。また、作業者51の記憶違いや勘違いなどに由来する組み付け上の不具合が即座にフィードバックされるため、作業者51の習熟度を迅速に高めることができ、短期間での人材育成が可能となる。 (4) As shown in FIG. 8, by highlighting the parts of the assembly state where the degree of abnormality is high so as to conform to the coordinate system of the actual scene, it is possible to make the worker 51 more aware of those parts. This allows assembly errors to be corrected immediately, and the work efficiency can be further improved. In addition, since assembly problems resulting from the worker's 51 misremembering or misunderstanding are immediately fed back, the proficiency of the worker 51 can be rapidly improved, and human resource development can be achieved in a short period of time.

[5.変形例]
上記の実施形態はあくまでも例示に過ぎず、本実施形態で明示しない種々の変形や技術の適用を排除する意図はない。本実施形態の各構成は、それらの趣旨を逸脱しない範囲で種々変形して実施することができる。また、必要に応じて取捨選択することができ、あるいは適宜組み合わせることができる。
5. Modifications
The above embodiment is merely an example, and is not intended to exclude various modifications or application of techniques not explicitly stated in the present embodiment. Each configuration of the present embodiment can be modified in various ways without departing from the spirit of the present embodiment. In addition, the configurations can be selected or combined as necessary.

例えば、スマートグラス10にモーションセンサー(加速度センサー,方位センサー,ジャイロセンサー,地磁気センサーなど)を内蔵させてもよい。モーションセンサーで表示装置13及び撮影装置16の姿勢を高精度に把握することで、作業者51の視界内の実景や被写体の位置,姿勢をより正確に推定することが可能となり、実景に対する虚像の重畳精度を向上させることができ、虚像の現実感や臨場感を高めることができる。 For example, the smart glasses 10 may be equipped with a built-in motion sensor (such as an acceleration sensor, a direction sensor, a gyro sensor, or a geomagnetic sensor). By using the motion sensor to grasp the orientation of the display device 13 and the image capture device 16 with high accuracy, it becomes possible to more accurately estimate the position and orientation of the real scene and the subject within the field of view of the worker 51, thereby improving the accuracy of superimposing the virtual image on the real scene and enhancing the realism and presence of the virtual image.

本件における製造支援システム,製造支援方法,製造支援プログラムの最小構成は、第一データベース1,抽出部3,取得部4,認識部5,描画部6を備えたものである。これらの各要素が保存される装置は、任意に設定可能であるとともに、複数の装置に機能を分散させて配置することも可能である。機能を分散させる場合、少なくとも複数の装置同士が有線または無線で通信可能に接続されていればよい。 The minimum configuration of the manufacturing support system, manufacturing support method, and manufacturing support program in this case includes a first database 1, an extraction unit 3, an acquisition unit 4, a recognition unit 5, and a drawing unit 6. The device in which each of these elements is stored can be set arbitrarily, and it is also possible to distribute and arrange functions on multiple devices. When distributing functions, it is sufficient that at least multiple devices are connected to each other so that they can communicate with each other via wire or wirelessly.

上記の機能の分散に関して、図11(A)に示すように、表示装置13の描画に関する要素(例えば、描画部6,強調表示部8)をスマートグラス10に担当させ、それ以外の要素(例えば、抽出部3,取得部4,認識部5,判定部7)を組み付け作業用コンピューター59に担当させてもよい。また、第一データベース1や第二データベース2は、生産指令サーバー60に保存しておいてもよい。生産指令サーバー60は、生産ラインの稼働状態や生産ロボットの動作を制御する大型コンピューターであり、組み付け作業用コンピューター59に対して有線ケーブルで接続される。また、組み付け作業用コンピューター59は、組み付け作業が実施される作業場の近傍に配置されるコンピューターであり、スマートグラス10に対し、中継器36を介して無線で接続される。 Regarding the distribution of the above functions, as shown in FIG. 11(A), the elements related to drawing on the display device 13 (e.g., the drawing unit 6, the highlighting unit 8) may be assigned to the smart glasses 10, and the other elements (e.g., the extraction unit 3, the acquisition unit 4, the recognition unit 5, the judgment unit 7) may be assigned to the assembly work computer 59. In addition, the first database 1 and the second database 2 may be stored in the production command server 60. The production command server 60 is a large computer that controls the operating status of the production line and the operation of the production robots, and is connected to the assembly work computer 59 by a wired cable. In addition, the assembly work computer 59 is a computer placed near the work area where the assembly work is performed, and is wirelessly connected to the smart glasses 10 via a repeater 36.

このような装置構成により、スマートグラス10に内蔵される電子制御装置20の演算処理能力が低い場合であっても、実景に適合する虚像を精度良く表示装置13に表示させることが可能となる。また、生産指令サーバー60にデータベース1,2を配置することで、既存の生産システムで用いられているデータベースを利用した作業支援が容易となる。なお、スマートグラス10に十分な演算処理能力が期待できる場合には、図11(B)に示すように、スマートグラス10単体で動作しうるシステムを構成してもよい。この場合、他のコンピューターとの通信が不要となることから、オフライン環境での作業支援が可能となる。 With this device configuration, even if the computing power of the electronic control device 20 built into the smart glasses 10 is low, it is possible to accurately display a virtual image that matches the actual scene on the display device 13. In addition, by arranging the databases 1 and 2 in the production command server 60, it becomes easy to provide work support using databases used in existing production systems. Note that if the smart glasses 10 are expected to have sufficient computing power, a system that can operate with the smart glasses 10 alone may be configured, as shown in FIG. 11 (B). In this case, communication with other computers is not required, making it possible to provide work support in an offline environment.

[6.付記]
上記の変形例を含む実施形態に関し、以下の付記を開示する。
[付記1]
視界内の実景を撮影する撮影装置と前記実景に虚像を重畳表示する表示装置とを内蔵するスマートグラスを頭部に装着した作業者に対し、前記実景の座標系に適合する虚像を前記表示装置に表示させることによって、部品の組み付け作業を支援する製造支援方法であって、
前記撮影装置の撮影画像の中から、前記組み付け作業の内容が記載された作業指示書に含まれる前記識別情報を抽出し、
組み付け対象に対する複数の前記部品の組み付けパターンとこれに対応する識別情報との関係が規定された第一データベースに基づき、前記識別情報に対応する前記部品の組み付けパターンを取得し、
前記撮影装置の撮影画像の中から、前記組み付け対象を認識し、
前記組み付け対象に前記部品が組み付けられた完成時の位置及び向きで前記部品の虚像を描画する
ことを特徴とする、製造支援方法。
[6. Notes]
The following supplementary notes are disclosed regarding the embodiments including the above-mentioned modifications.
[Appendix 1]
A manufacturing support method for supporting a part assembly operation by displaying a virtual image conforming to a coordinate system of a real scene on a display device that displays a virtual image that is superimposed on a real scene, the virtual image being displayed on the display device to a worker wearing smart glasses on the worker's head, the virtual image being conforming to a coordinate system of the real scene,
extracting the identification information included in a work instruction sheet describing the details of the assembly work from the image captured by the imaging device;
acquiring an assembly pattern of the part corresponding to the identification information based on a first database in which a relationship between an assembly pattern of the part for an assembly target and the corresponding identification information is defined;
Recognizing the assembly target from the captured image of the imaging device;
A manufacturing support method comprising: drawing a virtual image of the part in a position and orientation that will result when the part is completely assembled onto the object to be assembled.

[付記2]
前記部品の保管場所と前記組み付け対象に組み付けられる前記部品の個数と前記識別情報との関係が規定された第二データベースに基づき、前記識別情報に対応する前記部品の保管場所の情報と前記部品の個数の情報とを取得し、
前記撮影装置の撮影画像の中から、前記保管場所を認識し、
前記部品の個数の情報を前記保管場所の近傍に表示する
ことを特徴とする、付記1記載の製造支援方法。
[Appendix 2]
acquiring information on the storage location of the part and information on the number of the parts corresponding to the identification information based on a second database in which a relationship between the storage location of the part, the number of the parts to be assembled to the assembly target, and the identification information is defined;
Recognizing the storage location from the image captured by the imaging device;
2. The manufacturing support method according to claim 1, further comprising displaying information on the number of parts in the vicinity of the storage location.

[付記3]
前記撮影画像中における前記保管場所に設置されたマーカーを認識する
ことを特徴とする、付記2記載の製造支援方法。
[Appendix 3]
The manufacturing support method according to claim 2, further comprising recognizing a marker placed at the storage location in the captured image.

[付記4]
前記撮影装置の撮影画像と前記識別情報とに基づき、前記部品の組み付け状態が前記組み付けパターンに一致するか否かを判定し、
前記部品の組み付け状態が前記組み付けパターンに一致しない部位を、前記作業者の視界内の実景の座標系に適合するように強調表示する
ことを特徴とする、付記1~3のいずれか1項に記載の製造支援方法。
[Appendix 4]
determining whether or not an assembly state of the part matches the assembly pattern based on the captured image of the imaging device and the identification information;
The manufacturing support method according to any one of appendices 1 to 3, characterized in that a portion where the assembly state of the part does not match the assembly pattern is highlighted so as to fit into a coordinate system of an actual scene within the field of vision of the worker.

[付記5]
視界内の実景を撮影する撮影装置と前記実景に虚像を重畳表示する表示装置とを内蔵するスマートグラスを頭部に装着した作業者に対し、前記実景の座標系に適合する虚像を前記表示装置に表示させることによって、部品の組み付け作業を支援する製造支援プログラムであって、
前記撮影装置の撮影画像の中から、前記組み付け作業の内容が記載された作業指示書に含まれる前記識別情報を抽出し、
組み付け対象に対する複数の前記部品の組み付けパターンとこれに対応する識別情報との関係が規定された第一データベースに基づき、前記識別情報に対応する前記部品の組み付けパターンを取得し、
前記撮影装置の撮影画像の中から、前記組み付け対象を認識し、
前記組み付け対象に前記部品が組み付けられた完成時の位置及び向きで前記部品の虚像を描画する
処理をコンピューターに実行させる、製造支援プログラム。
[Appendix 5]
A manufacturing support program that supports a part assembly operation by displaying a virtual image that matches a coordinate system of a real scene on the display device, the virtual image being displayed on the display device to a worker wearing smart glasses that incorporate an imaging device that captures a real scene within a field of vision and a display device that displays a virtual image superimposed on the real scene,
extracting the identification information included in a work instruction sheet describing the details of the assembly work from the image captured by the imaging device;
acquiring an assembly pattern of the part corresponding to the identification information based on a first database in which a relationship between an assembly pattern of the part for an assembly target and the corresponding identification information is defined;
Recognizing the assembly target from the captured image of the imaging device;
A manufacturing support program that causes a computer to execute a process of drawing a virtual image of the part in a position and orientation when the part is completely assembled onto the assembly target.

[付記6]
前記部品の保管場所と前記組み付け対象に組み付けられる前記部品の個数と前記識別情報との関係が規定された第二データベースに基づき、前記識別情報に対応する前記部品の保管場所の情報と前記部品の個数の情報とを取得し、
前記撮影装置の撮影画像の中から、前記保管場所を認識し、
前記部品の個数の情報を前記保管場所の近傍に表示する
処理をコンピューターに実行させる、付記5記載の製造支援プログラム。
[Appendix 6]
acquiring information on the storage location of the part and information on the number of the parts corresponding to the identification information based on a second database in which a relationship between the storage location of the part, the number of the parts to be assembled to the assembly target, and the identification information is defined;
Recognizing the storage location from the image captured by the imaging device;
6. The manufacturing support program according to claim 5, which causes a computer to execute a process of displaying information on the number of parts near the storage location.

[付記7]
前記撮影画像中における前記保管場所に設置されたマーカーを認識する
処理をコンピューターに実行させる、付記6記載の製造支援プログラム。
[Appendix 7]
The manufacturing support program according to claim 6, which causes a computer to execute a process for recognizing a marker placed at the storage location in the captured image.

[付記8]
前記撮影装置の撮影画像と前記識別情報とに基づき、前記部品の組み付け状態が前記組み付けパターンに一致するか否かを判定し、
前記部品の組み付け状態が前記組み付けパターンに一致しない部位を、前記作業者の視界内の実景の座標系に適合するように強調表示する
処理をコンピューターに実行させる、付記5~7のいずれか1項に記載の製造支援プログラム。
[Appendix 8]
determining whether or not an assembly state of the part matches the assembly pattern based on the captured image of the imaging device and the identification information;
The manufacturing support program according to any one of appendices 5 to 7, further comprising a computer executing a process of highlighting a portion where the assembly state of the part does not match the assembly pattern so as to conform to a coordinate system of an actual scene within the field of vision of the worker.

1 第一データベース
2 第二データベース
3 抽出部
4 取得部
5 認識部
6 描画部
7 判定部
8 強調表示部
9 製造支援プログラム
10 スマートグラス
13 表示装置
16 撮影装置
30 サーバー
50 自動車
51 作業者
52 ヘルメット
53 資材保管棚
54 作業指示書
55 リレーボックス(組み付け対象)
56 リレー(部品)
Reference Signs List 1 First database 2 Second database 3 Extraction unit 4 Acquisition unit 5 Recognition unit 6 Drawing unit 7 Determination unit 8 Highlighting unit 9 Manufacturing support program 10 Smart glasses 13 Display device 16 Photography device 30 Server 50 Automobile 51 Worker 52 Helmet 53 Material storage shelf 54 Work instructions 55 Relay box (assembly target)
56 Relay (parts)

Claims (6)

作業者による部品の組み付け作業を支援するための製造支援システムであって、
前記作業者の視界内の実景を撮影する撮影装置と前記実景に虚像を重畳表示する表示装置とを内蔵し、前記作業者の頭部に装着されるスマートグラスと、
組み付け対象に対する複数の前記部品の組み付け位置及び組み付け向きの情報を含む組み付けパターンとこれに対応する識別情報との関係を規定する第一データベースと、
複数の前記部品の部品番号及び使用数と前記識別情報との関係が規定された第二データベースと、
前記作業者の視界内の実景の座標系に適合するように、前記部品の虚像を前記表示装置に表示させる制御装置とを備え、
前記制御装置が、
前記撮影装置の撮影画像の中から、前記組み付け作業の内容が記載された作業指示書に含まれる前記識別情報を抽出する抽出部と、
前記第一データベースに基づき、前記識別情報に対応する前記部品の組み付け位置及び組み付け向きの情報を含む組み付けパターンを取得する取得部と、
前記撮影装置の撮影画像の中から、前記組み付け対象を認識する認識部と、
前記組み付け対象に複数の前記部品が組み付けられた完成時の位置及び向きで複数の前記部品の虚像を描画する描画部とを有し、
前記取得部が、前記第二データベースに基づき、前記識別情報に対応する前記部品番号及び前記使用数の情報を取得し、
前記描画部が、前記部品番号及び前記使用数の情報を前記組み付け対象の近傍に描画する
ことを特徴とする、製造支援システム。
A manufacturing support system for supporting a part assembly operation by a worker, comprising:
A smart glass that is mounted on the head of the worker and includes a photographing device that photographs a real scene within the worker's field of vision and a display device that superimposes a virtual image on the real scene;
a first database that defines a relationship between an assembly pattern, including information on the assembly positions and assembly orientations of the plurality of parts with respect to an assembly target, and identification information corresponding to the assembly pattern;
a second database in which the relationship between the part numbers and the number of uses of the plurality of parts and the identification information is defined;
a control device that causes the display device to display a virtual image of the part so as to conform to a coordinate system of a real scene within the field of vision of the operator;
The control device,
an extraction unit that extracts the identification information included in a work instruction sheet in which details of the assembly work are described from the image captured by the imaging device;
an acquisition unit that acquires an assembly pattern including information on an assembly position and an assembly orientation of the part corresponding to the identification information based on the first database;
a recognition unit that recognizes the assembly target from within an image captured by the imaging device;
a drawing unit that draws virtual images of the plurality of parts in positions and orientations when the plurality of parts are assembled to the assembly target,
the acquiring unit acquires information on the part number and the usage quantity corresponding to the identification information based on the second database,
The manufacturing support system according to claim 1, wherein the drawing unit draws the part number and the information on the number of parts used near the object to be assembled.
前記描画部が、前記部品番号及び前記使用数の情報とともに当該部品の外観を示す画像を前記組み付け対象の近傍に描画する
ことを特徴とする、請求項1記載の製造支援システム。
2. The manufacturing support system according to claim 1, wherein the drawing unit draws an image showing the appearance of the part together with the information on the part number and the number of parts used, in the vicinity of the object to be assembled.
前記認識部が、前記撮影画像中における前記部品の保管場所に設置されたマーカーを認識する
ことを特徴とする、請求項2記載の製造支援システム。
3. The manufacturing support system according to claim 2, wherein the recognition unit recognizes a marker placed at a storage location of the part in the captured image.
前記制御装置が、
前記撮影装置の撮影画像と前記識別情報とに基づき、前記部品の組み付け状態が前記組み付けパターンに一致するか否かを判定する判定部と、
前記部品の組み付け状態が前記組み付けパターンに一致しない部位を、前記作業者の視界内の実景の座標系に適合するように強調表示する強調表示部とを有する
ことを特徴とする、請求項1~3のいずれか1項に記載の製造支援システム。
The control device,
a determination unit that determines whether or not an assembly state of the part matches the assembly pattern based on the captured image of the imaging device and the identification information;
and a highlighting unit that highlights a portion where the assembly state of the part does not match the assembly pattern so as to conform to a coordinate system of an actual scene within the field of vision of the worker.
視界内の実景を撮影する撮影装置と前記実景に虚像を重畳表示する表示装置とを内蔵するスマートグラスを頭部に装着した作業者に対し、前記実景の座標系に適合する虚像を前記表示装置に表示させることによって、部品の組み付け作業を支援する製造支援方法であって、
前記撮影装置の撮影画像の中から、前記組み付け作業の内容が記載された作業指示書に含まれる識別情報を抽出し、
組み付け対象に対する複数の前記部品の組み付け位置及び組み付け向きの情報を含む組み付けパターンとこれに対応する前記識別情報との関係が規定された第一データベースに基づき、前記識別情報に対応する前記部品の組み付け位置及び組み付け向きの情報を含む組み付けパターンを取得し、
複数の前記部品の部品番号及び使用数と前記識別情報との関係が規定された第二データベースに基づき、前記識別情報に対応する前記部品番号及び前記使用数の情報を取得し、
前記撮影装置の撮影画像の中から、前記組み付け対象を認識し、
前記組み付け対象に複数の前記部品が組み付けられた完成時の位置及び向きで複数の前記部品の虚像を描画するとともに、前記部品番号及び前記使用数の情報を前記組み付け対象の近傍に描画する
ことを特徴とする、製造支援方法。
A manufacturing support method for supporting a part assembly operation by displaying a virtual image conforming to a coordinate system of a real scene on a display device that displays a virtual image that is superimposed on a real scene, the virtual image being displayed on the display device to a worker wearing smart glasses on the worker's head, the virtual image being conforming to a coordinate system of the real scene,
extracting identification information included in a work instruction sheet describing the details of the assembly work from the image captured by the imaging device;
acquiring an assembly pattern including information on assembly positions and assembly orientations of the parts corresponding to the identification information based on a first database in which a relationship between an assembly pattern including information on assembly positions and assembly orientations of the parts with respect to an assembly target and the identification information corresponding to the assembly pattern is defined;
acquiring information on the part numbers and the usage numbers corresponding to the identification information based on a second database in which the relationship between the part numbers and the usage numbers of the multiple parts and the identification information is defined;
Recognizing the assembly target from the captured image of the imaging device;
A manufacturing support method comprising: drawing virtual images of a plurality of parts in positions and orientations when the plurality of parts are assembled to the object to be assembled, and drawing information on the part numbers and the number of parts used near the object to be assembled.
視界内の実景を撮影する撮影装置と前記実景に虚像を重畳表示する表示装置とを内蔵するスマートグラスを頭部に装着した作業者に対し、前記実景の座標系に適合する虚像を前記表示装置に表示させることによって、部品の組み付け作業を支援する製造支援プログラムであって、
前記撮影装置の撮影画像の中から、前記組み付け作業の内容が記載された作業指示書に含まれる識別情報を抽出し、
組み付け対象に対する複数の前記部品の組み付け位置及び組み付け向きの情報を含む組み付けパターンとこれに対応する前記識別情報との関係が規定された第一データベースに基づき、前記識別情報に対応する前記部品の組み付け位置及び組み付け向きの情報を含む組み付けパターンを取得し、
複数の前記部品の部品番号及び使用数と前記識別情報との関係が規定された第二データベースに基づき、前記識別情報に対応する前記部品番号及び前記使用数の情報を取得し、
前記撮影装置の撮影画像の中から、前記組み付け対象を認識し、
前記組み付け対象に複数の前記部品が組み付けられた完成時の位置及び向きで複数の前記部品の虚像を描画するとともに、前記部品番号及び前記使用数の情報を前記組み付け対象の近傍に描画する
処理をコンピューターに実行させる、製造支援プログラム。
A manufacturing support program that supports a part assembly operation by displaying a virtual image that matches a coordinate system of a real scene on the display device, the virtual image being displayed on the display device to a worker wearing smart glasses that incorporate an imaging device that captures a real scene within a field of vision and a display device that displays a virtual image superimposed on the real scene,
extracting identification information included in a work instruction sheet describing the details of the assembly work from the image captured by the imaging device;
acquiring an assembly pattern including information on assembly positions and assembly orientations of the parts corresponding to the identification information based on a first database in which a relationship between an assembly pattern including information on assembly positions and assembly orientations of the parts with respect to an assembly target and the identification information corresponding to the assembly pattern is defined;
acquiring information on the part numbers and the usage numbers corresponding to the identification information based on a second database in which the relationship between the part numbers and the usage numbers of the multiple parts and the identification information is defined;
Recognizing the assembly target from the captured image of the imaging device;
A manufacturing support program that causes a computer to execute a process of drawing virtual images of the multiple parts in the positions and orientations at which the multiple parts will be assembled to the assembly object, and drawing information on the part numbers and the number of parts used near the assembly object.
JP2023013855A 2018-09-03 2023-02-01 Manufacturing support system, method, and program Active JP7468722B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2018164219 2018-09-03
JP2018164219 2018-09-03
JP2020541113A JP7374908B2 (en) 2018-09-03 2019-08-20 Manufacturing support systems, methods, programs
PCT/JP2019/032359 WO2020049999A1 (en) 2018-09-03 2019-08-20 Manufacturing assistance system, method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020541113A Division JP7374908B2 (en) 2018-09-03 2019-08-20 Manufacturing support systems, methods, programs

Publications (2)

Publication Number Publication Date
JP2023065371A JP2023065371A (en) 2023-05-12
JP7468722B2 true JP7468722B2 (en) 2024-04-16

Family

ID=69722914

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020541113A Active JP7374908B2 (en) 2018-09-03 2019-08-20 Manufacturing support systems, methods, programs
JP2023013855A Active JP7468722B2 (en) 2018-09-03 2023-02-01 Manufacturing support system, method, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020541113A Active JP7374908B2 (en) 2018-09-03 2019-08-20 Manufacturing support systems, methods, programs

Country Status (2)

Country Link
JP (2) JP7374908B2 (en)
WO (1) WO2020049999A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114554163B (en) * 2022-04-25 2022-08-19 深圳酷源数联科技有限公司 Coal mine underground operation monitoring system
JP2024072013A (en) * 2022-11-15 2024-05-27 トヨタ紡織株式会社 Inspection apparatus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012218037A (en) 2011-04-11 2012-11-12 Murata Machinery Ltd Sheet metal process work support system
JP2014071757A (en) 2012-09-28 2014-04-21 Brother Ind Ltd Work assistance system and program
JP2014215748A (en) 2013-04-24 2014-11-17 川崎重工業株式会社 Component mounting work supporting system, and component mounting method
JP2017007866A (en) 2016-09-13 2017-01-12 オークラ輸送機株式会社 Picking system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012218037A (en) 2011-04-11 2012-11-12 Murata Machinery Ltd Sheet metal process work support system
JP2014071757A (en) 2012-09-28 2014-04-21 Brother Ind Ltd Work assistance system and program
JP2014215748A (en) 2013-04-24 2014-11-17 川崎重工業株式会社 Component mounting work supporting system, and component mounting method
JP2017007866A (en) 2016-09-13 2017-01-12 オークラ輸送機株式会社 Picking system

Also Published As

Publication number Publication date
JPWO2020049999A1 (en) 2021-08-26
WO2020049999A1 (en) 2020-03-12
JP2023065371A (en) 2023-05-12
JP7374908B2 (en) 2023-11-07

Similar Documents

Publication Publication Date Title
JP7468722B2 (en) Manufacturing support system, method, and program
JP7488435B2 (en) AR-Corresponding Labeling Using Aligned CAD Models
US20180350056A1 (en) Augmented reality application for manufacturing
CN106340217B (en) Manufacturing equipment intelligence system and its implementation based on augmented reality
JP6223122B2 (en) Automatic reference frame calibration for augmented reality
US7558403B2 (en) Information processing apparatus and information processing method
CN108961144B (en) Image processing system
JP2017049658A (en) AR information display device
JP7471428B2 (en) SYSTEM, METHOD AND COMPUTER READABLE MEDIUM FOR USING VIRTUAL/AUGHTENT FOR INTERACTING WITH COLLABORATORY ROBOTS IN A MANUFACTURING OR INDUSTRIAL ENVIRONMENT - Patent application
Stanimirovic et al. [Poster] A Mobile Augmented reality system to assist auto mechanics
WO2018223038A1 (en) Augmented reality application for manufacturing
JP6803794B2 (en) Image processing equipment and manufacturing system
CN107422710A (en) The method and system of assembling product or plant maintenance are aided in based on AR
WO2023102637A1 (en) Interactive visualizations for industrial inspections
CN111427452B (en) Tracking method of controller and VR system
JP6061334B2 (en) AR system using optical see-through HMD
US20150286975A1 (en) Process support system and method
US20200005551A1 (en) Display control method and display control apparatus
US20230377471A1 (en) Control system for an augmented reality device
JP4926598B2 (en) Information processing method and information processing apparatus
US20240338886A1 (en) Recording medium, display data generation apparatus, and display data generation method
US11080942B2 (en) Assistance method for assisting performance of a task on a product, comprising displaying a highlighting image highlighting a monitored part of the product
US11636827B2 (en) Method for managing the display of a least one information item, and associated computer program product, information medium and display system
JP2020057298A (en) Determination device, determination method, and determination program
WO2024142304A1 (en) Information processing device, terminal, and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240318

R150 Certificate of patent or registration of utility model

Ref document number: 7468722

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150