JP7374908B2 - Manufacturing support systems, methods, programs - Google Patents
Manufacturing support systems, methods, programs Download PDFInfo
- Publication number
- JP7374908B2 JP7374908B2 JP2020541113A JP2020541113A JP7374908B2 JP 7374908 B2 JP7374908 B2 JP 7374908B2 JP 2020541113 A JP2020541113 A JP 2020541113A JP 2020541113 A JP2020541113 A JP 2020541113A JP 7374908 B2 JP7374908 B2 JP 7374908B2
- Authority
- JP
- Japan
- Prior art keywords
- parts
- assembly
- information
- identification information
- work
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004519 manufacturing process Methods 0.000 title claims description 50
- 238000000034 method Methods 0.000 title claims description 45
- 238000003860 storage Methods 0.000 claims description 65
- 239000004984 smart glass Substances 0.000 claims description 34
- 239000003550 marker Substances 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 12
- 238000003384 imaging method Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 4
- 230000006870 function Effects 0.000 description 19
- 230000008569 process Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 238000007689 inspection Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 239000000463 material Substances 0.000 description 5
- 210000003128 head Anatomy 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 210000001525 retina Anatomy 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000005856 abnormality Effects 0.000 description 3
- 238000011960 computer-aided design Methods 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 230000004270 retinal projection Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000011179 visual inspection Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B23—MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
- B23P—METAL-WORKING NOT OTHERWISE PROVIDED FOR; COMBINED OPERATIONS; UNIVERSAL MACHINE TOOLS
- B23P21/00—Machines for assembling a multiplicity of different parts to compose units, with or without preceding or subsequent working of such parts, e.g. with programme control
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/04—Manufacturing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Manufacturing & Machinery (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Health & Medical Sciences (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- General Factory Administration (AREA)
Description
本発明は、作業者による部品の組み付け作業を支援するための製造支援システム,方法,プログラムに関する。 The present invention relates to a manufacturing support system, method, and program for supporting parts assembly work by a worker.
従来、製造業の生産現場において、作業者に光透過型のヘッドマウントディスプレイを装着させ、作業内容や作業手順の指示などの情報を実景に重ねて表示(重畳表示)することで作業支援を実施するシステムが知られている。例えば、製品検査に際し、実際の検査対象物(実像)の近傍に合格画像(過去に合格と判定された検査対象物の画像)を表示することで、検査作業を支援する技術が提案されている。また、部品の組み付け作業において、特定の場所が強調されるように丸印で囲むことや、配線材の配索経路を表示することで作業性を向上させることも提案されている。これらの支援を実施することで、目視検査や組み付け作業の効率が改善されうる(特許文献1,2参照)。
Traditionally, work support has been provided at production sites in the manufacturing industry by having workers wear light-transmissive head-mounted displays that display information such as work content and work procedure instructions superimposed on the actual scene (superimposed display). There are systems known to do this. For example, a technology has been proposed that supports inspection work by displaying a passing image (an image of an inspection object that has been determined to pass in the past) near the actual inspection object (real image) during product inspection. . It has also been proposed to improve work efficiency by enclosing a specific location with a circle to emphasize it or by displaying the wiring route for wiring materials in the process of assembling parts. By implementing these supports, the efficiency of visual inspection and assembly work can be improved (see
ところで、組み付け作業の現場においては、専門用語や解読が困難な符号(情報伝達のために複数の記号を組み合わせたもの)を用いて作業内容が指示されることがあり、作業初心者には作業内容を正確に把握することすら難しいという側面もある。また、複数の部品が組み付け対象に組み付けられる作業では、作業者から見たときの組み付け対象の姿勢や向きによって、部品のレイアウトが違って見えることがある。そのため、部品の組み付け状態が合格画像と異なるように見える場合であっても、実際には適切な状態である場合がある。さらに、複数の部品を同時に確認することになるため、不適切な組み付け状態が目視検査で見過ごされることもある。このように、従来の作業支援システムでは、複数の部品が組み付けられる作業での組み付けミスが発生しやすく、作業効率を改善しにくいという課題がある。 By the way, at assembly work sites, work details are sometimes instructed using technical terms or codes that are difficult to decipher (combining multiple symbols to convey information), and beginners may not be able to understand the work details. There is also the aspect that it is difficult to even grasp accurately. Furthermore, in a work in which a plurality of parts are assembled to an assembly target, the layout of the parts may look different depending on the posture and orientation of the assembly target when viewed from the operator. Therefore, even if the assembled state of the parts appears to be different from the accepted image, it may actually be in an appropriate state. Furthermore, since multiple parts are checked at the same time, improper assembly may be overlooked during visual inspection. As described above, conventional work support systems have the problem that assembly errors are likely to occur during work in which a plurality of parts are assembled, making it difficult to improve work efficiency.
本件の目的の一つは、上記のような課題に鑑みて創案されたものであり、部品の組み付け作業に関する作業効率を改善できる製造支援システム,方法,プログラムを提供することである。なお、この目的に限らず、後述する「発明を実施するための形態」に示す各構成から導き出される作用効果であって、従来の技術では得られない作用効果を奏することも、本件の他の目的として位置付けることができる。 One of the purposes of this invention, which was created in view of the above-mentioned problems, is to provide a manufacturing support system, method, and program that can improve work efficiency regarding parts assembly work. In addition, this purpose is not limited to this purpose, and it is also possible to achieve effects derived from each configuration shown in "Details for Carrying Out the Invention" that will be described later, which cannot be obtained with conventional techniques. It can be positioned as a purpose.
(1)開示の製造支援システムは、作業者による部品の組み付け作業を支援するための製造支援システムである。本システムは、前記作業者の視界内の実景を撮影する撮影装置と前記実景に虚像を重畳表示する表示装置とを内蔵し、前記作業者の頭部に装着されるスマートグラスを備える。また、組み付け対象に対する複数の前記部品の組み付け位置及び組み付け向きの情報を含む組み付けパターンとこれに対応する識別情報との関係を規定する第一データベースを備える。また、前記組み付け対象に組み付けられる複数の前記部品の保管場所と各々の前記部品の個数である使用数と各々の前記部品の部品番号と前記識別情報との関係が規定された第二データベースを備える。さらに、前記作業者の視界内の実景の座標系に適合するように、前記部品の虚像を前記表示装置に表示させる制御装置を備える。 (1) The disclosed manufacturing support system is a manufacturing support system for supporting parts assembly work by a worker. This system includes a photographing device that photographs a real scene within the visual field of the worker, a display device that displays a virtual image superimposed on the real scene, and smart glasses that are worn on the worker's head. The apparatus also includes a first database that defines a relationship between an assembly pattern including information on the assembly positions and orientations of the plurality of parts to be assembled and identification information corresponding thereto. Further, the second database includes a storage location of the plurality of parts to be assembled to the assembly object, a usage number that is the number of each of the parts, a relationship between the part number of each of the parts and the identification information. . Furthermore, a control device is provided that causes the display device to display the virtual image of the component so as to match the coordinate system of the actual scene within the visual field of the worker.
前記制御装置には、抽出部,取得部,認識部,描画部が設けられる。前記抽出部は、前記撮影装置の撮影画像の中から、前記組み付け作業の内容が記載された作業指示書に含まれる前記識別情報を抽出する。前記取得部は、前記第一データベースに基づき、前記識別情報に対応する前記部品の組み付け位置及び組み付け向きの情報を含む組み付けパターンを取得する。前記認識部は、前記撮影装置の撮影画像の中から、前記組み付け対象を認識する。前記描画部は、前記組み付け対象に複数の前記部品が組み付けられた完成時の位置及び向きで複数の前記部品の虚像を描画する。また、前記取得部が、前記第二データベースに基づき、前記識別情報に対応する前記部品の保管場所の情報と前記部品の個数の情報とを取得するとともに、前記識別情報に対応する前記部品番号及び前記使用数の情報を取得し、前記認識部が、前記撮影装置の撮影画像の中から、前記保管場所を認識し、前記描画部が、前記部品の個数の情報を前記保管場所の近傍に表示するとともに、前記部品番号及び前記使用数の情報を前記組み付け対象の近傍に描画する。 The control device is provided with an extraction section, an acquisition section, a recognition section, and a drawing section. The extraction unit extracts the identification information included in a work instruction sheet in which the contents of the assembly work are described from among the images taken by the photographing device. The acquisition unit acquires an assembly pattern including information on an assembly position and assembly direction of the component corresponding to the identification information, based on the first database. The recognition unit recognizes the assembly target from among images taken by the photographing device. The drawing unit draws virtual images of the plurality of parts in the positions and orientations at the time of completion when the plurality of parts are assembled to the assembly target. Further, the acquisition unit acquires, based on the second database, information on the storage location of the part and information on the number of parts corresponding to the identification information, and the part number and number corresponding to the identification information. The information on the number of parts used is acquired, the recognition unit recognizes the storage location from the image taken by the imaging device, and the drawing unit displays information on the number of parts in the vicinity of the storage location. At the same time, information on the part number and the number of parts used is drawn near the assembly target.
(3)前記認識部が、前記撮影画像中における前記保管場所に設置されたマーカーを認識することが好ましい。
(4)前記制御装置が、判定部と強調表示部とを有することが好ましい。この場合、前記判定部は、前記撮影装置の撮影画像と前記識別情報とに基づき、前記部品の組み付け状態が前記組み付けパターンに一致するか否かを判定する。また、前記強調表示部は、前記部品の組み付け状態が前記組み付けパターンに一致しない部位を、前記作業者の視界内の実景の座標系に適合するように強調表示する。(3) It is preferable that the recognition unit recognizes a marker installed at the storage location in the photographed image.
(4) Preferably, the control device includes a determination section and a highlighting section. In this case, the determination unit determines whether the assembled state of the parts matches the assembly pattern based on the photographed image of the photographing device and the identification information. Further, the highlighting section highlights a portion where the assembled state of the parts does not match the assembly pattern so as to match the coordinate system of the actual scene within the field of view of the worker.
作業指示書に含まれる識別情報を抽出し、これに対応する位置,向きで部品の虚像を描画することで、組み付けられる部品の種類や数やレイアウトが作業指示書ごとに異なっている場合であっても、正しい位置,向きに組み付けの手本を示すことができ、組み付け作業を支援することができる。また、作業指示書ごとに異なる部品の組み付け状態を作業者が暗記しておく必要がなくなり、組み付けミスを削減でき、生産性(作業効率)を向上させることができる。 By extracting the identification information included in the work instructions and drawing a virtual image of the parts in the corresponding position and orientation, it is possible to eliminate the possibility that the type, number, and layout of parts to be assembled may differ depending on the work instructions. Even if the robot is not installed properly, it can show a model for assembly in the correct position and direction, and can support assembly work. Further, it is no longer necessary for the worker to memorize the assembly state of different parts for each work instruction, reducing assembly errors and improving productivity (work efficiency).
以下、図面を参照して実施形態としての製造支援システム,方法,プログラムについて説明する。以下に示す実施形態はあくまでも例示に過ぎず、以下の実施形態で明示しない種々の変形や技術の適用を排除する意図はない。本実施形態の各構成は、それらの趣旨を逸脱しない範囲で種々変形して実施することができる。また、必要に応じて取捨選択することができ、あるいは適宜組み合わせることができる。 Hereinafter, a manufacturing support system, method, and program as embodiments will be described with reference to the drawings. The embodiments shown below are merely illustrative, and there is no intention to exclude the application of various modifications and techniques not specified in the embodiments below. Each structure of this embodiment can be modified and implemented in various ways without departing from the spirit thereof. Further, they can be selected or combined as necessary.
本実施形態の製造支援システムは、作業者51による部品の組み付け作業を支援するウェアラブルガジェットを利用したシステムであり、図1に示すような自動車50の製造工程に適用される。ここでは、作業者51が資材保管棚53から部品を取り出して自動車50に組み付ける作業の支援について説明する。組み付けられる部品の具体例としては、リレー,スイッチ,ランプなどの電装品をはじめとして、ガラス,バンパー,パワートレーン,シート,タイヤなどが挙げられる。また、部品の組み付け対象(部品が組み付けられる装置)の具体例としては、リレーボックス,スイッチボックス,インストルメントパネル,ドア,車体などが挙げられる。部品の組み付け作業における組み付け対象及び部品の種類は多岐にわたり、本件の製造支援システム,方法,プログラムはあらゆる部品の組み付け作業に適用可能である。
The manufacturing support system of this embodiment is a system that uses a wearable gadget to support parts assembly work by a
作業支援の内容は、作業者51の頭部に装着されるスマートグラス10を利用した、視覚情報の提供である。図2に示すように、スマートグラス10は作業者51のヘルメット52に固定される。このスマートグラス10には、表示装置13と撮影装置16とが内蔵される。撮影装置16は、作業者51の視界内の実景や作業指示書54などを撮影するカメラである。また、表示装置13は、作業者51の視界内の実景に虚像を重畳表示するデバイスである。表示方式は、作業者51の網膜に虚像を投影する方式(網膜投影型)としてもよいし、ハーフミラーの表面に虚像を投影する方式(透過型)としてもよく、あるいは撮影装置16で撮影された実景と虚像とを合成した映像を表示する方式(非透過型)としてもよい。
The content of the work support is the provision of visual information using
いずれの方式においても、作業者51の視点で見える実景の座標系に適合するように、さまざまな虚像が表示される。この虚像は、実景の座標系に適合する透視投影画像(あるいはその透視投影画像をデフォルメしたもの)であり、例えば部品の三次元CAD(Computer-Aided Design)データに基づく簡易的なポリゴンモデルとしてレンダリングされる。なお、特許文献1,2のような既存の表示手法では、描画オブジェクトが二次元のオブジェクトである。これに対して本件の表示手法では、描画オブジェクトが三次元のオブジェクトとされ、各描画オブジェクトが実景の座標系内で仮想的に配置される。
In either method, various virtual images are displayed so as to match the coordinate system of the actual scene seen from the viewpoint of the
作業支援の内容は、任意の制御装置(電子計算機,コンピューター)によって制御される。ここでいう「電子制御装置」は、スマートグラス10に内蔵されたものであってもよいし、スマートグラス10とは別に用意されたものであってもよい。例えば、ネットワーク19上のサーバー30やワークステーションにプログラムをインストールしておき、そこで演算された表示内容をスマートグラス10に表示させるシステムとしてもよい。この場合、図2に示すように、中継器36を介してネットワーク19に接続されたサーバー30を利用してもよい。あるいは、ネットワーク19に接続されていない状態でも動作するプログラムをスマートグラス10にインストールしておいてもよい。
The content of work support is controlled by an arbitrary control device (electronic computer, computer). The "electronic control device" here may be built into the
[1.ハードウェア構成]
図3は、スマートグラス10とサーバー30との協働によって実現される製造支援システムのハードウェア構成を示すブロック図である。スマートグラス10には、記録媒体18(リムーバブルメディア)に記録されたプログラムを読み込むための記録媒体ドライブ11,記憶装置12,表示装置13,入力装置14,通信装置15,撮影装置16(カメラ),マイク17,電子制御装置20が設けられる。同様に、サーバー30にも、記録媒体ドライブ31,記憶装置32,表示装置33,入力装置34,通信装置35,電子制御装置40が内蔵される。それぞれの要素の機能は、スマートグラス10に内蔵される同一名称の要素とほぼ同様であることから説明を省略する。[1. Hardware configuration]
FIG. 3 is a block diagram showing the hardware configuration of a manufacturing support system realized by cooperation between the
記録媒体18は、例えばフラッシュメモリーカードやユニバーサルシリアルバス規格に準拠した半導体メモリ装置,光ディスクなどである。記録媒体ドライブ11は、記録媒体18に記録,保存された情報(プログラムやデータ)を読み取る読取装置である。記憶装置12は、長期的に保持されるデータやプログラムが格納されるメモリ装置であり、例えばフラッシュメモリやEEPROM(Electrically Erasable Programmable Read-Only Memory),ソリッドステートドライブなどの不揮発性メモリがこれに含まれる。
The
表示装置13は、作業者51に対して視覚情報を提供するためのデバイスの一つである。網膜投影型のデバイスでは、作業者51の網膜が結像面となる。一方、透過型や非透過型のデバイスでは、作業者51の視界内に配置されるハーフミラーやディスプレイ〔例えば液晶ディスプレイ(Liquid Crystal Display,LCD)や有機ELディスプレイ(Organic Electro-Luminescence Display,OELD)〕の表面が結像面となる。
The
入力装置14は、電子制御装置20,40への入力信号を入力するためのポインティングデバイスの一つである。入力装置14の具体例としては、無線キーボードや無線マウスなどのデバイスがスマートグラス10に接続可能である。また、スマートグラス10のテンプル(柄,側面側の部分)には、押しボタンや物理キーなどの入力装置14が設けられる。また、マイク17は作業者51の音声を入力信号として入力するためのデバイスである。
The
通信装置15は、スマートグラス10の外部との通信を司る装置であり、例えばネットワーク19を介してサーバー30との間で無線通信を行うためのデバイスである。図2に示す中継器36は、通信装置15に含まれるものと見なすことができる。近距離無線通信規格に準拠した入出力装置がスマートグラス10に接続される場合には、それらの入出力装置が通信装置15を介して接続される。
The
撮影装置16は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサを内蔵したディジタルビデオカメラである。この撮影装置16は、スマートグラス10のリム(レンズの周縁)やブリッジ(左右のレンズの接続部分)などに取り付けられ、スマートグラス10を装着した作業者51の視界を撮影するように機能する。撮影装置16で撮影された撮影画像の情報は、電子制御装置20やサーバー30に伝達される。なお、ここでいう「撮影画像」には、静止画像だけでなく動画中に含まれる1フレーム(1コマ)の画像も含まれる。
The photographing
撮影装置16の位置や撮影方向は、スマートグラス10に対して固定されており、表示装置13の位置もスマートグラス10に対して固定されている。したがって、スマートグラス10と作業者51の視線との関係が一定に保たれている限り、撮影装置16で撮影された実景と同じ環境内に存在するかのように見える虚像(すなわち、座標系が実景に適合する三次元のオブジェクト)を表示装置13で描画することができる。なお、撮影装置16で撮影された画像中の被写体について、三次元空間内での位置や姿勢を算出するには、公知のAR(Augmented Reality,拡張現実)開発ライブラリを利用することができる。また、実景に適合する三次元オブジェクトの描画には、公知の三次元レンダラーやAR描画エンジンを利用することができる。
The position and photographing direction of the photographing
電子制御装置20には、プロセッサ21(中央処理装置),メモリ22(メインメモリ,主記憶装置),補助記憶装置23,インタフェース装置24などが内蔵され、バス25を介して互いに通信可能に接続される。プロセッサ21は、制御ユニット(制御回路)や演算ユニット(演算回路),キャッシュメモリ(レジスタ群)などを内蔵する中央処理装置である。また、メモリ22は、プログラムや作業中のデータが格納される記憶装置であり、例えばROM(Read Only Memory),RAM(Random Access Memory)がこれに含まれる。
The
補助記憶装置23は、メモリ22よりも長期的に保持されるデータやファームウェアが格納されるメモリ装置であり、例えばフラッシュメモリやEEPROMなどの不揮発性メモリがこれに含まれる。また、インタフェース装置24は、電子制御装置20と外部との間の入出力(Input and Output;I/O)を司るものである。電子制御装置20は、インタフェース装置24を介して、記録媒体ドライブ11,記憶装置12,表示装置13,入力装置14,通信装置15などに接続される。
The
なお、サーバー30の電子制御装置40にも、プロセッサ41(中央処理装置),メモリ42(メインメモリ,主記憶装置),補助記憶装置43,インタフェース装置44などが内蔵され、バス45を介して互いに通信可能に接続される。それぞれの要素の機能は、電子制御装置20に内蔵される同一名称の要素とほぼ同様であることから説明を省略する。また、具体的な電子制御装置のハードウェア構成を上記の構成に限定する意図はなく、公知の各種構成を適用してもよい。
Note that the
[2.ソフトウェア構成]
図4は、スマートグラス10やサーバー30で実行される製造支援プログラム9の処理内容を説明するためのブロック図である。これらの処理内容は、アプリケーションプログラムとしてスマートグラス10及びサーバー30の記憶装置12,32や記録媒体18などに記録され、メモリー上に展開されて実行される。ここで実行される処理内容を機能的に分類すると、製造支援プログラム9には、抽出部3,取得部4,認識部5,描画部6,判定部7,強調表示部8が設けられる。また、これらの各要素が参照可能なデータベースとして、第一データベース1,第二データベース2が設けられる。[2. Software configuration]
FIG. 4 is a block diagram for explaining the processing contents of the
第一データベース1は、組み付け対象に対する部品の組み付けパターンとこれに対応する識別情報との関係を規定するものである。識別情報とは、作業者51に指示される作業内容を特定するための情報であり、例えば作業番号,作業対象車両番号,指示対象車両番号などと呼ばれる。本実施形態では、図2に示すように、作業番号が作業管理者から提示される作業指示書54に記載されているものとする。作業指示書54は、作業者51が組み付け作業を実施する前に、作業管理者から提示されるものとし、あるいは、組み付け対象となる自動車50に貼付されているものとする。
The
第一データベース1の内容を図5(A)に例示する。第一データベース1には、少なくとも組み付け作業を識別するための作業番号と、その作業で組み付けられる部品のレイアウト(組み付けパターン)を特定するための情報(組み付け位置,組み付け向き)との関係が規定される。その作業で組み付けられる部品の種類数が複数である場合には、一つの作業番号に対して複数種の部品の組み付けパターンが設定される。図5(A)に示す例では、作業番号「ABCDE01234」に対し、三種の部品(a-01,a-02,a-03)の組み付けパターンが設定されている。
The contents of the
なお、作業対象となる自動車50の車種やグレード,仕向地などが異なれば、部品の種類や組み付けパターンも異なるものとなる。一般に、自動車50の組み付け作業において、作業者51が習得すべき組み付けパターンは数十から数百パターンに及び、これらのパターンを暗記するのには数ヶ月から数年の経験が必要だと言われている。一方、本実施形態ではこれらのすべてのパターンが第一データベース1に規定され、作業番号に対して紐付けられる。これにより、作業者51は組み付けパターンの暗記作業から解放される。
Note that if the model, grade, destination, etc. of the
部品の組み付け位置は、組み付け対象(例えばリレーボックス)に固定された座標系を基準として、少なくとも三つのパラメーターで特定することができる。同様に、部品の組み付け向きについても、組み付け対象に固定された座標系を基準として、少なくとも三つのパラメーターで特定することができる。したがって、一つの部品のレイアウトを特定するための情報は、6つ以上のパラメーターを用いることで一意に特定することができる。 The assembly position of a component can be specified using at least three parameters based on a coordinate system fixed to an assembly target (for example, a relay box). Similarly, the direction in which the parts are to be assembled can be specified using at least three parameters based on a coordinate system fixed to the object to be assembled. Therefore, information for specifying the layout of one component can be uniquely specified by using six or more parameters.
第二データベース2は、上記の識別情報(作業番号)と部品の保管場所及び使用数(組み付けられる部品の個数)との関係を規定するものである。部品の保管場所とは、例えば図1に示す資材保管棚53に収納される多数の部品トレイのうち、どのトレイに入っている部品なのかを表す情報である。ある作業で使用される部品の保管場所が常に固定されている場合には、少なくとも三つのパラメーターで部品の位置(保管場所)を特定可能である。一方、作業状況によって部品の保管場所が変更される可能性がある場合には、保管場所を特定するための情報を第二データベース2の各レコードに付加することが好ましい。
The
図5(B)に示す例では、作業番号「ABCDE01234」で使用される部品「a-01」の使用数が3であり、その保管場所が場所コード「aA11bB22cC33dD44」となっている。その部品が実際に保管されている場所には、場所コード「aA11bB22cC33dD44」を表す文字列や記号やバーコード,二次元コードなどが掲示される。部品ごとに異なる場所コードを付与することで、各部品の保管場所が一意に特定されうる。 In the example shown in FIG. 5(B), the number of parts "a-01" used in the work number "ABCDE01234" is three, and its storage location is the location code "aA11bB22cC33dD44." At the location where the part is actually stored, a string of characters, symbols, barcodes, two-dimensional codes, etc. representing the location code ``aA11bB22cC33dD44'' will be posted. By assigning a different location code to each part, the storage location of each part can be uniquely identified.
抽出部3は、撮影装置16の撮影画像の中から、組み付け作業の内容が記載された作業指示書54に含まれる識別情報(作業番号)を抽出するものである。作業指示書54は、作業者51が部品の組み付け作業を実施する前に撮影されるものとする。本実施形態の抽出部3は、図2に示す作業指示書54のバーコードを読み取ることで、作業番号を抽出する機能を持つ。ここで抽出された作業番号の情報は、取得部4に伝達される。
The
取得部4は、二つの機能を有する。第一の機能は、第一データベース1に基づく情報取得であり、第二の機能は、第二データベース2に基づく情報取得である。ここで取得された情報は、描画部6に伝達される。
前者の機能は、第一データベース1に基づき、抽出部3で抽出された識別情報(作業番号)に対応する部品の組み付けパターンを取得するものである。例えば、抽出部3で抽出された作業番号が「ABCDE01234」である場合には、図5(A)に示す第一データベース1でこれに対応する三種の部品(a-01,a-02,a-03)のそれぞれについて、組み付けパターン(組み付け位置及び組み付け向きの情報)が取得される。
後者の機能は、第二データベース2に基づき、識別情報(作業番号)に対応する部品の保管場所及び使用数の情報を取得するものである。例えば、図5(B)に示す第二データベース2に基づき、三種の部品(a-01,a-02,a-03)のそれぞれについて、場所コード及び使用数の情報が取得される。The
The former function is to obtain, based on the
The latter function is to obtain, based on the
認識部5は、撮影装置16による撮影画像の中に存在する特定の物体やマークを認識するものである。認識部5は、少なくとも「部品の組み付け対象」を認識する機能を持つ。例えば、リレーの組み付け作業〔図5(A)中の作業番号「ABCDE01234」〕では、そのリレーが組み付けられるリレーボックス55が撮影画像の中にあるか否かが判定される。この判定では、リレーボックス55の三次元CADデータが参照される。図6(A)に示すように、撮影画像中にリレーボックス55が検出されると、撮影画像中の特徴点(リレーボックス55の端辺に含まれる点や頂点など)の分布に基づき、撮影位置(撮影装置16の位置)を基準としたリレーボックス55の位置及び姿勢が推定される。これにより、作業者51の視界内でのリレーボックス55の見え方が特定される。ここで特定される組み付け対象の位置及び姿勢の情報は、描画部6に伝達され、部品を描画するときに参照される。
The
また、認識部5は、撮影画像の中から「部品の保管場所」を認識する機能を併せ持つ。例えば、リレーの組み付け作業〔図5(B)中の作業番号「ABCDE01234」〕では、場所コード「aA11bB22cC33dD44」を表す文字列や記号や二次元コードなどが認識される。図7(A)に示すように、撮影画像中に場所コードを表すマーカー58が検出されると、そのマーカー58の位置や形状に基づき、撮影位置を基準としたマーカー58の位置や姿勢が推定される。ここで認識される部品の保管場所の情報も、描画部6に伝達される。
The
描画部6は、部品の組み付け時に表示装置13の表示内容を制御するものであり、おもに三つの機能を有する。第一の機能は、組み付け対象に部品が組み付けられた完成時の位置及び向きで、部品の虚像を描画するものである。ここでいう「虚像」とは、部品の組み付けが完了したときの状態(完成図)を示すものであり、組み付け作業の「手本」となるものである。これを参照しながら組み付け作業を実施することで、作業経験の浅い作業者51であっても組み付けミスをしにくくなり、作業効率が向上する。
The
部品の虚像は、認識部5で認識された組み付け対象に座標系が適合するように描画される。例えば、図6(A)に示すリレーボックス55に対する部品の虚像は、リレーボックス55に組み付けされた状態に相当する位置及び姿勢で描画される。図6(B)は、ここで描画される部品の虚像のみを取り出して示すものである。リレーボックス55と部品の虚像とを重畳させることで、図6(C)に示すように、あたかもリレーボックス55の上に部品が存在しているかのように見せることができる。
The virtual image of the part is drawn so that the coordinate system matches the assembly target recognized by the
描画部6における第二の機能は、組み付け作業で使用される部品の個数(使用数)の情報をリレーボックス55の近傍に描画する機能であり、第三の機能は、その個数の情報を保管場所の近傍に描画するものである。個数の情報をリレーボックス55の近傍に表示する際には、図6(B)に示すように、リレーボックス55に組み付けられる部品に重ならない位置に描画することが好ましい。また、リレーボックス55に対して各部品が組み付けられる面が平面状であるとすれば、各部品の虚像をその平面上で配列することが好ましい。同様に、個数の情報を保管場所の近傍に描画する際には、図7(B)に示すように、マーカー58や部品トレイに重ならない位置に描画することが好ましい。なお、部品の個数だけでなく部品番号や部品の外観などを一緒に表示することで、保管の状態をよりわかりやすく伝達してもよい。
The second function of the
判定部7は、部品の組み付け作業が完了したときに、その作業内容が適切であるか否かを自動的に判定するものである。ここでは、撮影画像と識別情報(作業番号)とに基づき、部品の組み付け状態が第一データベース1に規定された組み付けパターンに一致するか否かが判定される。例えば、撮影画像中の各部品を特定し、組み付け対象に対する各部品の位置及び姿勢を推定することで、組み付けパターンとの比較を実施してもよい。あるいは、あらかじめ用意された完成状態の画像と撮影画像とを比較してもよい。
The
本実施形態の判定部7は、学習済みのオートエンコーダを利用して、部品の組み付け状態を判定する。具体的には、撮影画像をオートエンコーダに入力し、その出力画像を取得するとともに、入力画像と出力画像との差異を算出する。オートエンコーダの学習データとしては、部品が正しく組み付けられた組み付け対象をさまざまな位置,角度から撮影した数千枚の画像が用いられる。このようなオートエンコーダに撮影画像を入力したとき、その撮影画像中の組み付け状態が適切であれば、出力される画像が入力画像とほぼ同一の画像となる。一方、組み付け状態に不適切な箇所があれば、その箇所の像が「正しい組み付け状態に近い像」に変換されて出力される。つまり、組み付け状態が不適切な箇所は、オートエンコーダに対する入力画像と出力画像との差異として検出可能である。そこで判定部7は、入力画像と出力画像との差異を算出し、その差異が所定のしきい値以上となる箇所を「異常度が高い箇所」として算出する。
The
強調表示部8は、判定部7で判定された「異常度が高い箇所」を強調表示するものである。ここでは、部品の組み付け状態が組み付けパターンに一致しない部位が、作業者の視界内の実景の座標系に適合するように強調表示される。本実施形態の強調表示部8は、「異常度が高い箇所」を赤くハイライトした画像を表示装置13に表示する機能を持つ。これにより、図8に示すように、組み付け状態が不適切な箇所が強調され、組み付けミスの存在が作業者51にわかりやすく伝達される。
The highlighting
[3.フローチャート]
図9は、部品の組み付け工程の流れを説明するためのフローチャートである。本フロー中のフラグAは、識別情報(作業番号)が読み取られた状態であるか否かを表すものであり、識別情報が読み取られていない初期状態ではA=0に設定されている。まず、撮影装置16で撮影画像が撮影され、その内容が認識される(ステップA1)。また、フラグAの値が判定され(ステップA2)、A=0であるときには撮影画像中に作業指示書54が認識されたか否かが判定される(ステップA3)。[3. flowchart]
FIG. 9 is a flowchart for explaining the flow of the parts assembly process. Flag A in this flow indicates whether the identification information (work number) has been read or not, and is set to A=0 in the initial state where the identification information has not been read. First, a photographed image is photographed by the photographing
ここで、作業指示書54が認識されると、作業指示書54に記載されている作業番号を抽出部3が抽出する(ステップA4)。これを受けて取得部4は第一データベース1を参照し、作業番号に対応する部品の組み付けパターンを取得する(ステップA5)。また、取得部4は第二データベース2を参照して、作業番号に対応する部品の保管場所,使用数の情報を取得する(ステップA6)。その後、フラグAの値がA=1に設定される(ステップA7)。次回以降の演算周期では、制御がステップA1からステップA8へと進行する。
Here, when the
ステップA8では、撮影画像中に場所コードを表すマーカー58が認識されたか否かが判定される。ここでマーカー58が検出されている場合には、図7(B)に示すように、部品の保管場所や使用数の情報がスマートグラス10の表示装置13に表示される。作業者51は、これを参照しながら部品を資材保管棚53から取り出し、組み付け作業の準備を整えることができる。また、ステップA10では、部品の組み付け対象が認識されたか否かが判定される。ここで組み付け対象が認識されている場合には、図6(C)に示すように、部品の虚像が表示装置13に表示される。作業者51は、これを参照しながら部品を組み付けることができる。
In step A8, it is determined whether the
図10は、部品の組み付け完了時における検査工程の流れを説明するためのフローチャートである。検査工程は、組み付け作業が完了したときに、作業者51が所定の入力操作(例えば、所定の音声指示やボタン操作など)を行うことで開始されるようにしてもよい。あるいは画像解析により部品の組み付け作業が完了したことを自動的に検知して、検査工程を開始してもよい。
FIG. 10 is a flowchart for explaining the flow of the inspection process when the assembly of parts is completed. The inspection process may be started by the
前者の場合、ステップB1において、作業者51による入力操作に関する各種情報が入力される。ここで、所定の検査開始条件(例えば、所定の音声指示がなされること)が成立すると(ステップB2)、撮影装置16での撮影画像が入力画像としてオートエンコーダに入力され、その出力画像が取得される(ステップB3)。また、入力画像と出力画像との差異が算出されるとともに、その差異がしきい値以上となる箇所が強調表示される。作業者51は、これを参照しながら不適切な組み付け状態を是正することができる。
In the former case, various information regarding input operations by the
[4.作用・効果]
(1)上記の製造支援システム,方法,プログラムでは、作業指示書54に含まれる識別情報(作業番号)が抽出され、これに対応する位置、向きで部品の虚像が描画される。また、識別情報(作業番号)と部品の組み付けパターンとの関係は、第一データベース1にあらかじめ規定される。これにより、組み付け作業に係る部品の種類や使用数,レイアウトが作業指示書54ごとに異なっている場合であっても、正しい位置かつ正しい向きで部品の組み付けの手本を示すことができ、組み付け作業を支援することができる。[4. Action/Effect]
(1) In the manufacturing support system, method, and program described above, the identification information (work number) included in the
また、作業者51は作業指示書54ごとに異なる部品の組み付けパターンを暗記しておく必要がなくなり、組み付けミスを削減することができる。さらに、組み付け作業中は常に手本となる虚像が表示されているため、作業者51が誤った組み付けを覚えてしまう懸念がなくなり、作業者51の習熟度を迅速に高めることができる。したがって、部品の組み付け作業に関する作業効率(生産性)を向上させることができる。
Furthermore, the
(2)識別情報(作業番号)と部品の保管場所及び使用数との関係は、第二データベース2にあらかじめ規定される。これを用いて、部品の保管場所の近傍に使用数の情報を描画することで、部品の取り違えミスを予防することができる。例えば、外観が類似する複数の部品が混在する組み付け作業において、ピックアップミス(部品の取り出し間違い)を削減することができる。したがって、組み付け作業における不良率を低減させることができ、作業効率をさらに向上させることができる。
(2) The relationship between the identification information (work number) and the storage location and number of parts used is defined in the
(3)図7(A)に示すように、マーカー58を用いて部品の保管場所を特定することで、部品の仕様変更や保管場所の変更に対して柔軟に対応することが可能となり、作業効率をさらに向上させることができる。例えば、部品の保管場所が変更されたときには、部品と一緒にマーカー58も移動させればよい。なお、部品の種類や保管場所が変更されない場合には、マーカー58の代わりにその部品の外観や保管場所の外観などに基づく支援を実施してもよい。
(3) As shown in FIG. 7(A), by specifying the storage location of parts using the
(4)図8に示すように、組み付け状態の異常度が高い箇所を実景の座標系に適合するように強調表示することで、その箇所を作業者51に気付かせやすくすることができる。これにより、組み付けミスを直ちに修正することができ、作業効率をさらに向上させることができる。また、作業者51の記憶違いや勘違いなどに由来する組み付け上の不具合が即座にフィードバックされるため、作業者51の習熟度を迅速に高めることができ、短期間での人材育成が可能となる。
(4) As shown in FIG. 8, by highlighting a location with a high degree of abnormality in the assembly state so as to match the coordinate system of the actual scene, it is possible to make the
[5.変形例]
上記の実施形態はあくまでも例示に過ぎず、本実施形態で明示しない種々の変形や技術の適用を排除する意図はない。本実施形態の各構成は、それらの趣旨を逸脱しない範囲で種々変形して実施することができる。また、必要に応じて取捨選択することができ、あるいは適宜組み合わせることができる。[5. Modified example]
The above-described embodiment is merely an example, and there is no intention to exclude the application of various modifications and techniques not explicitly described in this embodiment. Each structure of this embodiment can be modified and implemented in various ways without departing from the spirit thereof. Further, they can be selected or combined as necessary.
例えば、スマートグラス10にモーションセンサー(加速度センサー,方位センサー,ジャイロセンサー,地磁気センサーなど)を内蔵させてもよい。モーションセンサーで表示装置13及び撮影装置16の姿勢を高精度に把握することで、作業者51の視界内の実景や被写体の位置,姿勢をより正確に推定することが可能となり、実景に対する虚像の重畳精度を向上させることができ、虚像の現実感や臨場感を高めることができる。
For example, the
本件における製造支援システム,製造支援方法,製造支援プログラムの最小構成は、第一データベース1,抽出部3,取得部4,認識部5,描画部6を備えたものである。これらの各要素が保存される装置は、任意に設定可能であるとともに、複数の装置に機能を分散させて配置することも可能である。機能を分散させる場合、少なくとも複数の装置同士が有線または無線で通信可能に接続されていればよい。
The minimum configuration of the manufacturing support system, manufacturing support method, and manufacturing support program in this case includes a
上記の機能の分散に関して、図11(A)に示すように、表示装置13の描画に関する要素(例えば、描画部6,強調表示部8)をスマートグラス10に担当させ、それ以外の要素(例えば、抽出部3,取得部4,認識部5,判定部7)を組み付け作業用コンピューター59に担当させてもよい。また、第一データベース1や第二データベース2は、生産指令サーバー60に保存しておいてもよい。生産指令サーバー60は、生産ラインの稼働状態や生産ロボットの動作を制御する大型コンピューターであり、組み付け作業用コンピューター59に対して有線ケーブルで接続される。また、組み付け作業用コンピューター59は、組み付け作業が実施される作業場の近傍に配置されるコンピューターであり、スマートグラス10に対し、中継器36を介して無線で接続される。
Regarding the distribution of the above-mentioned functions, as shown in FIG. ,
このような装置構成により、スマートグラス10に内蔵される電子制御装置20の演算処理能力が低い場合であっても、実景に適合する虚像を精度良く表示装置13に表示させることが可能となる。また、生産指令サーバー60にデータベース1,2を配置することで、既存の生産システムで用いられているデータベースを利用した作業支援が容易となる。なお、スマートグラス10に十分な演算処理能力が期待できる場合には、図11(B)に示すように、スマートグラス10単体で動作しうるシステムを構成してもよい。この場合、他のコンピューターとの通信が不要となることから、オフライン環境での作業支援が可能となる。
With such a device configuration, even if the
[6.付記]
上記の変形例を含む実施形態に関し、以下の付記を開示する。
[付記1]
視界内の実景を撮影する撮影装置と前記実景に虚像を重畳表示する表示装置とを内蔵するスマートグラスを頭部に装着した作業者に対し、前記実景の座標系に適合する虚像を前記表示装置に表示させることによって、部品の組み付け作業を支援する製造支援方法であって、
前記撮影装置の撮影画像の中から、前記組み付け作業の内容が記載された作業指示書に含まれる前記識別情報を抽出し、
組み付け対象に対する複数の前記部品の組み付けパターンとこれに対応する識別情報との関係が規定された第一データベースに基づき、前記識別情報に対応する前記部品の組み付けパターンを取得し、
前記撮影装置の撮影画像の中から、前記組み付け対象を認識し、
前記組み付け対象に前記部品が組み付けられた完成時の位置及び向きで前記部品の虚像を描画する
ことを特徴とする、製造支援方法。[6. Additional notes]
Regarding the embodiments including the above-mentioned modifications, the following additional notes are disclosed.
[Additional note 1]
A worker wearing smart glasses on his/her head that includes a photographing device that photographs a real scene within the field of view and a display device that superimposes and displays a virtual image on the real scene is asked to display a virtual image that matches the coordinate system of the real scene on the display device. A manufacturing support method for supporting parts assembly work by displaying the
extracting the identification information included in a work instruction sheet in which the content of the assembly work is described from among the images taken by the photographing device;
obtaining an assembly pattern of the component corresponding to the identification information based on a first database in which a relationship between the assembly pattern of the plurality of components to be assembled and the corresponding identification information is defined;
Recognizing the assembly target from the image taken by the photographing device,
A manufacturing support method, characterized in that a virtual image of the part is drawn in the position and orientation at the time of completion when the part is assembled to the assembly target.
[付記2]
前記部品の保管場所と前記組み付け対象に組み付けられる前記部品の個数と前記識別情報との関係が規定された第二データベースに基づき、前記識別情報に対応する前記部品の保管場所の情報と前記部品の個数の情報とを取得し、
前記撮影装置の撮影画像の中から、前記保管場所を認識し、
前記部品の個数の情報を前記保管場所の近傍に表示する
ことを特徴とする、付記1記載の製造支援方法。[Additional note 2]
Based on a second database that defines the relationship between the storage location of the parts, the number of parts to be assembled to the assembly target, and the identification information, the information on the storage location of the parts corresponding to the identification information and the information on the parts Obtain information on the number of pieces,
Recognizing the storage location from among images taken by the imaging device;
The manufacturing support method according to
[付記3]
前記撮影画像中における前記保管場所に設置されたマーカーを認識する
ことを特徴とする、付記2記載の製造支援方法。[Additional note 3]
The manufacturing support method according to
[付記4]
前記撮影装置の撮影画像と前記識別情報とに基づき、前記部品の組み付け状態が前記組み付けパターンに一致するか否かを判定し、
前記部品の組み付け状態が前記組み付けパターンに一致しない部位を、前記作業者の視界内の実景の座標系に適合するように強調表示する
ことを特徴とする、付記1~3のいずれか1項に記載の製造支援方法。[Additional note 4]
Determining whether the assembled state of the parts matches the assembly pattern based on the photographed image of the photographing device and the identification information,
According to any one of
[付記5]
視界内の実景を撮影する撮影装置と前記実景に虚像を重畳表示する表示装置とを内蔵するスマートグラスを頭部に装着した作業者に対し、前記実景の座標系に適合する虚像を前記表示装置に表示させることによって、部品の組み付け作業を支援する製造支援プログラムであって、
前記撮影装置の撮影画像の中から、前記組み付け作業の内容が記載された作業指示書に含まれる前記識別情報を抽出し、
組み付け対象に対する複数の前記部品の組み付けパターンとこれに対応する識別情報との関係が規定された第一データベースに基づき、前記識別情報に対応する前記部品の組み付けパターンを取得し、
前記撮影装置の撮影画像の中から、前記組み付け対象を認識し、
前記組み付け対象に前記部品が組み付けられた完成時の位置及び向きで前記部品の虚像を描画する
処理をコンピューターに実行させる、製造支援プログラム。[Additional note 5]
A worker wearing smart glasses on his/her head that includes a photographing device that photographs a real scene within the field of view and a display device that superimposes and displays a virtual image on the real scene is asked to display a virtual image that matches the coordinate system of the real scene on the display device. A manufacturing support program that supports parts assembly work by displaying
extracting the identification information included in a work instruction sheet in which the content of the assembly work is described from among the images taken by the photographing device;
obtaining an assembly pattern of the component corresponding to the identification information based on a first database in which a relationship between the assembly pattern of the plurality of components to be assembled and the corresponding identification information is defined;
Recognizing the assembly target from the image taken by the photographing device,
A manufacturing support program that causes a computer to execute a process of drawing a virtual image of the part in a completed position and orientation when the part is assembled to the assembly target.
[付記6]
前記部品の保管場所と前記組み付け対象に組み付けられる前記部品の個数と前記識別情報との関係が規定された第二データベースに基づき、前記識別情報に対応する前記部品の保管場所の情報と前記部品の個数の情報とを取得し、
前記撮影装置の撮影画像の中から、前記保管場所を認識し、
前記部品の個数の情報を前記保管場所の近傍に表示する
処理をコンピューターに実行させる、付記5記載の製造支援プログラム。[Additional note 6]
Based on a second database that defines the relationship between the storage location of the parts, the number of parts to be assembled to the assembly target, and the identification information, the information on the storage location of the parts corresponding to the identification information and the information on the parts Obtain information on the number of pieces,
Recognizing the storage location from among images taken by the imaging device;
The manufacturing support program according to
[付記7]
前記撮影画像中における前記保管場所に設置されたマーカーを認識する
処理をコンピューターに実行させる、付記6記載の製造支援プログラム。[Additional note 7]
The manufacturing support program according to
[付記8]
前記撮影装置の撮影画像と前記識別情報とに基づき、前記部品の組み付け状態が前記組み付けパターンに一致するか否かを判定し、
前記部品の組み付け状態が前記組み付けパターンに一致しない部位を、前記作業者の視界内の実景の座標系に適合するように強調表示する
処理をコンピューターに実行させる、付記5~7のいずれか1項に記載の製造支援プログラム。[Additional note 8]
Determining whether the assembled state of the parts matches the assembly pattern based on the photographed image of the photographing device and the identification information,
Any one of
1 第一データベース
2 第二データベース
3 抽出部
4 取得部
5 認識部
6 描画部
7 判定部
8 強調表示部
9 製造支援プログラム
10 スマートグラス
13 表示装置
16 撮影装置
30 サーバー
50 自動車
51 作業者
52 ヘルメット
53 資材保管棚
54 作業指示書
55 リレーボックス(組み付け対象)
56 リレー(部品)
1
56 Relay (parts)
Claims (5)
前記作業者の視界内の実景を撮影する撮影装置と前記実景に虚像を重畳表示する表示装置とを内蔵し、前記作業者の頭部に装着されるスマートグラスと、
組み付け対象に対する複数の前記部品の組み付け位置及び組み付け向きの情報を含む組み付けパターンとこれに対応する識別情報との関係を規定する第一データベースと、
前記組み付け対象に組み付けられる複数の前記部品の保管場所と各々の前記部品の個数である使用数と各々の前記部品の部品番号と前記識別情報との関係が規定された第二データベースと、
前記作業者の視界内の実景の座標系に適合するように、前記部品の虚像を前記表示装置に表示させる制御装置とを備え、
前記制御装置が、
前記撮影装置の撮影画像の中から、前記組み付け作業の内容が記載された作業指示書に含まれる前記識別情報を抽出する抽出部と、
前記第一データベースに基づき、前記識別情報に対応する前記部品の組み付け位置及び組み付け向きの情報を含む組み付けパターンを取得する取得部と、
前記撮影装置の撮影画像の中から、前記組み付け対象を認識する認識部と、
前記組み付け対象に複数の前記部品が組み付けられた完成時の位置及び向きで複数の前記部品の虚像を描画する描画部とを有し、
前記取得部が、前記第二データベースに基づき、前記識別情報に対応する前記部品の保管場所の情報と前記部品の個数の情報とを取得するとともに、前記識別情報に対応する前記部品番号及び前記使用数の情報を取得し、
前記認識部が、前記撮影装置の撮影画像の中から、前記保管場所を認識し、
前記描画部が、前記部品の個数の情報を前記保管場所の近傍に表示するとともに、前記部品番号及び前記使用数の情報を前記組み付け対象の近傍に描画する
ことを特徴とする、製造支援システム。 A manufacturing support system for supporting parts assembly work by workers,
smart glasses that are attached to the head of the worker and include a photographing device that captures a real scene within the field of view of the worker and a display device that displays a virtual image superimposed on the real scene;
a first database that defines a relationship between an assembly pattern that includes information on the assembly position and orientation of the plurality of parts with respect to the assembly target and identification information corresponding thereto;
a second database in which a relationship between a storage location of a plurality of the parts to be assembled to the assembly object, a number of used parts (the number of each of the parts), a part number of each of the parts, and the identification information is defined;
a control device for displaying a virtual image of the part on the display device so as to match the coordinate system of the actual scene within the field of view of the worker;
The control device,
an extraction unit that extracts the identification information included in a work instruction in which the content of the assembly work is described from among images taken by the imaging device;
an acquisition unit that acquires an assembly pattern including information on the assembly position and assembly orientation of the component corresponding to the identification information, based on the first database;
a recognition unit that recognizes the assembly target from among images taken by the photographing device;
a drawing unit that draws virtual images of the plurality of parts in the completed positions and orientations when the plurality of parts are assembled to the assembly target,
The acquisition unit acquires, based on the second database, information on the storage location of the part and information on the number of parts that correspond to the identification information, and also acquires information on the part number and the usage that correspond to the identification information. obtain information on the number of
the recognition unit recognizes the storage location from among images taken by the imaging device;
The drawing unit displays information on the number of parts near the storage location, and draws information on the part number and the number of parts used near the assembly target.
A manufacturing support system characterized by:
ことを特徴とする、請求項1記載の製造支援システム。 2. The manufacturing support system according to claim 1 , wherein the recognition unit recognizes a marker placed at the storage location in the photographed image.
前記撮影装置の撮影画像と前記識別情報とに基づき、前記部品の組み付け状態が前記組み付けパターンに一致するか否かを判定する判定部と、
前記部品の組み付け状態が前記組み付けパターンに一致しない部位を、前記作業者の視界内の実景の座標系に適合するように強調表示する強調表示部とを有する
ことを特徴とする、請求項1又は2記載の製造支援システム。 The control device includes:
a determination unit that determines whether the assembled state of the parts matches the assembly pattern based on the image taken by the photographing device and the identification information;
2. The method according to claim 1, further comprising a highlighting section that highlights a portion where the assembly state of the parts does not match the assembly pattern so as to match the coordinate system of the actual scene within the field of view of the worker. 2. The manufacturing support system described in 2 .
前記撮影装置の撮影画像の中から、前記組み付け作業の内容が記載された作業指示書に含まれる前記識別情報を抽出し、
組み付け対象に対する複数の前記部品の組み付け位置及び組み付け向きの情報を含む組み付けパターンとこれに対応する識別情報との関係が規定された第一データベースに基づき、前記識別情報に対応する前記部品の組み付け位置及び組み付け向きの情報を含む組み付けパターンを取得し、
前記撮影装置の撮影画像の中から、前記組み付け対象を認識し、
前記組み付け対象に複数の前記部品が組み付けられた完成時の位置及び向きで複数の前記部品の虚像を描画し、
前記組み付け対象に組み付けられる複数の前記部品の保管場所と各々の前記部品の個数である使用数と各々の前記部品の部品番号と前記識別情報との関係が規定された第二データベースに基づき、前記識別情報に対応する前記部品の保管場所の情報と前記部品の個数の情報とを取得するとともに、前記識別情報に対応する前記部品番号及び前記使用数の情報を取得し、
前記撮影装置の撮影画像の中から、前記保管場所を認識し、
前記部品の個数の情報を前記保管場所の近傍に表示するとともに、前記部品番号及び前記使用数の情報を前記組み付け対象の近傍に描画する
ことを特徴とする、製造支援方法。 A worker wearing smart glasses on his/her head that includes a photographing device that photographs a real scene within the field of view and a display device that superimposes and displays a virtual image on the real scene is asked to display a virtual image that matches the coordinate system of the real scene on the display device. A manufacturing support method for supporting parts assembly work by displaying the
extracting the identification information included in a work instruction sheet in which the content of the assembly work is described from among the images taken by the photographing device;
Based on a first database in which a relationship between an assembly pattern including information on the assembly positions and orientations of the plurality of parts to be assembled and the corresponding identification information is defined, the assembly position of the part corresponding to the identification information is determined. and obtain an assembly pattern including information on the assembly orientation,
Recognizing the assembly target from the image taken by the photographing device,
drawing virtual images of the plurality of parts in the completed positions and orientations when the plurality of parts are assembled to the assembly target ;
Based on a second database in which the relationship between the storage location of the plurality of parts to be assembled to the assembly object, the number of used parts (the number of each part), the part number of each part, and the identification information is defined, Obtaining information on the storage location of the part and information on the number of parts corresponding to the identification information, and obtaining information on the part number and the number of parts used corresponding to the identification information,
Recognizing the storage location from among images taken by the imaging device;
Information on the number of parts is displayed near the storage location, and information on the part number and the number of parts used is drawn near the assembly target.
A manufacturing support method characterized by:
前記撮影装置の撮影画像の中から、前記組み付け作業の内容が記載された作業指示書に含まれる前記識別情報を抽出し、
組み付け対象に対する複数の前記部品の組み付け位置及び組み付け向きの情報を含む組み付けパターンとこれに対応する識別情報との関係が規定された第一データベースに基づき、前記識別情報に対応する前記部品の組み付け位置及び組み付け向きの情報を含む組み付けパターンを取得し、
前記撮影装置の撮影画像の中から、前記組み付け対象を認識し、
前記組み付け対象に複数の前記部品が組み付けられた完成時の位置及び向きで複数の前記部品の虚像を描画し、
前記組み付け対象に組み付けられる複数の前記部品の保管場所と各々の前記部品の個数である使用数と各々の前記部品の部品番号と前記識別情報との関係が規定された第二データベースに基づき、前記識別情報に対応する前記部品の保管場所の情報と前記部品の個数の情報とを取得するとともに、前記識別情報に対応する前記部品番号及び前記使用数の情報を取得し、
前記撮影装置の撮影画像の中から、前記保管場所を認識し、
前記部品の個数の情報を前記保管場所の近傍に表示するとともに、前記部品番号及び前記使用数の情報を前記組み付け対象の近傍に描画する
処理をコンピューターに実行させる、製造支援プログラム。 A worker wearing smart glasses on his/her head that includes a photographing device that photographs a real scene within the field of view and a display device that superimposes and displays a virtual image on the real scene is asked to display a virtual image that matches the coordinate system of the real scene on the display device. A manufacturing support program that supports parts assembly work by displaying
extracting the identification information included in a work instruction sheet in which the content of the assembly work is described from among the images taken by the photographing device;
Based on a first database in which a relationship between an assembly pattern including information on the assembly positions and orientations of the plurality of parts to be assembled and the corresponding identification information is defined, the assembly position of the part corresponding to the identification information is determined. and obtain an assembly pattern including information on the assembly orientation,
Recognizing the assembly target from the image taken by the photographing device,
drawing virtual images of the plurality of parts in the completed positions and orientations when the plurality of parts are assembled to the assembly target ;
Based on a second database in which the relationship between the storage location of the plurality of parts to be assembled to the assembly object, the number of used parts (the number of each part), the part number of each part, and the identification information is defined, Obtaining information on the storage location of the part and information on the number of parts corresponding to the identification information, and obtaining information on the part number and the number of parts used corresponding to the identification information,
Recognizing the storage location from among images taken by the imaging device;
Information on the number of parts is displayed near the storage location, and information on the part number and the number of parts used is drawn near the assembly target.
A manufacturing support program that allows a computer to perform processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023013855A JP7468722B2 (en) | 2018-09-03 | 2023-02-01 | Manufacturing support system, method, and program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018164219 | 2018-09-03 | ||
JP2018164219 | 2018-09-03 | ||
PCT/JP2019/032359 WO2020049999A1 (en) | 2018-09-03 | 2019-08-20 | Manufacturing assistance system, method, and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023013855A Division JP7468722B2 (en) | 2018-09-03 | 2023-02-01 | Manufacturing support system, method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020049999A1 JPWO2020049999A1 (en) | 2021-08-26 |
JP7374908B2 true JP7374908B2 (en) | 2023-11-07 |
Family
ID=69722914
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020541113A Active JP7374908B2 (en) | 2018-09-03 | 2019-08-20 | Manufacturing support systems, methods, programs |
JP2023013855A Active JP7468722B2 (en) | 2018-09-03 | 2023-02-01 | Manufacturing support system, method, and program |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023013855A Active JP7468722B2 (en) | 2018-09-03 | 2023-02-01 | Manufacturing support system, method, and program |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP7374908B2 (en) |
WO (1) | WO2020049999A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114554163B (en) * | 2022-04-25 | 2022-08-19 | 深圳酷源数联科技有限公司 | Coal mine underground operation monitoring system |
JP2024072013A (en) * | 2022-11-15 | 2024-05-27 | トヨタ紡織株式会社 | Inspection apparatus |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012218037A (en) | 2011-04-11 | 2012-11-12 | Murata Machinery Ltd | Sheet metal process work support system |
JP2014215748A (en) | 2013-04-24 | 2014-11-17 | 川崎重工業株式会社 | Component mounting work supporting system, and component mounting method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5895792B2 (en) * | 2012-09-28 | 2016-03-30 | ブラザー工業株式会社 | Work assistance system and program |
JP6261691B2 (en) * | 2016-09-13 | 2018-01-17 | オークラ輸送機株式会社 | Picking system |
-
2019
- 2019-08-20 WO PCT/JP2019/032359 patent/WO2020049999A1/en active Application Filing
- 2019-08-20 JP JP2020541113A patent/JP7374908B2/en active Active
-
2023
- 2023-02-01 JP JP2023013855A patent/JP7468722B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012218037A (en) | 2011-04-11 | 2012-11-12 | Murata Machinery Ltd | Sheet metal process work support system |
JP2014215748A (en) | 2013-04-24 | 2014-11-17 | 川崎重工業株式会社 | Component mounting work supporting system, and component mounting method |
Non-Patent Citations (1)
Title |
---|
荒井 観,プロジェクションマッピングを用いた基板製造作業支援システム,ヒューマンインタフェース学会 論文誌 2017,日本,ヒューマンインタフェース学会,2017年12月31日,第19巻 第3号,p.271-282 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2020049999A1 (en) | 2021-08-26 |
WO2020049999A1 (en) | 2020-03-12 |
JP7468722B2 (en) | 2024-04-16 |
JP2023065371A (en) | 2023-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7468722B2 (en) | Manufacturing support system, method, and program | |
JP7488435B2 (en) | AR-Corresponding Labeling Using Aligned CAD Models | |
Eswaran et al. | Augmented reality-based guidance in product assembly and maintenance/repair perspective: A state of the art review on challenges and opportunities | |
CN106340217B (en) | Manufacturing equipment intelligence system and its implementation based on augmented reality | |
JP6889574B2 (en) | Robot setting device, robot setting method, robot setting program, computer-readable recording medium, and recording equipment | |
JP6877191B2 (en) | Image processing equipment, image processing methods, image processing programs and computer-readable recording media | |
EP3111297B1 (en) | Tracking objects during processes | |
JP2017049658A (en) | AR information display device | |
JP2021121461A (en) | Image processing device | |
JP2005135278A (en) | Simulation apparatus | |
JP7471428B2 (en) | SYSTEM, METHOD AND COMPUTER READABLE MEDIUM FOR USING VIRTUAL/AUGHTENT FOR INTERACTING WITH COLLABORATORY ROBOTS IN A MANUFACTURING OR INDUSTRIAL ENVIRONMENT - Patent application | |
US10157697B2 (en) | Method for manufacturing a wire harness | |
Stanimirovic et al. | [Poster] A Mobile Augmented reality system to assist auto mechanics | |
WO2018223038A1 (en) | Augmented reality application for manufacturing | |
JP6803794B2 (en) | Image processing equipment and manufacturing system | |
US10593223B2 (en) | Action evaluation apparatus, action evaluation method, and computer-readable storage medium | |
WO2023102637A1 (en) | Interactive visualizations for industrial inspections | |
JP6364389B2 (en) | Inspection method and inspection system | |
US20160357880A1 (en) | Computer-readable storage medium, design apparatus, and design method | |
JP2006215750A (en) | Image processing method, image processor | |
US20200005551A1 (en) | Display control method and display control apparatus | |
US7533001B2 (en) | Apparatus and method for evaluating equipment operability | |
US20230377471A1 (en) | Control system for an augmented reality device | |
JP6857052B2 (en) | Robot setting device, robot setting method, robot setting program, computer-readable recording medium, and recording equipment | |
CN118786463A (en) | Display data generation program, display data generation device, and display data generation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A527 Effective date: 20210203 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220624 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230201 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230201 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230207 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230214 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20230428 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231025 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7374908 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |