JP7468722B2 - Manufacturing support system, method, and program - Google Patents
Manufacturing support system, method, and program Download PDFInfo
- Publication number
- JP7468722B2 JP7468722B2 JP2023013855A JP2023013855A JP7468722B2 JP 7468722 B2 JP7468722 B2 JP 7468722B2 JP 2023013855 A JP2023013855 A JP 2023013855A JP 2023013855 A JP2023013855 A JP 2023013855A JP 7468722 B2 JP7468722 B2 JP 7468722B2
- Authority
- JP
- Japan
- Prior art keywords
- assembly
- parts
- identification information
- image
- worker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004519 manufacturing process Methods 0.000 title claims description 50
- 238000000034 method Methods 0.000 title claims description 37
- 238000003860 storage Methods 0.000 claims description 54
- 239000004984 smart glass Substances 0.000 claims description 35
- 238000003384 imaging method Methods 0.000 claims description 22
- 239000003550 marker Substances 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 4
- 230000006870 function Effects 0.000 description 19
- 230000015654 memory Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 238000007689 inspection Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 6
- 238000009434 installation Methods 0.000 description 5
- 239000000463 material Substances 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000011960 computer-aided design Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 230000004270 retinal projection Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000011179 visual inspection Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B23—MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
- B23P—METAL-WORKING NOT OTHERWISE PROVIDED FOR; COMBINED OPERATIONS; UNIVERSAL MACHINE TOOLS
- B23P21/00—Machines for assembling a multiplicity of different parts to compose units, with or without preceding or subsequent working of such parts, e.g. with programme control
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/04—Manufacturing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Manufacturing & Machinery (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Health & Medical Sciences (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Mechanical Engineering (AREA)
- General Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Automation & Control Theory (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- General Factory Administration (AREA)
Description
本発明は、作業者による部品の組み付け作業を支援するための製造支援システム,方法,プログラムに関する。 The present invention relates to a manufacturing support system, method, and program for supporting workers in assembling parts.
従来、製造業の生産現場において、作業者に光透過型のヘッドマウントディスプレイを装着させ、作業内容や作業手順の指示などの情報を実景に重ねて表示(重畳表示)することで作業支援を実施するシステムが知られている。例えば、製品検査に際し、実際の検査対象物(実像)の近傍に合格画像(過去に合格と判定された検査対象物の画像)を表示することで、検査作業を支援する技術が提案されている。また、部品の組み付け作業において、特定の場所が強調されるように丸印で囲むことや、配線材の配索経路を表示することで作業性を向上させることも提案されている。これらの支援を実施することで、目視検査や組み付け作業の効率が改善されうる(特許文献1,2参照)。
Conventionally, systems have been known in manufacturing production sites that provide work support by having workers wear a light-transmitting head-mounted display and superimposing (overlapping) information such as the work content and work procedure instructions on a real scene. For example, a technology has been proposed to support inspection work during product inspection by displaying a pass image (an image of an inspection object that has previously been judged to pass) near the actual inspection object (real image). It has also been proposed to improve workability in part assembly work by encircling specific locations with a circle to highlight them, or by displaying the wiring route. By providing such support, the efficiency of visual inspection and assembly work can be improved (see
ところで、組み付け作業の現場においては、専門用語や解読が困難な符号(情報伝達のために複数の記号を組み合わせたもの)を用いて作業内容が指示されることがあり、作業初心者には作業内容を正確に把握することすら難しいという側面もある。また、複数の部品が組み付け対象に組み付けられる作業では、作業者から見たときの組み付け対象の姿勢や向きによって、部品のレイアウトが違って見えることがある。そのため、部品の組み付け状態が合格画像と異なるように見える場合であっても、実際には適切な状態である場合がある。さらに、複数の部品を同時に確認することになるため、不適切な組み付け状態が目視検査で見過ごされることもある。このように、従来の作業支援システムでは、複数の部品が組み付けられる作業での組み付けミスが発生しやすく、作業効率を改善しにくいという課題がある。 Meanwhile, at assembly work sites, work instructions are sometimes given using technical terms or difficult-to-decipher symbols (combinations of multiple symbols to convey information), making it difficult for beginners to accurately grasp the work content. In addition, in work in which multiple parts are assembled into an assembly target, the layout of the parts may look different depending on the posture and orientation of the assembly target as seen by the worker. Therefore, even if the assembled state of the parts looks different from the acceptable image, it may actually be in an appropriate state. Furthermore, since multiple parts are checked at the same time, inappropriate assembly states may be overlooked in visual inspection. Thus, with conventional work support systems, there is a problem that assembly errors are likely to occur in work in which multiple parts are assembled, making it difficult to improve work efficiency.
本件の目的の一つは、上記のような課題に鑑みて創案されたものであり、部品の組み付け作業に関する作業効率を改善できる製造支援システム,方法,プログラムを提供することである。なお、この目的に限らず、後述する「発明を実施するための形態」に示す各構成から導き出される作用効果であって、従来の技術では得られない作用効果を奏することも、本件の他の目的として位置付けることができる。 One of the objectives of the present invention was devised in light of the above-mentioned problems, and is to provide a manufacturing support system, method, and program that can improve the work efficiency of part assembly work. In addition to this objective, another objective of the present invention is to achieve effects that cannot be obtained with conventional technology, which are derived from the configurations shown in the "Mode for carrying out the invention" described below.
(1)開示の製造支援システムは、作業者による部品の組み付け作業を支援するための製造支援システムである。本システムは、前記作業者の視界内の実景を撮影する撮影装置と前記実景に虚像を重畳表示する表示装置とを内蔵し、前記作業者の頭部に装着されるスマートグラスを備える。また、組み付け対象に対する複数の前記部品の組み付け位置及び組み付け向きの情報を含む組み付けパターンとこれに対応する識別情報との関係を規定する第一データベースを備える。さらに、前記作業者の視界内の実景の座標系に適合するように、前記部品の虚像を前記表示装置に表示させる制御装置を備える。 (1) The disclosed manufacturing support system is a manufacturing support system for supporting a worker in assembling parts. The system includes smart glasses to be worn on the head of the worker, which incorporate an imaging device that captures an image of a real scene within the field of vision of the worker and a display device that displays a virtual image superimposed on the real scene. The system also includes a first database that defines the relationship between an assembly pattern, including information on the assembly positions and assembly orientations of a plurality of parts relative to an assembly target, and corresponding identification information. The system further includes a control device that causes the display device to display a virtual image of the part so as to conform to the coordinate system of the real scene within the field of vision of the worker.
前記制御装置には、抽出部,取得部,認識部,描画部が設けられる。前記抽出部は、前記撮影装置の撮影画像の中から、前記組み付け作業の内容が記載された作業指示書に含まれる前記識別情報を抽出する。前記取得部は、前記第一データベースに基づき、前記識別情報に対応する前記部品の組み付け位置及び組み付け向きの情報を含む組み付けパターンを取得する。前記認識部は、前記撮影装置の撮影画像の中から、前記組み付け対象を認識する。前記描画部は、前記組み付け対象に複数の前記部品が組み付けられた完成時の位置及び向きで複数の前記部品の虚像を描画する。 The control device is provided with an extraction unit, an acquisition unit, a recognition unit, and a drawing unit. The extraction unit extracts the identification information included in a work instruction sheet describing the contents of the assembly work from the image captured by the imaging device. The acquisition unit acquires an assembly pattern including information on the assembly position and assembly orientation of the part corresponding to the identification information based on the first database. The recognition unit recognizes the assembly target from the image captured by the imaging device. The drawing unit draws virtual images of the multiple parts in the positions and orientations at which the multiple parts will be assembled on the assembly target when completed.
(2)前記部品の保管場所と前記組み付け対象に組み付けられる前記部品の個数(使用数)と前記識別情報との関係が規定された第二データベースを備えることが好ましい。この場合、前記取得部が、前記第二データベースに基づき、前記識別情報に対応する前記部品の保管場所の情報と前記部品の個数の情報とを取得する。また、前記認識部が、前記撮影装置の撮影画像の中から、前記保管場所を認識する。さらに、前記描画部が、前記部品の個数の情報を前記保管場所の近傍に表示する。 (2) It is preferable to have a second database in which the relationship between the storage location of the part, the number of the part (number of parts used) to be assembled to the assembly target, and the identification information is defined. In this case, the acquisition unit acquires information on the storage location of the part corresponding to the identification information and information on the number of the parts based on the second database. In addition, the recognition unit recognizes the storage location from within the image captured by the imaging device. Furthermore, the drawing unit displays information on the number of the parts near the storage location.
(3)前記認識部が、前記撮影画像中における前記保管場所に設置されたマーカーを認識することが好ましい。
(4)前記制御装置が、判定部と強調表示部とを有することが好ましい。この場合、前記判定部は、前記撮影装置の撮影画像と前記識別情報とに基づき、前記部品の組み付け状態が前記組み付けパターンに一致するか否かを判定する。また、前記強調表示部は、前記部品の組み付け状態が前記組み付けパターンに一致しない部位を、前記作業者の視界内の実景の座標系に適合するように強調表示する。
(3) It is preferable that the recognition unit recognizes a marker placed at the storage location in the captured image.
(4) It is preferable that the control device has a determination unit and a highlighting unit. In this case, the determination unit determines whether or not the assembly state of the part matches the assembly pattern based on the captured image by the photographing device and the identification information. Also, the highlighting unit highlights a portion of the part whose assembly state does not match the assembly pattern so as to fit into a coordinate system of an actual scene within the field of vision of the operator.
作業指示書に含まれる識別情報を抽出し、これに対応する位置,向きで部品の虚像を描画することで、組み付けられる部品の種類や数やレイアウトが作業指示書ごとに異なっている場合であっても、正しい位置,向きに組み付けの手本を示すことができ、組み付け作業を支援することができる。また、作業指示書ごとに異なる部品の組み付け状態を作業者が暗記しておく必要がなくなり、組み付けミスを削減でき、生産性(作業効率)を向上させることができる。 By extracting the identification information contained in the work instructions and drawing a virtual image of the part in the corresponding position and orientation, even if the type, number, or layout of the parts to be assembled differs for each work instruction, an example of assembly can be shown in the correct position and orientation, and assembly work can be supported. In addition, workers no longer need to memorize the assembly state of parts, which differs for each work instruction, reducing assembly errors and improving productivity (work efficiency).
以下、図面を参照して実施形態としての製造支援システム,方法,プログラムについて説明する。以下に示す実施形態はあくまでも例示に過ぎず、以下の実施形態で明示しない種々の変形や技術の適用を排除する意図はない。本実施形態の各構成は、それらの趣旨を逸脱しない範囲で種々変形して実施することができる。また、必要に応じて取捨選択することができ、あるいは適宜組み合わせることができる。 The manufacturing support system, method, and program as embodiments will be described below with reference to the drawings. The embodiments described below are merely examples, and are not intended to exclude the application of various modifications or techniques not explicitly stated in the following embodiments. Each configuration of this embodiment can be modified in various ways without departing from the spirit of the embodiment. In addition, they can be selected as needed, or combined as appropriate.
本実施形態の製造支援システムは、作業者51による部品の組み付け作業を支援するウェアラブルガジェットを利用したシステムであり、図1に示すような自動車50の製造工程に適用される。ここでは、作業者51が資材保管棚53から部品を取り出して自動車50に組み付ける作業の支援について説明する。組み付けられる部品の具体例としては、リレー,スイッチ,ランプなどの電装品をはじめとして、ガラス,バンパー,パワートレーン,シート,タイヤなどが挙げられる。また、部品の組み付け対象(部品が組み付けられる装置)の具体例としては、リレーボックス,スイッチボックス,インストルメントパネル,ドア,車体などが挙げられる。部品の組み付け作業における組み付け対象及び部品の種類は多岐にわたり、本件の製造支援システム,方法,プログラムはあらゆる部品の組み付け作業に適用可能である。
The manufacturing support system of this embodiment is a system that uses a wearable gadget to support the part assembly work by a
作業支援の内容は、作業者51の頭部に装着されるスマートグラス10を利用した、視覚情報の提供である。図2に示すように、スマートグラス10は作業者51のヘルメット52に固定される。このスマートグラス10には、表示装置13と撮影装置16とが内蔵される。撮影装置16は、作業者51の視界内の実景や作業指示書54などを撮影するカメラである。また、表示装置13は、作業者51の視界内の実景に虚像を重畳表示するデバイスである。表示方式は、作業者51の網膜に虚像を投影する方式(網膜投影型)としてもよいし、ハーフミラーの表面に虚像を投影する方式(透過型)としてもよく、あるいは撮影装置16で撮影された実景と虚像とを合成した映像を表示する方式(非透過型)としてもよい。
The work support is the provision of visual information using
いずれの方式においても、作業者51の視点で見える実景の座標系に適合するように、さまざまな虚像が表示される。この虚像は、実景の座標系に適合する透視投影画像(あるいはその透視投影画像をデフォルメしたもの)であり、例えば部品の三次元CAD(Computer-Aided Design)データに基づく簡易的なポリゴンモデルとしてレンダリングされる。なお、特許文献1,2のような既存の表示手法では、描画オブジェクトが二次元のオブジェクトである。これに対して本件の表示手法では、描画オブジェクトが三次元のオブジェクトとされ、各描画オブジェクトが実景の座標系内で仮想的に配置される。
In either method, various virtual images are displayed so as to fit the coordinate system of the real scene as seen from the viewpoint of the
作業支援の内容は、任意の制御装置(電子計算機,コンピューター)によって制御される。ここでいう「電子制御装置」は、スマートグラス10に内蔵されたものであってもよいし、スマートグラス10とは別に用意されたものであってもよい。例えば、ネットワーク19上のサーバー30やワークステーションにプログラムをインストールしておき、そこで演算された表示内容をスマートグラス10に表示させるシステムとしてもよい。この場合、図2に示すように、中継器36を介してネットワーク19に接続されたサーバー30を利用してもよい。あるいは、ネットワーク19に接続されていない状態でも動作するプログラムをスマートグラス10にインストールしておいてもよい。
The content of the work support is controlled by an arbitrary control device (electronic calculator, computer). The "electronic control device" referred to here may be one built into the
[1.ハードウェア構成]
図3は、スマートグラス10とサーバー30との協働によって実現される製造支援システムのハードウェア構成を示すブロック図である。スマートグラス10には、記録媒体18(リムーバブルメディア)に記録されたプログラムを読み込むための記録媒体ドライブ11,記憶装置12,表示装置13,入力装置14,通信装置15,撮影装置16(カメラ),マイク17,電子制御装置20が設けられる。同様に、サーバー30にも、記録媒体ドライブ31,記憶装置32,表示装置33,入力装置34,通信装置35,電子制御装置40が内蔵される。それぞれの要素の機能は、スマートグラス10に内蔵される同一名称の要素とほぼ同様であることから説明を省略する。
[1. Hardware Configuration]
3 is a block diagram showing the hardware configuration of a manufacturing support system realized by cooperation between the
記録媒体18は、例えばフラッシュメモリーカードやユニバーサルシリアルバス規格に準拠した半導体メモリ装置,光ディスクなどである。記録媒体ドライブ11は、記録媒体18に記録,保存された情報(プログラムやデータ)を読み取る読取装置である。記憶装置12は、長期的に保持されるデータやプログラムが格納されるメモリ装置であり、例えばフラッシュメモリやEEPROM(Electrically Erasable Programmable Read-Only Memory),ソリッドステートドライブなどの不揮発性メモリがこれに含まれる。
The
表示装置13は、作業者51に対して視覚情報を提供するためのデバイスの一つである。網膜投影型のデバイスでは、作業者51の網膜が結像面となる。一方、透過型や非透過型のデバイスでは、作業者51の視界内に配置されるハーフミラーやディスプレイ〔例えば液晶ディスプレイ(Liquid Crystal Display,LCD)や有機ELディスプレイ(Organic Electro-Luminescence Display,OELD)〕の表面が結像面となる。
The
入力装置14は、電子制御装置20,40への入力信号を入力するためのポインティングデバイスの一つである。入力装置14の具体例としては、無線キーボードや無線マウスなどのデバイスがスマートグラス10に接続可能である。また、スマートグラス10のテンプル(柄,側面側の部分)には、押しボタンや物理キーなどの入力装置14が設けられる。また、マイク17は作業者51の音声を入力信号として入力するためのデバイスである。
The
通信装置15は、スマートグラス10の外部との通信を司る装置であり、例えばネットワーク19を介してサーバー30との間で無線通信を行うためのデバイスである。図2に示す中継器36は、通信装置15に含まれるものと見なすことができる。近距離無線通信規格に準拠した入出力装置がスマートグラス10に接続される場合には、それらの入出力装置が通信装置15を介して接続される。
The
撮影装置16は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサを内蔵したディジタルビデオカメラである。この撮影装置16は、スマートグラス10のリム(レンズの周縁)やブリッジ(左右のレンズの接続部分)などに取り付けられ、スマートグラス10を装着した作業者51の視界を撮影するように機能する。撮影装置16で撮影された撮影画像の情報は、電子制御装置20やサーバー30に伝達される。なお、ここでいう「撮影画像」には、静止画像だけでなく動画中に含まれる1フレーム(1コマ)の画像も含まれる。
The
撮影装置16の位置や撮影方向は、スマートグラス10に対して固定されており、表示装置13の位置もスマートグラス10に対して固定されている。したがって、スマートグラス10と作業者51の視線との関係が一定に保たれている限り、撮影装置16で撮影された実景と同じ環境内に存在するかのように見える虚像(すなわち、座標系が実景に適合する三次元のオブジェクト)を表示装置13で描画することができる。なお、撮影装置16で撮影された画像中の被写体について、三次元空間内での位置や姿勢を算出するには、公知のAR(Augmented Reality,拡張現実)開発ライブラリを利用することができる。また、実景に適合する三次元オブジェクトの描画には、公知の三次元レンダラーやAR描画エンジンを利用することができる。
The position and shooting direction of the
電子制御装置20には、プロセッサ21(中央処理装置),メモリ22(メインメモリ,主記憶装置),補助記憶装置23,インタフェース装置24などが内蔵され、バス25を介して互いに通信可能に接続される。プロセッサ21は、制御ユニット(制御回路)や演算ユニット(演算回路),キャッシュメモリ(レジスタ群)などを内蔵する中央処理装置である。また、メモリ22は、プログラムや作業中のデータが格納される記憶装置であり、例えばROM(Read Only Memory),RAM(Random Access Memory)がこれに含まれる。
The
補助記憶装置23は、メモリ22よりも長期的に保持されるデータやファームウェアが格納されるメモリ装置であり、例えばフラッシュメモリやEEPROMなどの不揮発性メモリがこれに含まれる。また、インタフェース装置24は、電子制御装置20と外部との間の入出力(Input and Output;I/O)を司るものである。電子制御装置20は、インタフェース装置24を介して、記録媒体ドライブ11,記憶装置12,表示装置13,入力装置14,通信装置15などに接続される。
The
なお、サーバー30の電子制御装置40にも、プロセッサ41(中央処理装置),メモリ42(メインメモリ,主記憶装置),補助記憶装置43,インタフェース装置44などが内蔵され、バス45を介して互いに通信可能に接続される。それぞれの要素の機能は、電子制御装置20に内蔵される同一名称の要素とほぼ同様であることから説明を省略する。また、具体的な電子制御装置のハードウェア構成を上記の構成に限定する意図はなく、公知の各種構成を適用してもよい。
The
[2.ソフトウェア構成]
図4は、スマートグラス10やサーバー30で実行される製造支援プログラム9の処理内容を説明するためのブロック図である。これらの処理内容は、アプリケーションプログラムとしてスマートグラス10及びサーバー30の記憶装置12,32や記録媒体18などに記録され、メモリー上に展開されて実行される。ここで実行される処理内容を機能的に分類すると、製造支援プログラム9には、抽出部3,取得部4,認識部5,描画部6,判定部7,強調表示部8が設けられる。また、これらの各要素が参照可能なデータベースとして、第一データベース1,第二データベース2が設けられる。
2. Software Configuration
4 is a block diagram for explaining the processing contents of the
第一データベース1は、組み付け対象に対する部品の組み付けパターンとこれに対応する識別情報との関係を規定するものである。識別情報とは、作業者51に指示される作業内容を特定するための情報であり、例えば作業番号,作業対象車両番号,指示対象車両番号などと呼ばれる。本実施形態では、図2に示すように、作業番号が作業管理者から提示される作業指示書54に記載されているものとする。作業指示書54は、作業者51が組み付け作業を実施する前に、作業管理者から提示されるものとし、あるいは、組み付け対象となる自動車50に貼付されているものとする。
The
第一データベース1の内容を図5(A)に例示する。第一データベース1には、少なくとも組み付け作業を識別するための作業番号と、その作業で組み付けられる部品のレイアウト(組み付けパターン)を特定するための情報(組み付け位置,組み付け向き)との関係が規定される。その作業で組み付けられる部品の種類数が複数である場合には、一つの作業番号に対して複数種の部品の組み付けパターンが設定される。図5(A)に示す例では、作業番号「ABCDE01234」に対し、三種の部品(a-01,a-02,a-03)の組み付けパターンが設定されている。
The contents of the
なお、作業対象となる自動車50の車種やグレード,仕向地などが異なれば、部品の種類や組み付けパターンも異なるものとなる。一般に、自動車50の組み付け作業において、作業者51が習得すべき組み付けパターンは数十から数百パターンに及び、これらのパターンを暗記するのには数ヶ月から数年の経験が必要だと言われている。一方、本実施形態ではこれらのすべてのパターンが第一データベース1に規定され、作業番号に対して紐付けられる。これにより、作業者51は組み付けパターンの暗記作業から解放される。
If the model, grade, destination, etc. of the
部品の組み付け位置は、組み付け対象(例えばリレーボックス)に固定された座標系を基準として、少なくとも三つのパラメーターで特定することができる。同様に、部品の組み付け向きについても、組み付け対象に固定された座標系を基準として、少なくとも三つのパラメーターで特定することができる。したがって、一つの部品のレイアウトを特定するための情報は、6つ以上のパラメーターを用いることで一意に特定することができる。 The installation position of a part can be specified by at least three parameters, with a coordinate system fixed to the object (e.g., a relay box) as the reference. Similarly, the installation orientation of a part can be specified by at least three parameters, with a coordinate system fixed to the object as the reference. Therefore, information for specifying the layout of a single part can be uniquely specified by using six or more parameters.
第二データベース2は、上記の識別情報(作業番号)と部品の保管場所及び使用数(組み付けられる部品の個数)との関係を規定するものである。部品の保管場所とは、例えば図1に示す資材保管棚53に収納される多数の部品トレイのうち、どのトレイに入っている部品なのかを表す情報である。ある作業で使用される部品の保管場所が常に固定されている場合には、少なくとも三つのパラメーターで部品の位置(保管場所)を特定可能である。一方、作業状況によって部品の保管場所が変更される可能性がある場合には、保管場所を特定するための情報を第二データベース2の各レコードに付加することが好ましい。
The
図5(B)に示す例では、作業番号「ABCDE01234」で使用される部品「a-01」の使用数が3であり、その保管場所が場所コード「aA11bB22cC33dD44」となっている。その部品が実際に保管されている場所には、場所コード「aA11bB22cC33dD44」を表す文字列や記号やバーコード,二次元コードなどが掲示される。部品ごとに異なる場所コードを付与することで、各部品の保管場所が一意に特定されうる。 In the example shown in FIG. 5(B), the part "a-01" used in operation number "ABCDE01234" has a usage count of 3, and its storage location is location code "aA11bB22cC33dD44". A character string, symbol, barcode, or two-dimensional code representing the location code "aA11bB22cC33dD44" is posted at the location where the part is actually stored. By assigning a different location code to each part, the storage location of each part can be uniquely identified.
抽出部3は、撮影装置16の撮影画像の中から、組み付け作業の内容が記載された作業指示書54に含まれる識別情報(作業番号)を抽出するものである。作業指示書54は、作業者51が部品の組み付け作業を実施する前に撮影されるものとする。本実施形態の抽出部3は、図2に示す作業指示書54のバーコードを読み取ることで、作業番号を抽出する機能を持つ。ここで抽出された作業番号の情報は、取得部4に伝達される。
The
取得部4は、二つの機能を有する。第一の機能は、第一データベース1に基づく情報取得であり、第二の機能は、第二データベース2に基づく情報取得である。ここで取得された情報は、描画部6に伝達される。
前者の機能は、第一データベース1に基づき、抽出部3で抽出された識別情報(作業番号)に対応する部品の組み付けパターンを取得するものである。例えば、抽出部3で抽出された作業番号が「ABCDE01234」である場合には、図5(A)に示す第一データベース1でこれに対応する三種の部品(a-01,a-02,a-03)のそれぞれについて、組み付けパターン(組み付け位置及び組み付け向きの情報)が取得される。
後者の機能は、第二データベース2に基づき、識別情報(作業番号)に対応する部品の保管場所及び使用数の情報を取得するものである。例えば、図5(B)に示す第二データベース2に基づき、三種の部品(a-01,a-02,a-03)のそれぞれについて、場所コード及び使用数の情報が取得される。
The
The former function is to obtain an assembly pattern of a part corresponding to the identification information (operation number) extracted by the
The latter function is to obtain information on the storage location and the number of parts used that correspond to the identification information (job number) based on the
認識部5は、撮影装置16による撮影画像の中に存在する特定の物体やマークを認識するものである。認識部5は、少なくとも「部品の組み付け対象」を認識する機能を持つ。例えば、リレーの組み付け作業〔図5(A)中の作業番号「ABCDE01234」〕では、そのリレーが組み付けられるリレーボックス55が撮影画像の中にあるか否かが判定される。この判定では、リレーボックス55の三次元CADデータが参照される。図6(A)に示すように、撮影画像中にリレーボックス55が検出されると、撮影画像中の特徴点(リレーボックス55の端辺に含まれる点や頂点など)の分布に基づき、撮影位置(撮影装置16の位置)を基準としたリレーボックス55の位置及び姿勢が推定される。これにより、作業者51の視界内でのリレーボックス55の見え方が特定される。ここで特定される組み付け対象の位置及び姿勢の情報は、描画部6に伝達され、部品を描画するときに参照される。
The
また、認識部5は、撮影画像の中から「部品の保管場所」を認識する機能を併せ持つ。例えば、リレーの組み付け作業〔図5(B)中の作業番号「ABCDE01234」〕では、場所コード「aA11bB22cC33dD44」を表す文字列や記号や二次元コードなどが認識される。図7(A)に示すように、撮影画像中に場所コードを表すマーカー58が検出されると、そのマーカー58の位置や形状に基づき、撮影位置を基準としたマーカー58の位置や姿勢が推定される。ここで認識される部品の保管場所の情報も、描画部6に伝達される。
The
描画部6は、部品の組み付け時に表示装置13の表示内容を制御するものであり、おもに三つの機能を有する。第一の機能は、組み付け対象に部品が組み付けられた完成時の位置及び向きで、部品の虚像を描画するものである。ここでいう「虚像」とは、部品の組み付けが完了したときの状態(完成図)を示すものであり、組み付け作業の「手本」となるものである。これを参照しながら組み付け作業を実施することで、作業経験の浅い作業者51であっても組み付けミスをしにくくなり、作業効率が向上する。
The
部品の虚像は、認識部5で認識された組み付け対象に座標系が適合するように描画される。例えば、図6(A)に示すリレーボックス55に対する部品の虚像は、リレーボックス55に組み付けされた状態に相当する位置及び姿勢で描画される。図6(B)は、ここで描画される部品の虚像のみを取り出して示すものである。リレーボックス55と部品の虚像とを重畳させることで、図6(C)に示すように、あたかもリレーボックス55の上に部品が存在しているかのように見せることができる。
The virtual image of the part is drawn so that the coordinate system matches the assembly target recognized by the
描画部6における第二の機能は、組み付け作業で使用される部品の個数(使用数)の情報をリレーボックス55の近傍に描画する機能であり、第三の機能は、その個数の情報を保管場所の近傍に描画するものである。個数の情報をリレーボックス55の近傍に表示する際には、図6(B)に示すように、リレーボックス55に組み付けられる部品に重ならない位置に描画することが好ましい。また、リレーボックス55に対して各部品が組み付けられる面が平面状であるとすれば、各部品の虚像をその平面上で配列することが好ましい。同様に、個数の情報を保管場所の近傍に描画する際には、図7(B)に示すように、マーカー58や部品トレイに重ならない位置に描画することが好ましい。なお、部品の個数だけでなく部品番号や部品の外観などを一緒に表示することで、保管の状態をよりわかりやすく伝達してもよい。
The second function of the
判定部7は、部品の組み付け作業が完了したときに、その作業内容が適切であるか否かを自動的に判定するものである。ここでは、撮影画像と識別情報(作業番号)とに基づき、部品の組み付け状態が第一データベース1に規定された組み付けパターンに一致するか否かが判定される。例えば、撮影画像中の各部品を特定し、組み付け対象に対する各部品の位置及び姿勢を推定することで、組み付けパターンとの比較を実施してもよい。あるいは、あらかじめ用意された完成状態の画像と撮影画像とを比較してもよい。
The
本実施形態の判定部7は、学習済みのオートエンコーダを利用して、部品の組み付け状態を判定する。具体的には、撮影画像をオートエンコーダに入力し、その出力画像を取得するとともに、入力画像と出力画像との差異を算出する。オートエンコーダの学習データとしては、部品が正しく組み付けられた組み付け対象をさまざまな位置,角度から撮影した数千枚の画像が用いられる。このようなオートエンコーダに撮影画像を入力したとき、その撮影画像中の組み付け状態が適切であれば、出力される画像が入力画像とほぼ同一の画像となる。一方、組み付け状態に不適切な箇所があれば、その箇所の像が「正しい組み付け状態に近い像」に変換されて出力される。つまり、組み付け状態が不適切な箇所は、オートエンコーダに対する入力画像と出力画像との差異として検出可能である。そこで判定部7は、入力画像と出力画像との差異を算出し、その差異が所定のしきい値以上となる箇所を「異常度が高い箇所」として算出する。
In this embodiment, the
強調表示部8は、判定部7で判定された「異常度が高い箇所」を強調表示するものである。ここでは、部品の組み付け状態が組み付けパターンに一致しない部位が、作業者の視界内の実景の座標系に適合するように強調表示される。本実施形態の強調表示部8は、「異常度が高い箇所」を赤くハイライトした画像を表示装置13に表示する機能を持つ。これにより、図8に示すように、組み付け状態が不適切な箇所が強調され、組み付けミスの存在が作業者51にわかりやすく伝達される。
The highlighting
[3.フローチャート]
図9は、部品の組み付け工程の流れを説明するためのフローチャートである。本フロー中のフラグAは、識別情報(作業番号)が読み取られた状態であるか否かを表すものであり、識別情報が読み取られていない初期状態ではA=0に設定されている。まず、撮影装置16で撮影画像が撮影され、その内容が認識される(ステップA1)。また、フラグAの値が判定され(ステップA2)、A=0であるときには撮影画像中に作業指示書54が認識されたか否かが判定される(ステップA3)。
3. Flowchart
9 is a flow chart for explaining the flow of the part assembly process. The flag A in this flow indicates whether or not the identification information (job number) has been read, and is set to A=0 in the initial state where the identification information has not been read. First, an image is taken by the photographing
ここで、作業指示書54が認識されると、作業指示書54に記載されている作業番号を抽出部3が抽出する(ステップA4)。これを受けて取得部4は第一データベース1を参照し、作業番号に対応する部品の組み付けパターンを取得する(ステップA5)。また、取得部4は第二データベース2を参照して、作業番号に対応する部品の保管場所,使用数の情報を取得する(ステップA6)。その後、フラグAの値がA=1に設定される(ステップA7)。次回以降の演算周期では、制御がステップA1からステップA8へと進行する。
When the
ステップA8では、撮影画像中に場所コードを表すマーカー58が認識されたか否かが判定される。ここでマーカー58が検出されている場合には、図7(B)に示すように、部品の保管場所や使用数の情報がスマートグラス10の表示装置13に表示される。作業者51は、これを参照しながら部品を資材保管棚53から取り出し、組み付け作業の準備を整えることができる。また、ステップA10では、部品の組み付け対象が認識されたか否かが判定される。ここで組み付け対象が認識されている場合には、図6(C)に示すように、部品の虚像が表示装置13に表示される。作業者51は、これを参照しながら部品を組み付けることができる。
In step A8, it is determined whether a
図10は、部品の組み付け完了時における検査工程の流れを説明するためのフローチャートである。検査工程は、組み付け作業が完了したときに、作業者51が所定の入力操作(例えば、所定の音声指示やボタン操作など)を行うことで開始されるようにしてもよい。あるいは画像解析により部品の組み付け作業が完了したことを自動的に検知して、検査工程を開始してもよい。
Figure 10 is a flow chart for explaining the flow of the inspection process when the assembly of parts is completed. The inspection process may be started by the
前者の場合、ステップB1において、作業者51による入力操作に関する各種情報が入力される。ここで、所定の検査開始条件(例えば、所定の音声指示がなされること)が成立すると(ステップB2)、撮影装置16での撮影画像が入力画像としてオートエンコーダに入力され、その出力画像が取得される(ステップB3)。また、入力画像と出力画像との差異が算出されるとともに、その差異がしきい値以上となる箇所が強調表示される。作業者51は、これを参照しながら不適切な組み付け状態を是正することができる。
In the former case, in step B1, various information related to input operations by the
[4.作用・効果]
(1)上記の製造支援システム,方法,プログラムでは、作業指示書54に含まれる識別情報(作業番号)が抽出され、これに対応する位置、向きで部品の虚像が描画される。また、識別情報(作業番号)と部品の組み付けパターンとの関係は、第一データベース1にあらかじめ規定される。これにより、組み付け作業に係る部品の種類や使用数,レイアウトが作業指示書54ごとに異なっている場合であっても、正しい位置かつ正しい向きで部品の組み付けの手本を示すことができ、組み付け作業を支援することができる。
[4. Actions and Effects]
(1) In the above-described manufacturing support system, method, and program, identification information (job number) included in the
また、作業者51は作業指示書54ごとに異なる部品の組み付けパターンを暗記しておく必要がなくなり、組み付けミスを削減することができる。さらに、組み付け作業中は常に手本となる虚像が表示されているため、作業者51が誤った組み付けを覚えてしまう懸念がなくなり、作業者51の習熟度を迅速に高めることができる。したがって、部品の組み付け作業に関する作業効率(生産性)を向上させることができる。
In addition, the
(2)識別情報(作業番号)と部品の保管場所及び使用数との関係は、第二データベース2にあらかじめ規定される。これを用いて、部品の保管場所の近傍に使用数の情報を描画することで、部品の取り違えミスを予防することができる。例えば、外観が類似する複数の部品が混在する組み付け作業において、ピックアップミス(部品の取り出し間違い)を削減することができる。したがって、組み付け作業における不良率を低減させることができ、作業効率をさらに向上させることができる。
(2) The relationship between the identification information (operation number) and the storage location and number of uses of the part is predefined in the
(3)図7(A)に示すように、マーカー58を用いて部品の保管場所を特定することで、部品の仕様変更や保管場所の変更に対して柔軟に対応することが可能となり、作業効率をさらに向上させることができる。例えば、部品の保管場所が変更されたときには、部品と一緒にマーカー58も移動させればよい。なお、部品の種類や保管場所が変更されない場合には、マーカー58の代わりにその部品の外観や保管場所の外観などに基づく支援を実施してもよい。
(3) As shown in FIG. 7(A), by using
(4)図8に示すように、組み付け状態の異常度が高い箇所を実景の座標系に適合するように強調表示することで、その箇所を作業者51に気付かせやすくすることができる。これにより、組み付けミスを直ちに修正することができ、作業効率をさらに向上させることができる。また、作業者51の記憶違いや勘違いなどに由来する組み付け上の不具合が即座にフィードバックされるため、作業者51の習熟度を迅速に高めることができ、短期間での人材育成が可能となる。
(4) As shown in FIG. 8, by highlighting the parts of the assembly state where the degree of abnormality is high so as to conform to the coordinate system of the actual scene, it is possible to make the
[5.変形例]
上記の実施形態はあくまでも例示に過ぎず、本実施形態で明示しない種々の変形や技術の適用を排除する意図はない。本実施形態の各構成は、それらの趣旨を逸脱しない範囲で種々変形して実施することができる。また、必要に応じて取捨選択することができ、あるいは適宜組み合わせることができる。
5. Modifications
The above embodiment is merely an example, and is not intended to exclude various modifications or application of techniques not explicitly stated in the present embodiment. Each configuration of the present embodiment can be modified in various ways without departing from the spirit of the present embodiment. In addition, the configurations can be selected or combined as necessary.
例えば、スマートグラス10にモーションセンサー(加速度センサー,方位センサー,ジャイロセンサー,地磁気センサーなど)を内蔵させてもよい。モーションセンサーで表示装置13及び撮影装置16の姿勢を高精度に把握することで、作業者51の視界内の実景や被写体の位置,姿勢をより正確に推定することが可能となり、実景に対する虚像の重畳精度を向上させることができ、虚像の現実感や臨場感を高めることができる。
For example, the
本件における製造支援システム,製造支援方法,製造支援プログラムの最小構成は、第一データベース1,抽出部3,取得部4,認識部5,描画部6を備えたものである。これらの各要素が保存される装置は、任意に設定可能であるとともに、複数の装置に機能を分散させて配置することも可能である。機能を分散させる場合、少なくとも複数の装置同士が有線または無線で通信可能に接続されていればよい。
The minimum configuration of the manufacturing support system, manufacturing support method, and manufacturing support program in this case includes a
上記の機能の分散に関して、図11(A)に示すように、表示装置13の描画に関する要素(例えば、描画部6,強調表示部8)をスマートグラス10に担当させ、それ以外の要素(例えば、抽出部3,取得部4,認識部5,判定部7)を組み付け作業用コンピューター59に担当させてもよい。また、第一データベース1や第二データベース2は、生産指令サーバー60に保存しておいてもよい。生産指令サーバー60は、生産ラインの稼働状態や生産ロボットの動作を制御する大型コンピューターであり、組み付け作業用コンピューター59に対して有線ケーブルで接続される。また、組み付け作業用コンピューター59は、組み付け作業が実施される作業場の近傍に配置されるコンピューターであり、スマートグラス10に対し、中継器36を介して無線で接続される。
Regarding the distribution of the above functions, as shown in FIG. 11(A), the elements related to drawing on the display device 13 (e.g., the
このような装置構成により、スマートグラス10に内蔵される電子制御装置20の演算処理能力が低い場合であっても、実景に適合する虚像を精度良く表示装置13に表示させることが可能となる。また、生産指令サーバー60にデータベース1,2を配置することで、既存の生産システムで用いられているデータベースを利用した作業支援が容易となる。なお、スマートグラス10に十分な演算処理能力が期待できる場合には、図11(B)に示すように、スマートグラス10単体で動作しうるシステムを構成してもよい。この場合、他のコンピューターとの通信が不要となることから、オフライン環境での作業支援が可能となる。
With this device configuration, even if the computing power of the
[6.付記]
上記の変形例を含む実施形態に関し、以下の付記を開示する。
[付記1]
視界内の実景を撮影する撮影装置と前記実景に虚像を重畳表示する表示装置とを内蔵するスマートグラスを頭部に装着した作業者に対し、前記実景の座標系に適合する虚像を前記表示装置に表示させることによって、部品の組み付け作業を支援する製造支援方法であって、
前記撮影装置の撮影画像の中から、前記組み付け作業の内容が記載された作業指示書に含まれる前記識別情報を抽出し、
組み付け対象に対する複数の前記部品の組み付けパターンとこれに対応する識別情報との関係が規定された第一データベースに基づき、前記識別情報に対応する前記部品の組み付けパターンを取得し、
前記撮影装置の撮影画像の中から、前記組み付け対象を認識し、
前記組み付け対象に前記部品が組み付けられた完成時の位置及び向きで前記部品の虚像を描画する
ことを特徴とする、製造支援方法。
[6. Notes]
The following supplementary notes are disclosed regarding the embodiments including the above-mentioned modifications.
[Appendix 1]
A manufacturing support method for supporting a part assembly operation by displaying a virtual image conforming to a coordinate system of a real scene on a display device that displays a virtual image that is superimposed on a real scene, the virtual image being displayed on the display device to a worker wearing smart glasses on the worker's head, the virtual image being conforming to a coordinate system of the real scene,
extracting the identification information included in a work instruction sheet describing the details of the assembly work from the image captured by the imaging device;
acquiring an assembly pattern of the part corresponding to the identification information based on a first database in which a relationship between an assembly pattern of the part for an assembly target and the corresponding identification information is defined;
Recognizing the assembly target from the captured image of the imaging device;
A manufacturing support method comprising: drawing a virtual image of the part in a position and orientation that will result when the part is completely assembled onto the object to be assembled.
[付記2]
前記部品の保管場所と前記組み付け対象に組み付けられる前記部品の個数と前記識別情報との関係が規定された第二データベースに基づき、前記識別情報に対応する前記部品の保管場所の情報と前記部品の個数の情報とを取得し、
前記撮影装置の撮影画像の中から、前記保管場所を認識し、
前記部品の個数の情報を前記保管場所の近傍に表示する
ことを特徴とする、付記1記載の製造支援方法。
[Appendix 2]
acquiring information on the storage location of the part and information on the number of the parts corresponding to the identification information based on a second database in which a relationship between the storage location of the part, the number of the parts to be assembled to the assembly target, and the identification information is defined;
Recognizing the storage location from the image captured by the imaging device;
2. The manufacturing support method according to
[付記3]
前記撮影画像中における前記保管場所に設置されたマーカーを認識する
ことを特徴とする、付記2記載の製造支援方法。
[Appendix 3]
The manufacturing support method according to
[付記4]
前記撮影装置の撮影画像と前記識別情報とに基づき、前記部品の組み付け状態が前記組み付けパターンに一致するか否かを判定し、
前記部品の組み付け状態が前記組み付けパターンに一致しない部位を、前記作業者の視界内の実景の座標系に適合するように強調表示する
ことを特徴とする、付記1~3のいずれか1項に記載の製造支援方法。
[Appendix 4]
determining whether or not an assembly state of the part matches the assembly pattern based on the captured image of the imaging device and the identification information;
The manufacturing support method according to any one of
[付記5]
視界内の実景を撮影する撮影装置と前記実景に虚像を重畳表示する表示装置とを内蔵するスマートグラスを頭部に装着した作業者に対し、前記実景の座標系に適合する虚像を前記表示装置に表示させることによって、部品の組み付け作業を支援する製造支援プログラムであって、
前記撮影装置の撮影画像の中から、前記組み付け作業の内容が記載された作業指示書に含まれる前記識別情報を抽出し、
組み付け対象に対する複数の前記部品の組み付けパターンとこれに対応する識別情報との関係が規定された第一データベースに基づき、前記識別情報に対応する前記部品の組み付けパターンを取得し、
前記撮影装置の撮影画像の中から、前記組み付け対象を認識し、
前記組み付け対象に前記部品が組み付けられた完成時の位置及び向きで前記部品の虚像を描画する
処理をコンピューターに実行させる、製造支援プログラム。
[Appendix 5]
A manufacturing support program that supports a part assembly operation by displaying a virtual image that matches a coordinate system of a real scene on the display device, the virtual image being displayed on the display device to a worker wearing smart glasses that incorporate an imaging device that captures a real scene within a field of vision and a display device that displays a virtual image superimposed on the real scene,
extracting the identification information included in a work instruction sheet describing the details of the assembly work from the image captured by the imaging device;
acquiring an assembly pattern of the part corresponding to the identification information based on a first database in which a relationship between an assembly pattern of the part for an assembly target and the corresponding identification information is defined;
Recognizing the assembly target from the captured image of the imaging device;
A manufacturing support program that causes a computer to execute a process of drawing a virtual image of the part in a position and orientation when the part is completely assembled onto the assembly target.
[付記6]
前記部品の保管場所と前記組み付け対象に組み付けられる前記部品の個数と前記識別情報との関係が規定された第二データベースに基づき、前記識別情報に対応する前記部品の保管場所の情報と前記部品の個数の情報とを取得し、
前記撮影装置の撮影画像の中から、前記保管場所を認識し、
前記部品の個数の情報を前記保管場所の近傍に表示する
処理をコンピューターに実行させる、付記5記載の製造支援プログラム。
[Appendix 6]
acquiring information on the storage location of the part and information on the number of the parts corresponding to the identification information based on a second database in which a relationship between the storage location of the part, the number of the parts to be assembled to the assembly target, and the identification information is defined;
Recognizing the storage location from the image captured by the imaging device;
6. The manufacturing support program according to
[付記7]
前記撮影画像中における前記保管場所に設置されたマーカーを認識する
処理をコンピューターに実行させる、付記6記載の製造支援プログラム。
[Appendix 7]
The manufacturing support program according to
[付記8]
前記撮影装置の撮影画像と前記識別情報とに基づき、前記部品の組み付け状態が前記組み付けパターンに一致するか否かを判定し、
前記部品の組み付け状態が前記組み付けパターンに一致しない部位を、前記作業者の視界内の実景の座標系に適合するように強調表示する
処理をコンピューターに実行させる、付記5~7のいずれか1項に記載の製造支援プログラム。
[Appendix 8]
determining whether or not an assembly state of the part matches the assembly pattern based on the captured image of the imaging device and the identification information;
The manufacturing support program according to any one of
1 第一データベース
2 第二データベース
3 抽出部
4 取得部
5 認識部
6 描画部
7 判定部
8 強調表示部
9 製造支援プログラム
10 スマートグラス
13 表示装置
16 撮影装置
30 サーバー
50 自動車
51 作業者
52 ヘルメット
53 資材保管棚
54 作業指示書
55 リレーボックス(組み付け対象)
56 リレー(部品)
56 Relay (parts)
Claims (6)
前記作業者の視界内の実景を撮影する撮影装置と前記実景に虚像を重畳表示する表示装置とを内蔵し、前記作業者の頭部に装着されるスマートグラスと、
組み付け対象に対する複数の前記部品の組み付け位置及び組み付け向きの情報を含む組み付けパターンとこれに対応する識別情報との関係を規定する第一データベースと、
複数の前記部品の部品番号及び使用数と前記識別情報との関係が規定された第二データベースと、
前記作業者の視界内の実景の座標系に適合するように、前記部品の虚像を前記表示装置に表示させる制御装置とを備え、
前記制御装置が、
前記撮影装置の撮影画像の中から、前記組み付け作業の内容が記載された作業指示書に含まれる前記識別情報を抽出する抽出部と、
前記第一データベースに基づき、前記識別情報に対応する前記部品の組み付け位置及び組み付け向きの情報を含む組み付けパターンを取得する取得部と、
前記撮影装置の撮影画像の中から、前記組み付け対象を認識する認識部と、
前記組み付け対象に複数の前記部品が組み付けられた完成時の位置及び向きで複数の前記部品の虚像を描画する描画部とを有し、
前記取得部が、前記第二データベースに基づき、前記識別情報に対応する前記部品番号及び前記使用数の情報を取得し、
前記描画部が、前記部品番号及び前記使用数の情報を前記組み付け対象の近傍に描画する
ことを特徴とする、製造支援システム。 A manufacturing support system for supporting a part assembly operation by a worker, comprising:
A smart glass that is mounted on the head of the worker and includes a photographing device that photographs a real scene within the worker's field of vision and a display device that superimposes a virtual image on the real scene;
a first database that defines a relationship between an assembly pattern, including information on the assembly positions and assembly orientations of the plurality of parts with respect to an assembly target, and identification information corresponding to the assembly pattern;
a second database in which the relationship between the part numbers and the number of uses of the plurality of parts and the identification information is defined;
a control device that causes the display device to display a virtual image of the part so as to conform to a coordinate system of a real scene within the field of vision of the operator;
The control device,
an extraction unit that extracts the identification information included in a work instruction sheet in which details of the assembly work are described from the image captured by the imaging device;
an acquisition unit that acquires an assembly pattern including information on an assembly position and an assembly orientation of the part corresponding to the identification information based on the first database;
a recognition unit that recognizes the assembly target from within an image captured by the imaging device;
a drawing unit that draws virtual images of the plurality of parts in positions and orientations when the plurality of parts are assembled to the assembly target,
the acquiring unit acquires information on the part number and the usage quantity corresponding to the identification information based on the second database,
The manufacturing support system according to claim 1, wherein the drawing unit draws the part number and the information on the number of parts used near the object to be assembled.
ことを特徴とする、請求項1記載の製造支援システム。 2. The manufacturing support system according to claim 1, wherein the drawing unit draws an image showing the appearance of the part together with the information on the part number and the number of parts used, in the vicinity of the object to be assembled.
ことを特徴とする、請求項2記載の製造支援システム。 3. The manufacturing support system according to claim 2, wherein the recognition unit recognizes a marker placed at a storage location of the part in the captured image.
前記撮影装置の撮影画像と前記識別情報とに基づき、前記部品の組み付け状態が前記組み付けパターンに一致するか否かを判定する判定部と、
前記部品の組み付け状態が前記組み付けパターンに一致しない部位を、前記作業者の視界内の実景の座標系に適合するように強調表示する強調表示部とを有する
ことを特徴とする、請求項1~3のいずれか1項に記載の製造支援システム。 The control device,
a determination unit that determines whether or not an assembly state of the part matches the assembly pattern based on the captured image of the imaging device and the identification information;
and a highlighting unit that highlights a portion where the assembly state of the part does not match the assembly pattern so as to conform to a coordinate system of an actual scene within the field of vision of the worker.
前記撮影装置の撮影画像の中から、前記組み付け作業の内容が記載された作業指示書に含まれる識別情報を抽出し、
組み付け対象に対する複数の前記部品の組み付け位置及び組み付け向きの情報を含む組み付けパターンとこれに対応する前記識別情報との関係が規定された第一データベースに基づき、前記識別情報に対応する前記部品の組み付け位置及び組み付け向きの情報を含む組み付けパターンを取得し、
複数の前記部品の部品番号及び使用数と前記識別情報との関係が規定された第二データベースに基づき、前記識別情報に対応する前記部品番号及び前記使用数の情報を取得し、
前記撮影装置の撮影画像の中から、前記組み付け対象を認識し、
前記組み付け対象に複数の前記部品が組み付けられた完成時の位置及び向きで複数の前記部品の虚像を描画するとともに、前記部品番号及び前記使用数の情報を前記組み付け対象の近傍に描画する
ことを特徴とする、製造支援方法。 A manufacturing support method for supporting a part assembly operation by displaying a virtual image conforming to a coordinate system of a real scene on a display device that displays a virtual image that is superimposed on a real scene, the virtual image being displayed on the display device to a worker wearing smart glasses on the worker's head, the virtual image being conforming to a coordinate system of the real scene,
extracting identification information included in a work instruction sheet describing the details of the assembly work from the image captured by the imaging device;
acquiring an assembly pattern including information on assembly positions and assembly orientations of the parts corresponding to the identification information based on a first database in which a relationship between an assembly pattern including information on assembly positions and assembly orientations of the parts with respect to an assembly target and the identification information corresponding to the assembly pattern is defined;
acquiring information on the part numbers and the usage numbers corresponding to the identification information based on a second database in which the relationship between the part numbers and the usage numbers of the multiple parts and the identification information is defined;
Recognizing the assembly target from the captured image of the imaging device;
A manufacturing support method comprising: drawing virtual images of a plurality of parts in positions and orientations when the plurality of parts are assembled to the object to be assembled, and drawing information on the part numbers and the number of parts used near the object to be assembled.
前記撮影装置の撮影画像の中から、前記組み付け作業の内容が記載された作業指示書に含まれる識別情報を抽出し、
組み付け対象に対する複数の前記部品の組み付け位置及び組み付け向きの情報を含む組み付けパターンとこれに対応する前記識別情報との関係が規定された第一データベースに基づき、前記識別情報に対応する前記部品の組み付け位置及び組み付け向きの情報を含む組み付けパターンを取得し、
複数の前記部品の部品番号及び使用数と前記識別情報との関係が規定された第二データベースに基づき、前記識別情報に対応する前記部品番号及び前記使用数の情報を取得し、
前記撮影装置の撮影画像の中から、前記組み付け対象を認識し、
前記組み付け対象に複数の前記部品が組み付けられた完成時の位置及び向きで複数の前記部品の虚像を描画するとともに、前記部品番号及び前記使用数の情報を前記組み付け対象の近傍に描画する
処理をコンピューターに実行させる、製造支援プログラム。 A manufacturing support program that supports a part assembly operation by displaying a virtual image that matches a coordinate system of a real scene on the display device, the virtual image being displayed on the display device to a worker wearing smart glasses that incorporate an imaging device that captures a real scene within a field of vision and a display device that displays a virtual image superimposed on the real scene,
extracting identification information included in a work instruction sheet describing the details of the assembly work from the image captured by the imaging device;
acquiring an assembly pattern including information on assembly positions and assembly orientations of the parts corresponding to the identification information based on a first database in which a relationship between an assembly pattern including information on assembly positions and assembly orientations of the parts with respect to an assembly target and the identification information corresponding to the assembly pattern is defined;
acquiring information on the part numbers and the usage numbers corresponding to the identification information based on a second database in which the relationship between the part numbers and the usage numbers of the multiple parts and the identification information is defined;
Recognizing the assembly target from the captured image of the imaging device;
A manufacturing support program that causes a computer to execute a process of drawing virtual images of the multiple parts in the positions and orientations at which the multiple parts will be assembled to the assembly object, and drawing information on the part numbers and the number of parts used near the assembly object.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018164219 | 2018-09-03 | ||
JP2018164219 | 2018-09-03 | ||
JP2020541113A JP7374908B2 (en) | 2018-09-03 | 2019-08-20 | Manufacturing support systems, methods, programs |
PCT/JP2019/032359 WO2020049999A1 (en) | 2018-09-03 | 2019-08-20 | Manufacturing assistance system, method, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020541113A Division JP7374908B2 (en) | 2018-09-03 | 2019-08-20 | Manufacturing support systems, methods, programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023065371A JP2023065371A (en) | 2023-05-12 |
JP7468722B2 true JP7468722B2 (en) | 2024-04-16 |
Family
ID=69722914
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020541113A Active JP7374908B2 (en) | 2018-09-03 | 2019-08-20 | Manufacturing support systems, methods, programs |
JP2023013855A Active JP7468722B2 (en) | 2018-09-03 | 2023-02-01 | Manufacturing support system, method, and program |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020541113A Active JP7374908B2 (en) | 2018-09-03 | 2019-08-20 | Manufacturing support systems, methods, programs |
Country Status (2)
Country | Link |
---|---|
JP (2) | JP7374908B2 (en) |
WO (1) | WO2020049999A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114554163B (en) * | 2022-04-25 | 2022-08-19 | 深圳酷源数联科技有限公司 | Coal mine underground operation monitoring system |
JP2024072013A (en) * | 2022-11-15 | 2024-05-27 | トヨタ紡織株式会社 | Inspection apparatus |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012218037A (en) | 2011-04-11 | 2012-11-12 | Murata Machinery Ltd | Sheet metal process work support system |
JP2014071757A (en) | 2012-09-28 | 2014-04-21 | Brother Ind Ltd | Work assistance system and program |
JP2014215748A (en) | 2013-04-24 | 2014-11-17 | 川崎重工業株式会社 | Component mounting work supporting system, and component mounting method |
JP2017007866A (en) | 2016-09-13 | 2017-01-12 | オークラ輸送機株式会社 | Picking system |
-
2019
- 2019-08-20 WO PCT/JP2019/032359 patent/WO2020049999A1/en active Application Filing
- 2019-08-20 JP JP2020541113A patent/JP7374908B2/en active Active
-
2023
- 2023-02-01 JP JP2023013855A patent/JP7468722B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012218037A (en) | 2011-04-11 | 2012-11-12 | Murata Machinery Ltd | Sheet metal process work support system |
JP2014071757A (en) | 2012-09-28 | 2014-04-21 | Brother Ind Ltd | Work assistance system and program |
JP2014215748A (en) | 2013-04-24 | 2014-11-17 | 川崎重工業株式会社 | Component mounting work supporting system, and component mounting method |
JP2017007866A (en) | 2016-09-13 | 2017-01-12 | オークラ輸送機株式会社 | Picking system |
Also Published As
Publication number | Publication date |
---|---|
JPWO2020049999A1 (en) | 2021-08-26 |
WO2020049999A1 (en) | 2020-03-12 |
JP2023065371A (en) | 2023-05-12 |
JP7374908B2 (en) | 2023-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7468722B2 (en) | Manufacturing support system, method, and program | |
JP7488435B2 (en) | AR-Corresponding Labeling Using Aligned CAD Models | |
US20180350056A1 (en) | Augmented reality application for manufacturing | |
CN106340217B (en) | Manufacturing equipment intelligence system and its implementation based on augmented reality | |
JP6223122B2 (en) | Automatic reference frame calibration for augmented reality | |
US7558403B2 (en) | Information processing apparatus and information processing method | |
CN108961144B (en) | Image processing system | |
JP2017049658A (en) | AR information display device | |
JP7471428B2 (en) | SYSTEM, METHOD AND COMPUTER READABLE MEDIUM FOR USING VIRTUAL/AUGHTENT FOR INTERACTING WITH COLLABORATORY ROBOTS IN A MANUFACTURING OR INDUSTRIAL ENVIRONMENT - Patent application | |
Stanimirovic et al. | [Poster] A Mobile Augmented reality system to assist auto mechanics | |
WO2018223038A1 (en) | Augmented reality application for manufacturing | |
JP6803794B2 (en) | Image processing equipment and manufacturing system | |
CN107422710A (en) | The method and system of assembling product or plant maintenance are aided in based on AR | |
WO2023102637A1 (en) | Interactive visualizations for industrial inspections | |
CN111427452B (en) | Tracking method of controller and VR system | |
JP6061334B2 (en) | AR system using optical see-through HMD | |
US20150286975A1 (en) | Process support system and method | |
US20200005551A1 (en) | Display control method and display control apparatus | |
US20230377471A1 (en) | Control system for an augmented reality device | |
JP4926598B2 (en) | Information processing method and information processing apparatus | |
US20240338886A1 (en) | Recording medium, display data generation apparatus, and display data generation method | |
US11080942B2 (en) | Assistance method for assisting performance of a task on a product, comprising displaying a highlighting image highlighting a monitored part of the product | |
US11636827B2 (en) | Method for managing the display of a least one information item, and associated computer program product, information medium and display system | |
JP2020057298A (en) | Determination device, determination method, and determination program | |
WO2024142304A1 (en) | Information processing device, terminal, and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240318 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7468722 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |