KR20210075723A - Method and system of process design for hexpod usage in assembly process of aircraft - Google Patents

Method and system of process design for hexpod usage in assembly process of aircraft Download PDF

Info

Publication number
KR20210075723A
KR20210075723A KR1020190167131A KR20190167131A KR20210075723A KR 20210075723 A KR20210075723 A KR 20210075723A KR 1020190167131 A KR1020190167131 A KR 1020190167131A KR 20190167131 A KR20190167131 A KR 20190167131A KR 20210075723 A KR20210075723 A KR 20210075723A
Authority
KR
South Korea
Prior art keywords
marker
tracking
image
technology
camera
Prior art date
Application number
KR1020190167131A
Other languages
Korean (ko)
Inventor
김태화
김용주
김영찬
Original Assignee
주식회사 카프마이크로
주식회사 사람과기술
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 카프마이크로, 주식회사 사람과기술 filed Critical 주식회사 카프마이크로
Priority to KR1020190167131A priority Critical patent/KR20210075723A/en
Publication of KR20210075723A publication Critical patent/KR20210075723A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/15Vehicle, aircraft or watercraft design
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41865Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by job scheduling, process planning, material flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/04Manufacturing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Tourism & Hospitality (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Business, Economics & Management (AREA)
  • Manufacturing & Machinery (AREA)
  • Marketing (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Architecture (AREA)
  • Computational Mathematics (AREA)
  • Primary Health Care (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Pure & Applied Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Mathematical Optimization (AREA)
  • Game Theory and Decision Science (AREA)
  • Operations Research (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a process design method for hexapod use in an aircraft fuselage assembly process for flexible manufacture/production using an augmented reality (AR) technique for reinforcing a cooperation system between a design department and a production site and reducing an organizational silos effect between a designer and a site worker for an aircraft fuselage structure manufacturing production environment, and a system thereof. According to the present invention, the process design method for hexapod use in an aircraft fuselage assembly process comprises: a step of tracking the position, movement, speed, direction, etc. of an object of a real-world camera photographing image through a video interface when the image is transmitted; a step of creating a virtual object through computer graphics and accurately arranging the virtual object at a position of a real image; and a step of processing an interaction with a user through a display. The tracking step uses a GPS, an acceleration sensor, a gyro sensor, etc. usable in a mobile device as a sensor-based technique to track the movement, position, direction, etc. of an object to identify an augmented position on the screen, uses a camera or the like as a marker-based technique among vision-based techniques to recognize, track, and map a marker such as a QR code, or provides related information by filtering and comparing an image photographed through a camera and an object to be compared as a non-marker-based technique.

Description

항공기 기체 조립 공정에서 헥사포드 활용을 위한 공정 설계방법 및 시스템{Method and system of process design for hexpod usage in assembly process of aircraft}TECHNICAL FIELD [0002] Method and system of process design for hexpod usage in assembly process of aircraft}

본 발명은 항공기 기체 조립 공정에서 헥사포드 활용을 위한 공정 설계방법 및 시스템에 관한 것이다.The present invention relates to a process design method and system for utilizing hexapods in an aircraft body assembly process.

최근 산업분야의 트렌드는 단연 인공지능(AI), 사물인터넷(IoT), 빅 데이터(Big Data) 그리고 제4차 산업혁명일 것이다. 이러한 제조 산업 플랫폼 혁명에는 생산 공정을 효율적으로 분석하고, 제어, 실현할 수 있는 소프트웨어/하드웨어 융복합 기술 기반인 인공지능(AI), 증강현실(AR), 가상현실(VR)과 같은 IoT 기술, 다품종 생산에 적합한 유연하고 가변 가능한 설비의 하드웨어 기술이 복합적으로 요구되고 있다. The latest industrial trends will definitely be artificial intelligence (AI), Internet of Things (IoT), big data, and the fourth industrial revolution. In this manufacturing industry platform revolution, IoT technologies such as artificial intelligence (AI), augmented reality (AR) and virtual reality (VR), which are based on software/hardware convergence technology that can efficiently analyze, control, and realize the production process, and various types Hardware technology of flexible and variable equipment suitable for production is required in a complex way.

특히, 항공기 제조 분야에서, 항공용 비행훈련 시뮬레이터에서 시작된 가상현실 기술은 게임용 시뮬레이터뿐만 아니라 현재 레저나 의류 분야에 있어서는 관련 스마트 디바이스용 App들이 다수 나와 있지만, 항공기 제조 생산 현장을 위한 솔루션은 전무하다고 할 수 있으며, IDC RESEARCH사는 가상현실(VR) 및 증강현실(AR) 시장규모가 2016년 52억 달러에서 2020년 1,620억 달러로 확대될 것이라고 전망하고 있다.In particular, in the field of aircraft manufacturing, the virtual reality technology that started with the flight training simulator for aviation has a number of related smart device apps in the field of leisure and clothing as well as game simulators, but it can be said that there is no solution for the manufacturing site of the aircraft. IDC RESEARCH predicts that the virtual reality (VR) and augmented reality (AR) market will expand from $5.2 billion in 2016 to $162 billion in 2020.

항공기 기체 구조물 제조 생산현장에서 필수적인 치공구 및 Fixture 는 항공기 제조 생산에서 제작, 조립의 정밀도 및 효율성을 높이기 위해서는 없어서는 안 될 품목으로 특정 부품을 반복적으로 정확하게 위치시키고 유지, 위치 지정 등의 역할을 위한 형틀, 금형 같은 치구이며 기계가공, 용접, 조립등 공정을 거쳐 제작되고 기타 자동차, 철도차량, 조선 및 산업기계 분야에 사용 되고 있다.Tools and fixtures, which are essential in the manufacturing and production site of aircraft airframe structures, are indispensable items in order to increase the precision and efficiency of manufacturing and assembly in aircraft manufacturing and production. It is a jig like a mold, manufactured through machining, welding, and assembly processes, and is used in other automobiles, railway vehicles, shipbuilding and industrial machinery fields.

그런데, 대부분의 치공구들은 한 가지 제조 부품에 특화되어 전용 치공구로서의 역할을 하다보니 여러 제품에 적용하기 위해서는 각각의 치공구를 모두 제작해야 하므로 설계, 비용, 시간 모든 점에 있어 많은 단점을 가지고 있으며 혹은 연구되고 있거나 이미 적용중인 유연성 있는 치공구들은 대부분 기계 가공에 초점을 맞추어 연구되고 제작되다 보니 조립 공정에 사용 되는 재구성 가능한 치공구에 대한 연구는 부족한 상황이다. 특히, 항공 산업분야는 다품종 소량 생산의 특성상 해당 되는 치구를 만들기도 어려울 뿐더러 한 가지에 특화되어 고정된 치공구는 항공 제조 분야에 자동화 기술의 도입을 더욱 어렵게 만드는 요인으로 작용한다.However, since most jigs are specialized in one manufacturing part and serve as a dedicated jig, each jig must be manufactured in order to apply it to various products, so it has many disadvantages in terms of design, cost, and time. Most of the flexible jigs that have been or are already applied are researched and manufactured focusing on machining, so research on reconfigurable jigs used in the assembly process is insufficient. In particular, in the aviation industry, it is difficult to make a suitable jig due to the nature of small-volume production of various types, and a jig that is specialized for one thing is a factor that makes the introduction of automation technology more difficult in the aviation manufacturing field.

본 발명은 항공기 기체 구조물 제조 생산 환경을 대상으로 설계부서와 생산 현장과의 협업체계를 강화하고 설계자와 현장 작업자 간‘사일로 효과(Organizational Silos Effect)’를 줄여주는 증강현실(AR) 기술을 활용한 유연성 있는 제조/생산을 위한 항공기 기체 조립 공정에서의 헥사포드 활용을 위한 공정 설계방법 및 시스템에 관한 것이다.The present invention utilizes augmented reality (AR) technology that strengthens the collaboration system between the design department and the production site and reduces the 'Organizational Silos Effect' between designers and field workers for an aircraft airframe structure manufacturing and production environment. It relates to a process design method and system for using hexapods in an aircraft airframe assembly process for flexible manufacturing/production.

상기의 과제를 해결하기 위한 본 발명에 따른 항공기 기체 조립 공정에서 헥사포드 활용을 위한 공정 설계방법은, 현실세계의 카메라 촬영 영상을 전송하면, 비디오 인터페이스(Video Interface)를 통해 그 이미지를 사물의 위치와 움직임, 속도 방향 등을 추적하는 단계; 컴퓨터 그래픽을 통해 가상의 물체를 만들어내고 실제 영상의 위치에 정확히 배치하는 단계; 및 Display를 통해 사용자와의 상호작용을 처리하는 단계를 포함하고, 추적 단계는 센서 기반 기술로서 모바일 디바이스에서 활용 가능한 GPS, 가속도 센서, 자이로센서 등을 이용하여 사물의 움직임, 위치, 방향 등을 추적하여 화면에 증강 위치를 파악하거나, 비전기반기술 중에 마커기반기술은 카메라 등을 이용해서 QR코드와 같은 마커를 인식, 추적하고 매핑하거나, 비마커기반 기술로서 카메라를 통하여 촬영된 이미지 와 비교 대상 물체를 필터링하고 이를 비교하여 관련된 정보를 제공하는 것을 특징으로 한다.In the process design method for using hexapods in the aircraft body assembly process according to the present invention for solving the above problems, when a camera photographed image of the real world is transmitted, the image is displayed through a video interface to the position of an object and tracking movement, speed direction, etc.; creating a virtual object through computer graphics and arranging it exactly at the location of the real image; and processing the interaction with the user through the display. The tracking step is a sensor-based technology that tracks the movement, location, direction, etc. of an object using GPS, an acceleration sensor, a gyro sensor, etc. that can be used in a mobile device. to identify the augmented position on the screen, or among vision-based technologies, marker-based technologies recognize, track and map markers such as QR codes using a camera, etc., or, as a non-marker-based technology, compare an image taken through a camera with an object to be compared It is characterized in that it provides related information by filtering and comparing them.

상기 비전 기반 증강현실 기술로서 AR Phone과 Studistube ES를 이용하고, 비전기반으로 Phone Guide와 SR Engine 소프트웨어를 이용하는 것을 특징으로 한다.AR Phone and Studistube ES are used as the vision-based augmented reality technology, and Phone Guide and SR Engine software are used as vision-based.

가상의 물체를 실제 영상의 위치에 정확히 배치하는 기술로서 위치(Positioning), 랜더링(Rendering), 병합(Merging)의 3단계를 수행하는 것을 특징으로 한다.It is a technology for accurately arranging a virtual object at the location of an actual image, and it is characterized by performing three steps of positioning, rendering, and merging.

상기의 과제를 해결하기 위한 본 발명에 따른 항공기 기체 조립 공정에서 헥사포드 활용을 위한 공정 설계 시스템은, 현실세계의 카메라 촬영 영상을 전송하면, 비디오 인터페이스(Video Interface)를 통해 그 이미지를 사물의 위치와 움직임, 속도 방향 등을 추적하는 트래킹 모듈; 컴퓨터 그래픽을 통해 가상의 물체를 만들어내고 실제 영상의 위치에 정확히 배치하는 정합 모듈; 및 Display를 통해 사용자와의 상호작용을 처리하는 사용자 인터페이스 모듈을 포함하고, 트래킹 모듈은 센서 기반 기술로서 모바일 디바이스에서 활용 가능한 GPS, 가속도 센서, 자이로센서 등을 이용하여 사물의 움직임, 위치, 방향 등을 추적하여 화면에 증강 위치를 파악하거나, 비전기반기술 중에 마커기반기술은 카메라 등을 이용해서 QR코드와 같은 마커를 인식, 추적하고 매핑하거나, 비마커기반 기술로서 카메라를 통하여 촬영된 이미지 와 비교 대상 물체를 필터링하고 이를 비교하여 관련된 정보를 제공하는 것을 특징으로 한다.In the process design system for using hexapods in the aircraft body assembly process according to the present invention for solving the above problems, when a camera image of the real world is transmitted, the image is displayed through a video interface to the position of an object and a tracking module that tracks movement, speed direction, etc.; a matching module for creating virtual objects through computer graphics and arranging them exactly on the actual positions of the images; and a user interface module that processes interaction with the user through the display, and the tracking module is a sensor-based technology that uses GPS, accelerometer, gyro sensor, etc. that can be used in mobile devices, such as movement, location, direction, etc. to identify the augmented location on the screen by tracking the image, or among vision-based technologies, marker-based technology recognizes, tracks, and maps markers such as QR codes using a camera, etc., or compares it with images captured by a camera as a non-marker-based technology. It is characterized by providing related information by filtering the target object and comparing it.

상기 트래킹 모듈은, 상기 비전 기반 증강현실 기술로 AR Phone과 Studistube ES를 이용하고, 비전기반로 Phone Guide와 SR Engine 소프트웨어를 이용하는 것을 특징으로 한다.The tracking module is characterized by using AR Phone and Studistube ES as the vision-based augmented reality technology, and using Phone Guide and SR Engine software as a vision-based technology.

상기 정합 모듈은, 가상의 물체를 실제 영상의 위치에 정확히 배치하는 기술로서 위치(Positioning), 랜더링(Rendering), 병합(Merging)의 3단계로 구성된 것을 특징으로 한다.The matching module is a technology for accurately arranging a virtual object at the location of an actual image, and is characterized in that it consists of three steps: Positioning, Rendering, and Merging.

본 발명에 따르면, 항공기 기체 구조물 제조 생산현장에서 필수적인 치공구 장착 위치를 중심으로 증강현실 기술이 접목된 3D Model 형상의 가상 작업물이 실제 치공구상에 표시됨으로서 효과적으로 공정 작업 추진이 가능하고 생산성 및 품질에 기여할 수 있다.According to the present invention, a virtual work in the shape of a 3D model with augmented reality technology is displayed on the actual jig centered on the jig tool mounting position essential in the manufacturing site of the aircraft airframe structure, thereby effectively promoting process work and improving productivity and quality. can contribute

또한, 까다로운 항공기 기체구조물 조립 생산 환경을 정량화하고 ICT 정보통신기술을 접목하여 제품 생산 공정에 대한 셀 자동화, 실시간 처리 및 품질데이터 DB 생성, ERP 연계 환경 구축 등을 통하여 다품종 소량 생산에 특화된 세계 일류수준의 고품질 항공기 기체 구조물 공급 체계를 구축할 수 있다.In addition, the world-class level specialized for small quantity production of various kinds through quantification of the difficult aircraft body structure assembly production environment, cell automation for product production process, real-time processing and quality data DB creation, and ERP-linked environment by applying ICT information and communication technology of high-quality aircraft airframe structures can be established.

도 1은 Flexible Fixture를 적용한 조립 공정을 예시하는 참조도이다.
도 2는 항공기 기체 조립 공정에서 전술한 헥사포드를 활용하기 위한 공정 설계방법으로서 AR 시스템을 예시하는 참조도이다.
도 3은 AR 브라우저를 예시하는 참조도이다.
도 4는 AR 브라우저에서 좌표계 생성을 위한 스퀘어 마커 추적과 인식을 설명하기 위한 참조도이다.
도 5는 스퀘어 마커를 사용한 좌표계 생성을 예시하는 참조도이다.
도 6은 IR 타깃을 이용한 좌표계 생성을 예시하는 참조도이다.
도 7은 IR 타깃을 이용한 트래킹 사례를 예시하는 참조도이다.
도 8은 스퀘어 마커를 이용한 가상물체의 생성을 예시하는 참조도이다.
도 9는 조립작업 반경과 작업자의 이동 경로 검증을 위한 좌표 이동을 예시하는 참조도이다.
도 10은 가상물체간의 상대적 위치 측정을 예시하는 참조도이다.
도 11은 AR Open Source Mixare AR를 나타내는 참조도이다.
도 12는 센서 테스트의 결과 및 보정 사례를 나타내는 참조도이다.
도 13은 일반적인 GPS 위치정보를 사용한 위치신호 검출 사례를 나타내는 참조도이다.
도 14는 indoor GPS 편차보정 화면을 예시하는 참조도이다.
도 15는 OPC UA System Architecture를 나타내는 참조도이다.
도 16은 OPC UA 기반의 Interface Module 구성을 나타내는 참조도이다.
도 17은 공장 오버뷰 화면을 예시하는 참조도이다.
도 18은 장비 대시보드 화면을 예시하는 참조도이다.
도 19는 REDAX 에서 생성된 장비 상태 리포트 화면을 예시하는 참조도이다.
도 20은 공구 관리 화면을 예시하는 참조도이다.
1 is a reference diagram illustrating an assembly process to which a flexible fixture is applied.
2 is a reference diagram illustrating an AR system as a process design method for utilizing the aforementioned hexapod in an aircraft body assembly process.
3 is a reference diagram illustrating an AR browser.
4 is a reference diagram for explaining tracking and recognition of a square marker for generating a coordinate system in an AR browser.
5 is a reference diagram illustrating generation of a coordinate system using a square marker.
6 is a reference diagram illustrating generation of a coordinate system using an IR target.
7 is a reference diagram illustrating an example of tracking using an IR target.
8 is a reference diagram illustrating generation of a virtual object using a square marker.
9 is a reference diagram illustrating the coordinate movement for verification of the assembly work radius and the movement path of the operator.
10 is a reference diagram illustrating a relative position measurement between virtual objects.
11 is a reference diagram illustrating AR Open Source Mixare AR.
12 is a reference diagram illustrating a sensor test result and correction example.
13 is a reference diagram illustrating an example of detecting a location signal using general GPS location information.
14 is a reference diagram illustrating an indoor GPS deviation correction screen.
15 is a reference diagram illustrating the OPC UA System Architecture.
16 is a reference diagram illustrating the configuration of an OPC UA-based Interface Module.
17 is a reference diagram illustrating a factory overview screen.
18 is a reference diagram illustrating an equipment dashboard screen.
19 is a reference diagram illustrating an equipment status report screen generated in REDAX.
20 is a reference diagram illustrating a tool management screen.

이하, 도면을 참조하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.Hereinafter, with reference to the drawings, embodiments of the present invention will be described in detail so that those of ordinary skill in the art to which the present invention pertains can easily implement them.

본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.The present invention may be embodied in many different forms and is not limited to the embodiments described herein.

본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 부호를 붙이도록 한다. 이하에서 기재의 "상부 (또는 하부)" 또는 기재의 "상 (또는 하)"에 임의의 구성이 구비 또는 배치된다는 것은, 임의의 구성이 상기 기재의 상면 (또는 하면)에 접하여 구비 또는 배치되는 것을 의미한다. 또한, 상기 기재와 기재 상에 (또는 하에) 구비 또는 배치된 임의의 구성 사이에 다른 구성을 포함하지 않는 것으로 한정하는 것은 아니다.In order to clearly explain the present invention, parts irrelevant to the description are omitted, and the same reference numerals are given to the same or similar elements throughout the specification. In the following, the provision or arrangement of an arbitrary component on the “upper (or lower)” or “top (or below)” of the substrate means that any component is provided or disposed in contact with the upper surface (or lower surface) of the substrate. means that Further, it is not limited to not include other components between the substrate and any components provided or disposed on (or under) the substrate.

까다로운 항공기 기체구조물 생산 환경을 정량화하고 ICT 정보통신기술을 접목하여 제품 생산 공정에 대한 셀 자동화, 실시간 처리 및 품질데이터 DB 생성, ERP 연계 환경 구축 등을 통하여 다품종 소량 생산에 특화된 세계 일류수준의 고품질 항공기 기체 구조물 조립시스템 공급 체계 구축을 위해서는 ‘Flex-Fixture를 적용한 항공기 기체구조물 조립·생산 자동화 솔루션 개발’이 요구된다.World-class high-quality aircraft specialized in small-lot production of various types through quantification of difficult aircraft airframe structure production environments, cell automation for product production processes, real-time processing and quality data DB creation, and ERP-linked environment by applying ICT information and communication technology In order to establish a supply system for an airframe assembly system, 'development of an aircraft structure assembly and production automation solution applying Flex-Fixture' is required.

상대적으로 체계적인 공정 개발능력을 바탕으로 첨단 항공기 생산을 위한 완벽한 시스템을 구축하고 있는 대기업이 아니라 기술경쟁력이 취약하고 기술 인력과 인적구성이 빈약한 중소기업에서는, 주 고객사의 잦은 설계변경과 품질 요구, 원가 절감에 대한 빈번한 요구에 대응하기 위해 독자 기술개발능력 확보 및 생산자동화 구축이 절실한 상황이다.Not a large corporation that is building a perfect system for high-tech aircraft production based on a relatively systematic process development capability, but a small and medium-sized company with weak technological competitiveness and a poor technical manpower and personnel composition, frequent design changes, quality requirements, and cost of major customers In order to respond to the frequent demands for reduction, it is urgent to secure independent technology development capabilities and build production automation.

도 1은 Flexible Fixture를 적용한 조립 공정을 예시하는 참조도이다.1 is a reference diagram illustrating an assembly process to which a flexible fixture is applied.

도 1에서 보는 바와 같이, Reconfigurable Flex-Fixture 구현을 위한 병렬 기구 로봇인 헥사포드에 대해 설명한다.As shown in FIG. 1, a hexapod, a parallel instrument robot for realizing reconfigurable Flex-Fixture, will be described.

Reconfigurable Flex-Fixture 구현을 위한 병렬 기구 로봇의 종류에는 Hexapod와 Flexapod로 구분된다. Hexapod와 Flexapod는 동일한 등급의 병렬 형태 로봇으로 설계 및 사용되는 부품의 구조에만 차이가 있고 기본적인 기구학적 형태는 동일하다. 따라서 이러한 디자인의 차이는 운동학이나 Reconfigurable Flex-Fixture 구현을 위한 아이디어에 큰 영향을 미치지 않기 때문에 Hexapod와 Flexapod를 별도로 구분하지 않고 병렬 로봇의 기본적인 구조를 바탕으로 개괄적인 설명을 한다. The types of parallel mechanical robots for realizing reconfigurable Flex-Fixture are divided into Hexapod and Flexapod. Hexapod and Flexapod are parallel robots of the same class, only the structure of the parts designed and used is different, and the basic kinematics are the same. Therefore, since this design difference does not significantly affect the kinematics or the idea for realizing the Reconfigurable Flex-Fixture, the Hexapod and the Flexapod are not separately distinguished, and an overview is given based on the basic structure of the parallel robot.

병렬 기구 로봇은 최초 제안자인 D 스튜어트(Stewart)의 이름을 붙여 스튜어트 플랫폼(Stewart Platforms)이라고도 하며, 일반적으로 상부 Plate와 하부 Plate로 구성된 두 플랫폼을 Prismatic 형태의 Linear Motion Actuator(다리)로 연결시킨 병렬 구조 로봇인 Hexapod 로봇이라고 칭한다. 6개의 다리는 한쪽 끝의 기본 플랫폼에 연결되어 있고 다른 쪽 끝은 이동 플랫폼에 연결되어 있다. Flexapod과 표준 Hexapod의 설계상 차이점은 hexapod은 상위 연결 지점이 구형 조인트를 통해 다리에 연결되는 반면, Flexapod은 상위 연결 지점을 위한 범용 조인트를 가지고 있으며 자체 축을 기준으로 hexapod의 형태에서 최종 자유도인 구형 조인트 부품에 다리의 회전이 발생되도록 구성되어 있다.Parallel mechanical robots are also called Stewart Platforms after the name of the first proponent, D Stewart, is a parallel system in which two platforms, usually composed of an upper plate and a lower plate, are connected by a linear motion actuator (leg) of a Prismatic type. The rescue robot is called Hexapod robot. The six legs are connected to the base platform at one end and the other end to the mobile platform. The difference in design between a Flexapod and a standard Hexapod is that the hexapod has a spherical joint where the upper attachment point is connected to the leg through a spherical joint, whereas the Flexapod has a universal joint for the upper attachment point and a spherical joint that is the final degree of freedom in the shape of the hexapod relative to its own axis. The part is configured to cause rotation of the legs.

본 발명은 항공기 기체 조립 공정에서 전술한 헥사포드를 활용하기 위한 공정 설계방법 및 시스템을 제공한다. The present invention provides a process design method and system for utilizing the aforementioned hexapod in an aircraft body assembly process.

도 2는 항공기 기체 조립 공정에서 전술한 헥사포드를 활용하기 위한 공정 설계방법으로서 AR 시스템을 예시하는 참조도이다.2 is a reference diagram illustrating an AR system as a process design method for utilizing the aforementioned hexapod in an aircraft body assembly process.

1. AR을 이용한 Reconfigurable Flex Fixture 가상 조립공정시스템을 살펴보면 다음과 같다.1. A look at the Reconfigurable Flex Fixture virtual assembly process system using AR is as follows.

모바일 AR 구현에 필요한 주요 기술로는 사용자의 위치, 방향, 움직임 등에 대한 추적(Tracking)기술, 컴퓨터 그래픽을 통해 가상의 물체를 만들어내고 실제 영상의 위치에 정확히 배치하는 정합(Registration)기술, 그리고 Display 등 사용자와의 상호작용을 처리하는 UI(User Interface)기술 등이 있다.Major technologies required for mobile AR implementation include tracking technology for the user's location, direction, and movement, registration technology that creates virtual objects through computer graphics and places them exactly in the actual image location, and display There is a UI (User Interface) technology that handles interactions with users, etc.

AR시스템은 상기 그림과 같이 현실세계의 카메라 촬영 영상을 전송하면, 비디오 인터페이스(Video Interface)를 통해 그 이미지를 사물의 위치와 움직임, 속도 방향 등을 추적하는 기능을 수행하는 추적(Tracking) 모듈로 전달한다.The AR system is a tracking module that performs a function of tracking the position, movement, speed direction, etc. of an object through a video interface when the image captured by a camera in the real world is transmitted as shown in the figure above. transmit

랜더링(Rendering) 모듈은 추적 모듈을 통해 파악된 사물의 위치 기반으로 가상 물체의 생성이나 제거 작업을 통해 증강 이미지를 생성한다.The rendering module creates an augmented image through the creation or removal of a virtual object based on the location of the object identified through the tracking module.

추적(Tracking) 모듈은 센서기반기술과 비전기반기술로 나눌 수 있는데 비전기반기술은 마커기반과 비마커기반 등으로 구분된다. The tracking module can be divided into sensor-based technology and vision-based technology. Vision-based technology is divided into marker-based and non-marker-based technologies.

센서기반 기술은 모바일 디바이스에서 활용 가능한 GPS, 가속도 센서, 자이로센서 등을 이용하여 사물의 움직임, 위치, 방향 등을 추적하여 화면에 증강 위치를 파악하여 관련 콘텐츠를 시각화 하는 기술을 말하며 비교적 쉽게 구현할 수 있기 때문에 많이 활용되고 있으나 특정 위치에서 정확한 정보 증강이 어렵다는 단점이 있다.Sensor-based technology refers to a technology that uses GPS, accelerometer, and gyro sensor that can be used in mobile devices to track the movement, location, and direction of an object to identify the augmented location on the screen and visualize related content. Although it is widely used because there is one, there is a disadvantage that it is difficult to augment accurate information at a specific location.

비전기반기술 중에 마커기반기술은 카메라 등을 이용해서 QR코드와 같은 마커를 인식, 추적하고 매핑하는 기술이며, 비마커기반 기술도 카메라를 통하여 촬영된 이미지 와 비교 대상 물체를 필터링하고 이를 비교하여 관련된 정보를 제공하는 기술이다.Among vision-based technologies, marker-based technology is a technology that recognizes, tracks, and maps markers such as QR codes using a camera, etc. technology that provides information.

비전 기반 증강현실 기술의 활용 사례로는 AR Phone과 Studistube ES등이 있으며, 비전기반 사례로는 Phone Guide와 SR Engine 소프트웨어 등이 있다.Examples of vision-based augmented reality technology include AR Phone and Studistube ES, and vision-based examples include Phone Guide and SR Engine software.

또한 정합기술은 가상의 물체를 실제 영상의 위치에 정확히 배치하는 기술로서 위치(Positioning), 랜더링(Rendering), 병합(Merging)의 3단계로 구성된다.In addition, the matching technology is a technology that accurately places a virtual object at the location of the actual image, and consists of three steps: Positioning, Rendering, and Merging.

향후 AR기술은 추적기술 측면에서는 마커(Marker) 등을 통해 정보를 제공하는 비전 기반 및 GPS 등 위치 기반 AR에서 이미지 인식으로 진화하고 나아가 구글의 ‘Glass’와 같이 실제 3D 환경을 인지하고 관련 환경의 맥락을 이해하는 맥락 인식 기반 AR로 발전할 것으로 전망된다.In the future, AR technology will evolve from vision-based and location-based AR, such as GPS, which provides information through markers, to image recognition, in terms of tracking technology, and further recognizes the real 3D environment like Google's 'Glass' and analyzes the relevant environment. It is expected to develop into context-aware-based AR that understands the context.

또한 스마트폰 칩셋에 AR기술이 기본 탑재되면 현재보다 진일보된 AR 애플리케이션(앱) 개발이 더 쉽게 용이하게 될 것이다.In addition, if AR technology is built into the smartphone chipset, it will be easier to develop advanced AR applications (apps) than the present.

증강현실 시스템의 구성과 종류Composition and Types of Augmented Reality System

실제 환경에 가상의 물체를 정합하여 실제 환경의 현실감을 강화시키는 AR 시스템은 영상 및 가상물체의 처리를 위한 AR 브라우저와 관련 장치들의 인터페이스로 구성되며 카메라를 통해 획득되어진 영상은 AR 브라우저에서 영상 처리를 통해 가상물체와 정합이 이루어진다. 도 3은 AR 브라우저를 예시하는 참조도이다.The AR system, which enhances the sense of reality of the real environment by matching virtual objects to the real environment, consists of an AR browser for processing images and virtual objects and an interface of related devices, and the image acquired through the camera is processed in the AR browser. Through this, registration with the virtual object is achieved. 3 is a reference diagram illustrating an AR browser.

정합된 영상 정보는 모니터 또는 HMD(Head Mounted Display)와 같은 디스플레이 장치를 통해서 작업자에게 전달된다. 획득된 영상 정보를 기반으로 가상물체를 생성하기 위한 영상 처리를 수행하는 AR 브라우저는 크게 가상물체의 생성 기준 정보를 제공하는 마커를 인식하고 추적하기 위한 트래킹(tracking) 모듈, 가상물체의 생성/제거/이동을 위한 렌더링(rendering) 모듈과 가상물체간의 거리 측정 및 간섭을 검사하기 위한 측정(measurement) 모듈로 구성된다.The matched image information is transmitted to the operator through a display device such as a monitor or a head mounted display (HMD). The AR browser, which performs image processing to create a virtual object based on the obtained image information, is largely a tracking module for recognizing and tracking a marker that provides the creation reference information of the virtual object, and creation/removal of the virtual object. / Consists of a rendering module for movement and a measurement module for measuring distance between virtual objects and checking interference.

3가지 주요 모듈들은 영상 처리를 위한 기본적인 알고리즘과 수학적 연산처리를 수행하기 위한 C++ 기반의 라이브러리로 구성되어지며, 이들 각각의 모듈들은 비주얼 소프트웨어의 통합 표준인 액티브X(ActiveX)를 기반으로 상호 통합된다.The three main modules are composed of basic algorithms for image processing and C++-based libraries to perform mathematical operation processing, and each of these modules is mutually integrated based on ActiveX, an integrated standard of visual software. .

트래킹 모듈tracking module

실제 영상에 가상물체를 생성시키기 위해서는 가상물체와 실제 영상 사이의 매개체가 필요하다. AR 브라우저는 이러한 매개체를 지속적으로 추적하고 인식함으로써 가상물체의 생성을 위한 기준 좌표계를 설정한다. 이러한 역할을 수행하는 모듈이 트래킹 모듈이다.In order to create a virtual object in a real image, a medium between the virtual object and the real image is required. The AR browser establishes a reference coordinate system for the creation of virtual objects by continuously tracking and recognizing these mediums. The module that performs this role is the tracking module.

도 4는 AR 브라우저에서 좌표계 생성을 위한 스퀘어 마커 추적과 인식을 설명하기 위한 참조도이다.4 is a reference diagram for explaining tracking and recognition of a square marker for generating a coordinate system in an AR browser.

트래킹을 수행하기 위하여 기계, 자기, 광학 등의 다양한 원리가 제공되고 있지만 현재 이들 중에서 가장 높은 정밀도를 보이는 것이 광학을 이용하는 방법이기 때문에 정밀도 확보를 위해 스퀘어 마커를 이용한 광학 트래킹이 AR 시스템의 주류를 이루고 있다. 하지만 광학 기반의 트래킹 방법은 조명에 영향을 많이 받게 되므로 이를 극복하기 위해서 IR(infrared) 타깃을 사용하는 방법을 사용되기도 한다.Although various principles such as mechanical, magnetic, and optical are provided to perform tracking, optical tracking using a square marker is the mainstream of AR systems to secure precision because the method using optics currently shows the highest precision among them. have. However, since the optical-based tracking method is greatly affected by lighting, a method using an IR (infrared) target is sometimes used to overcome this.

스퀘어 마커 기반의 트래킹 방법:Square marker-based tracking method:

광학을 이용한 트래킹을 위해서 주로 스퀘어 마커가 사용된다. 스퀘어 마커를 기반으로 좌표계를 생성하기 위해서 AR 브라우저는 스퀘어 마커의 추적(detection)과 인식(Recognition)을 위한 이미지 프로세스를 순차적으로 수행한다.For tracking using optics, a square marker is mainly used. To create a coordinate system based on the square marker, the AR browser sequentially performs the image process for detection and recognition of the square marker.

또한 UI(User Interface)를 통하여 제공되는 마커의 크기 및 패턴정보와 마커 데이터베이스에 저장되어 있는 정보들간의 매칭을 통하여 가상물체를 생성하기 위한 기준 좌표계를 생성한다. 또한 기준 좌표계의 방향 결정을 위해서 흑백으로 구성된 2차원 행렬 마커나 템플릿이 사용된다. In addition, a reference coordinate system for generating a virtual object is generated through matching between the size and pattern information of the marker provided through the UI (User Interface) and the information stored in the marker database. In addition, a two-dimensional matrix marker or template composed of black and white is used to determine the direction of the reference coordinate system.

동적인 현장 시스템의 운영 프로그램을 생성하기 위해 스퀘어 마커가 사용되는 경우에 있어서 다른 현장 구성 요소들에 의해서 스퀘어 마커가 가려질 수 있으며 또한 로봇과 같이 위치와 방향이 자주 변경되는 경우에도 카메라가 지속적으로 마커를 추적하는 것이 불가능하다. 이러한 문제점들을 해결하기 위해서 멀티 마커 시스템을 이용한 좌표계가 사용된다. When a square marker is used to create an operating program of a dynamic field system, the square marker can be obscured by other field components, and the camera continues to operate even when the position and direction are frequently changed like a robot. It is impossible to track the marker. To solve these problems, a coordinate system using a multi-marker system is used.

도 5는 스퀘어 마커를 사용한 좌표계 생성을 예시하는 참조도이다.5 is a reference diagram illustrating generation of a coordinate system using a square marker.

멀티 마커 시스템에 사용된 다수의 마커들 중에서 카메라가 하나 이상의 마커 영상을 획득하는 것이 가능하다면 AR 브라우저는 기준 좌표계를 지속적으로 유지할 수 있다.If it is possible for the camera to acquire an image of one or more markers among a plurality of markers used in the multi-marker system, the AR browser may continuously maintain the reference coordinate system.

IR 타깃을 이용한 트래킹 방법:How to track using an IR target:

스퀘어 마커를 이용한 트래킹 방법은 AR 시스템이 적용되는 작업장의 조명 조건, 카메라와 마커와의 거리 및 각도, 마커의 크기 등과 같이 영상 처리에 영향을 미치는 주변 환경 변수에 의해서 가상물체의 정합 강건성에 많은 영향을 받게 된다. 일반적으로 작업 현장은 이러한 조건들을 충족시키지 못한다. 이러한 문제들을 해결하기 위해서 IR 타깃을 이용한 트래킹 방법론이 제시된다. The tracking method using a square marker has a lot of influence on the registration robustness of virtual objects by surrounding environmental variables that affect image processing, such as lighting conditions of the workplace where the AR system is applied, the distance and angle between the camera and the marker, and the size of the marker. will receive In general, the job site does not meet these conditions. In order to solve these problems, a tracking methodology using an IR target is presented.

우선 둘 이상의 적외선 카메라를 이용하여 작업 영역을 정의하고 전체 좌표계의 기준이 되는 월드 좌표계를 설정한다. 그리고 IR 타깃을 이용하여 가상물체 생성을 위한 기준 좌표계를 생성한다.First, the work area is defined using two or more infrared cameras, and the world coordinate system, which is the basis of the overall coordinate system, is set. Then, a reference coordinate system for creating a virtual object is generated using the IR target.

도 6은 IR 타깃을 이용한 좌표계 생성을 예시하는 참조도이다.6 is a reference diagram illustrating generation of a coordinate system using an IR target.

ART(Advanced Realtime Tracking) GmbH사에서 제공하는 IR 타깃을 이용하는 경우에는 도 6과 같이 3가지 방법으로 국부 좌표계 설정 가능하다.When using the IR target provided by ART (Advanced Realtime Tracking) GmbH, it is possible to set the local coordinate system in three ways as shown in FIG. 6 .

ART 트래킹시스템에서 적외선 카메라는 IR 타깃을 지속적으로 트래킹하고, 월드 좌표계를 기준으로 획득되어진 국부 좌표계의 상대적인 위치값들을 AR 시스템으로 전송한다. 전송된 데이터를 기반으로 AR 브라우저에서는 가상물체의 생성을 위한 기준 좌표계를 설정한다. 필요에 따라서 이들 두 가지 방법을 동시에 사용할 수 있다. 도 7은 IR 타깃을 사용한 AR 시스템의 적용 사례를 나타낸 것이다. In the ART tracking system, the infrared camera continuously tracks the IR target and transmits the relative position values of the local coordinate system obtained based on the world coordinate system to the AR system. Based on the transmitted data, the AR browser sets a reference coordinate system for the creation of virtual objects. These two methods can be used simultaneously if necessary. 7 shows an application example of an AR system using an IR target.

다음 아래 그림은 스퀘어 마커와 IR 타깃을 동시에 사용하는 AR 시스템에 대한 구성도를 나타낸 것이다.The following figure shows the configuration diagram of an AR system that uses a square marker and an IR target at the same time.

렌더링 모듈rendering module

트래킹 모듈을 통해 생성된 좌표계를 기반으로 가상물체의 생성 및 제거는 렌더링 모듈을 통해서 수행된다. 하나의 마커를 이용하여 여러 개의 가상물체를 생성하는 것이 가능하다. Creation and removal of virtual objects based on the coordinate system created through the tracking module is performed through the rendering module. It is possible to create several virtual objects using one marker.

도 8은 스퀘어 마커를 이용한 가상물체의 생성을 예시하는 참조도이다. 도 8의 왼쪽 이미지와 같이 모든 가상물체가 상대적인 움직임을 가지지 않는 경우에는 하나의 마커로 가상 시스템 전체를 실제 환경에 정합할 수 있다. 하지만 도 8의 오른쪽 이미지와 같이 AGV처럼 가상물체간의 상대적인 움직임이 있는 경우에는 생성되는 구성요소들 마다 각각의 기준 좌표계가 필요하게 되므로 해당 가상물체마다 각각의 마커가 필요하다.8 is a reference diagram illustrating generation of a virtual object using a square marker. As in the left image of FIG. 8 , when all virtual objects do not have relative motion, the entire virtual system can be matched to the real environment with one marker. However, as in the right image of FIG. 8 , when there is a relative movement between virtual objects like an AGV, a respective reference coordinate system is required for each generated component, and thus a respective marker is required for each corresponding virtual object.

생성된 가상물체들은 카메라와의 거리 정보를 기반으로 정합되는 순서를 가진다. 즉 카메라에 가까이 있는 가상물체에 의해서 멀리 있는 가상물체는 가려지게 된다. 작업을 수행하는 과정에서 멀리 있는 가상물체의 정보가 요구될 수 있다. 이 경우에는 가까이 있는 가상물체를 제거함으로써 멀리 있는 가상물체의 정보를 얻을 수 있다.The generated virtual objects have a matching order based on distance information from the camera. That is, the distant virtual object is obscured by the virtual object close to the camera. In the process of performing a task, information on a distant virtual object may be required. In this case, information of a distant virtual object can be obtained by removing a nearby virtual object.

가상물체의 좌표 이동Moving the coordinates of the virtual object

도 9는 조립작업 반경과 작업자의 이동 경로 검증을 위한 좌표 이동을 예시하는 참조도이다.9 is a reference diagram illustrating the coordinate movement for verification of the assembly operation radius and the movement path of the operator.

초기에 생성되는 가상물체는 마커의 중심을 원점으로 생성한다.The initially created virtual object is created with the center of the marker as the origin.

현장의 상황에 따라서 원하는 위치에 마커를 위치할 수 없거나 마커 트래킹을 수행하는 동안 다른 물체의 시각적인 간섭을 받을 수도 있다.Depending on the situation in the field, it may not be possible to place the marker at a desired location, or it may receive visual interference from other objects while performing marker tracking.

이러한 경우에는 마커를 트래킹이 용이한 위치에 설치하고 AR 브라우저상에서 가상물체를 정위치에 위치시키기 위해서 좌표이동을 수행한다.In this case, the marker is installed at a location where tracking is easy, and coordinate movement is performed to position the virtual object in the correct position on the AR browser.

또한, 생성되어진 가상물체를 시스템 검증을 위해서 임의의 위치로 이동이 요구되어질 수 있다. 아래 그림은 좌표이동을 수행하여 수조립 공정을 수행하는 작업자의 동선을 나타낸 것이다.Also, it may be required to move the created virtual object to an arbitrary location for system verification. The figure below shows the movement of the operator performing the manual assembly process by moving the coordinates.

측정 모듈measurement module

AR 브라우저를 통해 획득되는 영상은 2차원이므로 가상물체들간의 위치 및 거리정보를 한눈에 파악하는 것이 용이하지 못하다.Since the image obtained through the AR browser is two-dimensional, it is not easy to grasp the location and distance information between virtual objects at a glance.

생성된 가상물체들간의 거리 측정, 생성된 좌표계간의 거리와 방향 측정 및 가상물체간의 간섭 여부를 확인하기 위하여 다양한 측정 도구들이 필요하다. 이를 수행하는 것이 측정(measurement) 모듈이다.Various measurement tools are needed to measure the distance between the generated virtual objects, to measure the distance and direction between the created coordinate systems, and to check the interference between the virtual objects. It is the measurement module that does this.

가상물체간의 거리 측정Distance measurement between virtual objects

가상물체는 마커를 중심으로 생성되어지므로 임의의 두 점 사이의 거리는 마커를 기반으로 한 P1과 P2를 이용하여 구할 수 있다.Since the virtual object is created around the marker, the distance between any two points can be calculated using P1 and P2 based on the marker.

실제 공간의 마커들간의 거리 정보를 추가함으로써 서로 다른 마커를 기반으로 생성된 임의의 두 점 사이의 거리도 측정하는 것이 가능하다. 도 10은 가상물체간의 상대적 위치 측정을 예시하는 참조도이다.By adding distance information between markers in real space, it is also possible to measure the distance between any two points generated based on different markers. 10 is a reference diagram illustrating a relative position measurement between virtual objects.

가상물체와 실제 환경간의 간섭 체크Interference check between virtual object and real environment

가상물체는 항상 실제 영상 위에 존재. 즉 가상물체와 실제 환경과의 간섭을 시각적으로 확인하는 것은 불가능하다.Virtual objects always exist on top of real images. That is, it is impossible to visually check the interference between the virtual object and the real environment.

이를 위해서 클리핑 플레인(clipping plane) 사용한다.For this, a clipping plane is used.

클리핑 플레인은 투명한 가상의 평판으로 역시 마커를 기반으로 생성한다.A clipping plane is a transparent virtual plate that is also created based on markers.

클리핑 플레인의 기능은 해당되는 기준 평면을 기준으로 한 쪽의 가상물체를 제거하는 역할을 수행하며 벽면에 부착되어 있는 마커를 기준으로 클리핑 플레인을 생성함으로써 가상 차체와 주변 시스템과의 간섭을 육안으로 파악하는 것이 가능하다.The function of the clipping plane is to remove a virtual object on one side based on the corresponding reference plane, and by creating a clipping plane based on the marker attached to the wall, the interference between the virtual body and the surrounding system is visually identified. it is possible to do

AR을 이용한 RFF 가상 조립공정시스템RFF virtual assembly process system using AR

증강현실 응용서비스를 위한 앱(Application, App)은 항공기 제조생산 현장 환경을 App에 구현된 AR(증강현실) 기술을 통하여 기준 형상과 치구 장칙 위치를 1:1로 매칭시키는 다양한 정보를 출력하여 실제 현장 환경과 가상의 형상 정보를 최대한 정확히 정합시켜 제공하는 서비스를 구현한다. 이를 위해 개발되는 앱에는 AR(증강현실) 모듈, 자이로스코프 센싱 기술, GPS 검출 및 적용 알고리즘과 Indoor DGPS 오차범위를 보정할 수 있는 GPS Map Utility 적용한다.The application (Application, App) for augmented reality application service outputs various information that matches the reference shape and fixture position 1:1 through AR (augmented reality) technology implemented in the aircraft manufacturing and production site environment in the actual application. It implements the service provided by matching the field environment and virtual shape information as accurately as possible. The app developed for this purpose applies AR (augmented reality) module, gyroscope sensing technology, GPS detection and application algorithm, and GPS Map Utility that can correct the indoor DGPS error range.

AR 응용서비스 App 모듈AR application service App module

안드로이드와 아이폰 3G 이상에서 사용할 수 있는 무료 증강현실 오픈소스이며 증강현실에 대한 기본적인 기능들이 구현되어 있는 Mixare AR을 기반으로 개발한다.It is a free augmented reality open source that can be used on Android and iPhone 3G or higher, and is developed based on Mixare AR, which implements basic functions for augmented reality.

오픈소스가 많은 영상기반 증강현실과 다르게 위치기반 증강현실에는 Mixare가 거의 유일한 오픈소스이므로 이를 분석, 수정 보완하여 Reconfigurable Flex Fixture를 대상체로 하는 Mixare-RFF를 구현한다.Unlike image-based augmented reality with many open sources, Mixare is almost the only open source for location-based augmented reality, so it analyzes, corrects and supplements it to implement Mixare-RFF, which uses Reconfigurable Flex Fixture as an object.

도 11은 AR Open Source Mixare AR를 나타내는 참조도이다.11 is a reference diagram illustrating AR Open Source Mixare AR.

Mixare AR 모듈은 상기 그림과 같이 스마트폰 카메라 view에 overlay 되는 object들이 특정한 원형라인을 따라 동작하므로 Mixare-RFF는 시각적 효과를 위해 overlay되는 object들의 아이콘의 사이즈를 거리에 따라 변경할 수 있도록 알고리즘을 적용하고 호출한다.Since the Mixare AR module operates along a specific circular line on the smartphone camera view as shown in the figure above, Mixare-RFF applies an algorithm to change the icon size of the overlaid objects according to the distance for visual effect. call

또한 치공구의 목표위치에 정합되는 점의 위치와 정확성을 증가시키기 위해 삼각측량 방위각을 활용한 알고리즘을 적용하고 레이저 트래커를 통해 방위각의 오차정도를 비교 분석한 후 결과를 도출하여 아래 표와 같이 방위각을 통해 두 지점간 거리 및 위치 정확도가 얼마나 향상되는지 정량화시킬 수 있다. 표 1은 Mixare와 Mixare-RFF의 성능 비교를 나타내는 표이다.In addition, in order to increase the position and accuracy of the point matching the target position of the jig tool, an algorithm using triangulation azimuth is applied, and the azimuth angle is calculated as shown in the table below after comparing and analyzing the error degree of the azimuth through the laser tracker. It is possible to quantify how much the distance and position accuracy between two points is improved. Table 1 is a table showing the performance comparison between Mixare and Mixare-RFF.

항목Item MixareMixare Mixare-RFFMixare-RFF 비고remark object 배치object placement 원형circle 수평level object 사이즈object size 변경 불가Impossible to change 변경 가능changeable 거리에 따른 아이콘 사이즈Icon size according to distance object 정확성object accuracy 위치파악 힘듦difficult to locate 위치파악 양호good positioning 센서 민감도sensor sensitivity 심함severe 보통usually

자이로스코프 센싱 기술 적용Gyroscope sensing technology applied

회전이나 가속을 구성하는 센서 또한 제조사와 제조 단말기에 따라 다르고, 근접 센서의 반응속도는 빠르나 거리가 매우 짧아 근접 센서를 사용해서 프로그램을 구현하기 위해서는 많은 제약이 따른다.Sensors constituting rotation or acceleration also differ depending on the manufacturer and manufacturing terminal, and although the response speed of the proximity sensor is fast, the distance is very short.

도 12는 센서 테스트의 결과 및 보정 사례를 나타내는 참조도이다.12 is a reference diagram illustrating a sensor test result and correction example.

보통의 경우 가속, 조도, 근접, 자기 센서는 베이스 모듈이기에 개발에 필요한 센서 기능인 가속, 조도, 자기 센서만 추출 및 적용하며, 최근 스마트폰에 적용되는 자이로스코프센서는 섬세하게 스마트폰의 움직임을 감지하는 장점이 있다.In general, acceleration, illuminance, proximity, and magnetic sensors are base modules, so only acceleration, illuminance, and magnetic sensors, which are sensor functions necessary for development, are extracted and applied. There is an advantage to

그러나 선행 실험에 따르면, 안드로이드 폰 자체의 자이로스코프 센서는 민감도가 너무 미세하여 센서 데이터값 호출시 소수점 부분 반올림 처리하여 상기 그림과 같이 민감도를 다소 조정할 경우 민감도가 둔화되는 경우가 발생하므로 주의해야 할 사항으로 조사된다.However, according to previous experiments, the sensitivity of the gyroscope sensor of the Android phone itself is too fine, so when calling the sensor data value, the decimal point is rounded off. is investigated as

휴대폰 위치와 카메라가 향하고 있는 목표지점의 좌표 데이터를 호출하여 그 목표지점까지의 방향 데이터를 취득하도록 구성할 계획이며 취득된 방향 데이터와 기기내 방향 데이터의 센서값에 따른 Object 위치 알고리즘을 적용한다.It is planned to acquire the direction data to the target point by calling the coordinate data of the mobile phone location and the target point that the camera is facing, and the object location algorithm according to the sensor value of the acquired direction data and in-device direction data is applied.

Indoor DGPS 신호 검출 및 적용 알고리즘Indoor DGPS signal detection and application algorithm

도 13은 일반적인 GPS 위치정보를 사용한 위치신호 검출 사례를 나타내는 참조도이다.13 is a reference diagram illustrating an example of detecting a location signal using general GPS location information.

정확한 거리와 위치를 산정하여 제시해 주는 것은 신뢰성 있는 정보제공을 통한 사용성 확보 측면에서 매우 중요한 사항이다. 따라서 GPS 센서를 통해 수신된 거리나 위치 정보를 실제와 비교해서 얼마만큼 정확하게 보여줄 수 있는지에 대한 사항이 매우 중요하다. 즉, 현재 자신의 위치에 대한 정보를 얼마나 정확하게 받아오는지에 대한 확인이 필요하다.Calculating and presenting the exact distance and location is very important in terms of securing usability through reliable information provision. Therefore, it is very important to know how accurately the distance or location information received through the GPS sensor can be displayed compared to the actual one. That is, it is necessary to check how accurately information about one's current location is received.

도 14는 indoor GPS 편차보정 화면을 예시하는 참조도이다. 14 is a reference diagram illustrating an indoor GPS deviation correction screen.

스마트폰의 GPS는 기기의 특성에 따라 도 14와 같이 기본적인 오차범위는 약 5∼10m 내외 오차를 포함하고 있기 때문에 실제 거리와 기준이 되는 맵의 위치 차이를 계산하는 알고리즘이나 적극적 보정 방법이 필요하다. 이를 해결하기 위해 프로그램에서 GPS를 보정할 수 있는 기능을 도 14와 같이 구성한다. 표 2는 편차 보정후의 오차 비교의 예를 나타내는 표이다. Since the GPS of the smartphone contains an error of about 5 to 10 m, as shown in FIG. 14, depending on the characteristics of the device, an algorithm or an active correction method for calculating the difference between the actual distance and the position of the reference map is required. . In order to solve this problem, a function capable of compensating the GPS in the program is configured as shown in FIG. 14 . Table 2 is a table showing an example of error comparison after deviation correction.

구분division 안드로이드폰android phone 일반 GPS오차General GPS error 5 ~ 10m 내외5 ~ 10m GPS오차 보정후 오차(정확성)Error after GPS error correction (accuracy) 5m 이내(cm급 오차)Within 5m (cm class error)

조립공정 정보시스템Assembly process information system

항공기 구조물 조립생산과 관련된 정보시스템은 작업자의 수작업을 기본 모델로 하고 작업 대상물의 실측 사진 정보와 3차원 도면 등을 참고하여 안드로이드 기반으로 한다.The information system related to the assembly and production of aircraft structures is based on the basic model of the operator's manual work, and based on Android by referring to actual photographic information and 3D drawings of the work object.

증강현실 개발 오픈소스인 Mixare를 수정 보완하여 개발된 Mixare-RFF, 자이로스코프 센싱기술의 적용과, GPS 계산 및 편차보정을 통하여 증강현실응용시스템으로서 조립공정 정보시스템(ASFP) 메뉴는 아래 표의 대분류, 중분류와 같이 구성한다.As an augmented reality application system through the application of Mixare-RFF and gyroscope sensing technology developed by modifying and supplementing Mixare, an augmented reality development open source, and GPS calculation and deviation correction, the Assembly Process Information System (ASFP) menu is divided into the main categories in the table below, It is structured like a middle class.

메인 화면에는 대분류인 작업장 정보와 조립공정 OPR, Quick OPR, 대상품 관리, 환경설정 및 사용법(Help) 메뉴로 구성하며 본 App 개발의 핵심이라고 할 수 있는 증강현실 메뉴는 메인 화면에 있는 조립공정 OPR 메뉴의 하위 메뉴에 구성한다.The main screen consists of workshop information and assembly process OPR, Quick OPR, object management, environment setting and usage (Help) menus, which are major categories. The augmented reality menu, which can be said to be the core of this app development, is the assembly process OPR on the main screen. Organize in a submenu of the menu.

2. 항공기 기체구조물 생산 공정매니지먼트 시스템2. Aircraft structure production process management system

일반적으로 항공기 부품 제작 공정은 일반적으로 소재를 절단 및 절삭, 성형하여 단위 부품들을 제작하는 기계가공 공정과 Fastening, Assembling 등 완성된 단품들을 대상으로 결합작업을 수행하는 조립 공정으로 대별할 수 있으며 이중 가장 많은 비중을 차지하는 작업이 Drilling 공정이다.In general, the aircraft parts manufacturing process can be broadly divided into a machining process that produces unit parts by cutting, cutting, and molding materials, and an assembly process that performs combining operations on completed individual parts such as fastening and assembling. The drilling process takes up a lot of weight.

특히 항공기 제작에 있어서 Drilling 공정은 일반 산업 기계 공정에서 표현하는 드릴링 작업과는 달리 대형 판 구조물 소재의 영향에 따른 스프링백 현상, 알루미늄 합금 이종 접합에 따른 드릴링 절삭력 추정 곤란 등 다양한 작업 특성을 내포하고 있기 때문에 거의 대분의 항공기 생산 및 제조현장에서는 그림과 같이 현장 작업자의 숙련도에 의존하여 공정을 진행하는 비율이 상당히 높으며 공정 단위 작업에 대한 자동화 비율 역시 상당히 저조한 상황이다.In particular, in aircraft manufacturing, the drilling process, unlike the drilling operation expressed in the general industrial machine process, contains various work characteristics, such as a springback phenomenon due to the influence of large plate structure materials, and difficulty in estimating drilling cutting force due to aluminum alloy heterojunction Therefore, in most aircraft production and manufacturing sites, as shown in the figure, the rate of processing depending on the skill of field workers is quite high, and the rate of automation for process unit work is also quite low.

하지만 최근 미국 및 유럽 국가들은 이와 같이 비능률적이고 비효율적인 Drilling 공정을 자동화하여 항공기 부품에 대한 생산성을 극대화하기 위한 논의가 활발하게 진행 중이며 또한 차세대 항공기 혹은 신기종 항공기 개발에 있어서 중요한 요소로 제시되는 동시설계공학적 효과를 극대화하기 위하여 항공기 기체 제작과 관련된 자동화 공정개발 및 관련분야에 대한 연구가 활발하게 진행 중이다.However, recently, the US and European countries are actively discussing to maximize the productivity of aircraft parts by automating this inefficient and inefficient drilling process, and concurrent design engineering, which is presented as an important factor in the development of next-generation aircraft or new aircraft In order to maximize the effect, research on automated process development and related fields related to aircraft body manufacturing is actively underway.

여기에서 Robotic Drilling System(RDS)이란 항공기와 같이 작업공정 대상물의 크기가 크고 작업 교시점에 해당하는 Hole의 갯수가 상당히 많아서 작업자가 단순히 티칭펜던트에 의한 교시조작만으로는 전체 공정 작업의 수행이 불가능한 Fastening Hole 가공 및 리벳공정을 진행하는 전용 자동화 시스템을 말한다.Here, Robotic Drilling System (RDS) refers to a fastening hole in which the size of the work process object like an aircraft is large and the number of holes corresponding to the work teaching point is quite large, making it impossible for the operator to perform the entire process work by simply manipulating the teaching by the teaching pendant. It refers to a dedicated automation system for processing and riveting processes.

항공기 제작 및 생산분야에서‘항공기 기체구조물 생산공정 매니지먼트 시스템’개발은 4차산업혁명과 관련하여 산업용 로봇을 적용한 솔루션 구축시 필수적으로 검토해야하는 기반 환경이며 시간이 지날수록 심화되는 선진국의 기술보호주의에 대응하고 범국가적으로 추진해야하는 필수적 사안이다. In the field of aircraft manufacturing and production, the development of 'aircraft structure production process management system' is a fundamental environment that must be reviewed when building solutions that apply industrial robots in relation to the 4th industrial revolution, and responds to the technology protectionism in advanced countries that is intensifying as time goes by It is an essential issue that must be pursued nationally.

도 15는 OPC UA System Architecture를 나타내는 참조도이다. 도 16은 OPC UA 기반의 Interface Module 구성을 나타내는 참조도이다.15 is a reference diagram illustrating the OPC UA System Architecture. 16 is a reference diagram illustrating the configuration of an OPC UA-based Interface Module.

OPC를 이용한 생산공정 매니지먼트 시스템 구성:Composition of production process management system using OPC:

OPC 및 OPC UA의 개념 및 ArchitectureConcept and Architecture of OPC and OPC UA

OPC (OLE for Process Control)OPC (OLE for Process Control)

OPC 표준은 MS의 OLE 기술을 기반으로 Client와 Server 사이에서 통신과 Data의 변환을 위한 산업 표준 메커니즘을 제공.The OPC standard provides an industry standard mechanism for communication and data conversion between a client and a server based on MS's OLE technology.

Process Data의 Client Application과 Server 사이의 인터페이스 방식의 규정으로 OPC 호환 Client는 다수의 OPC 호환 Server들로부터 Data Read/Write 가능.OPC compatible client can read/write data from multiple OPC compatible servers by defining the interface method between the client application and server of Process Data.

OPC UA (Open Platform Communication Unified Architecture):OPC UA (Open Platform Communication Unified Architecture):

IEC 62541 표준으로 기존의 OPC DA/HAD/A&E 및 Security를 통합Integrates existing OPC DA/HAD/A&E and Security with IEC 62541 standard

표준 Ethernet 기반의 실시간 및 동기화 제공Provides real-time and synchronization based on standard Ethernet

OPC UA System Architecture:OPC UA System Architecture:

OPC UA Information Model for IEC 61131-3 7.1.1 System Architecture GeneralOPC UA Information Model for IEC 61131-3 7.1.1 System Architecture General

OPC UA 표준 기반의 Interface Module:Interface Module based on OPC UA standard:

OPC UA Protocol Unit의 내재화Internalization of OPC UA Protocol Unit

OPC를 이용한 항공기 기체구조물 생산공정 매니지먼트 시스템Aircraft structure production process management system using OPC

본 소프트웨어 시스템은 공정데이터 추적이 가능한 미들웨어를 이용한 생산공정관리 시스템이다.This software system is a production process management system using middleware that can track process data.

OPC 서버로 로봇, PLC를 포함하는 PLC 의존성 디바이스와 센서, 카메라를 포함하는 PLC 비의존성 디바이스의 데이터의 일원화시킴으로써 OPC 서버를 통해 생산 공장의 모든 디바이스에 대해 데이터를 취합할 수 있도록 하고, 미들웨어와 데이터 저장서버를 이용하여 취합된 데이터를 실시간으로 감시 및 추적하여 데이터 저장서버에 기 저장된 생산품 및 공정 데이터와 비교하여 해당 공정에 대한 디바이스를 자동으로 제어할 수 있으며, 웹서버를 통해 서비스되어 단말장치에 구현되는 모듈로 사용자의 다양한 제어 명령을 전달받아 해당 공정을 제어하여 자동으로 생산 완성품을 만들어내고, 각 공정에 대한 결과를 제공받을 수 있는 공정데이터 추적이 가능한 미들웨어를 이용한 생산 공정관리 시스템이다.By unifying the data of PLC-dependent devices including robots and PLCs as OPC servers and PLC-independent devices including sensors and cameras, data can be collected for all devices in the production plant through the OPC server, middleware and data The data collected using the storage server can be monitored and tracked in real time, compared with the product and process data pre-stored in the data storage server, and the device for the process can be automatically controlled. It is a production process management system using middleware that can track process data that can receive various control commands from the user and control the process to automatically create finished products and receive the results for each process by receiving various control commands from the user.

이를 위하여 본 소프트웨어 시스템은 센서, 카메라를 포함하여 산업현장에서 데이터를 생성하고, 각 상이한 통신 규약에 의해 데이터를 송수신하는 PLC 비의존성 디바이스, 및 로봇, PLC를 포함하여 산업현장에서 데이터를 생성하고, 각 상이한 통신 규약에 의해 데이터를 송수신하는 PLC 의존성 디바이스를 포함하는 디바이스부; PLC 비의존성 디바이스로부터 데이터를 전송받아 PLC 기능을 대신 수행하고, 비표준 통신방식으로 통신하는 데이터를 전송받아 OPC 통신이 가능하도록 중계하는 디바이스 서버, PLC 비의존성 디바이스에 대해 OPC 통신을 가능하게 하는 디바이스 서버를 통해 전송된 데이터와 PLC 의존성 디바이스에서 전송된 데이터를 일원화하여 관리하는 OPC 서버, OPC 서버로부터 디바이스의 데이터 변경을 감지하여 디바이스를 제어하는 미들웨어, 미들웨어로부터 변경된 데이터를 전송받아 저장하고, 생산 공정에 따른 제어 수치를 포함하는 공정 데이터가 저장된 데이터 저장서버, 데이터 저장서버로 저장된 데이터를 전송받아 웹 환경에서 서비스할 수 있도록 하는 웹서버를 포함하는 서비스부 및 서비스부의 웹서버로 접속하여 전송된 공정 데이터를 기반으로 실시간 공정을 모니터링하여 생산 제품의 공정을 추적할 수 있고, 공정별로 제어 값을 입력하여 디바이스를 제어할 수 있는 컴퓨터, 모바일 기기를 포함하는 단말장치를 포함하는 공정데이터 추적이 가능한 미들웨어를 이용한 ‘항공기 기체구조물 생산 공정 매니지먼트 시스템’을 아래와 같이 제공한다.To this end, this software system generates data in industrial sites including sensors and cameras, and generates data in industrial sites including PLC-independent devices, robots, and PLCs that transmit and receive data according to different communication protocols, a device unit including a PLC-dependent device for transmitting and receiving data according to each different communication protocol; A device server that receives data from a PLC non-dependent device and performs PLC functions instead, receives data communicated in a non-standard communication method and relays it to enable OPC communication, and a device server that enables OPC communication for PLC-independent devices OPC server that unifies and manages data transmitted through and data transmitted from PLC-dependent devices, middleware that detects changes in device data from the OPC server and controls the device, receives and stores the changed data from the middleware and stores it in the production process Process data transmitted by connecting to a web server of the service unit and the service unit including a data storage server that stores process data including control values according to the data storage server, a web server that receives data stored in the data storage server and enables service in a web environment Based on real-time process monitoring, it is possible to track the process of production products, and it is possible to control devices by inputting control values for each process. The 'aircraft structure production process management system' used is provided as follows.

원격 데이터 분석Remote data analysis

실시간 장비 가동 현황을 모니터링 하는 다음의 두 가지 기능을 수행한다.It performs the following two functions to monitor the real-time equipment operation status.

스마트 제조를 위한 국제 표준 통일 언어인 OPC UA(Open Platform Communication Unified Architecture)를 사용하여 장비 가동 상태를 모니터링하고 데이터 표시한다.It uses OPC UA (Open Platform Communication Unified Architecture), an international standard unified language for smart manufacturing, to monitor equipment operation status and display data.

제3자 OPC 호환 가능한 사용자는 데이터를 수집하고 통합하여 실시간으로 웹 페이지에 표시한다.Third-party OPC-compatible users collect and aggregate data and display it on web pages in real time.

사용자 로그인 웹 브라우저의 사용자 로그인과 비밀번호 인증 절차를 거쳐 서버로 접속한다. User login The web browser connects to the server through the user login and password authentication procedures.

관리자 (Administrator)메뉴는 관리자로 로그인 했을 경우에만 사용 가능하다.The Administrator menu is available only when logged in as an administrator.

관리자 메뉴에서는 장비를 추가하거나 전자 우편(E-Mail)과 SMS메시지에 관한 환경 설정 가능하다.In the admin menu, you can add equipment or configure settings for E-Mail and SMS messages.

공장 오버뷰(Overview)Factory Overview

도 17은 공장 오버뷰 화면을 예시하는 참조도이다.17 is a reference diagram illustrating a factory overview screen.

공장 내 등록된 장비 상태를 표시한다.Displays the registered equipment status in the factory.

실시간 생산가동 현황을 표시한다. 예) 공구이름, 장비상태와 현황 1일 생산량, 스핀들 부하, 사용자 이름 및 장비상황 표시등의 상태를 표시Real-time production operation status is displayed. Ex) Tool name, equipment status and status Displays the status of daily production, spindle load, user name, and equipment status indicator.

장비 가동 시간 및 사용자 작업 내용을 표시한다.Displays equipment uptime and user actions.

장비를 OFF한 경우나 서버의 네트웍 연결이 끊겼을 경우 메시지로 표시한다.A message is displayed when the equipment is turned off or the server's network connection is disconnected.

장비 대시보드equipment dashboard

도 18은 장비 대시보드 화면을 예시하는 참조도이다.18 is a reference diagram illustrating an equipment dashboard screen.

공구와 공정작업 데이터, 이송속도 및 치공구 관리정보 표시한다.It displays tool and process work data, feed rate and tool management information.

장비상태, 작업리포트, 일/주별 생산 현황 및 기록 표시한다.Equipment status, work report, daily/weekly production status and records are displayed.

Loadermate 정보 및 사이클 타임 챠트를 표시한다.Displays loadermate information and cycle time charts.

스핀들 부하 그래프와 공정 능력지수(Cp/Cpk) 표시한다.The spindle load graph and process capability index (Cp/Cpk) are displayed.

에러기록error log

도 19는 REDAX 에서 생성된 장비 상태 리포트 화면을 예시하는 참조도이다.19 is a reference diagram illustrating an equipment status report screen generated in REDAX.

에러기록 페이지를 열면 가장 최근 20개 에러 메시지 기록 디스플레이한다.When the error log page is opened, the most recent 20 error message records are displayed.

특정 에러를 찾으려면 찾기 기능 사용 가능하다.You can use the Find function to find specific errors.

장비가 꺼지거나 네트웍 연결 이상으로 에러를 발생시키지 못한 경우에도 Log 이력 저장Log history is saved even when the device is turned off or no error occurs due to a network connection error

드롭다운 메뉴에서 해당언어를 선택하여 에러 선택한다.Select the appropriate language from the drop-down menu and select Error.

리포트 서버는 다음과 같은 종류의 리포트를 생성하며, 드롭다운 메뉴에서 설정된 기간이나 사용자 지정 형식으로 리포트를 작성한다.The report server generates the following types of reports, and creates reports in the period set in the drop-down menu or in a user-specified format.

모든 장비는 리포트를 생성하도록 설정, 특정 장비만 리포트를 생성하도록 드롭다운 메뉴에서 선택한다.Set all devices to generate a report, select from the drop-down menu to generate a report only for specific devices.

리포트 종류 및 다른 리포트 필터 설정이 된 후 리포트 작성 버튼을 눌러 출력한다.After setting the report type and other report filters, press the Create Report button to print it.

생성된 리포트 데이터는 CSV형식으로 출력 하거나 리포트 페이지로 프린트 가능하다.The generated report data can be output in CSV format or printed as a report page.

아래는 클라이언트에서 서버에 생성된 장비 상태 리포트를 디스플레이 하는 예를 나타낸 것이다.The following is an example of displaying the device status report generated from the client to the server.

이메일 및 SMS 메시지 통보기능Email and SMS message notification function

관리자가 지정한 수신 담당자에게 이메일이나 SMS메시지로 통보한다.Notifies the person in charge designated by the administrator by e-mail or SMS message.

공구 관리tool management

도 20은 공구 관리 화면을 예시하는 참조도이다.20 is a reference diagram illustrating a tool management screen.

공구관리는 서버상의 공구파일 중앙통합 관리 시스템과 연계한다.Tool management is linked with the central integrated management system for tool files on the server.

마스터 파일과 사용공구 파일을 비교하여 차이점과 변경사항을 확인한다.Compare the master file and the tool file to check the differences and changes.

치공구 관리tool management

치공구 정보관리는 서버상의 중앙통합 관리 시스템과 연계한다.Jigonggu information management is linked with the central integrated management system on the server.

각 공정간 치공구 치수 및 정보의 호환 사용이 가능하다.It is possible to use the tool dimensions and information interchangeably between each process.

빠른 찾기 기능을 사용하여 원하는 치공구와 팩을 치공구 라이브러리에서 검색 가능하다.You can use the quick find function to search the tool library for the tools and packs you want.

다른 하나의 중요한 기능으로 공정 시뮬레이션 과정에서 사용한 치공구와 장비에 장착되어 실제 공정에 사용하는 치공구에 대한 중복 방지 기능 탑재로 치공구 파손 또는 손상 예방을 한다.Another important function is to prevent damage or damage to the jig by installing the function to prevent overlapping of the jig used in the process simulation process and the jig used in the actual process.

이상, 본 발명의 항공기 기체 조립 공정에서 헥사포드 활용을 위한 공정 설계방법 및 시스템에 관한 구체적인 실시예에 관하여 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서는 여러 가지 실시 변형이 가능함은 자명하다.In the above, detailed embodiments of the process design method and system for using hexapods in the aircraft body assembly process of the present invention have been described, but it is obvious that various implementation modifications are possible within the limits that do not depart from the scope of the present invention.

그러므로 본 발명의 범위에는 설명된 실시예에 국한되어 전해져서는 안 되며, 후술하는 청구범위뿐만 아니라 이 청구범위와 균등한 것들에 의해 정해져야 한다. 즉, 전술된 실시예는 모든 면에서 예시적인 것이며, 한정적인 것이 아닌 것으로 이해되어야 하며, 본 발명의 범위는 상세한 설명보다는 후술될 청구범위에 의하여 나타내어지며, 그 청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, and should be defined by the following claims as well as the claims and equivalents. That is, it should be understood that the above-described embodiment is illustrative in all respects and not restrictive, and the scope of the present invention is indicated by the claims to be described later rather than the detailed description, and the meaning and scope of the claims and their equivalents All changes or modifications derived from the concept should be construed as being included in the scope of the present invention.

Claims (6)

현실세계의 카메라 촬영 영상을 전송하면, 비디오 인터페이스(Video Interface)를 통해 그 이미지를 사물의 위치와 움직임, 속도 방향 등을 추적하는 단계;
컴퓨터 그래픽을 통해 가상의 물체를 만들어내고 실제 영상의 위치에 정확히 배치하는 단계; 및
Display를 통해 사용자와의 상호작용을 처리하는 단계를 포함하고,
추적 단계는 센서 기반 기술로서 모바일 디바이스에서 활용 가능한 GPS, 가속도 센서, 자이로센서 등을 이용하여 사물의 움직임, 위치, 방향 등을 추적하여 화면에 증강 위치를 파악하거나, 비전기반기술 중에 마커기반기술은 카메라 등을 이용해서 QR코드와 같은 마커를 인식, 추적하고 매핑하거나, 비마커기반 기술로서 카메라를 통하여 촬영된 이미지 와 비교 대상 물체를 필터링하고 이를 비교하여 관련된 정보를 제공하는 것을 특징으로 하는 항공기 기체 조립 공정에서 헥사포드 활용을 위한 공정 설계방법.
When transmitting a camera-captured image of the real world, tracking the image through a video interface, the position, movement, speed direction, etc. of the object;
creating a virtual object through computer graphics and arranging it exactly at the location of the real image; and
and handling interactions with the user through the display;
The tracking stage is a sensor-based technology that uses GPS, accelerometer, and gyro sensor that can be used in mobile devices to track the movement, location, and direction of objects to determine the augmented location on the screen, or marker-based technology among vision-based technologies. An aircraft body characterized by recognizing, tracking and mapping a marker such as a QR code using a camera, or filtering an image taken through a camera and a comparison target object as a non-marker-based technology, and providing related information by comparing it A process design method for the use of hexapods in the assembly process.
청구항 1에 있어서,
상기 비전 기반 증강현실 기술로서 AR Phone과 Studistube ES를 이용하고, 비전기반으로 Phone Guide와 SR Engine 소프트웨어를 이용하는 것을 특징으로 하는 항공기 기체 조립 공정에서 헥사포드 활용을 위한 공정 설계방법.
The method according to claim 1,
A process design method for using hexapods in the aircraft body assembly process, characterized in that AR Phone and Studistube ES are used as the vision-based augmented reality technology, and Phone Guide and SR Engine software are used based on vision.
청구항 1에 있어서,
가상의 물체를 실제 영상의 위치에 정확히 배치하는 기술로서 위치(Positioning), 랜더링(Rendering), 병합(Merging)의 3단계를 수행하는 것을 특징으로 하는 항공기 기체 조립 공정에서 헥사포드 활용을 위한 공정 설계방법.
The method according to claim 1,
Process design for hexapod utilization in the aircraft body assembly process, characterized by performing three steps of positioning, rendering, and merging as a technology to accurately place a virtual object at the location of an actual image Way.
현실세계의 카메라 촬영 영상을 전송하면, 비디오 인터페이스(Video Interface)를 통해 그 이미지를 사물의 위치와 움직임, 속도 방향 등을 추적하는 트래킹 모듈;
컴퓨터 그래픽을 통해 가상의 물체를 만들어내고 실제 영상의 위치에 정확히 배치하는 정합 모듈; 및
Display를 통해 사용자와의 상호작용을 처리하는 사용자 인터페이스 모듈을 포함하고,
트래킹 모듈은 센서 기반 기술로서 모바일 디바이스에서 활용 가능한 GPS, 가속도 센서, 자이로센서 등을 이용하여 사물의 움직임, 위치, 방향 등을 추적하여 화면에 증강 위치를 파악하거나, 비전기반기술 중에 마커기반기술은 카메라 등을 이용해서 QR코드와 같은 마커를 인식, 추적하고 매핑하거나, 비마커기반 기술로서 카메라를 통하여 촬영된 이미지 와 비교 대상 물체를 필터링하고 이를 비교하여 관련된 정보를 제공하는 것을 특징으로 하는 항공기 기체 조립 공정에서 헥사포드 활용을 위한 공정 설계 시스템.
a tracking module for tracking the position, movement, speed direction, etc. of an object through a video interface when transmitting an image captured by a camera in the real world;
a matching module for creating virtual objects through computer graphics and arranging them exactly on the actual images; and
Includes a user interface module that handles interaction with the user through the display,
The tracking module is a sensor-based technology that uses GPS, accelerometer, and gyro sensor that can be used in mobile devices to track the movement, location, and direction of objects to determine the augmented location on the screen, or marker-based technology among vision-based technologies. An aircraft body characterized by recognizing, tracking and mapping a marker such as a QR code using a camera, or filtering an image taken through a camera and a comparison target object as a non-marker-based technology, and providing related information by comparing it Process design system for the utilization of hexapods in the assembly process.
청구항 4에 있어서,
상기 트래킹 모듈은,
상기 비전 기반 증강현실 기술로 AR Phone과 Studistube ES를 이용하고, 비전기반로 Phone Guide와 SR Engine 소프트웨어를 이용하는 것을 특징으로 하는 항공기 기체 조립 공정에서 헥사포드 활용을 위한 공정 설계 시스템.
5. The method according to claim 4,
The tracking module,
A process design system for hexapod utilization in the aircraft body assembly process, characterized in that AR Phone and Studistube ES are used as the vision-based augmented reality technology, and Phone Guide and SR Engine software are used as vision-based.
청구항 4에 있어서,
상기 정합 모듈은,
가상의 물체를 실제 영상의 위치에 정확히 배치하는 기술로서 위치(Positioning), 랜더링(Rendering), 병합(Merging)의 3단계로 구성된 것을 특징으로 하는 항공기 기체 조립 공정에서 헥사포드 활용을 위한 공정 설계 시스템.
5. The method according to claim 4,
The matching module is
A process design system for using hexapods in the aircraft body assembly process, characterized in that it consists of three steps: Positioning, Rendering, and Merging, as a technology to accurately place a virtual object at the location of the actual image. .
KR1020190167131A 2019-12-13 2019-12-13 Method and system of process design for hexpod usage in assembly process of aircraft KR20210075723A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190167131A KR20210075723A (en) 2019-12-13 2019-12-13 Method and system of process design for hexpod usage in assembly process of aircraft

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190167131A KR20210075723A (en) 2019-12-13 2019-12-13 Method and system of process design for hexpod usage in assembly process of aircraft

Publications (1)

Publication Number Publication Date
KR20210075723A true KR20210075723A (en) 2021-06-23

Family

ID=76599254

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190167131A KR20210075723A (en) 2019-12-13 2019-12-13 Method and system of process design for hexpod usage in assembly process of aircraft

Country Status (1)

Country Link
KR (1) KR20210075723A (en)

Similar Documents

Publication Publication Date Title
EP1288754B1 (en) System and method for producing an assembly by directly implementing three-dimensional computer-aided design component definitions
US10331728B2 (en) System and method of robot calibration using image data
US20190193268A1 (en) Robotic arm processing system and method, and non-transitory computer-readable storage medium therefor
US20220092766A1 (en) Feature inspection system
CN109814434A (en) Control the calibration method and device of program
Xing et al. Low-cost precision monitoring system of machine tools for SMEs
Fischer et al. Enabling live data controlled manual assembly processes by worker information system and nearfield localization system
Meier et al. Digital twin support for laser-based assembly assistance
Liu et al. Data-driven and AR assisted intelligent collaborative assembly system for large-scale complex products
CN106203252B (en) Finding the robot axis angle and selecting the robot by means of a camera
ABE et al. Digital construction
Rückert et al. Calibration of a modular assembly system for personalized and adaptive human robot collaboration
KR20210075722A (en) Method and system for providing Augmented Reality process platform in manufacturing process
Jian et al. On-line precision calibration of mobile manipulators based on the multi-level measurement strategy
KR20210075723A (en) Method and system of process design for hexpod usage in assembly process of aircraft
US9415512B2 (en) System and method for enhancing a visualization of coordinate points within a robots working envelope
CN112936261B (en) Industrial robot field simulation system and method based on augmented reality technology
CN110716637A (en) Augmented reality system with active portable anchors
Ferreira et al. Smart system for calibration of automotive racks in Logistics 4.0 based on CAD environment
Cheng et al. Integration of 3D stereo vision measurements in industrial robot applications
Kwon et al. Sensor-based remote quality control application in automotive components assembly
Katsiaris et al. A kinematic calibration technique for robotic manipulators with multiple Degrees of Freedom
Ghoson et al. Towards remote control of manufacturing machines through robot vision sensors
Kumar et al. An information model for process control on machine tools
Pieskä et al. Multilayered dynamic safety for high-payload collaborative robotic applications