KR102423644B1 - Integrated Platform - Google Patents

Integrated Platform Download PDF

Info

Publication number
KR102423644B1
KR102423644B1 KR1020170160881A KR20170160881A KR102423644B1 KR 102423644 B1 KR102423644 B1 KR 102423644B1 KR 1020170160881 A KR1020170160881 A KR 1020170160881A KR 20170160881 A KR20170160881 A KR 20170160881A KR 102423644 B1 KR102423644 B1 KR 102423644B1
Authority
KR
South Korea
Prior art keywords
unit
platform
data
control object
input
Prior art date
Application number
KR1020170160881A
Other languages
Korean (ko)
Other versions
KR20190061961A (en
Inventor
심원섭
정용찬
김영주
Original Assignee
주식회사 상화
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 상화 filed Critical 주식회사 상화
Priority to KR1020170160881A priority Critical patent/KR102423644B1/en
Publication of KR20190061961A publication Critical patent/KR20190061961A/en
Application granted granted Critical
Publication of KR102423644B1 publication Critical patent/KR102423644B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic

Abstract

통합 플랫폼이 개시된다. 본 발명의 일 실시 예에 따른 통합 플랫폼은 게임 엔진과 로봇 암이 결합되고, 상기 게임 엔진에서 시뮬레이션 된 모션을 로봇 암에 실시간으로 정확히 모션 제어를 실시할 수 있는 통합 플랫폼에 관한 것이다.An integrated platform is disclosed. An integrated platform according to an embodiment of the present invention relates to an integrated platform in which a game engine and a robot arm are combined, and the motion simulated by the game engine can be accurately controlled in real time on a robot arm.

Description

통합 플랫폼{Integrated Platform}Integrated Platform {Integrated Platform}

본 발명은 3D 게임 엔진의 UI(user Interface)를 이용하여 로봇 암(Robot Arm)의 실시간 이동 경로 및 제어를 동시에 실시할 수 있는 것으로서, 보다 상세하게는 게임 엔진과 로봇 암이 결합된 통합 플랫폼에 관한 것이다.The present invention can simultaneously perform real-time movement path and control of a robot arm using a user interface (UI) of a 3D game engine. it's about

일반적으로 반복적인 작업이 수행되는 자동화 생산라인 또는 제조현장에서는 제조용 로봇이 사용된다.In general, in automated production lines or manufacturing sites where repetitive tasks are performed, manufacturing robots are used.

상기 제조용 로봇은 자동차, 반도체 또는 전기전자와 같이 다양한 산업 현장에서 사용되고 있으나, 작업자와의 충돌 또는 상기 로봇 암의 파손을 방지하기 위해 다양한 안정 장비가 구비된 조건에서 사용되고 있다.The manufacturing robot is used in various industrial sites such as automobiles, semiconductors, or electrical and electronic devices, but is used under conditions in which various stabilization equipment is provided in order to prevent a collision with a worker or damage to the robot arm.

최근에는 제조현장을 벗어나 의료, 공연, 영화, 놀이동산, 광고 분야 에서와 같이 다양한 산업 분야에서 다양한 용도로 로봇이 사용되고 있으며, 일 예로 광고용 홍보 효과를 위한 로봇 암이 사용되고 있다.Recently, a robot has been used for various purposes in various industrial fields, such as medical, performance, movie, amusement park, and advertising fields, out of the manufacturing field, and for example, a robot arm for advertising promotional effects is used.

또한 상기 로봇 암 중 영상과 함께 물리적 움직임을 제공하는 가상현실 장비에도 사용되고 있다. 여기서 가상현실(Virtual Reality, VR)이란 어떤 특정한 환경이나 상황을 컴퓨터로 생성하고, 가상현실을 체험하는 사람이 실제 주변 상황 또는 환경과 상호작용을 하고 있는 것처럼 만들어 주는 인간과 컴퓨터 사이의 인터페이스를 의미한다.It is also used in virtual reality equipment that provides physical motion along with images among the robot arms. Here, virtual reality (VR) refers to an interface between a human and a computer that creates a specific environment or situation with a computer and makes it as if a person experiencing virtual reality is interacting with the actual surrounding situation or environment. do.

이러한 가상현실은 인공현실, 사이버 공간, 가상세계, 가상환경, 합성환경, 인공환경 등으로도 불리고 있다.Such virtual reality is also called artificial reality, cyberspace, virtual world, virtual environment, synthetic environment, artificial environment, and the like.

가상현실의 사용 목적은 사람들이 일상적으로 경험하기 어려운 환경을 직접 체험하지 않고도 실제 환경에 들어와 있는 것처럼 보여주고 조작할 수 있게 하는 것으로서, 최근에는 교육, 고급 프로그래밍, 원격조작 등의 분야에 응용되고 있다.The purpose of using virtual reality is to allow people to show and operate as if they are in a real environment without directly experiencing an environment that is difficult to experience on a daily basis. .

상기 로봇 암은 일 예로 제조현장에서 사용될 때 정해진 구간에서 사전에 입력된 경로를 따라 움직이면서 반복적인 작업을 수행하게 된다.When the robot arm is used in a manufacturing site, for example, it performs repetitive tasks while moving along a path input in advance in a predetermined section.

이 경우 단순 반복 작업에는 로봇 암이 유리할 수 있으나, 각종 공연, 영화, 놀이동산, 광고 분야 에서와 같이 다양한 상황에 따라 다양한 모션으로 구동할 경우에는 제한이 따르게 된다.In this case, the robot arm may be advantageous for simple repetitive tasks, but there are limitations when it is driven with various motions according to various situations, such as in various performances, movies, amusement parks, and advertisement fields.

따라서 상기 로봇 암이 전술한 바와 같이 다양한 상황에 따라 다양한 모션으로 구동시키기 위해서는 조작자의 의도에 맞는 다양한 경로가 실시간으로 안전하게 생성되어야 하고, 실시간으로 이동 경로가 정확하게 생성되고 제어되기 위한 플랫폼의 개발이 필요하게 되었다.Therefore, in order for the robot arm to be driven with various motions according to various situations as described above, various paths suitable for the intention of the operator must be safely generated in real time, and it is necessary to develop a platform for accurately generating and controlling the moving paths in real time. did it

대한민국등록특허 제10-1673978호(1026년 11월 2일)Republic of Korea Patent No. 10-1673978 (November 2, 1026)

본 발명의 실시 예들은 단일 또는 복수의 로봇 암에 대한 실시간 제어 및 시뮬레이션된 모션 데이터에 대한 제어를 안전하게 수행할 수 있는 통합 플랫폼을 제공한다.Embodiments of the present invention provide an integrated platform that can safely perform real-time control of a single or a plurality of robot arms and control of simulated motion data.

본 발명의 일 실시 예에 의한 통합 플랫폼은 통신 방식으로 데이터 전송이 이루어지는 제1 입력부(110)와; 단위 제어 대상물(2)이 작업공간(workspace)에서 시뮬레이션을 통해 생성된 모션(motion)에 의해 초기 설정 값이 셋팅 되고, 셋팅된 초기 설정 값의 이상 유무를 판단하는 제1 제어부(120)와; 상기 셋팅된 초기 설정 데이터를 전송하기 위한 제1 출력부(130)를 포함하는 유저 인터페이스(user interface) 플랫폼(100); 상기 제1 출력부(130)에서 전송된 데이터를 입력 받는 제2 입력부(210)와; 상기 제2 입력부(210)에서 입력된 데이터의 이상 유무를 판단하는 제2 제어부(220)와; 상기 제2 제어부(220)에서 제어된 데이터를 전송하기 위한 제2 출력부(230)를 포함하는 브릿지 플랫폼(200); 및 상기 제2 출력부(230)에서 전송된 데이터를 입력 받는 제3 입력부(310)와; 상기 제3 입력부(310)에서 입력된 데이터의 이상 유무를 판단하여 상기 브릿지 플랫폼(200)의 제2 입력부(210)로 전송하는 제3 출력부(330)와; 상기 제3 입력부(310)에서 입력된 데이터에 의해 모션이 이루어지도록 적어도 한 개 이상의 단위 제어 대상물(2)로 이루어진 제어 대상물 유닛 플랫폼(300)을 포함한다.An integrated platform according to an embodiment of the present invention includes a first input unit 110 through which data transmission is performed in a communication manner; The unit control object 2 is set to an initial setting value by motion generated through simulation in a workspace, and a first control unit 120 for determining whether there is an abnormality in the set initial setting value; a user interface platform 100 including a first output unit 130 for transmitting the set initial setting data; a second input unit 210 for receiving data transmitted from the first output unit 130; a second control unit 220 for determining whether there is an abnormality in the data input from the second input unit 210; a bridge platform 200 including a second output unit 230 for transmitting data controlled by the second control unit 220; and a third input unit 310 for receiving data transmitted from the second output unit 230; a third output unit 330 that determines whether data input from the third input unit 310 is abnormal and transmits it to the second input unit 210 of the bridge platform 200; and a control object unit platform 300 including at least one unit control object 2 so that motion is made by the data input from the third input unit 310 .

상기 유저 인터페이스 플랫폼(100)은 3차원 게임 엔진이 사용되고, 상기 제1 입력부(110)는 시뮬레이션이 이루어질 상기 단위 제어 대상물(2)에 대한 작업공간의 한계 영역(limit area) 데이터를 기반으로 상기 단위 제어 대상물(2)의 모션에 따른 한계 작동 영역(operating area) 데이터와, 상기 단위 제어 대상물(2)이 작업공간에서 모션이 이루어질 이동 속도와, 높이 및 상대 위치와, 회전각과 회전횟수와, 틸팅각과, 허용 중량을 입력 받는다.The user interface platform 100 uses a 3D game engine, and the first input unit 110 uses the unit based on limit area data of the workspace for the unit control object 2 to be simulated. Limit operating area data according to the motion of the control object 2, the movement speed at which the unit control object 2 is to be moved in the work space, the height and relative position, the rotation angle and the number of rotations, and the tilting Enter each department and allowable weight.

상기 단위 제어 대상물(2)은 적어도 1개 이상의 로봇 암(2a)으로 구성되고, 상기 로봇 암(2a)에 체험자가 탑승할 경우 상기 체험자의 상태 정보가 상기 제1 입력부(110)로 입력되는 것을 특징으로 한다.The unit control object 2 is composed of at least one or more robot arms 2a, and when the user boards the robot arm 2a, the state information of the user is input to the first input unit 110. characterized.

상기 작업공간에는 적어도 1개 이상의 로봇 암(2a) 주변에 복수의 센서부(10)가 구비되고, 상기 센서부(10)에서 감지된 감지 데이터는 상기 제2 입력부(210)로 입력되는 것을 특징으로 한다.A plurality of sensor units (10) are provided around at least one or more robot arms (2a) in the work space, and the sensed data sensed by the sensor unit (10) is input to the second input unit (210) do it with

상기 로봇 암(2a)에는 체험자에게 영상을 제공하는 영상부(1100); 상기 체험자에게 탑승 가능한 공간을 제공하는 탑승부(1200)를 포함한다.The robot arm (2a) includes an image unit 1100 for providing an image to the user; and a boarding unit 1200 providing a boarding space to the experiencer.

상기 로봇 암(2a)은 상기 탑승부(1200)에 피칭, 요잉, 롤링 및 왕복 운동 중 적어도 하나를 발생시키는 자이로 기구(1300)와 상호 데이터 송수신 가능하게 연결된다.The robot arm 2a is connected to the gyro mechanism 1300 for generating at least one of pitching, yaw, rolling, and reciprocating motions on the boarding unit 1200 to transmit and receive data.

상기 탑승부(1200)에는 상기 체험자의 상태 정보를 영상으로 감지하기 위한 제1 모듈(S1); 상기 체험자의 음성을 감지하기 위한 제2 모듈(S2); 상기 체험자의 체온과 맥박을 감지하기 위한 제3 모듈(S3)이 구비된다.The boarding unit 1200 includes a first module (S1) for detecting the state information of the experiencer as an image; a second module (S2) for detecting the user's voice; A third module ( S3 ) for detecting the body temperature and pulse of the experiencer is provided.

상기 브릿지 플랫폼(200)의 제2 제어부(220)는 상기 유저 인터페이스(user interface) 플랫폼(100)의 제1 출력부(130)를 통해 입력된 모션 데이터에 의해 상기 단위 제어 대상물(2)이 모션 가능한 데이터 인지 확인하고, 가능할 경우 상기 제3 입력부(310)로 상기 단위 제어 대상물(2)의 모션 데이터가 전송되고, 상기 모션 데이터가 상기 작업공간 내의 유효한 데이터가 아니거나, 불 가능할 경우에는 상기 제3 입력부(310)로 모션 데이터가 전송되지 않도록 제어되는 것을 특징으로 한다.The second control unit 220 of the bridge platform 200 moves the unit control object 2 by motion data input through the first output unit 130 of the user interface platform 100 . It is checked whether data is available, and if possible, the motion data of the unit control object 2 is transmitted to the third input unit 310, and if the motion data is not valid data in the workspace, or is not possible, the second 3 It is characterized in that it is controlled so that motion data is not transmitted to the input unit 310 .

상기 브릿지 플랫폼(200)의 제2 제어부(220)는 상기 제어 대상물 유닛 플랫폼(300)이 한계 작동 영역(operating area)을 벗어나거나, 상기 제어 대상물 유닛 플랫폼(300)을 구성하는 단위 제어 대상물(2)이 작업공간에서 작동 중에 서로 간에 근접하여 충돌 영역(R)으로 근접할 경우 충돌 가능 상태로 판단하고, 상기 단위 제어 대상물(2)이 긴급 정지되도록 상기 제2 출력부(230)로 제어 신호를 전송하는 것을 특징으로 한다.The second control unit 220 of the bridge platform 200 determines whether the control object unit platform 300 is out of a limit operating area or the unit control object 2 constituting the control object unit platform 300 . ) is determined to be in a collision possible state when it is close to each other and approaches the collision area R during operation in the workspace, and a control signal is sent to the second output unit 230 so that the unit control object 2 is urgently stopped. It is characterized by transmitting.

상기 제어 대상물 유닛 플랫폼(300)은 상기 제2 제어부(220)에서 전송된 제어 신호에 의해 상기 단위 제어 대상물(2)이 비상 정치되도록 제어되거나, 상기 단위 제어 대상물(2)의 속도가 우선 감소된 후에 비상 정지되는 어느 하나의 방식으로 제어된다.The control object unit platform 300 is controlled so that the unit control object 2 is emergency stationary by the control signal transmitted from the second control unit 220, or the speed of the unit control object 2 is reduced first. It is controlled in either way with an emergency stop afterwards.

상기 유저 인터페이스 플랫폼(100)과, 상기 브릿지 플랫폼(200)과, 상기 제어 대상물 유닛 플랫폼(300)은 서로 간에 유선 또는 무선 중에 어느 하나로 선택되는 통신 방식으로 데이터 전송이 이루어질 때, 데이터의 손실을 방지하기 위해 주기적으로 보정이 이루어진다.The user interface platform 100, the bridge platform 200, and the control object unit platform 300 prevent data loss when data transmission is performed in a communication method selected from either wired or wireless with each other. Calibration is done periodically to

상기 유저 인터페이스(user interface) 플랫폼(100)과, 상기 브릿지 플랫폼(200)과, 상기 제어 대상물 유닛 플랫폼(300)은 서로 간에 송신 또는 수신 되는 데이터의 실시간 통신주기가 제1 주기로 일정하게 유지된다.The user interface platform 100, the bridge platform 200, and the control object unit platform 300 maintain a constant real-time communication period of data transmitted or received between each other as a first period.

상기 제1 주기는 12m/s 주기로 반복되고, 상기 제1 주기를 초과 하거나 미달될 경우 상기 단위 제어 대상물(2)의 작동이 강제로 중지된다.The first cycle is repeated at a cycle of 12 m/s, and when the first cycle is exceeded or less than the first cycle, the operation of the unit control object 2 is forcibly stopped.

상기 유저 인터페이스(user interface) 플랫폼(100)은 적어도 1개 이상의 외부 장비와 유선 또는 무선 통신 방식 중에 어느 하나로 선택되는 외부 입력 유닛(20)과 실시간 입력이 이루어진다.The user interface platform 100 performs real-time input with at least one external device and an external input unit 20 selected by any one of a wired or wireless communication method.

상기 브릿지 플랫폼(200)은 적어도 1개 이상의 외부 장비와 유선 또는 무선 통신 방식 중에 어느 하나로 선택되는 외부 입력 유닛(20)과 실시간 입력을 통해 상기 유저 인터페이스 플랫폼(100)을 경유하지 않고 상기 제어 대상물 유닛 플랫폼(300)과 연결이 이루어진다.The bridge platform 200 is the control object unit without passing through the user interface platform 100 through the real-time input with an external input unit 20 selected in any one of a wired or wireless communication method with at least one or more external devices. A connection is made with the platform 300 .

본 발명의 실시 예들은 단일 또는 복수의 로봇 암의 다양한 모션에 대한 사전 시뮬레이션을 통해 상기 로봇 암이 적용 가능한 다양한 산업 분야에서 안전하게 사용할 수 있다.Embodiments of the present invention can be safely used in various industrial fields to which the robot arm can be applied through pre-simulation of various motions of a single or a plurality of robot arms.

본 발명의 실시 예들은 로봇 암을 통한 테마파크 또는 놀이동산에서 체험자의 안전한 체험과 사전에 상기 체험자의 상태를 감지하여 위급 상황에서 안전하게 대처할 수 있다. Embodiments of the present invention can safely cope with an emergency situation by detecting the user's safe experience in a theme park or amusement park through a robot arm and the state of the experiencer in advance.

본 발명의 실시 예들은 다수의 로봇 암들을 위치 정밀도와 시간 정밀도가 향상된 모션으로 제어할 수 있다.Embodiments of the present invention can control a plurality of robot arms with improved positional precision and time precision motion.

도 1은 본 발명의 일 실시 예에 의한 통합 플랫폼의 세부 구성을 도시한 도면.
도 2는 본 발명의 다른 실시 예에 의한 통합 플랫폼의 세부 구성을 도시한 도면.
도 3은 복수 개의 로봇 암의 모션 상태를 일 예로 도시한 도면.
도 4 내지 도 5는 로봇 암에 체험자가 탑승한 일 예를 도시한 도면.
도 6은 본 발명의 다른 실시 예에 의한 로봇 암에 자이로 기구와 연결된 구성을 도시한 사시도.
도 7은 본 발명의 제1 내지 제3 모듈의 구성을 도시한 도면.
1 is a view showing a detailed configuration of an integrated platform according to an embodiment of the present invention.
2 is a view showing a detailed configuration of an integrated platform according to another embodiment of the present invention.
3 is a view illustrating motion states of a plurality of robot arms as an example.
4 to 5 are diagrams illustrating an example in which an experienced person rides on a robot arm.
6 is a perspective view illustrating a configuration connected to a gyro mechanism in a robot arm according to another embodiment of the present invention.
7 is a view showing the configuration of the first to third modules of the present invention.

본 발명의 일 실시 예에 따른 통합 플랫폼에 대해 도면을 참조하여 설명한다. 첨부된 도 1은 본 발명의 일 실시 예에 의한 통합 플랫폼의 세부 구성을 도시한 도면이고, 도 2는 본 발명의 다른 실시 예에 의한 통합 플랫폼의 세부 구성을 도시한 도면이며, 도 3은 복수 개의 로봇 암의 모션 상태를 일 예로 도시한 도면이다.An integrated platform according to an embodiment of the present invention will be described with reference to the drawings. 1 is a diagram illustrating a detailed configuration of an integrated platform according to an embodiment of the present invention, FIG. 2 is a diagram illustrating a detailed configuration of an integrated platform according to another embodiment of the present invention, and FIG. 3 is a plurality of It is a diagram showing the motion state of the dog robot arm as an example.

첨부된 도 1 내지 도 3을 참조하면, 본 실시 예에 의한 통합 플랫폼은 게임 엔진과 로봇 암이 결합된 구성으로 이루어진다. 일 예로 후술할 유저 인터페이스(user interface) 플랫폼(100)은 3D 게임 엔진이 사용되고, 제어 대상물 유닛 플랫폼(300)은 로봇 암(2a)이 사용될 수 있다. 유저 인터페이스(user interface) 플랫폼(100)은 3D 게임 엔진이 사용되는데, 유저 또는 개발자가 사용 또는 접근이 용이하고 다양한 그래픽 화면과 시뮬레이션을 통한 로봇 암의 모션 구동이 손쉽게 실시될 수 있어 상기 3D 게임 엔진이 사용된다.1 to 3 , the integrated platform according to the present embodiment has a configuration in which a game engine and a robot arm are combined. As an example, a 3D game engine may be used as the user interface platform 100 to be described later, and the robot arm 2a may be used as the control object unit platform 300 . The user interface platform 100 uses a 3D game engine, which is easy to use or access by a user or developer, and the motion driving of the robot arm through various graphic screens and simulations can be easily performed. this is used

본 실시 예는 상기 제어 대상물 유닛 플랫폼(300)에 구비된 로봇 암(2a)을 제어하기 위해 유저 인터페이스(user interface) 플랫폼(100)에서 상기 제어 대상물 유닛 플랫폼(300)으로 모션 데이터가 직접 전송되지 않고, 상기 유저 인터페이스(user interface) 플랫폼(100)과 상기 제어 대상물 유닛 플랫폼(300) 사이에 브릿지 플랫폼(200)을 구성하여 상기 유저 인터페이스(user interface) 플랫폼(100)에서 설정된 모션 데이터가 상기 브릿지 플랫폼(200)에 의해 한번 더 제어된 후에 상기 제어 대상물 유닛 플랫폼(300)에 구비된 로봇 암(2a)의 모션 제어가 이루어진다.In this embodiment, in order to control the robot arm 2a provided in the control object unit platform 300, motion data is not directly transmitted from the user interface platform 100 to the control object unit platform 300. Rather, the user interface (user interface) platform 100 and the control object unit platform 300 to configure the bridge platform 200 between the motion data set in the user interface (user interface) platform 100 is the bridge After being controlled by the platform 200 once more, the motion control of the robot arm 2a provided in the control object unit platform 300 is performed.

또한 브릿지 플랫폼(200)은 유저 인터페이스(user interface) 플랫폼(100)에서 모션 불가능한 데이터가 입력될 경우 상기 상기 제어 대상물 유닛 플랫폼(300)에 데이터를 전송하지 않도록 제어가 가능하여 상기 로봇 암에 대한 정확한 작동과 안전 사고 발생을 예방할 수 있다.In addition, the bridge platform 200 can control so as not to transmit data to the control object unit platform 300 when non-movable data is input from the user interface platform 100 , so that the accurate information about the robot arm is possible. Operation and safety accidents can be prevented.

이와 같이 상기 브릿지 플랫폼(200)이 구비될 경우 제어 대상물 유닛 플랫폼(300)에 구비된 로봇 암(2a)의 모션에 따른 안정성이 향상되고, 각종 긴급 상황에서도 체험자의 안전 사고 발생을 최소화 할 수 있다.In this way, when the bridge platform 200 is provided, the stability according to the motion of the robot arm 2a provided in the control object unit platform 300 is improved, and the occurrence of safety accidents for experienced users can be minimized even in various emergency situations. .

또한 상기 로봇 암(2a)이 2기 또는 3기 이상인 경우에도 각각 실시간으로 모션 제어가 가능해지고, 개별 로봇 암(2a)의 모션에 따른 한계성과 모션 도중 충돌이 발생되기 이전에 안전하게 제어할 수 있다. In addition, even when there are two or three or more robot arms 2a, motion control is possible in real time, respectively, and limitations according to the motion of individual robot arms 2a and can be safely controlled before a collision occurs during motion. .

참고로 전술한 모션(motion)은 다축으로 이루어진 로봇 암(2a)이 시간에 따라 소정의 속도로 이동 또는 회전이 이루어지는 움직임(movement) 또는 동작을 의미한다.For reference, the aforementioned motion refers to a movement or motion in which the multi-axis robot arm 2a moves or rotates at a predetermined speed according to time.

이를 위해 본 실시 예에 의한 통합 플랫폼은 통신 방식으로 데이터 전송이 이루어지는 제1 입력부(110)와; 단위 제어 대상물(2)이 작업공간(workspace)에서 시뮬레이션을 통해 생성된 모션(motion)에 의해 초기 설정 값이 셋팅 되고, 셋팅된 초기 설정 값의 이상 유무를 판단하는 제1 제어부(120)와; 상기 셋팅된 초기 설정 데이터를 전송하기 위한 제1 출력부(130)를 포함하는 유저 인터페이스(user interface) 플랫폼(100)이 구비된다.To this end, the integrated platform according to the present embodiment includes a first input unit 110 through which data is transmitted through a communication method; The unit control object 2 is set to an initial setting value by motion generated through simulation in a workspace, and a first control unit 120 for determining whether there is an abnormality in the set initial setting value; A user interface platform 100 including a first output unit 130 for transmitting the set initial setting data is provided.

그리고 상기 제1 출력부(130)에서 전송된 데이터를 입력 받는 제2 입력부(210)와; 상기 제2 입력부(210)에서 입력된 데이터의 이상 유무를 판단하는 제2 제어부(220)와; 상기 제2 제어부(220)에서 제어된 데이터를 전송하기 위한 제2 출력부(230)를 포함하는 브릿지 플랫폼(200); 및 상기 제2 출력부(230)에서 전송된 데이터를 입력 받는 제3 입력부(310)와; 상기 제3 입력부(310)에서 입력된 데이터의 이상 유무를 판단하여 상기 브릿지 플랫폼(200)의 제2 입력부(210)로 전송하는 제3 출력부(330)와; 상기 제3 입력부(310)에서 입력된 데이터에 의해 모션이 이루어지도록 적어도 한 개 이상의 단위 제어 대상물(2)로 이루어진 제어 대상물 유닛 플랫폼(300)을 포함한다.and a second input unit 210 for receiving data transmitted from the first output unit 130; a second control unit 220 for determining whether there is an abnormality in the data input from the second input unit 210; a bridge platform 200 including a second output unit 230 for transmitting data controlled by the second control unit 220; and a third input unit 310 for receiving data transmitted from the second output unit 230; a third output unit 330 that determines whether data input from the third input unit 310 is abnormal and transmits it to the second input unit 210 of the bridge platform 200; and a control object unit platform 300 including at least one unit control object 2 so that motion is made by the data input from the third input unit 310 .

상기 유저 인터페이스 플랫폼(100)은 3차원 게임 엔진이 사용되고, 상기 제1 입력부(110)는 시뮬레이션이 이루어질 상기 단위 제어 대상물(2)에 대한 작업공간의 한계 영역(limit area) 데이터를 기반으로 상기 단위 제어 대상물(2)의 모션에 따른 한계 작동 영역(operating area) 데이터와, 상기 단위 제어 대상물(2)이 작업공간에서 모션이 이루어질 이동 속도와, 높이 및 상대 위치와, 회전각과 회전횟수와, 틸팅각과, 허용 중량을 입력 받는다.The user interface platform 100 uses a 3D game engine, and the first input unit 110 uses the unit based on limit area data of the workspace for the unit control object 2 to be simulated. Limit operating area data according to the motion of the control object 2, the movement speed at which the unit control object 2 is to be moved in the work space, the height and relative position, the rotation angle and the number of rotations, and the tilting Enter each department and allowable weight.

상기 유저 인터페이스 플랫폼(100)은 작업자가 로봇 암(2a)이 모션되기 위해 특정 모션 데이터를 입력하기 위해 구비된 구성으로 전술한 데이터 이외에도 미 설명된 다양한 데이터가 사전 입력될 수 있다.The user interface platform 100 is a configuration provided for an operator to input specific motion data so that the robot arm 2a is moved. In addition to the above data, various data not described above may be input in advance.

상기 단위 제어 대상물(2)은 작업공간에서 모션이 이루어질 때 정해진 한계 영역(limit area) 이내의 영역에서 모션이 이루어진다. 상기 한계 영역은 단위 제어 대상물(2)이 모션 데이터에 의해 실제 모션이 이루어지는 영역으로 최소 모션과 최대 모션을 포함한 영역에 해당된다.When the unit control object 2 is motioned in the work space, the motion is made in an area within a predetermined limit area. The limit area is an area in which the unit control object 2 is actually moved by motion data, and corresponds to an area including a minimum motion and a maximum motion.

예를 들면 한계 영역(limit area)은 로봇 암(2a)이 최대로 신장된 상태에서 모션이 이루어 질 때 체험자와 충돌이 발생되지 않는 거리에 따른 영역에 해당된다. 즉 로봇 암(2a)이 2m의 길이로 연장되고, 최대 신장될 경우 4m 내외의 길이로 신장될 때 회전 모션을 고려하여 상기 한계 영역이 정해진다.For example, the limit area corresponds to an area according to a distance in which a collision with the experiencer does not occur when motion is made in a state in which the robot arm 2a is extended to the maximum. That is, when the robot arm 2a extends to a length of 2 m and is extended to a maximum length of about 4 m, the limit area is determined in consideration of the rotational motion.

본 실시 예는 로봇 암(2a)이 한계 영역을 벗어나 모션이 이루어지지 않도록 후술할 브릿지 플랫폼(200)을 통해 안전하게 제어된다.In this embodiment, the robot arm 2a is safely controlled through the bridge platform 200 to be described later so that the motion is not made outside the limit area.

상기 로봇 암(2a)은 모션의 시작과 끝까지 이동하는 경로가 정확한 시간에 맞추어서 이루어지는 것이 바람직하고, 본 실시 예는 상기 유저 인터페이스 플랫폼(100)에서 실시간으로 상기 로봇 암(2a)의 이동에 따른 경로의 생성과 수정을 시뮬레이션해 볼 수 있다.It is preferable that the path moving from the start to the end of the motion of the robot arm 2a is made according to the correct time, and in this embodiment, the path according to the movement of the robot arm 2a in real time on the user interface platform 100 You can simulate the creation and modification of

따라서 상기 로봇 암(2a)이 정상적으로 안전하게 모션이 이루어지는지 시각적으로 정확히 확인 및 수정이 가능해진다.Accordingly, it is possible to visually accurately check and correct whether the robot arm 2a is normally and safely moved.

상기 로봇 암(2a)이 모션 되기 위해서는 이동 속도와 높이 및 상대 위치 데이터가 사전에 입력되는데, 상기 데이터들은 상기 로봇 암(2a)의 사양에 따라 가변 된다. In order to move the robot arm 2a, movement speed, height, and relative position data are input in advance, and the data are changed according to the specifications of the robot arm 2a.

예를 들면 로봇 암(2a)의 링크 길이(Link length) 또는 관절 리미트(Joint limit) 또는 위치(Position) 또는 회전(Rotation) 또는 현재 관절 각도(Current Joint Angle)에 대한 데이터가 입력된다.For example, data about a link length or a joint limit or a position or a rotation of the robot arm 2a or a current joint angle is input.

그리고 상기 제1 제어부(120)는 기 입력된 데이터가 실제 한계 영역에서 정상적으로 모션이 가능한지 연산한 후에 별도로 구비된 표시장치(미도시)를 통해 시뮬레이션 된 그래픽 화면으로 작업자에게 보여줄 수 있다. 참고로 초기 설정값은 전술한 다양한 데이터의 설정 값에 해당된다.In addition, the first control unit 120 may calculate whether the previously input data can be normally motioned in the actual limit region, and then show the simulated graphic screen to the operator through a separately provided display device (not shown). For reference, the initial setting value corresponds to the setting value of the above-described various data.

상기 제1 제어부(120)는 로봇 암(2a)이 실제 입력된 데이터에 따라 최적의 모션으로 작동 가능한 관절 제한 값을 연산하여 제1 출력부(130)로 출력하고 동시에 표시장치에 시각적으로 인지 가능하게 표시되도록 제어한다.The first control unit 120 calculates the joint limit value at which the robot arm 2a can operate in an optimal motion according to the data actually input and outputs it to the first output unit 130, and at the same time it is possible to visually recognize it on the display device control to be displayed.

본 실시 예는 제1 입력부(110)와 제1 출력부(130)가 유선 또는 무선 중에 어느 하나로 선택되는 통신 방식으로 데이터 전송이 이루어지도록 구성된다.In this embodiment, the first input unit 110 and the first output unit 130 are configured to transmit data in a communication method in which any one of wired or wireless is selected.

상기 통신 방식은 현재 사용되는 대부분의 유선 또는 무선 방식이 모두 적용 가능하며, 인터넷 연결 방식으로의 결합도 가능할 수 있다.As for the communication method, most of the currently used wired or wireless methods are applicable, and a combination to the Internet connection method may be possible.

상기 브릿지 플랫폼(200)은 전술한 제1 출력부(130)에서 전송된 데이터를 제2 입력부(210)가 입력받아 제2 제어부(220)에서 연산이 이루어진다. 상기 제2 제어부(220)는 상기 유저 인터페이스(user interface) 플랫폼(100)의 제1 출력부(130)를 통해 입력된 모션 데이터에 의해 상기 단위 제어 대상물(2)이 모션 가능한 데이터 인지 확인하고, 가능할 경우 상기 제3 입력부(310)로 상기 단위 제어 대상물(2)의 모션 데이터를 전송한다.In the bridge platform 200 , the second input unit 210 receives the data transmitted from the above-described first output unit 130 , and the second control unit 220 performs an operation. The second control unit 220 checks whether the unit control object 2 is motionable data by the motion data input through the first output unit 130 of the user interface platform 100, If possible, the motion data of the unit control object 2 is transmitted to the third input unit 310 .

이 경우 단위 제어 대상물(2)인 로봇 암(2a)은 이동 및 회전에 따른 모션이 한계 영역안에서 안정적으로 이루어진다.In this case, the robot arm 2a, which is the unit control object 2, has a stable motion according to movement and rotation within a limit region.

제2 제어부(220)는 상기 모션 데이터가 상기 작업공간 내의 유효한 데이터가 아니거나, 불 가능할 경우에는 상기 제3 입력부(310)로 모션 데이터가 전송되지 않도록 제어한다.If the motion data is not valid data in the workspace or is impossible, the second control unit 220 controls so that the motion data is not transmitted to the third input unit 310 .

이 경우 로봇 암(2a)은 모션이 이루어지지 않고 정지된 상태가 유지되므로 안전 사고의 발생이 예방되고, 상기 로봇 암(2a)에 탑승한 체험자를 안전하게 보호 할 수 있다.In this case, since the robot arm 2a is not in motion and is maintained in a stationary state, the occurrence of a safety accident is prevented, and it is possible to safely protect an experienced person riding the robot arm 2a.

상기 로봇 암(2a)이 1기 이상인 복수 개로 구성될 경우 상기 제2 제어부(220)는 상기 제어 대상물 유닛 플랫폼(300)이 한계 작동 영역(operating area)을 벗어나거나, 상기 제어 대상물 유닛 플랫폼(300)을 구성하는 단위 제어 대상물(2)이 작업공간에서 작동 중에 서로 간에 근접하여 충돌 영역(R)으로 근접할 경우 충돌 가능 상태로 판단한다. 그리고 상기 단위 제어 대상물(2)이 긴급 정지되도록 상기 제2 출력부(230)로 제어 신호를 전송한다.When the robot arm 2a consists of one or more plural units, the second control unit 220 determines whether the control object unit platform 300 is out of a limit operating area, or the control object unit platform 300 When the unit control objects 2 constituting the ) come close to each other and approach the collision area R during operation in the work space, it is determined that the collision is possible. Then, a control signal is transmitted to the second output unit 230 so that the unit control object 2 is urgently stopped.

참고로 제어 대상물 유닛 플랫폼(300)이 복수 개일 경우 도면 기준으로 상측에서부터 300a, 300, 300b로 서로 구분되게 도번으로 표시하였고, 세부 구성 요소 또한 도번 끝에 a 또는 b를 붙여 서로 구별되게 도시하였다.For reference, when there are a plurality of control object unit platforms 300, reference numbers are indicated as 300a, 300, and 300b from the upper side based on the drawing, and detailed components are also shown to be distinguished from each other by attaching a or b at the end of the drawing.

첨부된 도 2 또는 도 3을 참조하면, 일 예로 로봇 암(2a)이 복수 개일 경우 모션은 a 내지 b 상태의 모션이 발생될 수 있다.Referring to FIG. 2 or FIG. 3 attached, as an example, when there are a plurality of robot arms 2a, motions of states a to b may be generated.

상기 제2 제어부(220)는 상기 유저 인터페이스(user interface) 플랫폼(100)에서 입력된 시뮬레이션 모션 데이터가 정상일 경우에도, 실제 복수의 로봇 암(2a)이 모션 중에 충돌 영역(R)으로 근접할 경우 모션이 이루어지지 않고 정지 되도록 제어함으로써 안전성 향상을 도모할 수 있다.Even when the simulated motion data input from the user interface platform 100 is normal, the second control unit 220 may control the plurality of robot arms 2a to approach the collision area R during motion. Safety can be improved by controlling so that motion is not made and stopped.

복수의 로봇 암(2a)은 시뮬레이션 모션 데이터에 의해 모션이 이루어지는데, 입력 당시에는 정상적인 모션 데이터일 경우에도 실제 작업공간에서 서로 간에 모션이 이루어질 때 서로 간에 이격된 거리가 최대로 근접하여 위치되는 충돌 영역(R)에서 모션이 이루어질 수 있다.The plurality of robot arms 2a are motioned by simulation motion data, and even if they are normal motion data at the time of input, when motions are made between each other in an actual workspace, a collision in which the distance from each other is maximally close to each other A motion may be made in the region R.

충돌 영역(R)은 실제 충돌이 발생될 확률이 높은 영역으로 각각의 로봇 암(2a)이 모션에 따른 이동 궤적 중 서로 중첩되는 영역에 형성된다. 상기 충돌 영역(R)은 로봇 암(2a)이 서로 간에 충돌이 발생될 상황을 사전에 방지하기 위해 제1 제어부(120)에서 제어된 모션 데이터와 상관 없이 제2 제어부(220)에서 모션 중지 명령으로 제어하여 안전한 모션을 유지할 수 있다.The collision area R is an area with a high probability of an actual collision, and is formed in an area where each robot arm 2a overlaps each other among movement trajectories according to motion. The collision area R is a motion stop command from the second control unit 220 irrespective of the motion data controlled by the first control unit 120 in order to prevent a situation in which the robot arms 2a collide with each other in advance. can be controlled to maintain safe motion.

상기 로봇 암(2a)은 일 예로 광고 또는 제조현장에서 사용될 수 있으나, 테마파크 또는 놀이동산 에서와 같이 다수의 체험자가 탑승하여 가상현실을 체험할 수 있는 로봇 암일 수도 있다. 이 경우 체험자가 탑승한 로봇 암이 충돌 영역(R)으로 접근하는 경우에도 모션 중지가 이루어지도록 제어되므로 인명 사고 발생을 사전에 예방하여 안전성이 향상될 수 있다.The robot arm 2a may be used, for example, in advertisements or manufacturing sites, but may also be a robot arm capable of experiencing virtual reality by riding a plurality of experiencers, such as in a theme park or an amusement park. In this case, since the motion is controlled to stop even when the robot arm on which the experiencer rides approaches the collision area R, the occurrence of human accidents can be prevented in advance and safety can be improved.

상기 작업공간에는 적어도 1개 이상의 로봇 암(2a) 주변에 복수의 센서부(10)가 구비되고, 상기 센서부(10)에서 감지된 감지 데이터는 상기 제2 입력부(210)로 입력되는 것을 특징으로 한다.A plurality of sensor units (10) are provided around at least one or more robot arms (2a) in the work space, and the sensed data sensed by the sensor unit (10) is input to the second input unit (210) do it with

상기 작업공간에는 적어도 1개 이상의 로봇 암(2a) 주변에 복수의 센서부(10)가 구비되고, 상기 센서부(10)에서 감지된 감지 데이터는 상기 제2 입력부(210)로 입력된다.A plurality of sensor units 10 are provided around at least one or more robot arms 2a in the workspace, and the sensed data sensed by the sensor unit 10 is input to the second input unit 210 .

로봇 암(2a)은 다양한 방향에서 이동과 회전이 이루어지므로 상기 로봇 암(2a)의 이동 가능한 지점에는 다양한 기능을 갖는 센서들이 사전에 설치된다.Since the robot arm 2a moves and rotates in various directions, sensors having various functions are pre-installed at the movable point of the robot arm 2a.

상기 제2 입력부(210)는 상기 센서부(10)에서 전달된 각종 센서 데이터를 입력 받아 제2 제어부(220)에 전달하면, 상기 제2 제어부(220)가 상기 로봇 암(2a)이 모션 도중 시뮬레이션 데이터와 일치하는지 유무와, 정상 모션의 이동 궤적에서 정확하게 모션이 이루어지는지 판단한다.When the second input unit 210 receives various sensor data transmitted from the sensor unit 10 and transmits it to the second control unit 220 , the second control unit 220 controls the robot arm 2a while the robot arm 2a is in motion. It is determined whether or not it matches the simulation data and whether the motion is accurately performed on the movement trajectory of the normal motion.

상기 제2 제어부(220)는 로봇 암(2a)이 충돌 영역(R)으로 근접하여 정지될 경우 상기 유저 인터페이스(user interface) 플랫폼(100)의 제1 입력부(110)로 알람 신호를 전송하여 위험 상태를 알릴 수 있다.The second control unit 220 transmits an alarm signal to the first input unit 110 of the user interface platform 100 when the robot arm 2a is stopped in proximity to the collision area R, thereby causing danger. status can be reported.

상기 단위 제어 대상물(2)은 적어도 1개 이상의 로봇 암(2a)으로 구성되고, 상기 로봇 암(2a)에 체험자가 탑승할 경우 상기 체험자의 상태 정보가 상기 제1 입력부(110)로 입력된다.The unit control object 2 is composed of at least one or more robot arms 2a, and when an experiential person rides on the robot arm 2a, state information of the experiential person is input to the first input unit 110 .

첨부된 도 4 내지 도 7을 참조하면, 로봇 암(2a)에는 체험자에게 영상을 제공하는 영상부(1100)와, 상기 체험자에게 탑승 가능한 공간을 제공하는 탑승부(1200)를 포함한다.4 to 7 , the robot arm 2a includes an image unit 1100 that provides an image to the experiencer, and a boarding unit 1200 that provides a boarding space to the experiencer.

상기 영상부(1100)는 체험자가 실제 환경에 들어와 있는 것과 같은 영상을 볼 수 있도록 체험자를 둘러싸는 영상이 제공되며, 일 예로 체험자의 머리(Head)에 장착되는 헤드 마운트 디스플레이 기기(HMD: Head Mount Display)가 사용될 수 있으나 다른 장비가 사용되는 것도 가능할 수 있다.The image unit 1100 provides an image surrounding the experiencer so that the experiencer can see the image as if he or she is in the real environment. Display) may be used, but other equipment may also be used.

로봇 암(2a)은 상기 탑승부(1200)에 피칭, 요잉, 롤링 및 왕복 운동 중 적어도 하나를 발생시키는 자이로 기구(1300)와 연결된다. 여기서, 왕복 운동이란 상기 탑승부(1200)가 상기 자이로 기구(1300)를 지지하는 구조물로부터 멀어지고 가까워지는 방향으로 운동되는 것을 의미한다.The robot arm 2a is connected to the gyro mechanism 1300 for generating at least one of pitching, yaw, rolling, and reciprocating motions on the boarding unit 1200 . Here, the reciprocating motion means that the boarding part 1200 moves in a direction away from and closer to the structure supporting the gyro mechanism 1300 .

상기 로봇 암(2a)은 체험자가 적어도 1명 이상 탑승하므로 모션이 이루어지는 동안 안전을 위해 상기 탑승부(1200)에 상기 체험자의 상태 정보를 영상으로 감지하기 위한 제1 모듈(S1)과, 상기 체험자의 음성을 감지하기 위한 제2 모듈(S2)과, 상기 체험자의 체온과 맥박을 감지하기 위한 제3 모듈(S3)이 구비된다.The robot arm 2a includes a first module S1 for detecting the state information of the experiencer as an image on the boarding unit 1200 for safety while the motion is made, since at least one person is on board, and the experiencer A second module (S2) for detecting the voice of the user and a third module (S3) for detecting the body temperature and pulse of the user are provided.

상기 제1 내지 제3 모듈(S1 ~ S3)은 로봇 암(2a)이 모션 도중 체험자의 상태 정보를 영상과 음성 및 활력 징후(Vital sign)를 관리자가 지속적으로 모니터링하여 로봇 암(2a)의 모션과 별도로 개별 체험자의 상태 정보를 확인할 수 있다.The first to third modules (S1 to S3) are the motion of the robot arm (2a) while the robot arm (2a) is in motion, the operator continuously monitors the state information of the experiencer by monitoring images, voices, and vital signs (Vital signs). Separately, you can check the status information of each individual experiencer.

즉 로봇 암(2a)은 유저 인터페이스 플랫폼(100)의 제1 제어부(120)와, 상기 브릿지 플랫폼(200)의 제2 제어부(220)에 의해 안전한 모션이 이루어지도록 제어되고, 체험자가 자이로 기구(1300)와 연결된 로봇 암(2a)에 탑승할 경우에는 제1 내지 제3 모듈(S1 ~ S3)에 의해 체험자의 상태 정보를 상기 제2 제어부(220)에서 입력 받아 개별 제어할 수 있다.That is, the robot arm 2a is controlled so that a safe motion is made by the first control unit 120 of the user interface platform 100 and the second control unit 220 of the bridge platform 200, and the user experiences the gyro mechanism ( When boarding the robot arm 2a connected to 1300 , the state information of the experiencer may be received from the second control unit 220 by the first to third modules S1 to S3 to be individually controlled.

이 경우 자이로 기구(1300)와 연결된 로봇 암(2a)은 체험자가 의식을 잃거나, 구토를 하거나, 어지러움이 발생될 경우 즉시 모션이 중지되도록 제어할 수 있어 안전성과 로봇 암(2a)에 대한 신뢰성이 동시에 향상된다.In this case, the robot arm 2a connected to the gyro mechanism 1300 can be controlled to immediately stop motion when the experiencer loses consciousness, vomits, or dizziness occurs, so safety and reliability of the robot arm 2a This is improved at the same time.

상기 제1 모듈(S1)은 전술한 HMD에 구비되어 체험자의 전면 얼굴을 촬영하여 제2 입력부(210)로 전송하고, 상기 제2 제어부(220)가 입력된 데이터를 판단한다.The first module S1 is provided in the above-described HMD to photograph the front face of the user and transmit it to the second input unit 210 , and the second control unit 220 determines the input data.

상기 제2 제어부(220)는 체험자의 다양한 얼굴 표정에 따른 표정 데이터가 사전에 입력되는데, 일 예로 자이로 기구(1300)와 연결된 로봇 암(2a)을 체험할 때 다양하게 변화되는 얼굴 근육의 이동에 따른 얼굴 근육 이동 데이터가 사전에 입력된다. In the second control unit 220, facial expression data according to various facial expressions of the experiencer are input in advance. Facial muscle movement data is input in advance.

상기 얼굴 근육 이동 데이터는 기쁘거나, 놀람, 즐거울 때 주로 사용되는 얼굴 근육의 이동 궤적이 성별, 연령별, 인종별로 다양하게 세분화 되어 남녀를 불문하고 적용 가능하고, 어린이 또는 노인의 체험자일 경우에도 적용할 수 있다.The facial muscle movement data is applicable regardless of gender, as the movement trajectories of facial muscles, which are mainly used when happy, surprised, or happy, are variously subdivided by gender, age, and race, and can be applied even if you are a child or an elderly person. can

또한 외국인이 체험하는 경우에도 적용 가능하여 인종에 상관 없이 모두 적용시켜 판단할 수 있다.Also, it can be applied to foreigners who experience it, so it can be applied to all people regardless of race.

상기 얼굴 근육 이동 데이터에는 공포감이 발생될 경우 또는 무서움이 발생될 경우 또는 두려움이 발생될 경우에 주로 사용되는 얼굴 근육의 이동 움직임에 따른 각종 데이터가 사전에 입력되어 있어 체험자의 현재 상태를 정확하게 판단할 수 있다.In the facial muscle movement data, various data according to the movement movement of the facial muscles, which are mainly used when a feeling of fear or fear occurs, or when fear occurs, is input in advance to accurately determine the current state of the experiencer. can

본 실시 예는 공포 또는 두려움에 의해 얼굴 근육이 특정 횟수 이상 사용되기 이전에는 모션에 따른 일시적인 공포감 또는 두려움으로 판단하고, 특정 횟수 이상일 경우에는 이상 상태로 판단한다.In the present embodiment, before the facial muscles are used more than a certain number of times due to fear or fear, it is determined as a temporary feeling of fear or fear according to the motion, and when the facial muscle is used more than a certain number of times, it is determined as an abnormal state.

본 실시 예는 전술한 제1 모듈(S1)과 함께 제2 모듈(S2)이 동시에 입력되고, 상기 제2 모듈(S2)은 음성을 입력 받아 상기 체험자의 직접적인 현재 상태를 판단하기 위한 데이터로 활용된다.In this embodiment, the second module S2 and the first module S1 are simultaneously input, and the second module S2 receives a voice input and uses it as data for determining the current state of the experiencer. do.

상기 제2 모듈(S2)은 HMD에 내장된 마이크일 수 있으며, 상기 체험자가 모션 도중에 극도의 공포감을 느껴 비명을 지르거나, 긴급 구조에 해당하는 음성 신호가 입력될 경우에 모션 중지가 이루어지므로 체험자의 안전성을 확보할 수 있다.The second module S2 may be a microphone built into the HMD, and the motion is stopped when the experiencer feels a sense of extreme fear and screams during the motion, or when a voice signal corresponding to emergency rescue is input. safety can be ensured.

상기 제3 모듈(S3)은 체험자의 체온과 맥박을 감지하기 위한 구성으로 체험자가 탑승한 탑승부(1200)의 핸들 바(1210)에 구비된다. 상기 제3 모듈(S3)은 체험자의 체온과 맥박을 감지하여 모션이 이루어지는 동안 변화되는 상태를 감지한다.The third module S3 is provided on the handle bar 1210 of the boarding unit 1200 on which the experiencer rides as a configuration for sensing the body temperature and pulse of the experiencer. The third module S3 detects the body temperature and pulse of the experiencer and detects a state that is changed while the motion is being performed.

예를 들어 자이로 기구(1300)가 작동할 경우 체험자의 맥박은 상승하는 것이 일반적이나, 기 설정된 변동 범위를 벗어나 지속적으로 상승될 경우 체험자의 안전을 고려하여 모션이 중지되도록 제어될 수 있다.For example, when the gyro mechanism 1300 is operated, it is common for the user's pulse to rise, but when it continuously rises outside a preset variation range, the motion may be controlled to stop in consideration of the user's safety.

따라서 본 실시 예는 상기 제1 내지 제3 모듈(S1 ~ S3)에 의해 체험자의 정확한 상태 정보에 따라 로봇 암(2a)의 모션 진행 또는 모션 중지를 정확하게 제어할 수 있다.Accordingly, according to the first to third modules S1 to S3 in the present embodiment, it is possible to accurately control the progress or stop of the motion of the robot arm 2a according to the exact state information of the user.

상기 제어 대상물 유닛 플랫폼(300)은 상기 제2 제어부(220)에서 전송된 제어 신호에 의해 상기 단위 제어 대상물(2)이 비상 정치되도록 제어되거나, 상기 단위 제어 대상물(2)의 속도가 우선 감소된 후에 비상 정지되는 어느 하나의 방식으로 제어된다.The control object unit platform 300 is controlled so that the unit control object 2 is emergency stationary by the control signal transmitted from the second control unit 220, or the speed of the unit control object 2 is reduced first. It is controlled in either way with an emergency stop afterwards.

일 예로 전술한 바와 같이 체험자가 탑승할 경우에는 비상 정지되도록 제어되고, 제조 현장일 경우에는 속도가 우선 감소된 후에 비상 정지되도록 제어된다.For example, as described above, when an experienced person boards, it is controlled to make an emergency stop, and in the case of a manufacturing site, the speed is first reduced and then the emergency stop is controlled.

이 경우 체험자의 탑승 유무에 상관 없이 안전성이 향상되고 주변 구조물 또는 시설물과 직접적인 충돌이 발생될 확률을 감소시켜 안전한 모션이 이루어진다.In this case, safety is improved regardless of whether the experiencer is on board or not, and the probability of a direct collision with surrounding structures or facilities is reduced, resulting in safe motion.

상기 유저 인터페이스(user interface) 플랫폼(100)과, 상기 브릿지 플랫폼(200)과, 상기 제어 대상물 유닛 플랫폼(300)은 서로 간에 송신 또는 수신 되는 데이터의 실시간 통신주기가 제1 주기로 일정하게 유지된다.The user interface platform 100, the bridge platform 200, and the control object unit platform 300 maintain a constant real-time communication period of data transmitted or received between each other as a first period.

상기 제1 주기는 12m/s 주기로 반복되고, 상기 제1 주기를 초과 하거나 미달될 경우 상기 단위 제어 대상물(2)의 작동이 강제로 중지된다. 상기 제1 주기는 일 예로 설명한 것으로 다른 주기로 변동될 수 있으며 반드시 전술한 수치로 한정하지 않는다.The first cycle is repeated at a cycle of 12 m/s, and when the first cycle exceeds or falls short of the first cycle, the operation of the unit control object 2 is forcibly stopped. The first cycle is described as an example, and may be changed to another cycle, and is not necessarily limited to the above-described numerical value.

특히 복수의 로봇 암(2a)에서 각각 모션이 이루어질 경우 제1 주기가 일정하게 유지되어야 안정적인 모션이 이루어진다.In particular, when each motion is made in the plurality of robot arms 2a, a stable motion is achieved only when the first period is constantly maintained.

상기 유저 인터페이스 플랫폼(100)과, 상기 브릿지 플랫폼(200)과, 상기 제어 대상물 유닛 플랫폼(300)은 서로 간에 유선 또는 무선 중에 어느 하나로 선택되는 통신 방식으로 데이터 전송이 이루어질 때, 데이터의 손실을 방지하기 위해 주기적으로 보정이 이루어진다.The user interface platform 100, the bridge platform 200, and the control object unit platform 300 prevent data loss when data transmission is performed in a communication method selected from either wired or wireless with each other. Calibration is done periodically to

보정 방식은 특정 횟수로 현재 유선 통신 방식의 이상 유무가 제1 내지 제3 입력부(110, 210, 310)와, 제1 내지 제3 출력부(130, 230, 330)에서 서로 간에 연결(ping) 테스트 방식으로 이루어진다.In the correction method, the first to third input units 110 , 210 , and 310 and the first to third output units 130 , 230 , 330 are connected to each other (ping) whether there is an abnormality in the current wired communication method a certain number of times. This is done in a test manner.

예를 들면 제1 입력부(110)와 제2 입력부(210) 사이에서 이루어지거나, 상기 제2 입력부(210)와 제3 입력부(310) 사이에서 이루어 질 수 있으며, 핑 테스트에 결과를 체크하여 이상 유무를 정확히 확인 할 수 있다.For example, it may be made between the first input unit 110 and the second input unit 210 or between the second input unit 210 and the third input unit 310, and check the result of the ping test. It is possible to accurately check whether

상기 유저 인터페이스(user interface) 플랫폼(100)은 적어도 1개 이상의 외부 장비와 유선 또는 무선 통신 방식 중에 어느 하나로 선택되는 외부 입력 유닛(20)과 실시간 입력이 이루어진다.The user interface platform 100 performs real-time input with at least one external device and an external input unit 20 selected by any one of a wired or wireless communication method.

상기 외부 입력 유닛(20)은 일 예로 조이스틱 또는 손가락에 끼워서 사용하는 로봇 핸드가 사용될 수 있으나, 다른 VR 장비가 사용되는 것도 가능할 수 있다.The external input unit 20 may be, for example, a joystick or a robot hand inserted into a finger, but other VR equipment may also be used.

상기 브릿지 플랫폼(200)은 적어도 1개 이상의 외부 장비와 유선 또는 무선 통신 방식 중에 어느 하나로 선택되는 외부 입력 유닛(20)과 실시간 입력을 통해 상기 유저 인터페이스 플랫폼(100)을 경유하지 않고 상기 제어 대상물 유닛 플랫폼(300)과 연결이 이루어진다.The bridge platform 200 is the control object unit without passing through the user interface platform 100 through the real-time input with an external input unit 20 selected in any one of a wired or wireless communication method with at least one or more external devices. A connection is made with the platform 300 .

예를 들면 작업자가 현장에 위치하지 않고 거리상으로 수 킬로 미터 또는 수 십 킬로미터 떨어진 원격지에 있는 경우에도 유선 또는 무선 통신 방식을 통해 브릿지 플랫폼(200)의 제2 입력부(210)와 연결될 수 있다.For example, even if the operator is not located in the field but is several kilometers or tens of kilometers away in distance, it may be connected to the second input unit 210 of the bridge platform 200 through a wired or wireless communication method.

이 경우 로봇 암은 용도에 따라 상이할 수 있으나, 작업자가 해외에 있거나, 원격지에 있는 경우에도 각종 조립 작업이나, 의료적인 수술 작업도 안정적으로 실시할 수 있다.In this case, the robot arm may be different depending on the use, but even when the operator is abroad or in a remote location, various assembly operations or medical surgical operations can be stably performed.

이상, 본 발명의 일 실시 예에 대하여 설명하였으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 특허청구범위에 기재된 본 발명의 사상으로부터 벗어나지 않는 범위 내에서, 구성 요소의 부가, 변경, 삭제 또는 추가 등에 의해 본 발명을 다양하게 수정 및 변경시킬 수 있을 것이며, 이 또한 본 발명의 권리범위 내에 포함된다고 할 것이다.As mentioned above, although an embodiment of the present invention has been described, those of ordinary skill in the art can add, change, delete or add components within the scope that does not depart from the spirit of the present invention described in the claims. The present invention may be variously modified and changed by, etc., and this will also be included within the scope of the present invention.

100 : 유저 인터페이스 플랫폼
110 : 제1 입력부
120 : 제1 제어부
130 : 제1 출력부
200 : 브릿지 플랫폼
210 : 제2 입력부
220 : 제2 제어부
230 : 제2 출력부
300 : 제어 대상물 유닛 플랫폼
310 : 제3 입력부
320 : 제3 제어부
330 : 제3 출력부
S1 : 제1 모듈
S2 : 제2 모듈
S3 : 제3 모듈
100: User Interface Platform
110: first input unit
120: first control unit
130: first output unit
200: bridge platform
210: second input unit
220: second control unit
230: second output unit
300: control object unit platform
310: third input unit
320: third control unit
330: third output unit
S1: first module
S2: second module
S3: third module

Claims (15)

통신 방식으로 데이터 전송이 이루어지는 제1 입력부(110)와; 단위 제어 대상물(2)이 작업공간(workspace)에서 시뮬레이션을 통해 생성된 모션(motion)에 의해 초기 설정 값이 셋팅 되고, 셋팅된 초기 설정 값의 이상 유무를 판단하는 제1 제어부(120)와; 상기 셋팅된 초기 설정 데이터를 전송하기 위한 제1 출력부(130)를 포함하는 유저 인터페이스(user interface) 플랫폼(100);
상기 제1 출력부(130)에서 전송된 데이터를 입력 받는 제2 입력부(210)와; 상기 제2 입력부(210)에서 입력된 데이터의 이상 유무를 판단하는 제2 제어부(220)와; 상기 제2 제어부(220)에서 제어된 데이터를 전송하기 위한 제2 출력부(230)를 포함하는 브릿지 플랫폼(200); 및
상기 제2 출력부(230)에서 전송된 데이터를 입력 받는 제3 입력부(310)와; 상기 제3 입력부(310)에서 입력된 데이터의 이상 유무를 판단하여 상기 브릿지 플랫폼(200)의 제2 입력부(210)로 전송하는 제3 출력부(330)와; 상기 제3 입력부(310)에서 입력된 데이터에 의해 모션이 이루어지도록 적어도 한 개 이상의 단위 제어 대상물(2)로 이루어진 제어 대상물 유닛 플랫폼(300)을 포함하되,
상기 단위 제어 대상물(2)은 적어도 1개 이상의 로봇 암(2a)으로 구성되고, 상기 제2 제어부(220)는 로봇 암(2a)에 체험자가 탑승할 경우 상기 체험자의 다양한 얼굴 표정에 따른 얼굴 근육의 이동에 따른 얼굴 근육 이동 데이터가 사전에 입력되며 상기 얼굴 근육 이동 데이터는 기쁘거나, 놀람, 즐거울 때 주로 사용되는 얼굴 근육의 이동 궤적이 성별, 연령별, 인종별로 세분화 되어 상기 체험자의 현재 상태를 판단하되,
상기 얼굴 근육이 특정 횟수 이상 사용되기 이전에는 모션에 따른 일시적인 공포감 또는 두려움으로 판단하고, 특정 횟수 이상일 경우에는 이상 상태로 판단하는 통합 플랫폼.
a first input unit 110 through which data is transmitted through a communication method; The unit control object 2 is set to an initial setting value by motion generated through simulation in a workspace, and a first control unit 120 for determining whether there is an abnormality in the set initial setting value; a user interface platform 100 including a first output unit 130 for transmitting the set initial setting data;
a second input unit 210 for receiving data transmitted from the first output unit 130; a second control unit 220 for determining whether there is an abnormality in the data input from the second input unit 210; a bridge platform 200 including a second output unit 230 for transmitting data controlled by the second control unit 220; and
a third input unit 310 receiving data transmitted from the second output unit 230; a third output unit 330 that determines whether data input from the third input unit 310 is abnormal and transmits it to the second input unit 210 of the bridge platform 200; and a control object unit platform 300 composed of at least one unit control object 2 so that motion is made by the data input from the third input unit 310,
The unit control object 2 includes at least one or more robot arms 2a, and the second control unit 220 controls facial muscles according to various facial expressions of the user when the user boards the robot arm 2a. Facial muscle movement data according to the movement is input in advance, and the facial muscle movement data is divided by gender, age, and race to determine the current state of the experiencer but,
Before the facial muscles are used more than a certain number of times, it is determined as a temporary feeling of fear or fear according to the motion, and when the facial muscle is used more than a certain number of times, it is determined as an abnormal state.
제1 항에 있어서,
상기 유저 인터페이스 플랫폼(100)은 3차원 게임 엔진이 사용되고, 상기 제1 입력부(110)는 시뮬레이션이 이루어질 상기 단위 제어 대상물(2)에 대한 작업공간의 한계 영역(limit area) 데이터를 기반으로 상기 단위 제어 대상물(2)의 모션에 따른 한계 작동 영역(operating area) 데이터와, 상기 단위 제어 대상물(2)이 작업공간에서 모션이 이루어질 이동 속도와, 높이 및 상대 위치와, 회전각과 회전횟수와, 틸팅각과, 허용 중량을 입력받는 통합 플랫폼.
The method of claim 1,
The user interface platform 100 uses a 3D game engine, and the first input unit 110 uses the unit based on the limit area data of the workspace for the unit control object 2 to be simulated. Limit operating area data according to the motion of the control object 2, the movement speed at which the unit control object 2 is to be moved in the work space, the height and relative position, the rotation angle and the number of rotations, and the tilting An integrated platform that receives input of each class and allowable weight.
제1 항에 있어서,
상기 단위 제어 대상물(2)은 적어도 1개 이상의 로봇 암(2a)으로 구성되고, 상기 로봇 암(2a)에 체험자가 탑승할 경우 상기 체험자의 상태 정보가 상기 제1 입력부(110)로 입력되는 통합 플랫폼.
The method of claim 1,
The unit control object 2 is composed of at least one or more robot arms 2a, and when the user boards the robot arm 2a, the state information of the experiencer is inputted to the first input unit 110. platform.
제3 항에 있어서,
상기 작업공간에는 적어도 1개 이상의 로봇 암(2a) 주변에 복수의 센서부(10)가 구비되고, 상기 센서부(10)에서 감지된 감지 데이터는 상기 제2 입력부(210)로 입력되는 통합 플랫폼.
4. The method of claim 3,
An integrated platform in which a plurality of sensor units 10 are provided around at least one or more robot arms 2a in the workspace, and the sensed data sensed by the sensor unit 10 is input to the second input unit 210 . .
제3 항에 있어서,
상기 로봇 암(2a)에는 체험자에게 영상을 제공하는 영상부(1100);
상기 체험자에게 탑승 가능한 공간을 제공하는 탑승부(1200)를 포함하는 통합 플랫폼.
4. The method of claim 3,
The robot arm (2a) includes an image unit 1100 for providing an image to the user;
An integrated platform including a boarding unit 1200 that provides a boarding space to the experiencer.
제5 항에 있어서,
상기 로봇 암(2a)은 상기 탑승부(1200)에 피칭, 요잉, 롤링 및 왕복 운동 중 적어도 하나를 발생시키는 자이로 기구(1300)와 상호 데이터 송수신 가능하게 연결된 통합 플랫폼.
6. The method of claim 5,
The robot arm (2a) is an integrated platform connected to the gyro mechanism (1300) for generating at least one of pitching, yaw, rolling, and reciprocating motion in the boarding part (1200) to transmit and receive data.
제5 항에 있어서,
상기 탑승부(1200)에는 상기 체험자의 상태 정보를 영상으로 감지하기 위한 제1 모듈(S1);
상기 체험자의 음성을 감지하기 위한 제2 모듈(S2);
상기 체험자의 체온과 맥박을 감지하기 위한 제3 모듈(S3)이 구비된 통합 플랫폼.
6. The method of claim 5,
The boarding unit 1200 includes a first module (S1) for detecting the state information of the experiencer as an image;
a second module (S2) for detecting the user's voice;
An integrated platform provided with a third module (S3) for detecting the body temperature and pulse of the experiencer.
제1 항에 있어서,
상기 브릿지 플랫폼(200)의 제2 제어부(220)는 상기 유저 인터페이스(user interface) 플랫폼(100)의 제1 출력부(130)를 통해 입력된 모션 데이터에 의해 상기 단위 제어 대상물(2)이 모션 가능한 데이터 인지 확인하고, 가능할 경우 상기 제3 입력부(310)로 상기 단위 제어 대상물(2)의 모션 데이터가 전송되고,
상기 모션 데이터가 상기 작업공간 내의 유효한 데이터가 아니거나, 불 가능할 경우에는 상기 제3 입력부(310)로 모션 데이터가 전송되지 않도록 제어되는 통합 플랫폼.
The method of claim 1,
The second control unit 220 of the bridge platform 200 moves the unit control object 2 by motion data input through the first output unit 130 of the user interface platform 100 . It is checked whether the data is possible, and if possible, the motion data of the unit control object 2 is transmitted to the third input unit 310,
When the motion data is not valid data in the workspace or is impossible, the integrated platform is controlled so that motion data is not transmitted to the third input unit (310).
제1 항에 있어서,
상기 브릿지 플랫폼(200)의 제2 제어부(220)는 상기 제어 대상물 유닛 플랫폼(300)이 한계 작동 영역(operating area)을 벗어나거나, 상기 제어 대상물 유닛 플랫폼(300)을 구성하는 단위 제어 대상물(2)이 작업공간에서 작동 중에 서로 간에 근접하여 충돌 영역(R)으로 근접할 경우 충돌 가능 상태로 판단하고, 상기 단위 제어 대상물(2)이 긴급 정지되도록 상기 제2 출력부(230)로 제어 신호를 전송하는 통합 플랫폼.
The method of claim 1,
The second control unit 220 of the bridge platform 200 determines whether the control object unit platform 300 is out of a limit operating area, or the unit control object 2 constituting the control object unit platform 300 . ) is determined to be in a collision-possible state when it is close to each other and approaches the collision area R during operation in the workspace, and a control signal is sent to the second output unit 230 so that the unit control object 2 is urgently stopped. An integrated platform that transmits.
제9 항에 있어서,
상기 제어 대상물 유닛 플랫폼(300)은 상기 제2 제어부(220)에서 전송된 제어 신호에 의해 상기 단위 제어 대상물(2)이 비상 정치되도록 제어되거나, 상기 단위 제어 대상물(2)의 속도가 우선 감소된 후에 비상 정지되는 어느 하나의 방식으로 제어되는 통합 플랫폼.
10. The method of claim 9,
The control object unit platform 300 is controlled so that the unit control object 2 is emergency stationary by the control signal transmitted from the second control unit 220, or the speed of the unit control object 2 is reduced first. An integrated platform controlled in either way with an emergency stop afterwards.
제1 항에 있어서,
상기 유저 인터페이스 플랫폼(100)과, 상기 브릿지 플랫폼(200)과, 상기 제어 대상물 유닛 플랫폼(300)은 서로 간에 유선 또는 무선 중에 어느 하나로 선택되는 통신 방식으로 데이터 전송이 이루어질 때, 데이터의 손실을 방지하기 위해 주기적으로 보정이 이루어지는 통합 플랫폼.
The method of claim 1,
The user interface platform 100, the bridge platform 200, and the control object unit platform 300 prevent data loss when data transmission is performed in a communication method selected from either wired or wireless between each other. An integrated platform that is periodically calibrated to
제11 항에 있어서,
상기 유저 인터페이스(user interface) 플랫폼(100)과, 상기 브릿지 플랫폼(200)과, 상기 제어 대상물 유닛 플랫폼(300)은 서로 간에 송신 또는 수신 되는 데이터의 실시간 통신주기가 제1 주기로 일정하게 유지되는 통합 플랫폼.
12. The method of claim 11,
The user interface platform 100, the bridge platform 200, and the control object unit platform 300 are integrated in which a real-time communication period of data transmitted or received between each other is constantly maintained as a first period. platform.
제12 항에 있어서,
상기 제1 주기는 12m/s 주기로 반복되고, 상기 제1 주기를 초과 하거나 미달될 경우 상기 단위 제어 대상물(2)의 작동이 강제로 중지되는 통합 플랫폼.
13. The method of claim 12,
The first cycle is repeated at a cycle of 12 m/s, and when the first cycle exceeds or falls short of the first cycle, the operation of the unit control object (2) is forcibly stopped.
제1 항에 있어서,
상기 유저 인터페이스(user interface) 플랫폼(100)은 적어도 1개 이상의 외부 장비와 유선 또는 무선 통신 방식 중에 어느 하나로 선택되는 외부 입력 유닛(20)과 실시간 입력이 이루어지는 통합 플랫폼.
The method of claim 1,
The user interface platform 100 is an integrated platform in which real-time input is performed with at least one external device and an external input unit 20 selected in either a wired or wireless communication method.
제1 항에 있어서,
상기 브릿지 플랫폼(200)은 적어도 1개 이상의 외부 장비와 유선 또는 무선 통신 방식 중에 어느 하나로 선택되는 외부 입력 유닛(20)과 실시간 입력을 통해 상기 유저 인터페이스 플랫폼(100)을 경유하지 않고 상기 제어 대상물 유닛 플랫폼(300)과 연결이 이루어지는 통합 플랫폼.
The method of claim 1,
The bridge platform 200 is the control object unit without passing through the user interface platform 100 through the real-time input with the external input unit 20 selected in any one of a wired or wireless communication method with at least one or more external equipment. An integrated platform that is connected to the platform 300 .
KR1020170160881A 2017-11-28 2017-11-28 Integrated Platform KR102423644B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170160881A KR102423644B1 (en) 2017-11-28 2017-11-28 Integrated Platform

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170160881A KR102423644B1 (en) 2017-11-28 2017-11-28 Integrated Platform

Publications (2)

Publication Number Publication Date
KR20190061961A KR20190061961A (en) 2019-06-05
KR102423644B1 true KR102423644B1 (en) 2022-07-21

Family

ID=66845543

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170160881A KR102423644B1 (en) 2017-11-28 2017-11-28 Integrated Platform

Country Status (1)

Country Link
KR (1) KR102423644B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004243427A (en) * 2003-02-12 2004-09-02 Yaskawa Electric Corp Robot control device and robot control method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3421191B2 (en) * 1996-04-23 2003-06-30 三菱電機株式会社 Robot control device and data communication method thereof
KR20150105047A (en) * 2014-03-07 2015-09-16 주식회사 에스알포유 Driving apparatus for horse riding, health care exercising apparatus using the same, control method thereof
TW201600275A (en) 2014-06-26 2016-01-01 Hiwin Tech Corp Robotic arm system and parallelism calibration method thereof
KR20170106163A (en) * 2016-03-11 2017-09-20 주식회사 상화 Virtual reality experience apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004243427A (en) * 2003-02-12 2004-09-02 Yaskawa Electric Corp Robot control device and robot control method

Also Published As

Publication number Publication date
KR20190061961A (en) 2019-06-05

Similar Documents

Publication Publication Date Title
US10875188B2 (en) Universal motion simulator
JP3214776B2 (en) Virtual environment display device and method
KR101694402B1 (en) System and method for assisting ambulatory rehabilitation using projected image
KR101839113B1 (en) Virtual network training processing unit included client system of immersive virtual training system that enables recognition of respective virtual training space and collective and organizational cooperative training in shared virtual workspace of number of trainees through multiple access and immersive virtual training method using thereof
KR101389894B1 (en) Virtual reality simulation apparatus and method using motion capture technology and
KR101671320B1 (en) Virtual network training processing unit included client system of immersive virtual training system that enables recognition of respective virtual training space and collective and organizational cooperative training in shared virtual workspace of number of trainees through multiple access and immersive virtual training method using thereof
Aggravi et al. Haptic wrist guidance using vibrations for human-robot teams
KR101789883B1 (en) Spin virtual reality simulator
JP6736298B2 (en) Information processing apparatus, information processing method, and program
US20090322888A1 (en) Integrated circuit for detecting movements of persons
KR101974207B1 (en) Fan-driven force device
KR102423644B1 (en) Integrated Platform
JP7167518B2 (en) Controllers, head-mounted displays and robotic systems
WO2021070411A1 (en) Rehabilitation assistance device, and method and program therefor
KR102564810B1 (en) Realistic fire-fighting simulator
US20220214750A1 (en) Virtual, Augmented and Mixed Reality Systems with Physical Feedback
CN108268050A (en) Motion control device wears display equipment, unmanned plane and flight system
KR102396483B1 (en) Simulation experience system and method for collision accident
KR102342872B1 (en) Mutual sympathy system between user and avatar using motion tracking
von der Heyde et al. How to cheat in motion simulation: comparing the engineering and fun ride approach to motion cueing
US20240012412A1 (en) Haptic system for robot teleoperation of a remotely operated vehicle
CN108446012A (en) Virtual reality moving image display methods and virtual reality device
KR20170079502A (en) virtual reality system to control vertical position of player using pressure proportional controller
Padir et al. Towards Cooperative Control of Humanoid Robots for Handling High-Consequence Materials in Gloveboxes–17291
WO2023247982A1 (en) Smart drone system for simulating a moving object

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant