KR102423644B1 - Integrated Platform - Google Patents
Integrated Platform Download PDFInfo
- Publication number
- KR102423644B1 KR102423644B1 KR1020170160881A KR20170160881A KR102423644B1 KR 102423644 B1 KR102423644 B1 KR 102423644B1 KR 1020170160881 A KR1020170160881 A KR 1020170160881A KR 20170160881 A KR20170160881 A KR 20170160881A KR 102423644 B1 KR102423644 B1 KR 102423644B1
- Authority
- KR
- South Korea
- Prior art keywords
- unit
- platform
- data
- control object
- input
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/06—Safety devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1605—Simulation of manipulator lay-out, design, modelling of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
Abstract
통합 플랫폼이 개시된다. 본 발명의 일 실시 예에 따른 통합 플랫폼은 게임 엔진과 로봇 암이 결합되고, 상기 게임 엔진에서 시뮬레이션 된 모션을 로봇 암에 실시간으로 정확히 모션 제어를 실시할 수 있는 통합 플랫폼에 관한 것이다.An integrated platform is disclosed. An integrated platform according to an embodiment of the present invention relates to an integrated platform in which a game engine and a robot arm are combined, and the motion simulated by the game engine can be accurately controlled in real time on a robot arm.
Description
본 발명은 3D 게임 엔진의 UI(user Interface)를 이용하여 로봇 암(Robot Arm)의 실시간 이동 경로 및 제어를 동시에 실시할 수 있는 것으로서, 보다 상세하게는 게임 엔진과 로봇 암이 결합된 통합 플랫폼에 관한 것이다.The present invention can simultaneously perform real-time movement path and control of a robot arm using a user interface (UI) of a 3D game engine. it's about
일반적으로 반복적인 작업이 수행되는 자동화 생산라인 또는 제조현장에서는 제조용 로봇이 사용된다.In general, in automated production lines or manufacturing sites where repetitive tasks are performed, manufacturing robots are used.
상기 제조용 로봇은 자동차, 반도체 또는 전기전자와 같이 다양한 산업 현장에서 사용되고 있으나, 작업자와의 충돌 또는 상기 로봇 암의 파손을 방지하기 위해 다양한 안정 장비가 구비된 조건에서 사용되고 있다.The manufacturing robot is used in various industrial sites such as automobiles, semiconductors, or electrical and electronic devices, but is used under conditions in which various stabilization equipment is provided in order to prevent a collision with a worker or damage to the robot arm.
최근에는 제조현장을 벗어나 의료, 공연, 영화, 놀이동산, 광고 분야 에서와 같이 다양한 산업 분야에서 다양한 용도로 로봇이 사용되고 있으며, 일 예로 광고용 홍보 효과를 위한 로봇 암이 사용되고 있다.Recently, a robot has been used for various purposes in various industrial fields, such as medical, performance, movie, amusement park, and advertising fields, out of the manufacturing field, and for example, a robot arm for advertising promotional effects is used.
또한 상기 로봇 암 중 영상과 함께 물리적 움직임을 제공하는 가상현실 장비에도 사용되고 있다. 여기서 가상현실(Virtual Reality, VR)이란 어떤 특정한 환경이나 상황을 컴퓨터로 생성하고, 가상현실을 체험하는 사람이 실제 주변 상황 또는 환경과 상호작용을 하고 있는 것처럼 만들어 주는 인간과 컴퓨터 사이의 인터페이스를 의미한다.It is also used in virtual reality equipment that provides physical motion along with images among the robot arms. Here, virtual reality (VR) refers to an interface between a human and a computer that creates a specific environment or situation with a computer and makes it as if a person experiencing virtual reality is interacting with the actual surrounding situation or environment. do.
이러한 가상현실은 인공현실, 사이버 공간, 가상세계, 가상환경, 합성환경, 인공환경 등으로도 불리고 있다.Such virtual reality is also called artificial reality, cyberspace, virtual world, virtual environment, synthetic environment, artificial environment, and the like.
가상현실의 사용 목적은 사람들이 일상적으로 경험하기 어려운 환경을 직접 체험하지 않고도 실제 환경에 들어와 있는 것처럼 보여주고 조작할 수 있게 하는 것으로서, 최근에는 교육, 고급 프로그래밍, 원격조작 등의 분야에 응용되고 있다.The purpose of using virtual reality is to allow people to show and operate as if they are in a real environment without directly experiencing an environment that is difficult to experience on a daily basis. .
상기 로봇 암은 일 예로 제조현장에서 사용될 때 정해진 구간에서 사전에 입력된 경로를 따라 움직이면서 반복적인 작업을 수행하게 된다.When the robot arm is used in a manufacturing site, for example, it performs repetitive tasks while moving along a path input in advance in a predetermined section.
이 경우 단순 반복 작업에는 로봇 암이 유리할 수 있으나, 각종 공연, 영화, 놀이동산, 광고 분야 에서와 같이 다양한 상황에 따라 다양한 모션으로 구동할 경우에는 제한이 따르게 된다.In this case, the robot arm may be advantageous for simple repetitive tasks, but there are limitations when it is driven with various motions according to various situations, such as in various performances, movies, amusement parks, and advertisement fields.
따라서 상기 로봇 암이 전술한 바와 같이 다양한 상황에 따라 다양한 모션으로 구동시키기 위해서는 조작자의 의도에 맞는 다양한 경로가 실시간으로 안전하게 생성되어야 하고, 실시간으로 이동 경로가 정확하게 생성되고 제어되기 위한 플랫폼의 개발이 필요하게 되었다.Therefore, in order for the robot arm to be driven with various motions according to various situations as described above, various paths suitable for the intention of the operator must be safely generated in real time, and it is necessary to develop a platform for accurately generating and controlling the moving paths in real time. did it
본 발명의 실시 예들은 단일 또는 복수의 로봇 암에 대한 실시간 제어 및 시뮬레이션된 모션 데이터에 대한 제어를 안전하게 수행할 수 있는 통합 플랫폼을 제공한다.Embodiments of the present invention provide an integrated platform that can safely perform real-time control of a single or a plurality of robot arms and control of simulated motion data.
본 발명의 일 실시 예에 의한 통합 플랫폼은 통신 방식으로 데이터 전송이 이루어지는 제1 입력부(110)와; 단위 제어 대상물(2)이 작업공간(workspace)에서 시뮬레이션을 통해 생성된 모션(motion)에 의해 초기 설정 값이 셋팅 되고, 셋팅된 초기 설정 값의 이상 유무를 판단하는 제1 제어부(120)와; 상기 셋팅된 초기 설정 데이터를 전송하기 위한 제1 출력부(130)를 포함하는 유저 인터페이스(user interface) 플랫폼(100); 상기 제1 출력부(130)에서 전송된 데이터를 입력 받는 제2 입력부(210)와; 상기 제2 입력부(210)에서 입력된 데이터의 이상 유무를 판단하는 제2 제어부(220)와; 상기 제2 제어부(220)에서 제어된 데이터를 전송하기 위한 제2 출력부(230)를 포함하는 브릿지 플랫폼(200); 및 상기 제2 출력부(230)에서 전송된 데이터를 입력 받는 제3 입력부(310)와; 상기 제3 입력부(310)에서 입력된 데이터의 이상 유무를 판단하여 상기 브릿지 플랫폼(200)의 제2 입력부(210)로 전송하는 제3 출력부(330)와; 상기 제3 입력부(310)에서 입력된 데이터에 의해 모션이 이루어지도록 적어도 한 개 이상의 단위 제어 대상물(2)로 이루어진 제어 대상물 유닛 플랫폼(300)을 포함한다.An integrated platform according to an embodiment of the present invention includes a
상기 유저 인터페이스 플랫폼(100)은 3차원 게임 엔진이 사용되고, 상기 제1 입력부(110)는 시뮬레이션이 이루어질 상기 단위 제어 대상물(2)에 대한 작업공간의 한계 영역(limit area) 데이터를 기반으로 상기 단위 제어 대상물(2)의 모션에 따른 한계 작동 영역(operating area) 데이터와, 상기 단위 제어 대상물(2)이 작업공간에서 모션이 이루어질 이동 속도와, 높이 및 상대 위치와, 회전각과 회전횟수와, 틸팅각과, 허용 중량을 입력 받는다.The
상기 단위 제어 대상물(2)은 적어도 1개 이상의 로봇 암(2a)으로 구성되고, 상기 로봇 암(2a)에 체험자가 탑승할 경우 상기 체험자의 상태 정보가 상기 제1 입력부(110)로 입력되는 것을 특징으로 한다.The
상기 작업공간에는 적어도 1개 이상의 로봇 암(2a) 주변에 복수의 센서부(10)가 구비되고, 상기 센서부(10)에서 감지된 감지 데이터는 상기 제2 입력부(210)로 입력되는 것을 특징으로 한다.A plurality of sensor units (10) are provided around at least one or more robot arms (2a) in the work space, and the sensed data sensed by the sensor unit (10) is input to the second input unit (210) do it with
상기 로봇 암(2a)에는 체험자에게 영상을 제공하는 영상부(1100); 상기 체험자에게 탑승 가능한 공간을 제공하는 탑승부(1200)를 포함한다.The robot arm (2a) includes an
상기 로봇 암(2a)은 상기 탑승부(1200)에 피칭, 요잉, 롤링 및 왕복 운동 중 적어도 하나를 발생시키는 자이로 기구(1300)와 상호 데이터 송수신 가능하게 연결된다.The
상기 탑승부(1200)에는 상기 체험자의 상태 정보를 영상으로 감지하기 위한 제1 모듈(S1); 상기 체험자의 음성을 감지하기 위한 제2 모듈(S2); 상기 체험자의 체온과 맥박을 감지하기 위한 제3 모듈(S3)이 구비된다.The
상기 브릿지 플랫폼(200)의 제2 제어부(220)는 상기 유저 인터페이스(user interface) 플랫폼(100)의 제1 출력부(130)를 통해 입력된 모션 데이터에 의해 상기 단위 제어 대상물(2)이 모션 가능한 데이터 인지 확인하고, 가능할 경우 상기 제3 입력부(310)로 상기 단위 제어 대상물(2)의 모션 데이터가 전송되고, 상기 모션 데이터가 상기 작업공간 내의 유효한 데이터가 아니거나, 불 가능할 경우에는 상기 제3 입력부(310)로 모션 데이터가 전송되지 않도록 제어되는 것을 특징으로 한다.The
상기 브릿지 플랫폼(200)의 제2 제어부(220)는 상기 제어 대상물 유닛 플랫폼(300)이 한계 작동 영역(operating area)을 벗어나거나, 상기 제어 대상물 유닛 플랫폼(300)을 구성하는 단위 제어 대상물(2)이 작업공간에서 작동 중에 서로 간에 근접하여 충돌 영역(R)으로 근접할 경우 충돌 가능 상태로 판단하고, 상기 단위 제어 대상물(2)이 긴급 정지되도록 상기 제2 출력부(230)로 제어 신호를 전송하는 것을 특징으로 한다.The
상기 제어 대상물 유닛 플랫폼(300)은 상기 제2 제어부(220)에서 전송된 제어 신호에 의해 상기 단위 제어 대상물(2)이 비상 정치되도록 제어되거나, 상기 단위 제어 대상물(2)의 속도가 우선 감소된 후에 비상 정지되는 어느 하나의 방식으로 제어된다.The control
상기 유저 인터페이스 플랫폼(100)과, 상기 브릿지 플랫폼(200)과, 상기 제어 대상물 유닛 플랫폼(300)은 서로 간에 유선 또는 무선 중에 어느 하나로 선택되는 통신 방식으로 데이터 전송이 이루어질 때, 데이터의 손실을 방지하기 위해 주기적으로 보정이 이루어진다.The
상기 유저 인터페이스(user interface) 플랫폼(100)과, 상기 브릿지 플랫폼(200)과, 상기 제어 대상물 유닛 플랫폼(300)은 서로 간에 송신 또는 수신 되는 데이터의 실시간 통신주기가 제1 주기로 일정하게 유지된다.The
상기 제1 주기는 12m/s 주기로 반복되고, 상기 제1 주기를 초과 하거나 미달될 경우 상기 단위 제어 대상물(2)의 작동이 강제로 중지된다.The first cycle is repeated at a cycle of 12 m/s, and when the first cycle is exceeded or less than the first cycle, the operation of the
상기 유저 인터페이스(user interface) 플랫폼(100)은 적어도 1개 이상의 외부 장비와 유선 또는 무선 통신 방식 중에 어느 하나로 선택되는 외부 입력 유닛(20)과 실시간 입력이 이루어진다.The
상기 브릿지 플랫폼(200)은 적어도 1개 이상의 외부 장비와 유선 또는 무선 통신 방식 중에 어느 하나로 선택되는 외부 입력 유닛(20)과 실시간 입력을 통해 상기 유저 인터페이스 플랫폼(100)을 경유하지 않고 상기 제어 대상물 유닛 플랫폼(300)과 연결이 이루어진다.The
본 발명의 실시 예들은 단일 또는 복수의 로봇 암의 다양한 모션에 대한 사전 시뮬레이션을 통해 상기 로봇 암이 적용 가능한 다양한 산업 분야에서 안전하게 사용할 수 있다.Embodiments of the present invention can be safely used in various industrial fields to which the robot arm can be applied through pre-simulation of various motions of a single or a plurality of robot arms.
본 발명의 실시 예들은 로봇 암을 통한 테마파크 또는 놀이동산에서 체험자의 안전한 체험과 사전에 상기 체험자의 상태를 감지하여 위급 상황에서 안전하게 대처할 수 있다. Embodiments of the present invention can safely cope with an emergency situation by detecting the user's safe experience in a theme park or amusement park through a robot arm and the state of the experiencer in advance.
본 발명의 실시 예들은 다수의 로봇 암들을 위치 정밀도와 시간 정밀도가 향상된 모션으로 제어할 수 있다.Embodiments of the present invention can control a plurality of robot arms with improved positional precision and time precision motion.
도 1은 본 발명의 일 실시 예에 의한 통합 플랫폼의 세부 구성을 도시한 도면.
도 2는 본 발명의 다른 실시 예에 의한 통합 플랫폼의 세부 구성을 도시한 도면.
도 3은 복수 개의 로봇 암의 모션 상태를 일 예로 도시한 도면.
도 4 내지 도 5는 로봇 암에 체험자가 탑승한 일 예를 도시한 도면.
도 6은 본 발명의 다른 실시 예에 의한 로봇 암에 자이로 기구와 연결된 구성을 도시한 사시도.
도 7은 본 발명의 제1 내지 제3 모듈의 구성을 도시한 도면.1 is a view showing a detailed configuration of an integrated platform according to an embodiment of the present invention.
2 is a view showing a detailed configuration of an integrated platform according to another embodiment of the present invention.
3 is a view illustrating motion states of a plurality of robot arms as an example.
4 to 5 are diagrams illustrating an example in which an experienced person rides on a robot arm.
6 is a perspective view illustrating a configuration connected to a gyro mechanism in a robot arm according to another embodiment of the present invention.
7 is a view showing the configuration of the first to third modules of the present invention.
본 발명의 일 실시 예에 따른 통합 플랫폼에 대해 도면을 참조하여 설명한다. 첨부된 도 1은 본 발명의 일 실시 예에 의한 통합 플랫폼의 세부 구성을 도시한 도면이고, 도 2는 본 발명의 다른 실시 예에 의한 통합 플랫폼의 세부 구성을 도시한 도면이며, 도 3은 복수 개의 로봇 암의 모션 상태를 일 예로 도시한 도면이다.An integrated platform according to an embodiment of the present invention will be described with reference to the drawings. 1 is a diagram illustrating a detailed configuration of an integrated platform according to an embodiment of the present invention, FIG. 2 is a diagram illustrating a detailed configuration of an integrated platform according to another embodiment of the present invention, and FIG. 3 is a plurality of It is a diagram showing the motion state of the dog robot arm as an example.
첨부된 도 1 내지 도 3을 참조하면, 본 실시 예에 의한 통합 플랫폼은 게임 엔진과 로봇 암이 결합된 구성으로 이루어진다. 일 예로 후술할 유저 인터페이스(user interface) 플랫폼(100)은 3D 게임 엔진이 사용되고, 제어 대상물 유닛 플랫폼(300)은 로봇 암(2a)이 사용될 수 있다. 유저 인터페이스(user interface) 플랫폼(100)은 3D 게임 엔진이 사용되는데, 유저 또는 개발자가 사용 또는 접근이 용이하고 다양한 그래픽 화면과 시뮬레이션을 통한 로봇 암의 모션 구동이 손쉽게 실시될 수 있어 상기 3D 게임 엔진이 사용된다.1 to 3 , the integrated platform according to the present embodiment has a configuration in which a game engine and a robot arm are combined. As an example, a 3D game engine may be used as the
본 실시 예는 상기 제어 대상물 유닛 플랫폼(300)에 구비된 로봇 암(2a)을 제어하기 위해 유저 인터페이스(user interface) 플랫폼(100)에서 상기 제어 대상물 유닛 플랫폼(300)으로 모션 데이터가 직접 전송되지 않고, 상기 유저 인터페이스(user interface) 플랫폼(100)과 상기 제어 대상물 유닛 플랫폼(300) 사이에 브릿지 플랫폼(200)을 구성하여 상기 유저 인터페이스(user interface) 플랫폼(100)에서 설정된 모션 데이터가 상기 브릿지 플랫폼(200)에 의해 한번 더 제어된 후에 상기 제어 대상물 유닛 플랫폼(300)에 구비된 로봇 암(2a)의 모션 제어가 이루어진다.In this embodiment, in order to control the
또한 브릿지 플랫폼(200)은 유저 인터페이스(user interface) 플랫폼(100)에서 모션 불가능한 데이터가 입력될 경우 상기 상기 제어 대상물 유닛 플랫폼(300)에 데이터를 전송하지 않도록 제어가 가능하여 상기 로봇 암에 대한 정확한 작동과 안전 사고 발생을 예방할 수 있다.In addition, the
이와 같이 상기 브릿지 플랫폼(200)이 구비될 경우 제어 대상물 유닛 플랫폼(300)에 구비된 로봇 암(2a)의 모션에 따른 안정성이 향상되고, 각종 긴급 상황에서도 체험자의 안전 사고 발생을 최소화 할 수 있다.In this way, when the
또한 상기 로봇 암(2a)이 2기 또는 3기 이상인 경우에도 각각 실시간으로 모션 제어가 가능해지고, 개별 로봇 암(2a)의 모션에 따른 한계성과 모션 도중 충돌이 발생되기 이전에 안전하게 제어할 수 있다. In addition, even when there are two or three or
참고로 전술한 모션(motion)은 다축으로 이루어진 로봇 암(2a)이 시간에 따라 소정의 속도로 이동 또는 회전이 이루어지는 움직임(movement) 또는 동작을 의미한다.For reference, the aforementioned motion refers to a movement or motion in which the
이를 위해 본 실시 예에 의한 통합 플랫폼은 통신 방식으로 데이터 전송이 이루어지는 제1 입력부(110)와; 단위 제어 대상물(2)이 작업공간(workspace)에서 시뮬레이션을 통해 생성된 모션(motion)에 의해 초기 설정 값이 셋팅 되고, 셋팅된 초기 설정 값의 이상 유무를 판단하는 제1 제어부(120)와; 상기 셋팅된 초기 설정 데이터를 전송하기 위한 제1 출력부(130)를 포함하는 유저 인터페이스(user interface) 플랫폼(100)이 구비된다.To this end, the integrated platform according to the present embodiment includes a
그리고 상기 제1 출력부(130)에서 전송된 데이터를 입력 받는 제2 입력부(210)와; 상기 제2 입력부(210)에서 입력된 데이터의 이상 유무를 판단하는 제2 제어부(220)와; 상기 제2 제어부(220)에서 제어된 데이터를 전송하기 위한 제2 출력부(230)를 포함하는 브릿지 플랫폼(200); 및 상기 제2 출력부(230)에서 전송된 데이터를 입력 받는 제3 입력부(310)와; 상기 제3 입력부(310)에서 입력된 데이터의 이상 유무를 판단하여 상기 브릿지 플랫폼(200)의 제2 입력부(210)로 전송하는 제3 출력부(330)와; 상기 제3 입력부(310)에서 입력된 데이터에 의해 모션이 이루어지도록 적어도 한 개 이상의 단위 제어 대상물(2)로 이루어진 제어 대상물 유닛 플랫폼(300)을 포함한다.and a
상기 유저 인터페이스 플랫폼(100)은 3차원 게임 엔진이 사용되고, 상기 제1 입력부(110)는 시뮬레이션이 이루어질 상기 단위 제어 대상물(2)에 대한 작업공간의 한계 영역(limit area) 데이터를 기반으로 상기 단위 제어 대상물(2)의 모션에 따른 한계 작동 영역(operating area) 데이터와, 상기 단위 제어 대상물(2)이 작업공간에서 모션이 이루어질 이동 속도와, 높이 및 상대 위치와, 회전각과 회전횟수와, 틸팅각과, 허용 중량을 입력 받는다.The
상기 유저 인터페이스 플랫폼(100)은 작업자가 로봇 암(2a)이 모션되기 위해 특정 모션 데이터를 입력하기 위해 구비된 구성으로 전술한 데이터 이외에도 미 설명된 다양한 데이터가 사전 입력될 수 있다.The
상기 단위 제어 대상물(2)은 작업공간에서 모션이 이루어질 때 정해진 한계 영역(limit area) 이내의 영역에서 모션이 이루어진다. 상기 한계 영역은 단위 제어 대상물(2)이 모션 데이터에 의해 실제 모션이 이루어지는 영역으로 최소 모션과 최대 모션을 포함한 영역에 해당된다.When the
예를 들면 한계 영역(limit area)은 로봇 암(2a)이 최대로 신장된 상태에서 모션이 이루어 질 때 체험자와 충돌이 발생되지 않는 거리에 따른 영역에 해당된다. 즉 로봇 암(2a)이 2m의 길이로 연장되고, 최대 신장될 경우 4m 내외의 길이로 신장될 때 회전 모션을 고려하여 상기 한계 영역이 정해진다.For example, the limit area corresponds to an area according to a distance in which a collision with the experiencer does not occur when motion is made in a state in which the
본 실시 예는 로봇 암(2a)이 한계 영역을 벗어나 모션이 이루어지지 않도록 후술할 브릿지 플랫폼(200)을 통해 안전하게 제어된다.In this embodiment, the
상기 로봇 암(2a)은 모션의 시작과 끝까지 이동하는 경로가 정확한 시간에 맞추어서 이루어지는 것이 바람직하고, 본 실시 예는 상기 유저 인터페이스 플랫폼(100)에서 실시간으로 상기 로봇 암(2a)의 이동에 따른 경로의 생성과 수정을 시뮬레이션해 볼 수 있다.It is preferable that the path moving from the start to the end of the motion of the
따라서 상기 로봇 암(2a)이 정상적으로 안전하게 모션이 이루어지는지 시각적으로 정확히 확인 및 수정이 가능해진다.Accordingly, it is possible to visually accurately check and correct whether the
상기 로봇 암(2a)이 모션 되기 위해서는 이동 속도와 높이 및 상대 위치 데이터가 사전에 입력되는데, 상기 데이터들은 상기 로봇 암(2a)의 사양에 따라 가변 된다. In order to move the
예를 들면 로봇 암(2a)의 링크 길이(Link length) 또는 관절 리미트(Joint limit) 또는 위치(Position) 또는 회전(Rotation) 또는 현재 관절 각도(Current Joint Angle)에 대한 데이터가 입력된다.For example, data about a link length or a joint limit or a position or a rotation of the
그리고 상기 제1 제어부(120)는 기 입력된 데이터가 실제 한계 영역에서 정상적으로 모션이 가능한지 연산한 후에 별도로 구비된 표시장치(미도시)를 통해 시뮬레이션 된 그래픽 화면으로 작업자에게 보여줄 수 있다. 참고로 초기 설정값은 전술한 다양한 데이터의 설정 값에 해당된다.In addition, the
상기 제1 제어부(120)는 로봇 암(2a)이 실제 입력된 데이터에 따라 최적의 모션으로 작동 가능한 관절 제한 값을 연산하여 제1 출력부(130)로 출력하고 동시에 표시장치에 시각적으로 인지 가능하게 표시되도록 제어한다.The
본 실시 예는 제1 입력부(110)와 제1 출력부(130)가 유선 또는 무선 중에 어느 하나로 선택되는 통신 방식으로 데이터 전송이 이루어지도록 구성된다.In this embodiment, the
상기 통신 방식은 현재 사용되는 대부분의 유선 또는 무선 방식이 모두 적용 가능하며, 인터넷 연결 방식으로의 결합도 가능할 수 있다.As for the communication method, most of the currently used wired or wireless methods are applicable, and a combination to the Internet connection method may be possible.
상기 브릿지 플랫폼(200)은 전술한 제1 출력부(130)에서 전송된 데이터를 제2 입력부(210)가 입력받아 제2 제어부(220)에서 연산이 이루어진다. 상기 제2 제어부(220)는 상기 유저 인터페이스(user interface) 플랫폼(100)의 제1 출력부(130)를 통해 입력된 모션 데이터에 의해 상기 단위 제어 대상물(2)이 모션 가능한 데이터 인지 확인하고, 가능할 경우 상기 제3 입력부(310)로 상기 단위 제어 대상물(2)의 모션 데이터를 전송한다.In the
이 경우 단위 제어 대상물(2)인 로봇 암(2a)은 이동 및 회전에 따른 모션이 한계 영역안에서 안정적으로 이루어진다.In this case, the
제2 제어부(220)는 상기 모션 데이터가 상기 작업공간 내의 유효한 데이터가 아니거나, 불 가능할 경우에는 상기 제3 입력부(310)로 모션 데이터가 전송되지 않도록 제어한다.If the motion data is not valid data in the workspace or is impossible, the
이 경우 로봇 암(2a)은 모션이 이루어지지 않고 정지된 상태가 유지되므로 안전 사고의 발생이 예방되고, 상기 로봇 암(2a)에 탑승한 체험자를 안전하게 보호 할 수 있다.In this case, since the
상기 로봇 암(2a)이 1기 이상인 복수 개로 구성될 경우 상기 제2 제어부(220)는 상기 제어 대상물 유닛 플랫폼(300)이 한계 작동 영역(operating area)을 벗어나거나, 상기 제어 대상물 유닛 플랫폼(300)을 구성하는 단위 제어 대상물(2)이 작업공간에서 작동 중에 서로 간에 근접하여 충돌 영역(R)으로 근접할 경우 충돌 가능 상태로 판단한다. 그리고 상기 단위 제어 대상물(2)이 긴급 정지되도록 상기 제2 출력부(230)로 제어 신호를 전송한다.When the
참고로 제어 대상물 유닛 플랫폼(300)이 복수 개일 경우 도면 기준으로 상측에서부터 300a, 300, 300b로 서로 구분되게 도번으로 표시하였고, 세부 구성 요소 또한 도번 끝에 a 또는 b를 붙여 서로 구별되게 도시하였다.For reference, when there are a plurality of control
첨부된 도 2 또는 도 3을 참조하면, 일 예로 로봇 암(2a)이 복수 개일 경우 모션은 a 내지 b 상태의 모션이 발생될 수 있다.Referring to FIG. 2 or FIG. 3 attached, as an example, when there are a plurality of
상기 제2 제어부(220)는 상기 유저 인터페이스(user interface) 플랫폼(100)에서 입력된 시뮬레이션 모션 데이터가 정상일 경우에도, 실제 복수의 로봇 암(2a)이 모션 중에 충돌 영역(R)으로 근접할 경우 모션이 이루어지지 않고 정지 되도록 제어함으로써 안전성 향상을 도모할 수 있다.Even when the simulated motion data input from the
복수의 로봇 암(2a)은 시뮬레이션 모션 데이터에 의해 모션이 이루어지는데, 입력 당시에는 정상적인 모션 데이터일 경우에도 실제 작업공간에서 서로 간에 모션이 이루어질 때 서로 간에 이격된 거리가 최대로 근접하여 위치되는 충돌 영역(R)에서 모션이 이루어질 수 있다.The plurality of
충돌 영역(R)은 실제 충돌이 발생될 확률이 높은 영역으로 각각의 로봇 암(2a)이 모션에 따른 이동 궤적 중 서로 중첩되는 영역에 형성된다. 상기 충돌 영역(R)은 로봇 암(2a)이 서로 간에 충돌이 발생될 상황을 사전에 방지하기 위해 제1 제어부(120)에서 제어된 모션 데이터와 상관 없이 제2 제어부(220)에서 모션 중지 명령으로 제어하여 안전한 모션을 유지할 수 있다.The collision area R is an area with a high probability of an actual collision, and is formed in an area where each
상기 로봇 암(2a)은 일 예로 광고 또는 제조현장에서 사용될 수 있으나, 테마파크 또는 놀이동산 에서와 같이 다수의 체험자가 탑승하여 가상현실을 체험할 수 있는 로봇 암일 수도 있다. 이 경우 체험자가 탑승한 로봇 암이 충돌 영역(R)으로 접근하는 경우에도 모션 중지가 이루어지도록 제어되므로 인명 사고 발생을 사전에 예방하여 안전성이 향상될 수 있다.The
상기 작업공간에는 적어도 1개 이상의 로봇 암(2a) 주변에 복수의 센서부(10)가 구비되고, 상기 센서부(10)에서 감지된 감지 데이터는 상기 제2 입력부(210)로 입력되는 것을 특징으로 한다.A plurality of sensor units (10) are provided around at least one or more robot arms (2a) in the work space, and the sensed data sensed by the sensor unit (10) is input to the second input unit (210) do it with
상기 작업공간에는 적어도 1개 이상의 로봇 암(2a) 주변에 복수의 센서부(10)가 구비되고, 상기 센서부(10)에서 감지된 감지 데이터는 상기 제2 입력부(210)로 입력된다.A plurality of
로봇 암(2a)은 다양한 방향에서 이동과 회전이 이루어지므로 상기 로봇 암(2a)의 이동 가능한 지점에는 다양한 기능을 갖는 센서들이 사전에 설치된다.Since the
상기 제2 입력부(210)는 상기 센서부(10)에서 전달된 각종 센서 데이터를 입력 받아 제2 제어부(220)에 전달하면, 상기 제2 제어부(220)가 상기 로봇 암(2a)이 모션 도중 시뮬레이션 데이터와 일치하는지 유무와, 정상 모션의 이동 궤적에서 정확하게 모션이 이루어지는지 판단한다.When the
상기 제2 제어부(220)는 로봇 암(2a)이 충돌 영역(R)으로 근접하여 정지될 경우 상기 유저 인터페이스(user interface) 플랫폼(100)의 제1 입력부(110)로 알람 신호를 전송하여 위험 상태를 알릴 수 있다.The
상기 단위 제어 대상물(2)은 적어도 1개 이상의 로봇 암(2a)으로 구성되고, 상기 로봇 암(2a)에 체험자가 탑승할 경우 상기 체험자의 상태 정보가 상기 제1 입력부(110)로 입력된다.The
첨부된 도 4 내지 도 7을 참조하면, 로봇 암(2a)에는 체험자에게 영상을 제공하는 영상부(1100)와, 상기 체험자에게 탑승 가능한 공간을 제공하는 탑승부(1200)를 포함한다.4 to 7 , the
상기 영상부(1100)는 체험자가 실제 환경에 들어와 있는 것과 같은 영상을 볼 수 있도록 체험자를 둘러싸는 영상이 제공되며, 일 예로 체험자의 머리(Head)에 장착되는 헤드 마운트 디스플레이 기기(HMD: Head Mount Display)가 사용될 수 있으나 다른 장비가 사용되는 것도 가능할 수 있다.The
로봇 암(2a)은 상기 탑승부(1200)에 피칭, 요잉, 롤링 및 왕복 운동 중 적어도 하나를 발생시키는 자이로 기구(1300)와 연결된다. 여기서, 왕복 운동이란 상기 탑승부(1200)가 상기 자이로 기구(1300)를 지지하는 구조물로부터 멀어지고 가까워지는 방향으로 운동되는 것을 의미한다.The
상기 로봇 암(2a)은 체험자가 적어도 1명 이상 탑승하므로 모션이 이루어지는 동안 안전을 위해 상기 탑승부(1200)에 상기 체험자의 상태 정보를 영상으로 감지하기 위한 제1 모듈(S1)과, 상기 체험자의 음성을 감지하기 위한 제2 모듈(S2)과, 상기 체험자의 체온과 맥박을 감지하기 위한 제3 모듈(S3)이 구비된다.The
상기 제1 내지 제3 모듈(S1 ~ S3)은 로봇 암(2a)이 모션 도중 체험자의 상태 정보를 영상과 음성 및 활력 징후(Vital sign)를 관리자가 지속적으로 모니터링하여 로봇 암(2a)의 모션과 별도로 개별 체험자의 상태 정보를 확인할 수 있다.The first to third modules (S1 to S3) are the motion of the robot arm (2a) while the robot arm (2a) is in motion, the operator continuously monitors the state information of the experiencer by monitoring images, voices, and vital signs (Vital signs). Separately, you can check the status information of each individual experiencer.
즉 로봇 암(2a)은 유저 인터페이스 플랫폼(100)의 제1 제어부(120)와, 상기 브릿지 플랫폼(200)의 제2 제어부(220)에 의해 안전한 모션이 이루어지도록 제어되고, 체험자가 자이로 기구(1300)와 연결된 로봇 암(2a)에 탑승할 경우에는 제1 내지 제3 모듈(S1 ~ S3)에 의해 체험자의 상태 정보를 상기 제2 제어부(220)에서 입력 받아 개별 제어할 수 있다.That is, the
이 경우 자이로 기구(1300)와 연결된 로봇 암(2a)은 체험자가 의식을 잃거나, 구토를 하거나, 어지러움이 발생될 경우 즉시 모션이 중지되도록 제어할 수 있어 안전성과 로봇 암(2a)에 대한 신뢰성이 동시에 향상된다.In this case, the
상기 제1 모듈(S1)은 전술한 HMD에 구비되어 체험자의 전면 얼굴을 촬영하여 제2 입력부(210)로 전송하고, 상기 제2 제어부(220)가 입력된 데이터를 판단한다.The first module S1 is provided in the above-described HMD to photograph the front face of the user and transmit it to the
상기 제2 제어부(220)는 체험자의 다양한 얼굴 표정에 따른 표정 데이터가 사전에 입력되는데, 일 예로 자이로 기구(1300)와 연결된 로봇 암(2a)을 체험할 때 다양하게 변화되는 얼굴 근육의 이동에 따른 얼굴 근육 이동 데이터가 사전에 입력된다. In the
상기 얼굴 근육 이동 데이터는 기쁘거나, 놀람, 즐거울 때 주로 사용되는 얼굴 근육의 이동 궤적이 성별, 연령별, 인종별로 다양하게 세분화 되어 남녀를 불문하고 적용 가능하고, 어린이 또는 노인의 체험자일 경우에도 적용할 수 있다.The facial muscle movement data is applicable regardless of gender, as the movement trajectories of facial muscles, which are mainly used when happy, surprised, or happy, are variously subdivided by gender, age, and race, and can be applied even if you are a child or an elderly person. can
또한 외국인이 체험하는 경우에도 적용 가능하여 인종에 상관 없이 모두 적용시켜 판단할 수 있다.Also, it can be applied to foreigners who experience it, so it can be applied to all people regardless of race.
상기 얼굴 근육 이동 데이터에는 공포감이 발생될 경우 또는 무서움이 발생될 경우 또는 두려움이 발생될 경우에 주로 사용되는 얼굴 근육의 이동 움직임에 따른 각종 데이터가 사전에 입력되어 있어 체험자의 현재 상태를 정확하게 판단할 수 있다.In the facial muscle movement data, various data according to the movement movement of the facial muscles, which are mainly used when a feeling of fear or fear occurs, or when fear occurs, is input in advance to accurately determine the current state of the experiencer. can
본 실시 예는 공포 또는 두려움에 의해 얼굴 근육이 특정 횟수 이상 사용되기 이전에는 모션에 따른 일시적인 공포감 또는 두려움으로 판단하고, 특정 횟수 이상일 경우에는 이상 상태로 판단한다.In the present embodiment, before the facial muscles are used more than a certain number of times due to fear or fear, it is determined as a temporary feeling of fear or fear according to the motion, and when the facial muscle is used more than a certain number of times, it is determined as an abnormal state.
본 실시 예는 전술한 제1 모듈(S1)과 함께 제2 모듈(S2)이 동시에 입력되고, 상기 제2 모듈(S2)은 음성을 입력 받아 상기 체험자의 직접적인 현재 상태를 판단하기 위한 데이터로 활용된다.In this embodiment, the second module S2 and the first module S1 are simultaneously input, and the second module S2 receives a voice input and uses it as data for determining the current state of the experiencer. do.
상기 제2 모듈(S2)은 HMD에 내장된 마이크일 수 있으며, 상기 체험자가 모션 도중에 극도의 공포감을 느껴 비명을 지르거나, 긴급 구조에 해당하는 음성 신호가 입력될 경우에 모션 중지가 이루어지므로 체험자의 안전성을 확보할 수 있다.The second module S2 may be a microphone built into the HMD, and the motion is stopped when the experiencer feels a sense of extreme fear and screams during the motion, or when a voice signal corresponding to emergency rescue is input. safety can be ensured.
상기 제3 모듈(S3)은 체험자의 체온과 맥박을 감지하기 위한 구성으로 체험자가 탑승한 탑승부(1200)의 핸들 바(1210)에 구비된다. 상기 제3 모듈(S3)은 체험자의 체온과 맥박을 감지하여 모션이 이루어지는 동안 변화되는 상태를 감지한다.The third module S3 is provided on the
예를 들어 자이로 기구(1300)가 작동할 경우 체험자의 맥박은 상승하는 것이 일반적이나, 기 설정된 변동 범위를 벗어나 지속적으로 상승될 경우 체험자의 안전을 고려하여 모션이 중지되도록 제어될 수 있다.For example, when the
따라서 본 실시 예는 상기 제1 내지 제3 모듈(S1 ~ S3)에 의해 체험자의 정확한 상태 정보에 따라 로봇 암(2a)의 모션 진행 또는 모션 중지를 정확하게 제어할 수 있다.Accordingly, according to the first to third modules S1 to S3 in the present embodiment, it is possible to accurately control the progress or stop of the motion of the
상기 제어 대상물 유닛 플랫폼(300)은 상기 제2 제어부(220)에서 전송된 제어 신호에 의해 상기 단위 제어 대상물(2)이 비상 정치되도록 제어되거나, 상기 단위 제어 대상물(2)의 속도가 우선 감소된 후에 비상 정지되는 어느 하나의 방식으로 제어된다.The control
일 예로 전술한 바와 같이 체험자가 탑승할 경우에는 비상 정지되도록 제어되고, 제조 현장일 경우에는 속도가 우선 감소된 후에 비상 정지되도록 제어된다.For example, as described above, when an experienced person boards, it is controlled to make an emergency stop, and in the case of a manufacturing site, the speed is first reduced and then the emergency stop is controlled.
이 경우 체험자의 탑승 유무에 상관 없이 안전성이 향상되고 주변 구조물 또는 시설물과 직접적인 충돌이 발생될 확률을 감소시켜 안전한 모션이 이루어진다.In this case, safety is improved regardless of whether the experiencer is on board or not, and the probability of a direct collision with surrounding structures or facilities is reduced, resulting in safe motion.
상기 유저 인터페이스(user interface) 플랫폼(100)과, 상기 브릿지 플랫폼(200)과, 상기 제어 대상물 유닛 플랫폼(300)은 서로 간에 송신 또는 수신 되는 데이터의 실시간 통신주기가 제1 주기로 일정하게 유지된다.The
상기 제1 주기는 12m/s 주기로 반복되고, 상기 제1 주기를 초과 하거나 미달될 경우 상기 단위 제어 대상물(2)의 작동이 강제로 중지된다. 상기 제1 주기는 일 예로 설명한 것으로 다른 주기로 변동될 수 있으며 반드시 전술한 수치로 한정하지 않는다.The first cycle is repeated at a cycle of 12 m/s, and when the first cycle exceeds or falls short of the first cycle, the operation of the
특히 복수의 로봇 암(2a)에서 각각 모션이 이루어질 경우 제1 주기가 일정하게 유지되어야 안정적인 모션이 이루어진다.In particular, when each motion is made in the plurality of
상기 유저 인터페이스 플랫폼(100)과, 상기 브릿지 플랫폼(200)과, 상기 제어 대상물 유닛 플랫폼(300)은 서로 간에 유선 또는 무선 중에 어느 하나로 선택되는 통신 방식으로 데이터 전송이 이루어질 때, 데이터의 손실을 방지하기 위해 주기적으로 보정이 이루어진다.The
보정 방식은 특정 횟수로 현재 유선 통신 방식의 이상 유무가 제1 내지 제3 입력부(110, 210, 310)와, 제1 내지 제3 출력부(130, 230, 330)에서 서로 간에 연결(ping) 테스트 방식으로 이루어진다.In the correction method, the first to
예를 들면 제1 입력부(110)와 제2 입력부(210) 사이에서 이루어지거나, 상기 제2 입력부(210)와 제3 입력부(310) 사이에서 이루어 질 수 있으며, 핑 테스트에 결과를 체크하여 이상 유무를 정확히 확인 할 수 있다.For example, it may be made between the
상기 유저 인터페이스(user interface) 플랫폼(100)은 적어도 1개 이상의 외부 장비와 유선 또는 무선 통신 방식 중에 어느 하나로 선택되는 외부 입력 유닛(20)과 실시간 입력이 이루어진다.The
상기 외부 입력 유닛(20)은 일 예로 조이스틱 또는 손가락에 끼워서 사용하는 로봇 핸드가 사용될 수 있으나, 다른 VR 장비가 사용되는 것도 가능할 수 있다.The
상기 브릿지 플랫폼(200)은 적어도 1개 이상의 외부 장비와 유선 또는 무선 통신 방식 중에 어느 하나로 선택되는 외부 입력 유닛(20)과 실시간 입력을 통해 상기 유저 인터페이스 플랫폼(100)을 경유하지 않고 상기 제어 대상물 유닛 플랫폼(300)과 연결이 이루어진다.The
예를 들면 작업자가 현장에 위치하지 않고 거리상으로 수 킬로 미터 또는 수 십 킬로미터 떨어진 원격지에 있는 경우에도 유선 또는 무선 통신 방식을 통해 브릿지 플랫폼(200)의 제2 입력부(210)와 연결될 수 있다.For example, even if the operator is not located in the field but is several kilometers or tens of kilometers away in distance, it may be connected to the
이 경우 로봇 암은 용도에 따라 상이할 수 있으나, 작업자가 해외에 있거나, 원격지에 있는 경우에도 각종 조립 작업이나, 의료적인 수술 작업도 안정적으로 실시할 수 있다.In this case, the robot arm may be different depending on the use, but even when the operator is abroad or in a remote location, various assembly operations or medical surgical operations can be stably performed.
이상, 본 발명의 일 실시 예에 대하여 설명하였으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 특허청구범위에 기재된 본 발명의 사상으로부터 벗어나지 않는 범위 내에서, 구성 요소의 부가, 변경, 삭제 또는 추가 등에 의해 본 발명을 다양하게 수정 및 변경시킬 수 있을 것이며, 이 또한 본 발명의 권리범위 내에 포함된다고 할 것이다.As mentioned above, although an embodiment of the present invention has been described, those of ordinary skill in the art can add, change, delete or add components within the scope that does not depart from the spirit of the present invention described in the claims. The present invention may be variously modified and changed by, etc., and this will also be included within the scope of the present invention.
100 : 유저 인터페이스 플랫폼
110 : 제1 입력부
120 : 제1 제어부
130 : 제1 출력부
200 : 브릿지 플랫폼
210 : 제2 입력부
220 : 제2 제어부
230 : 제2 출력부
300 : 제어 대상물 유닛 플랫폼
310 : 제3 입력부
320 : 제3 제어부
330 : 제3 출력부
S1 : 제1 모듈
S2 : 제2 모듈
S3 : 제3 모듈100: User Interface Platform
110: first input unit
120: first control unit
130: first output unit
200: bridge platform
210: second input unit
220: second control unit
230: second output unit
300: control object unit platform
310: third input unit
320: third control unit
330: third output unit
S1: first module
S2: second module
S3: third module
Claims (15)
상기 제1 출력부(130)에서 전송된 데이터를 입력 받는 제2 입력부(210)와; 상기 제2 입력부(210)에서 입력된 데이터의 이상 유무를 판단하는 제2 제어부(220)와; 상기 제2 제어부(220)에서 제어된 데이터를 전송하기 위한 제2 출력부(230)를 포함하는 브릿지 플랫폼(200); 및
상기 제2 출력부(230)에서 전송된 데이터를 입력 받는 제3 입력부(310)와; 상기 제3 입력부(310)에서 입력된 데이터의 이상 유무를 판단하여 상기 브릿지 플랫폼(200)의 제2 입력부(210)로 전송하는 제3 출력부(330)와; 상기 제3 입력부(310)에서 입력된 데이터에 의해 모션이 이루어지도록 적어도 한 개 이상의 단위 제어 대상물(2)로 이루어진 제어 대상물 유닛 플랫폼(300)을 포함하되,
상기 단위 제어 대상물(2)은 적어도 1개 이상의 로봇 암(2a)으로 구성되고, 상기 제2 제어부(220)는 로봇 암(2a)에 체험자가 탑승할 경우 상기 체험자의 다양한 얼굴 표정에 따른 얼굴 근육의 이동에 따른 얼굴 근육 이동 데이터가 사전에 입력되며 상기 얼굴 근육 이동 데이터는 기쁘거나, 놀람, 즐거울 때 주로 사용되는 얼굴 근육의 이동 궤적이 성별, 연령별, 인종별로 세분화 되어 상기 체험자의 현재 상태를 판단하되,
상기 얼굴 근육이 특정 횟수 이상 사용되기 이전에는 모션에 따른 일시적인 공포감 또는 두려움으로 판단하고, 특정 횟수 이상일 경우에는 이상 상태로 판단하는 통합 플랫폼.a first input unit 110 through which data is transmitted through a communication method; The unit control object 2 is set to an initial setting value by motion generated through simulation in a workspace, and a first control unit 120 for determining whether there is an abnormality in the set initial setting value; a user interface platform 100 including a first output unit 130 for transmitting the set initial setting data;
a second input unit 210 for receiving data transmitted from the first output unit 130; a second control unit 220 for determining whether there is an abnormality in the data input from the second input unit 210; a bridge platform 200 including a second output unit 230 for transmitting data controlled by the second control unit 220; and
a third input unit 310 receiving data transmitted from the second output unit 230; a third output unit 330 that determines whether data input from the third input unit 310 is abnormal and transmits it to the second input unit 210 of the bridge platform 200; and a control object unit platform 300 composed of at least one unit control object 2 so that motion is made by the data input from the third input unit 310,
The unit control object 2 includes at least one or more robot arms 2a, and the second control unit 220 controls facial muscles according to various facial expressions of the user when the user boards the robot arm 2a. Facial muscle movement data according to the movement is input in advance, and the facial muscle movement data is divided by gender, age, and race to determine the current state of the experiencer but,
Before the facial muscles are used more than a certain number of times, it is determined as a temporary feeling of fear or fear according to the motion, and when the facial muscle is used more than a certain number of times, it is determined as an abnormal state.
상기 유저 인터페이스 플랫폼(100)은 3차원 게임 엔진이 사용되고, 상기 제1 입력부(110)는 시뮬레이션이 이루어질 상기 단위 제어 대상물(2)에 대한 작업공간의 한계 영역(limit area) 데이터를 기반으로 상기 단위 제어 대상물(2)의 모션에 따른 한계 작동 영역(operating area) 데이터와, 상기 단위 제어 대상물(2)이 작업공간에서 모션이 이루어질 이동 속도와, 높이 및 상대 위치와, 회전각과 회전횟수와, 틸팅각과, 허용 중량을 입력받는 통합 플랫폼.The method of claim 1,
The user interface platform 100 uses a 3D game engine, and the first input unit 110 uses the unit based on the limit area data of the workspace for the unit control object 2 to be simulated. Limit operating area data according to the motion of the control object 2, the movement speed at which the unit control object 2 is to be moved in the work space, the height and relative position, the rotation angle and the number of rotations, and the tilting An integrated platform that receives input of each class and allowable weight.
상기 단위 제어 대상물(2)은 적어도 1개 이상의 로봇 암(2a)으로 구성되고, 상기 로봇 암(2a)에 체험자가 탑승할 경우 상기 체험자의 상태 정보가 상기 제1 입력부(110)로 입력되는 통합 플랫폼.The method of claim 1,
The unit control object 2 is composed of at least one or more robot arms 2a, and when the user boards the robot arm 2a, the state information of the experiencer is inputted to the first input unit 110. platform.
상기 작업공간에는 적어도 1개 이상의 로봇 암(2a) 주변에 복수의 센서부(10)가 구비되고, 상기 센서부(10)에서 감지된 감지 데이터는 상기 제2 입력부(210)로 입력되는 통합 플랫폼.4. The method of claim 3,
An integrated platform in which a plurality of sensor units 10 are provided around at least one or more robot arms 2a in the workspace, and the sensed data sensed by the sensor unit 10 is input to the second input unit 210 . .
상기 로봇 암(2a)에는 체험자에게 영상을 제공하는 영상부(1100);
상기 체험자에게 탑승 가능한 공간을 제공하는 탑승부(1200)를 포함하는 통합 플랫폼.4. The method of claim 3,
The robot arm (2a) includes an image unit 1100 for providing an image to the user;
An integrated platform including a boarding unit 1200 that provides a boarding space to the experiencer.
상기 로봇 암(2a)은 상기 탑승부(1200)에 피칭, 요잉, 롤링 및 왕복 운동 중 적어도 하나를 발생시키는 자이로 기구(1300)와 상호 데이터 송수신 가능하게 연결된 통합 플랫폼.6. The method of claim 5,
The robot arm (2a) is an integrated platform connected to the gyro mechanism (1300) for generating at least one of pitching, yaw, rolling, and reciprocating motion in the boarding part (1200) to transmit and receive data.
상기 탑승부(1200)에는 상기 체험자의 상태 정보를 영상으로 감지하기 위한 제1 모듈(S1);
상기 체험자의 음성을 감지하기 위한 제2 모듈(S2);
상기 체험자의 체온과 맥박을 감지하기 위한 제3 모듈(S3)이 구비된 통합 플랫폼.6. The method of claim 5,
The boarding unit 1200 includes a first module (S1) for detecting the state information of the experiencer as an image;
a second module (S2) for detecting the user's voice;
An integrated platform provided with a third module (S3) for detecting the body temperature and pulse of the experiencer.
상기 브릿지 플랫폼(200)의 제2 제어부(220)는 상기 유저 인터페이스(user interface) 플랫폼(100)의 제1 출력부(130)를 통해 입력된 모션 데이터에 의해 상기 단위 제어 대상물(2)이 모션 가능한 데이터 인지 확인하고, 가능할 경우 상기 제3 입력부(310)로 상기 단위 제어 대상물(2)의 모션 데이터가 전송되고,
상기 모션 데이터가 상기 작업공간 내의 유효한 데이터가 아니거나, 불 가능할 경우에는 상기 제3 입력부(310)로 모션 데이터가 전송되지 않도록 제어되는 통합 플랫폼.The method of claim 1,
The second control unit 220 of the bridge platform 200 moves the unit control object 2 by motion data input through the first output unit 130 of the user interface platform 100 . It is checked whether the data is possible, and if possible, the motion data of the unit control object 2 is transmitted to the third input unit 310,
When the motion data is not valid data in the workspace or is impossible, the integrated platform is controlled so that motion data is not transmitted to the third input unit (310).
상기 브릿지 플랫폼(200)의 제2 제어부(220)는 상기 제어 대상물 유닛 플랫폼(300)이 한계 작동 영역(operating area)을 벗어나거나, 상기 제어 대상물 유닛 플랫폼(300)을 구성하는 단위 제어 대상물(2)이 작업공간에서 작동 중에 서로 간에 근접하여 충돌 영역(R)으로 근접할 경우 충돌 가능 상태로 판단하고, 상기 단위 제어 대상물(2)이 긴급 정지되도록 상기 제2 출력부(230)로 제어 신호를 전송하는 통합 플랫폼.The method of claim 1,
The second control unit 220 of the bridge platform 200 determines whether the control object unit platform 300 is out of a limit operating area, or the unit control object 2 constituting the control object unit platform 300 . ) is determined to be in a collision-possible state when it is close to each other and approaches the collision area R during operation in the workspace, and a control signal is sent to the second output unit 230 so that the unit control object 2 is urgently stopped. An integrated platform that transmits.
상기 제어 대상물 유닛 플랫폼(300)은 상기 제2 제어부(220)에서 전송된 제어 신호에 의해 상기 단위 제어 대상물(2)이 비상 정치되도록 제어되거나, 상기 단위 제어 대상물(2)의 속도가 우선 감소된 후에 비상 정지되는 어느 하나의 방식으로 제어되는 통합 플랫폼.10. The method of claim 9,
The control object unit platform 300 is controlled so that the unit control object 2 is emergency stationary by the control signal transmitted from the second control unit 220, or the speed of the unit control object 2 is reduced first. An integrated platform controlled in either way with an emergency stop afterwards.
상기 유저 인터페이스 플랫폼(100)과, 상기 브릿지 플랫폼(200)과, 상기 제어 대상물 유닛 플랫폼(300)은 서로 간에 유선 또는 무선 중에 어느 하나로 선택되는 통신 방식으로 데이터 전송이 이루어질 때, 데이터의 손실을 방지하기 위해 주기적으로 보정이 이루어지는 통합 플랫폼.The method of claim 1,
The user interface platform 100, the bridge platform 200, and the control object unit platform 300 prevent data loss when data transmission is performed in a communication method selected from either wired or wireless between each other. An integrated platform that is periodically calibrated to
상기 유저 인터페이스(user interface) 플랫폼(100)과, 상기 브릿지 플랫폼(200)과, 상기 제어 대상물 유닛 플랫폼(300)은 서로 간에 송신 또는 수신 되는 데이터의 실시간 통신주기가 제1 주기로 일정하게 유지되는 통합 플랫폼.12. The method of claim 11,
The user interface platform 100, the bridge platform 200, and the control object unit platform 300 are integrated in which a real-time communication period of data transmitted or received between each other is constantly maintained as a first period. platform.
상기 제1 주기는 12m/s 주기로 반복되고, 상기 제1 주기를 초과 하거나 미달될 경우 상기 단위 제어 대상물(2)의 작동이 강제로 중지되는 통합 플랫폼.13. The method of claim 12,
The first cycle is repeated at a cycle of 12 m/s, and when the first cycle exceeds or falls short of the first cycle, the operation of the unit control object (2) is forcibly stopped.
상기 유저 인터페이스(user interface) 플랫폼(100)은 적어도 1개 이상의 외부 장비와 유선 또는 무선 통신 방식 중에 어느 하나로 선택되는 외부 입력 유닛(20)과 실시간 입력이 이루어지는 통합 플랫폼.The method of claim 1,
The user interface platform 100 is an integrated platform in which real-time input is performed with at least one external device and an external input unit 20 selected in either a wired or wireless communication method.
상기 브릿지 플랫폼(200)은 적어도 1개 이상의 외부 장비와 유선 또는 무선 통신 방식 중에 어느 하나로 선택되는 외부 입력 유닛(20)과 실시간 입력을 통해 상기 유저 인터페이스 플랫폼(100)을 경유하지 않고 상기 제어 대상물 유닛 플랫폼(300)과 연결이 이루어지는 통합 플랫폼.
The method of claim 1,
The bridge platform 200 is the control object unit without passing through the user interface platform 100 through the real-time input with the external input unit 20 selected in any one of a wired or wireless communication method with at least one or more external equipment. An integrated platform that is connected to the platform 300 .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170160881A KR102423644B1 (en) | 2017-11-28 | 2017-11-28 | Integrated Platform |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170160881A KR102423644B1 (en) | 2017-11-28 | 2017-11-28 | Integrated Platform |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190061961A KR20190061961A (en) | 2019-06-05 |
KR102423644B1 true KR102423644B1 (en) | 2022-07-21 |
Family
ID=66845543
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170160881A KR102423644B1 (en) | 2017-11-28 | 2017-11-28 | Integrated Platform |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102423644B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004243427A (en) * | 2003-02-12 | 2004-09-02 | Yaskawa Electric Corp | Robot control device and robot control method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3421191B2 (en) * | 1996-04-23 | 2003-06-30 | 三菱電機株式会社 | Robot control device and data communication method thereof |
KR20150105047A (en) * | 2014-03-07 | 2015-09-16 | 주식회사 에스알포유 | Driving apparatus for horse riding, health care exercising apparatus using the same, control method thereof |
TW201600275A (en) | 2014-06-26 | 2016-01-01 | Hiwin Tech Corp | Robotic arm system and parallelism calibration method thereof |
KR20170106163A (en) * | 2016-03-11 | 2017-09-20 | 주식회사 상화 | Virtual reality experience apparatus |
-
2017
- 2017-11-28 KR KR1020170160881A patent/KR102423644B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004243427A (en) * | 2003-02-12 | 2004-09-02 | Yaskawa Electric Corp | Robot control device and robot control method |
Also Published As
Publication number | Publication date |
---|---|
KR20190061961A (en) | 2019-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10875188B2 (en) | Universal motion simulator | |
JP3214776B2 (en) | Virtual environment display device and method | |
KR101694402B1 (en) | System and method for assisting ambulatory rehabilitation using projected image | |
KR101839113B1 (en) | Virtual network training processing unit included client system of immersive virtual training system that enables recognition of respective virtual training space and collective and organizational cooperative training in shared virtual workspace of number of trainees through multiple access and immersive virtual training method using thereof | |
KR101389894B1 (en) | Virtual reality simulation apparatus and method using motion capture technology and | |
KR101671320B1 (en) | Virtual network training processing unit included client system of immersive virtual training system that enables recognition of respective virtual training space and collective and organizational cooperative training in shared virtual workspace of number of trainees through multiple access and immersive virtual training method using thereof | |
Aggravi et al. | Haptic wrist guidance using vibrations for human-robot teams | |
KR101789883B1 (en) | Spin virtual reality simulator | |
JP6736298B2 (en) | Information processing apparatus, information processing method, and program | |
US20090322888A1 (en) | Integrated circuit for detecting movements of persons | |
KR101974207B1 (en) | Fan-driven force device | |
KR102423644B1 (en) | Integrated Platform | |
JP7167518B2 (en) | Controllers, head-mounted displays and robotic systems | |
WO2021070411A1 (en) | Rehabilitation assistance device, and method and program therefor | |
KR102564810B1 (en) | Realistic fire-fighting simulator | |
US20220214750A1 (en) | Virtual, Augmented and Mixed Reality Systems with Physical Feedback | |
CN108268050A (en) | Motion control device wears display equipment, unmanned plane and flight system | |
KR102396483B1 (en) | Simulation experience system and method for collision accident | |
KR102342872B1 (en) | Mutual sympathy system between user and avatar using motion tracking | |
von der Heyde et al. | How to cheat in motion simulation: comparing the engineering and fun ride approach to motion cueing | |
US20240012412A1 (en) | Haptic system for robot teleoperation of a remotely operated vehicle | |
CN108446012A (en) | Virtual reality moving image display methods and virtual reality device | |
KR20170079502A (en) | virtual reality system to control vertical position of player using pressure proportional controller | |
Padir et al. | Towards Cooperative Control of Humanoid Robots for Handling High-Consequence Materials in Gloveboxes–17291 | |
WO2023247982A1 (en) | Smart drone system for simulating a moving object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |