KR20210079077A - Robot operation system for boarding experience - Google Patents

Robot operation system for boarding experience Download PDF

Info

Publication number
KR20210079077A
KR20210079077A KR1020190171185A KR20190171185A KR20210079077A KR 20210079077 A KR20210079077 A KR 20210079077A KR 1020190171185 A KR1020190171185 A KR 1020190171185A KR 20190171185 A KR20190171185 A KR 20190171185A KR 20210079077 A KR20210079077 A KR 20210079077A
Authority
KR
South Korea
Prior art keywords
robot
unit
boarding
user
sensor
Prior art date
Application number
KR1020190171185A
Other languages
Korean (ko)
Inventor
정상봉
Original Assignee
(주)미니로봇
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)미니로봇 filed Critical (주)미니로봇
Priority to KR1020190171185A priority Critical patent/KR20210079077A/en
Publication of KR20210079077A publication Critical patent/KR20210079077A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/803Driving vehicles or craft, e.g. cars, airplanes, ships, robots or tanks
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B31/00Swimming aids
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0009Constructional details, e.g. manipulator supports, bases
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Physical Education & Sports Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Toys (AREA)

Abstract

The present invention relates to a robot operating system capable of providing boarding experience. According to the present invention, it is possible to increase the sense of reality by manipulating a robot, which is a real object, rather than manipulating an object implemented in virtual computer graphics, and the motion according to the movement of the robot is transmitted to the user's body as it is, so that the realism of the boarding experience can be maximized.

Description

탑승 체험이 가능한 로봇 운용 시스템{Robot operation system for boarding experience}Robot operation system for boarding experience

본 발명은 탑승 체험이 가능한 로봇 운용 시스템에 대한 것으로, 더욱 구체적으로는 로봇을 원격 조작하여 동작시키고, 로봇의 움직임을 사용자가 느낄 수 있도록 함으로써 로봇 탑승 체험이 가능토록 하는 기술에 대한 것이다.The present invention relates to a robot operating system capable of a boarding experience, and more particularly, to a technology for enabling a robot boarding experience by remotely operating and operating a robot and allowing a user to feel the robot's movement.

기술 발전에 따라 레저, 게임, 엔터테인먼트 산업 분야에서도 다양한 첨단 기술이 적용되고 있다. 가장 원시적인 게임 형태는 디스플레이를 통해 컴퓨터 그래픽으로 표현된 객체를 조작하는 방식이다. 하지만 이러한 기본 형태의 게임을 통해서는 시각적, 청각적인 즐거움만 느낄 수 있을 뿐이다.With the development of technology, various cutting-edge technologies are being applied in the leisure, game, and entertainment industries as well. The most primitive form of game is to manipulate objects represented by computer graphics through displays. However, through this basic type of game, only visual and auditory pleasure can be experienced.

이를 위해 모션 디바이스(Motion Device)를 이용한 탑승형 게임 시뮬레이터가 개발된 바 있다. 즉 사용자가 탑승형 게임 시뮬레이터에 탑승한 후 조작부를 조작하여 게임을 즐기되, 컴퓨터 그래픽으로 표현되는 객체의 움직임에 따라 좌석이 동작되도록 함으로써 보다 실감나는 체험형 게임이 가능토록 하는 것이다. 하지만 이러한 탑승형 게임 시뮬레이터 역시 컴퓨터 그래픽을 통한 객체의 조작만 가능한 것이어서, 대상 객체의 동역학적인 특성을 현실감 있게 반영하지는 못한다.For this purpose, a riding-type game simulator using a motion device has been developed. That is, the user enjoys the game by operating the control panel after boarding the boarding-type game simulator, but the seat is operated according to the movement of the object expressed in computer graphics, thereby enabling a more realistic experiential game. However, such a riding-type game simulator is also capable of only manipulating an object through computer graphics, and thus cannot realistically reflect the dynamic characteristics of the target object.

한편 실물 객체를 조작할 수 있도록 하는 기술도 개발된 바 있다. 가장 대표적인 것이 원격조종 자동차(RC카)나 드론이다. 즉 무선 리모컨을 통해 원격에 위치한 자동차나 드론을 작동시켜 보다 실감나는 조작 체험이 가능토록 하는 것이다.On the other hand, a technology for manipulating real objects has also been developed. The most representative examples are remote-controlled cars (RC cars) or drones. In other words, it enables a more realistic operation experience by operating a remotely located car or drone through a wireless remote control.

또한 본 발명의 출원인에 의해 개발된 대한민국등록특허 제10-1336802호(2013.11.26. '복싱을 수행하는 휴머노이드 로봇')에 의하면 직립 보행이 가능한 로봇을 조작부를 통해 동작시킴으로써, 실감 나는 복싱 경기가 가능토록 하고 있다. 즉 컴퓨터 그래픽을 통해 구현된 객체가 아니라 실물 객체를 조작함으로써 보다 현실감 있는 체험이 가능토록 하는 것이다.In addition, according to the Republic of Korea Patent No. 10-1336802 (2013.11.26. 'Humanoid robot performing boxing') developed by the applicant of the present invention, by operating the robot capable of walking upright through the control unit, a realistic boxing match can be performed. making it possible In other words, it is to enable a more realistic experience by manipulating real objects rather than objects implemented through computer graphics.

하지만 RC카, 드론, 복싱로봇 등의 실물 객체를 조작하는 방식의 게임은 실감나는 시각적 즐거움을 줄 수는 있지만, 실물 객체의 움직임을 몸소 체험하는 데에는 한계가 있다.However, games that manipulate real objects such as RC cars, drones, and boxing robots can provide realistic visual pleasure, but have limitations in experiencing the movement of real objects.

본 발명은 상술한 바와 같은 종래 기술의 문제점을 해결하기 위해 안출된 것으로, 사용자가 실물 로봇을 직접 조작하여 대상 객체의 동역학적인 특성을 현실감 있게 반영하는 것은 물론, 실물 로봇의 움직임이 사용자의 신체에 직접 전달되도록 하여, 실제 로봇에 탑승한 상태로 조작하는 느낌을 주도록 하는 기술을 제공하는 데 그 목적이 있다.The present invention has been devised to solve the problems of the prior art as described above, in which the user directly manipulates the real robot to realistically reflect the dynamic characteristics of the target object, as well as the movement of the real robot to the user's body. The purpose of the present invention is to provide a technology that provides a feeling of being operated while riding on a real robot by direct transmission.

상기 목적을 달성하기 위한 본 발명에 따른 탑승 체험이 가능한 로봇 운용 시스템은, 사용자의 조작 명령에 대응하여 동작이 수행되는 로봇; 및 상기 사용자가 탑승하여 조작 명령을 입력하는 탑승부;를 포함하되, 상기 로봇은, 움직임 발생을 위한 동력을 발생시키는 모터; 움직임에 따른 물리적 변화를 측정하여 센싱 정보를 수집하는 센서부; 상기 탑승부와 통신 채널을 연결하고 정보를 송수신하는 통신처리부; 및 상기 통신처리부를 통해 상기 탑승부 측으로부터 조작 명령을 수신하여 상기 모터를 작동시켜 움직임이 발생토록 하고, 상기 센서부를 통해 수집된 센싱 정보를 상기 통신처리부를 통해 상기 탑승부 측으로 전송 처리하는 컨트롤부;를 포함하고, 상기 탑승부는, 사용자가 탑승하는 착좌부; 사용자의 조작 명령을 입력받는 조작부; 상기 로봇과 통신 채널을 연결하고 정보를 송수신하는 통신부; 움직임 재현이 가능하도록 상기 착좌부를 동작시키는 구동부; 및 상기 조작부에서 입력된 사용자의 조작 명령을 상기 통신부를 통해 상기 로봇 측으로 전송 처리하고, 상기 통신부를 통해 상기 로봇으로부터 상기 센서부들의 센싱 정보를 수신하면 상기 센싱 정보에 대응하는 움직임이 재현되도록 상기 구동부에 모션 명령을 전송하는 제어부;를 포함한다.A robot operating system capable of boarding experience according to the present invention for achieving the above object includes: a robot whose operation is performed in response to a user's manipulation command; and a boarding unit for the user to board and input a manipulation command, wherein the robot includes: a motor for generating power for motion generation; a sensor unit for collecting sensing information by measuring a physical change according to movement; a communication processing unit for connecting a communication channel with the boarding unit and transmitting and receiving information; and a control unit that receives a manipulation command from the boarding part through the communication processing unit, operates the motor to generate movement, and transmits the sensing information collected through the sensor unit to the boarding unit through the communication processing unit. ; and, the boarding unit includes: a seating unit on which a user rides; a manipulation unit for receiving a user's manipulation command; a communication unit for connecting a communication channel with the robot and transmitting and receiving information; a driving unit for operating the seating unit to enable motion reproduction; and the driving unit so that a motion corresponding to the sensing information is reproduced when a user's manipulation command input from the manipulation unit is transmitted to the robot side through the communication unit, and sensing information of the sensor units is received from the robot through the communication unit a control unit for transmitting a motion command to the .

여기서, 상기 탑승부의 제어부는 상기 센싱 정보를 분석하여 상기 로봇이 좌회전 또는 우회전 동작을 수행한 것이 확인되면 상기 착좌부가 좌회전 또는 우회전 되도록 상기 구동부를 제어하고, 상기 로봇이 넘어진 것이 확인되면 상기 착좌부가 후방으로 기울어지거나 강한 진동이 발생하도록 상기 구동부를 제어할 수 있다.Here, when it is confirmed that the robot performs a left or right turn by analyzing the sensing information, the control unit of the boarding unit controls the driving unit so that the seating part rotates left or right, and when it is confirmed that the robot has fallen, the seating part is rearward It is possible to control the driving unit to be inclined or to generate strong vibration.

또한, 상기 로봇은, 상기 로봇 주변의 영상을 촬영하는 카메라;를 더 포함하고, 상기 컨트롤부는 상기 카메라에서 촬영된 영상 정보를 상기 통신처리부를 통해 상기 탑승부 측으로 전송하도록 처리하며, 상기 탑승부는, 상기 로봇의 카메라에서 촬영된 영상 정보를 출력하는 디스플레이;를 더 포함하고, 상기 제어부는 상기 통신부를 통해 상기 로봇의 카메라에서 촬영된 영상 정보를 수신하면 상기 디스플레이를 통해 출력되도록 처리할 수 있다.In addition, the robot may further include a camera that captures an image around the robot, wherein the control unit processes the image information captured by the camera to be transmitted to the boarding unit through the communication processing unit, and the boarding unit comprises: A display for outputting image information photographed by the camera of the robot; further comprising, wherein the control unit receives image information photographed by the camera of the robot through the communication unit, it can process to be output through the display.

또, 상기 탑승부의 제어부는 상기 디스플레이를 통해 상기 로봇의 카메라에서 촬영된 영상 정보를 출력할 시, 상기 센서부들의 센싱 정보에 대응하는 가상객체가 상기 디스플레이를 통해 오버레이 되어 출력되도록 처리할 수 있다.In addition, when outputting image information captured by the camera of the robot through the display, the control unit of the boarding unit may process such that a virtual object corresponding to the sensing information of the sensor units is overlaid and output through the display.

본 발명에 따른 탑승 체험이 가능한 로봇 운용 시스템은 사용자가 원격에서 탑승부에 탑승한 채로 실물 객체인 로봇을 조작하고, 로봇의 움직임을 모든 신체를 통해 전달받을 수 있어서 더욱 현실감 있는 체험이 가능하다.The robot operating system capable of a boarding experience according to the present invention enables a more realistic experience because a user remotely manipulates a robot, which is a real object, while riding on the boarding board, and receives the robot's movement through all body parts.

즉 기존의 통상적인 게임처럼 컴퓨터 그래픽으로 구현된 객체를 조작하는 것이 아니라, 로봇이라는 실물 객체를 조작하는 것이어서 체험의 현실감을 높여줄 수가 있다.In other words, it is possible to increase the sense of reality of the experience by manipulating a real object called a robot, rather than manipulating an object implemented in computer graphics like a conventional game.

또한 로봇이라는 실물 객체를 단순하게 조작하는 것 뿐만 아니라, 로봇의 머리부에 설치된 카메라를 통해 촬영된 영상이 사용자의 시야에 들어오도록 함으로써, 제3자의 입장이 아닌 1인칭 시점의 탑승 체험이 가능하다.In addition, it is possible to experience boarding from a first-person point of view rather than from a third person's point of view by not only simply manipulating the real object of the robot, but also allowing the image captured by the camera installed on the head of the robot to enter the user's field of view. .

즉 로봇으로부터 멀리 떨어진 곳에서 로봇들의 격투를 관전하면서 조작을 할 경우, 원거리의 상대 로봇이 펀치를 날리거나 접근하는 것을 쉽게 인지하는 것이 어렵고, 이 때문에 반사 반응이 느릴 수 밖에 없다. 하지만 본 발명에서는 헤드기어형 디스플레이를 통해 자신이 조작하고 있는 로봇의 시야에서 상대 로봇의 움직임이나 상태를 확인하는 것이기 때문에, 즉각적인 반응이 가능하다. 즉 자신의 로봇이 펀치를 날리거나 또는 상대 공격에 대해서 방어 및 회피하는 조작을 더욱 신속하게 수행할 수 있는 것이다.In other words, when manipulating while watching the fighting of robots from a distance from the robot, it is difficult to easily recognize that a distant opponent is throwing a punch or approaching, and this inevitably slows the reflex response. However, in the present invention, since the movement or state of the other robot is checked from the field of view of the robot being manipulated by the headgear type display, an immediate reaction is possible. In other words, it is possible to more quickly perform operations of throwing punches or defending and evading the opponent's attack by one's own robot.

더불어 자신의 로봇의 시야에서 상대 로봇을 확인하면서 조작하는 것이기 때문에 조작 방향이 헷갈릴 우려도 없다. 즉 사용자가 자신의 로봇 등 뒤에서 조작할 경우에는 조작 방향이 동일하지만, 링 위에서 로봇들이 돌아다니다가 자신의 로봇과 상대 로봇의 위치가 바뀌었을 경우에는, 사용자와 로봇이 서로 마주보는 위치가 될 수도 있는데, 이 경우에 맨 눈으로 로봇을 바라보는 것이라면 사용자의 시점과 로봇의 시점이 반대가 되어 조작 방향이 헷갈리게 된다. 하지만 본 발명에서와 같이 헤드기어형 디스플레이를 착용한 상태에서는 항상 자신이 조작하는 로봇의 시점이 유지되기 때문에 조작 방향이 헷갈릴 우려가 없다.In addition, there is no fear of confusing the operation direction because the operation is performed while checking the other robot in the field of view of the robot. That is, when the user operates from behind his or her robot, the direction of operation is the same, but if the positions of the robot and the other robot are changed while the robots are moving on the ring, the position where the user and the robot face each other may be However, in this case, if the robot is looking at the robot with the naked eye, the user's point of view and the robot's point of view are reversed and the operation direction is confused. However, as in the present invention, in a state in which the headgear-type display is worn, the viewpoint of the robot being manipulated by the robot is always maintained, so there is no fear of confusing the operation direction.

더불어 디스플레이에 출력되는 영상에는 로봇의 움직임과 위치에 따라 변화되는 가상객체가 오버레이 될 수 있다. 따라서 사용자는 실제 복싱 경기장에서 복서가 되어 복싱 경기를 체험하거나, 자동차 경기장에서 자동차를 운전하는 것과 같은 체험을 할 수 있게 된다.In addition, a virtual object that changes according to the robot's movement and position may be overlaid on the image output on the display. Accordingly, the user can experience a boxing match as a boxer in an actual boxing arena, or experience such as driving a car in a car arena.

또, 사용자가 탑승한 탑승부는 로봇의 움직임과 동기화 되어 움직임 재현이 이루어지는 것이어서, 사용자는 단순하게 로봇을 조작하는 것 뿐만 아니라, 로봇의 움직임과 충격을 함께 느낌으로써 탑승 체험의 현실감이 극대화 된다. 만약 헤드기어형 디스플레이를 착용하지 않고 몇 미터 떨어진 거리에서 로봇을 조종하면서 펀치를 맞을 경우, 자신과 로봇이 일체화 되었다는 느낌이 크게 들지는 않는다. 즉 눈으로만 로봇이 넘어지는 것을 바라 볼 뿐, 그 충격까지 전해지지는 못한다.In addition, the boarding part the user boards is synchronized with the robot's movement to reproduce the movement, so the user not only operates the robot, but also feels the robot's movement and impact to maximize the realism of the boarding experience. If you do not wear a headgear display and receive a punch while controlling the robot from a distance of several meters, you will not feel that you and the robot are united. In other words, you only watch the robot fall with your eyes, and the impact is not transmitted.

하지만 본 발명에서는 헤드기어형 디스플레이를 통해 로봇의 시점에서 상대를 바라보게 되고, 상대 로봇의 펀치를 받을 경우 바로 정면에서 상대의 펀치가 날아오는 것을 바라봄과 동시에 신체에 펀치 충격이 가해지게 된다. 만약 상대의 펀치를 맞고 넘어지는 경우라면 착좌부가 젖혀지는 것은 물론 넘어지는 과정의 시야도 실제 로봇이 넘어지면서 바라보는 장면이어서 현실감이 배가되는 것이다.However, in the present invention, the opponent is viewed from the robot's point of view through the headgear display, and when receiving a punch from the opponent robot, the opponent's punch is viewed from the front and a punch impact is applied to the body at the same time. If it falls after being hit by an opponent's punch, not only the seat part is tilted, but also the view of the fall process is doubled as the real robot is looking at the scene as it falls.

즉, 실물 로봇에 탑재된 카메라와, 사용자가 착용하는 헤드기어형 디스플레이와, 실물 로봇에 탑재된 센서부와, 착좌부의 움직임이 유기적으로 연결되어 동작함으로써, 사용자는 로봇과 일체화 되었다는 느낌을 가진 채 탑승 체험을 수행할 수 있고, 이에 따라 현실감을 극대화 시킬 수 있다.That is, the camera mounted on the real robot, the headgear type display worn by the user, the sensor unit mounted on the real robot, and the movement of the seating unit are organically connected and operated, so that the user can feel integrated with the robot. A boarding experience can be performed, thereby maximizing the sense of reality.

도1은 본 발명의 실시예에 따른 로봇 운용 시스템을 설명하기 위한 도면.
도2는 도1에 도시된 로봇 운용 시스템에서 로봇을 설명하기 위한 사시도.
도3은 도1에 도시된 로봇 운용 시스템에서 로봇의 구성을 설명하기 위한 개념도.
도4는 도1에 도시된 로봇 운용 시스템에서 탑승부를 설명하기 위한 사시도.
도5는 도1에 도시된 로봇 운용 시스템에서 탑승부의 구성을 설명하기 위한 개념도.
도6은 도1에 도시된 로봇 운용 시스템에서 로봇의 몸통부 움직임에 따라 탑승부의 착좌부가 연동하여 동작하는 모습을 설명하기 위한 도면.
도7은 도1에 도시된 로봇 운용 시스템에서 로봇의 넘어짐에 따라 탑승부의 착좌부에 충격이 가해지는 모습을 설명하기 위한 도면.
도8은 도1에 도시된 로봇 운용 시스템에서 로봇의 카메라에서 촬영된 영상이 사용자가 착용한 헤드기어형 디스플레이에 출력되는 예시를 설명하기 위한 도면.
1 is a view for explaining a robot operating system according to an embodiment of the present invention.
Figure 2 is a perspective view for explaining the robot in the robot operating system shown in Figure 1;
Figure 3 is a conceptual diagram for explaining the configuration of the robot in the robot operating system shown in Figure 1;
Figure 4 is a perspective view for explaining a boarding unit in the robot operating system shown in Figure 1;
Figure 5 is a conceptual diagram for explaining the configuration of the boarding unit in the robot operating system shown in Figure 1;
FIG. 6 is a view for explaining a state in which the seating part of the boarding part interlocks according to the movement of the body part of the robot in the robot operating system shown in FIG. 1;
7 is a view for explaining a state in which an impact is applied to the seating part of the boarding part according to the fall of the robot in the robot operation system shown in FIG.
FIG. 8 is a view for explaining an example in which an image captured by a camera of a robot in the robot operating system shown in FIG. 1 is output to a headgear type display worn by a user; FIG.

이하에서는 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 설명한다. 다만 발명의 요지와 무관한 일부 구성은 생략 또는 압축할 것이나, 생략된 구성이라고 하여 반드시 본 발명에서 필요가 없는 구성은 아니며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 결합되어 사용될 수 있다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. However, some configurations irrelevant to the gist of the present invention will be omitted or compressed, but the omitted configuration is not necessarily a configuration that is not necessary in the present invention, and may be used in combination by those of ordinary skill in the art to which the present invention belongs. can

도1은 본 발명의 실시예에 따른 로봇 운용 시스템을 설명하기 위한 도면이다. 도1에 도시된 바와 같이 본 발명의 실시예에 따른 로봇 운용 시스템은 로봇(30) 및 탑승부(10)를 포함한다.1 is a view for explaining a robot operating system according to an embodiment of the present invention. As shown in FIG. 1 , the robot operating system according to an embodiment of the present invention includes a robot 30 and a boarding unit 10 .

설명하기에 앞서 본 발명에서 언급하는 로봇(30)이란 사용자가 입력한 조작 명령에 따라 동작이 이루어지고, 자체 내장된 센서부에서 측정된 센싱 정보를 수집하여 사용자가 위치하고 있는 탑승부(10)로 전송하는 실물 객체를 의미한다. 즉 로봇(30)이란 실시하기에 따라 자동차, 비행기 형태로 제작될 수도 있다. 다만 본 발명에서는 복수의 관절로 이루어져 2족 보행을 하면서 상대와 복싱을 수행할 수 있는 휴머노이드 로봇(30,30')이 적용된 예시를 설명토록 한다.Before the description, the robot 30 referred to in the present invention operates according to a manipulation command input by a user, collects sensing information measured by a self-built sensor unit, and sends it to the boarding unit 10 where the user is located. It means the real object to be transmitted. That is, the robot 30 may be manufactured in the form of a car or an airplane depending on implementation. However, in the present invention, an example in which the humanoid robots 30 and 30', which consist of a plurality of joints and can perform boxing with an opponent while walking on two legs, are applied will be described.

또한 로봇(30)은 미리 준비된 링 위에 위치하여 상대와 대전할 수 있다. 즉 도1을 참조하면 링 위에 제1로봇(30)과 제2로봇(30')이 위치하고 있고, 제1로봇(30)은 제1탑승부(10)에 탑승한 사용자에 의해 조작되고, 제2로봇(30')은 제2탑승부(10')에 탑승한 사용자에 의해 조작된다. 여기서 제1로봇(30)과 제2로봇(30')은 그 구성이 동일하고, 제1탑승부(10)와 제2탑승부(10') 역시 그 구성이 동일하기 때문에, 이하에서는 제1로봇(30)과 제1탑승부(10)의 구성에 대해서만 설명토록 한다.In addition, the robot 30 may be positioned on a ring prepared in advance to compete with the opponent. That is, referring to FIG. 1 , the first robot 30 and the second robot 30 ′ are positioned on the ring, and the first robot 30 is operated by a user riding on the first boarding unit 10 , The second robot 30' is operated by a user riding on the second boarding unit 10'. Here, since the first robot 30 and the second robot 30' have the same configuration, and the first boarding unit 10 and the second boarding unit 10' also have the same configuration, hereinafter, the first Only the configuration of the robot 30 and the first boarding unit 10 will be described.

도2는 도1에 도시된 로봇 운용 시스템에서 로봇을 설명하기 위한 사시도이고, 도3은 도1에 도시된 로봇 운용 시스템에서 로봇의 구성을 설명하기 위한 개념도이다. 도2 및 도3에 도시된 바와 같이 로봇(30)은 머리부(31), 몸통부(33), 팔부(40) 및 다리부(41)가 상호 결합되어 인간의 형상을 취하고 있다.Figure 2 is a perspective view for explaining the robot in the robot operating system shown in Figure 1, Figure 3 is a conceptual diagram for explaining the configuration of the robot in the robot operating system shown in Figure 1 . As shown in FIGS. 2 and 3 , the robot 30 has a human shape in which a head 31 , a body 33 , an arm 40 , and a leg 41 are coupled to each other.

몸통부(33)는 상부몸통과 하부몸통으로 구분될 수 있으며, 몸통부(33)의 상부에는 머리부(31)가 결합되고, 양측에는 각각 팔부(40)가 결합되어 있으며, 하부에는 다리부(41)가 결합되어 있다.The body part 33 may be divided into an upper body and a lower body, and the head 31 is coupled to the upper portion of the body 33 , the arms 40 are coupled to both sides, respectively, and the lower body is the leg part. (41) is combined.

몸통부(33)에 결합되는 머리부(31), 팔부(40), 다리부(41)는 각각 연결프레임, 혼 및 동력전달축으로 이루어지는 관절구성부에 의해 회전 가능하게 결합되어 있고, 동력전달축에 모터(43)가 연결되어 회전함으로써 관절의 움직임이 가능하다. 또한 팔부(40) 및 다리부(41)는 보행이나 펀치 등의 동작을 취하기 위해 보다 세분화된 구성들로 연결되어 있고, 각각의 연결 부위에 설치된 모터(43)들이 작동함으로써 섬세한 움직임이 가능하다.The head 31, the arm 40, and the leg 41 coupled to the body 33 are rotatably coupled to each other by an articulating part consisting of a connecting frame, a horn, and a power transmission shaft, and power transmission. The motor 43 is connected to the shaft and rotates to enable movement of the joint. In addition, the arm 40 and the leg part 41 are connected in more subdivided configurations to take an action such as walking or punching, and the motors 43 installed in each connection part operate, so that a delicate movement is possible.

한편 머리부(31)에는 로봇(30)의 주변 영상을 촬영하는 카메라(32)가 설치되어 있고, 몸통부(33)에는 탑승부(10)로부터 조작 명령을 수신하여 모터(43)를 제어하고 로봇(30)의 움직임에 따른 센싱 정보를 수집하여 탑승부(10) 측으로 전송하기 위한 구성들이 실장되어 있다. 즉 도3에 도시된 바와 같이 몸통부(33)는 통신처리부(34), 컨트롤부(35), 기울기센서(36), 자이로센서(37), 가속도센서(38) 및 소리센서(39)를 포함한다.On the other hand, the head 31 is provided with a camera 32 for capturing images of the surroundings of the robot 30, and the body 33 receives an operation command from the boarding unit 10 to control the motor 43 and Components for collecting sensing information according to the movement of the robot 30 and transmitting it to the boarding unit 10 are mounted. That is, as shown in FIG. 3 , the body 33 includes a communication processing unit 34 , a control unit 35 , a tilt sensor 36 , a gyro sensor 37 , an acceleration sensor 38 and a sound sensor 39 . include

통신처리부(34)는 탑승부(10)에 설치된 조작부(12)와 통신 채널을 연결하고 조작명령을 수신하거나 각종 센서에서 수집한 센싱 정보를 탑승부(10) 측으로 전송하기 위해 마련된다. 실시하기에 따라 통신처리부(34)는 RF통신, 와이파이, 블루투스 등의 근거리 무선 통신 방식으로 탑승부(10) 측과 정보를 송수신할 수도 있고, 인터넷망 또는 이동통신망을 이용하여 원거리에 위치한 탑승부(10)와 정보를 송수신할 수도 있다.The communication processing unit 34 is provided to connect the communication channel with the operation unit 12 installed in the boarding unit 10 , receive an operation command, or transmit sensing information collected from various sensors to the boarding unit 10 . According to the implementation, the communication processing unit 34 may transmit and receive information to and from the boarding unit 10 side by a short-range wireless communication method such as RF communication, Wi-Fi, Bluetooth, etc., and a boarding unit located at a remote location using an Internet network or a mobile communication network. (10) and information may be transmitted and received.

컨트롤부(35)는 통신처리부(34)를 통해 수신한 사용자의 조작 명령을 수신하여 모터(43)들을 제어하여 로봇(30)이 조작 명령에 따라 특정 동작을 수행하도록 하거나, 센서부(36, 37, 38, 39, 42)에서 수집한 센싱 정보와 카메라(32)에서 촬영된 영상 정보를 통신처리부(34)를 통해 탑승부(10) 측으로 전송 처리하기 위해 마련된다. 또한 컨트롤부(35)는 센서부에서 수집된 센싱 정보에 대응하여 미리 프로그래밍 된 바에 따라 모터(43)를 제어하여 사용자의 조작 명령과는 별도로 로봇(30)의 움직임을 제어할 수도 있다.The control unit 35 receives the user's operation command received through the communication processing unit 34 and controls the motors 43 to cause the robot 30 to perform a specific operation according to the operation command, or the sensor unit 36, 37 , 38 , 39 , and 42 are provided to transmit and process the sensing information collected by the camera 32 and the image information captured by the camera 32 to the boarding unit 10 through the communication processing unit 34 . In addition, the control unit 35 may control the movement of the robot 30 separately from the user's operation command by controlling the motor 43 according to a pre-programmed bar in response to the sensing information collected by the sensor unit.

센서부는 로봇(30)의 움직임에 따라 변화하는 물리적인 변화값을 측정하여 컨트롤부(35)로 실시간 전송하기 위해 마련된다. 이러한 센서부는 기울기센서(36), 자이로센서(37), 가속도센서(38), 소리센서(39) 및 발바닥센서(42)를 포함할 수 있으며, 이 중 기울기센서(36), 자이로센서(37), 가속도센서(38) 및 소리센서(39)는 몸통부(33)에 설치되고, 발바닥센서(42)는 지면과 밀착하는 로봇(30)의 발바닥, 즉 다리부(41)의 저면에 설치된다.The sensor unit is provided to measure a physical change value that changes according to the movement of the robot 30 and transmit it to the control unit 35 in real time. Such a sensor unit may include a tilt sensor 36, a gyro sensor 37, an acceleration sensor 38, a sound sensor 39, and a sole sensor 42, of which the tilt sensor 36, the gyro sensor 37 ), the acceleration sensor 38 and the sound sensor 39 are installed on the body part 33, and the sole sensor 42 is installed on the bottom surface of the bottom surface of the leg part 41, that is, the sole of the robot 30 in close contact with the ground. do.

기울기센서(36)는 로봇(30)의 기울어짐 정보를 측정하는 센서이고, 자이로센서(37)는 로봇(30)의 움직임에 따른 각속도를 측정하는 센서이며, 가속도센서(38)는 로봇(30)의 움직임에 따른 가속도를 측정하는 센서이다. 기울기센서(36), 자이로센서(37) 및 가속도센서(38)에서 측정하는 센싱 정보들은 로봇(30)의 자세나 움직임을 산출하는 기초 자료로 활용될 수 있으며, 이들 센싱 정보가 탑승부(10)에 전송되면, 탑승부(10)의 제어부(14)가 분석하여 로봇(30)의 자세와 움직임을 판단한 후 그에 대응하는 모션 명령을 구동부(15)에 전달할 수 있다.The inclination sensor 36 is a sensor for measuring inclination information of the robot 30 , the gyro sensor 37 is a sensor for measuring angular velocity according to the movement of the robot 30 , and the acceleration sensor 38 is the robot 30 ) is a sensor that measures acceleration according to movement. The sensing information measured by the inclination sensor 36 , the gyro sensor 37 , and the acceleration sensor 38 may be used as basic data for calculating the posture or movement of the robot 30 , and these sensing information ), the controller 14 of the boarding unit 10 analyzes and determines the posture and movement of the robot 30 , and then transmits a corresponding motion command to the driving unit 15 .

한편 소리센서(39)는 로봇(30) 주위에서 발생하는 음향 정보를 수집하는 센서이며, 발바닥센서(42)는 로봇(30)의 발바닥이 지면에 접촉하고 있는지 여부를 측정하는 센서이다. 만약 양쪽 다리부(41) 저면에 설치된 발바닥센서(42)에서 모두 지면 접촉이 확인되지 않을 경우 컨트롤부(35)는 로봇(30)이 넘어진 것으로 판단하여 기 설정된 바에 따라 모터(43)들을 제어하여 사용자의 조작 명령과는 별개로 로봇(30)이 자동으로 기립할 수 있도록 한다.Meanwhile, the sound sensor 39 is a sensor that collects acoustic information generated around the robot 30 , and the sole sensor 42 is a sensor that measures whether the sole of the robot 30 is in contact with the ground. If the ground contact is not confirmed by the sole sensor 42 installed on the bottom of both legs 41, the control unit 35 determines that the robot 30 has fallen, and controls the motors 43 according to a preset bar. It allows the robot 30 to automatically stand up independently of the user's manipulation command.

도4는 도1에 도시된 로봇 운용 시스템에서 탑승부를 설명하기 위한 사시도이고, 도5는 도1에 도시된 로봇 운용 시스템에서 탑승부의 구성을 설명하기 위한 개념도이다. 탑승부(10)는 사용자가 탑승하여 로봇(30)을 구동시키기 위한 조작 명령을 입력하고, 로봇(30)으로부터 센싱 정보를 수신하여 로봇(30)의 움직임에 따른 모션이 사용자에게 전달될 수 있도록 하는 장치이다. 이러한 탑승부(10)는 사용자가 육안으로 직접 로봇(30)의 움직임을 살펴볼 수 있도록 로봇(30) 인근에 설치될 수도 있으나, 로봇(30)의 머리부(31)에 설치된 카메라(32)에서 촬영된 영상이 탑승부(10)의 디스플레이(20)를 통해 출력되는 것도 가능하기 때문에, 탑승부(10)는 로봇(30)으로부터 멀리 떨어진 곳에 설치될 수도 있다.4 is a perspective view for explaining the boarding part in the robot operating system shown in FIG. 1 , and FIG. 5 is a conceptual diagram for explaining the configuration of the boarding part in the robot operating system shown in FIG. 1 . The boarding unit 10 receives the sensing information from the robot 30 and receives the sensing information from the robot 30 so that the user can get on board and input a manipulation command for driving the robot 30 so that the motion according to the movement of the robot 30 can be transmitted to the user. is a device that This boarding unit 10 may be installed near the robot 30 so that the user can directly observe the movement of the robot 30 with the naked eye, but in the camera 32 installed on the head 31 of the robot 30 Since it is also possible that the photographed image is output through the display 20 of the boarding unit 10 , the boarding unit 10 may be installed far away from the robot 30 .

도4 및 도5에 도시된 바와 같이 탑승부(10)는 착좌부(11), 조작부(12), 통신부(13), 제어부(14), 디스플레이(20), 스피커(21) 및 구동부(15)를 포함한다.4 and 5 , the boarding unit 10 includes a seating unit 11 , a manipulation unit 12 , a communication unit 13 , a control unit 14 , a display 20 , a speaker 21 , and a driving unit 15 . ) is included.

착좌부(11)는 사용자가 탑승하는 부분으로 통상의 의자 형태로 제작된다. 물론 착좌부(11)는 구동부(15)의 작동에 따라 로봇(30)의 움직임을 재현할 수 있는 다른 형태로 제작될 수도 있다. 예컨대 사용자의 신체 착용되는 의류, 신발, 헬멧 형태로 제작될 수도 있는 것이다.The seating part 11 is a part on which a user rides and is manufactured in the form of a normal chair. Of course, the seating unit 11 may be manufactured in another form capable of reproducing the movement of the robot 30 according to the operation of the driving unit 15 . For example, it may be manufactured in the form of clothes, shoes, and helmets worn on the user's body.

조작부(12)는 사용자의 조작 명령을 입력 받기 위해 마련된다. 이러한 조작부(12)는 리모컨 형태, 스틱 형태, 버튼 형태, 마우스와 키패드, 다이얼이나 터치스크린 형태, 총 등의 무기 형태로 제작될 수 있다. 실시하기에 따라 사용자의 조작 명령이 음성 명령으로 입력될 수도 있으며, 이 경우 조작부(12)는 마이크 형태로 제작될 수 있다. 또는 조작부(12)는 사용자의 움직임을 감지하는 움직임 감지 센서일 수도 있다. 더불어 조작부(12)는 이상에서 언급한 다양한 형태의 입력 수단이 복합적으로 적용된 형태로 제작될 수도 있다.The manipulation unit 12 is provided to receive a user's manipulation command. The manipulation unit 12 may be manufactured in the form of a remote control, in the form of a stick, in the form of a button, in the form of a mouse and keypad, in the form of a dial or touch screen, in the form of a weapon such as a gun. Depending on the implementation, a user's operation command may be input as a voice command, and in this case, the operation unit 12 may be manufactured in the form of a microphone. Alternatively, the manipulation unit 12 may be a motion detection sensor that detects a user's motion. In addition, the manipulation unit 12 may be manufactured in a form in which the above-mentioned various types of input means are complexly applied.

통신부(13)는 로봇(30)과 통신 채널을 연결하고 조작부(12)에서 입력된 사용자 명령을 로봇(30) 측으로 전송하거나, 로봇(30)에서 수집하여 전송하는 센싱 정보를 수신하기 위해 마련된다. 이러한 통신부(13)는 RF통신, 와이파이, 블루투스 등의 근거리 무선 통신 방식으로 로봇(30) 측과 정보를 송수신할 수도 있고, 인터넷망 또는 이동통신망을 이용하여 원거리에 위치한 로봇(30)과 정보를 송수신할 수도 있다.The communication unit 13 connects a communication channel with the robot 30 and transmits a user command input from the operation unit 12 to the robot 30 side, or is provided to receive sensing information collected and transmitted by the robot 30 . . The communication unit 13 may transmit and receive information to and from the robot 30 in a short-distance wireless communication method such as RF communication, Wi-Fi, and Bluetooth, and communicate information with the robot 30 located at a distance using an Internet network or a mobile communication network. You can also send and receive.

제어부(14)는 조작부(12)를 통해 입력된 사용자의 조작 명령을 통신부(13)를 통해 로봇(30) 측으로 실시간 전송하여 로봇(30)이 동작되도록 하고, 로봇(30)으로부터 센싱 정보를 수신한 후 분석하여 로봇(30)의 움직임에 대응하는 모션이 착좌부(11)를 통해 사용자에게 전달될 수 있도록 구동부(15)를 제어하기 위해 마련된다. 또한 제어부(14)는 로봇(30)으로부터 수신되는 영상 정보를 디스플레이(20)를 통해 화면 출력되도록 처리하고, 로봇(30)의 소리센서(39)에서 수집한 음향 정보를 스피커(21)를 통해 음성 출력되도록 처리한다.The control unit 14 transmits a user's manipulation command input through the manipulation unit 12 to the robot 30 side through the communication unit 13 in real time to operate the robot 30 and receives sensing information from the robot 30 . After analysis, it is provided to control the driving unit 15 so that a motion corresponding to the movement of the robot 30 can be transmitted to the user through the seating unit 11 . In addition, the control unit 14 processes the image information received from the robot 30 to be output to the screen through the display 20 , and transmits the sound information collected from the sound sensor 39 of the robot 30 through the speaker 21 . Processed for audio output.

디스플레이(20)는 로봇(30)의 머리부(31)에 탑재된 카메라(32)에서 촬영된 영상을 화면 출력하기 위해 마련된다. 디스플레이(20)는 통상의 모니터 형상으로 제작되어 착좌부(11) 전면에 설치될 수도 있고, 헤드기어 형태로 제작되어 사용자의 두상에 착용되는 형태로 제작될 수도 있다.The display 20 is provided to output an image captured by the camera 32 mounted on the head 31 of the robot 30 to the screen. The display 20 may be manufactured in the shape of a normal monitor and installed on the front of the seating unit 11 , or may be manufactured in the form of headgear and worn on the user's head.

스피커(21)는 로봇(30)의 소리센서(39)에서 수집한 음향 정보를 음성 출력되도록 하여 현장의 생생한 소리를 사용자에게 전달하거나, 제어부(14)에서 재생하는 기 저장된 음원 정보를 출력하기 위해 마련된다. 만약 디스플레이(20)가 헤드기어 형태로 제작될 경우 스피커(21)는 헤드기어에 일체형으로 마련되어 있는 헤드셋일 수 있다.The speaker 21 transmits the vivid sound of the field to the user by outputting the sound information collected by the sound sensor 39 of the robot 30, or to output pre-stored sound source information reproduced by the control unit 14. will be prepared If the display 20 is manufactured in the form of headgear, the speaker 21 may be a headset provided integrally with the headgear.

구동부(15)는 제어부(14)에서 로봇(30)의 센싱 정보를 분석하여 로봇(30)의 움직임을 파악한 후 이에 대응하는 모션 명령을 출력하면, 모션 명령에 대응하여 착좌부(11)를 구동시키기 위해 마련된다. 예컨대 구동부(15)는 제어부(14)의 모션 명령 출력에 따라 착좌부(11)가 좌우로 회전되도록 하거나, 착좌부(11)를 전후방으로 이동또는 젖혀지도록 하여 충격이 가해지도록 할 수 있다. 이러한 구동부(15)는 로봇(30)의 움직임을 최대한 재현할 수 있는 링크 구동 모터를 채용한 다관절 병렬 로봇 구조로 설계되어 롤(Roll), 피치(Pitch), 요우(Yaw), 서지(Surge), 스웨이(Sway), 히브(Heave) 등 다양한 방식으로 착좌부(11)를 동작시킬 수 있다.When the control unit 14 analyzes the sensing information of the robot 30 to determine the movement of the robot 30 and outputs a motion command corresponding thereto, the driving unit 15 drives the seating unit 11 in response to the motion command. prepared to do For example, the driving unit 15 may cause the seating unit 11 to rotate left and right according to the motion command output from the control unit 14 or to move or tilt the seating unit 11 forward and backward to apply an impact. This driving unit 15 is designed as a multi-joint parallel robot structure employing a link driving motor that can reproduce the movement of the robot 30 as much as possible, so that Roll, Pitch, Yaw, Surge. ), a sway, a heave, and the like, may operate the seating unit 11 in various ways.

한편 탑승부(10)에서 통신부(13), 제어부(14) 등의 구성은 착좌부(11)에 내장되어 일체로 제작될 수도 있고, 통신부(13)와 제어부(14)의 기능을 수행하는 별도의 서버나 컴퓨터가 착좌부(11) 인근에 설치된 후 조작부(12), 구동부(15), 디스플레이(20) 및 스피커(21)와 연결되어 필요한 정보를 송수신할 수도 있다.Meanwhile, in the boarding unit 10 , the components of the communication unit 13 , the control unit 14 , etc. are built into the seating unit 11 and may be manufactured integrally, or separate components that perform the functions of the communication unit 13 and the control unit 14 . After the server or computer of the seat unit 11 is installed near the operation unit 12, the driving unit 15, the display 20, and the speaker 21 may be connected to transmit/receive necessary information.

이상 도1 내지 도5에서 설명된 본 발명의 실시예에 따른 로봇 운용 시스템은, 이하 도6 내지 도8을 통해 설명하게 되는 로봇(30)과 탑승부(10)의 연동 동작 설명 예시에 따라 더욱 구체화 될 것이다. 먼저 복싱 경기를 수행하기 위해 제작된 로봇(30)의 기본적인 동작에 대하여 보다 구체적으로 설명하면 다음과 같다.The robot operating system according to the embodiment of the present invention described above with reference to FIGS. 1 to 5, further according to the example of the interlocking operation of the robot 30 and the boarding unit 10, which will be described with reference to FIGS. 6 to 8 below. will be materialized. First, the basic operation of the robot 30 manufactured to perform a boxing match will be described in more detail as follows.

로봇(30)의 팔부(40)와 다리부(41)는 보행이나 펀치 등의 동작을 취하기 위해 보다 세분화되어 연결되어 있다. 즉 팔부(40)는 몸통부(33)와 직접 연결되는 어깨부와, 팔목부 및 주먹부로 이루어지며, 다리부(41)는 대퇴부와, 무릎부, 발목부 및 발부로 이루어져 있다. 물론 팔부(40)와 다리부(41)의 각 구성부들은 관절구성부에 의해 결합되어 있기 때문에 모터(43)의 회전으로 움직임으로써 보행이나 펀치 등의 섬세한 동작 수행이 가능하다.The arm part 40 and the leg part 41 of the robot 30 are more subdivided and connected in order to take an action such as walking or punching. That is, the arm 40 includes a shoulder, a wrist, and a fist directly connected to the body 33 , and the leg 41 includes a thigh, a knee, an ankle, and a foot. Of course, since each component of the arm 40 and the leg 41 is coupled by the joint component, it is possible to perform delicate motions such as walking or punching by moving with the rotation of the motor 43 .

로봇(30)의 동작을 위해 탑승부(10)의 착좌부(11)에 탑승한 사용자가 조작부(12)를 통해 조작 명령을 입력하면, 제어부(14)는 통신부(13)를 통해 로봇(30) 측으로 조작 명령을 전송한다. 로봇(30)의 통신처리부(34)에서 근거리 무선 통신으로 연결된 탑승부(10)로부터 조작 명령을 수신하면, 컨트롤부(35)는 조작 명령에 대응하도록 각각의 모터(43)를 구동시킨다. 예컨대 펀치를 명령하는 조작 명령이 입력되었다면 컨트롤부(35)는 몸통부(33)와 팔부(40)의 어깨부를 연결하는 부위의 모터(43)를 가동시켜 어깨부가 위로 들어 올려지도록 하며, 또한 어깨부와 팔목부를 연결하는 부위의 모터(43)를 가동시켜 팔목부가 어깨부와 거의 평행하게 펼쳐지도록 한다. 이에 따라 도6에 도시된 것과 같이 팔부(40)가 앞으로 쭉 펴지는 동작을 수행함으로써 펀치가 가능하다.When a user riding on the seating unit 11 of the boarding unit 10 for operation of the robot 30 inputs a manipulation command through the manipulation unit 12 , the control unit 14 controls the robot 30 through the communication unit 13 . ) to send the operation command to the When the communication processing unit 34 of the robot 30 receives a manipulation command from the boarding unit 10 connected through short-range wireless communication, the control unit 35 drives each motor 43 to respond to the manipulation command. For example, if an operation command for commanding a punch is input, the control unit 35 operates the motor 43 at a portion connecting the shoulder of the body 33 and the arm 40 so that the shoulder is lifted upward, and also the shoulder The motor 43 at the part connecting the part and the wrist is operated so that the wrist part is spread almost parallel to the shoulder part. Accordingly, as shown in FIG. 6 , a punch is possible by performing an operation in which the arm 40 is straightened forward.

한편 로봇(30)의 컨트롤부(35)는 센서부에서 측정된 센싱 정보를 통해 로봇(30)이 넘어진 것을 판단한 후 자체 내장된 프로그램에 따라 로봇(30)이 자동 기립하도록 모터(43)들을 제어할 수 있다. 예컨대 기울기센서(36)를 통해 로봇(30)이 일정 각도 이상 쓰러진 상태로 기준 시간 이상 유지된 것이 확인되고, 동시에 양쪽 발바닥센서(42)를 통해 발바닥이 지면과 접촉하고 있는 것이 확인되지 않는다면, 로봇(30)이 완전히 넘어진 상태라고 판단한 후 모터(43)들을 제어하여 자동 기립 동작이 이루어지도록 하는 것이다.On the other hand, the control unit 35 of the robot 30 determines that the robot 30 has fallen through the sensing information measured by the sensor unit, and then controls the motors 43 so that the robot 30 automatically stands up according to its own built-in program. can do. For example, if it is confirmed through the inclination sensor 36 that the robot 30 is maintained for more than a reference time in a collapsed state by a certain angle or more, and at the same time it is not confirmed that the soles are in contact with the ground through both sole sensors 42, the robot After determining that (30) is in a completely fallen state, the motors 43 are controlled so that an automatic standing operation is performed.

이렇게 로봇(10)이 넘어졌을 시 자동으로 기립하는 등의 동작은 사용자의 조작 명령에 따라 이루어지는 것이 아니라 컨트롤부(35)에 자체 내장된 프로그램에 따라 스스로 이루어지도록 해야 한다. 즉 사용자는 단순한 조작 명령만 입력하면 되는 것이며, 나머지 격투 과정에서 필요한 부가적인 동작은 컨트롤부(35)에 자체 내장된 프로그램에 의해 이루어지는 것이다.In this way, when the robot 10 falls, an operation such as automatically standing up should be performed by itself according to a program built into the control unit 35 rather than according to a user's operation command. That is, the user only needs to input a simple manipulation command, and additional operations necessary for the rest of the fighting process are performed by the program built into the control unit 35 .

한편 로봇(30)에 탑재된 카메라(32)에서 촬영된 영상 정보와, 센서부들에서 수집된 센싱 정보는 실시간으로 탑승부(10) 측으로 전송된다. 즉 컨트롤부(35)는 머리부(31)에 설치된 카메라(32)에서 촬영된 영상 정보를 통신처리부(34)를 통해 탑승부(10) 측으로 전송하며, 탑승부(10)의 제어부(14)는 통신부(13)를 통해 로봇(30)에서 전송되는 영상 정보를 처리하여 디스플레이(20)를 통해 출력되도록 한다.Meanwhile, image information captured by the camera 32 mounted on the robot 30 and sensing information collected by the sensor units are transmitted to the boarding unit 10 in real time. That is, the control unit 35 transmits image information captured by the camera 32 installed on the head 31 to the boarding unit 10 through the communication processing unit 34, and the control unit 14 of the boarding unit 10 processes the image information transmitted from the robot 30 through the communication unit 13 and outputs it through the display 20 .

도8을 잠시 참조하면, 사용자가 착용한 헤드기어 형태의 디스플레이(20)에는 카메라(32)에서 촬영된 영상 정보가 출력된다. 즉 사용자는 제3자 입장에서 로봇들(30,30')을 관찰하는 것이 아니라, 디스플레이(20)를 통해 로봇(30)의 시야에서 촬영된 1인칭 시점의 영상을 확인하게 되는 것이다. 따라서 사용자는 디스플레이(20)를 통해 촬영된 1인칭 시점의 영상을 통해 자신이 직접 로봇(30)에 탑승한 채로 로봇(30)을 조작하고 있다는 느낌을 받을 수 있다.Referring briefly to FIG. 8 , image information captured by the camera 32 is output to the display 20 in the form of a headgear worn by the user. That is, the user does not observe the robots 30 and 30 ′ from the perspective of a third person, but checks the first-person view image captured from the field of view of the robot 30 through the display 20 . Accordingly, the user may receive a feeling that he or she is directly operating the robot 30 while riding the robot 30 through the first-person view image captured through the display 20 .

한편 제어부(14)는 디스플레이(20)를 통해 카메라(32)에서 촬영된 영상 정보를 출력할 시, 실제 촬영 영상과 더불어 미리 저장된 가상객체를 함께 출력시키도록 할 수 있다. 즉 로봇(30)의 몸통부(33)에 탑재된 자이로센서(37)나 가속도센서(38)를 통해 수집된 센싱 정보를 분석하여 로봇(30)의 자세, 움직임 및 위치정보를 분석할 수 있고, 이를 기반으로 카메라(32)의 촬영 영상에 미리 동기화된 가상객체가 디스플레이(20)를 통해 함께 출력되도록 하는 것이다. 예컨대 로봇(30,30')의 주변의 실제 영상은 사무실이지만, 관중이 가득 차 있는 복싱 경기장 배경이 가상객체로 저장부(미도시)에 미리 저장되어 있고, 제어부(14)가 자이로센서(37)나 가속도센서(38)의 센싱 정보를 분석하여 로봇(30)의 움직임을 파악하면, 이에 동기화되어 디스플레이(20)에서 상대 로봇(30')의 배경 화면으로 복싱 경기장이 출력되도록 하는 것이다.Meanwhile, when outputting image information captured by the camera 32 through the display 20 , the controller 14 may output a pre-stored virtual object together with the actual captured image. That is, by analyzing the sensing information collected through the gyro sensor 37 or the acceleration sensor 38 mounted on the body part 33 of the robot 30, the posture, movement and position information of the robot 30 can be analyzed. , based on this, a virtual object previously synchronized with the captured image of the camera 32 is output through the display 20 together. For example, the real image around the robots 30 and 30' is an office, but the background of the boxing stadium full of spectators is stored in advance as a virtual object in the storage unit (not shown), and the controller 14 controls the gyro sensor 37 ) or by analyzing the sensing information of the acceleration sensor 38 to determine the movement of the robot 30, the boxing stadium is output from the display 20 to the background screen of the opposing robot 30' in synchronization with this.

이를 통해 사용자는 로봇(30)에 탑승한 채로, 로봇(30)의 시야로 상대 로봇(30')을 살펴봄과 동시에 관중이 가득 들어찬 복싱 경기장에서 실제 복싱 경기를 진행하고 있는 듯한 느낌을 받을 수 있다.Through this, the user can look at the opponent robot 30' through the field of view of the robot 30 while riding on the robot 30, and at the same time receive the feeling that a boxing match is in progress in a boxing arena full of spectators. have.

한편 로봇(30)의 센서부에서 측정된 수집 정보를 분석하면 로봇(30)의 움직임을 실시간으로 파악할 수가 있다. 이렇게 파악된 로봇(30)의 움직임은 탑승부(10)의 구동부(15)에 전달되어 착좌부(11)에서 재현된다.Meanwhile, if the collected information measured by the sensor unit of the robot 30 is analyzed, the movement of the robot 30 can be grasped in real time. The movement of the robot 30 grasped in this way is transmitted to the driving unit 15 of the boarding unit 10 and reproduced in the seating unit 11 .

예컨대 도6에 도시된 바와 같이 사용자의 조작 명령에 따라 로봇(30)이 오른손 펀치를 날리는 동작을 하면서 몸통부(33) 우측이 비틀어지는 동작이 이루어졌다고 하자. 이러한 몸통부(33)의 움직임은 자이로센서(37) 및 가속도센서(38)를 통해 확인 가능하며, 제어부(14)가 로봇(30)에서 수신된 자이로센서(37) 및 가속도센서(38)의 센싱 정보를 분석하면, 로봇(30)의 상부몸통 비틀기 동작이 착좌부(11)에서 그대로 재현될 수 있도록 구동부(15)에 모션 명령을 하달하는 것이다. 즉 위에서 바라보았을 시 로봇(30)이 오른손 펀치를 날리면서 몸통부(33)가 반시계 방향으로 회전하였다면, 제어부(14)는 착좌부(11)가 반시계 방향으로 회전하도록 구동부(15)에 모션 명령을 전달하는 것이다.For example, as shown in FIG. 6 , it is assumed that the robot 30 blows a right-hand punch according to a user's manipulation command and the right side of the body 33 is twisted. The movement of the body part 33 can be confirmed through the gyro sensor 37 and the acceleration sensor 38 , and the controller 14 controls the gyro sensor 37 and the acceleration sensor 38 received from the robot 30 . When the sensing information is analyzed, a motion command is issued to the driving unit 15 so that the upper body twisting motion of the robot 30 can be reproduced as it is in the seating unit 11 . That is, when viewed from above, if the body 33 rotates counterclockwise while the robot 30 blows a right-hand punch, the control unit 14 sends the driving unit 15 to rotate the seating unit 11 counterclockwise. It transmits motion commands.

다른 예시로 도7에 도시된 바와 같이 로봇(30)이 상대 로봇(30')의 어퍼컷에 가격 당하여 후방으로 넘어지는 경우도 있을 수 있다. 이렇게 로봇(30)이 충격을 받고 넘어진다면 자이로센서(37) 및 가속도센서(38)를 통해 충격이 인지되고 기울기센서(36) 및 발바닥센서(42)를 통해 넘어짐이 감지된다. 즉 탑승부(10)의 제어부(14)는 로봇(30)으로부터 수신되는 센싱 정보를 통해 로봇(30)이 타격을 받은 후 넘어졌다는 것을 판단할 수 있으며, 이에 따라 제어부(14)는 구동부(15) 측으로 모션 명령을 전달하여 착좌부(11)에 강한 진동을 주어 사용자에게 충격을 가한다거나, 로봇(30)이 뒤로 넘어질 때의 충격이 가해지도록 착좌부(11)가 뒤쪽 방향으로 덜컥 젖혀지도록 하여 로봇(30)과 마찬가지로 사용자도 넘어지는 체험이 가능토록 하는 것이다.As another example, as shown in FIG. 7 , the robot 30 may be hit by the uppercut of the opponent robot 30' and fall backward. When the robot 30 receives an impact and falls, the impact is recognized through the gyro sensor 37 and the acceleration sensor 38 , and the fall is detected through the inclination sensor 36 and the sole sensor 42 . That is, the control unit 14 of the boarding unit 10 may determine that the robot 30 has fallen after being hit through the sensing information received from the robot 30 , and accordingly, the control unit 14 controls the driving unit 15 . ) to give a strong vibration to the seating unit 11 to apply a shock to the user, or to apply an impact when the robot 30 falls backward so that the seating unit 11 is tilted backwards. Thus, like the robot 30, the user can also experience falling.

반대로 사용자의 조작 명령에 따라 로봇(30)이 앞으로 전진하면서 펀치를 날렸으나, 상대 로봇(30')이 회피 동작을 수행하였을 경우, 헛손질을 한 로봇(30)은 관성에 의해 앞으로 넘어질 수도 있다. 이 경우 탑승부(10)의 제어부(14)는 기울기센서(36), 자이로센서(37), 가속도센서(38) 및 발바닥센서(42)의 센싱 정보를 분석하여 로봇(30)이 앞으로 넘어진 것을 확인할 수 있으며, 이에 따라 제어부(14)는 구동부(15)에 모선 명령을 입력하여 착좌부(11)가 전방 방향으로 덜컥 젖혀지도록 하여, 로봇(30)과 마찬가지로 사용자가 앞으로 넘어지는 체험이 가능토록 할 수 있다.Conversely, when the robot 30 strikes a punch while moving forward according to the user's manipulation command, but the other robot 30' performs an evasive operation, the robot 30 that has been groomed in vain may fall forward due to inertia. . In this case, the control unit 14 of the boarding unit 10 analyzes the sensing information of the inclination sensor 36, the gyro sensor 37, the acceleration sensor 38, and the sole sensor 42 to prevent the robot 30 from falling forward. As a result, the control unit 14 inputs a mother ship command to the driving unit 15 so that the seating unit 11 is tilted forward in the forward direction, so that the user can experience falling forward like the robot 30. can do.

또한 로봇(30)이 상대 로봇(30')의 강한 펀치에 맞는 경우, 제어부(14)는 센싱 정보를 분석하여 강한 펀치 충격이 발생하였음을 확인할 수 있고, 이에 따라 구동부(15)를 제어하여 착좌부(11)가 전후 방향으로 강하게 흔들리도록 함으로써, 로봇(30)에서 받은 충격이 사용자의 신체에도 그대로 전달되도록 할 수 있다.In addition, when the robot 30 is hit by the strong punch of the other robot 30', the control unit 14 analyzes the sensing information to confirm that a strong punch impact has occurred, and accordingly controls the driving unit 15 to seat the robot 30 . By making the part 11 strongly shake in the front-rear direction, the impact received from the robot 30 can be transmitted to the user's body as it is.

이 외에도 탑승부(10)의 제어부(14)는 로봇(30)에서 전송해 오는 센싱 정보를 분석하여 로봇(30)의 자세 변화(자세를 낮추거나 높임), 기울어짐, 몸통 비틀어짐, 위치 이동, 넘어짐, 충격발생 등을 파악할 수 있고, 이에 대응하여 제어부(14)가 구동부(15)를 제어함으로써 착좌부(11)가 로봇(30)의 움직임과 자세 변화에 동기화 되어 회전, 전후좌우 이동, 기울어짐, 덜컹거림, 앞뒤 젖혀짐 등의 모션 재현이 가능토록 할 수 있다. In addition, the control unit 14 of the boarding unit 10 analyzes the sensing information transmitted from the robot 30 to change the posture of the robot 30 (lower or raise the posture), inclination, torso twist, and position movement. , falling, impact, and the like, and in response, the control unit 14 controls the driving unit 15 so that the seating unit 11 is synchronized with the movement and posture change of the robot 30 and rotates, moves forward and backward, left and right, It is possible to reproduce motions such as tilting, rattling, and leaning back and forth.

물론 로봇들(30,30')이 복싱 경기를 수행하면서 실제 받아내는 펀치 충격이나 넘어지는 충격은 더욱 강할 수도 있으나, 탑승부(10)에서 이루어지는 모션 재생은 타격을 입었다는 체험과 넘어졌다는 체험이 가능한 정도로만 안전하게 설계되어야 한다.Of course, the punch shock or fall shock that the robots 30 and 30 ' receive while performing a boxing match may be stronger, but the motion reproduction made in the boarding unit 10 is the experience of being hit and the experience of falling. They should be designed to be as safe as possible.

이상에서 상세히 설명한 바와 같이 본 발명에 따른 탑승 체험이 가능한 로봇 운용 시스템은 사용자가 원격에서 탑승부(10)에 탑승한 채로 실물 객체인 로봇(30)을 조작하고, 로봇(30)의 움직임을 모든 신체를 통해 전달받을 수 있어서 더욱 현실감 있는 체험이 가능하다.As described in detail above, in the robot operating system capable of boarding experience according to the present invention, a user remotely operates the robot 30, which is a real object, while riding on the boarding unit 10, and controls all movements of the robot 30. Since it can be transmitted through the body, a more realistic experience is possible.

즉 기존의 통상적인 게임처럼 컴퓨터 그래픽으로 구현된 객체를 조작하는 것이 아니라, 로봇(30)이라는 실물 객체를 조작하는 것이어서 체험의 현실감을 높여줄 수가 있다.That is, it is possible to increase the sense of reality of the experience because it is to operate a real object called the robot 30, rather than to operate an object implemented in computer graphics like a conventional game.

또한 로봇(30)이라는 실물 객체를 단순하게 조작하는 것 뿐만 아니라, 로봇(30)의 머리부(31)에 설치된 카메라(32)를 통해 촬영된 영상이 사용자의 시야에 들어오도록 함으로써, 제3자의 입장이 아닌 1인칭 시점의 탑승 체험이 가능하다.In addition, in addition to simply manipulating the real object called the robot 30, the image captured through the camera 32 installed on the head 31 of the robot 30 enters the user's field of view, so that a third party's It is possible to experience the boarding from a first-person point of view rather than a stand-in.

즉 로봇(30)으로부터 멀리 떨어진 곳에서 로봇들(30,30')의 격투를 관전하면서 조작을 할 경우, 원거리의 상대 로봇(30')이 펀치를 날리거나 접근하는 것을 쉽게 인지하는 것이 어렵고, 이 때문에 반사 반응이 느릴 수 밖에 없다. 하지만 본 발명에서는 헤드기어형 디스플레이(20)를 통해 자신이 조작하고 있는 로봇(30)의 시야에서 상대 로봇(30')의 움직임이나 상태를 확인하는 것이기 때문에, 즉각적인 반응이 가능하다. 즉 자신의 로봇(30)이 펀치를 날리거나 또는 상대 공격에 대해서 방어 및 회피하는 조작을 더욱 신속하게 수행할 수 있는 것이다.That is, when manipulating while watching the fighting of the robots 30 and 30 ' from a place far away from the robot 30, it is difficult to easily recognize that the distant opponent robot 30 ' throws a punch or approaches, Because of this, the reflex reaction is inevitably slow. However, in the present invention, since the movement or state of the other robot 30 ′ is checked in the field of view of the robot 30 being operated by the user through the headgear type display 20 , an immediate reaction is possible. That is, the robot 30 of its own can more quickly perform an operation of throwing a punch or defending and avoiding an opponent's attack.

더불어 자신의 로봇(30)의 시야에서 상대 로봇(30')을 확인하면서 조작하는 것이기 때문에 조작 방향이 헷갈릴 우려도 없다. 즉 사용자가 자신의 로봇(30) 등 뒤에서 조작할 경우에는 조작 방향이 동일하지만, 링 위에서 로봇들(30,30')이 돌아다니다가 자신의 로봇(30)과 상대 로봇(30')의 위치가 바뀌었을 경우에는, 사용자와 로봇(30)이 서로 마주보는 위치가 될 수도 있는데, 이 경우에 맨 눈으로 로봇(30)을 바라보는 것이라면 사용자의 시점과 로봇(30)의 시점이 반대가 되어 조작 방향이 헷갈리게 된다. 하지만 본 발명에서와 같이 헤드기어형 디스플레이(20)를 착용한 상태에서는 항상 자신이 조작하는 로봇(30)의 시점이 유지되기 때문에 조작 방향이 헷갈릴 우려가 없다.In addition, since the operation is performed while checking the other robot 30 ′ in the field of view of the own robot 30 , there is no fear of confusing the operation direction. That is, when the user operates from behind his/her own robot 30, the manipulation direction is the same, but the robots 30 and 30' move around on the ring and the positions of their robot 30 and the other robot 30' is changed, the user and the robot 30 may face each other. In this case, if the robot 30 is viewed with the naked eye, the viewpoint of the user and the viewpoint of the robot 30 are opposite. The direction of operation is confusing. However, as in the present invention, in a state in which the headgear-type display 20 is worn, the viewpoint of the robot 30 operated by the robot 30 is always maintained, so there is no fear of confusing the operation direction.

더불어 디스플레이(20)에 출력되는 영상에는 로봇(30)의 움직임과 위치에 따라 변화되는 가상객체가 오버레이 될 수 있다. 따라서 사용자는 실제 복싱 경기장에서 복서가 되어 복싱 경기를 체험하거나, 자동차 경기장에서 자동차를 운전하는 것과 같은 체험을 할 수 있게 된다.In addition, a virtual object that changes according to the movement and position of the robot 30 may be overlaid on the image output on the display 20 . Accordingly, the user can experience a boxing match as a boxer in an actual boxing arena, or experience such as driving a car in a car arena.

또, 사용자가 탑승한 탑승부(10)는 로봇(30)의 움직임과 동기화 되어 움직임 재현이 이루어지는 것이어서, 사용자는 단순하게 로봇(30)을 조작하는 것 뿐만 아니라, 로봇(30)의 움직임과 충격을 함께 느낌으로써 탑승 체험의 현실감이 극대화 된다. 만약 헤드기어형 디스플레이(20)를 착용하지 않고 몇 미터 떨어진 거리에서 로봇(30)을 조종하면서 펀치를 맞을 경우, 자신과 로봇이 일체화 되었다는 느낌이 크게 들지는 않는다. 즉 눈으로만 로봇(30)이 넘어지는 것을 바라 볼 뿐, 그 충격까지 전해지지는 못한다.In addition, the user boarding unit 10 is synchronized with the movement of the robot 30 to reproduce the movement, so that the user not only operates the robot 30 but also the movement and impact of the robot 30 . By feeling together, the realism of the boarding experience is maximized. If you do not wear the headgear type display 20 and receive a punch while controlling the robot 30 from a distance of several meters, you do not feel that you and the robot are integrated. That is, the robot 30 only looks at the falling down, and the impact is not transmitted.

하지만 본 발명에서는 헤드기어형 디스플레이(20)를 통해 로봇(30)의 시점에서 상대를 바라보게 되고, 상대 로봇(30')의 펀치를 받을 경우 바로 정면에서 상대의 펀치가 날아오는 것을 바라봄과 동시에 신체에 펀치 충격이 가해지게 된다. 만약 상대의 펀치를 맞고 넘어지는 경우라면 착좌부(11)가 젖혀지는 것은 물론 넘어지는 과정의 시야도 실제 로봇(30)이 넘어지면서 바라보는 장면이어서 현실감이 배가되는 것이다.However, in the present invention, looking at the opponent from the point of view of the robot 30 through the headgear type display 20, and when receiving a punch from the opponent robot 30', looking at the opponent's punch flying from the front At the same time, a punch impact is applied to the body. If it falls after being hit by an opponent's punch, the seat 11 is not only tilted, but also the view of the falling process is a scene where the robot 30 is actually viewed while falling, so that the sense of reality is doubled.

즉, 실물 로봇(30)에 탑재된 카메라(32)와, 사용자가 착용하는 헤드기어형 디스플레이(20)와, 실물 로봇(30)에 탑재된 센서부(36, 37, 38, 39, 42)와, 착좌부(11)의 움직임이 유기적으로 연결되어 동작함으로써, 사용자는 로봇(30)과 일체화 되었다는 느낌을 가진 채 탑승 체험을 수행할 수 있고, 이에 따라 현실감을 극대화 시킬 수 있다.That is, the camera 32 mounted on the real robot 30 , the headgear type display 20 worn by the user, and the sensor units 36 , 37 , 38 , 39 , 42 mounted on the real robot 30 . And, as the movement of the seating unit 11 is organically connected and operated, the user can perform a boarding experience with a feeling of being integrated with the robot 30 , thereby maximizing the sense of reality.

상기한 본 발명의 바람직한 실시예는 예시의 목적을 위해 개시된 것이고, 본 발명에 대해 통상의 지식을 가진 당업자라면, 본 발명의 사상과 범위 안에서 다양한 수정, 변경 및 부가가 가능할 것이며, 이러한 수정, 변경 및 부가는 본 발명의 특허청구 범위에 속하는 것으로 보아야 할 것이다.The above-described preferred embodiments of the present invention have been disclosed for the purpose of illustration, and those skilled in the art with the ordinary knowledge of the present invention will be able to make various modifications, changes and additions within the spirit and scope of the present invention, such modifications, changes and additions are to be considered as falling within the scope of the claims of the present invention.

10, 10' : 탑승부
11 : 착좌부
12 : 조작부
13 : 통신부
14 : 제어부
15 : 구동부
20 : 디스플레이
21 : 스피커
30, 30' : 로봇
31 : 머리부
32 : 카메라
33 : 몸통부
34 : 통신처리부
35 : 컨트롤부
36 : 기울기센서
37 : 자이로센서
38 : 가속도센서
39 : 소리센서
40 : 팔부
41 : 다리부
42 : 발바닥센서
43 : 모터
10, 10' : boarding part
11: seating part
12: control panel
13: communication department
14: control unit
15: drive unit
20: display
21 : speaker
30, 30' : Robot
31: head
32 : camera
33: body
34: communication processing unit
35: control unit
36: tilt sensor
37: gyro sensor
38: acceleration sensor
39: sound sensor
40: arm
41: leg
42: sole sensor
43: motor

Claims (4)

사용자의 조작 명령에 대응하여 동작이 수행되는 로봇; 및
상기 사용자가 탑승하여 조작 명령을 입력하는 탑승부;를 포함하되,
상기 로봇은,
움직임 발생을 위한 동력을 발생시키는 모터;
움직임에 따른 물리적 변화를 측정하여 센싱 정보를 수집하는 센서부;
상기 탑승부와 통신 채널을 연결하고 정보를 송수신하는 통신처리부; 및
상기 통신처리부를 통해 상기 탑승부 측으로부터 조작 명령을 수신하여 상기 모터를 작동시켜 움직임이 발생토록 하고, 상기 센서부를 통해 수집된 센싱 정보를 상기 통신처리부를 통해 상기 탑승부 측으로 전송 처리하는 컨트롤부;를 포함하고,
상기 탑승부는,
사용자가 탑승하는 착좌부;
사용자의 조작 명령을 입력받는 조작부;
상기 로봇과 통신 채널을 연결하고 정보를 송수신하는 통신부;
움직임 재현이 가능하도록 상기 착좌부를 동작시키는 구동부; 및
상기 조작부에서 입력된 사용자의 조작 명령을 상기 통신부를 통해 상기 로봇 측으로 전송 처리하고, 상기 통신부를 통해 상기 로봇으로부터 상기 센서부들의 센싱 정보를 수신하면 상기 센싱 정보에 대응하는 움직임이 재현되도록 상기 구동부에 모션 명령을 전송하는 제어부;를 포함하는 것을 특징으로 하는 탑승 체험이 가능한 로봇 운용 시스템.
a robot whose operation is performed in response to a user's manipulation command; and
Including; a boarding unit for the user to board and input a manipulation command;
The robot is
a motor for generating power for motion generation;
a sensor unit for collecting sensing information by measuring a physical change according to movement;
a communication processing unit for connecting a communication channel with the boarding unit and transmitting and receiving information; and
a control unit that receives an operation command from the boarding part through the communication processing unit, operates the motor to generate movement, and transmits the sensing information collected through the sensor unit to the boarding unit through the communication processing unit; including,
The boarding unit,
a seating unit on which the user rides;
a manipulation unit for receiving a user's manipulation command;
a communication unit for connecting a communication channel with the robot and transmitting and receiving information;
a driving unit for operating the seating unit to enable motion reproduction; and
A user's manipulation command input from the manipulation unit is transmitted to the robot side through the communication unit, and when sensing information of the sensor units is received from the robot through the communication unit, the driving unit is configured to reproduce the motion corresponding to the sensing information. A control unit that transmits a motion command; a robot operating system capable of boarding experience, comprising: a.
제1항에 있어서,
상기 탑승부의 제어부는 상기 센싱 정보를 분석하여 상기 로봇이 좌회전 또는 우회전 동작을 수행한 것이 확인되면 상기 착좌부가 좌회전 또는 우회전 되도록 상기 구동부를 제어하고, 상기 로봇이 넘어진 것이 확인되면 상기 착좌부가 후방으로 기울어지거나 강한 진동이 발생하도록 상기 구동부를 제어하는 것을 특징으로 하는 탑승 체험이 가능한 로봇 운용 시스템.
According to claim 1,
When it is confirmed that the robot has performed a left or right turn by analyzing the sensing information, the control unit of the boarding unit controls the driving unit so that the seating part turns left or right, and when it is confirmed that the robot has fallen, the seating part is tilted backward A robot operating system capable of riding experience, characterized in that the driving unit is controlled to lose or generate strong vibration.
제1항에 있어서,
상기 로봇은,
상기 로봇 주변의 영상을 촬영하는 카메라;를 더 포함하고,
상기 컨트롤부는 상기 카메라에서 촬영된 영상 정보를 상기 통신처리부를 통해 상기 탑승부 측으로 전송하도록 처리하며,
상기 탑승부는,
상기 로봇의 카메라에서 촬영된 영상 정보를 출력하는 디스플레이;를 더 포함하고,
상기 제어부는 상기 통신부를 통해 상기 로봇의 카메라에서 촬영된 영상 정보를 수신하면 상기 디스플레이를 통해 출력되도록 처리하는 것을 특징으로 하는 탑승 체험이 가능한 로봇 운용 시스템.
According to claim 1,
The robot is
It further comprises; a camera for taking an image around the robot;
The control unit processes the image information captured by the camera to be transmitted to the boarding unit side through the communication processing unit,
The boarding unit,
A display for outputting image information captured by the camera of the robot; further comprising,
When the control unit receives the image information captured by the camera of the robot through the communication unit, the robot operating system capable of boarding experience, characterized in that it is output through the display.
제3항에 있어서,
상기 탑승부의 제어부는 상기 디스플레이를 통해 상기 로봇의 카메라에서 촬영된 영상 정보를 출력할 시, 상기 센서부들의 센싱 정보에 대응하는 가상객체가 상기 디스플레이를 통해 오버레이 되어 출력되도록 처리하는 것을 특징으로 하는 탑승 체험이 가능한 로봇 운용 시스템.
4. The method of claim 3,
When the controller of the boarding unit outputs image information captured by the camera of the robot through the display, boarding characterized in that the virtual object corresponding to the sensing information of the sensor units is overlaid and output through the display. Robot operating system that can be experienced.
KR1020190171185A 2019-12-19 2019-12-19 Robot operation system for boarding experience KR20210079077A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190171185A KR20210079077A (en) 2019-12-19 2019-12-19 Robot operation system for boarding experience

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190171185A KR20210079077A (en) 2019-12-19 2019-12-19 Robot operation system for boarding experience

Publications (1)

Publication Number Publication Date
KR20210079077A true KR20210079077A (en) 2021-06-29

Family

ID=76626664

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190171185A KR20210079077A (en) 2019-12-19 2019-12-19 Robot operation system for boarding experience

Country Status (1)

Country Link
KR (1) KR20210079077A (en)

Similar Documents

Publication Publication Date Title
US10936149B2 (en) Information processing method and apparatus for executing the information processing method
JP6362631B2 (en) Image display system, image display system control method, image distribution system, and head-mounted display
US9599821B2 (en) Virtual reality system allowing immersion in virtual space to consist with actual movement in actual space
WO2015154627A1 (en) Virtual reality component system
EP3587048B1 (en) Motion restriction system and method
EP3566826B1 (en) Apparatus control system and method
JP6774260B2 (en) Simulation system
JP6248219B1 (en) Information processing method, computer, and program for causing computer to execute information processing method
JP2018147465A (en) Information processing method, device, and program for causing computer to execute the method
CN110038258A (en) A kind of omnidirectional's treadmill and its virtual reality implementation method
JP7030669B2 (en) An information processing method, a device, and a program for causing a computer to execute the information processing method.
JP2022007792A (en) System, method, and program for vr training of aircraft
US11780084B2 (en) Robotic device, control method for robotic device, and program
JP6419268B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
KR20210079077A (en) Robot operation system for boarding experience
JP6263292B1 (en) Information processing method, computer, and program for causing computer to execute information processing method
JP2019020832A (en) Information processing method, device, and program for causing computer to execute the method
US11733705B2 (en) Moving body and moving body control method
US11648672B2 (en) Information processing device and image generation method
JP6330072B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
GB2572213A (en) Second user avatar method and system
KR102176896B1 (en) Virtual REALITY BASED GAME SYSTEM
JP2018143752A (en) Information processing method, device, and program for causing computer to execute the information processing method
JP2018147469A (en) Information processing method, apparatus, and program for implementing that information processing method in computer

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application