KR20090065890A - Situation dependent behavior based robot control appartus and method - Google Patents

Situation dependent behavior based robot control appartus and method Download PDF

Info

Publication number
KR20090065890A
KR20090065890A KR1020070133429A KR20070133429A KR20090065890A KR 20090065890 A KR20090065890 A KR 20090065890A KR 1020070133429 A KR1020070133429 A KR 1020070133429A KR 20070133429 A KR20070133429 A KR 20070133429A KR 20090065890 A KR20090065890 A KR 20090065890A
Authority
KR
South Korea
Prior art keywords
robot
flag
internal state
behavior
module
Prior art date
Application number
KR1020070133429A
Other languages
Korean (ko)
Other versions
KR101402908B1 (en
Inventor
조동권
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020070133429A priority Critical patent/KR101402908B1/en
Publication of KR20090065890A publication Critical patent/KR20090065890A/en
Application granted granted Critical
Publication of KR101402908B1 publication Critical patent/KR101402908B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

Behavior base robot control apparatus and method are provided, which can increase the self-exercise nature of robot by deciding the behavior combination generation and control method of robot. The physical sensor part(10) acquires the video information about environment and senses the proximity degree of the opponent robot or obstacle. The sensor unit(20) outputs the outer situation information about the collision risk. The internal state module(40) recognizes clearly the internal state information of robot. The outer situation evaluation module(50) evaluates the current outer situation by using the outer situation information. The behavior combination generation/adjustment module(60) outputs the control resultant signal. The behavior combination generation/adjustment module(70) outputs the control resultant signal by the control method.

Description

행위기반 로봇 제어장치 및 그 제어방법{SITUATION DEPENDENT BEHAVIOR BASED ROBOT CONTROL APPARTUS AND METHOD}Behavior-based robot control device and its control method {SITUATION DEPENDENT BEHAVIOR BASED ROBOT CONTROL APPARTUS AND METHOD}

본 발명은 행위기반 로봇 제어장치 및 그 제어방법에 관한 것이다.The present invention relates to an action-based robot control apparatus and a control method thereof.

전통적인 이동로봇 기술은 환경에 대한 모델에 의존하고 있다. 이러한 방식은 사용자가 로봇에게 미리 로봇이 활동할 원격지에 대한 지도(모델)를 주고, 로봇은 센서를 이용하여 주변상황에 대한 정보를 입수한 후 이 정보를 미리 받아두었던 지도와 비교하여 로봇 자신의 현재 위치를 파악하고, 이를 기초로 하여 복잡한 행동 계획을 세운 뒤 행동하는 방식이다.Traditional mobile robot technology relies on a model of the environment. In this method, the user gives the robot a map (model) of the remote location where the robot will operate in advance, and the robot obtains information on the surrounding situation using a sensor and compares it with the map that has received the information in advance. It's a way of knowing where you are, building a complex action plan, and then acting on it.

그러나, 이러한 방식은 옛날의 지도를 가지고 세월이 흘러 변모된 지역에서 길을 찾는 것과 같다. 즉, 현실적으로 사용자가 원격지의 환경에 대한 정보를 미리 알기가 어렵고, 미리 알 수 있는 상황이라 하더라도 원격지에서 이동하는 물체가 많다던가, 환경이 자주 변화하는 지역이라던가 하는 경우에는 미리 알고 있던 정보에 근거하여 로봇을 제어하는 것, 그리고 시간이 많이 걸리는 복잡한 계획을 세운 뒤 로봇이 행동을 수행하는 것은 현실성이 없다. 따라서, 이와 같이 기존의 모델기반 로봇제어는 현실적인 문제를 해결하는데 많은 한계가 있다.However, this method is like finding a path in a transformed area with the old maps. That is, in reality, it is difficult for the user to know the information about the remote environment in advance, and even if the situation can be known in advance, if there are many objects moving from the remote place, or the area where the environment changes frequently, based on the previously known information. It is not practical to control the robot and to carry out the action after a complicated and time-consuming plan. Thus, the existing model-based robot control has many limitations in solving the realistic problem.

따라서, 이러한 기존의 모델기반 로봇 제어의 한계를 극복하기 위해서는 곤충 등과 같은 생명체에 대한 관찰에서부터 비롯된 행위기반 로봇제어가 필요하다.Therefore, in order to overcome the limitations of the existing model-based robot control, behavior-based robot control that originates from observation of living things such as insects is required.

본 발명은 상기와 같은 문제점을 해결하기 위해 창안된 것으로서, 로봇이 처한 상황(situation)에 따라 행위(behavior)가 달라지는 행위 기반 제어 구조(situation-dependent behavior-based control architecture)를 갖는 행위기반 로봇 제어장치 및 그 제어방법을 제공하는데 그 목적이 있다.The present invention was devised to solve the above problems, and has a behavior-based robot control having a behavior-dependent behavior-based control architecture whose behavior varies according to the situation of the robot. It is an object of the present invention to provide an apparatus and a control method thereof.

상기한 목적을 달성하기 위한 본 발명에 따른 행위기반 로봇 제어장치의 일 측면에 따르면, 환경에 관한 영상정보를 획득하고 상대 로봇이나 장애물의 근접 정도를 감지하기 위한 물리적 센서부와, 상기 물리적 센서부에 의해 감지된 환경 내 물체의 위치와 방향 및 상대 로봇이나 장애물과의 충돌 위험에 관한 외부상황정보를 출력하는 논리적 센서부와, 로봇의 내부 상태 정보를 인식하기 위한 내부상태모듈과, 상기 외부상황정보를 이용하여 현재의 외부상황을 평가하기 위한 외부상황 평가모듈과, 상기 외부상황 평가모듈에 의해 평가된 외부상황과 상기 내부상태모듈에 의해 인식된 로봇의 내부상태에 따라 선택된 행위 집합과 조정 방법에 의한 조정 결과 신호를 출력하는 행위집합/조정 모듈과, 상기 논리적 센서부로부터 충돌 위험 신호가 출력되는 경우 선택된 상황 독립적 행위 집합과 상황 독립적 조정 방법에 의한 조정 결과 신호를 출력하는 상황 독립적 행위집합/조정 모듈과, 상기 행위집합/조정 모듈 또는 상기 상황 독립적 행위집합/조정 모듈로부터 출력되는 조정 결과 신호에 따라 로봇 경로 데이터를 생성하는 모션 컨트롤러와, 상기 모션 컨트롤러에 의해 생성된 로봇 경로 데이터에 따라 로봇을 구동시키는 액츄에이터를 포함한다.According to an aspect of the behavior-based robot control apparatus according to the present invention for achieving the above object, a physical sensor unit for obtaining the image information about the environment and to detect the proximity of the opponent robot or obstacle, and the physical sensor unit Logical sensor unit for outputting the external situation information about the position and direction of the object in the environment and the risk of collision with the opponent robot or obstacle, an internal state module for recognizing the internal state information of the robot, and the external situation An external situation evaluation module for evaluating a current external situation using information, and an action set and adjustment method selected according to an external situation evaluated by the external situation evaluation module and an internal state of the robot recognized by the internal state module. An action set / adjustment module for outputting a coordination result signal and a collision risk signal from the logical sensor unit Is a situation independent action set / coordination module for outputting an adjustment result signal by the selected situation independent action set and the situation independent coordination method, and the adjustment result signal output from the action set / coordination module or the situation independent action set / coordination module. And a motion controller for generating robot path data, and an actuator for driving the robot according to the robot path data generated by the motion controller.

상기한 목적을 달성하기 위한 본 발명에 따른 행위기반 로봇 제어방법의 일 측면에 따르면, (a) 환경 내 물체의 위치와 방향 및 상대 로봇이나 장애물과의 충돌 위험 여부에 관한 외부상황정보가 센서부로부터 출력되는 단계; (b) 외부상황 평가모듈에 의해 상기 외부상황정보를 통해 현재의 외부상황이 평가되는 단계; (c) 내부상태모듈에 의해 로봇의 내부상태가 인식되는 단계; (d) 상기 평가된 외부상황과 로봇의 내부상태에 따라 선택된 행위 집합과 조정 방법에 의한 조정 결과 신호가 출력되는 단계; (e) 상기 출력되는 조정 결과 신호에 따라 로봇 경로 데이터가 생성되고, 상기 생성된 로봇 경로 데이터에 의해 로봇이 구동되는 단계를 포함한다.According to one aspect of the behavior-based robot control method according to the present invention for achieving the above object, (a) the external information on the position and direction of the object in the environment and whether or not the risk of collision with the opponent robot or obstacle, the sensor unit Outputting from; (b) evaluating a current external situation through the external situation information by an external situation evaluation module; (c) recognizing the internal state of the robot by the internal state module; (d) outputting an adjustment result signal by an action set and an adjustment method selected according to the evaluated external situation and the internal state of the robot; (e) robot path data is generated according to the output adjustment result signal, and the robot is driven by the generated robot path data.

본 발명에 의하면, 로봇이 처한 상황(situation)에 따라 행위(behavior)가 달라지는 행위 기반 제어 구조(situation-dependent behavior-based control architecture)를 갖는 행위기반 로봇 제어장치 및 그 제어방법을 제공함으로써, 종래와 같이 주변 환경에 대한 지도 정보가 필요 없게 되며, 복잡하고 시간이 많이 걸리는 행동 계획이 필요 없으므로 환경이 변화하였거나 순간순간 동적(dynamic)으 로 바뀌는 환경에 매우 효율적으로 적용될 수 있으며, 로봇의 자율 운동성을 높일 수 있는 효과가 있다.According to the present invention, there is provided a behavior-based robot control apparatus having a behavior-dependent behavior-based control architecture in which a behavior varies according to a situation in which the robot is located, and a control method thereof. As there is no need for map information about the surrounding environment, and no complicated and time-consuming action plan is required, it can be applied very efficiently to the environment where the environment changes or changes from moment to dynamic. There is an effect to increase.

이하 첨부된 도면을 참조로 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Prior to this, terms or words used in the specification and claims should not be construed as having a conventional or dictionary meaning, and the inventors should properly explain the concept of terms in order to best explain their own invention. Based on the principle that can be defined, it should be interpreted as meaning and concept corresponding to the technical idea of the present invention. Therefore, the embodiments described in the specification and the drawings shown in the drawings are only the most preferred embodiment of the present invention and do not represent all of the technical idea of the present invention, various modifications that can be replaced at the time of the present application It should be understood that there may be equivalents and variations.

도 1은 본 발명에 따른 행위기반 로봇 제어장치의 구성을 나타내는 도면으로서, 이러한 행위기반 로봇 제어장치는 하기에서 설명될 로봇에 내장되어 로봇이 자율적인 행위를 할 수 있도록 한다.1 is a view showing the configuration of the behavior-based robot control apparatus according to the present invention, such a behavior-based robot control device is embedded in the robot to be described below to enable the robot to perform autonomous behavior.

도 1에 도시된 바와 같이, 본 발명의 행위기반 로봇 제어장치는 물리적 센서(Physical sensors)(10)와, 논리적 센서(logical sensors)(20)와, 단기 메모리(Short term memory)(30)와, 내부 상태(internal states) 모듈(40)과, 외부 상황 평가 모듈(external situation assessor)(50)과, 행위집합/조정 모듈(60)과, 독립적 행위집합/조정 모듈(70)과, 모션 컨트롤러(Motion controller)(80)와, 액츄에이터(Actuators)(90)를 포함하여 구성된다.As shown in FIG. 1, the behavior-based robot controller of the present invention includes physical sensors 10, logical sensors 20, short term memory 30, and the like. Internal states module 40, external situation assessor 50, behavior set / coordination module 60, independent behavior set / coordination module 70, motion controller (Motion controller) 80 and actuators (90).

물리적 센서(Physical sensors)(10)는 실제 물리적인 형태를 가지고 있는 센서로서, 예를 들어 환경내의 물체들에 관한 영상정보를 획득하기 위한 1개의 칼라 CCD 카메라 및 상대 로봇이나 장애물과의 근접 정도를 감지하기 위한 2개의 적외선 센서 등이 사용될 수 있다.Physical sensors 10 are physical sensors, for example, a color CCD camera for acquiring image information about objects in an environment, and a proximity of a relative robot or an obstacle. Two infrared sensors or the like for sensing may be used.

논리적 센서(Logical sensors)(20)는 물리적 센서(10)에 기반을 둔 개념적인 센서로서, 타겟 감지 센서와 충돌 감지 센서 등이 사용된다. 이러한 논리적 센서(20)의 출력 정보는 감지된 물체들의 위치와 방향 정보와 상대 로봇이나 장애물과의 충돌 위험 감지 정보가 포함되는 외부상황정보이다.The logical sensors 20 are conceptual sensors based on the physical sensors 10, and target detection sensors, collision detection sensors, and the like are used. The output information of the logical sensor 20 is external situation information including position and direction information of the detected objects and collision risk detection information between an opponent robot or an obstacle.

단기 메모리(Short term memory)(30)는 논리적 센서(Logical sensors)(20)로부터 출력되는 외부상황정보를 저장한다.The short term memory 30 stores external situation information output from the logical sensors 20.

내부 상태(internal states) 모듈(40)은 로봇의 내부 상태(internal states)를 저장한다. 여기서, 내부 상태는 사용자에 의해 설정될 수도 있고, 단기 메모리(Short term memory)(30)로부터 추출되는 정보에 따라 변경될 수도 있다.Internal states module 40 stores the internal states of the robot. Here, the internal state may be set by the user or may be changed according to information extracted from the short term memory 30.

또한, 외부 환경에 의해서 로봇 내부의 상태가 변경되는 것은 날씨의 변화에 따라 사람의 기분이 바뀔 수 있는 것과 같이 로봇의 퍼스낼러티(personality)를 구현할 수도 있다.In addition, the change of the state inside the robot by the external environment may implement the personality of the robot as the mood of the person may change according to the change of the weather.

외부상황 평가모듈(external situation assessor)(50)은 단기 메모리(short- term memory)(30)에 저장되어 있는 데이터들을 사용하여 현재 외부 상황에 대한 평가를 수행한다. 이러한 평가에는 현재의 데이터들과 더불어 한 스텝 전의 데이터들도 사용된다. 여기서, 외부 상황(external situation)은 로봇 자신을 포함한 주변 환경이 어떠한 가에 따라 달라진다.The external situation assessor 50 uses the data stored in the short-term memory 30 to evaluate the current external situation. In addition to the current data, this assessment uses data from one step back. Here, the external situation depends on the surrounding environment including the robot itself.

행위집합/조정 모듈(60)은 n개의 행위 집합(behaviors sets)과 n개의 조정(coordinations) 방법으로 이루어지며, 내부 상태 모듈(40)에 저장된 로봇의 내부 상태(internal states)와 외부상황 평가모듈(50)에 의해 평가된 외부 상황(external situation)에 따라 n개의 행위 집합(behaviors sets)과 n개의 조정(coordinations) 방법 중에서 어느 하나의 행위 집합과 조정 방법이 선택되어진다. 예를 들어, 행위 집합(behaviors set) i가 선택되면 이에 따른 조정(coordination) i 가 자동으로 선택되어지고, 그 조정 결과가 모션 컨트롤러(motion controller)(80)로 전달된다.The behavior set / coordination module 60 is composed of n behavior sets and n coordinations, and evaluates internal states and external conditions of the robot stored in the internal state module 40. Depending on the external situation assessed by (50), either one of the behavior sets and the coordination methods is selected from among the n behavior sets and n coordinations methods. For example, when a behavior set set i is selected, coordination i is automatically selected accordingly, and the result of the adjustment is transmitted to the motion controller 80.

즉, 논리적 센서의 출력이 같을지라도 로봇의 내부 상태나 외부 상황에 따라서 로봇의 행위(behaviors)가 달라질 수 있다. 이와 같은 설정은 외부세계를 감지할 수 있는 능력이 같은 두 로봇이 있는 경우, 한 로봇이 다른 로봇보다 더욱 지능적이고 적응력 있는 임무를 수행할 수 있도록 한다.That is, even if the output of the logical sensor is the same, the behaviors of the robot may vary according to the internal state or the external situation of the robot. This setup allows one robot to perform a more intelligent and adaptive task than the other, when there are two robots with the same ability to sense the outside world.

독립적 행위집합/조정 모듈(70)은 로봇의 충돌 위험과 같은 응급 상황에 특정 행위가 수행되어야 하는 경우 독립적 행위집합(situation independent behavior set)과 독립적 조정 방법(situation independent coordination)이 선택되어 그 조정 결과가 모션 컨트롤러(motion controller)(80)로 전달된다.The independent behavior set / coordination module 70 selects independent behavior set and siting independent coordination when a specific behavior is to be performed in an emergency situation such as a robot collision risk. Is passed to a motion controller 80.

즉, 논리적 센서(logical sensors)(20)로부터 로봇의 충돌 위험 정보가 출력되는 경우, 외부 상황에 관계 없이 독립적 행위집합/조정 모듈(70)의 독립적 행위집합(situation independent behavior set)과 독립적 조정 방법(situation independent coordination)이 즉각적으로 선택되어 그 조정 결과가 모션 컨트롤러(motion controller)(80)로 전달된다. 이러한 경우에도 로봇의 내부 상태에 따라 로봇의 행위가 달라질 수 있다.That is, when collision risk information of the robot is output from logical sensors 20, independent behavior set and independent adjustment method of the independent behavior set / adjustment module 70 regardless of an external situation. (situation independent coordination) is immediately selected and the adjustment result is transmitted to the motion controller 80. Even in this case, the behavior of the robot may vary depending on the internal state of the robot.

특히, 이러한 응급 상황의 경우 논리적 센서(logical sensors)(20)의 출력은 하드웨어 인터럽트와 같은 개념으로 작동하게 되는데, 이러한 응급 상황의 예로는 인명 구조 로봇이 작업을 수행하다가 구조 대상인 사람의 신변에 상당한 위험이 있음을 감지한 경우 평상시의 구조 행위와 다른 긴급한 응급 행위를 수행한다거나, 다수의 정찰 로봇중 하나가 폭발 직전의 폭발물을 감지한 경우가 있을 수 있다.In particular, in the case of such an emergency, the output of the logical sensors 20 operates in the same concept as a hardware interrupt. An example of such an emergency is that a life-saving robot performs a task, and the body of the person to be rescued is significantly affected. If it detects a danger, it may be able to perform emergency rescue actions other than normal rescue actions, or one of a number of reconnaissance robots may detect explosives just before the explosion.

모션 컨트롤러(motion controller)(80)는 행위집합/조정 모듈(60) 또는 독립적 행위집합/조정 모듈(70)로부터 전달되는 조정 결과 정보에 따라 로봇 경로 데이터를 생성한다.The motion controller 80 generates robot path data according to the adjustment result information transmitted from the action set / adjustment module 60 or the independent action set / adjustment module 70.

액츄에이터(actuators)(90)는 모션 컨트롤러(motion controller)(80)에 의해 생성된 로봇 경로 데이터에 따라 실제 로봇을 구동시키게 된다.The actuators 90 drive the actual robot according to the robot path data generated by the motion controller 80.

도 2는 도 1의 행위기반 로봇 제어장치가 내장된 로봇의 일예를 나타내는 도면이다.FIG. 2 is a diagram illustrating an example of a robot in which the behavior-based robot control apparatus of FIG. 1 is embedded.

도 2에 도시된 바와 같이, 본 발명의 행위기반 로봇 제어장치가 내장된 로 봇(100)은 크게 상체부와 하체부로 이루어지며, 상체부와 하체부가 별도로 동작 가능한 구조를 갖는다. 특히, 로봇의 머리부에 물리적 센서인 칼라 CCD 카메라(105)가 장착되어 주변 환경을 촬영하게 된다.As shown in FIG. 2, the robot 100 in which the action-based robot control apparatus of the present invention is embedded has a large upper body and a lower body, and has a structure in which the upper body and the lower body can be operated separately. In particular, the color CCD camera 105 as a physical sensor is mounted on the head of the robot to photograph the surrounding environment.

또한, 로봇의 내부에 외부로부터 전송되는 무선 명령 신호를 수신할 수 있는 명령 수신부를 내장하고, 물리적 센서와 액츄에이터를 제외한 나머지 제어관련모듈이 외부에 존재하여 로봇이 제어관련모듈의 명령 신호에 따른 행위를 즉각적으로 수행할 수 있도록 구성될 수 있다. 이에 대해서는 하기에서 보다 구체적으로 설명하기로 한다.In addition, a built-in command receiver for receiving a wireless command signal transmitted from the outside inside the robot, and the remaining control-related modules other than the physical sensor and the actuator is external to the robot according to the command signal of the control-related module Can be configured to perform immediately. This will be described in more detail below.

도 3은 본 발명의 일실시예에 따른 행위기반로봇을 이용한 무선 조정 로봇 깃발 게임기의 사시도이고, 도 4는 본 발명의 일실시예에 따른 행위집합 조정 방법의 일예를 나타내는 도면으로서, 게임기 내의 경기장에는 2대의 로봇과 4개의 깃발이 존재하며, 아군 깃발의 색깔은 파란색, 상대 깃발의 색깔은 빨간색으로 구분한다.3 is a perspective view of a wirelessly controlled robot flag game machine using an action-based robot according to an embodiment of the present invention, and FIG. 4 is a view showing an example of a behavior set adjustment method according to an embodiment of the present invention. There are two robots and four flags, and allied flags are colored blue and opponents are colored red.

도 3에 도시된 바와 같이, 본 발명의 일실시예에 따른 무선 조정 로봇 깃발 게임기는 아군 로봇(100a), 상대 로봇(100b)과, 아군 깃발(200a,200b), 상대 깃발(200c,200d)과, 아군 로봇(100a)과 상대 로봇(100b) 사이의 공간에 존재하는 다수개의 장애물(300) 및 상기 아군 로봇(100a)과 상대 로봇(100b) 각각을 무선으로 조정하기 위한 외부조정장치(400)를 포함하여 구성된다.As shown in FIG. 3, the wirelessly controlled robot flag game machine according to an embodiment of the present invention may be a friendly robot 100a, an opponent robot 100b, a friendly flag 200a, 200b, or a relative flag 200c, 200d. And an external control device 400 for wirelessly controlling each of the plurality of obstacles 300 present in the space between the friendly robot 100a and the opponent robot 100b and the friendly robot 100a and the opponent robot 100b. It is configured to include).

먼저, 하기와 같이 로봇 자신과 주변 환경 사이의 관계 변화에 따라 결정되 는 4가지 경우의 외부 상황이 존재하는 경우 선택되어지는 행위집합의 일예에 대해 설명하기로 한다.First, an example of an action set that is selected when four external situations exist according to a change in the relationship between the robot itself and the surrounding environment will be described.

즉, "1. 로봇이 상대 깃발을 향해 있으며 로봇이 깃발을 누를 수 있는 상황, 2. 로봇이 상대 깃발을 향해 있으며 로봇이 깃발을 누를 수 없는 상황, 3. 로봇이 우리 깃발을 향해 있으며 로봇이 깃발과 가까운 상황, 4. 로봇이 우리 깃발을 향해 있으며 로봇이 깃발과 먼 상황" 과 같은 4가지 외부 상황 및 로봇의 내부 상태에 따라 선택되어지는 행위집합에 대해 보다 구체적으로 설명하기로 한다. 여기서, 로봇의 내부 상태는 플레이어에 의해 공격 상태 또는 수비 상태로 설정되어지며, 이러한 내부 상태는 단기 메모리(short term memory)로부터 추출되는 정보에 따라 변경될 수도 있다.That is, "1. The robot is facing the opponent's flag and the robot can press the flag, 2. The robot is facing the opponent's flag, the robot can't press the flag, 3. The robot is facing our flag and the robot The situation close to the flag, 4. The robot is facing our flag and the robot is far from the flag. Four sets of external situations and the behavior set selected by the robot's internal state will be described in more detail. Here, the internal state of the robot is set to an attack state or a defensive state by the player, and this internal state may be changed according to information extracted from the short term memory.

하기의 표 1은 외부상황 1인 경우 로봇의 내부 상태와는 무관하게 선택되어지는 행위집합을 나타낸다.Table 1 below shows an action set that is selected regardless of the internal state of the robot in the external situation 1.

외부상황  External situation 내부상태  Internal condition 논리적 센서 출력 Logical sensor output 행위집합 Set of actions 로봇이 상대 깃발을 향해 있으며 로봇이 깃발을 누를 수 있는 상황     The robot is facing the opponent's flag and the robot can press the flag Don't care      Don't care ① Opp_flag  ① Opp_flag Touch_the_flag Touch_the_flag ② Our_flag  ② Our_flag Avoiding_the_flag Avoiding_the_flag ③ Opp_robot  ③ Opp_robot Avoiding_opp_robot Avoiding_opp_robot ④ None  ④ None Searching Searching

상기 표 1에서와 같이, 외부 상황이 로봇이 상대 깃발을 향해 있으며 로봇이 깃발을 누를 수 있는 상황이고 로봇의 내부 상태와 무관(Don't care)한 경우, 상대 깃발 누르기 행위(Touch_the_flag)와, 우리 깃발에서 멀어지는 방향으로 이동하는 행위(Avoiding_the_flag)와, 상대 로봇을 피하는 행위(Avoiding_opp_robot)와, 탐색 행위(Searching)를 포함하는 행위집합이 선택되어진다.As shown in Table 1, when the external situation is a situation where the robot is facing the opponent flag and the robot can press the flag and is not related to the internal state of the robot (Don't care), the action of pressing the opponent flag (Touch_the_flag), A set of actions including moving (Avoiding_the_flag) away from our flag, avoiding opponent robot (Avoiding_opp_robot), and searching (Searching) is selected.

이때, 상대 깃발 누르기 행위(Touch_the_flag)는 논리적 센서의 출력이 ① 상대 깃발(Opp_flag)인 경우에 대응되고, 우리 깃발에서 멀어지는 방향으로 이동하는 행위(Avoiding_the_flag)는 논리적 센서의 출력이 ② 우리 깃발(Our_flag)인 경우에 대응된다. 또한, 상대 로봇을 피하는 행위(Avoiding_opp_robot)는 논리적 센서의 출력이 ③ 상대 로봇(Opp_robot)인 경우에 대응되고, 탐색 행위(Searching)는 논리적 센서의 출력이 ④ 감지 없음(None)인 경우에 대응된다.At this time, the action of pressing the relative flag (Touch_the_flag) corresponds to the case where the output of the logical sensor is ① the relative flag (Opp_flag), and the action of moving away from our flag (Avoiding_the_flag) is the output of the logical sensor ② Our_flag. Corresponds to). In addition, avoiding the opponent robot (Avoiding_opp_robot) corresponds to the case where the output of the logical sensor is (3) opponent robot (Opp_robot), and searching is corresponding to the case where the output of the logical sensor is (4) None. .

특히, 논리적 센서의 출력이 ④ 감지 없음(None)인 경우에는 상대 깃발 근처이므로 로봇이 이동을 하지 않고 목 자유도만을 사용하여 탐색(Searching)을 하게 된다.In particular, when the output of the logical sensor is ④ None, the robot is near the relative flag, so the robot does not move and searches using only neck degrees of freedom.

한편, 하기의 표 2는 외부상황 2인 경우 로봇의 내부 상태에 따라 선택되어지는 행위집합을 나타낸다.On the other hand, Table 2 below shows the behavior set that is selected according to the internal state of the robot in the external situation 2.

외부상황  External situation 내부상태 Internal condition 논리적 센서 출력 Logical sensor output 행위집합 Set of actions 로봇이 상대 깃발을 향해 있으며 로봇이 깃발을 누를 수 없는 상황           The robot is facing the opponent's flag and the robot cannot press the flag. Offense      Offense ① Opp_flag  ① Opp_flag Approaching_to_the_flag  Approaching_to_the_flag ② Our_flag  ② Our_flag Avoiding_the_flag Avoiding_the_flag ③ Opp_robot  ③ Opp_robot Avoiding_opp_robot Avoiding_opp_robot ④ None  ④ None Wandering Wandering Defense      Defense ⑤ Opp_flag  ⑤ Opp_flag Waiting  Waiting ⑥ Our_flag  ⑥ Our_flag Blocking Blocking ⑦ Opp_robot  ⑦ Opp_robot Blocking Blocking ⑧ None  ⑧ None Searching Searching

상기 표 2에서와 같이, 외부 상황이 로봇이 상대 깃발을 향해 있으며 로봇이 깃발을 누를 수 없는 상황이고 로봇의 내부 상태가 공격(Offense) 상태인 경우, 상대방 깃발 쪽으로 다가가는 행위(Approaching_to_the_flag)와, 우리 깃발에서 멀어지는 방향으로 이동하는 행위(Avoiding_the_flag)와, 상대 로봇을 피하는 행위(Avoiding_opp_robot)와, 떠돌기 행위(Wandering)를 포함하는 행위집합이 선택되어진다.As shown in Table 2, when the external situation is a situation where the robot is facing the opponent flag, the robot cannot press the flag, and the internal state of the robot is an offense (Offense) state, approaching to the other flag (Approaching_to_the_flag), A set of actions including moving (Avoiding_the_flag) away from our flag, avoiding opponent robot (Avoiding_opp_robot), and wandering (Wandering) are selected.

이때, 상대방 깃발 쪽으로 다가가는 행위(Apporachin_to_the_flag)는 논리적 센서의 출력이 ① 상대 깃발(Opp_flag)인 경우에 대응되고, 우리 깃발에서 멀어지는 방향으로 이동하는 행위(Avoiding_the_flag)는 논리적 센서의 출력이 ② 우리 깃발(Our_flag)인 경우에 대응된다. 또한, 상대 로봇을 피하는 행위(Avoiding_opp_robot)는 논리적 센서의 출력이 ③ 상대 로봇(Opp_robot)인 경우에 대응되고, 떠돌기 행위(Wandering)는 논리적 센서의 출력이 ④ 감지 없음(None)인 경우에 대응된다.At this time, the approach to the other flag (Apporachin_to_the_flag) corresponds to the case where the output of the logical sensor is ① the opponent flag (Opp_flag), and the action to move away from our flag (Avoiding_the_flag) is the output of the logical sensor ② our flag. Corresponds to the case of (Our_flag). In addition, avoiding an opponent robot (Avoiding_opp_robot) corresponds to the case where the output of the logical sensor is ③ opponent robot (Opp_robot), and wandering corresponds to the case where the output of the logical sensor is ④ no detection (None). .

특히, 논리적 센서의 출력이 ④ 감지 없음(None)인 경우에는 로봇이 다리부를 사용한 이동을 하며 목 자유도를 사용하여 떠돌기(Wandering)를 하게 된다.In particular, when the output of the logical sensor is ④ None, the robot moves using the legs and wanders using neck freedom.

한편, 외부 상황이 로봇이 상대 깃발을 향해 있으며 로봇이 깃발을 누를 수 없는 상황이고 로봇의 내부 상태가 수비(Defense) 상태인 경우, 상대방 로봇을 방어하기 위해 현 위치를 고수하는 행위(Waiting)와, 상대 로봇을 방어하는 행위(Blocking)와, 상대 로봇을 방어하는 행위(Blocking)와, 탐색 행위(Searching)를 포함하는 행위집합이 선택되어진다.On the other hand, if the external situation is that the robot is facing the opponent's flag, the robot cannot press the flag, and the internal state of the robot is Defence, the action is to hold the current position to defend the other robot. , A behavior set including blocking the opponent robot, blocking the opponent robot, and searching is selected.

이때, 상대방 로봇을 방어하기 위해 현 위치를 고수하는 행위(Waiting)는 논리적 센서의 출력이 ⑤ 상대 깃발(Opp_flag)인 경우에 대응되고, 상대 로봇을 방어하는 행위(Blocking)는 논리적 센서의 출력이 ⑥ 우리 깃발(Our_flag)인 경우에 대응된다. 또한, 상대 로봇을 방어하는 행위(Blocking)는 논리적 센서의 출력이 ⑦ 상대 로봇(Opp_robot)인 경우에 대응되고, 탐색 행위(Searching)는 논리적 센서의 출력이 ⑧ 감지 없음(None)인 경우에 대응된다.At this time, the act of sticking to the current position to defend the opponent robot corresponds to the case where the output of the logical sensor is ⑤ the opponent flag (Opp_flag), and the act of defending the opponent robot is determined by the output of the logical sensor. ⑥ Corresponds to our flag (Our_flag). In addition, the blocking of the opponent robot corresponds to the case where the output of the logical sensor is ⑦ the opponent robot (Opp_robot), and the searching action corresponds to the case where the output of the logical sensor is ⑧ no detection (None). do.

특히, 논리적 센서의 출력이 ⑧ 감지 없음(None)인 경우에는 로봇이 목 자유도를 사용하여 탐색(Searching)을 하게 된다.In particular, if the output of the logical sensor is ⑧ None, the robot will search using neck freedom.

한편, 하기의 표 3은 외부상황 3인 경우 로봇의 내부 상태에 따라 선택되어지는 행위집합을 나타낸다.On the other hand, Table 3 below shows the behavior set that is selected according to the internal state of the robot in the external situation 3.

외부상황  External situation 내부상태 Internal condition 논리적 센서 출력 Logical sensor output 행위집합 Set of actions 로봇이 우리 깃발을 향해 있으며 로봇이 깃발과 가까운 상황           Robot is facing our flag and robot is near flag Offense      Offense ① Opp_flag  ① Opp_flag Approaching_to_the_flag  Approaching_to_the_flag ② Our_flag  ② Our_flag Avoiding_the_flag Avoiding_the_flag ③ Opp_robot  ③ Opp_robot Avoiding_opp_robot Avoiding_opp_robot ④ None  ④ None Wandering Wandering Defense      Defense ⑤ Opp_flag  ⑤ Opp_flag Waiting  Waiting ⑥ Our_flag  ⑥ Our_flag Blocking Blocking ⑦ Opp_robot  ⑦ Opp_robot Blocking Blocking ⑧ None  ⑧ None Searching Searching

상기 표 3에서와 같이, 외부 상황이 로봇이 우리 깃발을 향해 있으며 로봇이 깃발과 가까운 상황이고 로봇의 내부 상태가 공격(Offense) 상태인 경우, 상대방 깃발 쪽으로 다가가는 행위(Apporachin_to_the_flag)와, 우리 깃발에서 멀어지는 방향으로 이동하는 행위(Avoiding_the_flag)와, 상대 로봇을 피하는 행위(Avoiding_opp_robot)와, 떠돌기 행위(Wandering)를 포함하는 행위집합이 선택되어진다.As shown in Table 3 above, when the external situation is a robot facing our flag, the robot is close to the flag, and the internal state of the robot is an offense, the approach to the other flag (Apporachin_to_the_flag) and our flag A set of actions including moving (Avoiding_the_flag), avoiding an opponent robot (Avoiding_opp_robot), and wandering (Wandering) are selected.

이때, 상대방 깃발 쪽으로 다가가는 행위(Apporachin_to_the_flag)는 논리적 센서의 출력이 ① 상대 깃발(Opp_flag)인 경우에 대응되고, 우리 깃발에서 멀어지는 방향으로 이동하는 행위(Avoiding_the_flag)는 논리적 센서의 출력이 ② 우리 깃발(Our_flag)인 경우에 대응된다. 또한, 상대 로봇을 피하는 행위(Avoiding_opp_robot)는 논리적 센서의 출력이 ③ 상대 로봇(Opp_robot)인 경우에 대응되고, 떠돌기 행위(Wandering)는 논리적 센서의 출력이 ④ 감지 없음(None)인 경우에 대응된다.At this time, the approach to the other flag (Apporachin_to_the_flag) corresponds to the case where the output of the logical sensor is ① the opponent flag (Opp_flag), and the action to move away from our flag (Avoiding_the_flag) is the output of the logical sensor ② our flag. Corresponds to the case of (Our_flag). In addition, avoiding an opponent robot (Avoiding_opp_robot) corresponds to the case where the output of the logical sensor is ③ opponent robot (Opp_robot), and wandering corresponds to the case where the output of the logical sensor is ④ no detection (None). .

특히, 논리적 센서의 출력이 ④ 감지 없음(None)인 경우에는 로봇이 다리부를 사용한 이동을 하며 목 자유도를 사용하여 떠돌기(Wandering)를 하게 된다.In particular, when the output of the logical sensor is ④ None, the robot moves using the legs and wanders using neck freedom.

한편, 로봇이 우리 깃발을 향해 있으며 로봇이 깃발과 가까운 상황이고 로봇의 내부 상태가 수비(Defense) 상태인 경우, 상대방 로봇을 방어하기 위해 현 위치를 고수하는 행위(Waiting)와, 상대 로봇을 방어하는 행위(Blocking)와, 상대 로봇을 방어하는 행위(Blocking)와, 탐색 행위(Searching)를 포함하는 행위집합이 선택되어진다.On the other hand, if the robot is facing our flag, the robot is close to the flag, and the robot's internal state is defense, defending the opponent's current position and defending the opponent robot. A set of actions including blocking, blocking of the opponent robot, and searching is selected.

이때, 상대방 로봇을 방어하기 위해 현 위치를 고수하는 행위(Waiting)는 논리적 센서의 출력이 ⑤ 상대 깃발(Opp_flag)인 경우에 대응되고, 상대 로봇을 방어하는 행위(Blocking)는 논리적 센서의 출력이 ⑥ 우리 깃발(Our_flag)인 경우에 대응된다. 또한, 상대 로봇을 방어하는 행위(Blocking)는 논리적 센서의 출력이 ⑦ 상대 로봇(Opp_robot)인 경우에 대응되고, 탐색 행위(Searching)는 논리적 센서의 출력이 ⑧ 감지 없음(None)인 경우에 대응된다.At this time, the act of sticking to the current position to defend the opponent robot corresponds to the case where the output of the logical sensor is ⑤ the opponent flag (Opp_flag), and the act of defending the opponent robot is determined by the output of the logical sensor. ⑥ Corresponds to our flag (Our_flag). In addition, the blocking of the opponent robot corresponds to the case where the output of the logical sensor is ⑦ the opponent robot (Opp_robot), and the searching action corresponds to the case where the output of the logical sensor is ⑧ no detection (None). do.

특히, 논리적 센서의 출력이 ⑧ 감지 없음(None)인 경우에는 로봇이 목 자유도를 사용하여 탐색(Searching)을 하게 된다.In particular, if the output of the logical sensor is ⑧ None, the robot will search using neck freedom.

한편, 하기의 표 4는 외부상황 4인 경우 로봇의 내부 상태에 따라 선택되어지는 행위집합을 나타낸다.On the other hand, Table 4 below shows the behavior set that is selected according to the internal state of the robot in the case of the external situation 4.

외부상황  External situation 내부상태 Internal condition 논리적 센서 출력 Logical sensor output 행위집합 Set of actions 로봇이 우리 깃발을 향해 있으며 로봇이 깃발과 먼 상황           The robot is facing our flag and the robot is far from the flag. Offense      Offense ① Opp_flag  ① Opp_flag Approaching_to_the_flag  Approaching_to_the_flag ② Our_flag  ② Our_flag Avoiding_the_flag Avoiding_the_flag ③ Opp_robot  ③ Opp_robot Avoiding_opp_robot Avoiding_opp_robot ④ None  ④ None Wandering Wandering Defense      Defense ⑤ Opp_flag  ⑤ Opp_flag Avoiding_the_flag  Avoiding_the_flag ⑥ Our_flag  ⑥ Our_flag Approaching_to_the_flag Approaching_to_the_flag ⑦ Opp_robot  ⑦ Opp_robot Approaching_to_opp_robot Approaching_to_opp_robot ⑧ None  ⑧ None Wandering Wandering

상기 표 4에서와 같이, 외부 상황이 로봇이 우리 깃발을 향해 있으며 로봇이 깃발과 먼 상황이고 로봇의 내부 상태가 공격(Offense) 상태인 경우, 상대방 깃발 쪽으로 다가가는 행위(Apporachin_to_the_flag)와, 우리 깃발에서 멀어지는 방향으로 이동하는 행위(Avoiding_the_flag)와, 상대 로봇을 피하는 행위(Avoiding_opp_robot)와, 떠돌기 행위(Wandering)를 포함하는 행위집합이 선택되어진다.As shown in Table 4, when the external situation is the robot facing our flag, the robot is far from the flag, and the internal state of the robot is Offense, the approaching to the other flag (Apporachin_to_the_flag) and our flag A set of actions including moving (Avoiding_the_flag), avoiding an opponent robot (Avoiding_opp_robot), and wandering (Wandering) are selected.

이때, 상대방 깃발 쪽으로 다가가는 행위(Apporachin_to_the_flag)는 논리적 센서의 출력이 ① 상대 깃발(Opp_flag)인 경우에 대응되고, 우리 깃발에서 멀어지는 방향으로 이동하는 행위(Avoiding_the_flag)는 논리적 센서의 출력이 ② 우리 깃발(Our_flag)인 경우에 대응된다. 또한, 상대 로봇을 피하는 행위(Avoiding_opp_robot)는 논리적 센서의 출력이 ③ 상대 로봇(Opp_robot)인 경우에 대응되고, 떠돌기 행위(Wandering)는 논리적 센서의 출력이 ④ 감지 없음(None)인 경우에 대응된다.At this time, the approach to the other flag (Apporachin_to_the_flag) corresponds to the case where the output of the logical sensor is ① the opponent flag (Opp_flag), and the action to move away from our flag (Avoiding_the_flag) is the output of the logical sensor ② our flag. Corresponds to the case of (Our_flag). In addition, avoiding an opponent robot (Avoiding_opp_robot) corresponds to the case where the output of the logical sensor is ③ opponent robot (Opp_robot), and wandering corresponds to the case where the output of the logical sensor is ④ no detection (None). .

특히, 논리적 센서의 출력이 ④ 감지 없음(None)인 경우에는 로봇이 다리부를 사용한 이동을 하며 목 자유도를 사용하여 떠돌기(Wandering)를 하게 된다.In particular, when the output of the logical sensor is ④ None, the robot moves using the legs and wanders using neck freedom.

한편, 로봇이 우리 깃발을 향해 있으며 로봇이 깃발과 먼 상황이고 로봇의 내부 상태가 수비(Defense) 상태인 경우, 상대방 깃발에서 멀어지는 방향으로 이동하는 행위(Avoiding_the_flag)와, 우리 깃발 쪽으로 다가가는 행위(Approaching_to_the_flag)와, 상대방 로봇 쪽으로 다가가는 행위(Approaching_to_opp_robot)와, 떠돌기 행위(Wandering)를 포함하는 행위집합이 선택되어진다.On the other hand, when the robot is facing our flag, the robot is far from the flag, and the internal state of the robot is defensive, moving away from the opponent's flag (Avoiding_the_flag) and moving towards our flag ( Action set including Approaching_to_the_flag, Approaching_to_opp_robot, and Wandering is selected.

이때, 상대방 깃발을 피하는 행위(Avoiding_the_flag)는 논리적 센서의 출력이 ⑤ 상대 깃발(Opp_flag)인 경우에 대응되고, 우리 깃발 쪽으로 다가가는 행위(Approaching_to_the_flag)는 논리적 센서의 출력이 ⑥ 우리 깃발(Our_flag)인 경우에 대응된다. 또한, 상대방 로봇 쪽으로 다가가는 행위(Approaching_to_opp_robot)는 논리적 센서의 출력이 ⑦ 상대 로봇(Opp_robot)인 경우에 대응되고, 떠돌기 행위(Wandering)는 논리적 센서의 출력이 ⑧ 감지 없음(None)인 경우에 대응된다.At this time, the act of avoiding the counterpart flag (Avoiding_the_flag) corresponds to the case in which the output of the logical sensor is ⑤ the opposing flag (Opp_flag), and the act of approaching toward our flag (Approaching_to_the_flag) is that the output of the logical sensor is ⑥ our flag (Our_flag). Corresponds to the case. Approaching_to_opp_robot also corresponds to the case where the output of the logical sensor is ⑦ Oppp_robot, and wandering corresponds to the case where the output of the logical sensor is ⑧ undetected (None). do.

특히, 논리적 센서의 출력이 ⑧ 감지 없음(None)인 경우에는 로봇이 목 자유도를 사용하여 탐색(Searching)을 하게 된다.In particular, if the output of the logical sensor is ⑧ None, the robot will search using neck freedom.

한편, 논리적 센서의 출력이 상대 깃발(Opp_flag), 우리 깃발(Our_flag), 상대 로봇(Opp_robot)과 같이 다중으로 출력되는 경우에는 이에 따른 각각의 행위들간에 조정이 이루어져야 한다.On the other hand, when the output of the logical sensor is output in multiples such as the opponent flag (Opp_flag), our flag (Our_flag), and the opponent robot (Opp_robot), it is necessary to adjust the respective actions accordingly.

예를 들어, 도 4에서와 같이 외부상황 2에서 로봇 내부 상태가 공격 상태(Offense)인 경우 행위 집합은 깃발에 접근하기(Approaching_to_the_flag), 깃발에서 멀어지기(Avoiding_the_flag), 상대 로봇 피하기(Avoiding_opp_robot), 떠돌기(Wandering)와 같은 4개의 행위로 구성되는데 여기서, 떠돌기(Wandering)가 가장 낮은 우선 순위를 갖게 된다.For example, when the robot internal state is Offense in Offensive 2 as shown in FIG. 4, the behavior set approaches the flag (Approaching_to_the_flag), away from the flag (Avoiding_the_flag), avoids the opponent robot (Avoiding_opp_robot), It consists of four actions, such as Wandering, where Wandering has the lowest priority.

그리고, 떠돌기(Wandering)에 비해 나머지 3개의 행위들은 우선 순위가 높지만, 이들 사이에는 우선 순위에 의한 조정이 아니라 벡터 합에 의한 조정이 이루어지게 된다.And, compared to Wandering, the remaining three actions have a higher priority, but the adjustment is performed by the sum of the vectors, not by the priority.

즉, 깃발에 접근하기 행위(Approaching_to_the_flag)와 상대 로봇 피하기 행위(Avoiding_opp_robot)가 둘 다 선택되어지면 깃발쪽으로 수렴하는 벡터와 상대 로봇에서 발산되는 벡터를 합하여 로봇의 이동 위치와 방향을 결정하게 된다.In other words, when both the approaching approach (Approaching_to_the_flag) and the avoiding approaching robot (Avoiding_opp_robot) are selected, the moving point and direction of the robot are determined by adding the vectors converged to the flag and the vectors emitted from the opponent.

이와 같이 로봇은 기본적으로 외부 상황과 로봇의 내부 상태에 따라 선택되어지는 행위집합에 따른 행위를 수행하게 된다. 필요한 경우 게임기의 외부조정장치(400)에 의해 수동 조정되거나, 별도의 컴퓨터에 의한 자동 조정이 가능하며, 이러한 무선 조정 신호가 무선으로 로봇에게 전송되면 명령을 전송받은 로봇은 전진 보행, 후진 보행, 회전 보행, 대각선 보행, 팔 올리기 등의 동작을 즉각적으로 수행하게 된다.As such, the robot basically performs an action according to an action set selected according to an external situation and an internal state of the robot. If necessary, it can be manually adjusted by the external control device 400 of the game machine, or can be automatically adjusted by a separate computer.When the wireless control signal is transmitted to the robot wirelessly, the robot receiving the command moves forward, backward walking, You will immediately perform rotational walking, diagonal walking, and raising your arms.

특히, 컴퓨터에 의한 자동 조정의 경우에는 로봇의 머리부에 장착된 하나의 칼라 CCD 카메라로부터 촬영된 주변 환경에 대한 영상 신호를 컴퓨터의 신호처리부가 무선으로 전송받아 전송된 영상 신호를 해석하여 로봇을 자동으로 조정하게 된다.In particular, in the case of automatic adjustment by computer, the signal processing unit of the computer wirelessly receives an image signal of the surrounding environment photographed from one color CCD camera mounted on the head of the robot and analyzes the transmitted image signal. It will be adjusted automatically.

이에 따라, 컴퓨터의 무선 명령 신호를 수신한 로봇은 장애물(300)과 상대 로봇(100b)을 피해 가면서 상체부인 팔부를 상대방 깃발(200c,200d)에 근접시키거나 접촉시켜 상대 깃발의 색깔을 아군 색깔의 깃발로 전환시키고, 상대방 플레이어는 이에 대항하여 로봇을 조정하여 깃발 올리기 게임을 수행하게 되며, 정해진 시간이 지난 후 깃발의 색깔 개수에 따라 승패가 결정되어진다.Accordingly, the robot receiving the wireless command signal of the computer moves the obstacle 300 and the opponent robot 100b while approaching or contacting the upper arm with the opponent flags 200c and 200d, thereby making the color of the opponent flag friendly. The player's opponent controls the robot and raises the flag, and after a predetermined time, the game is decided according to the number of colors of the flag.

하기에서는 첨부된 도 5 및 도 6을 참조하여 게임기의 외부 조정 장치 또는 컴퓨터를 이용한 로봇 제어에 관해 보다 구체적으로 설명하기로 한다.Hereinafter, with reference to the accompanying Figures 5 and 6 will be described in more detail with respect to the robot control using a computer or an external control device of the game machine.

도 5는 본 발명의 일실시예에 따른 무선 조정 로봇 깃발 게임기의 시스템 구성을 나타내는 도면이고, 도 6은 도 5의 깃발부의 구조를 나타내는 도면이다.5 is a view showing the system configuration of the radio control robot flag game machine according to an embodiment of the present invention, Figure 6 is a view showing the structure of the flag unit of FIG.

도시된 바와 같이, 본 발명의 무선 조정 로봇 깃발 게임기 시스템은 게임기의 경기장 내에 위치한 로봇부(100)와, 깃발부(200)와, 로봇부(100)를 수동으로 무선 조정하기 위한 외부조정장치(400)와, 로봇부(100)를 자동으로 무선 조정하기 위한 컴퓨터(500)를 포함하여 구성된다. 여기서, 컴퓨터(500)는 무선 조정 로봇 깃발 게임기의 내부에 포함되거나 별도로 구성 가능하다.As shown, the wireless control robot flag game machine system of the present invention is an external control device for manually wirelessly adjusting the robot unit 100, the flag unit 200, and the robot unit 100 located in the playing field of the game machine ( 400 and a computer 500 for automatically wirelessly adjusting the robot unit 100. Here, the computer 500 may be included in the radio controlled robot flag game machine or may be separately configured.

로봇부(100)는 외부조정장치(400)에 의해 수동으로 조정되거나 컴퓨터(500)에 의해 무선으로 조정되는 로봇으로서, 명령 수신부(101)와, 모터 제어부(102)와, 모터 구동부(103)와, 전원부(104)와, 비젼 센서부(105)를 포함하여 구성된다.The robot unit 100 is a robot which is manually adjusted by the external adjusting device 400 or wirelessly controlled by the computer 500, and includes a command receiving unit 101, a motor control unit 102, and a motor driving unit 103. And the power supply unit 104 and the vision sensor unit 105.

명령 수신부(101)는 외부조정장치(400) 또는 컴퓨터(500)로부터 무선으로 전송되는 명령 신호를 수신한다.The command receiving unit 101 receives a command signal transmitted wirelessly from the external adjusting device 400 or the computer 500.

모터 제어부(102)는 명령 수신부(101)로부터 전달되는 명령 신호에 의해 로봇을 제어하기 위한 모터 구동 신호를 출력한다.The motor control unit 102 outputs a motor driving signal for controlling the robot by the command signal transmitted from the command receiving unit 101.

모터 구동부(103)는 모터 제어부(102)로부터 출력되는 모터 구동 신호에 따라 모터를 구동시킨다.The motor driver 103 drives the motor according to the motor drive signal output from the motor controller 102.

전원부(104)는 로봇이 동작하기 위한 전원을 공급한다.The power supply unit 104 supplies power for the robot to operate.

비젼 센서부(105)는 로봇의 머리부에 장착된 하나의 칼라 CCD 카메라로서, 칼라 CCD 카메라로부터 촬영된 주변 환경에 대한 영상 신호를 컴퓨터(500)로 무선 전송하며, 컴퓨터(500)는 전송된 영상 신호를 해석하여 로봇을 자동으로 조정하게 된다.The vision sensor unit 105 is a color CCD camera mounted to the head of the robot, and wirelessly transmits an image signal of the surrounding environment photographed from the color CCD camera to the computer 500, and the computer 500 transmits the The robot is automatically adjusted by analyzing the image signal.

깃발부(200)는 로봇의 근접이나 접촉에 의해 작동되며, 센서부(201)와, 모터 제어부(202)와, 모터 구동부(203)와, 모터(204)와, 깃발 지지부(205)를 포함하여 구성된다.The flag unit 200 is operated by the proximity or contact of the robot, and includes a sensor unit 201, a motor control unit 202, a motor driving unit 203, a motor 204, and a flag support unit 205. It is configured by.

센서부(201)는 로봇 팔의 접촉 또는 근접한 상태를 판별한다. 즉, 로봇 팔의 접촉을 감지할 수 있는 소형의 압력 센서 또는 로봇 팔의 근접 여부를 판별할 수 있는 한 쌍의 적외선 센서가 사용된다.The sensor unit 201 determines a state of contact or proximity of the robot arm. That is, a small pressure sensor capable of detecting the contact of the robot arm or a pair of infrared sensors capable of determining the proximity of the robot arm is used.

모터 제어부(202)는 센서부(201)로부터 로봇 팔의 접촉 또는 근접 감지 신호가 전달되면 모터(204)를 구동시키기 위한 모터구동신호를 출력한다.The motor controller 202 outputs a motor driving signal for driving the motor 204 when a contact or proximity detection signal of the robot arm is transmitted from the sensor unit 201.

모터 구동부(203)는 모터 제어부(202)로부터 출력되는 모터구동신호에 따라 모터(204)를 구동시킨다.The motor driver 203 drives the motor 204 according to the motor drive signal output from the motor controller 202.

깃발 지지부(205)는 모터(204)의 회전축에 부착된 2 개의 깃발 지지 부재(205a,205b)로서, 이러한 깃발 지지 부재(205a,205b)의 끝 부분에는 각기 다른 색깔의 깃발(200a,200c)이 부착되어진다.The flag support 205 is two flag support members 205a and 205b attached to the rotational axis of the motor 204. The flag support members 205a and 205b have different colored flags 200a and 200c at the ends of the flag support members 205a and 205b. Is attached.

즉, 모터 구동부(203)에 의해 모터(204)가 구동되면 모터(204)의 회전축에 부착된 2개의 깃발(200a,200c)이 절환되어지고, 이에 따라 수직 방향의 깃발(200a)은 로봇과 플레이어에게 보이게 되고, 다른 깃발(200c)은 깃발부의 몸체 속으로 들어가 보이지 않게 된다.That is, when the motor 204 is driven by the motor driving unit 203, the two flags 200a and 200c attached to the rotating shaft of the motor 204 are switched, so that the flag 200a in the vertical direction is connected to the robot. Visible to the player, the other flag 200c enters into the body of the flag portion and becomes invisible.

외부조정장치(400)는 플레이어가 로봇을 수동으로 조정하기 위한 장치로서, 플레이어에 의해 입력되는 무선 명령 신호를 로봇에게 전송하며, 특히 플레이어가 외부조정장치(400)를 이용하여 로봇의 내부 상태(공격 상태, 수비 상태)를 설정하게 된다.External control device 400 is a device for the player to manually adjust the robot, and transmits a radio command signal input by the player to the robot, in particular, the player using the external control device 400, the internal state of the robot ( Attack state, defense state).

컴퓨터(500)는 플레이어가 로봇을 자동으로 조정하기 위한 장치로서, 로봇의 머리부에 장착된 하나의 칼라 CCD 카메라로부터 촬영된 주변 환경에 대한 영상 신호를 무선으로 전송받아 전송된 영상 신호를 해석하여 로봇을 자동으로 조정하게 된다.The computer 500 is a device for automatically adjusting a robot by a player. The computer 500 wirelessly receives an image signal of a surrounding environment captured by a color CCD camera mounted on the head of the robot, and analyzes the transmitted image signal. The robot will be adjusted automatically.

즉, 플레이어는 외부조정장치(400) 또는 컴퓨터(500)를 통해서 경기장 내의 로봇을 무선으로 조정하여 상대 로봇을 피하고, 자신의 로봇 팔부를 이용하여 상대 깃발에 접촉 또는 근접하여 상대 깃발을 자신의 깃발로 절환시키거나 자신의 깃발에 접근하는 상대 로봇를 방어하는 방식으로 게임이 진행되며, 일정 시간이 경과한 후에 깃발의 색깔 수에 의해 게임의 승패가 결정되어진다.That is, the player wirelessly controls the robot in the playing field through the external control device 400 or the computer 500 to avoid the opponent robot, and uses the robot arm to contact or approach the opponent flag by using his robot arm. The game progresses by switching to or defending against an opponent robot approaching his flag. After a certain time, the game is decided by the number of colors of the flag.

도 7 및 도 8은 본 발명의 일실시예에 따른 행위기반 로봇 제어방법을 나타내는 도면이다.7 and 8 are diagrams illustrating a behavior-based robot control method according to an embodiment of the present invention.

도시된 바와 같이, 물리적 센서에서 감지된 상대 로봇과 깃발의 위치/방향 정보 및 상대 로봇이나 장애물과의 충돌 위험 정보가 논리적 센서로 전달(S10)되어진다.As shown in the figure, the position / direction information of the opponent robot and the flag detected by the physical sensor and the collision risk information between the opponent robot or the obstacle are transmitted to the logical sensor (S10).

이어서, 논리적 센서에서 물리적 센서로부터 전달된 정보를 확인하여 충돌 위험과 같은 응급 상황이 발생하였는지를 판단(S20)하여 충돌 위험이 발생하지 않은 경우에는 논리적 센서의 출력 정보가 단기 메모리에 저장(S30)된다.Subsequently, the logical sensor checks the information transmitted from the physical sensor to determine whether an emergency situation such as a collision risk has occurred (S20), and when the collision risk does not occur, output information of the logical sensor is stored in the short-term memory (S30). .

이어서, 단기 메모리에 저장된 논리적 센서의 출력 정보에 의해 현재 외부상황을 평가(S40)하고, 평가된 외부상황과 로봇의 내부상태에 따라 n개의 행위집합과 n개의 조정방법 중에서 어느 하나의 행위집합과 조정방법이 선택(S50)되어진다.Subsequently, the current external situation is evaluated based on the output information of the logical sensor stored in the short-term memory (S40), and one of the n action sets and the n adjustment methods is adjusted according to the evaluated external situation and the internal state of the robot. This is selected (S50).

이어서, 선택된 행위집합과 조정방법에 의한 조정 결과에 따라 로봇 경로 데이터가 생성(S60)되고, 생성된 로봇 경로 데이터에 따라 실제 로봇이 구동(S70)되어진다.Subsequently, the robot path data is generated according to the adjustment result by the selected action set and the adjustment method (S60), and the actual robot is driven (S70) according to the generated robot path data.

특히, 상기 평가된 외부상황과 로봇의 내부상태에 따라 n개의 행위집합과 n개의 조정방법 중에서 어느 하나의 행위집합과 조정방법이 선택되는 S50 과정에서, 외부상황은 상술한 바와 같이 "1. 로봇이 상대 깃발을 향해 있으며 로봇이 깃발을 누를 수 있는 상황, 2. 로봇이 상대 깃발을 향해 있으며 로봇이 깃발을 누를 수 없는 상황, 3. 로봇이 우리 깃발을 향해 있으며 로봇이 깃발과 가까운 상황, 4. 로봇이 상대 깃발을 향해 있으며 로봇이 깃발과 먼 상황" 과 같은 4가지 경우의 외부 상황이 존재할 수 있으며, 이러한 4가지 외부상황에서 외부상황 1, 2의 경우에 대해 로봇의 내부상태와 논리적 센서의 출력에 따라 선택되어지는 행위집합에 대해서는 이미 상술하였으므로 구체적인 설명은 생략하기로 한다.In particular, in the process of S50 in which any action set and adjustment method are selected from the n action sets and the n adjustment methods according to the evaluated external situation and the internal state of the robot, the external situation is described as described above. A situation where the robot is facing the flag and the robot can press the flag, 2. the robot is facing the opponent's flag and the robot cannot press the flag, 3. the robot is facing our flag and the robot is close to the flag, 4. the robot There may be four external situations facing the opponent's flag and the robot is far from the flag. In these four external situations, the internal state of the robot and the output of the logical sensor for the external situations 1 and 2 Since the behavior set selected according to the foregoing has been described above, a detailed description thereof will be omitted.

한편, 상기 논리적 센서에서 물리적 센서로부터 전달된 정보를 확인하여 충돌 위험과 같은 응급 상황이 발생하였는지를 판단하는 S20 과정에서, 만약 충돌 위험이 있는 것으로 판단된 경우에는 충돌 위험에 따른 독립적 행위집합과 독립적 조정방법이 선택(S80)되어진다.Meanwhile, in the process of S20 of determining whether an emergency situation such as a collision risk has occurred by checking the information transmitted from the physical sensor in the logical sensor, if it is determined that there is a collision risk, an independent action set according to the collision risk and an independent adjustment method This is selected (S80).

이어서, 선택된 독립적 행위집합과 독립적 조정방법에 의한 조정 결과에 따라 로봇 경로 데이터가 생성(S90)되고, 생성된 로봇 경로 데이터에 따라 실제 로봇이 구동(S100)되어진다.Subsequently, the robot path data is generated according to the selected independent action set and the adjustment result by the independent adjustment method (S90), and the actual robot is driven (S100) according to the generated robot path data.

즉, 로봇의 충돌 위험과 같은 응급 상황의 경우에는 외부상황에 관계 없이 논리적 센서의 출력이 하드웨어 인터럽트와 같은 개념으로 작동함으로써 독립적 행위집합과 독립적 조정방법이 즉각적으로 선택되어 그 조정 결과에 따라 생성되는 로봇 경로 데이터에 의해 실제 로봇이 구동되어지며, 이러한 경우에도 로봇의 내부 상태에 따라 로봇의 행위가 달라질 수 있다.In other words, in case of an emergency such as a robot collision risk, the robot's output is generated according to the result of the adjustment by selecting the independent action set and the independent adjustment method immediately because the output of the logical sensor operates in the same concept as the hardware interrupt regardless of the external situation. The actual robot is driven by the path data, and even in this case, the behavior of the robot may vary according to the internal state of the robot.

이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.As described above, although the present invention has been described by way of limited embodiments and drawings, the present invention is not limited thereto and is intended by those skilled in the art to which the present invention pertains. Of course, various modifications and variations are possible within the scope of equivalents of the claims to be described.

도 1은 본 발명에 따른 행위기반 로봇 제어장치의 구성을 나타내는 도면.1 is a view showing the configuration of the behavior-based robot control apparatus according to the present invention.

도 2는 도 1의 행위기반 로봇 제어장치가 내장된 로봇의 일예를 나타내는 도면.FIG. 2 is a diagram illustrating an example of a robot in which an action-based robot controller of FIG. 1 is embedded.

도 3은 본 발명의 일실시예에 따른 행위기반로봇을 이용한 무선 조정 로봇 깃발 게임기의 사시도.Figure 3 is a perspective view of a radio control robot flag game machine using an action-based robot according to an embodiment of the present invention.

도 4는 본 발명의 일실시예에 따른 행위집합 조정 방법의 일예를 나타내는 도면.4 is a diagram illustrating an example of a behavior set adjusting method according to one embodiment of the present invention;

도 5는 본 발명의 일실시예에 따른 무선 조정 로봇 깃발 게임기의 시스템 구성을 나타내는 도면.5 is a view showing a system configuration of a radio control robot flag game machine according to an embodiment of the present invention.

도 6은 도 5의 깃발부의 구조를 나타내는 도면.6 is a view showing the structure of the flag portion of FIG.

도 7 및 도 8은 본 발명의 일실시예에 따른 행위기반 로봇 제어방법을 나타내는 도면.7 and 8 illustrate a behavior-based robot control method according to an embodiment of the present invention.

Claims (16)

행위기반 로봇 제어장치에 있어서,In the behavior-based robot control device, 환경에 관한 영상정보를 획득하고 상대 로봇이나 장애물의 근접 정도를 감지하기 위한 물리적 센서부와,A physical sensor unit for acquiring image information about the environment and detecting proximity of an opponent robot or an obstacle; 상기 물리적 센서부에 의해 감지된 환경 내 물체의 위치와 방향 및 상대 로봇이나 장애물과의 충돌 위험에 관한 외부상황정보를 출력하는 논리적 센서부와,A logical sensor unit for outputting external situation information regarding the position and direction of objects in the environment sensed by the physical sensor unit and the risk of collision with an opponent robot or an obstacle; 로봇의 내부 상태 정보를 인식하기 위한 내부상태모듈과,An internal state module for recognizing internal state information of the robot, 상기 외부상황정보를 이용하여 현재의 외부상황을 평가하기 위한 외부상황 평가모듈과,An external situation evaluation module for evaluating a current external situation using the external situation information; 상기 외부상황 평가모듈에 의해 평가된 외부상황과 상기 내부상태모듈에 의해 인식된 로봇의 내부상태에 따라 선택된 행위 집합과 조정 방법에 의한 조정 결과 신호를 출력하는 행위집합/조정 모듈과,An action set / coordination module for outputting an adjustment result signal by an action set and an adjustment method selected according to an external situation evaluated by the external situation evaluation module and an internal state of the robot recognized by the internal state module; 상기 논리적 센서부로부터 충돌 위험 신호가 출력되는 경우 선택된 상황 독립적 행위 집합과 상황 독립적 조정 방법에 의한 조정 결과 신호를 출력하는 상황 독립적 행위집합/조정 모듈과,A situation-independent action set / coordination module for outputting an adjustment result signal by a selected situation-independent action set and a situation-independent adjustment method when a collision risk signal is output from the logical sensor unit; 상기 행위집합/조정 모듈 또는 상기 상황 독립적 행위집합/조정 모듈로부터 출력되는 조정 결과 신호에 따라 로봇 경로 데이터를 생성하는 모션 컨트롤러와,A motion controller for generating robot path data according to an adjustment result signal output from the action set / adjustment module or the situation independent action set / adjustment module; 상기 모션 컨트롤러에 의해 생성된 로봇 경로 데이터에 따라 로봇을 구동시키는 액츄에이터를 포함하는 행위기반 로봇 제어장치.And an actuator for driving the robot according to the robot path data generated by the motion controller. 청구항 1에 있어서,The method according to claim 1, 상기 물리적 센서부는,The physical sensor unit, 물리적 형태를 갖는 센서로서, 환경에 관한 영상정보를 획득하기 위한 CCD 카메라 및 상대 로봇이나 장애물의 근접 정도를 감지하기 위한 적외선 센서를 포함하는 것을 특징으로 하는 행위기반 로봇 제어장치.A sensor having a physical form, comprising: a CCD camera for acquiring image information about an environment, and an infrared sensor for detecting a proximity of an opponent robot or an obstacle. 청구항 1에 있어서,The method according to claim 1, 상기 논리적 센서부는,The logical sensor unit, 상기 물리적 센서부를 기반으로 하는 가상의 센서로서, 환경 내 물체의 위치 및 방향을 감지하기 위한 타겟 감지 센서와, 상대 로봇이나 장애물과의 충돌 위험을 감지하기 위한 충돌 감지 센서를 포함하는 것을 특징으로 하는 행위기반 로봇 제어장치.A virtual sensor based on the physical sensor unit, comprising: a target detection sensor for detecting a position and a direction of an object in an environment, and a collision detection sensor for detecting a collision risk with an opponent robot or an obstacle. Behavior Based Robot Control. 청구항 1에 있어서,The method according to claim 1, 상기 내부상태모듈의 내부 상태는 사용자에 의해 설정되는 것을 특징으로 하는 행위기반 로봇 제어장치.Behavior-based robot control apparatus, characterized in that the internal state of the internal state module is set by the user. 청구항 1에 있어서,The method according to claim 1, 상기 논리적 센서부로부터 출력되는 외부상황정보를 저장하기 위한 단기 메모리를 더 포함하는 것을 특징으로 하는 행위기반 로봇 제어장치.And a short-term memory for storing external situation information output from the logical sensor unit. 청구항 5에 있어서,The method according to claim 5, 상기 내부상태모듈의 내부 상태는 상기 단기 메모리로부터 추출되는 정보에 따라 변경되는 것을 특징으로 하는 행위기반 로봇 제어장치.And an internal state of the internal state module is changed according to the information extracted from the short-term memory. 청구항 1에 있어서,The method according to claim 1, 상기 상황 독립적 행위집합/조정 모듈로부터 출력되는 조정 결과 신호는 상기 내부상태모듈로부터 전달되는 로봇의 내부상태 정보에 따라 변경되는 것을 특징으로 하는 행위기반 로봇 제어장치.And an adjustment result signal output from the situation independent action set / adjustment module is changed according to the internal state information of the robot transmitted from the internal state module. 행위기반 로봇 제어방법으로서,As a behavior-based robot control method, (a) 환경 내 물체의 위치와 방향 및 상대 로봇이나 장애물과의 충돌 위험 여 부에 관한 외부상황정보가 센서부로부터 출력되는 단계;(a) outputting external situation information on the position and direction of an object in the environment and on the risk of collision with an opponent robot or an obstacle from the sensor unit; (b) 외부상황 평가모듈에 의해 상기 외부상황정보를 통해 현재의 외부상황이 평가되는 단계;(b) evaluating a current external situation through the external situation information by an external situation evaluation module; (c) 내부상태모듈에 의해 로봇의 내부상태가 인식되는 단계;(c) recognizing the internal state of the robot by the internal state module; (d) 상기 평가된 외부상황과 로봇의 내부상태에 따라 선택된 행위 집합과 조정 방법에 의한 조정 결과 신호가 출력되는 단계;(d) outputting an adjustment result signal by an action set and an adjustment method selected according to the evaluated external situation and the internal state of the robot; (e) 상기 출력되는 조정 결과 신호에 따라 로봇 경로 데이터가 생성되고, 상기 생성된 로봇 경로 데이터에 의해 로봇이 구동되는 단계를 포함하는 행위기반 로봇 제어방법.(e) robot path data is generated according to the output adjustment result signal, and the robot is driven by the generated robot path data. 청구항 8에 있어서,The method according to claim 8, 상기 단계 (a)는,Step (a) is, 물리적 센서에 의해 환경에 관한 영상정보가 획득되고 상대 로봇이나 장애물의 근접 정도가 감지되는 단계와, 논리적 센서에 의해 환경 내 물체의 위치와 방향 및 상대 로봇이나 장애물과의 충돌 위험에 관한 외부상황정보가 출력되는 단계를 포함하는 것을 특징으로 하는 행위기반 로봇 제어방법.Image information about the environment is acquired by the physical sensor and the proximity of the opponent robot or obstacle is detected, and external situation information about the location and direction of objects in the environment and the risk of collision with the opponent robot or obstacle by the logical sensor. Behavior-based robot control method comprising the step of outputting. 청구항 9에 있어서,The method according to claim 9, (f) 상기 논리적 센서로부터 충돌 위험 신호가 출력되는 경우 선택된 상황 독립적 행위 집합과 상황 독립적 조정 방법에 의한 조정 결과 신호가 출력되는 단계를 더 포함하는 것을 특징으로 하는 행위기반 로봇 제어방법.and (f) outputting an adjustment result signal based on the selected situation independent action set and the situation independent adjustment method when the collision danger signal is output from the logical sensor. 청구항 10에 있어서,The method according to claim 10, 상기 단계 (f)에서 출력되는 조정 결과 신호는 상기 내부상태모듈로부터 전달되는 로봇의 내부상태 정보에 따라 변경되는 것을 특징으로 하는 행위기반 로봇 제어방법.Adjusting result signal output in the step (f) is behavior-based robot control method characterized in that it is changed according to the internal state information of the robot transmitted from the internal state module. 청구항 10에 있어서,The method according to claim 10, (g) 상기 단계 (f)에서 출력되는 조정 결과 신호에 따라 로봇 경로 데이터가 생성되고, 상기 생성된 로봇 경로 데이터에 의해 로봇이 구동되는 단계를 더 포함하는 것을 특징으로 하는 행위기반 로봇 제어방법.(g) robot path data is generated according to the adjustment result signal output in step (f), and the robot-based behavior control method further comprises the step of driving the robot by the generated robot path data. 청구항 8에 있어서,The method according to claim 8, 상기 단계 (c)에서,In step (c), 상기 내부상태모듈의 내부상태는 사용자에 의해 설정되는 것을 특징으로 하 는 행위기반 로봇 제어방법.The internal state of the internal state module is a behavior-based robot control method, characterized in that set by the user. 청구항 8에 있어서,The method according to claim 8, 상기 단계 (a)에서 출력되는 외부상황정보는 단기 메모리에 저장되는 것을 특징으로 하는 행위기반 로봇 제어방법.External situation information output in the step (a) is stored in a short-term memory behavior-based robot control method. 청구항 14에 있어서,The method according to claim 14, 상기 단계 (c)에서,In step (c), 상기 내부상태모듈의 내부상태는 상기 단기 메모리로부터 추출되는 정보에 따라 변경되는 것을 특징으로 하는 행위기반 로봇 제어방법.And an internal state of the internal state module is changed according to information extracted from the short-term memory. 청구항 8에 있어서,The method according to claim 8, 상기 단계 (d)에서 출력되는 조정 결과 신호는 선택된 행위 집합의 벡터합에 의한 조정 결과 신호인 것을 특징으로 하는 행위기반 로봇 제어방법.The adjustment result signal output in the step (d) is a behavior-based robot control method, characterized in that the adjustment result signal by the vector sum of the selected behavior set.
KR1020070133429A 2007-12-18 2007-12-18 Situation dependent behavior based robot control appartus and method KR101402908B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070133429A KR101402908B1 (en) 2007-12-18 2007-12-18 Situation dependent behavior based robot control appartus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070133429A KR101402908B1 (en) 2007-12-18 2007-12-18 Situation dependent behavior based robot control appartus and method

Publications (2)

Publication Number Publication Date
KR20090065890A true KR20090065890A (en) 2009-06-23
KR101402908B1 KR101402908B1 (en) 2014-06-02

Family

ID=40994085

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070133429A KR101402908B1 (en) 2007-12-18 2007-12-18 Situation dependent behavior based robot control appartus and method

Country Status (1)

Country Link
KR (1) KR101402908B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190036402A (en) * 2017-09-27 2019-04-04 주식회사 토룩 Robot controll system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170071443A (en) * 2015-12-15 2017-06-23 성균관대학교산학협력단 Behavior-based distributed control system and method of multi-robot

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE527086T1 (en) * 2002-12-10 2011-10-15 Honda Motor Co Ltd CONTROL DEVICE, CONTROL METHOD AND CONTROL PROGRAM FOR A ROBOT
JP2004283958A (en) 2003-03-20 2004-10-14 Sony Corp Robot device, method of controlling its behavior and program thereof
KR20060072597A (en) * 2004-12-23 2006-06-28 한국전자통신연구원 Variable priority-based robot control apparatus and method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190036402A (en) * 2017-09-27 2019-04-04 주식회사 토룩 Robot controll system

Also Published As

Publication number Publication date
KR101402908B1 (en) 2014-06-02

Similar Documents

Publication Publication Date Title
JP5186723B2 (en) Communication robot system and communication robot gaze control method
JP2007118129A (en) Communication robot and caution control system using the same
KR20170027704A (en) Humanoid robot with an autonomous life capability
JP2008149399A (en) Mobile robot and travel speed estimating method
US11331805B2 (en) Motion restriction system and method
CN111527461A (en) Information processing apparatus, information processing method, and program
JP4517086B2 (en) Communication robot system and robot controller
JP2015066624A (en) Robot control system, robot control program, and explanation robot
JP4399603B2 (en) Communication robot
JP2024009862A (en) Information processing apparatus, information processing method, and program
US20200269421A1 (en) Information processing device, information processing method, and program
JP4617428B2 (en) Motion generation system
US11029753B2 (en) Human computer interaction system and human computer interaction method
CN106325306A (en) Camera assembly device of robot and photographing and tracking method of camera assembly device
US20210339159A1 (en) Toy system, casing, separate toy, separate toy assessment method, and program
US20190366554A1 (en) Robot interaction system and method
KR20090065890A (en) Situation dependent behavior based robot control appartus and method
JP2005238382A (en) Communication robot
JP2007156689A (en) Light source position detection device and face recognition device using the same and self-propelled robot
US20230195401A1 (en) Information processing apparatus and information processing method
JP7238796B2 (en) ANIMAL-TYPE AUTONOMOUS MOBILE BODY, OPERATION METHOD OF ANIMAL-TYPE AUTONOMOUS MOBILE BODY, AND PROGRAM
KR20090065879A (en) Flag game system and method using situation dependent behavior based robot
JP2007069303A (en) Communication robot
JP7374581B2 (en) Robot, image processing method and program
JP2019118993A (en) Robot, self-diagnostic program and self-diagnostic method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170504

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180503

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190502

Year of fee payment: 6