KR20090065890A - Situation dependent behavior based robot control appartus and method - Google Patents
Situation dependent behavior based robot control appartus and method Download PDFInfo
- Publication number
- KR20090065890A KR20090065890A KR1020070133429A KR20070133429A KR20090065890A KR 20090065890 A KR20090065890 A KR 20090065890A KR 1020070133429 A KR1020070133429 A KR 1020070133429A KR 20070133429 A KR20070133429 A KR 20070133429A KR 20090065890 A KR20090065890 A KR 20090065890A
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- flag
- internal state
- behavior
- module
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 230000001419 dependent effect Effects 0.000 title description 3
- 238000011156 evaluation Methods 0.000 claims abstract description 7
- 230000009471 action Effects 0.000 claims description 61
- 230000006399 behavior Effects 0.000 claims description 54
- 238000001514 detection method Methods 0.000 claims description 11
- 230000006403 short-term memory Effects 0.000 claims description 11
- 239000013598 vector Substances 0.000 claims description 4
- 230000000903 blocking effect Effects 0.000 description 10
- 238000013459 approach Methods 0.000 description 7
- 230000007123 defense Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 239000003086 colorant Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 241000238631 Hexapoda Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
Abstract
Description
본 발명은 행위기반 로봇 제어장치 및 그 제어방법에 관한 것이다.The present invention relates to an action-based robot control apparatus and a control method thereof.
전통적인 이동로봇 기술은 환경에 대한 모델에 의존하고 있다. 이러한 방식은 사용자가 로봇에게 미리 로봇이 활동할 원격지에 대한 지도(모델)를 주고, 로봇은 센서를 이용하여 주변상황에 대한 정보를 입수한 후 이 정보를 미리 받아두었던 지도와 비교하여 로봇 자신의 현재 위치를 파악하고, 이를 기초로 하여 복잡한 행동 계획을 세운 뒤 행동하는 방식이다.Traditional mobile robot technology relies on a model of the environment. In this method, the user gives the robot a map (model) of the remote location where the robot will operate in advance, and the robot obtains information on the surrounding situation using a sensor and compares it with the map that has received the information in advance. It's a way of knowing where you are, building a complex action plan, and then acting on it.
그러나, 이러한 방식은 옛날의 지도를 가지고 세월이 흘러 변모된 지역에서 길을 찾는 것과 같다. 즉, 현실적으로 사용자가 원격지의 환경에 대한 정보를 미리 알기가 어렵고, 미리 알 수 있는 상황이라 하더라도 원격지에서 이동하는 물체가 많다던가, 환경이 자주 변화하는 지역이라던가 하는 경우에는 미리 알고 있던 정보에 근거하여 로봇을 제어하는 것, 그리고 시간이 많이 걸리는 복잡한 계획을 세운 뒤 로봇이 행동을 수행하는 것은 현실성이 없다. 따라서, 이와 같이 기존의 모델기반 로봇제어는 현실적인 문제를 해결하는데 많은 한계가 있다.However, this method is like finding a path in a transformed area with the old maps. That is, in reality, it is difficult for the user to know the information about the remote environment in advance, and even if the situation can be known in advance, if there are many objects moving from the remote place, or the area where the environment changes frequently, based on the previously known information. It is not practical to control the robot and to carry out the action after a complicated and time-consuming plan. Thus, the existing model-based robot control has many limitations in solving the realistic problem.
따라서, 이러한 기존의 모델기반 로봇 제어의 한계를 극복하기 위해서는 곤충 등과 같은 생명체에 대한 관찰에서부터 비롯된 행위기반 로봇제어가 필요하다.Therefore, in order to overcome the limitations of the existing model-based robot control, behavior-based robot control that originates from observation of living things such as insects is required.
본 발명은 상기와 같은 문제점을 해결하기 위해 창안된 것으로서, 로봇이 처한 상황(situation)에 따라 행위(behavior)가 달라지는 행위 기반 제어 구조(situation-dependent behavior-based control architecture)를 갖는 행위기반 로봇 제어장치 및 그 제어방법을 제공하는데 그 목적이 있다.The present invention was devised to solve the above problems, and has a behavior-based robot control having a behavior-dependent behavior-based control architecture whose behavior varies according to the situation of the robot. It is an object of the present invention to provide an apparatus and a control method thereof.
상기한 목적을 달성하기 위한 본 발명에 따른 행위기반 로봇 제어장치의 일 측면에 따르면, 환경에 관한 영상정보를 획득하고 상대 로봇이나 장애물의 근접 정도를 감지하기 위한 물리적 센서부와, 상기 물리적 센서부에 의해 감지된 환경 내 물체의 위치와 방향 및 상대 로봇이나 장애물과의 충돌 위험에 관한 외부상황정보를 출력하는 논리적 센서부와, 로봇의 내부 상태 정보를 인식하기 위한 내부상태모듈과, 상기 외부상황정보를 이용하여 현재의 외부상황을 평가하기 위한 외부상황 평가모듈과, 상기 외부상황 평가모듈에 의해 평가된 외부상황과 상기 내부상태모듈에 의해 인식된 로봇의 내부상태에 따라 선택된 행위 집합과 조정 방법에 의한 조정 결과 신호를 출력하는 행위집합/조정 모듈과, 상기 논리적 센서부로부터 충돌 위험 신호가 출력되는 경우 선택된 상황 독립적 행위 집합과 상황 독립적 조정 방법에 의한 조정 결과 신호를 출력하는 상황 독립적 행위집합/조정 모듈과, 상기 행위집합/조정 모듈 또는 상기 상황 독립적 행위집합/조정 모듈로부터 출력되는 조정 결과 신호에 따라 로봇 경로 데이터를 생성하는 모션 컨트롤러와, 상기 모션 컨트롤러에 의해 생성된 로봇 경로 데이터에 따라 로봇을 구동시키는 액츄에이터를 포함한다.According to an aspect of the behavior-based robot control apparatus according to the present invention for achieving the above object, a physical sensor unit for obtaining the image information about the environment and to detect the proximity of the opponent robot or obstacle, and the physical sensor unit Logical sensor unit for outputting the external situation information about the position and direction of the object in the environment and the risk of collision with the opponent robot or obstacle, an internal state module for recognizing the internal state information of the robot, and the external situation An external situation evaluation module for evaluating a current external situation using information, and an action set and adjustment method selected according to an external situation evaluated by the external situation evaluation module and an internal state of the robot recognized by the internal state module. An action set / adjustment module for outputting a coordination result signal and a collision risk signal from the logical sensor unit Is a situation independent action set / coordination module for outputting an adjustment result signal by the selected situation independent action set and the situation independent coordination method, and the adjustment result signal output from the action set / coordination module or the situation independent action set / coordination module. And a motion controller for generating robot path data, and an actuator for driving the robot according to the robot path data generated by the motion controller.
상기한 목적을 달성하기 위한 본 발명에 따른 행위기반 로봇 제어방법의 일 측면에 따르면, (a) 환경 내 물체의 위치와 방향 및 상대 로봇이나 장애물과의 충돌 위험 여부에 관한 외부상황정보가 센서부로부터 출력되는 단계; (b) 외부상황 평가모듈에 의해 상기 외부상황정보를 통해 현재의 외부상황이 평가되는 단계; (c) 내부상태모듈에 의해 로봇의 내부상태가 인식되는 단계; (d) 상기 평가된 외부상황과 로봇의 내부상태에 따라 선택된 행위 집합과 조정 방법에 의한 조정 결과 신호가 출력되는 단계; (e) 상기 출력되는 조정 결과 신호에 따라 로봇 경로 데이터가 생성되고, 상기 생성된 로봇 경로 데이터에 의해 로봇이 구동되는 단계를 포함한다.According to one aspect of the behavior-based robot control method according to the present invention for achieving the above object, (a) the external information on the position and direction of the object in the environment and whether or not the risk of collision with the opponent robot or obstacle, the sensor unit Outputting from; (b) evaluating a current external situation through the external situation information by an external situation evaluation module; (c) recognizing the internal state of the robot by the internal state module; (d) outputting an adjustment result signal by an action set and an adjustment method selected according to the evaluated external situation and the internal state of the robot; (e) robot path data is generated according to the output adjustment result signal, and the robot is driven by the generated robot path data.
본 발명에 의하면, 로봇이 처한 상황(situation)에 따라 행위(behavior)가 달라지는 행위 기반 제어 구조(situation-dependent behavior-based control architecture)를 갖는 행위기반 로봇 제어장치 및 그 제어방법을 제공함으로써, 종래와 같이 주변 환경에 대한 지도 정보가 필요 없게 되며, 복잡하고 시간이 많이 걸리는 행동 계획이 필요 없으므로 환경이 변화하였거나 순간순간 동적(dynamic)으 로 바뀌는 환경에 매우 효율적으로 적용될 수 있으며, 로봇의 자율 운동성을 높일 수 있는 효과가 있다.According to the present invention, there is provided a behavior-based robot control apparatus having a behavior-dependent behavior-based control architecture in which a behavior varies according to a situation in which the robot is located, and a control method thereof. As there is no need for map information about the surrounding environment, and no complicated and time-consuming action plan is required, it can be applied very efficiently to the environment where the environment changes or changes from moment to dynamic. There is an effect to increase.
이하 첨부된 도면을 참조로 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Prior to this, terms or words used in the specification and claims should not be construed as having a conventional or dictionary meaning, and the inventors should properly explain the concept of terms in order to best explain their own invention. Based on the principle that can be defined, it should be interpreted as meaning and concept corresponding to the technical idea of the present invention. Therefore, the embodiments described in the specification and the drawings shown in the drawings are only the most preferred embodiment of the present invention and do not represent all of the technical idea of the present invention, various modifications that can be replaced at the time of the present application It should be understood that there may be equivalents and variations.
도 1은 본 발명에 따른 행위기반 로봇 제어장치의 구성을 나타내는 도면으로서, 이러한 행위기반 로봇 제어장치는 하기에서 설명될 로봇에 내장되어 로봇이 자율적인 행위를 할 수 있도록 한다.1 is a view showing the configuration of the behavior-based robot control apparatus according to the present invention, such a behavior-based robot control device is embedded in the robot to be described below to enable the robot to perform autonomous behavior.
도 1에 도시된 바와 같이, 본 발명의 행위기반 로봇 제어장치는 물리적 센서(Physical sensors)(10)와, 논리적 센서(logical sensors)(20)와, 단기 메모리(Short term memory)(30)와, 내부 상태(internal states) 모듈(40)과, 외부 상황 평가 모듈(external situation assessor)(50)과, 행위집합/조정 모듈(60)과, 독립적 행위집합/조정 모듈(70)과, 모션 컨트롤러(Motion controller)(80)와, 액츄에이터(Actuators)(90)를 포함하여 구성된다.As shown in FIG. 1, the behavior-based robot controller of the present invention includes
물리적 센서(Physical sensors)(10)는 실제 물리적인 형태를 가지고 있는 센서로서, 예를 들어 환경내의 물체들에 관한 영상정보를 획득하기 위한 1개의 칼라 CCD 카메라 및 상대 로봇이나 장애물과의 근접 정도를 감지하기 위한 2개의 적외선 센서 등이 사용될 수 있다.
논리적 센서(Logical sensors)(20)는 물리적 센서(10)에 기반을 둔 개념적인 센서로서, 타겟 감지 센서와 충돌 감지 센서 등이 사용된다. 이러한 논리적 센서(20)의 출력 정보는 감지된 물체들의 위치와 방향 정보와 상대 로봇이나 장애물과의 충돌 위험 감지 정보가 포함되는 외부상황정보이다.The
단기 메모리(Short term memory)(30)는 논리적 센서(Logical sensors)(20)로부터 출력되는 외부상황정보를 저장한다.The
내부 상태(internal states) 모듈(40)은 로봇의 내부 상태(internal states)를 저장한다. 여기서, 내부 상태는 사용자에 의해 설정될 수도 있고, 단기 메모리(Short term memory)(30)로부터 추출되는 정보에 따라 변경될 수도 있다.
또한, 외부 환경에 의해서 로봇 내부의 상태가 변경되는 것은 날씨의 변화에 따라 사람의 기분이 바뀔 수 있는 것과 같이 로봇의 퍼스낼러티(personality)를 구현할 수도 있다.In addition, the change of the state inside the robot by the external environment may implement the personality of the robot as the mood of the person may change according to the change of the weather.
외부상황 평가모듈(external situation assessor)(50)은 단기 메모리(short- term memory)(30)에 저장되어 있는 데이터들을 사용하여 현재 외부 상황에 대한 평가를 수행한다. 이러한 평가에는 현재의 데이터들과 더불어 한 스텝 전의 데이터들도 사용된다. 여기서, 외부 상황(external situation)은 로봇 자신을 포함한 주변 환경이 어떠한 가에 따라 달라진다.The
행위집합/조정 모듈(60)은 n개의 행위 집합(behaviors sets)과 n개의 조정(coordinations) 방법으로 이루어지며, 내부 상태 모듈(40)에 저장된 로봇의 내부 상태(internal states)와 외부상황 평가모듈(50)에 의해 평가된 외부 상황(external situation)에 따라 n개의 행위 집합(behaviors sets)과 n개의 조정(coordinations) 방법 중에서 어느 하나의 행위 집합과 조정 방법이 선택되어진다. 예를 들어, 행위 집합(behaviors set) i가 선택되면 이에 따른 조정(coordination) i 가 자동으로 선택되어지고, 그 조정 결과가 모션 컨트롤러(motion controller)(80)로 전달된다.The behavior set /
즉, 논리적 센서의 출력이 같을지라도 로봇의 내부 상태나 외부 상황에 따라서 로봇의 행위(behaviors)가 달라질 수 있다. 이와 같은 설정은 외부세계를 감지할 수 있는 능력이 같은 두 로봇이 있는 경우, 한 로봇이 다른 로봇보다 더욱 지능적이고 적응력 있는 임무를 수행할 수 있도록 한다.That is, even if the output of the logical sensor is the same, the behaviors of the robot may vary according to the internal state or the external situation of the robot. This setup allows one robot to perform a more intelligent and adaptive task than the other, when there are two robots with the same ability to sense the outside world.
독립적 행위집합/조정 모듈(70)은 로봇의 충돌 위험과 같은 응급 상황에 특정 행위가 수행되어야 하는 경우 독립적 행위집합(situation independent behavior set)과 독립적 조정 방법(situation independent coordination)이 선택되어 그 조정 결과가 모션 컨트롤러(motion controller)(80)로 전달된다.The independent behavior set /
즉, 논리적 센서(logical sensors)(20)로부터 로봇의 충돌 위험 정보가 출력되는 경우, 외부 상황에 관계 없이 독립적 행위집합/조정 모듈(70)의 독립적 행위집합(situation independent behavior set)과 독립적 조정 방법(situation independent coordination)이 즉각적으로 선택되어 그 조정 결과가 모션 컨트롤러(motion controller)(80)로 전달된다. 이러한 경우에도 로봇의 내부 상태에 따라 로봇의 행위가 달라질 수 있다.That is, when collision risk information of the robot is output from
특히, 이러한 응급 상황의 경우 논리적 센서(logical sensors)(20)의 출력은 하드웨어 인터럽트와 같은 개념으로 작동하게 되는데, 이러한 응급 상황의 예로는 인명 구조 로봇이 작업을 수행하다가 구조 대상인 사람의 신변에 상당한 위험이 있음을 감지한 경우 평상시의 구조 행위와 다른 긴급한 응급 행위를 수행한다거나, 다수의 정찰 로봇중 하나가 폭발 직전의 폭발물을 감지한 경우가 있을 수 있다.In particular, in the case of such an emergency, the output of the
모션 컨트롤러(motion controller)(80)는 행위집합/조정 모듈(60) 또는 독립적 행위집합/조정 모듈(70)로부터 전달되는 조정 결과 정보에 따라 로봇 경로 데이터를 생성한다.The
액츄에이터(actuators)(90)는 모션 컨트롤러(motion controller)(80)에 의해 생성된 로봇 경로 데이터에 따라 실제 로봇을 구동시키게 된다.The
도 2는 도 1의 행위기반 로봇 제어장치가 내장된 로봇의 일예를 나타내는 도면이다.FIG. 2 is a diagram illustrating an example of a robot in which the behavior-based robot control apparatus of FIG. 1 is embedded.
도 2에 도시된 바와 같이, 본 발명의 행위기반 로봇 제어장치가 내장된 로 봇(100)은 크게 상체부와 하체부로 이루어지며, 상체부와 하체부가 별도로 동작 가능한 구조를 갖는다. 특히, 로봇의 머리부에 물리적 센서인 칼라 CCD 카메라(105)가 장착되어 주변 환경을 촬영하게 된다.As shown in FIG. 2, the
또한, 로봇의 내부에 외부로부터 전송되는 무선 명령 신호를 수신할 수 있는 명령 수신부를 내장하고, 물리적 센서와 액츄에이터를 제외한 나머지 제어관련모듈이 외부에 존재하여 로봇이 제어관련모듈의 명령 신호에 따른 행위를 즉각적으로 수행할 수 있도록 구성될 수 있다. 이에 대해서는 하기에서 보다 구체적으로 설명하기로 한다.In addition, a built-in command receiver for receiving a wireless command signal transmitted from the outside inside the robot, and the remaining control-related modules other than the physical sensor and the actuator is external to the robot according to the command signal of the control-related module Can be configured to perform immediately. This will be described in more detail below.
도 3은 본 발명의 일실시예에 따른 행위기반로봇을 이용한 무선 조정 로봇 깃발 게임기의 사시도이고, 도 4는 본 발명의 일실시예에 따른 행위집합 조정 방법의 일예를 나타내는 도면으로서, 게임기 내의 경기장에는 2대의 로봇과 4개의 깃발이 존재하며, 아군 깃발의 색깔은 파란색, 상대 깃발의 색깔은 빨간색으로 구분한다.3 is a perspective view of a wirelessly controlled robot flag game machine using an action-based robot according to an embodiment of the present invention, and FIG. 4 is a view showing an example of a behavior set adjustment method according to an embodiment of the present invention. There are two robots and four flags, and allied flags are colored blue and opponents are colored red.
도 3에 도시된 바와 같이, 본 발명의 일실시예에 따른 무선 조정 로봇 깃발 게임기는 아군 로봇(100a), 상대 로봇(100b)과, 아군 깃발(200a,200b), 상대 깃발(200c,200d)과, 아군 로봇(100a)과 상대 로봇(100b) 사이의 공간에 존재하는 다수개의 장애물(300) 및 상기 아군 로봇(100a)과 상대 로봇(100b) 각각을 무선으로 조정하기 위한 외부조정장치(400)를 포함하여 구성된다.As shown in FIG. 3, the wirelessly controlled robot flag game machine according to an embodiment of the present invention may be a
먼저, 하기와 같이 로봇 자신과 주변 환경 사이의 관계 변화에 따라 결정되 는 4가지 경우의 외부 상황이 존재하는 경우 선택되어지는 행위집합의 일예에 대해 설명하기로 한다.First, an example of an action set that is selected when four external situations exist according to a change in the relationship between the robot itself and the surrounding environment will be described.
즉, "1. 로봇이 상대 깃발을 향해 있으며 로봇이 깃발을 누를 수 있는 상황, 2. 로봇이 상대 깃발을 향해 있으며 로봇이 깃발을 누를 수 없는 상황, 3. 로봇이 우리 깃발을 향해 있으며 로봇이 깃발과 가까운 상황, 4. 로봇이 우리 깃발을 향해 있으며 로봇이 깃발과 먼 상황" 과 같은 4가지 외부 상황 및 로봇의 내부 상태에 따라 선택되어지는 행위집합에 대해 보다 구체적으로 설명하기로 한다. 여기서, 로봇의 내부 상태는 플레이어에 의해 공격 상태 또는 수비 상태로 설정되어지며, 이러한 내부 상태는 단기 메모리(short term memory)로부터 추출되는 정보에 따라 변경될 수도 있다.That is, "1. The robot is facing the opponent's flag and the robot can press the flag, 2. The robot is facing the opponent's flag, the robot can't press the flag, 3. The robot is facing our flag and the robot The situation close to the flag, 4. The robot is facing our flag and the robot is far from the flag. Four sets of external situations and the behavior set selected by the robot's internal state will be described in more detail. Here, the internal state of the robot is set to an attack state or a defensive state by the player, and this internal state may be changed according to information extracted from the short term memory.
하기의 표 1은 외부상황 1인 경우 로봇의 내부 상태와는 무관하게 선택되어지는 행위집합을 나타낸다.Table 1 below shows an action set that is selected regardless of the internal state of the robot in the
상기 표 1에서와 같이, 외부 상황이 로봇이 상대 깃발을 향해 있으며 로봇이 깃발을 누를 수 있는 상황이고 로봇의 내부 상태와 무관(Don't care)한 경우, 상대 깃발 누르기 행위(Touch_the_flag)와, 우리 깃발에서 멀어지는 방향으로 이동하는 행위(Avoiding_the_flag)와, 상대 로봇을 피하는 행위(Avoiding_opp_robot)와, 탐색 행위(Searching)를 포함하는 행위집합이 선택되어진다.As shown in Table 1, when the external situation is a situation where the robot is facing the opponent flag and the robot can press the flag and is not related to the internal state of the robot (Don't care), the action of pressing the opponent flag (Touch_the_flag), A set of actions including moving (Avoiding_the_flag) away from our flag, avoiding opponent robot (Avoiding_opp_robot), and searching (Searching) is selected.
이때, 상대 깃발 누르기 행위(Touch_the_flag)는 논리적 센서의 출력이 ① 상대 깃발(Opp_flag)인 경우에 대응되고, 우리 깃발에서 멀어지는 방향으로 이동하는 행위(Avoiding_the_flag)는 논리적 센서의 출력이 ② 우리 깃발(Our_flag)인 경우에 대응된다. 또한, 상대 로봇을 피하는 행위(Avoiding_opp_robot)는 논리적 센서의 출력이 ③ 상대 로봇(Opp_robot)인 경우에 대응되고, 탐색 행위(Searching)는 논리적 센서의 출력이 ④ 감지 없음(None)인 경우에 대응된다.At this time, the action of pressing the relative flag (Touch_the_flag) corresponds to the case where the output of the logical sensor is ① the relative flag (Opp_flag), and the action of moving away from our flag (Avoiding_the_flag) is the output of the
특히, 논리적 센서의 출력이 ④ 감지 없음(None)인 경우에는 상대 깃발 근처이므로 로봇이 이동을 하지 않고 목 자유도만을 사용하여 탐색(Searching)을 하게 된다.In particular, when the output of the logical sensor is ④ None, the robot is near the relative flag, so the robot does not move and searches using only neck degrees of freedom.
한편, 하기의 표 2는 외부상황 2인 경우 로봇의 내부 상태에 따라 선택되어지는 행위집합을 나타낸다.On the other hand, Table 2 below shows the behavior set that is selected according to the internal state of the robot in the
상기 표 2에서와 같이, 외부 상황이 로봇이 상대 깃발을 향해 있으며 로봇이 깃발을 누를 수 없는 상황이고 로봇의 내부 상태가 공격(Offense) 상태인 경우, 상대방 깃발 쪽으로 다가가는 행위(Approaching_to_the_flag)와, 우리 깃발에서 멀어지는 방향으로 이동하는 행위(Avoiding_the_flag)와, 상대 로봇을 피하는 행위(Avoiding_opp_robot)와, 떠돌기 행위(Wandering)를 포함하는 행위집합이 선택되어진다.As shown in Table 2, when the external situation is a situation where the robot is facing the opponent flag, the robot cannot press the flag, and the internal state of the robot is an offense (Offense) state, approaching to the other flag (Approaching_to_the_flag), A set of actions including moving (Avoiding_the_flag) away from our flag, avoiding opponent robot (Avoiding_opp_robot), and wandering (Wandering) are selected.
이때, 상대방 깃발 쪽으로 다가가는 행위(Apporachin_to_the_flag)는 논리적 센서의 출력이 ① 상대 깃발(Opp_flag)인 경우에 대응되고, 우리 깃발에서 멀어지는 방향으로 이동하는 행위(Avoiding_the_flag)는 논리적 센서의 출력이 ② 우리 깃발(Our_flag)인 경우에 대응된다. 또한, 상대 로봇을 피하는 행위(Avoiding_opp_robot)는 논리적 센서의 출력이 ③ 상대 로봇(Opp_robot)인 경우에 대응되고, 떠돌기 행위(Wandering)는 논리적 센서의 출력이 ④ 감지 없음(None)인 경우에 대응된다.At this time, the approach to the other flag (Apporachin_to_the_flag) corresponds to the case where the output of the logical sensor is ① the opponent flag (Opp_flag), and the action to move away from our flag (Avoiding_the_flag) is the output of the
특히, 논리적 센서의 출력이 ④ 감지 없음(None)인 경우에는 로봇이 다리부를 사용한 이동을 하며 목 자유도를 사용하여 떠돌기(Wandering)를 하게 된다.In particular, when the output of the logical sensor is ④ None, the robot moves using the legs and wanders using neck freedom.
한편, 외부 상황이 로봇이 상대 깃발을 향해 있으며 로봇이 깃발을 누를 수 없는 상황이고 로봇의 내부 상태가 수비(Defense) 상태인 경우, 상대방 로봇을 방어하기 위해 현 위치를 고수하는 행위(Waiting)와, 상대 로봇을 방어하는 행위(Blocking)와, 상대 로봇을 방어하는 행위(Blocking)와, 탐색 행위(Searching)를 포함하는 행위집합이 선택되어진다.On the other hand, if the external situation is that the robot is facing the opponent's flag, the robot cannot press the flag, and the internal state of the robot is Defence, the action is to hold the current position to defend the other robot. , A behavior set including blocking the opponent robot, blocking the opponent robot, and searching is selected.
이때, 상대방 로봇을 방어하기 위해 현 위치를 고수하는 행위(Waiting)는 논리적 센서의 출력이 ⑤ 상대 깃발(Opp_flag)인 경우에 대응되고, 상대 로봇을 방어하는 행위(Blocking)는 논리적 센서의 출력이 ⑥ 우리 깃발(Our_flag)인 경우에 대응된다. 또한, 상대 로봇을 방어하는 행위(Blocking)는 논리적 센서의 출력이 ⑦ 상대 로봇(Opp_robot)인 경우에 대응되고, 탐색 행위(Searching)는 논리적 센서의 출력이 ⑧ 감지 없음(None)인 경우에 대응된다.At this time, the act of sticking to the current position to defend the opponent robot corresponds to the case where the output of the logical sensor is ⑤ the opponent flag (Opp_flag), and the act of defending the opponent robot is determined by the output of the logical sensor. ⑥ Corresponds to our flag (Our_flag). In addition, the blocking of the opponent robot corresponds to the case where the output of the logical sensor is ⑦ the opponent robot (Opp_robot), and the searching action corresponds to the case where the output of the logical sensor is ⑧ no detection (None). do.
특히, 논리적 센서의 출력이 ⑧ 감지 없음(None)인 경우에는 로봇이 목 자유도를 사용하여 탐색(Searching)을 하게 된다.In particular, if the output of the logical sensor is ⑧ None, the robot will search using neck freedom.
한편, 하기의 표 3은 외부상황 3인 경우 로봇의 내부 상태에 따라 선택되어지는 행위집합을 나타낸다.On the other hand, Table 3 below shows the behavior set that is selected according to the internal state of the robot in the
상기 표 3에서와 같이, 외부 상황이 로봇이 우리 깃발을 향해 있으며 로봇이 깃발과 가까운 상황이고 로봇의 내부 상태가 공격(Offense) 상태인 경우, 상대방 깃발 쪽으로 다가가는 행위(Apporachin_to_the_flag)와, 우리 깃발에서 멀어지는 방향으로 이동하는 행위(Avoiding_the_flag)와, 상대 로봇을 피하는 행위(Avoiding_opp_robot)와, 떠돌기 행위(Wandering)를 포함하는 행위집합이 선택되어진다.As shown in Table 3 above, when the external situation is a robot facing our flag, the robot is close to the flag, and the internal state of the robot is an offense, the approach to the other flag (Apporachin_to_the_flag) and our flag A set of actions including moving (Avoiding_the_flag), avoiding an opponent robot (Avoiding_opp_robot), and wandering (Wandering) are selected.
이때, 상대방 깃발 쪽으로 다가가는 행위(Apporachin_to_the_flag)는 논리적 센서의 출력이 ① 상대 깃발(Opp_flag)인 경우에 대응되고, 우리 깃발에서 멀어지는 방향으로 이동하는 행위(Avoiding_the_flag)는 논리적 센서의 출력이 ② 우리 깃발(Our_flag)인 경우에 대응된다. 또한, 상대 로봇을 피하는 행위(Avoiding_opp_robot)는 논리적 센서의 출력이 ③ 상대 로봇(Opp_robot)인 경우에 대응되고, 떠돌기 행위(Wandering)는 논리적 센서의 출력이 ④ 감지 없음(None)인 경우에 대응된다.At this time, the approach to the other flag (Apporachin_to_the_flag) corresponds to the case where the output of the logical sensor is ① the opponent flag (Opp_flag), and the action to move away from our flag (Avoiding_the_flag) is the output of the
특히, 논리적 센서의 출력이 ④ 감지 없음(None)인 경우에는 로봇이 다리부를 사용한 이동을 하며 목 자유도를 사용하여 떠돌기(Wandering)를 하게 된다.In particular, when the output of the logical sensor is ④ None, the robot moves using the legs and wanders using neck freedom.
한편, 로봇이 우리 깃발을 향해 있으며 로봇이 깃발과 가까운 상황이고 로봇의 내부 상태가 수비(Defense) 상태인 경우, 상대방 로봇을 방어하기 위해 현 위치를 고수하는 행위(Waiting)와, 상대 로봇을 방어하는 행위(Blocking)와, 상대 로봇을 방어하는 행위(Blocking)와, 탐색 행위(Searching)를 포함하는 행위집합이 선택되어진다.On the other hand, if the robot is facing our flag, the robot is close to the flag, and the robot's internal state is defense, defending the opponent's current position and defending the opponent robot. A set of actions including blocking, blocking of the opponent robot, and searching is selected.
이때, 상대방 로봇을 방어하기 위해 현 위치를 고수하는 행위(Waiting)는 논리적 센서의 출력이 ⑤ 상대 깃발(Opp_flag)인 경우에 대응되고, 상대 로봇을 방어하는 행위(Blocking)는 논리적 센서의 출력이 ⑥ 우리 깃발(Our_flag)인 경우에 대응된다. 또한, 상대 로봇을 방어하는 행위(Blocking)는 논리적 센서의 출력이 ⑦ 상대 로봇(Opp_robot)인 경우에 대응되고, 탐색 행위(Searching)는 논리적 센서의 출력이 ⑧ 감지 없음(None)인 경우에 대응된다.At this time, the act of sticking to the current position to defend the opponent robot corresponds to the case where the output of the logical sensor is ⑤ the opponent flag (Opp_flag), and the act of defending the opponent robot is determined by the output of the logical sensor. ⑥ Corresponds to our flag (Our_flag). In addition, the blocking of the opponent robot corresponds to the case where the output of the logical sensor is ⑦ the opponent robot (Opp_robot), and the searching action corresponds to the case where the output of the logical sensor is ⑧ no detection (None). do.
특히, 논리적 센서의 출력이 ⑧ 감지 없음(None)인 경우에는 로봇이 목 자유도를 사용하여 탐색(Searching)을 하게 된다.In particular, if the output of the logical sensor is ⑧ None, the robot will search using neck freedom.
한편, 하기의 표 4는 외부상황 4인 경우 로봇의 내부 상태에 따라 선택되어지는 행위집합을 나타낸다.On the other hand, Table 4 below shows the behavior set that is selected according to the internal state of the robot in the case of the external situation 4.
상기 표 4에서와 같이, 외부 상황이 로봇이 우리 깃발을 향해 있으며 로봇이 깃발과 먼 상황이고 로봇의 내부 상태가 공격(Offense) 상태인 경우, 상대방 깃발 쪽으로 다가가는 행위(Apporachin_to_the_flag)와, 우리 깃발에서 멀어지는 방향으로 이동하는 행위(Avoiding_the_flag)와, 상대 로봇을 피하는 행위(Avoiding_opp_robot)와, 떠돌기 행위(Wandering)를 포함하는 행위집합이 선택되어진다.As shown in Table 4, when the external situation is the robot facing our flag, the robot is far from the flag, and the internal state of the robot is Offense, the approaching to the other flag (Apporachin_to_the_flag) and our flag A set of actions including moving (Avoiding_the_flag), avoiding an opponent robot (Avoiding_opp_robot), and wandering (Wandering) are selected.
이때, 상대방 깃발 쪽으로 다가가는 행위(Apporachin_to_the_flag)는 논리적 센서의 출력이 ① 상대 깃발(Opp_flag)인 경우에 대응되고, 우리 깃발에서 멀어지는 방향으로 이동하는 행위(Avoiding_the_flag)는 논리적 센서의 출력이 ② 우리 깃발(Our_flag)인 경우에 대응된다. 또한, 상대 로봇을 피하는 행위(Avoiding_opp_robot)는 논리적 센서의 출력이 ③ 상대 로봇(Opp_robot)인 경우에 대응되고, 떠돌기 행위(Wandering)는 논리적 센서의 출력이 ④ 감지 없음(None)인 경우에 대응된다.At this time, the approach to the other flag (Apporachin_to_the_flag) corresponds to the case where the output of the logical sensor is ① the opponent flag (Opp_flag), and the action to move away from our flag (Avoiding_the_flag) is the output of the
특히, 논리적 센서의 출력이 ④ 감지 없음(None)인 경우에는 로봇이 다리부를 사용한 이동을 하며 목 자유도를 사용하여 떠돌기(Wandering)를 하게 된다.In particular, when the output of the logical sensor is ④ None, the robot moves using the legs and wanders using neck freedom.
한편, 로봇이 우리 깃발을 향해 있으며 로봇이 깃발과 먼 상황이고 로봇의 내부 상태가 수비(Defense) 상태인 경우, 상대방 깃발에서 멀어지는 방향으로 이동하는 행위(Avoiding_the_flag)와, 우리 깃발 쪽으로 다가가는 행위(Approaching_to_the_flag)와, 상대방 로봇 쪽으로 다가가는 행위(Approaching_to_opp_robot)와, 떠돌기 행위(Wandering)를 포함하는 행위집합이 선택되어진다.On the other hand, when the robot is facing our flag, the robot is far from the flag, and the internal state of the robot is defensive, moving away from the opponent's flag (Avoiding_the_flag) and moving towards our flag ( Action set including Approaching_to_the_flag, Approaching_to_opp_robot, and Wandering is selected.
이때, 상대방 깃발을 피하는 행위(Avoiding_the_flag)는 논리적 센서의 출력이 ⑤ 상대 깃발(Opp_flag)인 경우에 대응되고, 우리 깃발 쪽으로 다가가는 행위(Approaching_to_the_flag)는 논리적 센서의 출력이 ⑥ 우리 깃발(Our_flag)인 경우에 대응된다. 또한, 상대방 로봇 쪽으로 다가가는 행위(Approaching_to_opp_robot)는 논리적 센서의 출력이 ⑦ 상대 로봇(Opp_robot)인 경우에 대응되고, 떠돌기 행위(Wandering)는 논리적 센서의 출력이 ⑧ 감지 없음(None)인 경우에 대응된다.At this time, the act of avoiding the counterpart flag (Avoiding_the_flag) corresponds to the case in which the output of the logical sensor is ⑤ the opposing flag (Opp_flag), and the act of approaching toward our flag (Approaching_to_the_flag) is that the output of the logical sensor is ⑥ our flag (Our_flag). Corresponds to the case. Approaching_to_opp_robot also corresponds to the case where the output of the logical sensor is ⑦ Oppp_robot, and wandering corresponds to the case where the output of the logical sensor is ⑧ undetected (None). do.
특히, 논리적 센서의 출력이 ⑧ 감지 없음(None)인 경우에는 로봇이 목 자유도를 사용하여 탐색(Searching)을 하게 된다.In particular, if the output of the logical sensor is ⑧ None, the robot will search using neck freedom.
한편, 논리적 센서의 출력이 상대 깃발(Opp_flag), 우리 깃발(Our_flag), 상대 로봇(Opp_robot)과 같이 다중으로 출력되는 경우에는 이에 따른 각각의 행위들간에 조정이 이루어져야 한다.On the other hand, when the output of the logical sensor is output in multiples such as the opponent flag (Opp_flag), our flag (Our_flag), and the opponent robot (Opp_robot), it is necessary to adjust the respective actions accordingly.
예를 들어, 도 4에서와 같이 외부상황 2에서 로봇 내부 상태가 공격 상태(Offense)인 경우 행위 집합은 깃발에 접근하기(Approaching_to_the_flag), 깃발에서 멀어지기(Avoiding_the_flag), 상대 로봇 피하기(Avoiding_opp_robot), 떠돌기(Wandering)와 같은 4개의 행위로 구성되는데 여기서, 떠돌기(Wandering)가 가장 낮은 우선 순위를 갖게 된다.For example, when the robot internal state is Offense in
그리고, 떠돌기(Wandering)에 비해 나머지 3개의 행위들은 우선 순위가 높지만, 이들 사이에는 우선 순위에 의한 조정이 아니라 벡터 합에 의한 조정이 이루어지게 된다.And, compared to Wandering, the remaining three actions have a higher priority, but the adjustment is performed by the sum of the vectors, not by the priority.
즉, 깃발에 접근하기 행위(Approaching_to_the_flag)와 상대 로봇 피하기 행위(Avoiding_opp_robot)가 둘 다 선택되어지면 깃발쪽으로 수렴하는 벡터와 상대 로봇에서 발산되는 벡터를 합하여 로봇의 이동 위치와 방향을 결정하게 된다.In other words, when both the approaching approach (Approaching_to_the_flag) and the avoiding approaching robot (Avoiding_opp_robot) are selected, the moving point and direction of the robot are determined by adding the vectors converged to the flag and the vectors emitted from the opponent.
이와 같이 로봇은 기본적으로 외부 상황과 로봇의 내부 상태에 따라 선택되어지는 행위집합에 따른 행위를 수행하게 된다. 필요한 경우 게임기의 외부조정장치(400)에 의해 수동 조정되거나, 별도의 컴퓨터에 의한 자동 조정이 가능하며, 이러한 무선 조정 신호가 무선으로 로봇에게 전송되면 명령을 전송받은 로봇은 전진 보행, 후진 보행, 회전 보행, 대각선 보행, 팔 올리기 등의 동작을 즉각적으로 수행하게 된다.As such, the robot basically performs an action according to an action set selected according to an external situation and an internal state of the robot. If necessary, it can be manually adjusted by the
특히, 컴퓨터에 의한 자동 조정의 경우에는 로봇의 머리부에 장착된 하나의 칼라 CCD 카메라로부터 촬영된 주변 환경에 대한 영상 신호를 컴퓨터의 신호처리부가 무선으로 전송받아 전송된 영상 신호를 해석하여 로봇을 자동으로 조정하게 된다.In particular, in the case of automatic adjustment by computer, the signal processing unit of the computer wirelessly receives an image signal of the surrounding environment photographed from one color CCD camera mounted on the head of the robot and analyzes the transmitted image signal. It will be adjusted automatically.
이에 따라, 컴퓨터의 무선 명령 신호를 수신한 로봇은 장애물(300)과 상대 로봇(100b)을 피해 가면서 상체부인 팔부를 상대방 깃발(200c,200d)에 근접시키거나 접촉시켜 상대 깃발의 색깔을 아군 색깔의 깃발로 전환시키고, 상대방 플레이어는 이에 대항하여 로봇을 조정하여 깃발 올리기 게임을 수행하게 되며, 정해진 시간이 지난 후 깃발의 색깔 개수에 따라 승패가 결정되어진다.Accordingly, the robot receiving the wireless command signal of the computer moves the
하기에서는 첨부된 도 5 및 도 6을 참조하여 게임기의 외부 조정 장치 또는 컴퓨터를 이용한 로봇 제어에 관해 보다 구체적으로 설명하기로 한다.Hereinafter, with reference to the accompanying Figures 5 and 6 will be described in more detail with respect to the robot control using a computer or an external control device of the game machine.
도 5는 본 발명의 일실시예에 따른 무선 조정 로봇 깃발 게임기의 시스템 구성을 나타내는 도면이고, 도 6은 도 5의 깃발부의 구조를 나타내는 도면이다.5 is a view showing the system configuration of the radio control robot flag game machine according to an embodiment of the present invention, Figure 6 is a view showing the structure of the flag unit of FIG.
도시된 바와 같이, 본 발명의 무선 조정 로봇 깃발 게임기 시스템은 게임기의 경기장 내에 위치한 로봇부(100)와, 깃발부(200)와, 로봇부(100)를 수동으로 무선 조정하기 위한 외부조정장치(400)와, 로봇부(100)를 자동으로 무선 조정하기 위한 컴퓨터(500)를 포함하여 구성된다. 여기서, 컴퓨터(500)는 무선 조정 로봇 깃발 게임기의 내부에 포함되거나 별도로 구성 가능하다.As shown, the wireless control robot flag game machine system of the present invention is an external control device for manually wirelessly adjusting the
로봇부(100)는 외부조정장치(400)에 의해 수동으로 조정되거나 컴퓨터(500)에 의해 무선으로 조정되는 로봇으로서, 명령 수신부(101)와, 모터 제어부(102)와, 모터 구동부(103)와, 전원부(104)와, 비젼 센서부(105)를 포함하여 구성된다.The
명령 수신부(101)는 외부조정장치(400) 또는 컴퓨터(500)로부터 무선으로 전송되는 명령 신호를 수신한다.The
모터 제어부(102)는 명령 수신부(101)로부터 전달되는 명령 신호에 의해 로봇을 제어하기 위한 모터 구동 신호를 출력한다.The
모터 구동부(103)는 모터 제어부(102)로부터 출력되는 모터 구동 신호에 따라 모터를 구동시킨다.The
전원부(104)는 로봇이 동작하기 위한 전원을 공급한다.The
비젼 센서부(105)는 로봇의 머리부에 장착된 하나의 칼라 CCD 카메라로서, 칼라 CCD 카메라로부터 촬영된 주변 환경에 대한 영상 신호를 컴퓨터(500)로 무선 전송하며, 컴퓨터(500)는 전송된 영상 신호를 해석하여 로봇을 자동으로 조정하게 된다.The
깃발부(200)는 로봇의 근접이나 접촉에 의해 작동되며, 센서부(201)와, 모터 제어부(202)와, 모터 구동부(203)와, 모터(204)와, 깃발 지지부(205)를 포함하여 구성된다.The
센서부(201)는 로봇 팔의 접촉 또는 근접한 상태를 판별한다. 즉, 로봇 팔의 접촉을 감지할 수 있는 소형의 압력 센서 또는 로봇 팔의 근접 여부를 판별할 수 있는 한 쌍의 적외선 센서가 사용된다.The
모터 제어부(202)는 센서부(201)로부터 로봇 팔의 접촉 또는 근접 감지 신호가 전달되면 모터(204)를 구동시키기 위한 모터구동신호를 출력한다.The
모터 구동부(203)는 모터 제어부(202)로부터 출력되는 모터구동신호에 따라 모터(204)를 구동시킨다.The
깃발 지지부(205)는 모터(204)의 회전축에 부착된 2 개의 깃발 지지 부재(205a,205b)로서, 이러한 깃발 지지 부재(205a,205b)의 끝 부분에는 각기 다른 색깔의 깃발(200a,200c)이 부착되어진다.The
즉, 모터 구동부(203)에 의해 모터(204)가 구동되면 모터(204)의 회전축에 부착된 2개의 깃발(200a,200c)이 절환되어지고, 이에 따라 수직 방향의 깃발(200a)은 로봇과 플레이어에게 보이게 되고, 다른 깃발(200c)은 깃발부의 몸체 속으로 들어가 보이지 않게 된다.That is, when the
외부조정장치(400)는 플레이어가 로봇을 수동으로 조정하기 위한 장치로서, 플레이어에 의해 입력되는 무선 명령 신호를 로봇에게 전송하며, 특히 플레이어가 외부조정장치(400)를 이용하여 로봇의 내부 상태(공격 상태, 수비 상태)를 설정하게 된다.
컴퓨터(500)는 플레이어가 로봇을 자동으로 조정하기 위한 장치로서, 로봇의 머리부에 장착된 하나의 칼라 CCD 카메라로부터 촬영된 주변 환경에 대한 영상 신호를 무선으로 전송받아 전송된 영상 신호를 해석하여 로봇을 자동으로 조정하게 된다.The
즉, 플레이어는 외부조정장치(400) 또는 컴퓨터(500)를 통해서 경기장 내의 로봇을 무선으로 조정하여 상대 로봇을 피하고, 자신의 로봇 팔부를 이용하여 상대 깃발에 접촉 또는 근접하여 상대 깃발을 자신의 깃발로 절환시키거나 자신의 깃발에 접근하는 상대 로봇를 방어하는 방식으로 게임이 진행되며, 일정 시간이 경과한 후에 깃발의 색깔 수에 의해 게임의 승패가 결정되어진다.That is, the player wirelessly controls the robot in the playing field through the
도 7 및 도 8은 본 발명의 일실시예에 따른 행위기반 로봇 제어방법을 나타내는 도면이다.7 and 8 are diagrams illustrating a behavior-based robot control method according to an embodiment of the present invention.
도시된 바와 같이, 물리적 센서에서 감지된 상대 로봇과 깃발의 위치/방향 정보 및 상대 로봇이나 장애물과의 충돌 위험 정보가 논리적 센서로 전달(S10)되어진다.As shown in the figure, the position / direction information of the opponent robot and the flag detected by the physical sensor and the collision risk information between the opponent robot or the obstacle are transmitted to the logical sensor (S10).
이어서, 논리적 센서에서 물리적 센서로부터 전달된 정보를 확인하여 충돌 위험과 같은 응급 상황이 발생하였는지를 판단(S20)하여 충돌 위험이 발생하지 않은 경우에는 논리적 센서의 출력 정보가 단기 메모리에 저장(S30)된다.Subsequently, the logical sensor checks the information transmitted from the physical sensor to determine whether an emergency situation such as a collision risk has occurred (S20), and when the collision risk does not occur, output information of the logical sensor is stored in the short-term memory (S30). .
이어서, 단기 메모리에 저장된 논리적 센서의 출력 정보에 의해 현재 외부상황을 평가(S40)하고, 평가된 외부상황과 로봇의 내부상태에 따라 n개의 행위집합과 n개의 조정방법 중에서 어느 하나의 행위집합과 조정방법이 선택(S50)되어진다.Subsequently, the current external situation is evaluated based on the output information of the logical sensor stored in the short-term memory (S40), and one of the n action sets and the n adjustment methods is adjusted according to the evaluated external situation and the internal state of the robot. This is selected (S50).
이어서, 선택된 행위집합과 조정방법에 의한 조정 결과에 따라 로봇 경로 데이터가 생성(S60)되고, 생성된 로봇 경로 데이터에 따라 실제 로봇이 구동(S70)되어진다.Subsequently, the robot path data is generated according to the adjustment result by the selected action set and the adjustment method (S60), and the actual robot is driven (S70) according to the generated robot path data.
특히, 상기 평가된 외부상황과 로봇의 내부상태에 따라 n개의 행위집합과 n개의 조정방법 중에서 어느 하나의 행위집합과 조정방법이 선택되는 S50 과정에서, 외부상황은 상술한 바와 같이 "1. 로봇이 상대 깃발을 향해 있으며 로봇이 깃발을 누를 수 있는 상황, 2. 로봇이 상대 깃발을 향해 있으며 로봇이 깃발을 누를 수 없는 상황, 3. 로봇이 우리 깃발을 향해 있으며 로봇이 깃발과 가까운 상황, 4. 로봇이 상대 깃발을 향해 있으며 로봇이 깃발과 먼 상황" 과 같은 4가지 경우의 외부 상황이 존재할 수 있으며, 이러한 4가지 외부상황에서 외부상황 1, 2의 경우에 대해 로봇의 내부상태와 논리적 센서의 출력에 따라 선택되어지는 행위집합에 대해서는 이미 상술하였으므로 구체적인 설명은 생략하기로 한다.In particular, in the process of S50 in which any action set and adjustment method are selected from the n action sets and the n adjustment methods according to the evaluated external situation and the internal state of the robot, the external situation is described as described above. A situation where the robot is facing the flag and the robot can press the flag, 2. the robot is facing the opponent's flag and the robot cannot press the flag, 3. the robot is facing our flag and the robot is close to the flag, 4. the robot There may be four external situations facing the opponent's flag and the robot is far from the flag. In these four external situations, the internal state of the robot and the output of the logical sensor for the
한편, 상기 논리적 센서에서 물리적 센서로부터 전달된 정보를 확인하여 충돌 위험과 같은 응급 상황이 발생하였는지를 판단하는 S20 과정에서, 만약 충돌 위험이 있는 것으로 판단된 경우에는 충돌 위험에 따른 독립적 행위집합과 독립적 조정방법이 선택(S80)되어진다.Meanwhile, in the process of S20 of determining whether an emergency situation such as a collision risk has occurred by checking the information transmitted from the physical sensor in the logical sensor, if it is determined that there is a collision risk, an independent action set according to the collision risk and an independent adjustment method This is selected (S80).
이어서, 선택된 독립적 행위집합과 독립적 조정방법에 의한 조정 결과에 따라 로봇 경로 데이터가 생성(S90)되고, 생성된 로봇 경로 데이터에 따라 실제 로봇이 구동(S100)되어진다.Subsequently, the robot path data is generated according to the selected independent action set and the adjustment result by the independent adjustment method (S90), and the actual robot is driven (S100) according to the generated robot path data.
즉, 로봇의 충돌 위험과 같은 응급 상황의 경우에는 외부상황에 관계 없이 논리적 센서의 출력이 하드웨어 인터럽트와 같은 개념으로 작동함으로써 독립적 행위집합과 독립적 조정방법이 즉각적으로 선택되어 그 조정 결과에 따라 생성되는 로봇 경로 데이터에 의해 실제 로봇이 구동되어지며, 이러한 경우에도 로봇의 내부 상태에 따라 로봇의 행위가 달라질 수 있다.In other words, in case of an emergency such as a robot collision risk, the robot's output is generated according to the result of the adjustment by selecting the independent action set and the independent adjustment method immediately because the output of the logical sensor operates in the same concept as the hardware interrupt regardless of the external situation. The actual robot is driven by the path data, and even in this case, the behavior of the robot may vary according to the internal state of the robot.
이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.As described above, although the present invention has been described by way of limited embodiments and drawings, the present invention is not limited thereto and is intended by those skilled in the art to which the present invention pertains. Of course, various modifications and variations are possible within the scope of equivalents of the claims to be described.
도 1은 본 발명에 따른 행위기반 로봇 제어장치의 구성을 나타내는 도면.1 is a view showing the configuration of the behavior-based robot control apparatus according to the present invention.
도 2는 도 1의 행위기반 로봇 제어장치가 내장된 로봇의 일예를 나타내는 도면.FIG. 2 is a diagram illustrating an example of a robot in which an action-based robot controller of FIG. 1 is embedded.
도 3은 본 발명의 일실시예에 따른 행위기반로봇을 이용한 무선 조정 로봇 깃발 게임기의 사시도.Figure 3 is a perspective view of a radio control robot flag game machine using an action-based robot according to an embodiment of the present invention.
도 4는 본 발명의 일실시예에 따른 행위집합 조정 방법의 일예를 나타내는 도면.4 is a diagram illustrating an example of a behavior set adjusting method according to one embodiment of the present invention;
도 5는 본 발명의 일실시예에 따른 무선 조정 로봇 깃발 게임기의 시스템 구성을 나타내는 도면.5 is a view showing a system configuration of a radio control robot flag game machine according to an embodiment of the present invention.
도 6은 도 5의 깃발부의 구조를 나타내는 도면.6 is a view showing the structure of the flag portion of FIG.
도 7 및 도 8은 본 발명의 일실시예에 따른 행위기반 로봇 제어방법을 나타내는 도면.7 and 8 illustrate a behavior-based robot control method according to an embodiment of the present invention.
Claims (16)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070133429A KR101402908B1 (en) | 2007-12-18 | 2007-12-18 | Situation dependent behavior based robot control appartus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070133429A KR101402908B1 (en) | 2007-12-18 | 2007-12-18 | Situation dependent behavior based robot control appartus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090065890A true KR20090065890A (en) | 2009-06-23 |
KR101402908B1 KR101402908B1 (en) | 2014-06-02 |
Family
ID=40994085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070133429A KR101402908B1 (en) | 2007-12-18 | 2007-12-18 | Situation dependent behavior based robot control appartus and method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101402908B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190036402A (en) * | 2017-09-27 | 2019-04-04 | 주식회사 토룩 | Robot controll system |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170071443A (en) * | 2015-12-15 | 2017-06-23 | 성균관대학교산학협력단 | Behavior-based distributed control system and method of multi-robot |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ATE527086T1 (en) * | 2002-12-10 | 2011-10-15 | Honda Motor Co Ltd | CONTROL DEVICE, CONTROL METHOD AND CONTROL PROGRAM FOR A ROBOT |
JP2004283958A (en) | 2003-03-20 | 2004-10-14 | Sony Corp | Robot device, method of controlling its behavior and program thereof |
KR20060072597A (en) * | 2004-12-23 | 2006-06-28 | 한국전자통신연구원 | Variable priority-based robot control apparatus and method thereof |
-
2007
- 2007-12-18 KR KR1020070133429A patent/KR101402908B1/en active IP Right Grant
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190036402A (en) * | 2017-09-27 | 2019-04-04 | 주식회사 토룩 | Robot controll system |
Also Published As
Publication number | Publication date |
---|---|
KR101402908B1 (en) | 2014-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5186723B2 (en) | Communication robot system and communication robot gaze control method | |
JP2007118129A (en) | Communication robot and caution control system using the same | |
KR20170027704A (en) | Humanoid robot with an autonomous life capability | |
JP2008149399A (en) | Mobile robot and travel speed estimating method | |
US11331805B2 (en) | Motion restriction system and method | |
CN111527461A (en) | Information processing apparatus, information processing method, and program | |
JP4517086B2 (en) | Communication robot system and robot controller | |
JP2015066624A (en) | Robot control system, robot control program, and explanation robot | |
JP4399603B2 (en) | Communication robot | |
JP2024009862A (en) | Information processing apparatus, information processing method, and program | |
US20200269421A1 (en) | Information processing device, information processing method, and program | |
JP4617428B2 (en) | Motion generation system | |
US11029753B2 (en) | Human computer interaction system and human computer interaction method | |
CN106325306A (en) | Camera assembly device of robot and photographing and tracking method of camera assembly device | |
US20210339159A1 (en) | Toy system, casing, separate toy, separate toy assessment method, and program | |
US20190366554A1 (en) | Robot interaction system and method | |
KR20090065890A (en) | Situation dependent behavior based robot control appartus and method | |
JP2005238382A (en) | Communication robot | |
JP2007156689A (en) | Light source position detection device and face recognition device using the same and self-propelled robot | |
US20230195401A1 (en) | Information processing apparatus and information processing method | |
JP7238796B2 (en) | ANIMAL-TYPE AUTONOMOUS MOBILE BODY, OPERATION METHOD OF ANIMAL-TYPE AUTONOMOUS MOBILE BODY, AND PROGRAM | |
KR20090065879A (en) | Flag game system and method using situation dependent behavior based robot | |
JP2007069303A (en) | Communication robot | |
JP7374581B2 (en) | Robot, image processing method and program | |
JP2019118993A (en) | Robot, self-diagnostic program and self-diagnostic method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20170504 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20180503 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20190502 Year of fee payment: 6 |