KR101402908B1 - 행위기반 로봇 제어장치 및 그 제어방법 - Google Patents

행위기반 로봇 제어장치 및 그 제어방법 Download PDF

Info

Publication number
KR101402908B1
KR101402908B1 KR1020070133429A KR20070133429A KR101402908B1 KR 101402908 B1 KR101402908 B1 KR 101402908B1 KR 1020070133429 A KR1020070133429 A KR 1020070133429A KR 20070133429 A KR20070133429 A KR 20070133429A KR 101402908 B1 KR101402908 B1 KR 101402908B1
Authority
KR
South Korea
Prior art keywords
robot
adjustment
internal state
behavior
module
Prior art date
Application number
KR1020070133429A
Other languages
English (en)
Other versions
KR20090065890A (ko
Inventor
조동권
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020070133429A priority Critical patent/KR101402908B1/ko
Publication of KR20090065890A publication Critical patent/KR20090065890A/ko
Application granted granted Critical
Publication of KR101402908B1 publication Critical patent/KR101402908B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic

Abstract

본 발명은 행위기반 로봇 제어장치 및 그 제어방법에 관한 것으로, 환경에 관한 영상정보를 획득하고 상대 로봇이나 장애물의 근접 정도를 감지하기 위한 물리적 센서부와, 상기 물리적 센서부에 의해 감지된 환경 내 물체의 위치와 방향 및 상대 로봇이나 장애물과의 충돌 위험에 관한 외부상황정보를 출력하는 논리적 센서부와, 로봇의 내부 상태 정보를 인식하기 위한 내부상태모듈과, 상기 외부상황정보를 이용하여 현재의 외부상황을 평가하기 위한 외부상황 평가모듈과, 상기 외부상황 평가모듈에 의해 평가된 외부상황과 상기 내부상태모듈에 의해 인식된 로봇의 내부상태에 따라 선택된 행위 집합과 조정 방법에 의한 조정 결과 신호를 출력하는 행위집합/조정 모듈과, 상기 논리적 센서부로부터 충돌 위험 신호가 출력되는 경우 선택된 상황 독립적 행위 집합과 상황 독립적 조정 방법에 의한 조정 결과 신호를 출력하는 상황 독립적 행위집합/조정 모듈과, 상기 행위집합/조정 모듈 또는 상기 상황 독립적 행위집합/조정 모듈로부터 출력되는 조정 결과 신호에 따라 로봇 경로 데이터를 생성하는 모션 컨트롤러와, 상기 모션 컨트롤러에 의해 생성된 로봇 경로 데이터에 따라 로봇을 구동시키는 액츄에이터를 포함한다.
행위기반로봇, 로봇 게임, 물리적 센서, 논리적 센서

Description

행위기반 로봇 제어장치 및 그 제어방법{SITUATION DEPENDENT BEHAVIOR BASED ROBOT CONTROL APPARTUS AND METHOD}
본 발명은 행위기반 로봇 제어장치 및 그 제어방법에 관한 것이다.
전통적인 이동로봇 기술은 환경에 대한 모델에 의존하고 있다. 이러한 방식은 사용자가 로봇에게 미리 로봇이 활동할 원격지에 대한 지도(모델)를 주고, 로봇은 센서를 이용하여 주변상황에 대한 정보를 입수한 후 이 정보를 미리 받아두었던 지도와 비교하여 로봇 자신의 현재 위치를 파악하고, 이를 기초로 하여 복잡한 행동 계획을 세운 뒤 행동하는 방식이다.
그러나, 이러한 방식은 옛날의 지도를 가지고 세월이 흘러 변모된 지역에서 길을 찾는 것과 같다. 즉, 현실적으로 사용자가 원격지의 환경에 대한 정보를 미리 알기가 어렵고, 미리 알 수 있는 상황이라 하더라도 원격지에서 이동하는 물체가 많다던가, 환경이 자주 변화하는 지역이라던가 하는 경우에는 미리 알고 있던 정보에 근거하여 로봇을 제어하는 것, 그리고 시간이 많이 걸리는 복잡한 계획을 세운 뒤 로봇이 행동을 수행하는 것은 현실성이 없다. 따라서, 이와 같이 기존의 모델기반 로봇제어는 현실적인 문제를 해결하는데 많은 한계가 있다.
따라서, 이러한 기존의 모델기반 로봇 제어의 한계를 극복하기 위해서는 곤충 등과 같은 생명체에 대한 관찰에서부터 비롯된 행위기반 로봇제어가 필요하다.
본 발명은 상기와 같은 문제점을 해결하기 위해 창안된 것으로서, 로봇이 처한 상황(situation)에 따라 행위(behavior)가 달라지는 행위 기반 제어 구조(situation-dependent behavior-based control architecture)를 갖는 행위기반 로봇 제어장치 및 그 제어방법을 제공하는데 그 목적이 있다.
상기한 목적을 달성하기 위한 본 발명에 따른 행위기반 로봇 제어장치의 일 측면에 따르면, 환경에 관한 영상정보를 획득하고 상대 로봇이나 장애물의 근접 정도를 감지하기 위한 물리적 센서부와, 상기 물리적 센서부에 의해 감지된 환경 내 물체의 위치와 방향 및 상대 로봇이나 장애물과의 충돌 위험에 관한 외부상황정보를 출력하는 논리적 센서부와, 로봇의 내부 상태 정보를 인식하기 위한 내부상태모듈과, 상기 외부상황정보를 이용하여 현재의 외부상황을 평가하기 위한 외부상황 평가모듈과, 상기 외부상황 평가모듈에 의해 평가된 외부상황과 상기 내부상태모듈에 의해 인식된 로봇의 내부상태에 따라 선택된 행위 집합과 조정 방법에 의한 조정 결과 신호를 출력하는 행위집합/조정 모듈과, 상기 논리적 센서부로부터 충돌 위험 신호가 출력되는 경우 선택된 상황 독립적 행위 집합과 상황 독립적 조정 방법에 의한 조정 결과 신호를 출력하는 상황 독립적 행위집합/조정 모듈과, 상기 행위집합/조정 모듈 또는 상기 상황 독립적 행위집합/조정 모듈로부터 출력되는 조정 결과 신호에 따라 로봇 경로 데이터를 생성하는 모션 컨트롤러와, 상기 모션 컨트롤러에 의해 생성된 로봇 경로 데이터에 따라 로봇을 구동시키는 액츄에이터를 포함한다.
상기한 목적을 달성하기 위한 본 발명에 따른 행위기반 로봇 제어방법의 일 측면에 따르면, (a) 환경 내 물체의 위치와 방향 및 상대 로봇이나 장애물과의 충돌 위험 여부에 관한 외부상황정보가 센서부로부터 출력되는 단계; (b) 외부상황 평가모듈에 의해 상기 외부상황정보를 통해 현재의 외부상황이 평가되는 단계; (c) 내부상태모듈에 의해 로봇의 내부상태가 인식되는 단계; (d) 상기 평가된 외부상황과 로봇의 내부상태에 따라 선택된 행위 집합과 조정 방법에 의한 조정 결과 신호가 출력되는 단계; (e) 상기 출력되는 조정 결과 신호에 따라 로봇 경로 데이터가 생성되고, 상기 생성된 로봇 경로 데이터에 의해 로봇이 구동되는 단계를 포함한다.
본 발명에 의하면, 로봇이 처한 상황(situation)에 따라 행위(behavior)가 달라지는 행위 기반 제어 구조(situation-dependent behavior-based control architecture)를 갖는 행위기반 로봇 제어장치 및 그 제어방법을 제공함으로써, 종래와 같이 주변 환경에 대한 지도 정보가 필요 없게 되며, 복잡하고 시간이 많이 걸리는 행동 계획이 필요 없으므로 환경이 변화하였거나 순간순간 동적(dynamic)으 로 바뀌는 환경에 매우 효율적으로 적용될 수 있으며, 로봇의 자율 운동성을 높일 수 있는 효과가 있다.
이하 첨부된 도면을 참조로 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.
도 1은 본 발명에 따른 행위기반 로봇 제어장치의 구성을 나타내는 도면으로서, 이러한 행위기반 로봇 제어장치는 하기에서 설명될 로봇에 내장되어 로봇이 자율적인 행위를 할 수 있도록 한다.
도 1에 도시된 바와 같이, 본 발명의 행위기반 로봇 제어장치는 물리적 센서(Physical sensors)(10)와, 논리적 센서(logical sensors)(20)와, 단기 메모리(Short term memory)(30)와, 내부 상태(internal states) 모듈(40)과, 외부 상황 평가 모듈(external situation assessor)(50)과, 행위집합/조정 모듈(60)과, 독립적 행위집합/조정 모듈(70)과, 모션 컨트롤러(Motion controller)(80)와, 액츄에이터(Actuators)(90)를 포함하여 구성된다.
물리적 센서(Physical sensors)(10)는 실제 물리적인 형태를 가지고 있는 센서로서, 예를 들어 환경내의 물체들에 관한 영상정보를 획득하기 위한 1개의 칼라 CCD 카메라 및 상대 로봇이나 장애물과의 근접 정도를 감지하기 위한 2개의 적외선 센서 등이 사용될 수 있다.
논리적 센서(Logical sensors)(20)는 물리적 센서(10)에 기반을 둔 개념적인 센서로서, 타겟 감지 센서와 충돌 감지 센서 등이 사용된다. 이러한 논리적 센서(20)의 출력 정보는 감지된 물체들의 위치와 방향 정보와 상대 로봇이나 장애물과의 충돌 위험 감지 정보가 포함되는 외부상황정보이다.
단기 메모리(Short term memory)(30)는 논리적 센서(Logical sensors)(20)로부터 출력되는 외부상황정보를 저장한다.
내부 상태(internal states) 모듈(40)은 로봇의 내부 상태(internal states)를 저장한다. 여기서, 내부 상태는 사용자에 의해 설정될 수도 있고, 단기 메모리(Short term memory)(30)로부터 추출되는 정보에 따라 변경될 수도 있다.
또한, 외부 환경에 의해서 로봇 내부의 상태가 변경되는 것은 날씨의 변화에 따라 사람의 기분이 바뀔 수 있는 것과 같이 로봇의 퍼스낼러티(personality)를 구현할 수도 있다.
외부상황 평가모듈(external situation assessor)(50)은 단기 메모리(short- term memory)(30)에 저장되어 있는 데이터들을 사용하여 현재 외부 상황에 대한 평가를 수행한다. 이러한 평가에는 현재의 데이터들과 더불어 한 스텝 전의 데이터들도 사용된다. 여기서, 외부 상황(external situation)은 로봇 자신을 포함한 주변 환경이 어떠한 가에 따라 달라진다.
행위집합/조정 모듈(60)은 n개의 행위 집합(behaviors sets)과 n개의 조정(coordinations) 방법으로 이루어지며, 내부 상태 모듈(40)에 저장된 로봇의 내부 상태(internal states)와 외부상황 평가모듈(50)에 의해 평가된 외부 상황(external situation)에 따라 n개의 행위 집합(behaviors sets)과 n개의 조정(coordinations) 방법 중에서 어느 하나의 행위 집합과 조정 방법이 선택되어진다. 예를 들어, 행위 집합(behaviors set) i가 선택되면 이에 따른 조정(coordination) i 가 자동으로 선택되어지고, 그 조정 결과가 모션 컨트롤러(motion controller)(80)로 전달된다.
즉, 논리적 센서의 출력이 같을지라도 로봇의 내부 상태나 외부 상황에 따라서 로봇의 행위(behaviors)가 달라질 수 있다. 이와 같은 설정은 외부세계를 감지할 수 있는 능력이 같은 두 로봇이 있는 경우, 한 로봇이 다른 로봇보다 더욱 지능적이고 적응력 있는 임무를 수행할 수 있도록 한다.
독립적 행위집합/조정 모듈(70)은 로봇의 충돌 위험과 같은 응급 상황에 특정 행위가 수행되어야 하는 경우 독립적 행위집합(situation independent behavior set)과 독립적 조정 방법(situation independent coordination)이 선택되어 그 조정 결과가 모션 컨트롤러(motion controller)(80)로 전달된다.
즉, 논리적 센서(logical sensors)(20)로부터 로봇의 충돌 위험 정보가 출력되는 경우, 외부 상황에 관계 없이 독립적 행위집합/조정 모듈(70)의 독립적 행위집합(situation independent behavior set)과 독립적 조정 방법(situation independent coordination)이 즉각적으로 선택되어 그 조정 결과가 모션 컨트롤러(motion controller)(80)로 전달된다. 이러한 경우에도 로봇의 내부 상태에 따라 로봇의 행위가 달라질 수 있다.
특히, 이러한 응급 상황의 경우 논리적 센서(logical sensors)(20)의 출력은 하드웨어 인터럽트와 같은 개념으로 작동하게 되는데, 이러한 응급 상황의 예로는 인명 구조 로봇이 작업을 수행하다가 구조 대상인 사람의 신변에 상당한 위험이 있음을 감지한 경우 평상시의 구조 행위와 다른 긴급한 응급 행위를 수행한다거나, 다수의 정찰 로봇중 하나가 폭발 직전의 폭발물을 감지한 경우가 있을 수 있다.
모션 컨트롤러(motion controller)(80)는 행위집합/조정 모듈(60) 또는 독립적 행위집합/조정 모듈(70)로부터 전달되는 조정 결과 정보에 따라 로봇 경로 데이터를 생성한다.
액츄에이터(actuators)(90)는 모션 컨트롤러(motion controller)(80)에 의해 생성된 로봇 경로 데이터에 따라 실제 로봇을 구동시키게 된다.
도 2는 도 1의 행위기반 로봇 제어장치가 내장된 로봇의 일예를 나타내는 도면이다.
도 2에 도시된 바와 같이, 본 발명의 행위기반 로봇 제어장치가 내장된 로 봇(100)은 크게 상체부와 하체부로 이루어지며, 상체부와 하체부가 별도로 동작 가능한 구조를 갖는다. 특히, 로봇의 머리부에 물리적 센서인 칼라 CCD 카메라(105)가 장착되어 주변 환경을 촬영하게 된다.
또한, 로봇의 내부에 외부로부터 전송되는 무선 명령 신호를 수신할 수 있는 명령 수신부를 내장하고, 물리적 센서와 액츄에이터를 제외한 나머지 제어관련모듈이 외부에 존재하여 로봇이 제어관련모듈의 명령 신호에 따른 행위를 즉각적으로 수행할 수 있도록 구성될 수 있다. 이에 대해서는 하기에서 보다 구체적으로 설명하기로 한다.
도 3은 본 발명의 일실시예에 따른 행위기반로봇을 이용한 무선 조정 로봇 깃발 게임기의 사시도이고, 도 4는 본 발명의 일실시예에 따른 행위집합 조정 방법의 일예를 나타내는 도면으로서, 게임기 내의 경기장에는 2대의 로봇과 4개의 깃발이 존재하며, 아군 깃발의 색깔은 파란색, 상대 깃발의 색깔은 빨간색으로 구분한다.
도 3에 도시된 바와 같이, 본 발명의 일실시예에 따른 무선 조정 로봇 깃발 게임기는 아군 로봇(100a), 상대 로봇(100b)과, 아군 깃발(200a,200b), 상대 깃발(200c,200d)과, 아군 로봇(100a)과 상대 로봇(100b) 사이의 공간에 존재하는 다수개의 장애물(300) 및 상기 아군 로봇(100a)과 상대 로봇(100b) 각각을 무선으로 조정하기 위한 외부조정장치(400)를 포함하여 구성된다.
먼저, 하기와 같이 로봇 자신과 주변 환경 사이의 관계 변화에 따라 결정되 는 4가지 경우의 외부 상황이 존재하는 경우 선택되어지는 행위집합의 일예에 대해 설명하기로 한다.
즉, "1. 로봇이 상대 깃발을 향해 있으며 로봇이 깃발을 누를 수 있는 상황, 2. 로봇이 상대 깃발을 향해 있으며 로봇이 깃발을 누를 수 없는 상황, 3. 로봇이 우리 깃발을 향해 있으며 로봇이 깃발과 가까운 상황, 4. 로봇이 우리 깃발을 향해 있으며 로봇이 깃발과 먼 상황" 과 같은 4가지 외부 상황 및 로봇의 내부 상태에 따라 선택되어지는 행위집합에 대해 보다 구체적으로 설명하기로 한다. 여기서, 로봇의 내부 상태는 플레이어에 의해 공격 상태 또는 수비 상태로 설정되어지며, 이러한 내부 상태는 단기 메모리(short term memory)로부터 추출되는 정보에 따라 변경될 수도 있다.
하기의 표 1은 외부상황 1인 경우 로봇의 내부 상태와는 무관하게 선택되어지는 행위집합을 나타낸다.

외부상황

내부상태

논리적 센서 출력

행위집합




로봇이 상대 깃발을 향해 있으며 로봇이 깃발을 누를 수 있는 상황







Don't care



① Opp_flag

Touch_the_flag

② Our_flag

Avoiding_the_flag

③ Opp_robot

Avoiding_opp_robot

④ None

Searching
상기 표 1에서와 같이, 외부 상황이 로봇이 상대 깃발을 향해 있으며 로봇이 깃발을 누를 수 있는 상황이고 로봇의 내부 상태와 무관(Don't care)한 경우, 상대 깃발 누르기 행위(Touch_the_flag)와, 우리 깃발에서 멀어지는 방향으로 이동하는 행위(Avoiding_the_flag)와, 상대 로봇을 피하는 행위(Avoiding_opp_robot)와, 탐색 행위(Searching)를 포함하는 행위집합이 선택되어진다.
이때, 상대 깃발 누르기 행위(Touch_the_flag)는 논리적 센서의 출력이 ① 상대 깃발(Opp_flag)인 경우에 대응되고, 우리 깃발에서 멀어지는 방향으로 이동하는 행위(Avoiding_the_flag)는 논리적 센서의 출력이 ② 우리 깃발(Our_flag)인 경우에 대응된다. 또한, 상대 로봇을 피하는 행위(Avoiding_opp_robot)는 논리적 센서의 출력이 ③ 상대 로봇(Opp_robot)인 경우에 대응되고, 탐색 행위(Searching)는 논리적 센서의 출력이 ④ 감지 없음(None)인 경우에 대응된다.
특히, 논리적 센서의 출력이 ④ 감지 없음(None)인 경우에는 상대 깃발 근처이므로 로봇이 이동을 하지 않고 목 자유도만을 사용하여 탐색(Searching)을 하게 된다.
한편, 하기의 표 2는 외부상황 2인 경우 로봇의 내부 상태에 따라 선택되어지는 행위집합을 나타낸다.

외부상황

내부상태

논리적 센서 출력

행위집합










로봇이 상대 깃발을 향해 있으며 로봇이 깃발을 누를 수 없는 상황







Offense




① Opp_flag

Approaching_to_the_flag

② Our_flag

Avoiding_the_flag

③ Opp_robot

Avoiding_opp_robot

④ None

Wandering





Defense





⑤ Opp_flag

Waiting

⑥ Our_flag

Blocking

⑦ Opp_robot

Blocking

⑧ None

Searching
상기 표 2에서와 같이, 외부 상황이 로봇이 상대 깃발을 향해 있으며 로봇이 깃발을 누를 수 없는 상황이고 로봇의 내부 상태가 공격(Offense) 상태인 경우, 상대방 깃발 쪽으로 다가가는 행위(Approaching_to_the_flag)와, 우리 깃발에서 멀어지는 방향으로 이동하는 행위(Avoiding_the_flag)와, 상대 로봇을 피하는 행위(Avoiding_opp_robot)와, 떠돌기 행위(Wandering)를 포함하는 행위집합이 선택되어진다.
이때, 상대방 깃발 쪽으로 다가가는 행위(Apporachin_to_the_flag)는 논리적 센서의 출력이 ① 상대 깃발(Opp_flag)인 경우에 대응되고, 우리 깃발에서 멀어지는 방향으로 이동하는 행위(Avoiding_the_flag)는 논리적 센서의 출력이 ② 우리 깃발(Our_flag)인 경우에 대응된다. 또한, 상대 로봇을 피하는 행위(Avoiding_opp_robot)는 논리적 센서의 출력이 ③ 상대 로봇(Opp_robot)인 경우에 대응되고, 떠돌기 행위(Wandering)는 논리적 센서의 출력이 ④ 감지 없음(None)인 경우에 대응된다.
특히, 논리적 센서의 출력이 ④ 감지 없음(None)인 경우에는 로봇이 다리부를 사용한 이동을 하며 목 자유도를 사용하여 떠돌기(Wandering)를 하게 된다.
한편, 외부 상황이 로봇이 상대 깃발을 향해 있으며 로봇이 깃발을 누를 수 없는 상황이고 로봇의 내부 상태가 수비(Defense) 상태인 경우, 상대방 로봇을 방어하기 위해 현 위치를 고수하는 행위(Waiting)와, 상대 로봇을 방어하는 행위(Blocking)와, 상대 로봇을 방어하는 행위(Blocking)와, 탐색 행위(Searching)를 포함하는 행위집합이 선택되어진다.
이때, 상대방 로봇을 방어하기 위해 현 위치를 고수하는 행위(Waiting)는 논리적 센서의 출력이 ⑤ 상대 깃발(Opp_flag)인 경우에 대응되고, 상대 로봇을 방어하는 행위(Blocking)는 논리적 센서의 출력이 ⑥ 우리 깃발(Our_flag)인 경우에 대응된다. 또한, 상대 로봇을 방어하는 행위(Blocking)는 논리적 센서의 출력이 ⑦ 상대 로봇(Opp_robot)인 경우에 대응되고, 탐색 행위(Searching)는 논리적 센서의 출력이 ⑧ 감지 없음(None)인 경우에 대응된다.
특히, 논리적 센서의 출력이 ⑧ 감지 없음(None)인 경우에는 로봇이 목 자유도를 사용하여 탐색(Searching)을 하게 된다.
한편, 하기의 표 3은 외부상황 3인 경우 로봇의 내부 상태에 따라 선택되어지는 행위집합을 나타낸다.

외부상황

내부상태

논리적 센서 출력

행위집합










로봇이 우리 깃발을 향해 있으며 로봇이 깃발과 가까운 상황








Offense




① Opp_flag

Approaching_to_the_flag

② Our_flag

Avoiding_the_flag

③ Opp_robot

Avoiding_opp_robot

④ None

Wandering





Defense





⑤ Opp_flag

Waiting

⑥ Our_flag

Blocking

⑦ Opp_robot

Blocking

⑧ None

Searching
상기 표 3에서와 같이, 외부 상황이 로봇이 우리 깃발을 향해 있으며 로봇이 깃발과 가까운 상황이고 로봇의 내부 상태가 공격(Offense) 상태인 경우, 상대방 깃발 쪽으로 다가가는 행위(Apporachin_to_the_flag)와, 우리 깃발에서 멀어지는 방향으로 이동하는 행위(Avoiding_the_flag)와, 상대 로봇을 피하는 행위(Avoiding_opp_robot)와, 떠돌기 행위(Wandering)를 포함하는 행위집합이 선택되어진다.
이때, 상대방 깃발 쪽으로 다가가는 행위(Apporachin_to_the_flag)는 논리적 센서의 출력이 ① 상대 깃발(Opp_flag)인 경우에 대응되고, 우리 깃발에서 멀어지는 방향으로 이동하는 행위(Avoiding_the_flag)는 논리적 센서의 출력이 ② 우리 깃발(Our_flag)인 경우에 대응된다. 또한, 상대 로봇을 피하는 행위(Avoiding_opp_robot)는 논리적 센서의 출력이 ③ 상대 로봇(Opp_robot)인 경우에 대응되고, 떠돌기 행위(Wandering)는 논리적 센서의 출력이 ④ 감지 없음(None)인 경우에 대응된다.
특히, 논리적 센서의 출력이 ④ 감지 없음(None)인 경우에는 로봇이 다리부를 사용한 이동을 하며 목 자유도를 사용하여 떠돌기(Wandering)를 하게 된다.
한편, 로봇이 우리 깃발을 향해 있으며 로봇이 깃발과 가까운 상황이고 로봇의 내부 상태가 수비(Defense) 상태인 경우, 상대방 로봇을 방어하기 위해 현 위치를 고수하는 행위(Waiting)와, 상대 로봇을 방어하는 행위(Blocking)와, 상대 로봇을 방어하는 행위(Blocking)와, 탐색 행위(Searching)를 포함하는 행위집합이 선택되어진다.
이때, 상대방 로봇을 방어하기 위해 현 위치를 고수하는 행위(Waiting)는 논리적 센서의 출력이 ⑤ 상대 깃발(Opp_flag)인 경우에 대응되고, 상대 로봇을 방어하는 행위(Blocking)는 논리적 센서의 출력이 ⑥ 우리 깃발(Our_flag)인 경우에 대응된다. 또한, 상대 로봇을 방어하는 행위(Blocking)는 논리적 센서의 출력이 ⑦ 상대 로봇(Opp_robot)인 경우에 대응되고, 탐색 행위(Searching)는 논리적 센서의 출력이 ⑧ 감지 없음(None)인 경우에 대응된다.
특히, 논리적 센서의 출력이 ⑧ 감지 없음(None)인 경우에는 로봇이 목 자유도를 사용하여 탐색(Searching)을 하게 된다.
한편, 하기의 표 4는 외부상황 4인 경우 로봇의 내부 상태에 따라 선택되어지는 행위집합을 나타낸다.

외부상황

내부상태

논리적 센서 출력

행위집합










로봇이 우리 깃발을 향해 있으며 로봇이 깃발과 먼 상황








Offense




① Opp_flag

Approaching_to_the_flag

② Our_flag

Avoiding_the_flag

③ Opp_robot

Avoiding_opp_robot

④ None

Wandering





Defense





⑤ Opp_flag

Avoiding_the_flag

⑥ Our_flag

Approaching_to_the_flag

⑦ Opp_robot

Approaching_to_opp_robot

⑧ None

Wandering
상기 표 4에서와 같이, 외부 상황이 로봇이 우리 깃발을 향해 있으며 로봇이 깃발과 먼 상황이고 로봇의 내부 상태가 공격(Offense) 상태인 경우, 상대방 깃발 쪽으로 다가가는 행위(Apporachin_to_the_flag)와, 우리 깃발에서 멀어지는 방향으로 이동하는 행위(Avoiding_the_flag)와, 상대 로봇을 피하는 행위(Avoiding_opp_robot)와, 떠돌기 행위(Wandering)를 포함하는 행위집합이 선택되어진다.
이때, 상대방 깃발 쪽으로 다가가는 행위(Apporachin_to_the_flag)는 논리적 센서의 출력이 ① 상대 깃발(Opp_flag)인 경우에 대응되고, 우리 깃발에서 멀어지는 방향으로 이동하는 행위(Avoiding_the_flag)는 논리적 센서의 출력이 ② 우리 깃발(Our_flag)인 경우에 대응된다. 또한, 상대 로봇을 피하는 행위(Avoiding_opp_robot)는 논리적 센서의 출력이 ③ 상대 로봇(Opp_robot)인 경우에 대응되고, 떠돌기 행위(Wandering)는 논리적 센서의 출력이 ④ 감지 없음(None)인 경우에 대응된다.
특히, 논리적 센서의 출력이 ④ 감지 없음(None)인 경우에는 로봇이 다리부를 사용한 이동을 하며 목 자유도를 사용하여 떠돌기(Wandering)를 하게 된다.
한편, 로봇이 우리 깃발을 향해 있으며 로봇이 깃발과 먼 상황이고 로봇의 내부 상태가 수비(Defense) 상태인 경우, 상대방 깃발에서 멀어지는 방향으로 이동하는 행위(Avoiding_the_flag)와, 우리 깃발 쪽으로 다가가는 행위(Approaching_to_the_flag)와, 상대방 로봇 쪽으로 다가가는 행위(Approaching_to_opp_robot)와, 떠돌기 행위(Wandering)를 포함하는 행위집합이 선택되어진다.
이때, 상대방 깃발을 피하는 행위(Avoiding_the_flag)는 논리적 센서의 출력이 ⑤ 상대 깃발(Opp_flag)인 경우에 대응되고, 우리 깃발 쪽으로 다가가는 행위(Approaching_to_the_flag)는 논리적 센서의 출력이 ⑥ 우리 깃발(Our_flag)인 경우에 대응된다. 또한, 상대방 로봇 쪽으로 다가가는 행위(Approaching_to_opp_robot)는 논리적 센서의 출력이 ⑦ 상대 로봇(Opp_robot)인 경우에 대응되고, 떠돌기 행위(Wandering)는 논리적 센서의 출력이 ⑧ 감지 없음(None)인 경우에 대응된다.
특히, 논리적 센서의 출력이 ⑧ 감지 없음(None)인 경우에는 로봇이 목 자유도를 사용하여 탐색(Searching)을 하게 된다.
한편, 논리적 센서의 출력이 상대 깃발(Opp_flag), 우리 깃발(Our_flag), 상대 로봇(Opp_robot)과 같이 다중으로 출력되는 경우에는 이에 따른 각각의 행위들간에 조정이 이루어져야 한다.
예를 들어, 도 4에서와 같이 외부상황 2에서 로봇 내부 상태가 공격 상태(Offense)인 경우 행위 집합은 깃발에 접근하기(Approaching_to_the_flag), 깃발에서 멀어지기(Avoiding_the_flag), 상대 로봇 피하기(Avoiding_opp_robot), 떠돌기(Wandering)와 같은 4개의 행위로 구성되는데 여기서, 떠돌기(Wandering)가 가장 낮은 우선 순위를 갖게 된다.
그리고, 떠돌기(Wandering)에 비해 나머지 3개의 행위들은 우선 순위가 높지만, 이들 사이에는 우선 순위에 의한 조정이 아니라 벡터 합에 의한 조정이 이루어지게 된다.
즉, 깃발에 접근하기 행위(Approaching_to_the_flag)와 상대 로봇 피하기 행위(Avoiding_opp_robot)가 둘 다 선택되어지면 깃발쪽으로 수렴하는 벡터와 상대 로봇에서 발산되는 벡터를 합하여 로봇의 이동 위치와 방향을 결정하게 된다.
이와 같이 로봇은 기본적으로 외부 상황과 로봇의 내부 상태에 따라 선택되어지는 행위집합에 따른 행위를 수행하게 된다. 필요한 경우 게임기의 외부조정장치(400)에 의해 수동 조정되거나, 별도의 컴퓨터에 의한 자동 조정이 가능하며, 이러한 무선 조정 신호가 무선으로 로봇에게 전송되면 명령을 전송받은 로봇은 전진 보행, 후진 보행, 회전 보행, 대각선 보행, 팔 올리기 등의 동작을 즉각적으로 수행하게 된다.
특히, 컴퓨터에 의한 자동 조정의 경우에는 로봇의 머리부에 장착된 하나의 칼라 CCD 카메라로부터 촬영된 주변 환경에 대한 영상 신호를 컴퓨터의 신호처리부가 무선으로 전송받아 전송된 영상 신호를 해석하여 로봇을 자동으로 조정하게 된다.
이에 따라, 컴퓨터의 무선 명령 신호를 수신한 로봇은 장애물(300)과 상대 로봇(100b)을 피해 가면서 상체부인 팔부를 상대방 깃발(200c,200d)에 근접시키거나 접촉시켜 상대 깃발의 색깔을 아군 색깔의 깃발로 전환시키고, 상대방 플레이어는 이에 대항하여 로봇을 조정하여 깃발 올리기 게임을 수행하게 되며, 정해진 시간이 지난 후 깃발의 색깔 개수에 따라 승패가 결정되어진다.
하기에서는 첨부된 도 5 및 도 6을 참조하여 게임기의 외부 조정 장치 또는 컴퓨터를 이용한 로봇 제어에 관해 보다 구체적으로 설명하기로 한다.
도 5는 본 발명의 일실시예에 따른 무선 조정 로봇 깃발 게임기의 시스템 구성을 나타내는 도면이고, 도 6은 도 5의 깃발부의 구조를 나타내는 도면이다.
도시된 바와 같이, 본 발명의 무선 조정 로봇 깃발 게임기 시스템은 게임기의 경기장 내에 위치한 로봇부(100)와, 깃발부(200)와, 로봇부(100)를 수동으로 무선 조정하기 위한 외부조정장치(400)와, 로봇부(100)를 자동으로 무선 조정하기 위한 컴퓨터(500)를 포함하여 구성된다. 여기서, 컴퓨터(500)는 무선 조정 로봇 깃발 게임기의 내부에 포함되거나 별도로 구성 가능하다.
로봇부(100)는 외부조정장치(400)에 의해 수동으로 조정되거나 컴퓨터(500)에 의해 무선으로 조정되는 로봇으로서, 명령 수신부(101)와, 모터 제어부(102)와, 모터 구동부(103)와, 전원부(104)와, 비젼 센서부(105)를 포함하여 구성된다.
명령 수신부(101)는 외부조정장치(400) 또는 컴퓨터(500)로부터 무선으로 전송되는 명령 신호를 수신한다.
모터 제어부(102)는 명령 수신부(101)로부터 전달되는 명령 신호에 의해 로봇을 제어하기 위한 모터 구동 신호를 출력한다.
모터 구동부(103)는 모터 제어부(102)로부터 출력되는 모터 구동 신호에 따라 모터를 구동시킨다.
전원부(104)는 로봇이 동작하기 위한 전원을 공급한다.
비젼 센서부(105)는 로봇의 머리부에 장착된 하나의 칼라 CCD 카메라로서, 칼라 CCD 카메라로부터 촬영된 주변 환경에 대한 영상 신호를 컴퓨터(500)로 무선 전송하며, 컴퓨터(500)는 전송된 영상 신호를 해석하여 로봇을 자동으로 조정하게 된다.
깃발부(200)는 로봇의 근접이나 접촉에 의해 작동되며, 센서부(201)와, 모터 제어부(202)와, 모터 구동부(203)와, 모터(204)와, 깃발 지지부(205)를 포함하여 구성된다.
센서부(201)는 로봇 팔의 접촉 또는 근접한 상태를 판별한다. 즉, 로봇 팔의 접촉을 감지할 수 있는 소형의 압력 센서 또는 로봇 팔의 근접 여부를 판별할 수 있는 한 쌍의 적외선 센서가 사용된다.
모터 제어부(202)는 센서부(201)로부터 로봇 팔의 접촉 또는 근접 감지 신호가 전달되면 모터(204)를 구동시키기 위한 모터구동신호를 출력한다.
모터 구동부(203)는 모터 제어부(202)로부터 출력되는 모터구동신호에 따라 모터(204)를 구동시킨다.
깃발 지지부(205)는 모터(204)의 회전축에 부착된 2 개의 깃발 지지 부재(205a,205b)로서, 이러한 깃발 지지 부재(205a,205b)의 끝 부분에는 각기 다른 색깔의 깃발(200a,200c)이 부착되어진다.
즉, 모터 구동부(203)에 의해 모터(204)가 구동되면 모터(204)의 회전축에 부착된 2개의 깃발(200a,200c)이 절환되어지고, 이에 따라 수직 방향의 깃발(200a)은 로봇과 플레이어에게 보이게 되고, 다른 깃발(200c)은 깃발부의 몸체 속으로 들어가 보이지 않게 된다.
외부조정장치(400)는 플레이어가 로봇을 수동으로 조정하기 위한 장치로서, 플레이어에 의해 입력되는 무선 명령 신호를 로봇에게 전송하며, 특히 플레이어가 외부조정장치(400)를 이용하여 로봇의 내부 상태(공격 상태, 수비 상태)를 설정하게 된다.
컴퓨터(500)는 플레이어가 로봇을 자동으로 조정하기 위한 장치로서, 로봇의 머리부에 장착된 하나의 칼라 CCD 카메라로부터 촬영된 주변 환경에 대한 영상 신호를 무선으로 전송받아 전송된 영상 신호를 해석하여 로봇을 자동으로 조정하게 된다.
즉, 플레이어는 외부조정장치(400) 또는 컴퓨터(500)를 통해서 경기장 내의 로봇을 무선으로 조정하여 상대 로봇을 피하고, 자신의 로봇 팔부를 이용하여 상대 깃발에 접촉 또는 근접하여 상대 깃발을 자신의 깃발로 절환시키거나 자신의 깃발에 접근하는 상대 로봇를 방어하는 방식으로 게임이 진행되며, 일정 시간이 경과한 후에 깃발의 색깔 수에 의해 게임의 승패가 결정되어진다.
도 7 및 도 8은 본 발명의 일실시예에 따른 행위기반 로봇 제어방법을 나타내는 도면이다.
도시된 바와 같이, 물리적 센서에서 감지된 상대 로봇과 깃발의 위치/방향 정보 및 상대 로봇이나 장애물과의 충돌 위험 정보가 논리적 센서로 전달(S10)되어진다.
이어서, 논리적 센서에서 물리적 센서로부터 전달된 정보를 확인하여 충돌 위험과 같은 응급 상황이 발생하였는지를 판단(S20)하여 충돌 위험이 발생하지 않은 경우에는 논리적 센서의 출력 정보가 단기 메모리에 저장(S30)된다.
이어서, 단기 메모리에 저장된 논리적 센서의 출력 정보에 의해 현재 외부상황을 평가(S40)하고, 평가된 외부상황과 로봇의 내부상태에 따라 n개의 행위집합과 n개의 조정방법 중에서 어느 하나의 행위집합과 조정방법이 선택(S50)되어진다.
이어서, 선택된 행위집합과 조정방법에 의한 조정 결과에 따라 로봇 경로 데이터가 생성(S60)되고, 생성된 로봇 경로 데이터에 따라 실제 로봇이 구동(S70)되어진다.
특히, 상기 평가된 외부상황과 로봇의 내부상태에 따라 n개의 행위집합과 n개의 조정방법 중에서 어느 하나의 행위집합과 조정방법이 선택되는 S50 과정에서, 외부상황은 상술한 바와 같이 "1. 로봇이 상대 깃발을 향해 있으며 로봇이 깃발을 누를 수 있는 상황, 2. 로봇이 상대 깃발을 향해 있으며 로봇이 깃발을 누를 수 없는 상황, 3. 로봇이 우리 깃발을 향해 있으며 로봇이 깃발과 가까운 상황, 4. 로봇이 상대 깃발을 향해 있으며 로봇이 깃발과 먼 상황" 과 같은 4가지 경우의 외부 상황이 존재할 수 있으며, 이러한 4가지 외부상황에서 외부상황 1, 2의 경우에 대해 로봇의 내부상태와 논리적 센서의 출력에 따라 선택되어지는 행위집합에 대해서는 이미 상술하였으므로 구체적인 설명은 생략하기로 한다.
한편, 상기 논리적 센서에서 물리적 센서로부터 전달된 정보를 확인하여 충돌 위험과 같은 응급 상황이 발생하였는지를 판단하는 S20 과정에서, 만약 충돌 위험이 있는 것으로 판단된 경우에는 충돌 위험에 따른 독립적 행위집합과 독립적 조정방법이 선택(S80)되어진다.
이어서, 선택된 독립적 행위집합과 독립적 조정방법에 의한 조정 결과에 따라 로봇 경로 데이터가 생성(S90)되고, 생성된 로봇 경로 데이터에 따라 실제 로봇이 구동(S100)되어진다.
즉, 로봇의 충돌 위험과 같은 응급 상황의 경우에는 외부상황에 관계 없이 논리적 센서의 출력이 하드웨어 인터럽트와 같은 개념으로 작동함으로써 독립적 행위집합과 독립적 조정방법이 즉각적으로 선택되어 그 조정 결과에 따라 생성되는 로봇 경로 데이터에 의해 실제 로봇이 구동되어지며, 이러한 경우에도 로봇의 내부 상태에 따라 로봇의 행위가 달라질 수 있다.
이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.
도 1은 본 발명에 따른 행위기반 로봇 제어장치의 구성을 나타내는 도면.
도 2는 도 1의 행위기반 로봇 제어장치가 내장된 로봇의 일예를 나타내는 도면.
도 3은 본 발명의 일실시예에 따른 행위기반로봇을 이용한 무선 조정 로봇 깃발 게임기의 사시도.
도 4는 본 발명의 일실시예에 따른 행위집합 조정 방법의 일예를 나타내는 도면.
도 5는 본 발명의 일실시예에 따른 무선 조정 로봇 깃발 게임기의 시스템 구성을 나타내는 도면.
도 6은 도 5의 깃발부의 구조를 나타내는 도면.
도 7 및 도 8은 본 발명의 일실시예에 따른 행위기반 로봇 제어방법을 나타내는 도면.

Claims (16)

  1. 행위기반 로봇 제어장치에 있어서,
    환경에 관한 영상정보를 획득하고 상대 로봇이나 장애물의 근접 정도를 감지하기 위한 물리적 센서부와,
    상기 물리적 센서부에 의해 감지된 환경 내 물체의 위치와 방향 및 상대 로봇이나 장애물과의 충돌 위험에 관한 외부상황정보를 출력하는 논리적 센서부와,
    로봇의 내부 상태 정보를 인식하기 위한 내부상태모듈과,
    상기 외부상황정보를 이용하여 현재의 외부상황을 평가하기 위한 외부상황 평가모듈과,
    상기 외부상황 평가모듈에 의해 평가된 외부상황과 상기 내부상태모듈에 의해 인식된 로봇의 내부상태에 따라 선택된 행위 집합과 조정 방법에 의한 조정 결과 신호를 출력하는 행위집합/조정 모듈과,
    상기 논리적 센서부로부터 충돌 위험 신호가 출력되는 경우 선택된 상황 독립적 행위 집합과 상황 독립적 조정 방법에 의한 조정 결과 신호를 출력하는 상황 독립적 행위집합/조정 모듈과,
    상기 행위집합/조정 모듈 또는 상기 상황 독립적 행위집합/조정 모듈로부터 출력되는 조정 결과 신호에 따라 로봇 경로 데이터를 생성하는 모션 컨트롤러와,
    상기 모션 컨트롤러에 의해 생성된 로봇 경로 데이터에 따라 로봇을 구동시키는 액츄에이터를 포함하되,
    상기 로봇의 내부상태는 공격 상태 또는 수비 상태이고,
    상기 행위집합/조정 모듈은 상기 로봇의 내부상태가 공격 상태일 때 상기 평가된 외부상황과 상기 공격 상태에 따라 복수의 행위 집합과 조정 방법 중 제 1 행위 집합과 조정 방법을 선택하고, 상기 로봇의 내부상태가 수비 상태일 때 상기 평가된 외부상황과 상기 수비 상태에 따라 복수의 행위 집합과 조정 방법 중 제 2 행위 집합과 조정 방법을 선택하고, 상기 선택된 제 1 행위 집합과 조정 방법 또는 상기 선택된 제 2 행위 집합과 조정 방법에 의한 조정 결과 신호를 출력하는 것인, 행위기반 로봇 제어장치.
  2. 청구항 1에 있어서,
    상기 논리적 센서부는 상기 상대 로봇 또는 감지 없음(None) 중 어느 하나를 출력하고,
    상기 행위집합/조정 모듈은 상기 로봇의 내부상태가 공격 상태이고 상기 논리적 센서부의 출력이 상대 로봇일 때, 상기 복수의 행위 집합과 조정 방법 중 제 1 행위 집합과 조정 방법을 선택하고,
    상기 행위집합/조정 모듈은 상기 로봇의 내부상태가 공격 상태이고 상기 논리적 센서부의 출력이 감지 없음일 때, 상기 복수의 행위 집합과 조정 방법 중 제 3 행위 집합과 조정 방법을 선택하고,
    상기 행위집합/조정 모듈은 상기 로봇의 내부상태가 수비 상태이고 상기 논리적 센서부의 출력이 상대 로봇일 때, 상기 복수의 행위 집합과 조정 방법 중 제 2 행위 집합과 조정 방법을 선택하고,
    상기 행위집합/조정 모듈은 상기 로봇의 내부상태가 수비 상태이고 상기 논리적 센서부의 출력이 감지 없음일 때, 상기 복수의 행위 집합과 조정 방법 중 제 4 행위 집합과 조정 방법을 선택하고,
    상기 행위집합/조정 모듈은 상기 선택된 제 1 행위 집합과 조정 방법, 상기 선택된 제 2 행위 집합, 상기 선택된 제 3 행위 집합, 상기 선택된 제 4 행위 집합 중 어느 하나에 의한 조정 결과 신호를 출력하되,
    상기 물리적 센서부는,
    물리적 형태를 갖는 센서로서, 환경에 관한 영상정보를 획득하기 위한 CCD 카메라 및 상대 로봇이나 장애물의 근접 정도를 감지하기 위한 적외선 센서를 포함하는 것을 특징으로 하는 행위기반 로봇 제어장치.
  3. 청구항 1에 있어서,
    상기 논리적 센서부는,
    상기 물리적 센서부를 기반으로 하는 가상의 센서로서, 환경 내 물체의 위치 및 방향을 감지하기 위한 타겟 감지 센서와, 상대 로봇이나 장애물과의 충돌 위험을 감지하기 위한 충돌 감지 센서를 포함하는 것을 특징으로 하는 행위기반 로봇 제어장치.
  4. 청구항 1에 있어서,
    상기 내부상태모듈의 내부 상태는 사용자에 의해 설정되는 것을 특징으로 하는 행위기반 로봇 제어장치.
  5. 청구항 1에 있어서,
    상기 논리적 센서부로부터 출력되는 외부상황정보를 저장하기 위한 단기 메모리를 더 포함하는 것을 특징으로 하는 행위기반 로봇 제어장치.
  6. 청구항 5에 있어서,
    상기 내부상태모듈의 내부 상태는 상기 단기 메모리로부터 추출되는 정보에 따라 변경되는 것을 특징으로 하는 행위기반 로봇 제어장치.
  7. 청구항 1에 있어서,
    상기 상황 독립적 행위집합/조정 모듈로부터 출력되는 조정 결과 신호는 상기 내부상태모듈로부터 전달되는 로봇의 내부상태 정보에 따라 변경되는 것을 특징으로 하는 행위기반 로봇 제어장치.
  8. 행위기반 로봇 제어방법으로서,
    (a) 환경 내 물체의 위치와 방향 및 상대 로봇이나 장애물과의 충돌 위험 여부에 관한 외부상황정보가 센서부로부터 출력되는 단계;
    (b) 외부상황 평가모듈에 의해 상기 외부상황정보를 통해 현재의 외부상황이 평가되는 단계;
    (c) 내부상태모듈에 의해 공격 상태 또는 수비 상태를 포함하는 로봇의 내부상태가 인식되는 단계;
    (d) 상기 평가된 외부상황과 로봇의 내부상태에 따라 선택된 행위 집합과 조정 방법에 의한 조정 결과 신호가 출력되는 단계;
    (e) 상기 출력되는 조정 결과 신호에 따라 로봇 경로 데이터가 생성되고, 상기 생성된 로봇 경로 데이터에 의해 로봇이 구동되는 단계를 포함하고,
    상기 출력되는 조정 결과 신호는 상기 로봇의 내부상태가 공격 상태일 때, 상기 평가된 외부상황과 상기 공격 상태에 따라 복수의 행위 집합과 조정 방법 중 제 1 행위 집합과 조정 방법에 의한 조정 결과 신호와 대응되고,
    상기 출력되는 조정 결과 신호는 상기 로봇의 내부상태가 수비 상태일 때, 상기 평가된 외부상황과 상기 수비 상태에 따라 복수의 행위 집합과 조정 방법 중 제 2 행위 집합과 조정 방법에 의한 조정 결과 신호와 대응되는 것인, 행위기반 로봇 제어방법.
  9. 청구항 8에 있어서,
    상기 단계 (a)는,
    물리적 센서에 의해 환경에 관한 영상정보가 획득되고 상대 로봇이나 장애물의 근접 정도가 감지되는 단계와, 논리적 센서에 의해 환경 내 물체의 위치와 방향 및 상대 로봇이나 장애물과의 충돌 위험에 관한 외부상황정보가 출력되는 단계를 포함하는 것을 특징으로 하는 행위기반 로봇 제어방법.
  10. 청구항 9에 있어서,
    (f) 상기 논리적 센서로부터 충돌 위험 신호가 출력되는 경우 선택된 상황 독립적 행위 집합과 상황 독립적 조정 방법에 의한 조정 결과 신호가 출력되는 단계를 더 포함하는 것을 특징으로 하는 행위기반 로봇 제어방법.
  11. 청구항 10에 있어서,
    상기 단계 (f)에서 출력되는 조정 결과 신호는 상기 내부상태모듈로부터 전달되는 로봇의 내부상태 정보에 따라 변경되는 것을 특징으로 하는 행위기반 로봇 제어방법.
  12. 청구항 10에 있어서,
    (g) 상기 단계 (f)에서 출력되는 조정 결과 신호에 따라 로봇 경로 데이터가 생성되고, 상기 생성된 로봇 경로 데이터에 의해 로봇이 구동되는 단계를 더 포함하는 것을 특징으로 하는 행위기반 로봇 제어방법.
  13. 청구항 8에 있어서,
    상기 단계 (c)에서,
    상기 내부상태모듈의 내부상태는 사용자에 의해 설정되는 것을 특징으로 하 는 행위기반 로봇 제어방법.
  14. 청구항 8에 있어서,
    상기 단계 (a)에서 출력되는 외부상황정보는 단기 메모리에 저장되는 것을 특징으로 하는 행위기반 로봇 제어방법.
  15. 청구항 14에 있어서,
    상기 단계 (c)에서,
    상기 내부상태모듈의 내부상태는 상기 단기 메모리로부터 추출되는 정보에 따라 변경되는 것을 특징으로 하는 행위기반 로봇 제어방법.
  16. 청구항 8에 있어서,
    상기 단계 (d)에서 출력되는 조정 결과 신호는 선택된 행위 집합의 벡터합에 의한 조정 결과 신호인 것을 특징으로 하는 행위기반 로봇 제어방법.
KR1020070133429A 2007-12-18 2007-12-18 행위기반 로봇 제어장치 및 그 제어방법 KR101402908B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070133429A KR101402908B1 (ko) 2007-12-18 2007-12-18 행위기반 로봇 제어장치 및 그 제어방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070133429A KR101402908B1 (ko) 2007-12-18 2007-12-18 행위기반 로봇 제어장치 및 그 제어방법

Publications (2)

Publication Number Publication Date
KR20090065890A KR20090065890A (ko) 2009-06-23
KR101402908B1 true KR101402908B1 (ko) 2014-06-02

Family

ID=40994085

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070133429A KR101402908B1 (ko) 2007-12-18 2007-12-18 행위기반 로봇 제어장치 및 그 제어방법

Country Status (1)

Country Link
KR (1) KR101402908B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170071443A (ko) * 2015-12-15 2017-06-23 성균관대학교산학협력단 군집 로봇의 행위 기반 분산 제어 시스템 및 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101989965B1 (ko) * 2017-09-27 2019-06-17 주식회사 토룩 로봇 제어 시스템

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004283958A (ja) 2003-03-20 2004-10-14 Sony Corp ロボット装置、その行動制御方法及びプログラム
KR20060072597A (ko) * 2004-12-23 2006-06-28 한국전자통신연구원 가변 우선순위 기반의 로봇 행동선택 구조 및 그 방법
US20060173577A1 (en) * 2002-12-10 2006-08-03 Masanori Takeda Robot control device, robot control method, and robot control program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060173577A1 (en) * 2002-12-10 2006-08-03 Masanori Takeda Robot control device, robot control method, and robot control program
JP2004283958A (ja) 2003-03-20 2004-10-14 Sony Corp ロボット装置、その行動制御方法及びプログラム
KR20060072597A (ko) * 2004-12-23 2006-06-28 한국전자통신연구원 가변 우선순위 기반의 로봇 행동선택 구조 및 그 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170071443A (ko) * 2015-12-15 2017-06-23 성균관대학교산학협력단 군집 로봇의 행위 기반 분산 제어 시스템 및 방법

Also Published As

Publication number Publication date
KR20090065890A (ko) 2009-06-23

Similar Documents

Publication Publication Date Title
US11000952B2 (en) More endearing robot, method of controlling the same, and non-transitory recording medium
US9662788B2 (en) Communication draw-in system, communication draw-in method, and communication draw-in program
JP2007118129A (ja) コミュニケーションロボットおよびそれを用いた注意制御システム
CN102902271A (zh) 基于双目视觉的机器人目标识别与抓取系统及方法
US11331805B2 (en) Motion restriction system and method
JP6134895B2 (ja) ロボット制御システム、ロボット制御プログラムおよび説明ロボット
JP2024023193A (ja) 情報処理装置及び情報処理方法
JP2024009862A (ja) 情報処理装置、情報処理方法、およびプログラム
KR101402908B1 (ko) 행위기반 로봇 제어장치 및 그 제어방법
US20190366554A1 (en) Robot interaction system and method
US20230195401A1 (en) Information processing apparatus and information processing method
JP5915381B2 (ja) ロボット及びロボットの制御方法
KR101470433B1 (ko) 행위기반 로봇 깃발 게임 시스템 및 그 방법
US20210316452A1 (en) Information processing device, action decision method and program
JP2007125629A (ja) ロボット装置及びその行動制御方法
Kadous et al. Controlling heterogeneous semi-autonomous rescue robot teams
JP7238796B2 (ja) 動物型の自律移動体、動物型の自律移動体の動作方法、およびプログラム
KR102528181B1 (ko) 인공지능 칩과 센서가 임베디드된 컨트롤 보드 및 이를 이용한 자율주행 코딩로봇
Stückler et al. NimbRo@ Home 2010 team description
JP2004298976A (ja) ロボット装置及びロボット装置の認識制御方法
Nakamura et al. The RoboCup-NAIST: a cheap multisensor-based mobile robot with visual learning capability
JP2004299006A (ja) ロボット装置及びロボット装置による顔認識状況の提示方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170504

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180503

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190502

Year of fee payment: 6