KR20120098192A - Moving robot and method for controlling the same - Google Patents
Moving robot and method for controlling the same Download PDFInfo
- Publication number
- KR20120098192A KR20120098192A KR1020110017981A KR20110017981A KR20120098192A KR 20120098192 A KR20120098192 A KR 20120098192A KR 1020110017981 A KR1020110017981 A KR 1020110017981A KR 20110017981 A KR20110017981 A KR 20110017981A KR 20120098192 A KR20120098192 A KR 20120098192A
- Authority
- KR
- South Korea
- Prior art keywords
- unit
- distance
- bar
- mobile robot
- camera
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
Abstract
Description
본 발명은 이동 로봇에 관련된 것으로, 더욱 구체적으로는 스테레오 카메라(stereo camera)를 구비한 이동 로봇에 관한 것이다. The present invention relates to a mobile robot, and more particularly to a mobile robot having a stereo camera (stereo camera).
원격으로 이동의 조종이 가능한 이동 로봇을 군사용 또는 산업용으로 사용하는 경우가 점차 증가하고 있다. 이러한 이동 로봇은 일반적으로 카메라를 구비하여 그 카메라로 촬영한 현장의 영상을 텔레오퍼레이터(teleoperator)에게 전송한다. Increasingly, mobile robots that can be controlled remotely are used for military or industrial purposes. Such a mobile robot generally includes a camera and transmits an image of a scene photographed by the camera to a teleoperator.
현장의 영상을 수신한 텔레오퍼레이터는 그 영상을 보고 이동 로봇 주변의 환경을 살핀 다음, 이동 로봇의 이동을 원격으로 제어한다. Upon receiving the image of the field, the teleoperator looks at the image, examines the environment around the robot, and remotely controls the movement of the robot.
최근에는 텔레오퍼레이터가 효과적으로 이동 로봇의 주변환경을 파악할 수 있도록, 입체감 있는 영상을 텔레오퍼레이터에게 전송하는 기술이 대두되고 있다. Recently, a technology for transmitting a stereoscopic image to a teleoperator has emerged so that a teleoperator can effectively grasp the surrounding environment of a mobile robot.
본 발명의 일 측면은, 촬영하고자 하는 물체의 위치에 관계없이 그 물체에 대하여 풍부한 입체감을 가지는 스테레오 영상(stereo image)을 텔레오퍼레이터에게 제공할 수 있는 이동 로봇 및 이의 제어방법을 제공함에 목적이 있다.One object of the present invention is to provide a mobile robot and a control method thereof capable of providing a teleoperator with a stereo image having a rich stereoscopic effect on the object regardless of the position of the object to be photographed. .
상기의 목적을 달성하기 위해서 본 발명의 일 측면에 따른 이동 로봇은, 본체부와, 상기 본체부를 이동시키는 추진부와, 상기 본체부에 배치되며 특정 물체까지의 거리 및 방향을 측정할 수 있는 스캐너부와, 상기 본체부에 배치되는 제1 및 제2카메라부와, 상기 제1 및 제2카메라부의 간격 및 주시 방향이 변경되도록 상기 제1 및 제2카메라부를 이동시키는 구동부와, 상기 스캐너부로부터 상기 거리 및 방향 정보를 수신하며, 상기 구동부를 제어하는 제어부를 구비한다. In order to achieve the above object, a mobile robot according to an aspect of the present invention includes a main body, a propulsion unit for moving the main body, and a scanner disposed on the main body to measure a distance and a direction to a specific object. And a first and second camera portion disposed in the main body portion, a driving portion for moving the first and second camera portions so that the distance and gaze direction of the first and second camera portions are changed, and from the scanner portion And a controller for receiving the distance and direction information and controlling the driver.
또한, 상기의 목적을 달성하기 위해서 본 발명의 다른 일 측면에 따른 이동 로봇은, 본체부와, 상기 본체부를 추진시키는 추진부와, 상기 본체부에 배치되며 특정 물체까지의 거리 및 방향을 측정하는 스캐너부와, 상기 본체부에 배치되는 이미지 센서부와, 상기 본체부에 배치되는 제1 및 제2경통부와, 상기 제1 및 제2경통부 사이의 간격 및 주시 방향이 변경될 수 있도록 상기 제1 및 제2경통부를 이동시키는 구동부와, 상기 제1 및 제2경통부를 통과한 영상을 반사시켜 상기 이미지 센서부로 투사시키는 반사부 및 상기 스캐너부로부터 상기 거리 및 방향 값을 수신하며 상기 구동부를 제어하는 제어부를 구비한다. In addition, in order to achieve the above object, the mobile robot according to another aspect of the present invention, the main body portion, the pushing portion for pushing the main body portion, the main body portion is arranged to measure the distance and direction to a specific object The first and the second barrel portion disposed in the main body portion, the image sensor portion disposed in the main body portion, and the first and second barrel portion, the distance between the first and second barrel portion can be changed so that the direction of gaze And a driving unit for moving the second barrel unit, a reflector for reflecting the image passing through the first and second barrel units and projecting the image to the image sensor unit, and receiving the distance and direction values from the scanner unit to control the driving unit. A control unit is provided.
또한 상기의 목적을 달성하기 위하여 본 발명의 또 다른 일 측면에 따른 이동 로봇의 제어방법은 이동 로봇으로부터 이격되게 위치한 물체를 인식하고 상기 물체까지의 거리 및 방향을 측정하는 물체 위치측정단계와, 상기 물체까지의 거리 및 방향에 따라서, 간격 및 주시 방향의 변경이 가능하게 배치된 제1 및 제2카메라부의 상기 간격 및 상기 주시 방향을 제어하는 카메라부 위치제어단계와, 상기 제1 및 제2카메라부로 촬영한 영상을 텔레오퍼레이터에게 전송하는 영상전송단계와, 상기 텔레오퍼레이터로부터 상기 이동 로봇의 이동을 제어하기 위한 제어신호를 수신하는 단계를 포함한다. In addition, the control method of the mobile robot according to another aspect of the present invention to achieve the above object is an object position measuring step of recognizing an object spaced from the mobile robot and measuring the distance and direction to the object, and A camera unit position control step of controlling the interval and the direction of gaze for the first and second camera units arranged to be able to change the distance and the direction of gaze according to a distance and a direction to an object; and the first and second cameras An image transmission step of transmitting a negatively captured image to the teleoperator, and receiving a control signal for controlling the movement of the mobile robot from the teleoperator.
본 발명의 일 측면에 따른 이동 로봇 및 이의 제어방법에 따르면, 촬영하고자 하는 물체의 위치에 관계없이, 그 물체에 대하여 풍부한 입체감을 가지는 스테레오 영상을 텔레오퍼레이터에게 제공할 수 있다. According to the mobile robot and the control method thereof according to an aspect of the present invention, regardless of the position of the object to be photographed, it is possible to provide the teleoperator with a stereo image having a rich three-dimensional feeling for the object.
도 1은 본 발명의 일 실시예에 따른 이동 로봇의 외관을 개략적으로 도시한 사시도이다.
도 2는 도 1의 이동 로봇의 구성을 개략적으로 도시한 평면도이다.
도 3은 도 1의 이동 로봇의 일 부분을 분리하여 도시한 사시도이다.
도 4는 도 1의 이동 로봇의 IV-IV부분을 따라 취한 개략적인 단면도이다.
도 5는 도 1의 이동 로봇의 제어방법을 개략적으로 나타낸 흐름도이다.
도 6은 도 1의 이동 로봇의 제어방법의 일부 단계를 설명하기 위하여, 도 1의 이동 로봇의 일부를 개략적으로 도시한 평면도이다.
도 7은 도 1의 이동 로봇의 제어방법의 다른 일부 단계를 설명하기 위하여, 도 1의 이동 로봇의 일부를 개략적으로 도시한 평면도이다.
도 8은 도 1의 이동 로봇의 제어방법의 또 다른 일부 단계를 설명하기 위한 도면이다.
도 9는 본 발명의 다른 일 실시예에 따른 이동 로봇의 일부를 개략적으로 도시한 평면도이다.
도 10은 본 발명의 또 다른 일 실시예에 따른 이동 로봇의 일부를 개략적으로 도시한 평면도이다.
도 11은 본 발명의 또 다른 일 실시예에 따른 이동 로봇의 일부를 개략적으로 도시한 평면도이다. 1 is a perspective view schematically showing the appearance of a mobile robot according to an embodiment of the present invention.
FIG. 2 is a plan view schematically illustrating the configuration of the mobile robot of FIG. 1.
3 is a perspective view illustrating a portion of the mobile robot of FIG. 1 separated from each other.
4 is a schematic cross-sectional view taken along the IV-IV part of the mobile robot of FIG.
5 is a flowchart schematically illustrating a control method of the mobile robot of FIG. 1.
FIG. 6 is a plan view schematically illustrating a part of the mobile robot of FIG. 1 in order to explain some steps of the method for controlling the mobile robot of FIG. 1.
FIG. 7 is a plan view schematically illustrating a part of the mobile robot of FIG. 1 in order to explain some other steps of the method for controlling the mobile robot of FIG. 1.
FIG. 8 is a view for explaining still another step of the control method of the mobile robot of FIG. 1.
9 is a plan view schematically illustrating a portion of a mobile robot according to another embodiment of the present invention.
10 is a plan view schematically illustrating a portion of a mobile robot according to another embodiment of the present invention.
11 is a plan view schematically illustrating a portion of a mobile robot according to another embodiment of the present invention.
이하 도면을 참조하여 본 발명의 일 실시예에 따른 이동 로봇에 대하여 설명한다. Hereinafter, a mobile robot according to an embodiment of the present invention will be described with reference to the drawings.
도 1은 본 발명의 일 실시예에 따른 이동 로봇의 외관을 개략적으로 도시한 사시도이며, 도 2는 도 1의 이동 로봇의 구성을 개략적으로 도시한 평면도이다. 1 is a perspective view schematically showing the appearance of a mobile robot according to an embodiment of the present invention, Figure 2 is a plan view schematically showing the configuration of the mobile robot of FIG.
도 1 및 도 2를 참조하면 본 실시예에 다른 이동 로봇(1)은 본체부(100), 추진부(200), 스캐너부(300), 제1 및 제2카메라부(410,420), 구동부(500), 제어부(600) 및 통신부(700)를 구비한다. 1 and 2, the
본체부(100)는 추진부(200), 스캐너부(300), 제1 및 제2카메라부(410,420), 구동부(500), 통신부(700) 및 제어부(600)가 배치되는 부분으로, 이동 로봇(1)의 임무에 따라 적절한 장치를 더 탑재할 수 있다. 예를 들어 이동 로봇(1)이 경계 또는 적을 공격하는 임무를 가지는 경우에는 화기를 탑재할 수 있다.The
추진부(200)는 본체부(100)를 추진시키기 위한 것으로 도 2에 도시된 바와 같이 바퀴(210)와 동력부(220)와 바퀴(210)를 구비한다. 동력부(220)가 바퀴(210)를 회전시키면, 바퀴(210)는 지면을 밀면서 본체부(100)를 추진시킨다. The
스캐너부(300)는 본체부(100)의 상측 전방에 배치되며, 스캐너부(300)로부터 특정 물체까지의 거리 및 방향을 측정한다. 스캐너부(300)는 본체부(100)에 회전 가능하게 배치되는 레이저 거리 센서로 이루어질 수 있고, 본체부(100)에 회전 가능하게 배치되는 레이더로 이루질 수도 있다. The
제1 및 제2카메라부(410,420)는 본체부(100)의 상측 전방에 배치되며, 스캐너부(300)를 그 사이에 두고 서로 대칭되게 배치된다. 제1 및 제2카메라부(410,420)는 그 전방을 촬영하여 영상을 형성한다. The first and
구동부(500)는 제1 및 제2카메라부(410,420) 사이의 간격(G)과, 제1 및 제2카메라부(410,420) 각각의 주시 방향(D1,D2)을 변경시키도록 제1 및 제2카메라부(410,420)를 이동시키는 역할을 한다. The
도 3은 도 1의 이동 로봇(1)의 구동부(500)에 해당되는 일 부분을 분리하여 도시한 사시도이며 도 4는 도 1의 이동 로봇(1)의 IV-IV부분을 따라 취한 개략적인 단면도이다. FIG. 3 is a perspective view of a portion corresponding to the
도 3 및 도 4를 참조하면, 구동부(500)는 제1 및 제2베이스(510,520), 제1액추에이터(512), 제2액추에이터(522) 및 제3액추에이터(530)를 구비한다.3 and 4, the
제1 및 제2베이스(510,520)는 서로 접근 및 이격 가능하게 본체부(100)에 배치되며, 각각 제1 및 제2카메라부(410,420)를 회전 가능하게 지지한다. 도 3에 도시된 바와 같이, 제1 및 제2베이스(510,520)는 가이드 레일(534)에 끼워져 결합되어 가이드 레일(534)의 연장 방향을 따라서 슬라이딩 이동된다. The first and
제1액추에이터(512)는 제1베이스(510)에 배치되며, 제1카메라부(410)에 결합되어 제1카메라부(410)를 회전 이동시키는 역할을 한다. 제1액추에이터(512)는 제1카메라부(410)를 회전 이동시킬 수 있도록 모터 및 감속기를 구비하여 이루어질 수 있다. The
제2액추에이터(522)는 제2베이스(520)에 배치되며, 제2카메라부(420)에 결합되어 제2카메라부(420)를 회전 이동시키는 역할을 한다. 제2액추에이터(522)도 모터 및 감속기를 구비하여 이루어질 수 있다. The
제3액추에이터(530)는 스크류(532)와 모터(536)를 구비한다. The
스크류(532)는 가이드 레일(534)과 평행하게 배치되며, 제1베이스(510) 및 제2베이스(520)에 마련된 볼 너트(514,524)에 나사 결합되는 볼 스크류이다. 스크류(532)의 제1베이스(532)와 결합되는 부분(532a)의 나사 방향과 제2베이스(520)와 결합되는 부분(532b)의 나사 방향은 서로 반대로 형성되어 있다. 따라서 스크류(532)가 어느 한 방향으로 회전하면 제1베이스(510)와 제2베이스(520)는 서로 접근하는 방향으로 이동되고, 스크류(532)가 그 반대 방향으로 회전하면 제1베이스(510)와 제2베이스(520)는 서로 이격되는 방향으로 이동된다. The
모터(536)는 제1베이스(510) 및 제2베이스(520)가 서로 접근 및 이격될 수 있도록, 스크류(532)에 연결되어 스크류(532)를 일 방향 및 타 방향으로 회전시키는 역할을 한다. 모터(536)와 스크류(532) 사이에는 감속기가 배치될 수도 있다. The
통신부(700)는 텔레오퍼레이터(T)와 무선으로 데이터 및 제어신호를 송수신하는 역할을 한다. 통신부(700)가 텔레오퍼레이터(T)가 송신하는 데이터(S1)에는 제1카메라부(410)와 제2카메라부(420)에서 촬영한 영상이 포함되며, 통신부(700)가 텔레오퍼레이터(T)로부터 수신하는 제어신호(S2)에는 추진부(200)의 제어신호가 포함된다. The
제어부(600)는 추진부(200), 스캐너부(300), 제1 및 제2카메라부(410,420), 구동부(500) 및 통신부(700)를 제어한다. 제어부(600)는 스캐너부(300)로부터 촬영하고자 하는 물체까지의 거리 및 물체의 방향 정보를 수신하여, 수신된 물체의 위치 정보에 따라 구동부(500)를 제어할 수 있다. 도 4를 참조하면 제어부(600)는 제3액추에이터(530)의 모터(536)를 제어함으로써 제1 및 제2카메라부(410,420) 사이의 간격(G)을 제어할 수 있다. 특히 제어부(600)는 물체까지의 거리가 멀어질수록 제1 및 제2카메라부(410,420)의 간격(G)을 증가시키며, 반대로 물체까지의 거리가 가까워질수록 제1 및 제2카메라부(410,420)의 간격(G)을 감소시키는 형태로 모터(536)를 제어한다. The
또한 제어부(600)는 제1 및 제2액추에이터(512,522)의 작동도 제어하여, 제1 및 제2카메라부(410,420)의 회전을 제어할 수 있다. 특히 제어부(600)는 제1 및 제2카메라부(410,420)의 주시 방향이 촬영하고자 하는 물체를 향하도록 제1 및 제2액추에이터(522)를 제어한다. In addition, the
또한 제어부(600)는 제1 및 제2카메라부(410,420)로 촬영한 영상을 통신부(700)를 통하여 텔레오퍼레이터에게 송신할 수 있으며, 텔레오퍼레이터로부터 추진부(200) 제어를 위한 제어신호를 수신하여 이동 로봇(1)의 이동 방향 및 속력 등을 제어할 수도 있다. In addition, the
다음으로 본 실시예에 따른 이동 로봇(1)의 제어방법의 일 예시를 도면을 참조하여 설명한다. Next, an example of a control method of the
도 5는 도 1의 이동 로봇(1)의 제어방법을 개략적으로 나타낸 흐름도이다. 5 is a flowchart schematically illustrating a control method of the
도 5를 참조하면 본 실시예에 따른 이동 로봇(1)의 제어방법은 물체의 위치를 측정하는 단계(S10), 제1 및 제2카메라부(410,420)의 위치를 제어하는 단계(S20), 제1 및 제2카메라부(410,420)의 초점을 제어하는 단계(S30), 제1 및 제2카메라부(410,420)의 촬영 영상을 전송하는 단계(S40), 이동 로봇(1)의 이동 제어신호를 수신하는 단계(S50) 및 이동 로봇(1)의 이동을 제어하는 단계(S60)를 포함한다. Referring to FIG. 5, the control method of the
물체의 위치를 측정하는 단계(S10)는 스캐너부(300)를 이용하여 이동 로봇(1)으로부터 이격된 장애물 등과 같은 물체를 감지한 다음 그 물체까지의 거리 및 방향을 측정하는 단계이다. 도 6은 본 실시예의 이동 로봇(1)을 이용하여 특정 물체(X)까지의 거리 및 방향을 측정하는 것을 설명하기 위한 개략적인 평면도이다. 도 6을 참조하면, 본 단계(S10)에서는 스캐너부(300)를 이용하여 특정 물체(X)를 감지한 다음 그 물체(X)까지의 거리(L1) 및 방향, 예컨대 스캐너부(300)의 전면 방향으로부터 그 물체(X)까지의 방향각(A1)을 측정한다. Measuring the position of the object (S10) is a step of detecting an object such as an obstacle spaced apart from the
제1 및 제2카메라부(410,420)의 위치를 제어하는 단계(S20)는 스캐너부(300)로부터 측정된 물체(X)까지의 거리와 방향 정보에 따라서 제1 및 제2카메라부(410,420) 사이의 거리(G) 및 각각의 주시 방향(D1,D2)를 변경하는 단계이다. In the step S20 of controlling the positions of the first and
도 7은 본 실시예의 이동 로봇(1)을 이용하여 제1 및 제2카메라부(410,420)의 간격(G) 및 주시 방향(D1,D2)을 제어하는 단계를 설명하기 위한 개략적인 평면도이다. 도 7을 참조하면, 제1 및 제2카메라부(410,420)의 간격(G)은 도 6에 도시된 간격(G)과는 다르게 변경되고, 제1 및 제2카메라부(410,420)의 주시 방향(D1,D2)도 물체(X)를 바라보는 방향으로 변경된다. 제1 및 제2카메라부(410,420)의 주시 방향(D1,D2)은 스캐너부(300)의 전면 방향과 제1 및 제2카메라부(410,420)의 주시 방향(D1,D2)이 이루는 주시 방향각(A2,A3)으로 표현될 수도 있다.FIG. 7 is a schematic plan view for explaining a step of controlling the interval G and the gaze directions D1 and D2 of the first and
제1 및 제2카메라부(410,420)의 간격(G) 및 주시 방향(D1,D2)은 물체까지의 이격 거리(L1) 및 방향각(A1)에 따라서 결정된다. 본 실시예에서 제어부(600)는 하기의 표 1과 같은 참조 테이블을 저장할 수 있다. The distance G and the gaze directions D1 and D2 of the first and
참조 테이블은 물체까지의 거리(L1) 및 방향각(A1)과, 그에 최적화된 제1 및 제2카메라부(410,420)의 간격(G), 제1카메라부(410)의 주시 방향각(A2) 및 제2카메라부(420)의 주시 방향각(A3) 정보를 포함한다. 즉 참조 테이블을 참조함으로써, 물체까지의 거리(L1) 및 방향각(A1)에 최적화된 제1 및 제2카메라부(410,420)의 간격(G), 제1카메라부(410)의 주시 방향각(A2) 및 제2카메라부(420)의 주시 방향각(A3)을 용이하게 구할 수 있다.The reference table includes a distance L1 and a direction angle A1 to the object, an interval G between the first and
참조 테이블은 본 실시예에 따른 이동 로봇(1)을 제어하기 전에 미리 작성되며, 물체(X)까지의 거리(L1)가 커질수록 제1 및 제2카메라부(410,420)의 간격(G)이 커지는 경향성을 가지며, 제1 및 제2카메라부(410,420)의 주시 방향각(A2,A3)은 그 물체(X)를 바라보는 방향으로 정해진다. The reference table is prepared in advance before controlling the
한편, 물체까지의 거리(L1) 및 방향각(A1)에 최적화된 제1 및 제2카메라부(410,420)의 간격(G), 제1 및 제2카메라부(410,420)의 주시 방향각(A2,A3)를 결정하기 위해서, 등시차 곡선(iso-disparity curve)이 사용될 수도 있다. Meanwhile, the distance G between the first and
등시차 곡선은 제1 및 제2카메라부(410,420)의 간격(G) 및 방향각(A1)에 의해서 결정되는 것으로, 등시차 곡선의 밀도가 높으면 입체영상에 있어서 심도가 잘 표현되지만, 심도가 지나치게 높으면 보는 이의 어지러움을 유발하는 등의 문제가 있다. 따라서 관찰하고자 하는 부분을 지나는 시차 곡선의 밀도는 적절한 범위에서 유지되는 것이 바람직하다. 예컨대, 관찰하고자 하는 물체의 거리가 지나치게 먼 경우에는 제1 및 제2카메라부(410,420)의 간격(G)이 커지면서 물체가 위치한 부분의 등시차 곡선의 밀도를 증가시키고, 반대로 관찰하고자 하는 물체의 거리가 지나치게 가까운 경우에는 제1 및 제2카메라부(410,420)의 간격(G)이 작아지면서 물체가 위치한 부분의 등시차 곡선의 밀도를 감소시킴으로써 관찰하고자 하는 물체의 위치에서의 등시차 곡선의 밀도를 일정하게 유지시킬 수 있다. The isochronous curve is determined by the distance G and the direction angle A1 of the first and
결과적으로, 참조 테이블은 물체가 위치한 부분에서 등시차 곡선이 소정의 밀도를 가지도록 하는 제1 및 제2카메라부(410,420)의 간격(G) 및 주시 주시 방향각(A2,A3)을 미리 저장해두는 것일 수 있다.As a result, the reference table stores in advance the interval G and the gaze direction angles A2 and A3 of the first and
이와 같이 물체(X)까지의 거리(L1) 및 방향각(A1)이 측정되면 제어부(600)는 상기 참조 테이블을 참조하여, 제1 및 제2카메라부(410,420)의 간격(G), 제1 및 제2카메라부(410,420)의 주시 방향각(A2,A3)을 결정하고 이에 따라 구동부(500)를 제어한다. As such, when the distance L1 and the direction angle A1 to the object X are measured, the
제1 및 제2카메라부(410,420)의 초점을 제어하는 단계(S30)는 소정의 위치에 배치된 제1 및 제2카메라부(410,420)가 스캐너부(300)가 감지한 물체(X)에 대한 선명한 영상을 얻을 수 있도록, 그 초점을 제어하는 단계이다. 도 8은 제1 및 제2카메라부(410,420)의 초점을 제어하는 단계(S30)를 개략적으로 설명하기 위한 것으로, 도 8을 참조하면 물체(X)까지의 거리(L1) 및 방향각(A1), 제1 및 제2카메라부(410,420)의 간격(G), 제1 및 제2카메라부(410,420)의 주시 방향각(A2,A3)이 결정되면, 제1카메라부(410)로부터 물체(X)까지의 거리(L2) 및 제2카메라부(420)로부터 물체(X)까지의 거리(L3)가 정해진다. 따라서 제1 및 제2카메라부(410,420)의 초점은 물체(X)까지의 거리(L2,L3) 정보에 의해서 정해질 수 있다. In step S30 of controlling the focus of the first and
제1 및 제2카메라부(410,420)의 촬영 영상을 전송하는 단계(S40)는 제1 및 제2카메라부(410,420)로 촬영한 영상을 텔레오퍼레이터(T)에게 전송하는 단계이다. 즉, 본 단계(S40)에서 제어부(600)는 제1 및 제2카메라부(410,420)에 의해서 촬영된 영상을 통신부(700)를 통해서 텔레오퍼레이터(T)에게 전송한다. In operation S40, the photographed images of the first and
텔레오퍼레이터(T)는 이동 로봇(1)으로부터 수신한 영상 정보를 이용하여 입체영상을 볼 수 있다. 따라서 텔레오퍼레이터(T)는 장애물과 같은 물체(X)를 입체적으로 볼 수 있으므로, 이동 로봇(1)이 위치한 현장의 상황을 더욱 효과적으로 파악할 수 있다. 따라서 텔레오퍼레이터(T)는 이동 로봇(1)의 이동을 더욱 효과적으로 제어할 수 있다. The teleoperator T may view a stereoscopic image using the image information received from the
이동 로봇(1)의 이동 제어신호를 수신하는 단계(S50)는 텔레오퍼레이터(T)로부터 이동 로봇의 이동 방향 및 속력 등을 제어하기 위한 이동 제어신호를 통신부(700)를 이용하여 수신하는 단계이다. 통신부(700)로 이동 제어신호는 제어부(600)로 전달된다. Receiving a movement control signal of the mobile robot 1 (S50) is a step of receiving a movement control signal for controlling the movement direction and speed, etc. of the mobile robot from the teleoperator (T) using the
이동 로봇(1)의 이동을 제어하는 단계(S60)는 제어부(600)가 통신부(700)로부터 이동 제어신호를 전달받아 이에 따라 이동 로봇의 방향 및 속력 등을 제어하는 단계이다. Controlling the movement of the mobile robot 1 (S60) is a step in which the
상술한 이동 로봇(1) 및 그 제어방법에 따르면, 장애물 등과 같은 물체(X)의 위치에 관계없이 텔레오퍼레이터(T)에게 소정의 심도를 가지는 입체영상을 전송할 수 있다. 즉, 본 실시예의 이동 로봇(1)은 물체(X)가 멀리 있는 경우에 제1 및 제2카메라부(410,420)의 간격(G)을 크게 함으로써 그 물체(X)에 대한 입체영상의 심도를 확보할 수 있다. 따라서 텔레오퍼레이터(T)는 이동 로봇(1) 주변의 물체(X)의 형태를 더욱 효과적으로 인식할 수 있으므로, 그 물체(X)에 형태에 따라 적절한 이동 로봇(1)의 제어 방안을 수립할 수 있다. According to the above-described
또한 본 실시예에서 모터(536)를 작동시키면, 제1 및 제2카메라부(410,420)는 그 중심에 대하여 서로 반대되는 방향으로, 동일한 거리만큼 이동하게 된다. 따라서 제1카메라부(410)과 제2카메라부(420)의 이동거리의 오차는 매우 적으며, 따라서 이러한 오차에 의하여 입체영상의 입체감이 감소되는 것이 효과적으로 억제될 수 있다. In addition, when the
다음으로 본 발명의 다른 실시예에 따른 이동 로봇에 대해서 도면을 참조하여 설명한다. Next, a mobile robot according to another embodiment of the present invention will be described with reference to the drawings.
본 실시예에 따른 이동 로봇도 도 1에 도시된 이동 로봇(1)과 마찬가지로, 본체부(100), 추진부(200), 스캐너부(300), 제1 및 제2카메라부(410,420), 구동부(500), 통신부(700) 및 제어부(600)를 구비한다. 본 실시예에 따른 이동 로봇(2)의 본체부(100), 추진부(200), 스캐너부(300), 제1 및 제2카메라부(410,420), 통신부(700) 및 제어부(600)는 도 1에 도시된 이동 로봇(1)의 그것과 실질적으로 동일하므로 이에 대한 구체적인 설명은 생략한다. Like the
구동부(500)는 제1 및 제2베이스(510,520), 제1 및 제2액추에이터(522) 및 제3액추에이터(530)를 구비하는데, 제1 및 제2베이스(510,520), 제1 및 제2액추에이터(522)는 도 1의 이동 로봇(1)의 그것과 실질적으로 동일하므로 이에 대한 구체적인 설명은 생략한다. The
도 9는 본 발명의 다른 실시예에 따른 이동 로봇(2)의 제3액추에이터(530)에 해당하는 일부 구성을 개략적으로 도시한 평면도이다. 9 is a plan view schematically showing some components corresponding to the
도 9에 도시된 바와 같이, 제3액추에이터(530)는 제1 및 제2레일(561,562), 제1 내지 제4바(563a,563b,563c,563d) 및 구동원(미도시)을 구비한다. As shown in FIG. 9, the
제1 및 제2레일(561,562)은 스캐너부(300)를 사이에 두고 대칭되게 배치되며, 서로 접근 및 이격이 가능하게 배치된다. 제1 및 제2레일(561,562)은 그 길이방향에 수직된 방향에 배치된 가이드 홈(571,572)에 슬라이딩 가능하게 배치되어, 그 길이방향에 수직한 방향(D3)로 이동될 수 있다. The first and
제1바(563a)는 일측이 제1레일(561)에 슬라이딩 이동 및 회전 가능하게 결합된다. 즉 제1바(563a)는 도 9에 도시된 바와 같이 제1레일(561)에 결합된 제1슬라이더(565a)에 힌지 결합된다. One side of the
제2바(563b)는 일측이 제1레일(561)에 슬라이딩 이동 및 회전이 가능하도록 제1레일(561)에 슬라이딩 이동 결합된 제2슬라이더(565b)에 힌지 결합되며, 제1바(563a)에 교차되게 배치된다. 또한 제2바(563b)는 제1바(563a)와 교차되는 부분에서 회전 가능하게 결합되도록 그 부분에서 제1바(563a)에 힌지로 결합된다. The
제3바(563c)는 일측이 제2레일(562)에 슬라이딩 이동 및 회전이 가능하도록 그 일측이 제2레일(562)에 슬라이딩 이동 가능하게 결합된 제3슬라이더(565c)에 힌지 결합되며, 타측은 제1바(563a)의 타측에 회전 가능하게 결합되도록 제1바(563a)의 타측과 힌지 결합된다. The
제4바(563d)는 일측이 제2레일(562)에 슬라이딩 이동 및 회전이 가능하도록 그 일측이 제2레일(562)에 슬라이딩 이동 가능하게 결합된 제4슬라이더(565d)에 힌지 결합되며, 타측은 제2바(563b)의 타측에 회전 가능하게 결합되도록 제2바(563b)의 타측과 힌지 결합된다. 또한 제4바(563d)는 제3바(563c)와 교차되게 배치되는데, 제4바(563d)와 제3바(563c)가 교차되는 부분은 힌지 결합되어 제4바(563d)와 제3바(563c)는 서로 상대회전이 가능하다.The
이와 같이 제1레일(561)과 제2레일(562)의 움직임은 제1 내지 제4바(563a,563b,563c,563d)에 의해서 서로 반대 방향으로 동일한 거리 만큼 이동하도록 제한을 받는다. 또한, 제1바(563a)와 제2바(563b)의 교차부분과 제3바(563c)와 제4바(563d)의 교차부분도 서로 반대 방향으로 동일한 거리만큼 이동된다. As such, the movement of the
구동원(미도시)은 제1 및 제2레일(561,562)을 서로 접근 및 이격되는 방향으로 이동시키는 것으로 도 9에서는 도시되지 않았으나, 통상적으로 사용되는 유압 피스톤 또는 레크와 피니언 등의 다양한 구동기구가 사용될 수 있다. A driving source (not shown) moves the first and
한편, 제1베이스(510)는 제1바(563a)와 제2바(563b)가 교차하는 부분에 배치되고, 제2베이스(520)는 제3바(563c)와 제4바(563d)가 교차하는 부분에 배치된다. 따라서 제1 및 제2카메라부(410,420)는 스캐너부(300)를 사이에 두고 서로 반대 방향으로 동일한 거리만큼 이동된다. Meanwhile, the
다음으로 본 발명의 또 다른 실시예에 따른 이동 로봇(3)에 대해서 도면을 참조하여 설명한다. Next, a
본 실시예에 따른 이동 로봇(3)도 도 1에 도시된 이동 로봇(1)과 마찬가지로, 본체부(100), 추진부(200), 스캐너부(300), 제1 및 제2카메라부(410,420), 구동부(500), 통신부(700) 및 제어부(600)를 구비한다. 본 실시예에 따른 이동 로봇(3)의 본체부(100), 추진부(200), 스캐너부(300), 제1 및 제2카메라부(410,420), 통신부(700) 및 제어부(600)는 도 1에 도시된 이동 로봇(1)의 그것과 실질적으로 동일하므로 이에 대한 구체적인 설명은 생략한다. Like the
구동부(500)는 제1 및 제2베이스(510,520), 제1 및 제2액추에이터(522) 및 제3액추에이터(530)를 구비하는데, 제1 및 제2베이스(510,520), 제1 및 제2액추에이터(522)는 도 1의 이동 로봇(1)의 그것과 실질적으로 동일하므로 이에 대한 구체적인 설명은 생략한다. The
도 10은 본 발명의 또 다른 실시예에 따른 이동 로봇(3)의 제3액추에이터(530)에 해당하는 일 부분을 도시한 평면도이다. 도 10에서는 설명상의 편의를 위해서 제1 및 제2카메라부(410,420)를 제외하고 도시하였다. 10 is a plan view showing a part corresponding to the
도 10을 참조하면, 제3액추에이터(530)는 구동풀리(582), 종동풀리(584) 및 벨트(586)를 구비한다. Referring to FIG. 10, the
구동풀리(582)는 제어부(600)에 의해서 제어되는 모터(583)에 연결되어 모터(583)가 작동함에 따라서 회전된다. 모터(583)는 구동풀리(582)를 일 방향 및 타 방향으로 회전시킬 수 있다. The driving
종동풀리(584)는 구동풀리(582)에 벨트(586)로 연결되어 구동풀리(582)의 회전에 따라서 함께 회전한다. The driven
한편, 제1베이스(510) 및 제2베이스(520)는 벨트(586)에 결합되는데, 제1베이스(510)는 구동풀리(582)가 일 방향으로 회전시에 구동풀리(582)에서 종동풀리(584)로 이동되는 벨트(586)의 일측(586a)에 결합되며, 제2베이스(520)는 구동풀리(582)가 상기 일 방향으로 회전시에 종동풀리(584)에서 구동풀리(582)로 이동되는 벨트(586)의 다른 일측(586b)에 결합된다. On the other hand, the
제1베이스(510)의 일측(515)은 벨트(586)의 일측(586a)에 결합되며, 제1베이스(510)의 다른 일측에는 벨트(586)가 자유로이 지나갈 수 있는 관통구(516)가 형성되어 있다. 제2베이스(520)의 일측(525)은 벨트(586)의 다른 일측(586b)에 결합되며, 제2베이스(520)의 다른 일측에는 벨트(586)가 자유로이 지나갈 수 있는 관통구(526)가 형성되어 있다.One
따라서 구동풀리(582)가 회전함에 따라서 제1베이스(510)와 제2베이스(520)는 서로 반대 방향으로 동일한 거리만큼 대칭적으로 이동될 수 있다. Accordingly, as the driving
다음으로 본 발명의 또 다른 실시예에 따른 이동 로봇(4)에 대해서 도면을 참조하여 설명한다. Next, a
본 실시예에 따른 이동 로봇(4)은 본체부(100), 추진부(200), 스캐너부(300), 제1 및 제2경통부(810,820), 구동부(500), 반사부(830), 이미지 센서부(840), 통신부(700) 및 제어부(600)를 구비한다. 본체부(100), 추진부(200), 스캐너부(300), 통신부(700), 구동부(500) 및 제어부(600)는 도 1의 이동 로봇의 그것과 동일하므로 이에 대한 구체적인 설명은 생략한다. The
도 11은 본 실시예에 따른 이동 로봇(4)의 일부를 개략적으로 도시한 평면도로써, 도 11에는 제1 및 제2경통부(810,820), 반사부(830) 및 이미지 센서부(840)가 도시되어 있다.FIG. 11 is a plan view schematically illustrating a part of the
제1 및 제2경통부(810,820)는 빛을 통과시키며, 광축방향으로 배치된 복수의 렌즈를 구비한다. 제1 및 제2경통부(810,820) 각각은 제1 및 제2베이스(510,520)에 회전 가능하게 결합된다. The first and
반사부(830)는 제1 및 제2경통부(810,820)를 통과한 빛을 이미지 센서부(840)로 전달하는 역할을 한다. 반사부(830)는 제1 및 제2경통부(810,820)를 통과한 빛을 이미지 센서부(840)로 전달할 수 있도록 복수 개의 거울(831,832,833,834) 또는 반사 프리즘을 구비할 수 있다. The
이미지 센서부(840)는 제1 및 제2경통부(810,820)를 통과하여 반사부(830)를 지난 빛을 감지하여, 감지된 빛을 전기적 신호로 변환하는 기능을 한다. 이미지 센서부(840)의 일측에는 제1경통부(810)를 통과한 빛이 감지되고, 타측에는 제2경통부(820)를 통과한 빛이 감지되므로 본 실시예에 따른 이동 로봇(4)은 하나의 이미지 센서부(840)를 이용하여 입체영상 정보를 얻을 수 있는 장점이 있다. The
하나의 이미지 센서부(840)로 얻은 입체영상 정보는 텔레오퍼레이터(T)에게 전송되어 두 개의 영상으로 분리된 후, 입체영상을 형성한다. The stereoscopic image information obtained by one
본 실시예의 이동 로봇(4)에 있어서, 제1 및 제2경통부(810,820)는 제1 및 제2베이스(510,520)에 결합되므로 서로 접근 및 이격이 가능하며 관측하는 물체의 거리에 따라 그 간격(G)이 변경될 수 있다. 따라서 물체의 위치에 관계없이 심도있는 입체영상을 텔레오퍼레이터(T)에게 전송할 수 있다.In the
이상, 본 발명의 일부 실시예에 대해서 설명하였으나 본 발명은 이에 한정되지 않으며, 본 발명의 기술적 사상의 범위 내에서 다양한 형태로 구체화될 수 있다. As mentioned above, although some embodiments of the present invention have been described, the present invention is not limited thereto and may be embodied in various forms within the scope of the technical idea of the present invention.
예를 들면, 상술한 실시예에 따른 이동 로봇(1,2,3,4)은 바퀴(210)를 구비하여 지상을 이동하는 것을 예로 들어 설명하였으나, 이와는 달리 이동 로봇(1,2,3,4)은 공중을 비행하는 비행기의 형태일 수도 있고 수중을 이동하는 선박 또는 잠수함의 형태를 가질 수도 있다.For example, the
또한, 상술한 실시예에 따른 이동 로봇(1,2,3,4)은 제1 및 제2카메라부(410,420)로 촬영한 영상을 텔레오퍼레이터(T)에게 전송하는 것으로 설명하였으나, 이와는 달리 이동 로봇(1,2,3,4)은 제1 및 제2카메라부(410,420)로 촬영한 영상을 이미지 프로세싱(image processing)한 후, 이로부터 이동 로봇(1,2,3,4)의 주변환경 정보를 추출하여 텔레오퍼레이터(T)에게 전송할 수도 있다. 뿐만 아니라, 이동 로봇(1,2,3,4)은 제1 및 제2카메라부(410,420)로부터 얻은 입체영상을 이미지 프로세싱(image processing)하여 주변의 환경에 대한 정보를 추출한 후, 이에 의거하여 스스로 이동 방향 및 속력 등을 제어할 수도 있다. In addition, although the
또한, 상술한 실시에에 따른 이동 로봇(1,2,3,4)의 추진부(200)는 바퀴(210)를 구비하는 것으로 설명하였으나, 이와는 달리 추진부(200)는 무한궤도를 구비할 수도 있다. In addition, the
또한, 상술한 실시예에 따른 이동 로봇(1,2,3,4)의 제1 및 제2카메라부(410,420)는 서로 반대 방향으로 동일한 거리만큼 이동되는 것으로 설명하였으나, 이와는 달리 제1 및 제2카메라부(410,420)는 동일 방향 또는 반대 방향으로 서로 다른 거리만큼 이동될 수도 있다. In addition, although the first and
또한, 상술한 실시예에서는 제어부(600)가 미리 작성된 참조 테이블을 참조하여 제1 및 제2카메라부(410,420)의 간격(G) 및 주시 방향각(A2,A3)을 제어하는 것으로 설명하였으나, 이와는 달리 제어부(600)는 실시간 연산을 통해서 제1 및 제2카메라부(410,420)의 간격(G) 및 주시 방향각(A2,A3)이 제어될 수도 있다. In addition, in the above-described embodiment, the
이외에도 본 발명은 다양한 형태로 구체화될 수 있다. In addition, the present invention may be embodied in various forms.
1,2,3,4 … 이동 로봇 100 … 본체부
200 … 추진부 210 … 바퀴
300 … 스캐너부 410 … 제1카메라
420 … 제2카메라 500 … 구동부
510 … 제1베이스 520 … 제2베이스
600 … 제어부 700 … 통신부
T … 텔레오퍼레이터 X … 물체1,2,3,4...
200 ... Driving
300...
420...
510...
600...
T… Teleoperator X... object
Claims (13)
상기 본체부를 이동시키는 추진부와,
상기 본체부에 배치되며, 특정 물체까지의 거리 및 방향을 측정할 수 있는 스캐너부와,
상기 본체부에 배치되는 제1 및 제2카메라부와,
상기 제1 및 제2카메라부의 간격 및 주시 방향이 변경되도록, 상기 제1 및 제2카메라부를 이동시키는 구동부와,
상기 스캐너부로부터 상기 거리 및 방향 정보를 수신하며, 상기 구동부를 제어하는 제어부를 구비한 이동 로봇.A body portion,
A pushing part for moving the main body part,
A scanner unit disposed on the main body and capable of measuring a distance and a direction to a specific object;
First and second camera units disposed on the main body unit;
A driving unit to move the first and second camera units so that the interval and gaze direction of the first and second camera units are changed;
And a control unit which receives the distance and direction information from the scanner unit and controls the driving unit.
상기 제어부는,
상기 제1 및 제2카메라부의 주시 방향이 상기 물체를 향하도록, 상기 구동부를 제어하는 이동 로봇.The method of claim 1,
The control unit,
And a moving robot configured to control the driving unit so that gaze directions of the first and second camera units face the object.
상기 제어부는,
상기 물체까지의 거리가 멀어짐에 따라 상기 제1 및 제2카메라부의 간격이 증가되도록 상기 구동부를 제어하는 이동 로봇.The method of claim 1,
The control unit,
And a moving robot configured to control the driving unit to increase the distance between the first and second camera units as the distance to the object increases.
텔레오퍼레이터(teleoperator)로부터 상기 추진부를 제어할 수 있는 제어신호를 수신할 수 있는 통신부를 더 구비하며,
상기 제어부는,
상기 제어신호에 따라서 상기 추진부를 제어하는 이동 로봇.The method of claim 1,
Further comprising a communication unit for receiving a control signal for controlling the propulsion unit from a teleoperator (teleoperator),
The control unit,
A mobile robot for controlling the propulsion unit in accordance with the control signal.
상기 제어부는,
상기 제1카메라부 및 제2카메라부로 촬영한 영상을 텔레오퍼레이터에게 송신하는 이동 로봇.The method of claim 1,
The control unit,
A mobile robot for transmitting the images taken by the first camera unit and the second camera unit to the teleoperator.
상기 구동부는,
서로 접근 및 이격이 가능하게 상기 본체부에 배치되며, 각각 제1 및 제2카메라부를 회전 가능하게 지지하는 제1 및 제2베이스와,
상기 제1카메라를 회전시키는 제1액추에이터와,
상기 제2카메라를 회전시키는 제2액추에이터와,
상기 제1 및 제2베이스를 접근 및 이격되는 방향으로 이동시키는 제3액추에이터를 구비한 이동 로봇.The method of claim 1,
The driving unit includes:
First and second bases disposed on the main body so as to be accessible and spaced apart from each other, and rotatably supporting the first and second camera units, respectively;
A first actuator for rotating the first camera,
A second actuator for rotating the second camera,
A mobile robot having a third actuator for moving the first and second base in a direction approaching and spaced apart.
상기 제3액추에이터는,
서로 이격 및 접근 가능하게 배치된 제1 및 제2레일과,
일측이 상기 제1레일에 슬라이딩 이동 및 회전 가능하게 결합되는 제1바와,
일측이 상기 제1레일에 슬라이딩 이동 및 회전 가능하게 결합되며, 상기 제1바에 교차되게 배치되며, 상기 제1바와 상기 교차되는 부분에서 회전 가능하게 결합되는 제2바와,
일측이 상기 제2레일에 슬라이딩 이동 및 회전 가능하게 결합되며, 타측이 상기 제1바의 타측에 회전 가능하게 결합되는 제3바와,
일측이 상기 제2레일에 슬라이딩 이동 및 회전 가능하게 배치되며, 상기 제3바에 교차되게 배치되며, 타측이 상기 제2바의 타측에 회전 가능하게 결합되는 제4바와,
상기 제1 및 제2레일이 접근 및 이격되는 방향으로 힘을 가하는 구동원을 구비하며,
상기 제1베이스는,
상기 제1바와 상기 제2바가 교차되는 부분에 배치되고,
상기 제2베이스는,
상기 제3바와 상기 제4바가 교차되는 부분에 배치되는 이동 로봇.The method of claim 6,
The third actuator,
First and second rails spaced and accessible from each other,
A first bar having one side coupled to the first rail to be slidably moved and rotatable;
A second bar having one side slidably coupled to the first rail and rotatably coupled to the first bar, the second bar being rotatably coupled to the first bar and the crossing portion;
A third bar having one side coupled to the second rail to be slidably moved and rotatable, and the other side rotatably coupled to the other side of the first bar;
A fourth bar having one side slidably moved and rotatable on the second rail, intersecting the third bar, and a fourth bar rotatably coupled to the other side of the second bar;
A driving source for applying a force in a direction in which the first and second rails approach and are spaced apart from each other,
The first base,
The first bar and the second bar is disposed in the intersection portion,
The second base,
A mobile robot disposed at the intersection of the third bar and the fourth bar.
상기 제3액추에이터는,
상기 제1베이스 및 상기 제2베이스에 나사 결합되며, 상기 제1베이스에 결합되는 부분의 나사 방향과 상기 제2베이스에 결합되는 부분의 나사 방향이 반대로 형성된 스크류와,
상기 스크류를 일 방향 및 타 방향으로 회전시키는 모터를 구비하는 이동 로봇.The method of claim 6,
The third actuator,
A screw screwed to the first base and the second base, the screw direction of which part is coupled to the first base and the screw direction of the part joined to the second base to be opposite;
A mobile robot having a motor for rotating the screw in one direction and the other direction.
상기 제3액추에이터는,
구동풀리 및 종동풀리와,
상기 구동풀리 및 종동풀리에 감겨져 배치되는 벨트와,
상기 구동풀리를 일 방향 및 타 방향으로 회전시키는 모터를 구비하며,
상기 제1베이스는,
상기 구동풀리가 상기 일 방향으로 회전시에 상기 구동풀리에서 상기 종동풀리로 이동되는 벨트의 일측에 결합되며,
상기 제2베이스는,
상기 구동풀리가 상기 일 방향으로 회전시에 상기 종동풀리에서 상기 구동풀리로 이동되는 벨트의 다른 일측에 결합되는 이동 로봇.The method of claim 6,
The third actuator,
Driven pulley and driven pulley,
A belt wound and disposed on the driving pulley and the driven pulley;
It is provided with a motor for rotating the drive pulley in one direction and the other direction,
The first base,
When the drive pulley is rotated in the one direction is coupled to one side of the belt to move from the drive pulley to the driven pulley,
The second base,
A mobile robot coupled to the other side of the belt is moved from the driven pulley to the drive pulley when the drive pulley is rotated in the one direction.
상기 본체부를 추진시키는 추진부와,
상기 본체부에 배치되며, 특정 물체까지의 거리 및 방향을 측정하는 스캐너부와,
상기 본체부에 배치되는 이미지 센서부와,
상기 본체부에 배치되는 제1 및 제2경통부와,
상기 제1 및 제2경통부 사이의 간격 및 주시 방향이 변경될 수 있도록, 상기 제1 및 제2경통부를 이동시키는 구동부와,
상기 제1 및 제2경통부를 통과한 영상을 반사시켜 상기 이미지 센서부로 투사시키는 반사부 및
상기 스캐너부로부터 상기 거리 및 방향 값을 수신하며, 상기 구동부를 제어하는 제어부를 구비한 이동 로봇.A body portion,
A pushing part for pushing the main body part;
A scanner unit disposed on the main body to measure a distance and a direction to a specific object;
An image sensor unit disposed in the main body unit;
First and second barrel portions disposed on the main body portion;
A driving unit for moving the first and second barrel portions so that the distance between the first and second barrel portions and the direction of gaze may be changed;
A reflector for reflecting the image passing through the first and second barrels and projecting the image to the image sensor;
And a control unit which receives the distance and direction values from the scanner unit and controls the driving unit.
상기 물체까지의 거리 및 방향에 따라서, 간격 및 주시 방향의 변경이 가능하게 배치된 제1 및 제2카메라부의 상기 간격 및 상기 주시 방향을 제어하는 카메라부 위치제어단계와,
상기 제1 및 제2카메라부로 촬영한 영상을 텔레오퍼레이터에게 전송하는 영상전송단계 및
상기 텔레오퍼레이터로부터 상기 이동 로봇의 이동을 제어하기 위한 제어신호를 수신하는 단계를 포함하는 이동 로봇의 제어방법.An object position measuring step of recognizing an object spaced apart from the mobile robot and measuring a distance and a direction to the object;
A camera unit position control step of controlling the interval and the gaze direction of the first and second camera units arranged to be able to change the distance and the gaze direction according to the distance and the direction to the object;
An image transmission step of transmitting images captured by the first and second camera units to a teleoperator;
Receiving a control signal for controlling the movement of the mobile robot from the teleoperator.
상기 물체까지의 거리 및 방향에 따라서 상기 제1 및 제2카메라의 초점을 제어하는 초점제어단계를 포함하는 이동 로봇의 제어방법.The method of claim 11,
And a focus control step of controlling focus of the first and second cameras according to a distance and a direction to the object.
상기 카메라부 위치제어단계는,
상기 물체까지의 거리 및 방향과 제1 및 제2카메라부의 간격 및 주시 방향 사이의 대응관계가 미리 설정된 테이블을 참조하여, 상기 물체까지의 거리 및 방향에 따라 상기 제1 및 제2카메라의 간격 및 주시 방향을 제어하는 단계인 이동 로봇의 제어방법.The method of claim 11,
The camera unit position control step,
The correspondence between the distance and the direction to the object, the distance between the first and second camera units, and the gaze direction is set in advance, and the distance between the first and second cameras according to the distance and the direction to the object and Control method of the mobile robot which is a step of controlling the direction of attention.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110017981A KR101706222B1 (en) | 2011-02-28 | 2011-02-28 | Moving robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110017981A KR101706222B1 (en) | 2011-02-28 | 2011-02-28 | Moving robot |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20120098192A true KR20120098192A (en) | 2012-09-05 |
KR101706222B1 KR101706222B1 (en) | 2017-02-14 |
Family
ID=47109283
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110017981A KR101706222B1 (en) | 2011-02-28 | 2011-02-28 | Moving robot |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101706222B1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160111757A (en) * | 2015-03-17 | 2016-09-27 | 삼성전자주식회사 | Image photographing apparatus and method for photographing thereof |
CN108724171A (en) * | 2017-09-25 | 2018-11-02 | 北京猎户星空科技有限公司 | Control method, device and the intelligent robot of intelligent robot |
KR20190108361A (en) * | 2018-03-14 | 2019-09-24 | 엘지전자 주식회사 | A cleaner |
KR20190114207A (en) * | 2018-03-29 | 2019-10-10 | 엘지전자 주식회사 | A cleaner |
KR20200091637A (en) * | 2019-01-23 | 2020-07-31 | 동명대학교산학협력단 | articulated marine robot ship with stereo photo sensor |
US11353885B2 (en) | 2019-06-24 | 2022-06-07 | Lg Electronics Inc. | Method of acquiring image for recognizing position and robot implementing the same |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020241950A1 (en) * | 2019-05-31 | 2020-12-03 | 엘지전자 주식회사 | Mobile robot and method for controlling same |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005297168A (en) * | 2004-04-16 | 2005-10-27 | Fujinon Corp | Remote control robot |
KR20060085292A (en) * | 2005-01-21 | 2006-07-26 | 노성렬 | A system for recognizing an object |
KR20070090554A (en) * | 2006-03-03 | 2007-09-06 | 삼성테크윈 주식회사 | Actuation mechanism having 2 degree of freedom and sentry robot having the same |
KR20090007818A (en) * | 2007-07-16 | 2009-01-21 | 한국생산기술연구원 | Mobile robot |
-
2011
- 2011-02-28 KR KR1020110017981A patent/KR101706222B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005297168A (en) * | 2004-04-16 | 2005-10-27 | Fujinon Corp | Remote control robot |
KR20060085292A (en) * | 2005-01-21 | 2006-07-26 | 노성렬 | A system for recognizing an object |
KR20070090554A (en) * | 2006-03-03 | 2007-09-06 | 삼성테크윈 주식회사 | Actuation mechanism having 2 degree of freedom and sentry robot having the same |
KR20090007818A (en) * | 2007-07-16 | 2009-01-21 | 한국생산기술연구원 | Mobile robot |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160111757A (en) * | 2015-03-17 | 2016-09-27 | 삼성전자주식회사 | Image photographing apparatus and method for photographing thereof |
CN108724171A (en) * | 2017-09-25 | 2018-11-02 | 北京猎户星空科技有限公司 | Control method, device and the intelligent robot of intelligent robot |
CN108724171B (en) * | 2017-09-25 | 2020-06-05 | 北京猎户星空科技有限公司 | Intelligent robot control method and device and intelligent robot |
KR20190108361A (en) * | 2018-03-14 | 2019-09-24 | 엘지전자 주식회사 | A cleaner |
US11154171B2 (en) | 2018-03-14 | 2021-10-26 | Lg Electronics Inc. | Cleaner |
KR20190114207A (en) * | 2018-03-29 | 2019-10-10 | 엘지전자 주식회사 | A cleaner |
US11234570B2 (en) | 2018-03-29 | 2022-02-01 | Lg Electronics Inc. | Cleaner |
KR20200091637A (en) * | 2019-01-23 | 2020-07-31 | 동명대학교산학협력단 | articulated marine robot ship with stereo photo sensor |
US11353885B2 (en) | 2019-06-24 | 2022-06-07 | Lg Electronics Inc. | Method of acquiring image for recognizing position and robot implementing the same |
Also Published As
Publication number | Publication date |
---|---|
KR101706222B1 (en) | 2017-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101706222B1 (en) | Moving robot | |
EP2919067B1 (en) | Multi-planar camera apparatus | |
JP2009241247A (en) | Stereo-image type detection movement device | |
US10353207B2 (en) | Head-mounted display device and video display system | |
US11487080B2 (en) | Head-mounted display device and adjustment method | |
US20050185945A1 (en) | Bionic automatic vision and line of sight control system and method | |
WO2015168218A2 (en) | Light control systems and methods | |
US9253470B2 (en) | 3D camera | |
CN106896343B (en) | Servo follow-up machine vision device and dynamic tracking ranging method | |
KR101428296B1 (en) | Camera module for vehicle and monitoring system provided with the same | |
KR101243032B1 (en) | Stereo camera rig | |
CN206399422U (en) | Multifunctional vision sensor and mobile robot | |
US20110141241A1 (en) | Module for three-dimensional camera | |
JP2016151566A (en) | Motion tracker device | |
WO2011111061A9 (en) | Variable 3-dimensional stereomicroscope assembly | |
US20190011659A1 (en) | System for balancing center of gravity of a zoom lens | |
KR101214855B1 (en) | Stereo camera rig having harf-mirror box | |
US8780179B2 (en) | Robot vision with three dimensional thermal imaging | |
CN104880905A (en) | Device and method for tilt-shift stereoscopic photography | |
CN213876176U (en) | Self-adaptive stereoscopic vision low-light night vision head-mounted system | |
KR100256777B1 (en) | Vergence control method and apparatus for stereocamera | |
KR101181653B1 (en) | Stereo camera rig having distance measurement sensor | |
KR101459213B1 (en) | Stereo camera rig control device and control method thereof | |
CN111970502A (en) | Humanoid binocular follow-up virtual reality system suitable for teleoperation of robot | |
KR20190079363A (en) | Collaborative robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20200128 Year of fee payment: 4 |