KR20140084442A - Detection robot system - Google Patents
Detection robot system Download PDFInfo
- Publication number
- KR20140084442A KR20140084442A KR1020120153316A KR20120153316A KR20140084442A KR 20140084442 A KR20140084442 A KR 20140084442A KR 1020120153316 A KR1020120153316 A KR 1020120153316A KR 20120153316 A KR20120153316 A KR 20120153316A KR 20140084442 A KR20140084442 A KR 20140084442A
- Authority
- KR
- South Korea
- Prior art keywords
- robot system
- unit
- detection robot
- detection
- image
- Prior art date
Links
- 238000001514 detection method Methods 0.000 title claims description 95
- 238000000034 method Methods 0.000 claims description 15
- 238000005286 illumination Methods 0.000 claims description 6
- 230000005540 biological transmission Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/02—Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type
- B25J9/023—Cartesian coordinate type
- B25J9/026—Gantry-type
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
Abstract
Description
본 발명은 탐지용 로봇 시스템에 관한 것이다. 더욱 상세하게는 어안렌즈 또는 미러렌즈와 같이 전방향을 촬영할 수 있는 렌즈를 사용하여 탐지용 로봇 시스템이 위치한 주변을 용이하게 확인할 수 있는 탐지용 로봇 시스템에 관한 것이다.The present invention relates to a robot system for detection. And more particularly, to a robot system for detection that can easily identify the vicinity of a detection robot system using a lens capable of shooting in all directions, such as a fish-eye lens or a mirror lens.
위험지역에는 화재진압 또는 장비수리 등과 같은 특정 작업을 수행하는 작업자가 투입되어 작업이 수행된다. 예를 들어, 화재현장과 같은 위험지역에는 소방관과 같은 작업자가 투입되어 화재를 진압한다. 이때, 소방관이 화재지역에 투입되기 전에 또는 소방관과 함께 투입되어 소방관을 보조할 수 있는 보조로봇이 투입될 수 있다. 이와 같은 보조로봇은 화재지역에 투입되어 화재를 진압하거나 화재지역에 있는 인명을 탐지하게 된다.Hazardous areas are filled by workers who perform specific tasks such as fire suppression or equipment repairs. For example, firefighters and other workers are put into dangerous areas such as a fire scene to suppress the fire. At this time, the auxiliary robot can be inserted before the firefighter is put into the fire area or with the firefighter to assist the firefighter. These auxiliary robots are put into the fire area to suppress the fire or to detect people in the fire area.
위험지역에 투입되는 보조로봇은 위험지역의 상황을 알려주기 위하여 위험지역의 상황을 촬영한 정보를 작업자 또는 관제실로 전송할 수 있는데, 이를 통해 작업자 또는 관제실에서는 위험지역의 상태를 확인할 수 있다.In order to inform the situation of the dangerous area, the assistant robot putting in the dangerous area can transmit the information of the situation of the dangerous area to the operator or the control room so that the operator or the control room can check the status of the dangerous area.
하지만, 종래의 보조로봇은 일정 방향에서만 위험지역을 촬영할 수 있는 촬영수단이 설치되기 때문에 보조로봇의 측면 또는 후방을 촬영하기 위해서는 보조로봇의 진행방향을 전환해야 하기 때문에 위험지역의 상황을 신속하게 확인하는데 한계가 있다.However, since the conventional auxiliary robot is provided with the photographing means capable of photographing the dangerous area only in a predetermined direction, in order to photograph the side or the rear of the auxiliary robot, the direction of the auxiliary robot must be changed, There is a limit.
또한, 보조로봇의 일정 방향에서만 촬영할 수 있는 촬영수단으로는 보조로봇의 측면 또는 후방에 위치하는 장애물 또는 사람을 발견하기가 용이하지 않아 긴급한 상황에서의 효용성이 떨어진다.In addition, as an imaging means capable of shooting only in a certain direction of the auxiliary robot, it is not easy to detect an obstacle or a person located on the side or rear of the auxiliary robot, and thus the utility in an emergency situation is deteriorated.
본 발명은 로봇이 위치한 지역의 전방향을 확인할 수 있는 이미지를 생성하여 제공할 수 있는 탐지용 로봇 시스템을 제공하는 것을 목적으로 한다.An object of the present invention is to provide a robot system for detection that can generate and provide an image that can identify the direction of a robot in a forward direction.
본 발명의 목적은 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to those mentioned above, and other objects not mentioned may be clearly understood by those skilled in the art from the following description.
상기 과제를 해결하기 위한 본 발명의 실시예에 따른 탐지용 로봇 시스템은 상기 탐지용 로봇 시스템을 이동시키기 위한 이동부와, 어안렌즈 또는 미러렌즈를 통해 상기 탐지용 로봇 시스템이 위치한 주변을 촬영하기 위한 촬영부와, 상기 촬영부에 전기적으로 연결되며, 상기 촬영부에서 촬영된 이미지를 기초로 상기 탐지용 로봇을 중심으로 전방향(all direction)의 이미지를 나타내는 전방향 이미지를 생성하는 이미지생성부와, 상기 이미지생성부와 전기적으로 연결되며, 상기 전방향 이미지를 전송하기 위한 송수신부를 포함한다.According to an aspect of the present invention, there is provided a robot system for detection, comprising: a moving unit for moving the robot system for detection; and a moving unit for moving the robot system for detection through a fisheye lens or a mirror lens An image generating unit which is electrically connected to the photographing unit and generates an omni-directional image representing an image in all directions around the detection robot based on the image photographed by the photographing unit; And a transmission / reception unit electrically connected to the image generation unit and transmitting the omnidirectional image.
또한, 상기 촬영부는 상기 탐지용 로봇 시스템이 위치한 지역의 전방향을 나타내는 원형이미지를 생성할 수 있다.In addition, the photographing unit may generate a prototype image representing an entire direction of an area where the detection robot system is located.
또한, 상기 이미지생성부는 상기 촬영부에서 생성되는 상기 원형이미지를 분할하여 적어도 하나의 파노라마이미지를 생성할 수 있다.The image generating unit may generate at least one panoramic image by dividing the circular image generated by the photographing unit.
또한, 상기 이미지생성부는 상기 파노라마이미지를 이용하여 상기 탐지용 로봇 시스템의 이동방향에 대한 전방부 화면을 제 1 화면으로 생성하고, 상기 탐지용 로봇 시스템의 이동방향에 대한 후방부 화면을 제 2 화면으로 생성할 수 있다.Also, the image generating unit may generate the front sub-screen with respect to the moving direction of the detection robot system as the first screen using the panoramic image, and the rear sub-screen with respect to the moving direction of the detection robot system as the second screen Can be generated.
또한, 상기 이미지생성부는 상기 제 1 화면의 하부에 상기 제 2 화면을 배치하여 상기 전방향 이미지를 생성할 수 있다.In addition, the image generating unit may generate the omnidirectional image by disposing the second screen at a lower portion of the first screen.
또한, 상기 이미지생성부는 상기 원형이미지의 분할된 부분을 중심으로 소정 영역을 표시하는 적어도 하나의 제3 화면을 생성할 수 있다.Also, the image generating unit may generate at least one third screen displaying a predetermined area centered on the divided part of the circular image.
또한, 상기 이미지생성부는 상기 제 1 화면의 하부에 상기 제 2 화면을 배치하고, 상기 제 1 화면 및 상기 제 2 화면의 양측에 상기 제 3 화면을 배치하여 상기 전방향 이미지를 생성할 수 있다.The image generating unit may generate the omnidirectional image by disposing the second screen below the first screen and arranging the third screen on both sides of the first screen and the second screen.
또한, 상기 탐지용 로봇 시스템이 위치한 주변의 대상물을 감지하여 감지신호를 생성하는 센서부와, 상기 탐지용 로봇 시스템이 투입되는 지역의 지도 데이터를 저장하는 메모리부와, 상기 센서부 및 상기 메모리부와 전기적으로 연결되며, 상기 감지신호와 상기 지도 데이터를 기초로 상기 탐지용 로봇 시스템의 주변에 위치한 상기 대상물이 장애물인지 벽인지를 판단하는 장애물판단부를 더 포함할 수 있다.The sensor unit senses an object in the vicinity of the detection robot system and generates a sensing signal. The sensing unit includes a memory unit for storing map data of a region to which the robot system for sensing is input, And an obstacle determining unit for determining whether the obstacle is located in the vicinity of the detection robot system based on the sensing signal and the map data.
또한, 상기 센서부는 초음파 센서로 형성될 수 있다.In addition, the sensor unit may be formed of an ultrasonic sensor.
또한, 상기 장애물판단부는 상기 탐지용 로봇 시스템의 이동거리와 상기 지도 데이터를 기초로 상기 탐지용 로봇 시스템이 벽으로부터 떨어진 제 1 거리값과, 상기 감지신호를 기초로 상기 탐지용 로봇 시스템이 상기 대상물로부터 떨어진 제 2 거리값을 산출할 수 있다.The obstacle determining unit may determine the obstacle based on the moving distance of the detecting robot system and the map data, based on the first distance value of the detecting robot system away from the wall and the first distance value, It is possible to calculate the second distance value.
또한, 상기 장애물판단부는 상기 제 1 거리값과 상기 제 2 거리값을 비교하여, 상기 제 1 거리값과 상기 제 2 거리값의 차가 미리 설정된 범위 이내이면, 상기 대상물을 벽으로 판단하고, 상기 차이 미리 설정된 범위를 벗어나면 상기 대상물을 장애물로 판단할 수 있다.If the difference between the first distance value and the second distance value is within a preset range, the obstacle determining unit may determine the object as a wall, and if the difference The object can be judged to be an obstacle if it is out of a preset range.
또한, 상기 장애물판단부에 의해 상기 대상물이 장애물이라고 판단되는 경우, 상기 장애물판단부는 장애물 알림 신호를 생성하여 상기 송수신부를 통해 전송할 수 있다.In addition, when the obstacle determining unit determines that the object is an obstacle, the obstacle determining unit may generate an obstacle notification signal and transmit the obstacle notification signal through the transceiving unit.
또한, 상기 탐지용 로봇 시스템에 설치되며 광을 조사하기 위한 조명부를 더 포함할 수 있다.The robot system further includes an illumination unit for irradiating light.
또한, 상기 촬영부는 상기 송수신부를 통해 촬영제어신호가 수신되면, 상기 촬영제어신호를 기초로 상기 어안렌즈 또는 상기 미러렌즈를 줌-인(zoom-in) 또는 줌-아웃(zoom-out)하도록 제어할 수 있다.In addition, when the photographing control signal is received through the transceiving unit, the photographing unit controls to zoom-in or zoom-out the fisheye lens or the mirror lens based on the photographing control signal can do.
또한, 상기 이동부는 상기 송수신부를 통해 이동제어신호가 수신되면, 상기 이동제어신호를 기초로 상기 탐지용 로봇 시스템의 이동방향을 전환할 수 있다.In addition, when the movement control signal is received through the transceiver, the movement unit may switch the movement direction of the robot system for detection based on the movement control signal.
본 발명에 따른 탐지용 로봇 시스템에 의하면 어안렌즈 또는 미러렌즈를 통해 탐지용 로봇 시스템이 현재 위치한 주변을 촬영하여 전방향의 영상을 표시할 수 있는 전방향이미지를 생성함으로써 탐지용 로봇 시스템이 위치한 지역의 전방향을 신속하고 용이하게 확인할 수 있다.According to the robot system for detection according to the present invention, the detection robot system is photographed through the fisheye lens or the mirror lens to generate an omnidirectional image capable of displaying an omni-directional image, Can be quickly and easily confirmed.
또한, 본 발명에 따른 탐지용 로봇 시스템에 의하면 탐지용 로봇 시스템의 현재 위치로부터 벽까지의 거리와 감지되는 대상물로부터 탐지용 로봇 시스템과의 떨어진 거리를 비교하여 감지되는 대상물이 벽인지 또는 장애물인지를 판단함으로써 장애물을 용이하게 식별할 수 있다.In addition, according to the robot system for detection according to the present invention, the distance from the current position to the wall of the robot system for detection is compared with the distance between the object to be detected and the robot system for detection to determine whether the object to be sensed is a wall or an obstacle The obstacle can be easily identified by judgment.
본 발명의 효과는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the following description.
도 1은 본 발명의 실시예에 따른 탐지용 로봇 시스템의 구성을 개략적으로 보여주는 블록도이다.
도 2는 본 발명의 실시예에 따른 사용자기기의 구성을 개략적으로 보여주는 블록도이다.
도 3은 본 발명의 실시예에 따른 탐지용 로봇 시스템의 촬영부를 통해 생성되는 원형이미지의 일 실시예를 보여주는 도면이다.
도 4는 본 발명의 실시예에 따른 탐지용 로봇 시스템의 이미지생성부를 통해 생성되는 파노라마화면의 제 1 실시예를 보여주는 도면이다.
도 5는 본 발명의 실시예에 따른 탐지용 로봇 시스템의 이미지생성부를 통해 생성되는 전방향 이미지의 제 1 실시예를 보여주는 도면이다.
도 6은 본 발명의 실시예에 따른 탐지용 로봇 시스템의 이미지생성부를 통해 생성되는 파노라마 화면의 제 2 실시예를 보여주는 3도면이다.
도 7은 본 발명의 실시예에 따른 탐지용 로봇 시스템의 이미지생성부를 통해 생성되는 전방향 이미지의 제 2 실시예를 보여주는 도면이다.1 is a block diagram schematically showing the configuration of a robot system for detection according to an embodiment of the present invention.
2 is a block diagram schematically illustrating a configuration of a user equipment according to an embodiment of the present invention.
3 is a diagram illustrating a circular image generated through a photographing unit of a robot system for detection according to an embodiment of the present invention.
4 is a view showing a first embodiment of a panorama screen generated through an image generator of a robot system for detection according to an embodiment of the present invention.
5 is a view showing a first embodiment of an omnidirectional image generated through an image generating unit of a robot system for detection according to an embodiment of the present invention.
FIG. 6 is a view showing a second embodiment of a panorama screen generated through the image generator of the detection robot system according to the embodiment of the present invention.
7 is a view showing a second embodiment of an omnidirectional image generated through the image generator of the detection robot system according to the embodiment of the present invention.
본 발명의 목적 및 효과, 그리고 그것들을 달성하기 위한 기술적 구성들은 첨부되는 도면과 함께 상세하게 뒤에 설명이 되는 실시 예들을 참조하면 명확해질 것이다. 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐를 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 뒤에 설명되는 용어들은 본 발명에서의 구조, 역할 및 기능 등을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다.BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will be more apparent from the following detailed description taken in conjunction with the accompanying drawings, in which: FIG. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unnecessary. The terms described below are defined in consideration of the structure, role and function of the present invention, and may be changed according to the intention of the user, the intention of the operator, or the custom.
그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있다. 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 오로지 특허청구범위에 기재된 청구항의 범주에 의하여 정의될 뿐이다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. These embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art to which the present invention pertains, It is only defined by the scope of the claims. Therefore, the definition should be based on the contents throughout this specification.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when an element is referred to as "comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise.
이하의 설명에서 전방향(all direction)이란 탐지용 로봇 시스템(100)의 위치를 중심으로 360°방향을 의미한다. In the following description, an all direction means a 360 ° direction around the position of the
이하에서는 본 발명의 실시예에 따른 탐지용 로봇 시스템에 대하여 첨부한 도면을 참고하여 구체적으로 설명하기로 한다.Hereinafter, a robot system for detection according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 실시예에 따른 탐지용 로봇 시스템(100)의 구성을 개략적으로 보여주는 블록도이다. 도 2는 본 발명의 실시예에 따른 사용자기기(200)의 구성을 개략적으로 보여주는 블록도이다.1 is a block diagram schematically showing the configuration of a robot system for
도 1 및 도 2를 참고하면, 본 발명의 실시예에 따른 탐지용 로봇 시스템(100)은 탐지용 로봇 시스템(100)을 이동시키기 위한 이동부(110), 어안렌즈(fish-eye lens) 또는 미러렌즈(mirror lens)를 통해 탐지용 로봇 시스템(100)이 위치한 주변을 촬영하는 촬영부(120), 데이터를 송수신하기 위한 송수신부(130), 대상물에 광을 조 하기 위한 조명부(140), 대상물을 감지하여 감지신호를 생성하는 센서부(150), 운영 프로그램 및 지도 데이터 등을 저장하기 위한 메모리부(160)를 포함한다. 또한, 탐지용 로봇 시스템(100)은 상기 이동부(110), 촬영부(120), 송수신부(130), 조명부(140), 센서부(150) 및 메모리부(160)와 전기적으로 연결되어 이들을 제어하기 위한 제어부(170)를 포함한다. 1 and 2, a
이때, 제어부(170)는 촬영부(120)와 전기적으로 연결되며 촬영부(120)에서 촬영된 이미지를 기초로 전방향(all direction)의 이미지를 나타내는 전방향 이미지를 생성하는 이미지생성부(171)와 센서부(150)의 상기 감지신호와 상기 지도 데이터를 기초로 상기 탐지용 로봇 시스템(100)의 주변에 위치한 대상물이 장애물인지 벽인지를 판단하는 장애물판단부(172)를 포함할 수 있다.The
이동부(110)는 탐지용 로봇 시스템(100)이 투입되는 특정 지역에서 탐지용 로봇 시스템(100)을 이동시킬 수 있다. 이동부(111)는 탐지용 로봇 시스템(100)의 본체(미도시)의 하부에 설치되어 탐지용 로봇 시스템(100)을 이동시킬 수 있다. 이동부(111)는 예를 들어, 상기 본체의 일측에 설치되는 모터(미도시)로부터 동력을 전달받아 회전되는 복수개의 바퀴로 형성될 수 있다. 하지만, 상기 예에 국한되는 것은 아니며 이동부(110)는 탐지용 로봇 시스템(100)을 이동시키기 위한 다양한 구조로 형성될 수 있다.The moving
탐지용 로봇 시스템(100)은 송수신부(130)를 통해 외부의 사용자기기(200)로부터 이동제어신호를 수신할 수 있다. 사용자기기(200)의 제어유닛(210)은 전기적으로 연결된 조작유닛(220)이 사용자에 의해 조작됨으로써 상기 이동제어신호를 생성할 수 있다. 사용자기기(200)의 제어유닛(210)은 상기 이동제어신호를 송수신유닛(230)을 통해 탐지용 로봇 시스템(100)으로 전송할 수 있다.The
탐지용 로봇 시스템(100)의 제어부(170)는 송수신부(130)를 통해 수신되는 상기 이동제어신호를 기초로 이동부(110)를 제어하여 탐지용 로봇 시스템(100)을 이동시킬 수 있다. 즉, 탐지용 로봇 시스템(100)은 외부의 사용자기기(200)를 조작하는 사용자에 의해 원격으로 제어될 수 있다.The
촬영부(120)는 어안렌즈 또는 미러렌즈로 형성될 수 있다. 어안렌즈 또는 미러렌즈는 상기 본체의 상부로부터 소정높이에 설치될 수 있다. 따라서, 촬영부(120)는 어안렌즈 또는 미러렌즈를 통해 탐지용 로봇 시스템(100)이 위치한 주변을 용이하게 촬영할 수 있다.The photographing
어안렌즈는 왜곡을(Distortion)을 보정하지 않고 의도적으로 통 모양(barrel distortion)의 왜곡을 생기게 하여 180도의 화각 전면에 걸쳐 균일한 밝기와 선예도(sharpness)를 유지할 수 있게 만든 렌즈로, 어안렌즈를 이용하는 경우 탐지용 로봇 시스템(100)이 위치한 지역의 전방향(all direction)에 대한 촬영이 가능하다. 따라서 촬영부(120)는 하나의 어안렌즈 또는 미러렌즈로 구성됨으로써 탐지용 로봇 시스템(100)을 중심으로 한 번에 360°전방향을 커버하는 이미지의 촬영이 가능하며 쵤영부(120)의 구성을 단순화할 수 있는 장점이 있다. The fisheye lens intentionally produces distortions of barrel distortion without compensating for distortion, which makes it possible to maintain uniform brightness and sharpness over an angle of view of 180 degrees. It is possible to capture the all direction of the area where the
이때, 탐지용 로봇 시스템(100)은 어안렌즈 또는 미러렌즈와 인접하도록 상기 본체에 설치되는 조명부(140)를 통해 탐지용 로봇 시스템(100)의 주위에 광을 조사할 수 있다. 조명부(140)는 조도감지센서(미도시)가 감지한 탐지용 로봇 시스템(100)이 투입되는 주변의 조도를 기초로 제어부(170)에 의해 선택적으로 온오프 될 수 있다. 따라서, 촬영부(120)는 탐지용 로봇 시스템(100)이 어두운 지역에 투입되더라도 탐지용 로봇 시스템(100)이 위치한 주변 상황을 식별할 수 있는 이미지의 촬영이 가능하다.At this time, the
촬영부(120)는 사용자기기(200)로부터 발생되는 촬영제어신호가 수신되는 경우, 상기 촬영제어신호를 기초로 어안렌즈 또는 미러렌즈에 인식되는 탐지용 로봇 시스템(100)의 주변을 선택적으로 줌-인(zoom-in) 또는 줌-아웃(zoom-out)할 수 있다.The photographing
촬영부(120)는 어안렌즈 또는 미러렌즈로 형성됨으로써 탐지용 로봇 시스템(100)이 위치한 지역의 전방향을 커버하는 원형이미지를 생성할 수 있다(도 3 참고).The photographing
제어부(170)의 이미지생성부(171)는 촬영부(120)에 전기적으로 연결되어 촬영부(120)로부터 생성되는 상기 원형이미지를 파노라마화면으로 생성할 수 있다. 이때, 상기 원형이미지에는 소정의 왜곡이 발생하는데, 상기 이미지생성부(171)는 소정의 이미지처리 프로세스를 통해 상기 원형이미지의 왜곡을 보정하여 적어도 하나의 파노라마화면을 구성할 수 있다(도 4 참고). The
예를 들어, 이미지생성부(171)는 상기 원형이미지를 탐지용 로봇 시스템(100)이 이동하는 방향으로부터 좌측으로 90°의 방향을(도 3의 a-a선)을 절단하여 펼침으로써 적어도 하나의 파노라마화면을 구성할 수 있다.For example, the
이미지생성부(171)는 상기 적어도 하나의 파노라마 화면 중 탐지용 로봇 시스템(100)의 이동방향에 대한 전방부 화면을 제 1 화면(P1, 도 4 참고)으로 설정하고, 탐지용 로봇 시스템(100)의 이동방향에 대한 후방부 화면을 제 2 화면(P2, 도 4 참고)으로 설정할 수 있다.The
예를 들어, 이미지생성부(171)는 탐지용 로봇 시스템(110)이 이동하는 방향에 대해 좌측으로 90°의 방향과 우측으로 90°의 방향에서 촬영된 화면을 제 1 화면(P1, 도 4 참고)으로 설정하고, 나머지 부분을 제 2 화면(P2, 도 4 참고)으로 설정할 수 있다.For example, the
이미지생성부(171)는 제 1 화면(P1)의 하부에 제 2 화면(P2)을 배치함으로써 상기 전방향 이미지를 생성할 수 있다(도 5 참고).The
또한, 이미지생성부(171)는 상기 적어도 하나의 파노라마 화면 중 탐지용 로봇 시스템(100)의 이동방향에 대한 전방부 화면을 제 1 화면(P3, 도 6 참고)으로 설정하고, 탐지용 로봇 시스템(100)의 이동방향에 대한 후방부 화면을 제 2 화면(P4, 도 6 참고)으로 설정하고, 상기 원형이미지에서 절단된 부분으로부터 소정범위의 화면을 제 3 화면(P5, 도 6 참고)으로 설정할 수 있다.The
이미지생성부(171)는 제 1 화면(P3)의 하부에 제 2 화면(P4)을 배치하고, 제 1 화면(P3) 및 제 2 화면(P4)의 적어도 일측에 제 3 화면(P5)을 배치함으로써 상기 전방향 이미지를 생성할 수 있다(도 7 참고).The
상기와 같이 이미지생성부(171)가 전방향 이미지를 생성함으로써 한 화면에서 전 방향의 상황을 용이하게 확인할 수 있다. 더욱이, 제3 화면을 추가하여 전방향 이미지를 생성함으로써 제1 화면과 제2 화면이 연결되는 지점의 상황도 용이하게 확인할 수 있다.As described above, the
제어부(170)는 이미지생성부(171)로부터 생성되는 상기 전방향 이미지를 송수신부(130)를 통해 외부의 사용자기기(200)로 전달할 수 있다. 사용자기기(200)는 상기 전방향 이미지를 전달받아 디스플레이유닛(240)을 통해 출력할 수 있다.The
따라서, 사용자는 탐지용 로봇 시스템(100)이 위치한 지역의 주변을 용이하게 확인할 수 있다. 또한, 탐지용 로봇 시스템(100)이 사용자기기(200)에 상기 전방향 이미지를 제공함으로써 사용자는 탐지용 로봇 시스템(100)의 특정 위치에 존재하는 장애물 등을 확인하기 위하여 탐지용 로봇 시스템(100)의 진행방향을 전환할 필요가 없게 될 수 있다. Accordingly, the user can easily confirm the vicinity of the area where the robot system for
탐지용 로봇 시스템(100)은 초음파 센서로 형성되는 센서부(150)를 통해 탐지용 로봇 시스템(100) 주변의 대상물을 감지할 수 있다. 센서부(150)는 상기 본체의 적어도 일면에 설치되어 탐지용 로봇 시스템(100)의 주변의 대상물을 감지할 수 있다. 센서부(150)는 상기 초음파 센서를 통해 탐지용 로봇 시스템(100) 주변의 대상물을 감지하여 감지신호를 생성할 수 있다.The
제어부(170)는 센서부(150)로부터 전달받은 상기 감지신호를 장애물판단부(172)에 전달할 수 있다.The
제어부(170)의 장애물판단부(172)는 센서부(150)로부터 전달되는 상기 감지신호와 메모리부(160)에 저장된 상기 지도 데이터를 기초로 센서부(150)로부터 감지되는 탐지용 로봇 시스템(100)의 주변에 위치한 대상물이 장애물인지 벽인지를 판단할 수 있다.The
예를 들어, 센서부(150)로부터 감지신호가 수신되면, 장애물판단부(172)는 탐지용 로봇 시스템(100)의 이동 거리를 산출하고, 산출된 이동거리와 지도 데이터를 이용하여 탐지용 로봇 시스템(100)이 상기 지도 데이터 상에 위치한 곳을 산출할 수 있다. For example, when a sensing signal is received from the
장애물판단부(172)는 상기 지도 데이터를 이용하여 상기 센서부(150)로부터 감지된 대상물이 위치하는 방향에서의 벽의 위치를 파악하고, 지도 데이터 상에서 탐지용 로봇 시스템(100)과 벽과의 거리를 제 1 거리값으로 산출할 수 있다. 한편, 장애물판단부(172)는 상기 감지신호를 기초로 탐지용 로봇 시스템(100)이 대상물로부터 떨어진 거리를 제 2 거리값으로 산출할 수 있다.The
장애물판단부(172)는 상기 제 1 거리값과 상기 제 2 거리값을 비교하여 상기 제 1 거리값과 상기 제 2 거리값의 차가 미리 설정된 범위를 벗어나면 센서부(150)를 통해 감지되는 대상물이 장애물이라고 판단하고, 상기 제 1 거리값과 상기 제 2 거리값의 차가 미리 설정됨 범위 이내이면 센서부(150)를 통해 감지되는 대상물이 벽이라고 판단할 수 있다.When the difference between the first distance value and the second distance value is out of a preset range, the
장애물판단부(172)가 센서부(150)로부터 감지되는 대상물이 장애물이라고 판단하는 경우, 장애물판단부(172)는 장애물 알림 신호를 생성하고, 제어부(170)는 상기 장애물 알림 신호를 송수신부(130)를 통해 사용자기기(200)로 전송할 수 있다.If the
사용자기기(200)는 송수신유닛(230)을 통해 상기 장애물 알림 신호를 수신하여 별도의 알람유닛(250)을 통해 표시함으로써 사용자에게 탐지용 로봇 시스템(100)의 주변에 장애물이 있음을 알릴 수 있다. 따라서, 사용자는 탐지용 로봇 시스템(100)의 주변에 장애물이 있음을 용이하게 인지할 수 있고, 장애물이 위치한 곳을 지역을 보다 자세히 조사할 수 있다.The
이상, 본 발명의 실시예에 대하여 설명하였으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 특허청구범위에 기재된 본 발명의 사상으로부터 벗어나지 않는 범위 내에서, 구성 요소의 부가, 변경, 삭제 또는 추가 등에 의해 본 발명을 다양하게 수정 및 변경시킬 수 있을 것이며, 이 또한 본 발명의 권리범위 내에 포함된다고 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.
100: 탐지용 로봇 시스템
110: 이동부
120: 촬영부
130: 송수신부
140: 조명부
150: 센서부
160: 메모리부
171: 이미지생성부
172: 장애물판단부100: Robot system for detection
110:
120:
130: Transmitting /
140:
150:
160:
171:
172: obstacle judgment unit
Claims (15)
상기 탐지용 로봇 시스템을 이동시키기 위한 이동부와,
어안렌즈 또는 미러렌즈를 통해 상기 탐지용 로봇 시스템이 위치한 주변을 촬영하기 위한 촬영부와,
상기 촬영부에 전기적으로 연결되며, 상기 촬영부에서 촬영된 이미지를 기초로 상기 탐지용 로봇을 중심으로 전방향(all direction)의 이미지를 나타내는 전방향 이미지를 생성하는 이미지생성부와,
상기 이미지생성부와 전기적으로 연결되며, 상기 전방향 이미지를 전송하기 위한 송수신부를 포함하는,
탐지용 로봇 시스템.
A robot system for detection,
A moving unit for moving the detection robot system;
A photographing unit for photographing a periphery of the detection robot system through a fish-eye lens or a mirror lens,
An image generating unit electrically connected to the photographing unit and generating an omni-directional image representing an image in all directions around the detection robot based on the image photographed by the photographing unit;
And a transmission / reception unit electrically connected to the image generation unit and for transmitting the omni-directional image,
Detection robot system.
상기 촬영부는 상기 탐지용 로봇 시스템이 위치한 지역의 전방향을 나타내는 원형이미지를 생성하는,
탐지용 로봇 시스템.
The method according to claim 1,
Wherein the photographing unit generates a circular image representing an omni-directional direction of an area where the detection robot system is located,
Detection robot system.
상기 이미지생성부는 상기 촬영부에서 생성되는 상기 원형이미지를 분할하여 적어도 하나의 파노라마이미지를 생성하는,
탐지용 로봇 시스템.
3. The method of claim 2,
Wherein the image generating unit generates at least one panoramic image by dividing the circular image generated by the photographing unit,
Detection robot system.
상기 이미지생성부는 상기 파노라마이미지를 이용하여 상기 탐지용 로봇 시스템의 이동방향에 대한 전방부 화면을 제 1 화면으로 생성하고, 상기 탐지용 로봇 시스템의 이동방향에 대한 후방부 화면을 제 2 화면으로 생성하는
탐지용 로봇 시스템.
The method of claim 3,
The image generating unit generates the front sub-screen for the moving direction of the detection robot system as the first screen using the panorama image, and generates the rear screen for the moving direction of the detection robot system as the second screen doing
Detection robot system.
상기 이미지생성부는 상기 제 1 화면의 하부에 상기 제 2 화면을 배치하여 상기 전방향 이미지를 생성하는,
탐지용 로봇 시스템.
5. The method of claim 4,
Wherein the image generating unit generates the omnidirectional image by disposing the second screen on a lower portion of the first screen,
Detection robot system.
상기 이미지생성부는 상기 원형이미지의 분할된 부분을 중심으로 소정 영역을 표시하는 적어도 하나의 제3 화면을 생성하는,
탐지용 로봇 시스템.
5. The method of claim 4,
Wherein the image generating unit generates at least one third screen displaying a predetermined area around the divided part of the circular image,
Detection robot system.
상기 이미지생성부는 상기 제 1 화면의 하부에 상기 제 2 화면을 배치하고, 상기 제 1 화면 및 상기 제 2 화면의 양측에 상기 제 3 화면을 배치하여 상기 전방향 이미지를 생성하는,
탐지용 로봇 시스템.
The method according to claim 6,
Wherein the image generating unit generates the omnidirectional image by disposing the second screen on a lower portion of the first screen and disposing the third screen on both sides of the first screen and the second screen,
Detection robot system.
상기 탐지용 로봇 시스템이 위치한 주변의 대상물을 감지하여 감지신호를 생성하는 센서부와,
상기 탐지용 로봇 시스템이 투입되는 지역의 지도 데이터를 저장하는 메모리부와,
상기 센서부 및 상기 메모리부와 전기적으로 연결되며, 상기 감지신호와 상기 지도 데이터를 기초로 상기 탐지용 로봇 시스템의 주변에 위치한 상기 대상물이 장애물인지 벽인지를 판단하는 장애물판단부를 더 포함하는,
탐지용 로봇 시스템.
The method according to claim 1,
A sensor unit for sensing a surrounding object in which the detection robot system is located and generating a detection signal,
A memory unit for storing map data of an area to which the robot system for detection is input;
Further comprising an obstacle determination unit electrically connected to the sensor unit and the memory unit and determining whether the obstacle or the obstacle is located on the periphery of the detection robot system based on the sensing signal and the map data.
Detection robot system.
상기 센서부는 초음파 센서로 형성되는,
탐지용 로봇 시스템.
9. The method of claim 8,
Wherein the sensor unit comprises an ultrasonic sensor,
Detection robot system.
상기 장애물판단부는 상기 탐지용 로봇 시스템의 이동거리와 상기 지도 데이터를 기초로 상기 탐지용 로봇 시스템이 벽으로부터 떨어진 제 1 거리값과, 상기 감지신호를 기초로 상기 탐지용 로봇 시스템이 상기 대상물로부터 떨어진 제 2 거리값을 산출하는,
탐지용 로봇 시스템.
9. The method of claim 8,
Wherein the obstacle determining unit determines the obstacle based on the moving distance of the detecting robot system and the map data, based on the first distance value that the detecting robot system has separated from the wall and the first distance value that the detecting robot system is away from the object Calculating a second distance value,
Detection robot system.
상기 장애물판단부는 상기 제 1 거리값과 상기 제 2 거리값을 비교하여, 상기 제 1 거리값과 상기 제 2 거리값의 차가 미리 설정된 범위 이내이면, 상기 대상물을 벽으로 판단하고, 상기 차이 미리 설정된 범위를 벗어나면 상기 대상물을 장애물로 판단하는
탐지용 로봇 시스템.
11. The method of claim 10,
Wherein the obstacle determining unit compares the first distance value with the second distance value and determines the object as a wall if the difference between the first distance value and the second distance value is within a predetermined range, If the object is out of the range, the object is judged to be an obstacle
Detection robot system.
상기 장애물판단부에 의해 상기 대상물이 장애물이라고 판단되는 경우, 상기 장애물판단부는 장애물 알림 신호를 생성하여 상기 송수신부를 통해 전송하는,
탐지용 로봇 시스템.
12. The method of claim 11,
Wherein the obstacle determination unit generates an obstacle notification signal and transmits the obstacle notification signal through the transceiver unit when the obstacle determination unit determines that the object is an obstacle,
Detection robot system.
상기 탐지용 로봇 시스템에 설치되며 광을 조사하기 위한 조명부를 더 포함하는,
탐지용 로봇 시스템.
The method according to claim 1,
Further comprising: an illumination unit installed in the robot system for detection,
Detection robot system.
상기 촬영부는 상기 송수신부를 통해 촬영제어신호가 수신되면, 상기 촬영제어신호를 기초로 상기 어안렌즈 또는 상기 미러렌즈를 줌-인(zoom-in) 또는 줌-아웃(zoom-out)하도록 제어하는,
탐지용 로봇 시스템.
The method according to claim 1,
Wherein the photographing unit controls zoom-in or zoom-out of the fisheye lens or the mirror lens based on the photographing control signal when the photographing control signal is received through the transceiving unit.
Detection robot system.
상기 이동부는 상기 송수신부를 통해 이동제어신호가 수신되면, 상기 이동제어신호를 기초로 상기 탐지용 로봇 시스템의 이동방향을 전환하는,
탐지용 로봇 시스템.The method according to claim 1,
Wherein the movement unit switches the movement direction of the detection robot system based on the movement control signal when the movement control signal is received through the transceiver unit,
Detection robot system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120153316A KR101454857B1 (en) | 2012-12-26 | 2012-12-26 | Detection robot system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120153316A KR101454857B1 (en) | 2012-12-26 | 2012-12-26 | Detection robot system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140084442A true KR20140084442A (en) | 2014-07-07 |
KR101454857B1 KR101454857B1 (en) | 2014-11-04 |
Family
ID=51734314
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120153316A KR101454857B1 (en) | 2012-12-26 | 2012-12-26 | Detection robot system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101454857B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170100897A (en) * | 2016-02-26 | 2017-09-05 | 한화지상방산 주식회사 | The Apparatus For Around View Monitoring |
CN109990901A (en) * | 2017-12-29 | 2019-07-09 | 广州西门子变压器有限公司 | The latent oil sniffing robot and latent oil detection system of for transformer detection |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102516450B1 (en) * | 2020-10-16 | 2023-04-03 | 네이버랩스 주식회사 | Method of generating map and visual localization system using the map |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100763851B1 (en) * | 2006-02-03 | 2007-10-05 | 한국도로공사 | Bridge inspecting robot capable of climbing up an obstacle and processing an continuos image |
KR101240181B1 (en) * | 2008-11-10 | 2013-03-07 | 한국전자통신연구원 | Method and apparatus and for generating safe path of mobile robot |
KR20110108858A (en) * | 2010-03-30 | 2011-10-06 | 호야로봇 (주) | An two wheel-drive robot for dangerous spot search to have high-efficiency transportation |
-
2012
- 2012-12-26 KR KR1020120153316A patent/KR101454857B1/en active IP Right Grant
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170100897A (en) * | 2016-02-26 | 2017-09-05 | 한화지상방산 주식회사 | The Apparatus For Around View Monitoring |
CN109990901A (en) * | 2017-12-29 | 2019-07-09 | 广州西门子变压器有限公司 | The latent oil sniffing robot and latent oil detection system of for transformer detection |
Also Published As
Publication number | Publication date |
---|---|
KR101454857B1 (en) | 2014-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101123738B1 (en) | System and method for monitoring safe operation of heavy machinery | |
JP4573242B2 (en) | Driving assistance device | |
KR101566784B1 (en) | Approach monitoring and operation control system for heavy equipment of industry and construction | |
JP5177515B2 (en) | Peripheral recognition support system | |
JP6232497B2 (en) | External recognition device | |
JP6456584B2 (en) | Perimeter monitoring equipment for work machines | |
JP5277974B2 (en) | Driving assistance device | |
JP6052881B2 (en) | Perimeter monitoring equipment for work machines | |
JP2006311272A (en) | Video display device for vehicle | |
KR20190094115A (en) | Remote control system and communication method therefor | |
WO2010070920A1 (en) | Device for generating image of surroundings of vehicle | |
JP2020088697A (en) | Periphery monitoring device | |
JP2016168877A (en) | Visual recognition device for vehicle | |
WO2018159019A1 (en) | Bird's-eye-view video image generation device, bird's-eye-view video image generation system, bird's-eye-view video image generation method, and program | |
KR101454857B1 (en) | Detection robot system | |
US11186964B2 (en) | Shovel | |
WO2020157901A1 (en) | Driving assistance device | |
CN107345807A (en) | The method circuit arrangement component system and correlation machine executable code of detection of obstacles | |
KR102007535B1 (en) | Monitor display apparatus in construction machinery | |
JP2006139525A (en) | Autonomous mobile robot | |
US20190050959A1 (en) | Machine surround view system and method for generating 3-dimensional composite surround view using same | |
JP2017223111A (en) | Shovel | |
KR101533285B1 (en) | Car safety system to get and display infrared images for sensing dangers in dark environments and photographing method for infrared images | |
KR101420305B1 (en) | Automotive omnidirectional monitoring apparatus | |
KR102190891B1 (en) | Environment monitoring apparatus and method for vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
FPAY | Annual fee payment |
Payment date: 20171108 Year of fee payment: 4 |