KR20140084442A - Detection robot system - Google Patents

Detection robot system Download PDF

Info

Publication number
KR20140084442A
KR20140084442A KR1020120153316A KR20120153316A KR20140084442A KR 20140084442 A KR20140084442 A KR 20140084442A KR 1020120153316 A KR1020120153316 A KR 1020120153316A KR 20120153316 A KR20120153316 A KR 20120153316A KR 20140084442 A KR20140084442 A KR 20140084442A
Authority
KR
South Korea
Prior art keywords
robot system
unit
detection robot
detection
image
Prior art date
Application number
KR1020120153316A
Other languages
Korean (ko)
Other versions
KR101454857B1 (en
Inventor
김배훈
서일민
이지환
Original Assignee
주식회사 영국전자
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 영국전자 filed Critical 주식회사 영국전자
Priority to KR1020120153316A priority Critical patent/KR101454857B1/en
Publication of KR20140084442A publication Critical patent/KR20140084442A/en
Application granted granted Critical
Publication of KR101454857B1 publication Critical patent/KR101454857B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/02Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type
    • B25J9/023Cartesian coordinate type
    • B25J9/026Gantry-type

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

The present invention relates to a detecting robot system. According to an embodiment of the present invention, the detecting robot system comprises a moving unit for movement of the detecting robot system; a photographing unit which photographs the surrounding area of the detecting robot system through a fisheye lens or a mirror lens; an image generating unit which is electrically connected with the photographing unit, and generates all direction images for indicating images in all directions centering on a detecting robot based on the image photographed by the photographing unit; and a transmitting and receiving unit which is electrically connected with the image generating unit and transmits the all direction images.

Description

탐지용 로봇 시스템{DETECTION ROBOT SYSTEM}Detection Robot System {DETECTION ROBOT SYSTEM}

본 발명은 탐지용 로봇 시스템에 관한 것이다. 더욱 상세하게는 어안렌즈 또는 미러렌즈와 같이 전방향을 촬영할 수 있는 렌즈를 사용하여 탐지용 로봇 시스템이 위치한 주변을 용이하게 확인할 수 있는 탐지용 로봇 시스템에 관한 것이다.The present invention relates to a robot system for detection. And more particularly, to a robot system for detection that can easily identify the vicinity of a detection robot system using a lens capable of shooting in all directions, such as a fish-eye lens or a mirror lens.

위험지역에는 화재진압 또는 장비수리 등과 같은 특정 작업을 수행하는 작업자가 투입되어 작업이 수행된다. 예를 들어, 화재현장과 같은 위험지역에는 소방관과 같은 작업자가 투입되어 화재를 진압한다. 이때, 소방관이 화재지역에 투입되기 전에 또는 소방관과 함께 투입되어 소방관을 보조할 수 있는 보조로봇이 투입될 수 있다. 이와 같은 보조로봇은 화재지역에 투입되어 화재를 진압하거나 화재지역에 있는 인명을 탐지하게 된다.Hazardous areas are filled by workers who perform specific tasks such as fire suppression or equipment repairs. For example, firefighters and other workers are put into dangerous areas such as a fire scene to suppress the fire. At this time, the auxiliary robot can be inserted before the firefighter is put into the fire area or with the firefighter to assist the firefighter. These auxiliary robots are put into the fire area to suppress the fire or to detect people in the fire area.

위험지역에 투입되는 보조로봇은 위험지역의 상황을 알려주기 위하여 위험지역의 상황을 촬영한 정보를 작업자 또는 관제실로 전송할 수 있는데, 이를 통해 작업자 또는 관제실에서는 위험지역의 상태를 확인할 수 있다.In order to inform the situation of the dangerous area, the assistant robot putting in the dangerous area can transmit the information of the situation of the dangerous area to the operator or the control room so that the operator or the control room can check the status of the dangerous area.

하지만, 종래의 보조로봇은 일정 방향에서만 위험지역을 촬영할 수 있는 촬영수단이 설치되기 때문에 보조로봇의 측면 또는 후방을 촬영하기 위해서는 보조로봇의 진행방향을 전환해야 하기 때문에 위험지역의 상황을 신속하게 확인하는데 한계가 있다.However, since the conventional auxiliary robot is provided with the photographing means capable of photographing the dangerous area only in a predetermined direction, in order to photograph the side or the rear of the auxiliary robot, the direction of the auxiliary robot must be changed, There is a limit.

또한, 보조로봇의 일정 방향에서만 촬영할 수 있는 촬영수단으로는 보조로봇의 측면 또는 후방에 위치하는 장애물 또는 사람을 발견하기가 용이하지 않아 긴급한 상황에서의 효용성이 떨어진다.In addition, as an imaging means capable of shooting only in a certain direction of the auxiliary robot, it is not easy to detect an obstacle or a person located on the side or rear of the auxiliary robot, and thus the utility in an emergency situation is deteriorated.

본 발명은 로봇이 위치한 지역의 전방향을 확인할 수 있는 이미지를 생성하여 제공할 수 있는 탐지용 로봇 시스템을 제공하는 것을 목적으로 한다.An object of the present invention is to provide a robot system for detection that can generate and provide an image that can identify the direction of a robot in a forward direction.

본 발명의 목적은 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The objects of the present invention are not limited to those mentioned above, and other objects not mentioned may be clearly understood by those skilled in the art from the following description.

상기 과제를 해결하기 위한 본 발명의 실시예에 따른 탐지용 로봇 시스템은 상기 탐지용 로봇 시스템을 이동시키기 위한 이동부와, 어안렌즈 또는 미러렌즈를 통해 상기 탐지용 로봇 시스템이 위치한 주변을 촬영하기 위한 촬영부와, 상기 촬영부에 전기적으로 연결되며, 상기 촬영부에서 촬영된 이미지를 기초로 상기 탐지용 로봇을 중심으로 전방향(all direction)의 이미지를 나타내는 전방향 이미지를 생성하는 이미지생성부와, 상기 이미지생성부와 전기적으로 연결되며, 상기 전방향 이미지를 전송하기 위한 송수신부를 포함한다.According to an aspect of the present invention, there is provided a robot system for detection, comprising: a moving unit for moving the robot system for detection; and a moving unit for moving the robot system for detection through a fisheye lens or a mirror lens An image generating unit which is electrically connected to the photographing unit and generates an omni-directional image representing an image in all directions around the detection robot based on the image photographed by the photographing unit; And a transmission / reception unit electrically connected to the image generation unit and transmitting the omnidirectional image.

또한, 상기 촬영부는 상기 탐지용 로봇 시스템이 위치한 지역의 전방향을 나타내는 원형이미지를 생성할 수 있다.In addition, the photographing unit may generate a prototype image representing an entire direction of an area where the detection robot system is located.

또한, 상기 이미지생성부는 상기 촬영부에서 생성되는 상기 원형이미지를 분할하여 적어도 하나의 파노라마이미지를 생성할 수 있다.The image generating unit may generate at least one panoramic image by dividing the circular image generated by the photographing unit.

또한, 상기 이미지생성부는 상기 파노라마이미지를 이용하여 상기 탐지용 로봇 시스템의 이동방향에 대한 전방부 화면을 제 1 화면으로 생성하고, 상기 탐지용 로봇 시스템의 이동방향에 대한 후방부 화면을 제 2 화면으로 생성할 수 있다.Also, the image generating unit may generate the front sub-screen with respect to the moving direction of the detection robot system as the first screen using the panoramic image, and the rear sub-screen with respect to the moving direction of the detection robot system as the second screen Can be generated.

또한, 상기 이미지생성부는 상기 제 1 화면의 하부에 상기 제 2 화면을 배치하여 상기 전방향 이미지를 생성할 수 있다.In addition, the image generating unit may generate the omnidirectional image by disposing the second screen at a lower portion of the first screen.

또한, 상기 이미지생성부는 상기 원형이미지의 분할된 부분을 중심으로 소정 영역을 표시하는 적어도 하나의 제3 화면을 생성할 수 있다.Also, the image generating unit may generate at least one third screen displaying a predetermined area centered on the divided part of the circular image.

또한, 상기 이미지생성부는 상기 제 1 화면의 하부에 상기 제 2 화면을 배치하고, 상기 제 1 화면 및 상기 제 2 화면의 양측에 상기 제 3 화면을 배치하여 상기 전방향 이미지를 생성할 수 있다.The image generating unit may generate the omnidirectional image by disposing the second screen below the first screen and arranging the third screen on both sides of the first screen and the second screen.

또한, 상기 탐지용 로봇 시스템이 위치한 주변의 대상물을 감지하여 감지신호를 생성하는 센서부와, 상기 탐지용 로봇 시스템이 투입되는 지역의 지도 데이터를 저장하는 메모리부와, 상기 센서부 및 상기 메모리부와 전기적으로 연결되며, 상기 감지신호와 상기 지도 데이터를 기초로 상기 탐지용 로봇 시스템의 주변에 위치한 상기 대상물이 장애물인지 벽인지를 판단하는 장애물판단부를 더 포함할 수 있다.The sensor unit senses an object in the vicinity of the detection robot system and generates a sensing signal. The sensing unit includes a memory unit for storing map data of a region to which the robot system for sensing is input, And an obstacle determining unit for determining whether the obstacle is located in the vicinity of the detection robot system based on the sensing signal and the map data.

또한, 상기 센서부는 초음파 센서로 형성될 수 있다.In addition, the sensor unit may be formed of an ultrasonic sensor.

또한, 상기 장애물판단부는 상기 탐지용 로봇 시스템의 이동거리와 상기 지도 데이터를 기초로 상기 탐지용 로봇 시스템이 벽으로부터 떨어진 제 1 거리값과, 상기 감지신호를 기초로 상기 탐지용 로봇 시스템이 상기 대상물로부터 떨어진 제 2 거리값을 산출할 수 있다.The obstacle determining unit may determine the obstacle based on the moving distance of the detecting robot system and the map data, based on the first distance value of the detecting robot system away from the wall and the first distance value, It is possible to calculate the second distance value.

또한, 상기 장애물판단부는 상기 제 1 거리값과 상기 제 2 거리값을 비교하여, 상기 제 1 거리값과 상기 제 2 거리값의 차가 미리 설정된 범위 이내이면, 상기 대상물을 벽으로 판단하고, 상기 차이 미리 설정된 범위를 벗어나면 상기 대상물을 장애물로 판단할 수 있다.If the difference between the first distance value and the second distance value is within a preset range, the obstacle determining unit may determine the object as a wall, and if the difference The object can be judged to be an obstacle if it is out of a preset range.

또한, 상기 장애물판단부에 의해 상기 대상물이 장애물이라고 판단되는 경우, 상기 장애물판단부는 장애물 알림 신호를 생성하여 상기 송수신부를 통해 전송할 수 있다.In addition, when the obstacle determining unit determines that the object is an obstacle, the obstacle determining unit may generate an obstacle notification signal and transmit the obstacle notification signal through the transceiving unit.

또한, 상기 탐지용 로봇 시스템에 설치되며 광을 조사하기 위한 조명부를 더 포함할 수 있다.The robot system further includes an illumination unit for irradiating light.

또한, 상기 촬영부는 상기 송수신부를 통해 촬영제어신호가 수신되면, 상기 촬영제어신호를 기초로 상기 어안렌즈 또는 상기 미러렌즈를 줌-인(zoom-in) 또는 줌-아웃(zoom-out)하도록 제어할 수 있다.In addition, when the photographing control signal is received through the transceiving unit, the photographing unit controls to zoom-in or zoom-out the fisheye lens or the mirror lens based on the photographing control signal can do.

또한, 상기 이동부는 상기 송수신부를 통해 이동제어신호가 수신되면, 상기 이동제어신호를 기초로 상기 탐지용 로봇 시스템의 이동방향을 전환할 수 있다.In addition, when the movement control signal is received through the transceiver, the movement unit may switch the movement direction of the robot system for detection based on the movement control signal.

본 발명에 따른 탐지용 로봇 시스템에 의하면 어안렌즈 또는 미러렌즈를 통해 탐지용 로봇 시스템이 현재 위치한 주변을 촬영하여 전방향의 영상을 표시할 수 있는 전방향이미지를 생성함으로써 탐지용 로봇 시스템이 위치한 지역의 전방향을 신속하고 용이하게 확인할 수 있다.According to the robot system for detection according to the present invention, the detection robot system is photographed through the fisheye lens or the mirror lens to generate an omnidirectional image capable of displaying an omni-directional image, Can be quickly and easily confirmed.

또한, 본 발명에 따른 탐지용 로봇 시스템에 의하면 탐지용 로봇 시스템의 현재 위치로부터 벽까지의 거리와 감지되는 대상물로부터 탐지용 로봇 시스템과의 떨어진 거리를 비교하여 감지되는 대상물이 벽인지 또는 장애물인지를 판단함으로써 장애물을 용이하게 식별할 수 있다.In addition, according to the robot system for detection according to the present invention, the distance from the current position to the wall of the robot system for detection is compared with the distance between the object to be detected and the robot system for detection to determine whether the object to be sensed is a wall or an obstacle The obstacle can be easily identified by judgment.

본 발명의 효과는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 실시예에 따른 탐지용 로봇 시스템의 구성을 개략적으로 보여주는 블록도이다.
도 2는 본 발명의 실시예에 따른 사용자기기의 구성을 개략적으로 보여주는 블록도이다.
도 3은 본 발명의 실시예에 따른 탐지용 로봇 시스템의 촬영부를 통해 생성되는 원형이미지의 일 실시예를 보여주는 도면이다.
도 4는 본 발명의 실시예에 따른 탐지용 로봇 시스템의 이미지생성부를 통해 생성되는 파노라마화면의 제 1 실시예를 보여주는 도면이다.
도 5는 본 발명의 실시예에 따른 탐지용 로봇 시스템의 이미지생성부를 통해 생성되는 전방향 이미지의 제 1 실시예를 보여주는 도면이다.
도 6은 본 발명의 실시예에 따른 탐지용 로봇 시스템의 이미지생성부를 통해 생성되는 파노라마 화면의 제 2 실시예를 보여주는 3도면이다.
도 7은 본 발명의 실시예에 따른 탐지용 로봇 시스템의 이미지생성부를 통해 생성되는 전방향 이미지의 제 2 실시예를 보여주는 도면이다.
1 is a block diagram schematically showing the configuration of a robot system for detection according to an embodiment of the present invention.
2 is a block diagram schematically illustrating a configuration of a user equipment according to an embodiment of the present invention.
3 is a diagram illustrating a circular image generated through a photographing unit of a robot system for detection according to an embodiment of the present invention.
4 is a view showing a first embodiment of a panorama screen generated through an image generator of a robot system for detection according to an embodiment of the present invention.
5 is a view showing a first embodiment of an omnidirectional image generated through an image generating unit of a robot system for detection according to an embodiment of the present invention.
FIG. 6 is a view showing a second embodiment of a panorama screen generated through the image generator of the detection robot system according to the embodiment of the present invention.
7 is a view showing a second embodiment of an omnidirectional image generated through the image generator of the detection robot system according to the embodiment of the present invention.

본 발명의 목적 및 효과, 그리고 그것들을 달성하기 위한 기술적 구성들은 첨부되는 도면과 함께 상세하게 뒤에 설명이 되는 실시 예들을 참조하면 명확해질 것이다. 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐를 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 뒤에 설명되는 용어들은 본 발명에서의 구조, 역할 및 기능 등을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다.BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will be more apparent from the following detailed description taken in conjunction with the accompanying drawings, in which: FIG. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unnecessary. The terms described below are defined in consideration of the structure, role and function of the present invention, and may be changed according to the intention of the user, the intention of the operator, or the custom.

그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있다. 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 오로지 특허청구범위에 기재된 청구항의 범주에 의하여 정의될 뿐이다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. These embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art to which the present invention pertains, It is only defined by the scope of the claims. Therefore, the definition should be based on the contents throughout this specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when an element is referred to as "comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise.

이하의 설명에서 전방향(all direction)이란 탐지용 로봇 시스템(100)의 위치를 중심으로 360°방향을 의미한다. In the following description, an all direction means a 360 ° direction around the position of the detection robot system 100.

이하에서는 본 발명의 실시예에 따른 탐지용 로봇 시스템에 대하여 첨부한 도면을 참고하여 구체적으로 설명하기로 한다.Hereinafter, a robot system for detection according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 탐지용 로봇 시스템(100)의 구성을 개략적으로 보여주는 블록도이다. 도 2는 본 발명의 실시예에 따른 사용자기기(200)의 구성을 개략적으로 보여주는 블록도이다.1 is a block diagram schematically showing the configuration of a robot system for detection 100 according to an embodiment of the present invention. 2 is a block diagram schematically illustrating the configuration of a user equipment 200 according to an embodiment of the present invention.

도 1 및 도 2를 참고하면, 본 발명의 실시예에 따른 탐지용 로봇 시스템(100)은 탐지용 로봇 시스템(100)을 이동시키기 위한 이동부(110), 어안렌즈(fish-eye lens) 또는 미러렌즈(mirror lens)를 통해 탐지용 로봇 시스템(100)이 위치한 주변을 촬영하는 촬영부(120), 데이터를 송수신하기 위한 송수신부(130), 대상물에 광을 조 하기 위한 조명부(140), 대상물을 감지하여 감지신호를 생성하는 센서부(150), 운영 프로그램 및 지도 데이터 등을 저장하기 위한 메모리부(160)를 포함한다. 또한, 탐지용 로봇 시스템(100)은 상기 이동부(110), 촬영부(120), 송수신부(130), 조명부(140), 센서부(150) 및 메모리부(160)와 전기적으로 연결되어 이들을 제어하기 위한 제어부(170)를 포함한다. 1 and 2, a detection robot system 100 according to an embodiment of the present invention includes a moving unit 110 for moving a detection robot system 100, a fish-eye lens A photographing unit 120 for photographing the periphery of the detection robot system 100 through a mirror lens, a transmitting and receiving unit 130 for transmitting and receiving data, an illuminating unit 140 for illuminating the object, A sensor unit 150 for detecting an object and generating a sensing signal, and a memory unit 160 for storing an operation program and map data. The robot system 100 for detection is electrically connected to the moving unit 110, the photographing unit 120, the transceiver unit 130, the illumination unit 140, the sensor unit 150, and the memory unit 160 And a control unit 170 for controlling them.

이때, 제어부(170)는 촬영부(120)와 전기적으로 연결되며 촬영부(120)에서 촬영된 이미지를 기초로 전방향(all direction)의 이미지를 나타내는 전방향 이미지를 생성하는 이미지생성부(171)와 센서부(150)의 상기 감지신호와 상기 지도 데이터를 기초로 상기 탐지용 로봇 시스템(100)의 주변에 위치한 대상물이 장애물인지 벽인지를 판단하는 장애물판단부(172)를 포함할 수 있다.The controller 170 is electrically connected to the photographing unit 120 and includes an image generating unit 171 for generating an omni-directional image representing an image in all directions based on the image photographed by the photographing unit 120 And an obstacle judging unit 172 for judging whether an obstacle or an obstacle located in the vicinity of the detection robot system 100 is an obstacle or a wall based on the sensing signal of the sensor unit 150 and the map data .

이동부(110)는 탐지용 로봇 시스템(100)이 투입되는 특정 지역에서 탐지용 로봇 시스템(100)을 이동시킬 수 있다. 이동부(111)는 탐지용 로봇 시스템(100)의 본체(미도시)의 하부에 설치되어 탐지용 로봇 시스템(100)을 이동시킬 수 있다. 이동부(111)는 예를 들어, 상기 본체의 일측에 설치되는 모터(미도시)로부터 동력을 전달받아 회전되는 복수개의 바퀴로 형성될 수 있다. 하지만, 상기 예에 국한되는 것은 아니며 이동부(110)는 탐지용 로봇 시스템(100)을 이동시키기 위한 다양한 구조로 형성될 수 있다.The moving unit 110 can move the detection robot system 100 in a specific area where the detection robot system 100 is inserted. The moving unit 111 can be installed below the main body (not shown) of the detection robot system 100 to move the detection robot system 100. The moving part 111 may be formed of a plurality of wheels that are rotated by receiving power from a motor (not shown) installed at one side of the main body, for example. However, the present invention is not limited to the above example, and the moving unit 110 may have various structures for moving the robot system 100 for detection.

탐지용 로봇 시스템(100)은 송수신부(130)를 통해 외부의 사용자기기(200)로부터 이동제어신호를 수신할 수 있다. 사용자기기(200)의 제어유닛(210)은 전기적으로 연결된 조작유닛(220)이 사용자에 의해 조작됨으로써 상기 이동제어신호를 생성할 수 있다. 사용자기기(200)의 제어유닛(210)은 상기 이동제어신호를 송수신유닛(230)을 통해 탐지용 로봇 시스템(100)으로 전송할 수 있다.The detection robot system 100 can receive a movement control signal from an external user device 200 through the transceiver 130. [ The control unit 210 of the user device 200 can generate the movement control signal by operating the electrically operated operation unit 220 by the user. The control unit 210 of the user equipment 200 may transmit the movement control signal to the detection robot system 100 through the transmission / reception unit 230. [

탐지용 로봇 시스템(100)의 제어부(170)는 송수신부(130)를 통해 수신되는 상기 이동제어신호를 기초로 이동부(110)를 제어하여 탐지용 로봇 시스템(100)을 이동시킬 수 있다. 즉, 탐지용 로봇 시스템(100)은 외부의 사용자기기(200)를 조작하는 사용자에 의해 원격으로 제어될 수 있다.The control unit 170 of the detection robot system 100 can move the detection robot system 100 by controlling the movement unit 110 based on the movement control signal received through the transceiver unit 130. [ That is, the detection robot system 100 can be remotely controlled by a user operating the external user device 200. [

촬영부(120)는 어안렌즈 또는 미러렌즈로 형성될 수 있다. 어안렌즈 또는 미러렌즈는 상기 본체의 상부로부터 소정높이에 설치될 수 있다. 따라서, 촬영부(120)는 어안렌즈 또는 미러렌즈를 통해 탐지용 로봇 시스템(100)이 위치한 주변을 용이하게 촬영할 수 있다.The photographing unit 120 may be formed of a fisheye lens or a mirror lens. The fisheye lens or the mirror lens may be installed at a predetermined height from the upper portion of the main body. Therefore, the photographing unit 120 can easily photograph the periphery where the detection robot system 100 is located through the fisheye lens or the mirror lens.

어안렌즈는 왜곡을(Distortion)을 보정하지 않고 의도적으로 통 모양(barrel distortion)의 왜곡을 생기게 하여 180도의 화각 전면에 걸쳐 균일한 밝기와 선예도(sharpness)를 유지할 수 있게 만든 렌즈로, 어안렌즈를 이용하는 경우 탐지용 로봇 시스템(100)이 위치한 지역의 전방향(all direction)에 대한 촬영이 가능하다. 따라서 촬영부(120)는 하나의 어안렌즈 또는 미러렌즈로 구성됨으로써 탐지용 로봇 시스템(100)을 중심으로 한 번에 360°전방향을 커버하는 이미지의 촬영이 가능하며 쵤영부(120)의 구성을 단순화할 수 있는 장점이 있다. The fisheye lens intentionally produces distortions of barrel distortion without compensating for distortion, which makes it possible to maintain uniform brightness and sharpness over an angle of view of 180 degrees. It is possible to capture the all direction of the area where the detection robot system 100 is located. Therefore, the photographing unit 120 can be constructed of a single fisheye lens or a mirror lens, so that it is possible to photograph an image covering 360 degrees all around the detection robot system 100, Can be simplified.

이때, 탐지용 로봇 시스템(100)은 어안렌즈 또는 미러렌즈와 인접하도록 상기 본체에 설치되는 조명부(140)를 통해 탐지용 로봇 시스템(100)의 주위에 광을 조사할 수 있다. 조명부(140)는 조도감지센서(미도시)가 감지한 탐지용 로봇 시스템(100)이 투입되는 주변의 조도를 기초로 제어부(170)에 의해 선택적으로 온오프 될 수 있다. 따라서, 촬영부(120)는 탐지용 로봇 시스템(100)이 어두운 지역에 투입되더라도 탐지용 로봇 시스템(100)이 위치한 주변 상황을 식별할 수 있는 이미지의 촬영이 가능하다.At this time, the detection robot system 100 may irradiate light around the detection robot system 100 through the illumination unit 140 installed in the main body so as to be adjacent to the fisheye lens or the mirror lens. The illumination unit 140 can be selectively turned on and off by the controller 170 based on the illuminance of the surroundings of the robot system 100 detected by the illumination sensor (not shown). Therefore, even if the detection robot system 100 is inserted in a dark area, the photographing unit 120 can capture an image that can identify the surrounding situation where the detection robot system 100 is located.

촬영부(120)는 사용자기기(200)로부터 발생되는 촬영제어신호가 수신되는 경우, 상기 촬영제어신호를 기초로 어안렌즈 또는 미러렌즈에 인식되는 탐지용 로봇 시스템(100)의 주변을 선택적으로 줌-인(zoom-in) 또는 줌-아웃(zoom-out)할 수 있다.The photographing unit 120 selectively zooms the periphery of the detection robot system 100 recognized by the fisheye lens or the mirror lens based on the photographing control signal when the photographing control signal generated from the user device 200 is received And can zoom-in or zoom-out.

촬영부(120)는 어안렌즈 또는 미러렌즈로 형성됨으로써 탐지용 로봇 시스템(100)이 위치한 지역의 전방향을 커버하는 원형이미지를 생성할 수 있다(도 3 참고).The photographing unit 120 may be formed of a fisheye lens or a mirror lens so as to generate a circular image covering all directions of a region where the detection robot system 100 is located (see FIG. 3).

제어부(170)의 이미지생성부(171)는 촬영부(120)에 전기적으로 연결되어 촬영부(120)로부터 생성되는 상기 원형이미지를 파노라마화면으로 생성할 수 있다. 이때, 상기 원형이미지에는 소정의 왜곡이 발생하는데, 상기 이미지생성부(171)는 소정의 이미지처리 프로세스를 통해 상기 원형이미지의 왜곡을 보정하여 적어도 하나의 파노라마화면을 구성할 수 있다(도 4 참고). The image generating unit 171 of the control unit 170 may generate the panoramic image of the circular image that is electrically connected to the photographing unit 120 and is generated from the photographing unit 120. [ At this time, a predetermined distortion occurs in the circular image. The image generating unit 171 can correct at least one panoramic image by correcting the distortion of the circular image through a predetermined image processing process (refer to FIG. 4 ).

예를 들어, 이미지생성부(171)는 상기 원형이미지를 탐지용 로봇 시스템(100)이 이동하는 방향으로부터 좌측으로 90°의 방향을(도 3의 a-a선)을 절단하여 펼침으로써 적어도 하나의 파노라마화면을 구성할 수 있다.For example, the image generating unit 171 may cut the circular image by 90 degrees to the left (aa line in FIG. 3) from the direction in which the robot system for detection 100 is moved to spread the at least one panorama The screen can be configured.

이미지생성부(171)는 상기 적어도 하나의 파노라마 화면 중 탐지용 로봇 시스템(100)의 이동방향에 대한 전방부 화면을 제 1 화면(P1, 도 4 참고)으로 설정하고, 탐지용 로봇 시스템(100)의 이동방향에 대한 후방부 화면을 제 2 화면(P2, 도 4 참고)으로 설정할 수 있다.The image generating unit 171 sets the front screen of the at least one panoramic screen in the moving direction of the detecting robot system 100 as the first screen P1 (see FIG. 4), and the detecting robot system 100 (See FIG. 4) as the second screen P2 (see FIG. 4).

예를 들어, 이미지생성부(171)는 탐지용 로봇 시스템(110)이 이동하는 방향에 대해 좌측으로 90°의 방향과 우측으로 90°의 방향에서 촬영된 화면을 제 1 화면(P1, 도 4 참고)으로 설정하고, 나머지 부분을 제 2 화면(P2, 도 4 참고)으로 설정할 수 있다.For example, the image generating unit 171 generates a first image (P1, Fig. 4 (b)) that is captured in a direction of 90 degrees to the left and a direction of 90 degrees to the right with respect to the direction in which the detection robot system 110 moves (Refer to FIG. 4), and the remaining portion can be set to the second screen P2 (see FIG. 4).

이미지생성부(171)는 제 1 화면(P1)의 하부에 제 2 화면(P2)을 배치함으로써 상기 전방향 이미지를 생성할 수 있다(도 5 참고).The image generating unit 171 may generate the forward image by disposing the second screen P2 below the first screen P1 (see FIG. 5).

또한, 이미지생성부(171)는 상기 적어도 하나의 파노라마 화면 중 탐지용 로봇 시스템(100)의 이동방향에 대한 전방부 화면을 제 1 화면(P3, 도 6 참고)으로 설정하고, 탐지용 로봇 시스템(100)의 이동방향에 대한 후방부 화면을 제 2 화면(P4, 도 6 참고)으로 설정하고, 상기 원형이미지에서 절단된 부분으로부터 소정범위의 화면을 제 3 화면(P5, 도 6 참고)으로 설정할 수 있다.The image generating unit 171 sets the front screen of the at least one panorama screen to the first screen P3 (see FIG. 6) for the moving direction of the detecting robot system 100, (See FIG. 6), and a screen of a predetermined range from the cut portion of the circular image is set as a third screen P5 (see FIG. 6) Can be set.

이미지생성부(171)는 제 1 화면(P3)의 하부에 제 2 화면(P4)을 배치하고, 제 1 화면(P3) 및 제 2 화면(P4)의 적어도 일측에 제 3 화면(P5)을 배치함으로써 상기 전방향 이미지를 생성할 수 있다(도 7 참고).The image generating unit 171 arranges the second screen P4 under the first screen P3 and displays the third screen P5 on at least one side of the first screen P3 and the second screen P4 To generate the omnidirectional image (see FIG. 7).

상기와 같이 이미지생성부(171)가 전방향 이미지를 생성함으로써 한 화면에서 전 방향의 상황을 용이하게 확인할 수 있다. 더욱이, 제3 화면을 추가하여 전방향 이미지를 생성함으로써 제1 화면과 제2 화면이 연결되는 지점의 상황도 용이하게 확인할 수 있다.As described above, the image generating unit 171 generates an omnidirectional image, so that the omni-directional situation can easily be confirmed on one screen. Furthermore, by adding a third screen to generate an omnidirectional image, a situation at a point where the first screen and the second screen are connected can be easily confirmed.

제어부(170)는 이미지생성부(171)로부터 생성되는 상기 전방향 이미지를 송수신부(130)를 통해 외부의 사용자기기(200)로 전달할 수 있다. 사용자기기(200)는 상기 전방향 이미지를 전달받아 디스플레이유닛(240)을 통해 출력할 수 있다.The control unit 170 may transmit the forward image generated by the image generation unit 171 to the external user equipment 200 through the transceiver unit 130. The user device 200 may receive the omnidirectional image and output it through the display unit 240.

따라서, 사용자는 탐지용 로봇 시스템(100)이 위치한 지역의 주변을 용이하게 확인할 수 있다. 또한, 탐지용 로봇 시스템(100)이 사용자기기(200)에 상기 전방향 이미지를 제공함으로써 사용자는 탐지용 로봇 시스템(100)의 특정 위치에 존재하는 장애물 등을 확인하기 위하여 탐지용 로봇 시스템(100)의 진행방향을 전환할 필요가 없게 될 수 있다. Accordingly, the user can easily confirm the vicinity of the area where the robot system for detection 100 is located. In addition, since the detection robot system 100 provides the omnidirectional image to the user device 200, the user can use the detection robot system 100 (Fig. 1) to check obstacles existing at specific positions of the detection robot system 100 It is possible to eliminate the need to switch the traveling direction of the vehicle.

탐지용 로봇 시스템(100)은 초음파 센서로 형성되는 센서부(150)를 통해 탐지용 로봇 시스템(100) 주변의 대상물을 감지할 수 있다. 센서부(150)는 상기 본체의 적어도 일면에 설치되어 탐지용 로봇 시스템(100)의 주변의 대상물을 감지할 수 있다. 센서부(150)는 상기 초음파 센서를 통해 탐지용 로봇 시스템(100) 주변의 대상물을 감지하여 감지신호를 생성할 수 있다.The detection robot system 100 can detect an object around the detection robot system 100 through a sensor unit 150 formed of an ultrasonic sensor. The sensor unit 150 may be installed on at least one side of the main body so as to sense objects in the vicinity of the detection robot system 100. The sensor unit 150 may sense an object around the detection robot system 100 through the ultrasonic sensor to generate a sensing signal.

제어부(170)는 센서부(150)로부터 전달받은 상기 감지신호를 장애물판단부(172)에 전달할 수 있다.The control unit 170 may transmit the sensing signal received from the sensor unit 150 to the obstacle determining unit 172.

제어부(170)의 장애물판단부(172)는 센서부(150)로부터 전달되는 상기 감지신호와 메모리부(160)에 저장된 상기 지도 데이터를 기초로 센서부(150)로부터 감지되는 탐지용 로봇 시스템(100)의 주변에 위치한 대상물이 장애물인지 벽인지를 판단할 수 있다.The obstacle determining unit 172 of the control unit 170 determines whether or not the obstacle determining unit 172 detects the obstacle based on the detection signal transmitted from the sensor unit 150 and the map data stored in the memory unit 160 100 may be an obstacle or a wall.

예를 들어, 센서부(150)로부터 감지신호가 수신되면, 장애물판단부(172)는 탐지용 로봇 시스템(100)의 이동 거리를 산출하고, 산출된 이동거리와 지도 데이터를 이용하여 탐지용 로봇 시스템(100)이 상기 지도 데이터 상에 위치한 곳을 산출할 수 있다. For example, when a sensing signal is received from the sensor unit 150, the obstacle determining unit 172 calculates the moving distance of the detecting robot system 100, and uses the calculated moving distance and the map data, The system 100 can calculate the location on the map data.

장애물판단부(172)는 상기 지도 데이터를 이용하여 상기 센서부(150)로부터 감지된 대상물이 위치하는 방향에서의 벽의 위치를 파악하고, 지도 데이터 상에서 탐지용 로봇 시스템(100)과 벽과의 거리를 제 1 거리값으로 산출할 수 있다. 한편, 장애물판단부(172)는 상기 감지신호를 기초로 탐지용 로봇 시스템(100)이 대상물로부터 떨어진 거리를 제 2 거리값으로 산출할 수 있다.The obstacle determining unit 172 determines the position of the wall in the direction in which the object sensed by the sensor unit 150 is located using the map data, The distance can be calculated as the first distance value. On the other hand, the obstacle determining unit 172 may calculate the distance from the object to be detected by the detecting robot system 100 as the second distance value, based on the sensing signal.

장애물판단부(172)는 상기 제 1 거리값과 상기 제 2 거리값을 비교하여 상기 제 1 거리값과 상기 제 2 거리값의 차가 미리 설정된 범위를 벗어나면 센서부(150)를 통해 감지되는 대상물이 장애물이라고 판단하고, 상기 제 1 거리값과 상기 제 2 거리값의 차가 미리 설정됨 범위 이내이면 센서부(150)를 통해 감지되는 대상물이 벽이라고 판단할 수 있다.When the difference between the first distance value and the second distance value is out of a preset range, the obstacle determining unit 172 compares the first distance value with the second distance value, If the difference between the first distance value and the second distance value is within a preset range, it is determined that the object to be sensed through the sensor unit 150 is a wall.

장애물판단부(172)가 센서부(150)로부터 감지되는 대상물이 장애물이라고 판단하는 경우, 장애물판단부(172)는 장애물 알림 신호를 생성하고, 제어부(170)는 상기 장애물 알림 신호를 송수신부(130)를 통해 사용자기기(200)로 전송할 수 있다.If the obstacle determining unit 172 determines that the object detected by the sensor unit 150 is an obstacle, the obstacle determining unit 172 generates an obstacle notification signal, and the controller 170 transmits the obstacle notification signal to the transmitting / 130 to the user device 200 via the Internet.

사용자기기(200)는 송수신유닛(230)을 통해 상기 장애물 알림 신호를 수신하여 별도의 알람유닛(250)을 통해 표시함으로써 사용자에게 탐지용 로봇 시스템(100)의 주변에 장애물이 있음을 알릴 수 있다. 따라서, 사용자는 탐지용 로봇 시스템(100)의 주변에 장애물이 있음을 용이하게 인지할 수 있고, 장애물이 위치한 곳을 지역을 보다 자세히 조사할 수 있다.The user device 200 receives the obstacle notification signal through the transmission / reception unit 230 and displays the obstacle notification signal through a separate alarm unit 250, thereby informing the user that an obstacle is present around the detection robot system 100 . Accordingly, the user can easily recognize that there is an obstacle in the vicinity of the detection robot system 100, and can more closely examine the area where the obstacle is located.

이상, 본 발명의 실시예에 대하여 설명하였으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 특허청구범위에 기재된 본 발명의 사상으로부터 벗어나지 않는 범위 내에서, 구성 요소의 부가, 변경, 삭제 또는 추가 등에 의해 본 발명을 다양하게 수정 및 변경시킬 수 있을 것이며, 이 또한 본 발명의 권리범위 내에 포함된다고 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.

100: 탐지용 로봇 시스템
110: 이동부
120: 촬영부
130: 송수신부
140: 조명부
150: 센서부
160: 메모리부
171: 이미지생성부
172: 장애물판단부
100: Robot system for detection
110:
120:
130: Transmitting /
140:
150:
160:
171:
172: obstacle judgment unit

Claims (15)

탐지용 로봇 시스템에 있어서,
상기 탐지용 로봇 시스템을 이동시키기 위한 이동부와,
어안렌즈 또는 미러렌즈를 통해 상기 탐지용 로봇 시스템이 위치한 주변을 촬영하기 위한 촬영부와,
상기 촬영부에 전기적으로 연결되며, 상기 촬영부에서 촬영된 이미지를 기초로 상기 탐지용 로봇을 중심으로 전방향(all direction)의 이미지를 나타내는 전방향 이미지를 생성하는 이미지생성부와,
상기 이미지생성부와 전기적으로 연결되며, 상기 전방향 이미지를 전송하기 위한 송수신부를 포함하는,
탐지용 로봇 시스템.
A robot system for detection,
A moving unit for moving the detection robot system;
A photographing unit for photographing a periphery of the detection robot system through a fish-eye lens or a mirror lens,
An image generating unit electrically connected to the photographing unit and generating an omni-directional image representing an image in all directions around the detection robot based on the image photographed by the photographing unit;
And a transmission / reception unit electrically connected to the image generation unit and for transmitting the omni-directional image,
Detection robot system.
제 1 항에 있어서,
상기 촬영부는 상기 탐지용 로봇 시스템이 위치한 지역의 전방향을 나타내는 원형이미지를 생성하는,
탐지용 로봇 시스템.
The method according to claim 1,
Wherein the photographing unit generates a circular image representing an omni-directional direction of an area where the detection robot system is located,
Detection robot system.
제 2 항에 있어서,
상기 이미지생성부는 상기 촬영부에서 생성되는 상기 원형이미지를 분할하여 적어도 하나의 파노라마이미지를 생성하는,
탐지용 로봇 시스템.
3. The method of claim 2,
Wherein the image generating unit generates at least one panoramic image by dividing the circular image generated by the photographing unit,
Detection robot system.
제 3 항에 있어서,
상기 이미지생성부는 상기 파노라마이미지를 이용하여 상기 탐지용 로봇 시스템의 이동방향에 대한 전방부 화면을 제 1 화면으로 생성하고, 상기 탐지용 로봇 시스템의 이동방향에 대한 후방부 화면을 제 2 화면으로 생성하는
탐지용 로봇 시스템.
The method of claim 3,
The image generating unit generates the front sub-screen for the moving direction of the detection robot system as the first screen using the panorama image, and generates the rear screen for the moving direction of the detection robot system as the second screen doing
Detection robot system.
제 4 항에 있어서,
상기 이미지생성부는 상기 제 1 화면의 하부에 상기 제 2 화면을 배치하여 상기 전방향 이미지를 생성하는,
탐지용 로봇 시스템.
5. The method of claim 4,
Wherein the image generating unit generates the omnidirectional image by disposing the second screen on a lower portion of the first screen,
Detection robot system.
제 4 항에 있어서,
상기 이미지생성부는 상기 원형이미지의 분할된 부분을 중심으로 소정 영역을 표시하는 적어도 하나의 제3 화면을 생성하는,
탐지용 로봇 시스템.
5. The method of claim 4,
Wherein the image generating unit generates at least one third screen displaying a predetermined area around the divided part of the circular image,
Detection robot system.
제 6 항에 있어서,
상기 이미지생성부는 상기 제 1 화면의 하부에 상기 제 2 화면을 배치하고, 상기 제 1 화면 및 상기 제 2 화면의 양측에 상기 제 3 화면을 배치하여 상기 전방향 이미지를 생성하는,
탐지용 로봇 시스템.
The method according to claim 6,
Wherein the image generating unit generates the omnidirectional image by disposing the second screen on a lower portion of the first screen and disposing the third screen on both sides of the first screen and the second screen,
Detection robot system.
제 1 항에 있어서,
상기 탐지용 로봇 시스템이 위치한 주변의 대상물을 감지하여 감지신호를 생성하는 센서부와,
상기 탐지용 로봇 시스템이 투입되는 지역의 지도 데이터를 저장하는 메모리부와,
상기 센서부 및 상기 메모리부와 전기적으로 연결되며, 상기 감지신호와 상기 지도 데이터를 기초로 상기 탐지용 로봇 시스템의 주변에 위치한 상기 대상물이 장애물인지 벽인지를 판단하는 장애물판단부를 더 포함하는,
탐지용 로봇 시스템.
The method according to claim 1,
A sensor unit for sensing a surrounding object in which the detection robot system is located and generating a detection signal,
A memory unit for storing map data of an area to which the robot system for detection is input;
Further comprising an obstacle determination unit electrically connected to the sensor unit and the memory unit and determining whether the obstacle or the obstacle is located on the periphery of the detection robot system based on the sensing signal and the map data.
Detection robot system.
제 8 항에 있어서,
상기 센서부는 초음파 센서로 형성되는,
탐지용 로봇 시스템.
9. The method of claim 8,
Wherein the sensor unit comprises an ultrasonic sensor,
Detection robot system.
제 8 항에 있어서,
상기 장애물판단부는 상기 탐지용 로봇 시스템의 이동거리와 상기 지도 데이터를 기초로 상기 탐지용 로봇 시스템이 벽으로부터 떨어진 제 1 거리값과, 상기 감지신호를 기초로 상기 탐지용 로봇 시스템이 상기 대상물로부터 떨어진 제 2 거리값을 산출하는,
탐지용 로봇 시스템.
9. The method of claim 8,
Wherein the obstacle determining unit determines the obstacle based on the moving distance of the detecting robot system and the map data, based on the first distance value that the detecting robot system has separated from the wall and the first distance value that the detecting robot system is away from the object Calculating a second distance value,
Detection robot system.
제 10 항에 있어서,
상기 장애물판단부는 상기 제 1 거리값과 상기 제 2 거리값을 비교하여, 상기 제 1 거리값과 상기 제 2 거리값의 차가 미리 설정된 범위 이내이면, 상기 대상물을 벽으로 판단하고, 상기 차이 미리 설정된 범위를 벗어나면 상기 대상물을 장애물로 판단하는
탐지용 로봇 시스템.
11. The method of claim 10,
Wherein the obstacle determining unit compares the first distance value with the second distance value and determines the object as a wall if the difference between the first distance value and the second distance value is within a predetermined range, If the object is out of the range, the object is judged to be an obstacle
Detection robot system.
제 11 항에 있어서,
상기 장애물판단부에 의해 상기 대상물이 장애물이라고 판단되는 경우, 상기 장애물판단부는 장애물 알림 신호를 생성하여 상기 송수신부를 통해 전송하는,
탐지용 로봇 시스템.
12. The method of claim 11,
Wherein the obstacle determination unit generates an obstacle notification signal and transmits the obstacle notification signal through the transceiver unit when the obstacle determination unit determines that the object is an obstacle,
Detection robot system.
제 1 항에 있어서,
상기 탐지용 로봇 시스템에 설치되며 광을 조사하기 위한 조명부를 더 포함하는,
탐지용 로봇 시스템.
The method according to claim 1,
Further comprising: an illumination unit installed in the robot system for detection,
Detection robot system.
제 1 항에 있어서,
상기 촬영부는 상기 송수신부를 통해 촬영제어신호가 수신되면, 상기 촬영제어신호를 기초로 상기 어안렌즈 또는 상기 미러렌즈를 줌-인(zoom-in) 또는 줌-아웃(zoom-out)하도록 제어하는,
탐지용 로봇 시스템.
The method according to claim 1,
Wherein the photographing unit controls zoom-in or zoom-out of the fisheye lens or the mirror lens based on the photographing control signal when the photographing control signal is received through the transceiving unit.
Detection robot system.
제 1 항에 있어서,
상기 이동부는 상기 송수신부를 통해 이동제어신호가 수신되면, 상기 이동제어신호를 기초로 상기 탐지용 로봇 시스템의 이동방향을 전환하는,
탐지용 로봇 시스템.
The method according to claim 1,
Wherein the movement unit switches the movement direction of the detection robot system based on the movement control signal when the movement control signal is received through the transceiver unit,
Detection robot system.
KR1020120153316A 2012-12-26 2012-12-26 Detection robot system KR101454857B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120153316A KR101454857B1 (en) 2012-12-26 2012-12-26 Detection robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120153316A KR101454857B1 (en) 2012-12-26 2012-12-26 Detection robot system

Publications (2)

Publication Number Publication Date
KR20140084442A true KR20140084442A (en) 2014-07-07
KR101454857B1 KR101454857B1 (en) 2014-11-04

Family

ID=51734314

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120153316A KR101454857B1 (en) 2012-12-26 2012-12-26 Detection robot system

Country Status (1)

Country Link
KR (1) KR101454857B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170100897A (en) * 2016-02-26 2017-09-05 한화지상방산 주식회사 The Apparatus For Around View Monitoring
CN109990901A (en) * 2017-12-29 2019-07-09 广州西门子变压器有限公司 The latent oil sniffing robot and latent oil detection system of for transformer detection

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102516450B1 (en) * 2020-10-16 2023-04-03 네이버랩스 주식회사 Method of generating map and visual localization system using the map

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100763851B1 (en) * 2006-02-03 2007-10-05 한국도로공사 Bridge inspecting robot capable of climbing up an obstacle and processing an continuos image
KR101240181B1 (en) * 2008-11-10 2013-03-07 한국전자통신연구원 Method and apparatus and for generating safe path of mobile robot
KR20110108858A (en) * 2010-03-30 2011-10-06 호야로봇 (주) An two wheel-drive robot for dangerous spot search to have high-efficiency transportation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170100897A (en) * 2016-02-26 2017-09-05 한화지상방산 주식회사 The Apparatus For Around View Monitoring
CN109990901A (en) * 2017-12-29 2019-07-09 广州西门子变压器有限公司 The latent oil sniffing robot and latent oil detection system of for transformer detection

Also Published As

Publication number Publication date
KR101454857B1 (en) 2014-11-04

Similar Documents

Publication Publication Date Title
KR101123738B1 (en) System and method for monitoring safe operation of heavy machinery
JP4573242B2 (en) Driving assistance device
KR101566784B1 (en) Approach monitoring and operation control system for heavy equipment of industry and construction
JP5177515B2 (en) Peripheral recognition support system
JP6232497B2 (en) External recognition device
JP6456584B2 (en) Perimeter monitoring equipment for work machines
JP5277974B2 (en) Driving assistance device
JP6052881B2 (en) Perimeter monitoring equipment for work machines
JP2006311272A (en) Video display device for vehicle
KR20190094115A (en) Remote control system and communication method therefor
WO2010070920A1 (en) Device for generating image of surroundings of vehicle
JP2020088697A (en) Periphery monitoring device
JP2016168877A (en) Visual recognition device for vehicle
WO2018159019A1 (en) Bird's-eye-view video image generation device, bird's-eye-view video image generation system, bird's-eye-view video image generation method, and program
KR101454857B1 (en) Detection robot system
US11186964B2 (en) Shovel
WO2020157901A1 (en) Driving assistance device
CN107345807A (en) The method circuit arrangement component system and correlation machine executable code of detection of obstacles
KR102007535B1 (en) Monitor display apparatus in construction machinery
JP2006139525A (en) Autonomous mobile robot
US20190050959A1 (en) Machine surround view system and method for generating 3-dimensional composite surround view using same
JP2017223111A (en) Shovel
KR101533285B1 (en) Car safety system to get and display infrared images for sensing dangers in dark environments and photographing method for infrared images
KR101420305B1 (en) Automotive omnidirectional monitoring apparatus
KR102190891B1 (en) Environment monitoring apparatus and method for vehicle

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
FPAY Annual fee payment

Payment date: 20171108

Year of fee payment: 4