KR20090073796A - Mobile robot unit based on the ceiling image/feature map of the image and the method for recognizing the self position of the same - Google Patents
Mobile robot unit based on the ceiling image/feature map of the image and the method for recognizing the self position of the same Download PDFInfo
- Publication number
- KR20090073796A KR20090073796A KR1020070141851A KR20070141851A KR20090073796A KR 20090073796 A KR20090073796 A KR 20090073796A KR 1020070141851 A KR1020070141851 A KR 1020070141851A KR 20070141851 A KR20070141851 A KR 20070141851A KR 20090073796 A KR20090073796 A KR 20090073796A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- door
- feature
- mobile robot
- ceiling
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 238000012545 processing Methods 0.000 claims abstract description 9
- 238000000605 extraction Methods 0.000 claims description 68
- 238000005286 illumination Methods 0.000 claims description 32
- 238000005070 sampling Methods 0.000 claims description 16
- 238000001514 detection method Methods 0.000 claims description 12
- 238000012952 Resampling Methods 0.000 claims description 7
- 238000004519 manufacturing process Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 19
- 238000004364 calculation method Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 3
- 238000003702 image correction Methods 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003389 potentiating effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 로봇 장치 및 이의 제어 방법에 관한 것으로, 보다 정확한 위치 인식을 가능하게 하는 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법에 관한 것이다. The present invention relates to a robot apparatus and a control method thereof, and more particularly to a ceiling image-based mobile robot apparatus and a position recognition method thereof for enabling more accurate position recognition.
로봇에 대한 수요는 산업용으로서 뿐만 아니라 가정용에 대한 수요도 증대되고 있고, 이에 따라 로봇 연구가 활발하게 진행되고 있다. 특히, 종래의 위치 고정된 로봇과는 달리 이동 가능한 이동 로봇에 대한 연구가 활발하게 진행되고 있는데, 이동 가능한 이동 로봇은 주변 환경을 사용하여 자신의 위치를 정확하게 인식하는 기술 및 이를 위하여 기준이 되는 표식을 기점으로 자신의 위치 파악을 가능하게 하는 지도 작성에 대한 기술의 연구가 진행되고 있다. The demand for robots is not only for industrial use, but also for home use, and accordingly, research on robots is actively progressing. In particular, unlike conventional position-fixed robots, researches on mobile robots that can be moved are being actively conducted, and the mobile robots can recognize their position accurately using the surrounding environment and marks for reference. Starting from now, researches on techniques for making maps that enable one's own location are underway.
특히, 주변 환경으로부터 취득되는 정보 중 꼭지점 또는 직선과 같이 특정한 모양을 구비하는 정보를 특징(feature)라고 명명되며, 이들은 이용하여 작성된 지도를 특징 지도(feature map)라고 한다. 특징은 환경 내에서 로봇의 위치를 인식 하기 위한 표식으로 사용되기 때문에 어떠한 특징을 추출하여 이를 사용할 것인지 그리거 추출된 특징이 주변 환경의 변화에 따라 강인한 특성을 갖는지 등과 같은 사항이 정확한 특징 지도를 작성하는데 중요한 인자가 된다. In particular, information having a specific shape, such as a vertex or a straight line, among information obtained from the surrounding environment is called a feature, and these maps created using the feature map are called feature maps. Since the feature is used as a marker to recognize the position of the robot in the environment, it is important to create an accurate feature map such as what features to use and how to extract them, and whether the extracted features are robust according to changes in the surrounding environment. This is an important factor.
통상적으로 저가형 소형 로봇의 경우 주행을 위한 상태 감지를 위한 감지 센서로서 적외선 센서와 초음파 센서를 사용하는데, 적외선 센서는 직진성과 심한 노이즈로 인하여 정보 누설로 인한 정확한 지도 작성이 곤란하다. 또한 초음파 센서의 경우 감지 범위가 넓다는 장점이 있으나 이 경우에도 잡음이 심하여 정확한 지도 작성이 곤란하다는 문제점이 존재한다. In general, inexpensive miniature robots use an infrared sensor and an ultrasonic sensor as sensing sensors for driving a state, which is difficult to accurately map due to information leakage due to the straightness and heavy noise. In addition, the ultrasonic sensor has the advantage of a wide detection range, but even in this case, there is a problem that it is difficult to prepare accurate maps due to the noise.
이러한 단점들을 극복하기 위하여 천장 영상을 활용할 수 있는 천장지향형 단일 카메라를 구비하는 천장 영상 기반 로봇이 도출되었는데, 천장 영상의 활용이 가능한 천장지향형 단일 카메라를 구비하는 로봇은 사람 또는 장애물과 같은 동적 물체에 의한 간섭을 가능한 배제시킬 수 있고 표식에 대한 안정적인 추적이 가능하다는 장점을 구비하였다. 하지만, 이러한 종래 기술에 따른 천장지향형 단일 카메라를 구비하는 로봇의 경우, 특징으로 코너 특징과 직선 특징을 사용하였는데, 코너 특징의 경우 안정적인 정합이 가능하나 조명 변화등에 따른 밝기 변화에 의하여 정보의 변화가 심하고 직선 특징의 경우 복수의 직선이 구비되는 경우 혼동에 의한 정확한 정합 여부 판단이 어렵다는 문제점이 수반되었다. To overcome these shortcomings, a ceiling image-based robot with a ceiling-oriented single camera capable of utilizing ceiling images has been derived. A robot with a ceiling-oriented single camera capable of utilizing ceiling images has been applied to dynamic objects such as people or obstacles. Interference can be eliminated as much as possible and stable tracking of the marker is possible. However, in the case of a robot having a single ceiling-oriented camera according to the prior art, the corner feature and the straight feature are used as the features. In the case of the corner feature, stable matching is possible, but the change of information is caused by the change of brightness due to the lighting change. In the case of severe and straight line features, when a plurality of straight lines are provided, it is difficult to determine whether to accurately match due to confusion.
본 발명은 천장 영상을 이용하여 위치 인식을 이루되 보다 정확한 위치 인식 을 가능하도록 하는 특징을 사용하는 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법을 제공하는 것을 목적으로 한다. An object of the present invention is to provide a ceiling image-based mobile robot device and a method for recognizing the location using a feature that makes the position recognition using the ceiling image, but more accurate position recognition.
전술한 목적을 달성하기 위한 본 발명은, 영상 입력부와, 엔코더 감지부와, 연산부와, 제어부와, 저장부와, 구동부를 구비하는 이동 로봇 장치를 제공하는 제공 단계와, 상기 영상 입력부를 통하여 입력된 영상 정보를 처리하는 영상 입력 처리 단계와, 상기 영상 정보에 기초하여 도어 특징을 포함 가능한 특징을 추출하는 특징 추출 단계와, 상기 추출된 특징들을 사용하여 상기 이동 로봇 장치의 위치를 인식하는 위치 인식 단계를 포함하는 천장 영상 기반 이동 로봇 위치 인식 방법을 제공한다. The present invention for achieving the above object, the providing step of providing a mobile robot device having an image input unit, an encoder detection unit, a calculation unit, a control unit, a storage unit, a drive unit, and input through the image input unit An image input processing step of processing the received image information, a feature extraction step of extracting a feature that may include a door feature based on the image information, and location recognition for recognizing a position of the mobile robot apparatus using the extracted features It provides a ceiling image-based mobile robot position recognition method comprising the step.
상기 천장 영상 기반 이동 로봇 위치 인식 방법에 있어서, 상기 특징 추출 단계는: 상기 영상 정보로부터 코너 특징을 추출하는 코너 특징 추출 단계와, 상기 영상 정보로부터 윤곽선을 추출하는 윤곽선 추출 단계와, 상기 영상 정보로부터 직선 특징을 추출하는 직선 특징 추출 단계와, 상기 영상 정보로부터 개방된 문에 대한 도어 특징을 추출하는 도어 특징 추출 단계를 포함할 수도 있다. In the ceiling image-based mobile robot position recognition method, the feature extraction step includes: a corner feature extraction step of extracting a corner feature from the image information, an outline extraction step of extracting an outline from the image information, and from the image information The method may include a straight feature extraction step of extracting a straight feature and a door feature extraction step of extracting a door feature of an open door from the image information.
상기 천장 영상 기반 이동 로봇 위치 인식 방법에 있어서, 상기 특징 추출 단계는: 상기 영상 정보로부터 천장에 배치되는 조명에 대한 조명 특징을 추출하는 조명 특징 추출 단계를 더 구비할 수도 있다. In the ceiling image-based mobile robot position recognition method, the feature extraction step may further include: an illumination feature extraction step of extracting an illumination feature for the illumination disposed on the ceiling from the image information.
또한, 상기 도어 특징은 상기 영상 입력부에서 얻어진 영상의 중심을 통과하는 두 개의 수직선부 및 상기 두 개의 수직선부를 연결하는 수평선부를 포함하되, 상기 도어 특징 추출 단계는 상기 도어 특징에 대응하는 도어 후보를 추출하는 도어 후보 추출 단계를 구비할 수도 있다. The door feature may include two vertical lines passing through the center of the image obtained by the image input unit and a horizontal line connecting the two vertical lines, wherein the door feature extraction step extracts a door candidate corresponding to the door feature. A door candidate extraction step may be provided.
그리고, 상기 도어 후보 추출후, 상기 도어 후보와 동일한 형태를 구비하는 도어 후보 샘플을 사전 설정된 개수로 형성하는 도어 후보 샘플링 단계를 구비할 수도 있고, 상기 도어 특징 추출 단계는: 상기 도어 후보 추출후, 상기 도어 후보에 대한 가상 평면의 설정 여부를 판단하는 가상 평면 설정 판단 단계와, 상기 가상 평면이 설정되지 않은 경우, 상기 영상 입력부 및 상기 엔코더 감지부의 입력 신호에 기초하여 상기 도어 후보 샘플에 대한 추정 영상을 생성하는 샘플링 추정 영상 생성 단계와, 상기 도어 후보 샘플에 대한 추정 영상과 상기 영상 입력부의 현재 영상을 비교하는 샘플 영상 비교 단계를 포함할 수도 있다. The method may include a door candidate sampling step of forming a predetermined number of door candidate samples having the same shape as the door candidate after extracting the door candidate. The door feature extraction step may include: extracting the door candidate; A virtual plane setting determination step of determining whether to set a virtual plane for the door candidate; and if the virtual plane is not set, an estimated image of the door candidate sample based on input signals of the image input unit and the encoder detection unit. And a sampling image comparison step of generating a sampling estimation image for comparing the estimated image of the door candidate sample with a current image of the image input unit.
상기 천장 영상 기반 이동 로봇 위치 인식 방법에 있어서, 상기 샘플 영상 비교 단계가 완료된 후, 상기 샘플 영상 비교 단계 결과에 기초하여 상기 도어 후보에 대한 도어 후보 샘플을 재설정하는 리샘플링 단계가 구비될 수도 있고, 상기 리샘플링 단계 후, 상기 도어 후보 샘플의 수렴도를 사전 설정 수렴치와 비교하고, 상기 도어 후보 샘플이 수렴된 것으로 판단되는 경우 상기 도어 후보 샘플이 수렴되는 도어 후보에 대한 가상 평면을 설정할 수도 있다. In the ceiling image-based mobile robot position recognition method, after the sample image comparison step is completed, a resampling step of resetting a door candidate sample for the door candidate may be provided based on a result of the sample image comparison step. After the resampling step, the convergence degree of the door candidate samples may be compared with a preset convergence value, and if it is determined that the door candidate samples have converged, a virtual plane may be set for the door candidates to which the door candidate samples converge.
또한, 상기 도어 특징 추출 단계는: 상기 가상 평면 설정 판단 단계에서 상기 가상 평면이 설정된 것을 판단되는 경우, 상기 영상 입력부 및 상기 엔코더 감지부의 입력 신호에 기초하여 상기 가상 평면에 대한 가상 평면 내 추정 영상을 생성하는 가상 평면 내 추정 영상 생성 단계와, 상기 가상 평면 내 추정 영상과 상기 영상 입력부의 현재 영상 중 도어 후보 내의 영상을 비교하는 가상 평면 영상 비교 단계를 포함할 수도 있다. The extracting of the door feature may include: estimating an image in the virtual plane with respect to the virtual plane based on input signals of the image input unit and the encoder detector when it is determined that the virtual plane is set in the virtual plane setting determination step. The method may further include generating an estimated intra-imaging image, and comparing the estimated virtual image with the image in the door candidate among the current images of the image input unit.
또한, 상기 가상 평면 내 추정 영상과 상기 현재 영상 중 도어 후보 내의 영상의 일치 여부를 판단하고, 상기 가상 평면 내 추정 영상과 상기 현재 영상 중 도어 후보 내의 영상이 서로 불일치하는 경우 상기 도어 후보 샘플이 수렴하는 도어 후보를 도어 특징으로 확정하는 도어 특징 확정 단계를 구비할 수도 있고, 상기 특징 추출 단계는, 상기 영상 정보로부터 천장에 배치되는 조명에 대한 조명 특징을 추출하는 조명 특징 추출 단계를 더 구비하고, 상기 조명 특징 추출 단계는: 상기 이동 로봇 장치의 현재 위치를 확인하는 위치 확인 단계와, 상기 영상 입력부의 영상 정보에 기초하여 영상 내 조명 특징의 존재 여부를 확인하는 조명 특징 판단 단계를 구비할 수도 있다. In addition, it is determined whether the estimated image in the virtual plane and the image in the door candidate among the current image match. If the estimated image in the virtual plane and the image in the door candidate among the current image are inconsistent with each other, the door candidate sample converges. The method may further include a door feature determination step of determining a door candidate to be a door feature, wherein the feature extraction step further includes an illumination feature extraction step of extracting an illumination feature for illumination disposed on the ceiling from the image information. The lighting feature extracting step may include: a positioning step of checking a current position of the mobile robot device and an illumination feature determination step of checking whether an illumination feature exists in the image based on the image information of the image input unit. .
상기 천장 영상 기반 이동 로봇 위치 인식 방법에 있어서, 상기 영상 내 조명 특징이 없는 경우, 영상의 밝기를 검출하는 영상 밝기 검출 단계와, 영상 내 영상 밝기가 사전 설정된 밝기 최대값과 동일한 영역에 대한 형상을 저장하는 조명 형상 저장 단계를 포함할 수도 있다. In the ceiling image-based mobile robot position recognition method, if there is no illumination feature in the image, the image brightness detection step of detecting the brightness of the image, and the shape of the image area in the image brightness is equal to the preset maximum brightness value; The lighting shape storage step may be included.
상기 천장 영상 기반 이동 로봇 위치 인식 방법에 있어서, 상기 위치 인식 단계는: 상기 엔코더 감지부의 신호에 기초하여 상기 이동 로봇 장치의 예측 위치를 예측하는 예측 단계와, 상기 이동 로봇 장치의 예측 위치에서의 연산된 예측 영상 및 상기 영상 감지부로부터의 영상 내 각각의 특징에 기초하여 정합 여부를 판단하는 정합 단계와, 상기 정합 단계에서 정합 정보에 기초하여 상기 이동 로봇 장 치의 위치를 보정하는 추정 단계를 포함할 수도 있고, 상기 정합 단계에서, 상기 이동 로봇 장치의 예측 위치에서의 연산된 예측 영상 및 상기 영상 감지부로부터의 영상 내 각각의 특징에 기초하여 정합되지 않은 것으로 판단하는 경우, 상기 영상 감지부로부터의 영상 내 특징은 새로운 특징으로 설정하여 저장할 수도 있다. In the ceiling image-based mobile robot position recognition method, the position recognition step includes: a prediction step of predicting a predicted position of the mobile robot apparatus based on a signal of the encoder sensing unit, and calculating at a predicted position of the mobile robot apparatus And a matching step of determining whether to match based on the predicted prediction image and each feature in the image from the image sensing unit, and an estimation step of correcting the position of the mobile robot device based on the matching information in the matching step. In the matching step, when it is determined that the image is not matched based on the predicted image calculated at the predicted position of the mobile robot apparatus and the respective characteristics in the image from the image sensing unit, the image from the image sensing unit Features in the image may be set as new features and stored.
또한, 상기 특징은 개방된 문을 나타내는 도어 특징과 천장의 조명을 나타내는 조명 특징을 포함하되, 상기 정합 단계는: 상기 도어 특징 또는 상기 조명 특징의 형상을 비교하는 단계를 포함할 수도 있다.The feature may also include a door feature representing an open door and an illumination feature representing illumination of a ceiling, wherein the matching step may include: comparing the shape of the door feature or the lighting feature.
본 발명의 다른 일면에 따르면, 구동부에 의하여 위치 이동을 이루는 이동 로봇 장치에 있어서, 천장의 영상 정보를 취득하는 영상 입력부와, 상기 영상 입력부의 영상 정보를 저장하는 저장부와, 상기 저장부에 저장된 영상 정보를 연산하여 예측 영상을 생성하는 연산부와, 상기 저장부로부터의 신호에 기초하여 도어 특징을 포함 가능한 특징을 추출하고, 상기 연산부로부터의 예측 영상과 상기 영상 입력부로부터의 실제 영상을 비교하는 정합 단계를 수행하여 현재 위치를 인식하는 제어부를 포함하는 천장 영상 기반 이동 로봇 장치를 제공한다.According to another aspect of the present invention, in the mobile robot device for moving the position by the drive unit, an image input unit for acquiring image information of the ceiling, a storage unit for storing the image information of the image input unit, and stored in the storage unit A calculating unit for calculating a predictive image by calculating image information, and extracting a feature including a door feature based on a signal from the storage unit, and comparing the predicted image from the calculating unit with the actual image from the image input unit. Provided is a ceiling image-based mobile robot device including a control unit for performing a step to recognize the current position.
상기한 바와 같은 구성을 갖는 본 발명에 따른 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법은 다음과 같은 효과를 갖는다. The ceiling image-based mobile robot device and its location recognition method according to the present invention having the configuration as described above has the following effects.
첫째, 본 발명에 따른 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법은, 도어 특징을 활용하여 보다 정확한 특징 맵을 형성함으로써 보다 정확한 위치 인식을 가능하게 하는 천장 영상 기반 이동 로봇 장치 및 제어 방법을 제공할 수 있다. First, the ceiling image-based mobile robot device and its location recognition method according to the present invention provide a ceiling image-based mobile robot device and a control method that enables more accurate location recognition by forming a more accurate feature map using a door feature. can do.
둘째, 본 발명에 따른 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법은, 단일 카메라를 통하여도 보다 정확한 특징 인지에 의한 위치 인식을 가능하게 함으로써, 장치의 제조 원가를 현저하게 절감시키고 운영 유지비를 감소시켜 비용 절감을 최대화할 수 있는 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법을 제공할 수도 있다. Secondly, the ceiling image-based mobile robot device and its location recognition method according to the present invention enable the location recognition by more accurate feature recognition even through a single camera, thereby significantly reducing the manufacturing cost of the device and reducing the operation maintenance cost. It is also possible to provide a ceiling image-based mobile robot device and its location recognition method that can maximize the cost savings.
셋째, 본 발명에 따른 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법은, 조명 특징에 대한 활용을 가능하게 하여 조명의 유무 변화와 같은 주변 환경 변화에도 강인성을 부여하여 보다 정확한 위치 인식을 가능하게 할 수도 있다. Third, the ceiling image-based mobile robot device and its location recognition method according to the present invention enable the utilization of lighting features to give robustness to changes in the surrounding environment, such as changes in the presence or absence of lighting, thereby enabling more accurate location recognition. It may be.
본 발명은 도면에 도시된 일실시예들을 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허 청구 범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been described with reference to one embodiment shown in the drawings, this is merely exemplary, and it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.
이하에서는 천장 영상 기반 이동 로봇 장치 및 이의 위치 인식 방법에 대하여 도면을 참조하여 설명하기로 한다. Hereinafter, a ceiling image-based mobile robot device and a method of recognizing a location thereof will be described with reference to the accompanying drawings.
도 1에는 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치(10)에 대한 개략적인 블록 선도가 도시되고, 도 2에는 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치(10)의 개략적인 제어 과정을 나타내는 흐름도가 도시된 다. FIG. 1 is a schematic block diagram of a ceiling image-based
본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치(10)는 영상 입력부(100)와, 엔코더 감지부(200)와, 제어부(300)와, 저장부(400)와, 연산부(500)와, 구동부(600)를 포함한다. 제어부(300)는 다른 구성요소들과 전기적 소통을 이루어 입력 신호를 전달받고 각각의 구성요소로 제어 신호를 인가할 수 있다. 영상 입력부(100)는 다양한 구성이 가능한데, 본 실시예에서 영상 입력부(100)는 단안 카메라로 구성된다. 영상 입력부(100)는 단안 카메라로 구현되어 천장 영상(ceiling image)를 취득하는데, 영상 입력부(100)는 단안 카메라의 구성으로 인하여 대상과의 정확한 거리 인지는 용이하지 않다. 연산부(500)는 제어부(300)의 제어 신호에 따라 소정의 연산 과정을 수행하며, 저장부(400)는 사전 설정된 다양한 값들을 기저장하고 제어부(300)의 제어 신호에 따라 필요한 영상 정보 내지 위치 정보들을 저장한다. 구동부(600)는 전기 모터 등으로 구현되고, 제어부(300)의 제어 신호에 따라 구동되어 천장 영상 기반 이동 로봇 장치(10)를 원하는 위치로 이동시킬 수 있는 구동력을 제공한다. 엔코더 감지부(200)는 구동부(300)에 의하여 구동되는 구동륜(미도시)의 회전수 및 회전 각도 등을 감지하는데, 회전 각도는 각각의 구동륜의 회전수의 차이에 따라 연산되어 도출되는 과정을 통하여 이루어질 수도 있다. Ceiling image-based
도 2에는 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치(10)의 개략적인 제어 과정을 나타내는 흐름도가 도시되는데, 제어부(300)는 영상 입력부(100)로부터 천장 영상(또는 영상 정보)를 입력받아 영상 정보를 처리한다(S10). 영상 입력 처리 단계(S10)가 실행되기 전에 천장 영상 기반 이동 로봇 장치(10)가 제공되는데, 도 2의 흐름도에서는 표기가 생략되었다. 도 3에는 영상 입력 처리 단계(S10)에 대한 보다 구체적인 흐름의 일예가 도시되는데, 제어부(300)는 영상 입력부(100)에 제어 신호를 인가하여 단안 카메라로 구현되는 영상 입력부(100)가 현재 천장 영상 기반 이동 로봇 장치(10)의 위치에서의 천장(ceiling)에 대한 영상 정보를 취득하도록 하고 이를 제어부(300)로 입력하도록 한다(S11). 제어부(300)는 입력된 영상 또는 영상 정보의 왜곡 여부를 판단하여(S12), 영상 또는 영상 정보에 화상 왜곡이 존재하는 경우, 이를 연산부(500)로 전달하여 영상에 대한 보정을 수행하는 영상 보정 단계를 수행한다(S13). 도 4 및 도 5에는 영상 보정 전후의 영상에 대한 개략적인 일예들이 도시되는데, 단안 카메라로 구현되는 영상 입력부(100)는 천장 영상에서의 특징을 추출하고 이를 지속적으로 추적할 수 있도록 하는 영상 또는 영상 정보를 얻을 수 있도록 넓은 시야를 확보하기 위하여 취득되는 영상 정보에 왜곡이 발생한다. 연산부(500)는 제어부(400)의 제어 신호에 따라 영상 입력부(100)로부터 입력되는 영상 또는 영상 정보를 가공하여 왜곡 현상을 보정한다. 영상 보정이 완료되거나 또는 영상 보정이 불필요하다고 판단한 경우, 제어부(300)는 보정된 영상 또는 영상 정보를 제어부(300)로 출력한다(S14). 2 is a flowchart illustrating a schematic control process of the ceiling image-based
그런 후, 제어부(300)는 특징 추출 단계(S20)를 수행하는데, 제어부(300)는 화상 왜곡 등이 보정된 영상에 기초하여 현재 영상 내에 존재하는 특징을 추출한다. 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 위치 인식 방법에 수행되는 특징 추출 단계에서 얻어지는 특징 중에는 도어 특징이 포함된다. 도 6에는 본 발명의 일실시예에 따른 특징 추출 단계에 대한 일예가 도시되는데, 먼 저, 영상 정보로부터 코너 특징이 추출되고(S21), 영상 정보에서의 윤곽선이 추출되고(S22), 얻어진 윤곽선들로부터 직선 특징이 추출된다(S23). 직선 특징이 추출된 후, 도어 특징이 추출되는데(S25), 본 실시예에서는 도어 특징 추출 후, 조명 특징이 추출되는 단계를 더 구비한다. 도 7에는 천장 영상 기반 이동 로봇 장치(10)가 취득하는 천장의 영상 정보에서 얻어지는 특징 중 코너 특징과 직선 특징에 대한 개략적인 상태도가 도시된다. 영상 정보로부터 코너 특징, 윤곽선 추출 및 직선 추출이 이루어지는 단계들이 수행되는데, 코너 특징은 영상 정보에서의 물체 끝에 각진 부분이나 두 선이 교차하는 부분으로 형성된다. 영상 정보로부터 윤곽선 추출이 이루어진 후, 다양한 직선이 얻어지는데, 이들 직선 중 사전 설정된 길이 이상의 직선을 특징으로서의 직선 특징으로 설정한다. 직선 특징은 인접 직선들과 혼동 우려등이 있는 반면, 코너 특징은 주변 부분과 확연하게 구별 가능한 바 코너 특징은 위치 인식을 위한 표식으로 즉시 사용될 수 있다. 영상 정보로부터 코너 특징, 윤곽선 추출 및 직선 추출 단계는 통상적인 영상 정보 처리 과정과 동일하므로 이에 대한 구체적 설명은 생략한다. Thereafter, the
도어 특징 추출 단계(S25)에서 도어 특징이 추출되는데, 도어 특징은 천장 영상 기반 이동 로봇 장치(10)가 관통하여 주행 가능한 개방된 문에 대한 특징을 나타낸다. 도어 특징은 공간을 분할하는 경계로 사용될 수 있는데, 도어 특징은 두 개의 수직선부와 한 개의 수평선부를 포함한다. 도 8에는 도어 특징을 추출하는 도어 특징 추출 단계(S25)에 대한 일예로서의 보다 구체적인 제어 흐름이 도시된다. 여기서, 제어 흐름을 계수하는 도어 특징 추출 계수(n)가 구비되는데, 도어 특징 추출 계수(n)는 도어 특징 추출이 시작하는 경우 n=1의 값을 가지도록 설정되고, 소정의 단계를 수행한 경우 n=2로 설정되며, 도어 특징 추출이 완료되는 경우 n=1로 리셋된다. In the door feature extraction step S25, the door feature is extracted, and the door feature represents a feature of the open door that the ceiling image-based
도어 특징 추출 단계(S25)가 수행되는 경우, 제어부(300)는 도어 특징 추출 계수(n)를 1로 설정하고, 제어부(300)는 도어 특징 추출 계수(n)가 1인지 여부를 판단하여 도어 특징 추출 단계를 수행하기 위한 초기 진행 여부를 판단한다(S210). 그런 후, 도어 특징 추출 계수(n)가 1인 경우, 제어부(300)는 도어 후보 추출 단계(S211)를 수행한다. 도어 후보는 도어 특징에 해당하는지 여부가 판단되어지는 대상으로, 도어 특징에 대한 요건이 충족되는 경우 도어 후보는 도어 특징으로 확정된다. 본 발명에서 도어 특징은 두 개의 수직선부와 한 개의 수평선부를 포함하는데, 도 9에는 도어 특징을 설명하기 위한 개략적인 사시도가 도시되고, 도 10에는 도 9의 천장 영상 기반 이동 로봇 장치(10)의 영상 입력부(100)가 취득한 영상이 도시된다. 개방된 도어(문)는 천장 영상 기반 이동 로봇 장치(10)가 이동하는 지면에 수직하는 기둥과 두 개의 기둥의 상단을 연결하는 상단 틀로 형성된다. 따라서, 이동 로봇 장치의 영상 입력부에서 얻어지는 영상 정보는 도 9에 도시된 바와 같은 도면 부호 'A'로 지시되는 영상 평면에서 취득되고, 이와 같은 영상 평면은 도 10에 도시된 바와 같이 표시되는데, 지면에 수직하게 형성되는 기둥의 연장선은 영상의 중심을 통과하고, 지면에 수평한 상단 틀은 천장 영상 기반 이동 로봇 장치(10)의 이동과 회전에 영향을 받지만 기둥을 연결하는 구성을 취한다. 따라서, 영상에서 지면에 수직하는 기둥은 두 개의 수직선부에 대응하고 상단 틀은 수 평선부에 대응한다. 도 10에 도시된 천장 영상 기반 이동 로봇 장치(10)의 영상 입력부(100)에서 취득한 영상에 있어, 기둥에 대응하는 수직선부와 상단 틀에 대응하는 수평선부는 각각 복수 개의 직선으로 구현되는데, 제어부(300)는 연장선이 동일한 중심을 관통하되 중심으로부터 소정의 반경을 이루는 위치에서의 선분 간의 거리가 사전 설정된 소정의 간극 이하의 값을 가지는 경우 복수 개의 직선은 단일의 기둥에 대응하는 단일의 수직선부라고 판단하고, 상단 틀에 대응하는 복수 개의 직선으로 한 쌍의 수직선부를 연결하고 소정의 간극 거리를 이루는 경우 이들을 단일의 수평선부로 인식한다. When the door feature extraction step S25 is performed, the
이와 같이 도어 특징을 이루는 두 개의 수직선부와 한 개의 수평선부를 구비하는 대상이 존재하는지 여부를 판단하고(S212), 도어 후보가 존재하지 않는 경우 제어부(300)는 제어 흐름을 하기되는 단계 S235로 이동하여 도어 특징이 존재하지 않는 것으로 판단하여 이를 확정하고 도어 추출 단계의 수행을 종료한다. In this way, it is determined whether there is an object having two vertical lines and one horizontal line forming the door feature (S212), and if there is no door candidate, the
반면, 도어 후보가 존재하는 것으로 제어부(300)가 판단하는 경우(S212), 제어부(300)는 검출된 도어 후보에 대한 도어 후보 샘플링 단계(S213)를 수행한다. 도어 후보 샘플링 단계(S213)에서 제어부(300)는 도어 후보와 동일한 형태를 구비하는 도어 후보 샘플을 사전 설정된 개수로 형성하는데, 도 11에는 도어 후보 샘플링 단계에 대한 개략적인 사시도가 도시되는데, 본 발명의 영상 입력부(100)는 단안 카메라로 사용되어 거리 인식이 곤란한 바, 영상 입력부(100)에서 얻어진 도어 후보에 대한 영상은 천장 영상 기반 이동 로봇 장치(10)로부터 실제로 어느 정도 떨어져 있는 지에 대한 판단이 곤란한 바, 도어 후보 샘플은 동일한 각도 방향으로 동일한 방사 선분 상에 배치되는 구조로 형성된다. 본 실시예에서 도어 후보 샘플의 개수는 200개 정도로 설정되는데, 이는 본 발명의 일예로서 보다 정확한 제어 과정을 위해서 보다 많은 개수의 도어 후보 샘플링이 이루어질 수도 있고, 경우에 따라 신속한 제어 과정을 위하여 보다 적은 개수의 도어 후보 샘플링이 이루어질 수도 있는 등 설계 사양에 따라 다양한 선택이 가능하다. On the other hand, when the
그런 후, 도어 특징 추출 계수(n)를 증가시키는데(S215), 도어 특징 추출 단계(S25)는 단일의 제어 흐름만을 수행이 완료되어 도어 후보가 추출되지 않고 수회의 반복 과정을 통하여 얻어진다. 즉, 도어 특징 추출 단계(S25)는 가상 평면 설정 판단 단계(S220)와, 샘플링 추정 영상 생성 단계(S221)와 샘플 영상 비교 단계(S223)를 포함한다. 도어 특징 추출 계수(n)가 1이 아닌 경우, 즉 도어 후보가 추출되고 도어 후보 샘플링이 완료된 경우, 제어부(300)는 가상 평면 설정 여부를 판단하는 가상 평면 설정 판단 단계(S220)를 수행한다. 여기서, 가상 평면이란 도어 후보을 포함하고 지면에 수직한 가상의 평면으로 도어 후보에 대하여 설정된 수 개의 도어 후보 샘플이 수렴되는 도어 후보(도어 후보 샘플)에 대한 평면을 의미하는데, 가상 평면은 도어 후보가 개방된 도어(문)을 나타내는 도어 특징으로서 확정 가능한지 여부를 판단하기 위한 기초로 사용된다. Then, to increase the door feature extraction coefficient (n) (S215), the door feature extraction step (S25) is obtained through several iterative processes without the door candidate is extracted because only a single control flow is completed. That is, the door feature extraction step S25 includes a virtual plane setting determination step S220, a sampling estimation image generation step S221, and a sample image comparison step S223. When the door feature extraction coefficient n is not 1, that is, when the door candidate is extracted and the door candidate sampling is completed, the
제어부(300)가 가상 평면이 형성되지 않은 것으로 판단하는 경우, 제어부(300)는 사전 설정된 개수의 도어 후보 샘플에 대하여 현재 천장 영상 기반 이동 로봇 장치(10)의 위치에서의 샘플링 추정 영상을 생성한다(S221). 즉, 제어부(300)는 저장부(400) 및 연산부(500)를 사용하여, 전회의 도어 후보 샘플링 단 계(S213)에서 얻어진 각각의 도어 후보 샘플에 대하여 천장 영상 기반 이동 로봇 장치(10)가 이동한 상태에서의 얻어질 수 있는 위치에 대하여 추정되는 영상을 생성한다. 도 12에는 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치(10)의 시간 경과에 따라 위치 이동시 도어 후보 샘플에 대한 추정 영상 관계를 설명하기 위한 개략적인 상태도가 도시되는데, 천장 영상 기반 이동 로봇 장치(10)는 시간 t1으로부터 시간 t2만큼 시간 변위를 이루는 경우, 각각에 대응하는 위치로 이동한다. 여기서, 선 O-O는 천장 영상 기반 이동 로봇 장치(10)의 영상 입력부(100)에 대한 중심선을 나타내고, 각선분 AOA는 선 O-O를 중심으로 각각의 측방향으로 가중치 각도 ±θ만큼 각도의 범위를 갖는 각선분을 나타내는데, 각선분 AOA는 도어 후보 샘플 중 하기되는 유력한 도어 후보 샘플을 기준으로 새로운 도어 후보 샘플을 설정하기 위하여 사용되는 결정 기준으로 사용된다. When the
먼저, 가상 평면이 설정되지 않은 것으로 판단되는 경우, 제어부(300)는 도어 후보에 대한 수 개의 도어 후보 샘플 중 유력한 도어 후보 샘플이 선택 내지 수렴되지 않은 것으로 판단하고, 현재 시간 t2에서 천장 영상 기반 이동 로봇 장치(10)가 얻을 수 있을 것이라고 추정되는 전회 시간 t1에서 얻어진 도어 후보 샘플에 대한 추정 영상을 생성한다. 전회 시간 t1에서 얻어진 도어 후보 샘플에 대하여 연산되어 시간 t2에서 보여질 것으로 예상 추정되는 영상은 전회 시간 t1에서 영상 입력부(100)로부터 얻어진 영상과, 천장 영상 기반 이동 로봇 장치(10)의 엔코더 감지부(200)로부터 얻어진 천장 영상 기반 이동 로봇 장치(10)의 이동 및 회전 정보에 기초하여 연산부(500)가 연산하여 생성한다. First, when it is determined that the virtual plane is not set, the
시간 t1에서 설정된 도어 후보 샘플에 대한 시간 t2에서 추정된 영상 생성이 완료된 경우, 제어부(300)는 샘플링 추정 영상과 현재 시간 t2에서 영상 입력부(100)로부터 얻어진 현재의 영상을 비교하는 샘플 영상 비교 단계를 수행한다(S223). 이와 같은 샘플 영상 비교 단계(S223)를 통하여, 제어부(300)는 샘플 추정 영상과 현재 얻어진 영상 간에 가장 유사한 샘플 추정 영상을 선택하고, 이에 대응하는 도어 후보 샘플을 유력한 도어 후보 샘플로 선정한다. When generation of the image estimated at time t2 for the door candidate sample set at time t1 is completed, the
샘플 영상 비교 단계(S223)가 완료된 후, 샘플 영상 비교 단계 결과에 기초하여 도어 후보에 대한 도어 후보 샘플을 재설정하는 리샘플링 단계(S225)를 수행한다(S225). 즉, 제어부(300)는 샘플 영상 비교 단계를 통하여 얻어진 유력한 도어 후보 샘플을 기준으로 도어 후보에 대한 도어 후보 샘플을 재설정하는데, 전회, 즉 시간 t1에서의 선 O-O와 본회, 즉 시간 t2에서의 각선분 AOA와 교차되는 교차점 B1,B2 사이에 배치되는 선 B1-B2 사이의 영역에서 새로운 도어 후보 샘플이 선정된다. 여기서, 샘플 추정 영상과 시간 t2에서의 현재 영상의 비교를 통하여 가장 유사한 것으로 판단되어지는 유력한 도어 후보 샘플은 선 B1-B2에 배치되는데, 가중치 각도 ±θ는 각선분 AOA을 이루는 사이 각도로 사용되어 유력한 도어 후보 샘플을 기준으로 수렴 영역을 한정시킴으로써, 재샘플링시 신속한 수렴 과정을 이루도록 한다. 도 12에서 축 C1-C2로 이루어지는 도표는 유력한 도어 후보 샘플을 기준으로 도어 후보 샘플을 재설정하는데 사용되는 가중치 값을 변화시키기 위한 가중치 선도가 도시되는데, 가중치(w)에 대한 가중치 선도의 면적의 합은 1을 이룬다. 여기서, 가중치 선도는 삼각형 형상을 이루도록 설정되었으나, 이는 일예일뿐 설계 사양에 따라 포물선 형상으로 형성될 수도 있는 등 다양한 변형이 가능하다. After the sample image comparison step S223 is completed, a resampling step S225 of resetting the door candidate samples for the door candidates is performed based on the result of the sample image comparison step S225. That is, the
리샘플링 단계가 완료된 후, 제어부(300)는 도어 후보 샘플에 대한 수렴도를 사전 설정 수렴치와 비교한다(S227). 도어 후보 샘플의 위치를 천장 영상 기반 이동 로봇 장치(10)가 이동하는 지면에 투영시키는 경우, 도 12의 축 D1-D2와 같은 선도로 표현되는데, 도어 후보 샘플은 시간 t1에서의 선 O-O과 평행한 장방향의 타원형으로 표현 가능한데, 도어 후보 샘플의 수렴도는 축 D1-D2에서의 장방향 축선 길이를 수렴 길이(l)로 설정하고 이를 사전 설정된 수렴치로서의 사전 설정 수렴 길이(ls)와 비교하여 도어 후보 샘플의 수렴 여부를 판단한다. 예를 들어, 사전 설정 수렴 길이(ls)가 약 50cm로 설정된 경우, 수렴 길이(l)가 50cm 이하로 약 40cm 정도의 길이를 가지는 경우, 사전 설정된 개수로 샘플링된 도어 후보 샘플이 유력한 도어 후보 샘플을 중심으로 수렴을 이루었다고 판단하고, 유사도가 가장 높고 가중치가 가장 높은, 즉 도어 후보에 해당할 확률이 가장 높은 도어 후보 샘플을 도어 후보로 설정하여 도어 후보 샘플이 수렴되었다고 판단한다. 그런 후, 제어부(300)는 수렴되었다고 판단되고 확률이 가장 높은 도어 후보 샘플에 대한 가상 평면을 형성하는데, 가상 평면은 지면에 수직한 형태로 구현된다(S229). 도 12 및 도 13에 도시된 바와 같이, 시간 t1에서 시간 t2로 시간 경과시 천장 영상 기반 이동 로봇 장치(10)는 위치 이동을 이루고, 수렴된 도어 후보 샘플에 대하여 지면에 수직한 가상 평면을 설정한다. After the resampling step is completed, the
도어 특징 추출 단계(S25)는 가상 평면 내 추정 영상 생성 단계(S230)와, 가상 평면 영상 비교 단계(S231)를 포함하는데, 제어부(300)는 단계 S220에서 가상 평면이 설정된 것으로 판단하는 경우, 제어부(300)는 저장부(400)에 기저장된 시간 전회 시간에서의 영상 정보를 사용하여 현재 시간에서의 가상 평면 내 추정 영상을 생성한다(S230). 이러한 가상 평면 내 추정 영상 생성은 저장부(400)에 저장된 전회의 가상 평면에 대응하는 도어 후보 샘플에 대한 영상으로부터 연산부(500)를 통하여 새로이 얻어질 수 있으나, 천장 영상 기반 이동 로봇 장치(10)의 위치 인식에 대한 제어 주기가 빠른 경우, 별도의 연산을 거치지 않고 전회에 생성된 샘플링 추정 영상을 그대로 사용하는 구조를 취할 수도 있다. The door feature extraction step S25 includes an estimated image generation step S230 and a virtual plane image comparison step S231 in the virtual plane. When the
그런 후, 제어부(300)는 생성된 가상 평면 내 추정 영상을 천장 영상 기반 이동 로봇 장치(10)의 영상 입력부(100)로부터 얻어진 현재 영상(왜곡 보정이 이루어진)과 비교하고(S231), 양자의 일치 여부를 판단한다(S233). 도 14는 전회 시간에서 영상 입력부에서 얻어진 가상 평면(Pv1)에 대한 영상을 나타내고, 도 15는 가상 평면 내 추정 영상과 현재 시간에서의 실제 영상이 일치하는 경우에 대한 영상을 나타내고, 도 16은 가상 평면 내 추정 영상과 현재 시간에서의 실제 영상이 불일치하는 경우에 대한 영상을 나타낸다. Thereafter, the
도 14에서 전회 시간에서의 가상 평면(Pv1) 내에 윤곽선(Tv1)이 인식되고, 도 15에는 천장 영상 기반 이동 로봇 장치(10)가 이동/회전한 경우의 가상 평면(Pv2)에서의 추정된 영상에서의 윤곽선(Tv2, 점선)은 현재 영상 입력부에서 얻어진 도어 후보에 대한 영상에서의 윤곽선(TR2)이 도시되는데, 각각의 추정 영상 및 현재 영상에서의 윤곽선(Tv2 및 TR2)는 서로 일치한다. 추정 영상에서의 윤곽선(Tv2)은 가상 평면(Pv2)이 벽과 같은 밀폐된 상태라고 가정하여 전회 시간에서의 가상 평면(Pv1)에 대한 정보를 엔코더 감지부(200)로부터 얻어지는 천장 영상 기반 이동 로봇 장치(10)의 이동/회전 정보를 사용하여 연산한 것이어서, 양자가 일치하는 경우 가상 평면(Pv2)은 밀폐된 상태, 즉 개방된 도어가 아니라고 판단한다. 반면, 도 16에는 천장 영상 기반 이동 로봇 장치(10)가 이동/회전한 경우의 가상 평면(Pv2)에서의 추정된 영상에서의 윤곽선(Tv2, 점선)과 현재 영상 입력부에서 얻어진 도어 후보에 대한 영상에서의 윤곽선(TR2)이 도시되는데, 천장 영상 기반 이동 로봇 장치(10)가 이동/회전 한 경우의 가상 평면(Pv2)은 영상 입력부에서 얻어진 영상에서의 도어 후보와 일치하나, 각각의 추정 영상 및 현재 영상에서의 윤곽선(Tv2 및 TR2)는 서로 불일치한다. 추정 영상에서의 윤곽선(Tv2)은 가상 평면(Pv2)이 벽과 같은 밀폐된 상태라고 가정하여 전회 시간에서의 가상 평면(Pv1)에 대한 정보를 엔코더 감지부(200)로부터 얻어지는 천장 영상 기반 이동 로봇 장치(10)의 이동/회전 정보를 사용하여 연산한 것이어서, 양자가 불일치하는 경우 가상 평면(Pv2)은 밀폐되지 않은 상태, 즉 개방된 도어라고 판단한다.In FIG. 14, the contour Tv1 is recognized in the virtual plane Pv1 at the previous time, and FIG. 15 is an estimated image in the virtual plane Pv2 when the ceiling image-based
따라서, 제어부(300)가 단계 S233에서 가상 평면 내 영상과 실제 영상에서의 도어 후보 내의 영상이 일치하는 경우, 수렴된 도어 후보 샘플로서의 도어 후보는 개방된 도어가 아닌 벽 내지 밀폐된 도어로 판단한다(S235). 반면, 제어부(300)가 단계 S233에서 가상 평면 내 영상과 실제 영상에서의 도어 후보 내의 영상이 불일치하는 경우, 수렴된 도어 후보 샘플로서의 도어 후보는 개방된 도어로 판단하여 수렴된 도어 후보 샘플로서의 도어 후보를 도어 특징으로 ㅎ호확정하는 도어 특징 확정 단계(S237)를 수행하고, 도어 특징 추출 계수(n)를 리셋하여 n=1의 값으로 재 설정한다(S239). 상기와 같은 도어 특징 추출 단계(S25)는 보다 정확한 위치 인식을 위하여 상당한 연산 시간 내지 도출 시간을 요하는 바, 각각의 도어 특징 추출 단계는 천장 영상 기반 이동 로봇 위치 인식 방법에 대한 수회의 제어 주기를 거친 후에 도출될 수도 있다. Therefore, when the image in the virtual plane and the image in the door candidate in the actual image coincide in step S233, the
특징 추출 단계(S20)는 도어 특징 추출 단계(S25)를 수행한 후, 경우에 따라 조명 특징 추출 단계(S27)를 더 구비할 수도 있다. 도 17에 도시된 바와 같이, 조명 특징 추출 단계(S27)는 영상 입력부(100)를 통하여 입력되는 영상 정보로부터 천장에 배치되는 조명에 대한 조명 특징을 추출하는 단계인데, 조명 특징 추출 단계(S27)는 위치 확인 단계(S270)와, 조명 특징 판단 단계(S271)를 포함한다. 위치 확인 단계(S270)에서 제어부(300)는 천장 영상 기반 이동 로봇 장치(10)의 현재 위치를 인지하는데, 천장 영상 기반 이동 로봇 장치(10)의 현재 위치는 엔코더 감지부(200)의 신호에 기초하여 연산될 수 있다. 조명 특징 판단 단계(S271)에서 제어부(300)는 영상 입력부(100)로부터 입력되는 영상 정보에 기초하여 저장부(400)에 저장된 특징에 대한 위치 정보와 엔코더 감지부(2000로부터의 위치 정보를 사용하여 해당 위치에서의 영상 내 조명 특징이 존재하는지 여부를 확인 판단한다. The feature extraction step S20 may further include an illumination feature extraction step S27 after performing the door feature extraction step S25. As shown in FIG. 17, the lighting feature extraction step S27 is a step of extracting an illumination feature for lighting disposed on the ceiling from the image information input through the
영상 내 조명 특징이 없다고 판단되는 경우, 제어부(300)는 영상 밝기 검출 단계(S275)와 조명 형상 저장 단계(S277)를 수행한다. 즉, 제어부(300)가 영상 내 조명 특징이 존재하지 않는다고 판단하는 경우, 제어부(300)는 영상 입력부(100)로부터 입력된 현재의 영상 밝기, 즉 영상 내 화소의 밝기 검출을 수행하고(S275), 검출된 영상 밝기를 설정된 영상 밝기 최대값(Bmax)과 비교한다(S276). 영상 밝기 가 영상 밝기 최대값과 동일한 화소가 존재하지 않는 경우, 제어부(300)는 영상 내 조명 특징이 존재하지 않는다고 판단하고 조명 특징의 부재를 확정하며(S278), 천장 영상 기반 이동 로봇 장치(10)의 위치 인식 과정에 이를 반영하지 않는다. 반면, 영상 밝기를 동일 밝기의 화소 별로 그룹핑을 수행하고, 그룹핑된 화소중 영상 밝기 최대값과 비교하여 도 18에 도시된 바와 같이 이들 동일한 화소의 윤곽선을 기준으로 조명의 형상 및 위치를 저장하며(S277), 조명 특징의 존재를 확정하여(S274) 이를 위치 인식 과정에 반영한다. If it is determined that there is no illumination feature in the image, the
또한, 영상 내 조명 특징이 존재한다고 판단되는 경우, 제어부(300)는 영상 내 윤곽선 검출을 통하여 폐곡선 존재 여부를 검색하고(S272), 검색된 폐곡선을 저장부(400)에 저장된 조명 특징과 비교한다(S273). 폐곡선 형상과 저장된 조명 특징의 형상이 일치하는 경우, 조명 특징의 존재를 확정하여(S274) 이를 위치 인식 과정에 반영한다. 반면, 폐곡선 형상과 저장된 조명 특징의 형상이 일치하지 않는 경우, 제어부(300)는 조명 특징이 부재하는 것으로 확정하고(S278), 천장 영상 기반 이동 로봇 장치(10)의 위치 인식 과정에 이를 반영하지 않는다. In addition, when it is determined that there is an illumination feature in the image, the
특징 추출 단계(S20)가 수행된 후, 제어부(300)는 천장 영상 기반 이동 로봇 장치(10)의 위치 인식 단계(S30)를 수행하는데, 위치 인식 단계(S30)는 추출된 특징들을 사용하여 이동 로봇 장치의 위치를 인식한다. 도 19에는 본 발명의 일실시예에 따른 위치 인식 단계(S30)에 대한 개략적인 흐름도가 도시되고, 도 20에는 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치(10)의 이동 경로 및 엔코더 감지부로부터의 정보에 기초한 예측 경로를 나타내는 개략적인 선도가 도시된 다. 위치 인식 단계(S30)는 예측 단계(S31)와 정합 단계(S33)와 추정 단계(S35)를 포함하는데, 예측 단계(S31)는 엔코더 감지부(200)의 신호에 기초하여 이동 로봇 장치의 예측 위치를 예측한다. 여기서, 예측 위치는 전회 시간에서의 위치에서 엔코더 감지부(200)로부터의 신호에 기초하여 본회 시간에서 이동되었을 것이라고 예측되는 위치를 나타내는데, 도 20에서 초기 위치 s0로부터 시간이 t=t1, t=t2로 경과하는 동안 엔코더 감지부(100)로부터의 정보에 기초하여 예측된 s1, s2의 예측 위치는 경우에 따라 실제 위치 s1',s2'와 불일치할 수도 있다. 한편, 영상 입력부(100)로부터 얻어지는 실제 영상에서 얻어지는 특징에 대한 위치는 불확실 영역(도 21 참조; 도 12의 축 D1-D2 참조) 상에 배치되고, 하기되는 특징의 정합 여부는 예측 영상에서의 특징이 실제 영상에서의 특징에 대한 불확실 영역 상에 배치되는지 여부를 판단함으로써 이루어진다. 즉, 제어부(300)는 천장 영상 기반 이동 로봇 장치(10)의 예측 위치에서의 연산된 예측 영상 및 영상 감지부(100)로부터의 영상 내 각각의 특징에 기초하여 정합 여부를 판단하는 정합 단계(S33)를 수행한다. 정합 단계(S33)에서 예측 영상 및 영상 감지부(100)로부터의 영상 내 각각의 특징의 정합이 이루어지지 않은 것으로 판단되는 경우, 제어부(300)는 정합되지 않은 특징을 새로운 특징으로 인식하여 이를 저장부(400)에 저장한다. 예를 들어, 제어부(300)는 예측 위치에서의 예측 영상에서의 특징과 실제 영상에서의 특징의 위치를 비교하는데, 실제 영상에서의 특징에 대한 불확실 영역 내에 예측 영상에서의 특징이 위치하지 않는 경우 제어부(300)는 영상 입력부(100)로부터 얻어진 실제 영상에서의 정보와 엔코더 감지부로부터의 정보를 사용하여 실제 영상 내의 특징을 새로운 특징으로 파악하고 새로운 특징에 대한 위치를 저장부(400)에 저장한다. 반면, 예측 영상에서의 특징이 실제 영상에서의 특징에 대한 불확실 영역 내에 배치되는 경우, 제어부(300)는 양자가 정합된 것으로 판단하고 구체적 비교를 통하여 오차 여부 및 이를 위치 인식 과정에 반영할 정도를 판단한다. 즉, 제어부(300)는 양자가 정합된 것으로 판단된 경우, 특징의 구체적 비교를 통하여 특징의 오차 여부에 의한 위치 오차 보정 정도를 판단하고 산출한다. 이러한 일치 정도는 코너 특징의 경우 실제 영상에서의 특징 영상과 예측 영상에서의 특징 영상에 대한 화소의 밝기 비교를 통하여 이루어질 수도 있고, 도어 특징 및 조명 특징은 특징의 형상 비교를 통하여 이루어질 수도 있다. After the feature extraction step S20 is performed, the
정합 여부 및 일치 정도가 판단된 경우, 제어부(300)는 추정 단계(S35)를 수행하는데, 추정 단계(S35)에서 제어부(300)는 정합 여부 및 정합 정도(특징의 오차 여부에 의한 위치 오차 보정 정도)에 기초하여 천장 영상 기반 이동 로봇 장치(10)의 위치를 보정한다. If it is determined whether the match and the degree of matching is determined, the
상기 실시예들은 본 발명을 설명하기 위한 일예들로, 본 발명이 이에 국한되는 것은 아니다. 조명 특징은 선택적으로 고려되는 위치 인식 방법을 취할 수도 있는 등, 이동 로봇 장치의 위치 인식을 이루는 과정에서 도어 특징을 포함하는 특징을 추출하고 이를 사용하여 위치 인식을 이루는 범위에서 다양한 변형이 가능하다. The above embodiments are examples for describing the present invention, but the present invention is not limited thereto. The lighting feature may take a position recognition method that is considered to be optional, and in the process of achieving the position recognition of the mobile robot device, the feature including the door feature may be extracted and various modifications may be made in the range of the position recognition using the same.
도 1은 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 개략적인 블록선도이다. 1 is a schematic block diagram of a ceiling image-based mobile robot device according to an embodiment of the present invention.
도 2는 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 위치 인식 방법에 대한 개략적인 제어 흐름도이다. 2 is a schematic control flowchart of a method for recognizing a location of a ceiling image-based mobile robot device according to an embodiment of the present invention.
도 3은 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 위치 인식 방법의 영상 입력 처리 단계에 대한 흐름도이다. 3 is a flowchart illustrating an image input processing step of a location recognition method of a ceiling image-based mobile robot apparatus according to an exemplary embodiment of the present invention.
도 4 및 도 5는 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 영상 입력부에서 얻어진 영상 및 이의 왜곡 보정을 이룬 영상에 대한 개략적인 선도이다. 4 and 5 are schematic diagrams of an image obtained by the image input unit of the ceiling image-based mobile robot device according to an embodiment of the present invention and an image of which distortion is corrected.
도 6은 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 위치 인식 방법의 특징 추출 단계에 대한 흐름도이다. 6 is a flowchart illustrating a feature extraction step of a location recognition method of a ceiling image-based mobile robot device according to an embodiment of the present invention.
도 7은 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 위치 인식 방법의 특징 추출 단계에서 추출되는 특징들에 대한 개략적인 선도이다. 7 is a schematic diagram of the features extracted in the feature extraction step of the position recognition method of the ceiling image-based mobile robot device according to an embodiment of the present invention.
도 8은 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 위치 인식 방법의 도어 특징 추출 단계에 대한 흐름도이다. 8 is a flowchart illustrating a door feature extraction step of a location recognition method of a ceiling image-based mobile robot device according to an embodiment of the present invention.
도 9는 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 위치 인식 방법의 도어 특징 추출 단계에서 추출되는 도어 특징을 설명하기 위한 개략적인 선도이다. FIG. 9 is a schematic diagram for describing a door feature extracted in a door feature extraction step of a location recognition method of a ceiling image-based mobile robot apparatus according to an exemplary embodiment.
도 10은 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 영상 입력부에서 얻은 영상에서의 도어 특징 또는 도어 후보에 대한 개략적인 선도이다. 10 is a schematic diagram of a door feature or door candidate in an image obtained from an image input unit of a ceiling image-based mobile robot device according to an embodiment of the present invention.
도 11은 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 위치 인식 방법의 도어 추출 단계 중 도어 후보 샘플링 단계에 대한 개략적인 상태도이다. 11 is a schematic state diagram of a door candidate sampling step of the door extraction step of the position recognition method of the ceiling image-based mobile robot device according to an embodiment of the present invention.
도 12는 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 시간 경과에 따라 위치 이동시 도어 후보 샘플에 대한 추정 영상 관계를 설명하기 위한 개략적인 상태도이다. FIG. 12 is a schematic state diagram illustrating an estimated image relationship with respect to a door candidate sample when a position is moved over time of a ceiling image-based mobile robot device according to an embodiment of the present invention.
도 13은 시간 t1에서 시간 t2로 시간 경과에 따른 천장 영상 기반 이동 로봇 장치의 위치 이동 시 수렴된 도어 후보 샘플에 대하여 지면에 수직하게 설정된 가상 평면에 대한 개략적인 사시도이다. FIG. 13 is a schematic perspective view of a virtual plane set perpendicular to the ground with respect to the door candidate samples converged when the position of the ceiling-based mobile robot apparatus moves from time t1 to time t2.
도 14는 전회 시간에서 영상 입력부에서 얻어진 가상 평면(Pv1)에 대한 영상을 나타내는 개략적인 선도이다. 14 is a schematic diagram illustrating an image of the virtual plane Pv1 obtained by the image input unit at the previous time.
도 15는 가상 평면 내 추정 영상과 현재 시간에서의 실제 영상이 일치하는 경우에 대한 영상을 나타내는 개략적인 선도이다. FIG. 15 is a schematic diagram illustrating an image of a case where an estimated image in a virtual plane and an actual image at a current time coincide.
도 16은 가상 평면 내 추정 영상과 현재 시간에서의 실제 영상이 불일치하는 경우에 대한 영상을 나타내는 개략적인 선도이다. FIG. 16 is a schematic diagram illustrating an image of a case where an estimated image in a virtual plane and an actual image at a current time do not match.
도 17은 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 위치 인식 방법의 조명 특징 추출 단계에 대한 흐름도이다. 17 is a flowchart illustrating a lighting feature extraction step of a location recognition method of a ceiling image-based mobile robot device according to an embodiment of the present invention.
도 18은 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 영상 입력부에서 얻은 영상에서 동일 밝기 화소를 연결하여 얻은 조명 특징을 나타내는 개략적인 선도이다. FIG. 18 is a schematic diagram illustrating an illumination feature obtained by connecting the same brightness pixels in an image obtained by an image input unit of a ceiling image-based mobile robot device according to an embodiment of the present invention.
도 19는 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 위치 인식 방법의 위치 인식 단계에 대한 개략적인 흐름도이다.19 is a schematic flowchart of a location recognition step of a location recognition method of a ceiling image-based mobile robot device according to an embodiment of the present invention.
도 20은 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 실제 이동 경로 및 엔코더 감지부로부터의 정보에 기초한 예측 경로를 나타내는 개략적인 선도이다.20 is a schematic diagram illustrating a prediction path based on actual moving paths and information from an encoder sensor of a ceiling image-based mobile robot device according to an embodiment of the present invention.
도 21에는 본 발명의 일실시예에 따른 천장 영상 기반 이동 로봇 장치의 위치 인식 방법에서 사용되는 각각의 특징에 대한 불확실 영역을 나타내는 개략적인 선도이다. FIG. 21 is a schematic diagram illustrating an area of uncertainty for each feature used in a location recognition method of a ceiling image-based mobile robot apparatus according to an embodiment of the present invention.
*도면의 주요부분에 대한 부호의 설명* * Description of the symbols for the main parts of the drawings *
10...천장 영상 기반 이동 로봇 장치 100...영상 입력부10 ... Ceiling-based
200...엔코더 감지부 300...제어부200
400...저장부 500...연산부400
600...구동부600 ... Driver
Claims (16)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070141851A KR100926601B1 (en) | 2007-12-31 | 2007-12-31 | Mobile robot unit based on the ceiling image/feature map of the image and the method for recognizing the self position of the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070141851A KR100926601B1 (en) | 2007-12-31 | 2007-12-31 | Mobile robot unit based on the ceiling image/feature map of the image and the method for recognizing the self position of the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090073796A true KR20090073796A (en) | 2009-07-03 |
KR100926601B1 KR100926601B1 (en) | 2009-11-11 |
Family
ID=41330905
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070141851A KR100926601B1 (en) | 2007-12-31 | 2007-12-31 | Mobile robot unit based on the ceiling image/feature map of the image and the method for recognizing the self position of the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100926601B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101035058B1 (en) * | 2009-09-25 | 2011-05-19 | 전자부품연구원 | Moving Robot and Method Of Recognizing A Ceiling Region For Localization Thereof |
KR101036028B1 (en) * | 2009-07-08 | 2011-05-19 | 고려대학교 산학협력단 | Fast rotation-invariant feature matching method, mobile robot unit based on the ceiling image/feature map with using the mehod, and method for recognizing the self position of the same unit |
KR101540666B1 (en) * | 2009-07-22 | 2015-07-31 | 엘지전자 주식회사 | Apparatus and Method for detecting Rotation-Invariant Features for Localization of a mobile robot |
CN108968825A (en) * | 2018-08-17 | 2018-12-11 | 苏州领贝智能科技有限公司 | A kind of sweeping robot and robot sweep the floor method |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101248308B1 (en) * | 2011-01-31 | 2013-03-27 | 고려대학교 산학협력단 | Method for recognizing the self position of a mobile robot unit using the lamp directionality on the ceiling image/feature map and mobile robot unit using the method |
KR101311100B1 (en) | 2011-08-27 | 2013-09-25 | 고려대학교 산학협력단 | Method for recognizing the self position of a mobile robot unit using arbitrary ceiling features on the ceiling image/feature map |
KR101391525B1 (en) | 2012-07-19 | 2014-05-07 | 고려대학교 산학협력단 | Method for building the map of a mobile robot and recognizing the position of the mobile robot |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004012429A (en) | 2002-06-11 | 2004-01-15 | Mitsubishi Heavy Ind Ltd | Self-position/attitude identification device and self-position/attitude identification method |
KR100586648B1 (en) | 2003-07-21 | 2006-06-07 | 주식회사 한울로보틱스 | The methode of self-localization for cleaning robot using ceiling image |
KR20060074044A (en) * | 2004-12-27 | 2006-07-03 | 주식회사 아이오. 테크 | Robot position estimation method by the ceiling image |
KR100791384B1 (en) | 2006-07-05 | 2008-01-07 | 삼성전자주식회사 | Method for dividing regions by feature points and apparatus thereof and mobile cleaning robot |
-
2007
- 2007-12-31 KR KR1020070141851A patent/KR100926601B1/en active IP Right Grant
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101036028B1 (en) * | 2009-07-08 | 2011-05-19 | 고려대학교 산학협력단 | Fast rotation-invariant feature matching method, mobile robot unit based on the ceiling image/feature map with using the mehod, and method for recognizing the self position of the same unit |
KR101540666B1 (en) * | 2009-07-22 | 2015-07-31 | 엘지전자 주식회사 | Apparatus and Method for detecting Rotation-Invariant Features for Localization of a mobile robot |
KR101035058B1 (en) * | 2009-09-25 | 2011-05-19 | 전자부품연구원 | Moving Robot and Method Of Recognizing A Ceiling Region For Localization Thereof |
CN108968825A (en) * | 2018-08-17 | 2018-12-11 | 苏州领贝智能科技有限公司 | A kind of sweeping robot and robot sweep the floor method |
CN108968825B (en) * | 2018-08-17 | 2020-12-11 | 深圳领贝智能科技有限公司 | Sweeping robot and sweeping method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR100926601B1 (en) | 2009-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100926601B1 (en) | Mobile robot unit based on the ceiling image/feature map of the image and the method for recognizing the self position of the same | |
US10810734B2 (en) | Computer aided rebar measurement and inspection system | |
US10268201B2 (en) | Vehicle automated parking system and method | |
US9402151B2 (en) | Method for recognizing position of mobile robot by using features of arbitrary shapes on ceiling | |
US9990726B2 (en) | Method of determining a position and orientation of a device associated with a capturing device for capturing at least one image | |
KR101083394B1 (en) | Apparatus and Method for Building and Updating a Map for Mobile Robot Localization | |
KR101781757B1 (en) | Underwater image processing device for object recognition and method there of | |
US8831872B2 (en) | Apparatus and method for estimating location of mobile body and generating map of mobile body environment using upper image of mobile body environment, and computer readable recording medium storing computer program controlling the apparatus | |
JP2020042816A (en) | Object detection method, device, apparatus, storage media, and vehicle | |
JP5157803B2 (en) | Autonomous mobile device | |
KR100656859B1 (en) | Simultaneous location and mapping method using supersonic wave sensor and vision sensor | |
KR20150120408A (en) | Camera aided motion direction and speed estimation | |
CN109903313A (en) | Real-time pose tracking method based on target three-dimensional model | |
KR101789217B1 (en) | Apparatus and Method for Building Indoor Map using Geometric Features and Probability Method | |
KR102075844B1 (en) | Localization system merging results of multi-modal sensor based positioning and method thereof | |
EP3624060A1 (en) | Information processing device, information processing method, and program | |
KR102414004B1 (en) | Path search method of the automatic guided vehicle robot for entering the working path | |
KR101450586B1 (en) | Method, system and computer-readable recording media for motion recognition | |
CN112669358B (en) | Map fusion method suitable for multi-platform collaborative awareness | |
CN112731503A (en) | Pose estimation method and system based on front-end tight coupling | |
Wen et al. | Visual navigation of an indoor mobile robot based on a novel artificial landmark system | |
KR101002776B1 (en) | Apparatus and method for estimating location and generating map of mobile body, using upper image, computer-readable recording media storing computer program controlling the apparatus | |
CN114526720B (en) | Positioning processing method, device, equipment and storage medium | |
JP7483414B2 (en) | Information processing device, information processing method, and program | |
Lei et al. | A real-time localization algorithm based on feature point matching |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20121004 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20130717 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20151030 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20160928 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20181025 Year of fee payment: 10 |