KR100868882B1 - 로봇 헤드 - Google Patents

로봇 헤드 Download PDF

Info

Publication number
KR100868882B1
KR100868882B1 KR1020070070949A KR20070070949A KR100868882B1 KR 100868882 B1 KR100868882 B1 KR 100868882B1 KR 1020070070949 A KR1020070070949 A KR 1020070070949A KR 20070070949 A KR20070070949 A KR 20070070949A KR 100868882 B1 KR100868882 B1 KR 100868882B1
Authority
KR
South Korea
Prior art keywords
frame
robot
unit
coordinate information
image
Prior art date
Application number
KR1020070070949A
Other languages
English (en)
Inventor
최무성
양광웅
이중재
김병규
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020070070949A priority Critical patent/KR100868882B1/ko
Application granted granted Critical
Publication of KR100868882B1 publication Critical patent/KR100868882B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/08Control of attitude, i.e. control of roll, pitch, or yaw

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 로봇 헤드, 로봇 시스템 및 그 제어 방법에 관한 것으로서, 본 발명의 한 실시예에 따른 로봇 시스템은 영상 촬영부, 영상 촬영부로 촬영되는 영상 정보를 처리하여 물체를 식별하는 영상 처리부, 물체를 포함하는 영역을 레이저 스캐닝하여 3차원 좌표 정보를 구하는 레이저 스캐닝부 및 영상 정보와 3차원 좌표 정보를 맵핑하여 물체의 좌표 정보를 구하는 주 제어부를 포함하는 것을 특징으로 한다. 본 발명에 의하면 한대의 카메라만 사용하고도 물체의 위치 정보를 정확하게 파악할 수 있어 로봇에게 걸리는 부하를 줄일 수 있다.
로봇, 매니퓰레이션, 영상 촬영, 레이저 스캐닝, 물체 정보 획득

Description

로봇 헤드{ROBOT HEAD}
본 발명은 로봇 헤드, 로봇 시스템 및 그 제어 방법에 관한 것으로, 보다 자세하게는 주변 환경에 위치하는 물체를 인식하고 위치를 확인한 후 그에 대한 작업을 수행할 수 있는 로봇 시스템 및 그 제어 방법과 로봇 시스템에 장착되는 로봇 헤드에 관한 관한 것이다.
현재 대부분의 휴머노이드 로봇은 물체의 좌표를 얻기 위하여 주로 스테레오 카메라를 이용한다. 이 방법은 2대의 카메라를 일정 간격으로 두고 각각의 카메라가 획득한 서로 다른 영상을 이용하여 물체와 로봇 사이의 거리를 추정하는 것이다. 그러나 이 방법은 비교적 작은 오차로 로봇과 물체 사이의 거리를 획득할 수 있으나, 로봇이 많은 연산을 수행하게 되기 때문에 전체 시스템에 많은 부하를 줄 수 있는 문제점이 있다.
한편 로봇 시스템의 부하를 줄이기 위해 하나의 카메라를 이용하는 경우도 있으나, 이 방법은 스테레오 카메라를 이용할 때보다 정확한 좌표를 얻지 못하는 문제점이 있다.
따라서 본 발명의 기술적 과제는 물체의 정확한 위치정보를 획득하면서도 로봇의 부하를 줄일 수 있는 로봇 시스템을 제공하는 것이다.
이러한 기술적 과제를 이루기 위한 본 발명의 한 실시예에 따른 로봇 헤드를 포함하는 로봇 시스템은 영상 촬영부, 상기 영상 촬영부로 촬영되는 영상 정보를 처리하여 물체를 식별하는 영상 처리부, 상기 물체를 포함하는 영역을 레이저 스캐닝하여 3차원 좌표 정보를 구하는 레이저 스캐닝부 및 상기 영상 정보와 상기 3차원 좌표 정보를 맵핑하여 상기 물체의 좌표 정보를 구하는 주 제어부를 포함하고, 상기 영상 촬영부 및 상기 영상 처리부는 상기 로봇 헤드에 장착된다.
상기 주 제어부는, 상기 영상의 중심이 상기 물체의 중심과 일치하도록 상기 영상 촬영부를 위치시키고, 상기 물체의 중심을 중심으로 상기 영역을 레이저 스캐닝하도록 상기 레이저 스캐닝부를 제어할 수 있다.
상기 레이저 스캐닝부에 의해 구해진 좌표 정보는 구형 좌표계 기반의 정보이며, 상기 주 제어부는 상기 구형 좌표계 기반의 3차원 좌표 정보를 직교 좌표계 기반으로 변환할 수 있다.
매니퓰레이터(manipulator) 및 상기 물체의 좌표 정보를 기초로 상기 매니퓰레이터를 제어하는 매니퓰레이터 제어부를 더 포함할 수 있다.
본 발명의 다른 실시예에 따른 로봇 헤드부는 요오 구동부, 상기 요오 구동 부에 연결되어 있고, 상기 요오 구동부에 의해 요오 방향으로 구동되는 제1 프레임, 영상 촬영부가 장착되어 있고, 상기 제1 프레임에 연결되어 있으며, 제1 피치 구동부에 의해 상기 제1 프레임에 대하여 상대적으로 피치 방향으로 구동되는 제2 프레임 및 레이저 스캐닝부가 장착되어 있고, 상기 제2 프레임에 연결되어 있으며, 제2 피치 구동부에 의해 상기 제2 프레임에 대하여 상대적으로 피치 방향으로 구동되는 제3 프레임을 포함한다.
상기 제1, 제2 피치 구동부는 회전모터일 수 있다.
본 발명의 다른 실시예에 따른 로봇 제어 방법은 영상 촬영부로 촬영되는 영상 정보를 처리하여 물체를 식별하는 단계, 상기 물체를 포함하는 일정 영역을 레이저 스캐닝하여 3차원 좌표 정보를 구하는 단계 및 상기 영상 정보와 상기 3차원 좌표 정보를 매핑하여 상기 물체의 좌표 정보를 구하는 단계를 포함한다.
상기 영상 촬영부로 촬영되는 영상의 중심이 상기 물체의 중심과 일치하도록 상기 영상 촬영부를 위치시키는 단계를 더 포함하고, 상기 일정 영역은 상기 물체의 중심을 중심으로 할 수 있다.
상기 레이저 스캐닝을 통해 구해진 3차원 좌표 정보는 구형 좌표계 기반의 정보이며, 상기 구형 좌표계 기반의 3차원 좌표 정보를 직교 좌표계 기반으로 변환하는 단계를 더 포함할 수 있다.
상기 물체의 좌표 정보를 기초로 매니퓰레이터를 제어하는 단계를 더 포함할 수 있다.
본 발명의 다른 실시예에 따른 컴퓨터 매체는 상기한 방법 중 어느 하나를 실행시키기 위한 프로그램을 기록한다.
이와 같이 본 발명에 의하면 한 대의 카메라만을 사용하여 로봇 시스템의 부하를 줄이면서도 물체의 정확한 위치 정보를 얻을 수 있는 장점이 있다.
또한 카메라로 얻어지는 2차원 영상 정보만을 분석해서는 정확한 거리 및 좌표 정보를 얻기 어려운 장애물, 예컨대 단조로운 색 및 패턴으로 이루어진 벽 등과 같은 장애물에 대해서도 레이저 스캐너를 사용하여 3차원 정보를 획득함으로써 보다 정확한 좌표 및 거리 정보를 구할 수 있으며 따라서 더욱 정밀한 매니퓰레이션이 가능하다.
첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세하게 설명한다.
먼저, 도 1 내지 도 3을 참고하여 본 발명의 한 실시예에 따른 로봇 헤드에 대하여 상세하게 설명한다.
도 1은 본 발명의 한 실시예에 따른 로봇 시스템의 로봇 헤드를 측면에서 관찰한 도면이고, 도 2는 도 1의 로봇 헤드를 뒷면에서 관찰한 도면이며, 도 3은 도 1의 로봇 헤드가 요오 운동(yawing)하는 모습을 나타낸 도면이다.
도 1 및 도 2를 참고하면, 물체를 추적하기 위해 상하, 좌우로 회전할 수 있는 로봇 헤드(110)는 요오 구동부(111)를 구비하는 지지대(119), 제1 피치 구동 부(114)가 장착되어 있는 제1 프레임(112), 영상 촬영부(113)가 장착되어 있는 제2 프레임(116), 레이저 스캐닝부(115)와 제2 피치 구동부(117)를 구비하는 제3 프레임(118)을 포함하고 있다.
제1 프레임(112)은 요오 구동부(111)에 연결되어 있다. 요오 구동부(111)에 의해 제1 프레임(112)은 지지대(119)에 대하여 상대적으로 요오 운동할 수 있다. 여기서, 요오 구동부(111)는 회전모터일 수 있다.
또한 제1 프레임(112)에는 제1 피치 구동부(114)가 장착되어 있다.
그리고 제1 피치 구동부(114)에는 제2 프레임(116)이 연결되어 있다. 여기서, 제1 피치 구동부(114)는 회전모터일 수 있다.
제2 프레임(116)은 'ㄷ' 자 형상을 띠고 있으며, 중앙 부위에는 영상 촬영부(113)가 장착되어 있다. 한편, 영상 촬영부(113)는 물체를 식별하기 위하여 장착되고 이를 이용하여 추적하고자 하는 물체를 판단하고 좌표를 얻는다. 영상 촬영부(113)로 카메라를 이용할 수 있는데, 단일 카메라를 이용하게 되면 시스템 전체의 부하를 줄일 수 있다. 다만 2대의 카메라를 사용할 수도 있는데, 이때는 로봇이 볼 수 있는 영역이 넓어질 수 있다. 이때 영상 촬영부(113)는 거리정보를 얻는 것이 아니라 물체를 식별하고 추적하는데 사용한다.
제2 프레임(116)에는 제2 피치 구동부(117)가 연결되어 있다. 제2 피치 구동부(117)는 회전모터일 수 있다.
제2 피치 구동부(117)에는 제3 프레임(118)이 연결되어 있고, 제3 프레임(118)에는 레이저 스캐닝부(115)가 장착되어 있다. 특히, 레이저 스캐닝부(115) 는 로봇 헤드의 하부에 장착되어 있어, 영상 촬영부(113) 등 로봇 헤드부(110)의 다른 구성요소와의 간섭을 최대한 줄일 수 있다.
이와 같은 구성을 가진 본 발명에 따른 로봇 헤드부(110)는 다음과 같이 작동한다.
먼저, 로봇 헤드부(110)의 요오 운동은 요오 구동부(111)가 제1 프레임(112)을 지지대(119)에 대하여 상대적으로 요오 방향으로 구동함으로써 행해진다.
요오 운동시에, 제1 프레임(112)에 장착되어 있는 영상 촬영부(113)와, 제3 프레임(118)에 장착되어 있는 레이저 스캐닝부(115)가 요오 방향으로 움직이게 된다.
그 다음, 영상 촬영부(113)의 피치 운동(pitching)은 제1 피치 구동부(114)를 작동시켜줌으로써, 제2 프레임(116)이 제1 프레임(112)에 상대적으로 피치 운동하게 된다. 이를 통하여, 영상 촬영부(113)가 피치 방향으로 움직이면서 물체를 추적할 수 있게 된다.
특히, 본 발명에서는 제2 피치 구동부(117)를 작동시켜줌으로써, 제3 프레임(118)이 제2 프레임(116)에 대하여 상대적으로 피치 운동하게 된다. 즉, 영상 촬영부(113)는 움직이지 않는 상태에서 레이저 스캐닝부(115)가 피치 방향으로 움직이면서 물체와의 거리를 측정할 수 있다.
도 3을 참고하면, 요오 구동부(111)를 작동시켜 로봇 헤드부(110)가 요오 운동하는 모습이 예시되어 있다.
다음으로 도 4를 참조하여 본 발명의 일 실시예에 따른 로봇 헤드부가 장착 된 로봇 시스템에 대해 설명한다.
도 4는 본 발명의 한 실시예에 따른 로봇 시스템의 블록도이다
도 4를 참고하면, 본 발명의 한 실시예에 따른 로봇 시스템(100)은 로봇 헤드부(110), 영상 처리부(120), 주 제어부(130), 매니퓰레이터 제어부(140), 매니퓰레이터(142)를 포함한다.
로봇 헤드부(110)는 로봇 시스템의 주변 환경을 촬영하여 영상 정보를 생성하고, 3차원 레이저 스캐닝을 수행하여 주변 환경에 대한 3차원 좌표 정보를 구한다. 이를 위해 로봇 헤드부(110)는 영상 촬영부(113)와 레이저 스캐닝부(115)를 포함할 수 있다.
영상 촬영부(113)는 로봇 시스템의 주변 환경을 촬영하여 영상 정보를 생성한다. 영상 촬영부(113)는 CCD(charge-coupled device)카메라 또는 CMOS(complementary metal oxide semiconductor)카메라로 구현할 수 있다.
레이저 스캐닝부(120)는 레이저 스캐닝을 통해 주변 환경에 대한 3차원 좌표 정보를 얻을 수 있으며, 레이저 거리 측정기(Laser Range Finder)로 구현할 수 있다. 특히 본 발명에 따른 레이저 스캐닝부(115)는 주 제어부(130)의 제어에 따라 목표 물체의 중심을 중심으로 일정 영역에 대한 레이저 스캐닝을 수행한다. 여기서 레이저 스캐닝 되는 영역은 영상 촬영부(113)가 목표 물체를 중심으로 하여 촬영한 영역과 일치되도록 하는 것이 바람직하다.
영상 처리부(120)는 영상 촬영부(113)에서 생성된 영상 정보에 대해 머신 비전 알고리즘을 이용한 이미지 프로세싱을 수행하여 주변 환경으로부터 목표 물체를 식별할 수 있다. 영상 처리부(120)는 식별된 물체에 대해 2차원 좌표 정보를 산출할 수 있으며 이를 기초로 물체의 중심 좌표를 구할 수 있다.
주 제어부(130)는 로봇 시스템을 전체적으로 제어하는 기능을 수행한다. 특히 주 제어부(130)는 영상의 중심에 목표 물체의 중심이 위치하게 촬영될 수 있도록 영상 촬영부(113)를 제어한다. 또한 주 제어부(130)는 레이저 스캐닝부(115)가 물체의 중심을 중심으로 주변 환경을 레이저 스캐닝하도록 제어한다.
또한 주 제어부(130)는 영상 처리부(120)로부터 전달받은 주변 환경 및 목표 물체에 대한 2차원 좌표 정보와 레이저 스캐닝부(115)로부터 전달받은 주변 환경의 3차원 좌표 정보를 맵핑(mapping)한다. 이를 통해 주 제어부(130)는 목표 물체에 대응하는 3차원 좌표 정보를 구할 수 있으며, 목표 물체의 3차원 좌표 정보를 이용하여 로봇 시스템과의 거리를 구할 수 있다.
또한 주 제어부(130)는 목표 물체에 대한 3차원 좌표 정보와 거리 정보를 기초로 매니퓰레이터 제어부(140)에 목표 물체에 대한 조작 명령을 내릴 수 있다. 예를 들어, 목표 물체를 집어서 소정 위치로 이동시키게 하는 등의 조작 명령을 내릴 수 있다.
한편 주 제어부(130)는 레이저 스캐닝부(120)에서 구해진 3차원 좌표 정보가 구형 좌표계 기반이고 매니퓰레이터(142)가 직교 좌표계 기반으로 동작할 경우 아래 수학식 1과 같이 구형 좌표계 기반의 3차원 좌표 정보를 직교 좌표계 기반으로 변환할 수 있다.
Figure 112007051413803-pat00001
Figure 112007051413803-pat00002
Figure 112007051413803-pat00003
매니퓰레이터 제어부(140)는 주 제어부(130)의 조작 명령에 따라 매니퓰레이터(142)를 조작한다.
매니퓰레이터(142)는 로봇 시스템이 목표 물체에 대해 작업을 할 수 있도록 여러 방향으로 동작이 가능한 축과 이에 연결된 관절로 이루어질 수 있다. 매니퓰레이터(142)는 매니퓰레이터 제어부(140)의 제어에 따라 목표 물체에 직접 작업을 수행한다.
그러면 도 5를 참고하여 본 발명의 한 실시예에 따른 로봇 시스템의 제어 방법에 대하여 상세하게 설명한다.
도 5는 본 발명의 한 실시예에 따른 로봇 시스템의 제어 방법을 나타낸 흐름도이다.
도 4 및 도 5를 참고하면, 먼저 본 발명에 따른 로봇 시스템은 영상 촬영부(113)에서 촬영된 주변 환경의 영상 정보에 대해 영상 처리부(120)에서 이미지 프로세싱을 수행하여 목표 물체를 식별하고 추적한다(S510). 이때 영상 처리부(120)는 목표 물체의 중심 좌표를 구해서 주 제어부(130)로 전달할 수 있다.
이후 주 제어부(130)는 목표 물체의 중심 좌표를 이용하여 영상의 중심과 물 체의 중심이 일치하는 영상을 촬영할 수 있도록 영상 촬영부(113)를 위치시킨다(S520).
다음으로 주 제어부(130)는 물체의 중심을 중심으로 일정 영역을 레이저 스캐닝 하도록 레이저 스캐닝부(115)를 제어한다(S530). 이때 레이저 스캐닝되는 영역은 영상 촬영부(113)에서 촬영한 영역과 일치되도록 하는 것이 바람직하다. 이를 통하여 로봇 시스템은 주변 환경 및 물체에 대한 2차원 영상 정보 및 3차원 좌표 정보를 획득할 수 있다.
이후 주 제어부(130)는 영상 처리부(120)로부터 전달받은 주변 환경에 대한 2차원 좌표 정보와 레이저 스캐닝부(115)로부터 전달받은 주변 환경의 3차원 좌표 정보를 맵핑(mapping)한다(S540). 이에 의해 주 제어부(130)는 목표 물체에 대응하는 3차원 좌표 정보를 구할 수 있으며, 목표 물체의 3차원 좌표 정보를 이용하여 로봇 시스템과의 거리를 구할 수 있다(S550).
마지막으로 주 제어부(130)가 목표 물체에 대한 3차원 좌표 정보와 거리 정보를 기초로 매니퓰레이터 제어부(140)에 목표 물체에 대한 조작 명령을 내리면, 매니퓰레이터 제어부(140)는 매니퓰레이터(142)를 조작하여 주 제어부(130)로부터 전달된 조작 명령에 따라 목표 물체에 해당 작업을 수행한다(S560).
본 발명의 실시예는 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터로 읽을 수 있는 매체를 포함한다. 이 매체는 지금까지 설명한 것과 같이 본 발명의 실시예에 따른 로봇 시스템 제어 방법을 실행시키기 위한 프로그램 또는 프로세스를 기록한다. 이 매체는 프로그램 명령, 데이터 파 일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 이러한 매체의 예에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 자기 매체, CD 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 자기-광 매체, 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치 등이 있다. 또는 이러한 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의하여 실행될 수 있는 고급 언어 코드를 포함한다.
이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것이 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리 범위에 속하는 것이다.
도 1은 본 발명의 한 실시예에 따른 로봇 시스템의 로봇 헤드부를 측면에서 관찰한 도면이다.
도 2는 도 1의 로봇 헤드부를 뒷면에서 관찰한 도면이다.
도 3은 도 1의 로봇 헤드가 요오 운동하는 모습을 나타낸 도면이다.
도 4는 본 발명의 한 실시예에 따른 로봇 시스템의 블록도이다.
도 5는 본 발명의 한 실시예에 따른 로봇 시스템의 제어 방법을 나타낸 흐름도이다.
<도면부호의 설명>
100: 로봇 시스템, 110: 로봇 헤드부,
111: 요오 구동부, 112: 제1 프레임,
113: 영상 촬영부, 114: 제1 피치 구동부,
115: 레이저 스캐닝부, 116: 제2 프레임,
117: 제2 피치 구동부, 118: 제3 프레임,
119: 지지대, 120: 영상 처리부,
130: 주 제어부, 140: 매니퓰레이터 제어부,
142: 매니퓰레이터

Claims (11)

  1. 삭제
  2. 삭제
  3. 삭제
  4. 삭제
  5. 요오 구동부,
    상기 요오 구동부에 연결되어 있고, 상기 요오 구동부에 의해 요오 방향으로 구동되는 제1 프레임,
    영상 촬영부가 장착되어 있고, 상기 제1 프레임에 연결되어 있으며, 제1 피치 구동부에 의해 상기 제1 프레임에 대하여 상대적으로 피치 방향으로 구동되는 제2 프레임 및
    레이저 스캐닝부가 장착되어 있고, 상기 제2 프레임에 연결되어 있으며, 제2 피치 구동부에 의해 상기 제2 프레임에 대하여 상대적으로 피치 방향으로 구동되는 제3 프레임
    을 포함하는 것을 특징으로 하는 로봇 헤드부.
  6. 제5항에서,
    상기 제1 피치 구동부와 상기 제2 피치 구동부는 회전모터인 것을 특징으로 하는 로봇 헤드부.
  7. 삭제
  8. 삭제
  9. 삭제
  10. 삭제
  11. 삭제
KR1020070070949A 2007-07-16 2007-07-16 로봇 헤드 KR100868882B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070070949A KR100868882B1 (ko) 2007-07-16 2007-07-16 로봇 헤드

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070070949A KR100868882B1 (ko) 2007-07-16 2007-07-16 로봇 헤드

Publications (1)

Publication Number Publication Date
KR100868882B1 true KR100868882B1 (ko) 2008-11-14

Family

ID=40284283

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070070949A KR100868882B1 (ko) 2007-07-16 2007-07-16 로봇 헤드

Country Status (1)

Country Link
KR (1) KR100868882B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101755845B1 (ko) * 2015-09-18 2017-07-07 현대자동차주식회사 부품 검사 장치
CN108214484A (zh) * 2016-12-22 2018-06-29 常州轻工职业技术学院 一种管道堵塞机械手夹具控制系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08272425A (ja) * 1995-03-29 1996-10-18 Fanuc Ltd 非接触でロボットに座標系を教示する方法
KR20040054894A (ko) * 2002-12-18 2004-06-26 주식회사옌트 3차원 카메라 유닛을 이용한 피검사체의 3차원 위치 측정방법
JP2006031642A (ja) 2004-07-22 2006-02-02 Ihi Aerospace Co Ltd 移動体の自己位置特定方法
KR20060034523A (ko) * 2004-10-19 2006-04-24 현대자동차주식회사 3차원 비젼 시스템

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08272425A (ja) * 1995-03-29 1996-10-18 Fanuc Ltd 非接触でロボットに座標系を教示する方法
KR20040054894A (ko) * 2002-12-18 2004-06-26 주식회사옌트 3차원 카메라 유닛을 이용한 피검사체의 3차원 위치 측정방법
JP2006031642A (ja) 2004-07-22 2006-02-02 Ihi Aerospace Co Ltd 移動体の自己位置特定方法
KR20060034523A (ko) * 2004-10-19 2006-04-24 현대자동차주식회사 3차원 비젼 시스템

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101755845B1 (ko) * 2015-09-18 2017-07-07 현대자동차주식회사 부품 검사 장치
US9987750B2 (en) 2015-09-18 2018-06-05 Hyundai Motor Company Rotating device for vehicle part test device
CN108214484A (zh) * 2016-12-22 2018-06-29 常州轻工职业技术学院 一种管道堵塞机械手夹具控制系统
CN108214484B (zh) * 2016-12-22 2024-05-10 常州轻工职业技术学院 一种管道堵塞机械手夹具控制系统

Similar Documents

Publication Publication Date Title
KR101863360B1 (ko) 레이저 스캐너를 이용한 대상 물체의 실시간 동적 위치 추적이 가능한 3d 레이저 스캐너 시스템
US7646917B2 (en) Method and apparatus for detecting corner
JP4533659B2 (ja) レーザー計測により地図画像を生成する装置及び方法
JP4734552B2 (ja) 路面の3次元形状の計測方法及びその装置
JP7111114B2 (ja) 情報処理装置、情報処理方法及び情報処理システム
US8909375B2 (en) Nodding mechanism for a single-scan sensor
WO2019012770A1 (ja) 撮像装置及びモニタリング装置
CN112634318B (zh) 一种水下维修机器人的遥操作系统和方法
US11331799B1 (en) Determining final grasp pose of robot end effector after traversing to pre-grasp pose
KR101341204B1 (ko) 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치 및 방법
CN110163963B (zh) 一种基于slam的建图装置和建图方法
JP2008023630A (ja) アームを誘導可能な移動体およびアームを誘導する方法
CN109623815B (zh) 一种用于无人打捞船的波浪补偿双机器人系统及方法
JP4333611B2 (ja) 移動体用の障害物検出装置
JP6855491B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
US20200192341A1 (en) Collaborative Determination Of A Load Footprint Of A Robotic Vehicle
JP7138856B2 (ja) 俯瞰映像提示システム
US20230123629A1 (en) 3d computer-vision system with variable spatial resolution
CN114434123B (zh) 一种空中线夹的机械臂定位拆卸方法、装置及存储介质
US11010916B2 (en) Method of configuring camera position suitable for localization and robot implementing same
KR100868882B1 (ko) 로봇 헤드
JP2004239791A (ja) ズームによる位置計測方法
JP7365567B2 (ja) 計測システム、計測装置、計測方法及び計測プログラム
KR100784125B1 (ko) 단일 카메라를 이용한 이동 로봇의 랜드 마크의 좌표 추출방법
JP2005205519A (ja) ロボットハンド装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110907

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20121011

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee