KR101093793B1 - Method for measuring 3d pose information using virtual plane information - Google Patents

Method for measuring 3d pose information using virtual plane information Download PDF

Info

Publication number
KR101093793B1
KR101093793B1 KR1020100040898A KR20100040898A KR101093793B1 KR 101093793 B1 KR101093793 B1 KR 101093793B1 KR 1020100040898 A KR1020100040898 A KR 1020100040898A KR 20100040898 A KR20100040898 A KR 20100040898A KR 101093793 B1 KR101093793 B1 KR 101093793B1
Authority
KR
South Korea
Prior art keywords
information
coordinate system
virtual plane
feature points
feature
Prior art date
Application number
KR1020100040898A
Other languages
Korean (ko)
Other versions
KR20110121343A (en
Inventor
이찬호
오종규
허종성
정성현
이상훈
박상범
한영준
한헌수
Original Assignee
현대중공업 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대중공업 주식회사 filed Critical 현대중공업 주식회사
Priority to KR1020100040898A priority Critical patent/KR101093793B1/en
Publication of KR20110121343A publication Critical patent/KR20110121343A/en
Application granted granted Critical
Publication of KR101093793B1 publication Critical patent/KR101093793B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 가상 평면 정보를 사용한 3차원 자세 정보 획득 방법을 제공한다. 상기 가상 평면 정보를 사용한 3차원 자세 정보 획득 방법은 기 설정된 정보를 기초로 작업 대상 물체의 특징 정보를 추출하여 등록하고, 상기 작업 대상 물체에 대한 2차원 영상에서의 특징 정보를 추출하여 상기 등록된 특징 정보들과 일치 되는 특징점들을 사용하여 가상 평면 정보로 구성하고, 상기 가상 평면 정보를 기초로 기준 좌표계에 대한 작업 대상 물체의 3차원 자세 정보를 획득한다. 따라서, 본 발명은 단일 카메라로부터 획득한 영상에서 특징 정보들을 추출한 후, 획득되는 임의의 특징점들을 이용한 가상의 평면을 구성하여 각 가상 평면에 대한 카메라 자세 정보를 획득하여 작업 대상 물체의 3차원 자세정보를 빠르고 정확하게 계측할 수 있다.The present invention provides a 3D attitude information acquisition method using virtual plane information. The 3D posture information obtaining method using the virtual plane information extracts and registers feature information of a target object based on preset information, and extracts feature information of a 2D image of the target object. The feature points matched with the feature information are used to configure virtual plane information, and based on the virtual plane information, three-dimensional posture information of a target object with respect to a reference coordinate system is obtained. Accordingly, the present invention extracts feature information from an image obtained from a single camera, and then constructs a virtual plane using arbitrary feature points obtained to obtain camera pose information for each virtual plane to obtain 3D pose information of the object to be worked on. Can be measured quickly and accurately.

Description

가상 평면 정보를 사용한 3차원 자세 정보 획득 방법{METHOD FOR MEASURING 3D POSE INFORMATION USING VIRTUAL PLANE INFORMATION}{METHOD FOR MEASURING 3D POSE INFORMATION USING VIRTUAL PLANE INFORMATION}

본 발명은 가상 평면 정보를 사용한 3차원 자세 정보 획득 방법에 관한 것으로서, 보다 상세하게는 단일 카메라로부터 획득한 영상에서 특징 정보들을 추출한 후, 획득되는 임의의 특징점들을 이용한 가상의 평면을 구성하여 각 가상 평면에 대한 카메라 자세 정보를 획득하여 작업 대상 물체의 3차원 자세정보를 빠르고 정확하게 계측할 수 있는 가상 평면 정보를 사용한 3차원 자세 정보 획득 방법에 관한 것이다.The present invention relates to a method for acquiring three-dimensional attitude information using virtual plane information. More particularly, after extracting feature information from an image obtained from a single camera, a virtual plane using arbitrary feature points obtained is configured to configure each virtual. The present invention relates to a three-dimensional attitude information acquisition method using virtual plane information capable of quickly and accurately measuring three-dimensional attitude information of a target object by acquiring camera attitude information about a plane.

최근 가정 혹은 공공장소에서 인간과의 상호공존을 통한 서비스 지원용 지능형 서비스로봇에 대한 관심과 개발이 활발히 추진되고 있다. 또한, 자동차 제조공정에서의 지그리스 환경하에서 비정렬 작업물의 핸들링이나 조립 등의 작업을 로봇으로 수행하기 위한 연구와 적용 수요 역시 확대되고 있다.Recently, interest and development of intelligent service robots for service support through mutual coexistence with human beings in homes or public places have been actively promoted. In addition, research and application demands for carrying out tasks such as handling or assembling unaligned workpieces under robots in a vehicle manufacturing process are expanding.

자동화 시스템에서 물체에 대한 인식은 시스템의 지능화를 높여주는 기술이다. 하지만, 물체에 대한 인식을 하였을 때 물체를 이용한 조립 등의 공정을 위해서는 물체의 3차원 자세 정보를 요구하게 된다. 이러한 요구는 3차원 자세 정보 결정 기술이 발전할 수 있는 계기가 되어 3D 비전기술의 발전과 더불어 자동차 제조공정에서의 3D 로봇비전 적용사례가 확대되고 있다.Object recognition in automated systems is a technology that increases the intelligence of the system. However, when the object is recognized, the 3D posture information of the object is required for a process such as assembly using the object. This demand is the opportunity for the development of 3D attitude information determination technology, and the application of 3D robot vision in the automobile manufacturing process is expanding along with the development of 3D vision technology.

일 예로서 자동차 도장공장에서 차체의 3차원 위치 및 자세를 3D 비전시스템으로 계측하여 차체의 실링 작업을 정교하게 수행하는 로봇비전시스템이 있다.As an example, there is a robot vision system that precisely performs sealing work of a vehicle by measuring a three-dimensional position and posture of the vehicle body using a 3D vision system in an automobile painting factory.

대표적인 3차원 자세 결정 기법으로 인간의 시각계를 기반으로 하는 스테레오 비전 기술을 들 수 있다. 스테레오 비전 기술에 대한 오랜 연구 기간 만큼 많은 연구 결과를 나타내고 있다. 하지만, 스테레오 비전 기술과 같은 다수의 카메라를 이용하는 시스템의 경우 시스템 점유 공간과 비용의 효율성 면에서 많은 손해를 감수해야 한다.A typical three-dimensional attitude determination technique is stereo vision technology based on the human visual system. As much as the long research period of stereo vision technology, the research results are shown. However, systems that use multiple cameras, such as stereo vision technology, must suffer a lot in terms of system footprint and cost efficiency.

특히 카메라들간의 기하 관계에 대한 엄격한 제약을 요구하며, 이러한 관계들이 시스템의 성능에 직접적인 영향을 끼치게 된다. 또한 각 카메라로부터 획득된 특징점들간의 대응 관계를 풀어야 하는 문제도 중요한 과정으로 포함되어 있다.In particular, it imposes strict constraints on the geometric relationships between the cameras, which directly affect the performance of the system. In addition, the problem of solving the correspondence between the feature points acquired from each camera is included as an important process.

이 또한 시스템의 성능에 큰 영향을 끼치기 때문에 많은 연구가들에 의해 연구되어지고 있는 내용이다. 이러한 시스템의 제약적인 성능으로 인하여 산업 현장에서는 단일 카메라를 이용한 3차원 자세 결정 기법을 많이 사용하고 있다.This also has been studied by many researchers because it has a big impact on the performance of the system. Due to the limited performance of these systems, industrial sites are using three-dimensional attitude determination techniques with a single camera.

단일 카메라를 이용한 기법들 가운데 좋은 성능을 나타내는 기법이 Active vision 기법이다. 이 기법에서 사용되어지는 센서 모듈을 카메라와 레이저 센서를 융합하여 사용하였기 때문에 레이저 비전 센서라 칭한다.Among the techniques using a single camera, the one that shows good performance is the active vision technique. The sensor module used in this technique is called a laser vision sensor because it uses a camera and a laser sensor.

일반적인 단일 카메라 기법의 문제는 3차원 대상 물체의 형태가 오목한 형태를 가지고 있을 때 나타난다. 이러한 문제는 대상 물체의 특징 정보가 부족한 경우에 부각되어지기 때문에 Active vision 시스템의 중요성이 강조되어진다.The problem with the general single-camera technique arises when the shape of a three-dimensional object is concave. This problem is emphasized when there is a lack of characteristic information of the target object, which emphasizes the importance of the active vision system.

그러나 종래의 상기와 같은 기법은 고정된 FOV와 고가의 레이저 비전 센서를 사용해야 하는 문제점을 갖는다.However, the conventional technique as described above has a problem of using a fixed FOV and an expensive laser vision sensor.

특히 차체 위치 계측 방법에서 레이저 비전 센서를 많이 이용하고 있는데 센서를 바닥면에 고정설치하여 사용함에 따라 차종별 차체길이가 다양할 경우, 다수개의 레이저센서를 설치하게 되어 설치 및 유지보수 비용이 증가하는 문제점을 갖는다.In particular, the laser position sensor is widely used in the method of measuring the position of the car body. If the car body length varies according to the car type by fixedly installing the sensor on the floor, the installation and maintenance cost increase due to the installation of a plurality of laser sensors. Has

따라서, 본 발명은 전술한 문제점을 해소하기 위하여 창출된 것으로서, 본 발명의 목적은 작업 대상 물체에 대한 특징 정보가 단일 평면에 존재하는 경우 3차원 관계를 보다 간단히 풀수 있는 바, 영상에서 획득 가능한 특징정보들을 기반으로 가상 평면을 구성하고 각 가상 평면에 대한 카메라 자세정보를 이용하여 작업 대상물의 정확한 3차원 자세정보를 결정하는 것으로, 대상물체에 존재하는 특징정보들을 단일 평면에서 표현할 수 없는 복잡한 대상물체에 대해서도 단일카메라로 획득한 임의의 3개의 특징점 정보를 이용하여 가상의 평면정보를 구성함으로써 작업 대상물의 3차원 위치 및 자세를 손쉽게 계측할 수 있을 뿐만 아니라, 일 예로서 차체와 같은 대형 작업 대상물의 경우에도 복수개의 단일카메라를 작업 대상 물체의 주요 국부 위치에 설치한 후, 각 단일 카메라로부터 획득되어진 화상 정보에서 획득 가능한 주요 특징 정보들을 기반으로 복수개의 가상평면을 구성하여, 대형 작업 대상 물체의 3차원 위치 및 자세를 빠르고 정확하게 계측할 수 있는 가상 평면 정보를 사용한 3차원 자세 정보 획득 방법을 제공함에 있다.Therefore, the present invention was created to solve the above-mentioned problems, and an object of the present invention is to solve the three-dimensional relationship more easily when the feature information on the object to be worked on exists in a single plane, which can be obtained from an image. Compose a virtual plane based on the information and determine the exact three-dimensional pose information of the work object by using the camera pose information of each virtual plane, and it is a complex object that cannot express the characteristic information of the object in a single plane. The virtual plane information is constructed by using any three feature points acquired by a single camera, so that not only the three-dimensional position and posture of the workpiece can be easily measured, but also an example of a large workpiece such as a vehicle body. Even when multiple single cameras are placed in the main local position of the object being worked on. After positioning, a plurality of virtual planes are constructed based on the main feature information obtained from the image information acquired from each single camera, and the virtual plane information is used to quickly and accurately measure the three-dimensional position and posture of a large target object. It is to provide a three-dimensional attitude information acquisition method.

바람직한 양태에 있어서, 본 발명은 가상 평면 정보를 사용한 3차원 자세 정보 획득 방법을 제공한다.In a preferred aspect, the present invention provides a method for obtaining three-dimensional attitude information using virtual plane information.

본 발명의 가상 평면 정보를 사용한 3차원 자세 정보 획득 방법은 기 설정된 정보를 기초로 작업 대상 물체의 특징 정보를 추출하여 등록하고, 상기 작업 대상 물체에 대한 2차원 영상에서의 특징 정보를 추출하여 상기 등록된 특징 정보들과 일치 되는 특징점들을 사용하여 가상 평면 정보로 구성하고, 상기 가상 평면 정보를 기초로 기준 좌표계에 대한 작업 대상 물체의 3차원 자세 정보를 획득하여 이루어진다.The 3D posture information acquisition method using the virtual plane information of the present invention extracts and registers feature information of a target object based on preset information, and extracts feature information of a 2D image of the target object. It consists of virtual plane information using feature points that match the registered feature information, and obtains 3D posture information of a target object with respect to a reference coordinate system based on the virtual plane information.

여기서, 단일개의 영상 취득 장치를 상기 작업 대상 물체의 설정된 특징 위치에 배치하고, 상기 특정 위치에서의 상기 기준 좌표계에 대한 작업 대상 물체의 3차원 자세 정보를 획득하는 것이 바람직하다.Here, it is preferable to arrange a single image capturing device at a set characteristic position of the work object, and to acquire three-dimensional attitude information of the work object with respect to the reference coordinate system at the specific position.

또한, 여기서, 다수개의 영상 취득 장치들을 상기 작업 대상 물체의 설정된 국부적 특징 위치에 배치하고, 상기 국부적 특정 위치에서의 국부 영역에 대한 자세 정보를 산출하고, 상기 산출된 자세 정보들을 취합하여 상기 기준 좌표계에 대한 작업 대상 물체의 3차원 자세 정보를 획득할 수 있다.In addition, the plurality of image capturing apparatuses may be disposed at a set local feature position of the work object, calculate posture information on a local area at the local specific position, and collect the calculated posture information to collect the reference coordinate system. Three-dimensional attitude information of the object to be worked on can be obtained.

또한, 다수개의 영상 취득 장치들을 이동 가능한 이동 장치에 설치하여 상기 작업 대상 물체의 설정된 국부적 특징 위치에 이동시켜 배치하고, 상기 국부적 특정 위치에서의 국부 영역에 대한 자세 정보들을 산출하고, 상기 산출된 자세 정보들을 취합하여 상기 기준 좌표계에 대한 작업 대상 물체의 3차원 자세 정보를 획득할 수도 있다.In addition, a plurality of image capturing devices are installed in a movable mobile device to be moved and arranged at a set local feature position of the object to be worked on, to calculate posture information for a local area at the local specific position, and to calculate the calculated posture. The information may be collected to obtain three-dimensional attitude information of the object to be worked with respect to the reference coordinate system.

본 발명은 단일 평면 기반의 자세 결정 기법을 기반으로 하기 때문에 직관적인 기하 관계를 유도할 수 있는 효과가 있다.Since the present invention is based on a single plane-based attitude determination technique, it is possible to derive an intuitive geometric relationship.

또한, 본 발명은 각각의 가상 평면들은 추출된 특징점들 가운데 임의의 3개 점들만으로 구성되어, 이 점들에 의해 구성되어질 수 있는 가상의 평면 좌표계는 카메라 좌표계와의 관계를 간단한 평면 기반의 관계로 표현될 수 있는 효과를 갖는다.In addition, the present invention is that each virtual plane is composed of any three points of the extracted feature points, the virtual plane coordinate system that can be configured by these points represent the relationship with the camera coordinate system in a simple plane-based relationship Has the effect to be.

또한, 상기와 같이 이렇게 표현된 기하 관계는 일반적인 3차원 자세 결정 기법에 비해 간단한 형태를 가지기 때문에 보다 효율적인 결과를 유도할 수 있는 것으로, 이를 통해 단일카메라로 획득한 임의의 3개의 특징점 정보를 이용하여 가상의 평면정보를 구성함으로써 작업 대상물의 3차원 위치 및 자세를 손쉽게 계측할 수 있을 뿐만 아니라, 일 예로서 차체와 같은 대형 작업 대상물의 경우에도 복수개의 단일카메라를 작업대상물의 주요 국부 위치에 설치한 후, 각 단일카메라로부터 획득되어진 영상정보에서 획득 가능한 주요 특징정보들을 기반으로 복수개의 가상평면을 구성하여, 대형 작업 대상물의 3차원 위치 및 자세를 빠르고 정확하게 계측할 수 있는 효과를 갖는다.In addition, the geometric relations expressed as described above have a simpler shape than the general three-dimensional attitude determination technique, and thus more efficient results can be derived. By using arbitrary three-point information acquired by a single camera, By constructing virtual plane information, not only can you easily measure the three-dimensional position and posture of the work object, but also, for example, in the case of a large work object such as a car body, a plurality of single cameras are installed at the main local positions of the work object. Afterwards, by constructing a plurality of virtual planes based on the main feature information obtainable from the image information obtained from each single camera, it has the effect of quickly and accurately measuring the three-dimensional position and posture of the large work object.

도 1은 본 발명에 따른 가상 평면 기법을 이용한 3차원 자세계측 방법의 동작 프로세스 실시예를 보여주는 블록도이다.
도 2는 본 발명에 따르는 모델 등록 프로세스를 보여주는 블록도이다.
도 3은 본 발명에 따르는 단일 카메라에 의한 영상 기반 자세결정 단계를 보여주는 블록도이다.
도 4는 본 발명에 따르는 국부적 3차원(Local 3D) 정보 취합 단계를 보여주는 블록도이다.
도 5는 기준 좌표계에 대한 특징 벡터를 보여주는 도면이다.
도 6은 실세계 기준 좌표계에 대한 카메라와 작업 대상 물체 좌표계의 관계를 보여주는 도면이다.
도 7은 작업 대상 물체 좌표계에 대한 가상 평면 좌표계와의 관계를 보여주는 도면이다.
도 8은 대형 물체 좌표계에 대한 가상 평면 좌표계와의 관계를 보여주는 도면이다.
1 is a block diagram illustrating an embodiment of an operation process of a three-dimensional magnetic world-side method using a virtual plane technique according to the present invention.
2 is a block diagram showing a model registration process according to the present invention.
3 is a block diagram showing an image-based attitude determination step by a single camera according to the present invention.
4 is a block diagram showing a local 3D information collection step according to the present invention.
5 shows a feature vector for a reference coordinate system.
6 is a diagram illustrating a relationship between a camera and a work object coordinate system with respect to a real world reference coordinate system.
7 is a view illustrating a relationship with a virtual plane coordinate system with respect to a work object coordinate system.
8 is a diagram illustrating a relationship with a virtual plane coordinate system for a large object coordinate system.

이하, 첨부된 도면에 의하여 본 발명의 가상 평면 정보를 사용한 3차원 자세 정보 획득 방법을 설명하도록 한다.Hereinafter, the 3D attitude information acquisition method using the virtual plane information of the present invention will be described with reference to the accompanying drawings.

도 1을 참조 하면, 본 발명의 3차원 자세 취득 방법은 기 설정된 정보를 기초로 작업 대상 물체의 특징 정보를 추출하여 등록하는 모델 등록 단계와, 상기 작업 대상 물체에 대한 2차원 영상에서의 특징 정보를 추출하여 상기 등록된 특징 정보들과 일치 되는 특징점들을 사용하여 가상 평면 정보로 구성하는 가상 평면 정보 구성 단계와, 상기 가상 평면 정보를 기초로 기준 좌표계에 대한 작업 대상 물체의 3차원 자세 정보를 획득하는 3차원 자세 정보 획득 단계를 포함한다.Referring to FIG. 1, the method of acquiring a three-dimensional posture of the present invention includes a model registration step of extracting and registering feature information of a work object based on preset information, and feature information in a two-dimensional image of the work object. A virtual plane information constructing step of configuring virtual plane information using feature points corresponding to the registered feature information, and obtaining 3D posture information of a target object with respect to a reference coordinate system based on the virtual plane information. It includes a three-dimensional attitude information acquisition step.

[모델 등록 단계][Model Registration Step]

도 1 및 도 2를 참조 하면, 작업 대상 물체에 대한 미리 알려진 또는 기 설정된 CAD 정보를 기초로 작업 대상 물체의 특징 성분들을 추출하여 등록한다.1 and 2, the feature components of the target object are extracted and registered based on previously known or preset CAD information of the target object.

도 2를 참조 하면, 먼저 영상 취득 장치인 단일 카메라를 통하여 작업 대상 물체에 대한 2차원 영상인 단일 영상을 취득한다. 상기 취득된 영상 내에는 상기 기 설정된 CAD 정보를 포함하는 특징 성분들이 포함되는 것이 바람직하다.Referring to FIG. 2, first, a single image, which is a two-dimensional image of a target object, is acquired through a single camera that is an image acquisition device. Preferably, the acquired image includes feature components including the preset CAD information.

그리고, 상기 취득된 영상 내에 존재하는 특징 성분들을 특징 추출기를 통하여 추출한다. 여기서, 사용되는 특징 추출기는 SIFT나 SURF와 같은 3차원 특징 추출 모듈이 채택될 수 있다.Then, feature components existing in the acquired image are extracted through a feature extractor. Here, the feature extractor used may be a three-dimensional feature extraction module such as SIFT or SURF.

여기서, 상기와 같은 특징 추출 모듈들은 대상 물체의 변위가 크게 발생하는 경우 정확한 대응 관계를 결정하기 어려운 문제가 있을 수 있기 때문에, 국부 특징들에 대하여 본 발명에서는 해리스 코너 검출 기법나 일반적인 영상의 형태학적 기법인 구멍, 교차점 검출기등을 적용함으로써 정확한 대응 관계를 결정할 수도 있다.Here, the feature extraction modules as described above may have a problem in that it is difficult to determine an accurate correspondence relationship when a large displacement of an object occurs. Therefore, in the present invention, the Harris corner detection technique or the morphological shape of a general image may be used. By applying techniques such as holes, intersection detectors, etc., the exact correspondence can be determined.

이어, 상기와 같이 추출된 특징 성분들에 상응하는 CAD 정보를 등록한다. 특징 추출 모듈의 성능에 따라 3차원 자세 결정 모듈의 성능이 크게 영향을 받기 때문에 검출된 특징 정보들 가운데 가장 검출율이 높은 성분들을 우선적으로 선택하여 적용한다.Subsequently, CAD information corresponding to the extracted feature components is registered. Since the performance of the three-dimensional attitude determination module is greatly affected by the performance of the feature extraction module, the components having the highest detection rate among the detected feature information are first selected and applied.

또한 특징 정보들의 개수는 제안된 3차원 자세 결정 기법의 미지수의 개수를 만족해야 하기 때문에 최소 2개 이상의 가상 평면을 구성할 수 있는 6개 이상의 특징 성분들로 구성되도록 한다.In addition, since the number of feature information must satisfy the unknown number of the proposed three-dimensional attitude determination technique, it is composed of six or more feature components that can constitute at least two virtual planes.

그리고, 모델 등록 단계에서는 시스템 특성을 반영할 수 있는 특징점들을 선택 수용하도록 한다.In the model registration step, feature points that can reflect system characteristics are selected and accommodated.

최종적으로 이러한 특징 모델을 등록하기 위해서는 등록 모델에서 나타나는 CAD 정보의 기준 좌표계 즉 국부 영역의 좌표계에 대한 정보를 등록해야 한다. 국부 영역의 좌표계는 대형 대상 물체의 기준좌표계에 대한 각각의 단일 카메라 모델에 대한 대상 물체 기준좌표계를 의미하며, 이들 간의 기하 관계를 이용하여 동차 변환 행렬을 구성할 수 있다.Finally, in order to register such a feature model, it is necessary to register the reference coordinate system of the CAD information appearing in the registration model, that is, the information about the coordinate system of the local area. The local coordinate system refers to a target object coordinate system for each single camera model of the reference object system of a large object, and a homogeneous transformation matrix may be constructed using the geometric relationship therebetween.

[가상 평면 정보 구성 단계][Steps for Constructing Virtual Plane Information]

단일 카메라에 의한 영상 기반 자세결정 단계인 가상 평면 정보 구성 단계는 도 3에 보여지는 바와 같이 처음의 두 단계는 도 2에 도시된 모델 등록 단계와 동일 할 수 있다.As shown in FIG. 3, the first two steps may be the same as the model registration step shown in FIG. 2.

그리고, 취득된 영상으로부터 획득된 특징들은 모델 등록 단계에서 사용되는 특징 정보들과 비교하여 각각의 대응 관계를 결정한다.In addition, features acquired from the acquired image are compared with feature information used in the model registration step to determine respective correspondences.

여기서, 상기 추출된 특징 정보들 가운데 성긴 정도를 만족하는 특징 정보들을 이용하여 가상 평면 정보를 구성한다. 특징 정보 기반 가상 평면 결정 방법에서 대상 물체의 특징 점들이 단일 평면에 존재하는 경우 3차원 기하 정보 획득을 위해 직관적이고 간단한 선형 방정식을 구성할 수 있다.Here, the virtual plane information is configured by using feature information satisfying a coarse degree among the extracted feature information. In the feature information-based virtual plane determination method, when feature points of a target object exist in a single plane, an intuitive and simple linear equation may be constructed to obtain 3D geometric information.

이에 더하여, 3차원 공간 상에 존재하는 대상 물체의 특징 점들이 항상 단일 평면에 존재할 수 없기 때문에, 본 발명에서는 추출된 특징점들 가운데 임의의 3점을 이용하여 가상 평면을 구성하고, 각각의 가상 평면에 대한 카메라의 자세 정보를 결정할 수 있는 선형 시스템을 구성하는 것이 좋다.In addition, since the feature points of the target object existing in the three-dimensional space cannot always exist in a single plane, the present invention constructs a virtual plane by using any three points among the extracted feature points, and each virtual plane It is good practice to construct a linear system that can determine the attitude information of the camera for.

가상 평면과 대상 물체의 기준 좌표계와의 기하 관계는 알려진 상수항에 의해 표현되어지고, 대상물체 기준 좌표계와 카메라 기준좌표계와의 관계는 본 발명에서 구해야 할 미지수이기 때문에 미지수 영역과 알려진 상수항을 구별하여 선형 행렬식으로 구성할 수 있다. 이 때 가상 평면을 구성하는 특징 점들은 검출된 특징 점들 가운데 대응하는 CAD 정보와 함께 등록된 것들로 선택된다.The geometric relationship between the virtual plane and the reference coordinate system of the target object is represented by a known constant term, and the relationship between the object reference coordinate system and the camera reference coordinate system is unknown because it is unknown in the present invention. Can be configured as a determinant. At this time, the feature points constituting the virtual plane are selected as those registered with the corresponding CAD information among the detected feature points.

도 5에는 대상 물체 기준 좌표계에 대한 가상 평면 기준 좌표계의 관계를 보여주고 있다.5 shows a relationship between the virtual plane reference coordinate system and the target object reference coordinate system.

상기와 같이 결정된 특징점들 가운데 임의의 3 점들을 이용하여 가상 평면을 구성할 수 있고, 구성된 가상 평면에 대한 가상 평면 기준 좌표계는 대상 물체 좌표계와 수식 (1)와 같은 기하 관계로 표현할 수 있다. Any three points among the determined feature points may be configured to form a virtual plane, and the virtual plane reference coordinate system for the configured virtual plane may be represented by a geometric relationship such as a target object coordinate system and Equation (1).

[수식 1][Equation 1]

Figure 112010028248256-pat00001
Figure 112010028248256-pat00001

먼저 선택된 특징점들 가운데 임의의 한 점을 기준점으로 결정하면, 기준점에 대한 변위 벡터의 요소들은 수식(x)에서의 병진 관계의 요소값들로 대치될 수 있다. 기준점을 포함한 나머지 두 점에 대한 평면의 방정식을 이용하여 평면에 수직인 법선 벡터를 구하고, 이를 가상 평면 좌표계의 z축과 일치시키면 가상 평면 좌표계에서의 x-y 평면에 모든 특징점들이 위치하게 된다. 따라서, 수식 (1)에서의 회전 관계의 요소값들은 앞에서 언급한 법선 벡터를 일치 시키는 회전 변위 관계로 대치될 수 있다. 이처럼 일반적인 동차 변환 행렬에서의 회전 변환 행렬이 구성됨으로써 최종적인 동차 변환 관계를 구성할 수 있게 된다. If any one of the selected feature points is first determined as a reference point, the elements of the displacement vector with respect to the reference point may be replaced with the element values of the translational relationship in equation (x). Using a plane equation for the other two points, including the reference point, a normal vector perpendicular to the plane and matching it with the z-axis of the virtual plane coordinate system places all the feature points on the x-y plane in the virtual plane coordinate system. Therefore, the element values of the rotational relationship in Equation (1) can be replaced by the rotational displacement relationship matching the normal vector mentioned above. As such, by forming a rotation transformation matrix in a general homogeneous transformation matrix, a final homogeneous transformation relationship can be formed.

다시 설명하자면, F0를 기준으로 F1과 F2가 이루는 하나의 평면을 x-y 평면이라 하고, 이 평면에 대한 좌표계를 {P}라 했을 때 기준좌표계{O}에 대한 동차변환행렬(homogeneous transformation matrix)

Figure 112010028248256-pat00002
로 표현할 수 있다. 이들 관계는 수식 2로 표현되어진다.In other words, a plane formed by F1 and F2 with respect to F0 is called an xy plane, and a homogeneous transformation matrix with respect to the reference coordinate system {O} when the coordinate system for this plane is {P}.
Figure 112010028248256-pat00002
. These relationships are represented by equation (2).

동차변환행렬

Figure 112010028248256-pat00003
는 병진관계(translation)와 회전관계(rotation)를 나타내는 인자들로 구성된다. 임의의 특징점 F0를 원점으로 하는 좌표계 {P}에 대한 병진관계는 원점벡터의 값이 병진관계의 요소들이기 때문에 별도의 계산 과정이 필요 없다. 하지만, 회전관계를 표현하기 위해서는 나머지 특징 벡터들과 원점으로 결정된 특징 벡터들과의 관계를 이용하여 결정할 수 있다.Homogeneous transformation matrix
Figure 112010028248256-pat00003
Is composed of factors representing translation and rotation. The translational relationship of the coordinate system {P} with the origin of the arbitrary feature point F0 does not need a separate calculation process because the values of the origin vector are elements of the translation relationship. However, in order to express the rotation relationship, it may be determined using the relationship between the remaining feature vectors and the feature vectors determined as the origin.

이때 가상 평면 좌표계에 대한 각 특징점들의 위치는 수식 2와 같이 구성함으로써 얻어질 수 있다.In this case, the positions of the feature points with respect to the virtual plane coordinate system may be obtained by constructing Equation 2.

[수식 2] [Equation 2]

Figure 112010028248256-pat00004
Figure 112010028248256-pat00004

가상 평면 좌표계에서의 특징점들을 대상 물체 기준좌표계에 대해 표현하고자 할 때, 수식 1에서의 동차 변환 행렬의 역행렬을 이용하여 수식 2와 같이 표현할 수 있다.When the feature points in the virtual plane coordinate system are to be expressed with respect to the object reference coordinate system, the inverse matrix of the homogeneous transformation matrix in Equation 1 may be expressed as Equation 2.

또한, 대상물체에 대한 특징점들을 단일 평면상에 제한시키는 경우 z축에 해당하는 값들이 0으로 계산되기 때문에 결정해야할 외부 인자의 개수를 줄 일수 있다는 장점이 있다. In addition, when the feature points for the object are limited on a single plane, the value corresponding to the z-axis is calculated as 0, which reduces the number of external factors to be determined.

본 발명에서는, 가상 평면에 대한 수식 적용을 통해 단일평면에 대해 구성하였던 간단한 수식 유도 과정을 그대로 적용할 수 있도록 함으로써, 공간상의 대상물체에서 추출된 특징점들을 단일평면에 제한할 수 없기 때문에 발생되는 각 특징성분들에 대해 복잡한 수식을 유도를 하지 않아도 된다.In the present invention, it is possible to apply a simple equation derivation process configured for a single plane by applying the equation to the virtual plane as it is, the angle generated because it is not possible to limit the feature points extracted from the object in space to a single plane There is no need to derive complex equations for feature components.

상기와 같이 가상 평면 좌표계에 대한 대상 물체 기준 좌표계와의 관계를 정의하는 경우에, 각 가상 평면 좌표계와 영상 취득 장치인 카메라 기준 좌표계와의 관계를 대상 물체 기준좌표계와의 관계를 통해 정의할 수 있다.When defining the relationship between the target object reference coordinate system and the virtual plane coordinate system as described above, the relationship between each virtual plane coordinate system and the camera reference coordinate system which is an image capturing apparatus may be defined through the relationship with the target object reference coordinate system. .

도 6은 실세계 기준좌표계에 대해 대상 물체 기준좌표계와 카메라 기준좌표계의 관계를 보여주고 있다.6 illustrates a relationship between a target object reference coordinate system and a camera reference coordinate system with respect to the real world reference coordinate system.

도 6을 참조 하면, 실세계 기준좌표계에 대한 카메라 좌표계의 자세 정보는 알려진 기하 관계로 표현되어질 수 있고, 카메라 좌표계에 대한 대상 물체 좌표계의 기하 관계를 획득하였을 때 월드 기준좌표계에 대한 대상 물체 좌표계의 기하 관계를 결정할 수 있다. 도 6으로부터 수식 3의 관계를 유도할 수 있다.Referring to FIG. 6, the attitude information of the camera coordinate system with respect to the real world reference coordinate system may be represented by a known geometric relationship, and when the geometric relationship of the target object coordinate system with respect to the camera coordinate system is obtained, the geometry of the target object coordinate system with respect to the world reference coordinate system You can determine the relationship. The relationship of Equation 3 can be derived from FIG. 6.

[수식 3] [Equation 3]

Figure 112010028248256-pat00005
Figure 112010028248256-pat00005

이 때 대상 물체의 특징점들이 단일 평면에 존재함을 가정하였기 때문에 Zi를 0으로 하여 정리하면 수식 4와 같이 x, y 축에 대한 다음의 연립 방정식들을 얻을 수 있다.Since it is assumed that the feature points of the target object exist in a single plane, the following simultaneous equations for the x and y axes can be obtained by arranging Z i as 0 as shown in Equation 4.

[수식 4][Equation 4]

Figure 112010028248256-pat00006
Figure 112010028248256-pat00006

단일 평면 상에 존재하는 다수 개의 특징점들에 대해 수식 4과 같은 연립방정식들이 존재하며, 이들을 이용하여 최소 자승법을 적용하였을 때 월드 기준 좌표계에 대한 대상 물체 좌표계의 관계를 결정할 수 있다.A system of equations such as Equation 4 exists for a plurality of feature points existing on a single plane, and when the least square method is applied, the relation of the object coordinate system with respect to the world reference coordinate system may be used.

상기와 같이 월드 기준 좌표계{W}에 대한 카메라 좌표계 {C}에 대한 관계 WHC는 알려진 관계이기 때문에 단일평면에 대해 고려했던 대상물체 좌표계 {O}에 대한 카메라 좌표계 {C}의 기하관계인 OHC를 결정해야 한다.Relationship to the camera coordinate system {C} of the world reference coordinate system {W}, such as the W H C are known relationship is due to the camera coordinate system {C} to the target was considered for a single plane object coordinate system {O} geometric relationship O H C must be determined.

이때 카메라 좌표계에 대한 대상물체 좌표계의 관계는 각 가상평면 좌표계 {Pn}에 대한 관계를 통해 결정되어진다.At this time, the relationship of the object coordinate system to the camera coordinate system is determined through the relationship to each virtual plane coordinate system {P n }.

이를 통해 수식 3 을 재구성하여 수식 5와 같이 표현되어질 수 있다.Through this, Equation 3 may be reconfigured and expressed as Equation 5.

[수식 5][Equation 5]

Figure 112010028248256-pat00007
Figure 112010028248256-pat00007

수식 5에 나타난 기하 관계는 도 7과 같이 대상 물체 좌표계에 대한 가상 평면 좌표계의 관계로 도시할 수 있다.The geometric relationship shown in Equation 5 may be illustrated as a relationship between the virtual plane coordinate system and the target object coordinate system as shown in FIG. 7.

도 7은 단일 평면에 대한 기하관계를 나타낸 도 6을 기반으로 가상 평면 기법을 적용한 것을 나타낸다.FIG. 7 illustrates the application of a virtual plane technique based on FIG. 6 showing a geometric relationship to a single plane.

먼저 카메라와 월드 기준 좌표계들간의 알려진 기하관계를 제외하고, 대상 물체 기준좌표계와 카메라 기준 좌표계의 관계는 가상 평면 좌표계를 통해 표현되어진다.First, except for the known geometric relationship between the camera and the world reference coordinate system, the relationship between the object reference coordinate system and the camera reference coordinate system is expressed through the virtual plane coordinate system.

수식 5에 보여지는 바와 같이 대상 물체 기준좌표계에 대한 카메라 좌표계의 관계는 가상 평면 좌표계의 관계를 통해 표현되어진다.As shown in Equation 5, the relationship of the camera coordinate system to the object reference coordinate system is expressed through the relationship of the virtual plane coordinate system.

이를 수식 4와 같이 표현하여 최종 수식 6과 같이 표현할 수 있다.This may be expressed as in Equation 4, as shown in Equation 6 below.

[수식 6][Equation 6]

Figure 112010028248256-pat00008
Figure 112010028248256-pat00008

위의 수식 6을 행렬식으로 표현할 때 미지수들을 분류하여 수식 7과 같이 표현할 수 있다.When Equation 6 is expressed as a determinant, the unknowns may be classified and expressed as Equation 7.

[수식 7]

Figure 112010028248256-pat00009
[Formula 7]
Figure 112010028248256-pat00009

Figure 112010028248256-pat00010
Figure 112010028248256-pat00010

Figure 112010028248256-pat00011
Figure 112010028248256-pat00011

Figure 112010028248256-pat00012
Figure 112010028248256-pat00012

최종적으로 얻어진 수식 7에서 미지수 벡터 H는 카메라 기준 좌표계에 대한 대상 물체 기준좌표계의 동차 변환 행렬의 요소값들에 의해 구성된 벡터임을 알 수 있다. Finally, in Equation 7 obtained, the unknown vector H is a vector constituted by element values of the homogeneous transformation matrix of the object reference coordinate system with respect to the camera reference coordinate system.

이 때 j는 가상평면에 대한 인덱스이고, i는 해당 평면에서의 특징점에 대한 인덱스이다. Where j is the index for the virtual plane and i is the index for the feature point in the plane.

이 수식을 통해 j개의 평면에 대해 각각 i개의 특징정보들에 대해 계산할 수 있도록 구성된 가변 크기 행렬을 구성하였다. Through this equation, we construct a variable-size matrix configured to calculate i feature information for each of j planes.

가변 크기의 행렬에 대한 역변환 행렬은 잘 알려진 의사 역행렬을 적용하여 구할 수 있고, 최종적으로 자세 정보를 담고 있는 H 행렬의 정보는 수식 (8)을 통해 계산할 수 있다. The inverse transformation matrix for the variable size matrix can be obtained by applying a well-known pseudo inverse matrix, and finally, the information of the H matrix containing attitude information can be calculated through Equation (8).

이때 각 H 로부터 각 인자를 추출하기 위해서 회전변환행렬의 직교성을 이용하여 Tz를 다음 수식 8과 같이 계산할 수 있다.At this time, in order to extract each factor from each H, T z can be calculated as shown in Equation 8 by using the orthogonality of the rotation transformation matrix.

[수식 8][Equation 8]

Figure 112010028248256-pat00013
Figure 112010028248256-pat00013

회전변환행렬의 나머지 요소들도 마찬가지로 회전변환행렬의 직교성을 이용하여 구할 수 있다.The remaining elements of the rotation transformation matrix can also be obtained using the orthogonality of the rotation transformation matrix.

이어, 최종적으로 구성된 가상 평면 정보를 이용하여 단일 카메라 기반 3차원 자세 정보를 결정한다.
Subsequently, single camera-based three-dimensional pose information is determined using the finally configured virtual plane information.

[3차원 자세 정보 획득 단계][3D posture information acquisition step]

다음으로 상기 도1에서 국부적인 3차원 자세정보 취합단계는 일예로서 차체와 같은 대형 물체의 경우, 상기 도2와 3과 같은 단계를 통해 결정된 단일 카메라 기반 3차원 자세 정보는 대형물체의 국부위치에서 취득한 물체의 부분 3차원 정보이기 때문에 이를 취합하기 위한 3차원 자세 취합 과정을 거친다. Next, in the case of a large object such as a vehicle body, the local three-dimensional pose information collecting step in FIG. 1 is a single camera-based three-dimensional pose information determined through the same steps as in FIGS. 2 and 3 at the local position of the large object. Since it is the partial three-dimensional information of the acquired object, it undergoes a three-dimensional pose collection process to collect it.

따라서, 국부적인 3차원 자세정보 취합 단계는 도 4에 도시한 것과 같이 도 3에서의 단일카메라 기반 3차원 자세 정보를 기반으로 도 2 단계에서 등록되었던 각각의 카메라에 대한 국부적인 3차원 자세정보의 기하 관계를 수식 9와 같이 결정한다. 결정된 국부적인 3차원 자세정보들은 각각 국부 관측 오차(local observational error)들을 포함하고 있기 때문에 이들을 폐루프 방정식(closed loop equation)으로 표현함으로써 최종적인 대형 물체에 대한 3차원 자세 정보를 결정할 수 있다.Therefore, the local three-dimensional pose information collecting step is performed by the local three-dimensional pose information of each camera registered in step 2 based on the single camera-based three-dimensional pose information in FIG. 3 as shown in FIG. The geometric relationship is determined as shown in Equation 9. Since the determined local three-dimensional attitude information each includes local observational errors, the three-dimensional attitude information of the final large object can be determined by expressing them as a closed loop equation.

가상평면 기반 3차원 위치계측 방법을 이용하여 차체와 같은 대형물체의 정확한 3차원 위치 및 자세를 계측하기 위해서는 단일카메라로부터 획득된 부분 자세정보를 취합하는 문제가 해결되어야 한다. 단일카메라를 이용하여 대형물체의 자세를 결정하는 경우 대형물체의 전체 영역을 단일카메라의 FOV에 담기 위해서는 카메라와 대형 물체간의 거리가 멀어지게 되고 이에 비례하여 정확도에 대한 오차 범위가 넓어지게 된다. 따라서 도 8에 나타낸 바와 같이 대형물체의 부분 자세정보를 결정하고, 이들간의 알려진 기하관계를 이용하여 대형물체의 자세를 결정할 수 있다. 먼저 월드 기준좌표계에 대한 카메라의 자세정보인 WHC0~2들을 알고 있는 상태에서 카메라에 대한 대상물체의 각 부분에 대한 자세정보인 C0~2HL0~2들을 결정하면 다시 각 부분 자세에 대한 대상물체의 기준 좌표계의 알려진 자세정보인 L0~2HO들을 통해 월드 기준좌표계에 대한 대상 물체 기준좌표계의 자세정보인 WHO를 결정할 수 있다. 이렇게 결정된 자세정보는 로봇의 자세를 기반으로 수식(9) 와 같이 정리될 수 있다.In order to measure accurate three-dimensional position and attitude of a large object such as a vehicle body by using a virtual plane-based three-dimensional positioning method, the problem of collecting partial attitude information obtained from a single camera must be solved. When the attitude of a large object is determined by using a single camera, the distance between the camera and the large object becomes far and the error range for accuracy is widened in order to include the entire area of the large object in the FOV of the single camera. Therefore, as shown in FIG. 8, the partial attitude information of the large object can be determined, and the attitude of the large object can be determined using the known geometric relationship therebetween. First, determine the attitude information C0 ~ 2 H L0 ~ 2 about each part of the object with respect to the camera while knowing W H C0 ~ 2 which is the camera's attitude information about the world reference coordinate system. through the L0 ~ H 2 O, known position information of the reference coordinate system of the object can determine the W H O attitude information of the object reference coordinate system on the world reference frame. The attitude information thus determined may be arranged as shown in Equation (9) based on the attitude of the robot.

[수식 9][Equation 9]

Figure 112010028248256-pat00014
Figure 112010028248256-pat00014

수식 9의 첫번째 항에서는 카메라를 통해 대상물체의 자세를 결정하는 관계를 나타낸 것이고, 그를 통해 나타난 결과가 두번째 항에 표현되어 있다. 마지막 항에서는 로봇의 자세를 기반으로 하는 대상물체의 자세정보를 표현한 항이다. 이 때 로봇에 대한 대상물체의 자세정보인 MHO를 모르는 상태에서 월드 기준좌표계에 대한 로봇의 자세인 WHM의 역행렬을 두 번째 항에 곱해 줌으로써 손쉽게 로봇에 대한 대상물체의 자세정보를 결정할 수 있다. 이러한 관계를 표현할 때에 일반적으로 많이 사용되는 최소 자승법을 적용함으로써 유일한 최종해를 결정할 수 있다.The first term of Equation 9 shows the relationship of determining the pose of the object through the camera, and the result is expressed in the second term. The last term expresses the posture information of the object based on the posture of the robot. At this time, it is easy to determine the attitude information of the object about the robot by multiplying the second term by the inverse of W H M , which is the attitude of the robot with respect to the world reference coordinate system, without knowing M H O, which is the attitude information of the object. Can be. In expressing these relationships, the only final solution can be determined by applying the least-squares method, which is commonly used.

이하, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.Hereinafter, the present invention is not limited to the above specific preferred embodiments, and various modifications can be made by those skilled in the art without departing from the gist of the present invention as claimed in the claims. Of course, such changes are within the scope of the claims.

Claims (4)

작업대상 물체에 대한 기 설정된 캐드정보(CAD)의 기준좌표계로서 동차변환행렬을 구성할 수 있도록 대형 대상 물체의 기준좌표계에 대한 각각의 단일카메라 모델에 대한 대상 물체 기준좌표계인 국부영역의 좌표계 정보를 등록한 후, 국부영역의 좌표계 정보를 기초로 작업 대상 물체의 특징정보를 추출하여 등록하는 모델등록단계;
상기 작업 대상 물체에 대한 2차원 영상에서의 특징 정보를 추출하고, 상기 추출된 특징정보를 상기 모델등록단계에서 추출하여 등록한 특징정보들과 비교하여 일치되는 특징점들을 검출하되, 상기 검출된 특징점들이 단일평면에 존재하는 경우 3차원 기하 정보 획득을 위해 직관적이고 간단한 선형 방정식을 구성하여 가상평면정보를 구성하거나, 또는 상기 검출된 특징점들이 단일평면에 존재하지 않을 경우 가상평면에 대한 카메라의 자세정보를 결정하는 선형시스템을 구성하도록 상기 검출된 특징점들 가운데 임의의 3점을 이용하여 가상평면정보를 구성한 후, 동차변환행렬에서의 회전변환행렬이 구성되는 동차변환관계를 통해 가상평면정보에 대한 각 특징점들의 위치를 구하여 단일 카메라 기반 3차원 자세정보를 결정하는 가상 평면 정보 구성단계; 및,
상기 가상 평면 정보를 기초로 기준 좌표계에 대한 작업 대상 물체의 3차원 자세 정보를 획득하는 3차원 자세 정보 획득 단계; 를 포함하여 진행하는 것을 특징으로 하는 가상 평면 정보를 사용한 3차원 자세 정보 획득 방법.
In order to construct a homogeneous transformation matrix as a reference coordinate system of the CAD information for the target object, the coordinate system information of the local region, which is the reference coordinate system of the target object, for each single camera model of the reference coordinate system of the large target object is obtained. A model registration step of extracting and registering feature information of the object to be worked on, based on the coordinate system information of the local area after registration;
Extracting feature information from the 2D image of the object to be worked on, and comparing the extracted feature information with the registered feature information extracted in the model registration step to detect matching feature points, wherein the detected feature points are single In the case of the plane, intuitive and simple linear equations are constructed to obtain the 3D geometric information to construct the virtual plane information, or when the detected feature points do not exist in the single plane, determine the attitude information of the camera with respect to the virtual plane. After constructing the virtual plane information by using any three points among the detected feature points to form a linear system, the feature of each of the feature points for the virtual plane information through the homogeneous transformation relationship Virtual plane information sphere to determine position and determine single camera based 3D pose information Step; And,
3D attitude information obtaining step of obtaining 3D attitude information of the object to be worked on a reference coordinate system based on the virtual plane information; 3D attitude information acquisition method using the virtual plane information, characterized in that the progress.
제 1항에 있어서,
상기 작업 대상 물체의 특징점들이 단일평면에 존재하는 것을 감안하여 단일평면을 기준으로 특정위치에 단일개의 영상 취득 장치를 배치하고, 상기 특정위치에서의 상기 기준 좌표계에 대한 작업 대상 물체의 3차원 자세 정보를 획득하는 것을 특징으로 하는 가상 평면 정보를 사용한 3차원 자세 정보 획득 방법.
The method of claim 1,
Considering that the feature points of the target object exist in a single plane, a single image acquisition device is disposed at a specific position with respect to the single plane, and three-dimensional posture information of the target object with respect to the reference coordinate system at the specific position. 3D attitude information acquisition method using virtual plane information, characterized in that to obtain a.
제 1항에 있어서,
상기 작업 대상 물체의 특징점들이 단일평면에 존재하지 않는 것을 감안하여 다수의 특징점들 중에서 임의의 3점 특징점들을 기준으로 국부적 특정위치에 다수개의 영상 취득 장치를 각각 배치하고,
상기 국부적 특정위치에서의 국부 영역에 대한 자세 정보를 산출하고,
상기 산출된 자세 정보들을 취합하여 상기 기준 좌표계에 대한 작업 대상 물체의 3차원 자세 정보를 획득하는 것을 특징으로 하는 가상 평면 정보를 사용한 3차원 자세 정보 획득 방법.
The method of claim 1,
In consideration of the fact that the feature points of the object to be worked on do not exist in a single plane, a plurality of image capturing apparatuses are respectively disposed at a local specific position based on any three point feature points among a plurality of feature points,
Calculating posture information for a local area at the local specific location;
3. The method of claim 3, wherein the calculated attitude information is collected to obtain 3D attitude information of the object to be worked on the reference coordinate system.
제 1항에 있어서,
다수개의 영상 취득 장치들을 이동 가능한 이동 장치에 설치한 상태에서, 상기 작업 대상 물체의 특징점들이 단일평면에 존재하지 않는 것을 감안하여 다수의 특징점들 중에서 임의의 3점 특징점들을 기준으로 국부적 특정위치에 상기 이동장치에 설치된 다수개의 영상 취득 장치들을 각각 이동시켜 배치하고,
상기 국부적 특정 위치에서의 국부 영역에 대한 자세 정보들을 산출하고,
상기 산출된 자세 정보들을 취합하여 상기 기준 좌표계에 대한 작업 대상 물체의 3차원 자세 정보를 획득하는 것을 특징으로 하는 가상 평면 정보를 사용한 3차원 자세 정보 획득 방법.
The method of claim 1,
In a state where a plurality of image capturing devices are installed in a movable mobile device, the feature points of the object to be worked on are not present in a single plane, so that the local points are located at a local specific position based on any three point feature points among the plurality of feature points. Move and arrange a plurality of image acquisition devices installed in the mobile device,
Calculating attitude information of a local area at the local specific location,
3. The method of claim 3, wherein the calculated attitude information is collected to obtain 3D attitude information of the object to be worked on the reference coordinate system.
KR1020100040898A 2010-04-30 2010-04-30 Method for measuring 3d pose information using virtual plane information KR101093793B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100040898A KR101093793B1 (en) 2010-04-30 2010-04-30 Method for measuring 3d pose information using virtual plane information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100040898A KR101093793B1 (en) 2010-04-30 2010-04-30 Method for measuring 3d pose information using virtual plane information

Publications (2)

Publication Number Publication Date
KR20110121343A KR20110121343A (en) 2011-11-07
KR101093793B1 true KR101093793B1 (en) 2011-12-19

Family

ID=45392248

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100040898A KR101093793B1 (en) 2010-04-30 2010-04-30 Method for measuring 3d pose information using virtual plane information

Country Status (1)

Country Link
KR (1) KR101093793B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220095439A (en) 2020-12-30 2022-07-07 주식회사 케이티 Device, method and computer program for projecting video to object

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102085180B1 (en) * 2013-10-08 2020-03-05 삼성전자주식회사 Method of estimating body's orientation, Computer readable storage medium of recording the method and an device
KR101444211B1 (en) * 2013-12-18 2014-09-30 대한민국 Algorithm to determine vaccine injection position of a fish using X-ray photographing
CN111104816B (en) * 2018-10-25 2023-11-03 杭州海康威视数字技术股份有限公司 Object gesture recognition method and device and camera
CN114305686B (en) * 2021-12-20 2024-07-16 杭州堃博生物科技有限公司 Positioning processing method, device, equipment and medium based on magnetic sensor

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009064372A (en) 2007-09-10 2009-03-26 Toyota Motor Corp Monitor image simulation device, monitor image simulation method, and monitor image simulation program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009064372A (en) 2007-09-10 2009-03-26 Toyota Motor Corp Monitor image simulation device, monitor image simulation method, and monitor image simulation program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문 : 한국지능시스템학회

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220095439A (en) 2020-12-30 2022-07-07 주식회사 케이티 Device, method and computer program for projecting video to object

Also Published As

Publication number Publication date
KR20110121343A (en) 2011-11-07

Similar Documents

Publication Publication Date Title
Chen et al. High-accuracy multi-camera reconstruction enhanced by adaptive point cloud correction algorithm
CN109658457B (en) Method for calibrating arbitrary relative pose relationship between laser and camera
Goddard et al. Pose and motion estimation using dual quaternion-based extended Kalman filtering
CN102788572B (en) Method, device and system for measuring attitude of engineering machinery lifting hook
CN107862719A (en) Scaling method, device, computer equipment and the storage medium of Camera extrinsic
CN108053449A (en) Three-dimensional rebuilding method, device and the binocular vision system of binocular vision system
Xie et al. Infrastructure based calibration of a multi-camera and multi-lidar system using apriltags
CN111476841B (en) Point cloud and image-based identification and positioning method and system
KR101093793B1 (en) Method for measuring 3d pose information using virtual plane information
CN105800464B (en) A kind of localization method based on automatic hanging hook system
WO2012008618A1 (en) Position/orientation measurement apparatus, measurement processing method thereof, and non-transitory computer-readable storage medium
KR20140044054A (en) Method for work using the sensor and system for performing thereof
JP2008059569A (en) Contact time computing device and contact time computing method
KR101679741B1 (en) Method for extracting outter static structure of space from geometric data of space
WO2021036587A1 (en) Positioning method and system for electric power patrol scenario
CN107885224A (en) Unmanned plane barrier-avoiding method based on tri-item stereo vision
Borsu et al. Automated surface deformations detection and marking on automotive body panels
Kurban et al. Plane segmentation of kinect point clouds using RANSAC
Ge et al. Online 3-D modeling of complex workpieces for the robotic spray painting with low-cost RGB-D cameras
Kim et al. As-is geometric data collection and 3D visualization through the collaboration between UAV and UGV
Ben-Tzvi et al. Extraction of 3D images using pitch-actuated 2D laser range finder for robotic vision
Tribou et al. Degenerate motions in multicamera cluster SLAM with non-overlapping fields of view
Kim et al. Target-free automatic registration of point clouds
JP5462662B2 (en) Position / orientation measurement apparatus, object identification apparatus, position / orientation measurement method, and program
CN108564626B (en) Method and apparatus for determining relative pose angle between cameras mounted to an acquisition entity

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20141202

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20161128

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20170913

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee