KR20220094250A - System and method for estimating the position of object in image - Google Patents

System and method for estimating the position of object in image Download PDF

Info

Publication number
KR20220094250A
KR20220094250A KR1020200184597A KR20200184597A KR20220094250A KR 20220094250 A KR20220094250 A KR 20220094250A KR 1020200184597 A KR1020200184597 A KR 1020200184597A KR 20200184597 A KR20200184597 A KR 20200184597A KR 20220094250 A KR20220094250 A KR 20220094250A
Authority
KR
South Korea
Prior art keywords
image
reference position
unit
relationship
estimating
Prior art date
Application number
KR1020200184597A
Other languages
Korean (ko)
Other versions
KR102451791B1 (en
Inventor
김근환
전세웅
김동엽
신동인
조민영
이병석
Original Assignee
한국전자기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자기술연구원 filed Critical 한국전자기술연구원
Priority to KR1020200184597A priority Critical patent/KR102451791B1/en
Publication of KR20220094250A publication Critical patent/KR20220094250A/en
Application granted granted Critical
Publication of KR102451791B1 publication Critical patent/KR102451791B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Abstract

The present invention relates to a system and method for estimating a location of an object in an image. The system for estimating a location of an object in an image according to the present invention comprises: three or more reference location units placed in different specific absolute coordinates; an image acquisition unit acquiring a two-dimensional image including all the reference location units and an object to be estimated; a relationship calculation unit calculating a relationship between the location of the reference location unit on the two-dimensional image and an actual location of the reference location unit; and a location estimation unit calculating the absolute coordinates of the object to be estimated through the relationship. Accordingly, it is possible to more easily estimate the location of the object in the image.

Description

영상 내 물체의 위치 추정 시스템 및 방법{System and method for estimating the position of object in image}System and method for estimating the position of object in image

본 발명은 영상 내 물체의 위치 추정 시스템 및 방법에 관한 것으로서, 보다 상세하게는 영상 내 물체의 위치를 보다 용이하게 추정하는 것이 가능한 영상 내 물체의 위치 추정 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for estimating the position of an object in an image, and more particularly, to a system and method for estimating the position of an object in an image capable of more easily estimating the position of the object in the image.

로봇은 매니퓰레이터를 이용해 작업을 수행하며, 매니퓰레이터는 링크와 관절들 사이의 기하학적인 관계에 따라 운동 특성이 결정된다. 이러한 기하학적인 관계를 수학적으로 표현한 것이 기구학이며 대부분의 매니퓰레이터는 기구학적 특성을 이용해 작업을 수행하기 위한 방향으로 로봇 핸드를 이동시킬 수 있다.The robot uses a manipulator to perform work, and the movement characteristics of the manipulator are determined according to the geometrical relationship between links and joints. Kinematics is a mathematical expression of this geometric relationship, and most manipulators can move the robot hand in the direction to perform a task by using the kinematic characteristics.

로봇은 보통 카메라를 구비하여 작업 대상물의 위치를 확인함으로써 매니퓰레이터의 동작을 결정할 수 있으므로, 매니퓰레이터를 정확하게 동작시키기 위해서는 카메라로 촬영한 이미지를 통해 작업 대상물의 위치를 정확하게 파악하여야 한다.Since the robot is usually equipped with a camera and can determine the operation of the manipulator by checking the position of the work object, in order to operate the manipulator accurately, the position of the work object must be accurately grasped through the image captured by the camera.

그리고 로봇의 좌표계와 카메라의 좌표계를 서로 대응되도록 캘리브레이션 해주어야 카메라를 통해 위치를 파악한 작업 대상물에 대하여 매니퓰레이터가 정확한 동작을 수행할 수 있다.In addition, the robot's coordinate system and the camera's coordinate system must be calibrated so that they correspond to each other so that the manipulator can perform an accurate operation on the work object whose position has been identified through the camera.

로봇과 카메라 간의 캘리브레이션을 수행하는 방법과 관련되 종래기술 중의 하나로 등록번호 제10-1465652호의 '로봇 핸드와 로봇 핸드에 부착된 카메라의 캘리브레이션 방법 및 장치'가 있다.As one of the prior art related to a method of performing calibration between a robot and a camera, there is a 'robot hand and a method and apparatus for calibration of a camera attached to the robot hand' of registration number 10-1465652.

상기 종래기술에서는 로봇 핸드 좌표계와 카메라 좌표계 사이의 회전 변환관계 및 로봇 핸드 좌표계와 카메라 좌표계 사이의 병진 변환관계를 사용하여 로봇 핸드 좌표계와 카메라 좌표계의 변환관계를 산출한다.In the prior art, the transformation relation between the robot hand coordinate system and the camera coordinate system is calculated using the rotation transformation relation between the robot hand coordinate system and the camera coordinate system and the translation transformation relation between the robot hand coordinate system and the camera coordinate system.

이러한 로봇과 카메라 간의 캘리브레이션 방법은 로봇의 움직임과 그에 따른 카메라 좌표계의 변환관계를 계산해주어야 하므로 캘리브레이션 작업이 쉽지 않은 문제점이 있고, 이는 로봇이 동작을 용이하게 하는 데 있어 방해 요인이 될 수 있다.This calibration method between the robot and the camera has a problem in that it is not easy to perform the calibration work because the movement of the robot and the transformation relation of the camera coordinate system must be calculated accordingly, which may be a hindrance factor in facilitating the operation of the robot.

KRKR 10-146565210-1465652 B1B1

따라서, 본 발명의 목적은 이와 같은 종래의 문제점을 해결하기 위한 것으로서, 영상 내 물체의 위치를 용이하게 추정하여 로봇의 동작을 용이하게 하는 영상 내 물체의 위치 추정 시스템 및 방법을 제공함에 있다.Accordingly, an object of the present invention is to solve the problems of the related art, and to provide a system and method for estimating the position of an object in an image, which facilitates the operation of a robot by estimating the position of the object in the image.

본 발명이 해결하고자 하는 과제는 위에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 목적은, 본 발명에 따라, 서로 다른 특정 절대 좌표상에 놓여진 3개 이상의 기준 위치부; 상기 기준 위치부 모두와 추정 대상 물체를 포함하는 2차원 이미지를 획득하는 이미지 획득부; 상기 2차원 이미지 상의 상기 기준 위치부 위치와 실제의 상기 기준 위치부 위치의 관계를 산출하는 관계 산출부; 및 상기 관계를 통해 추정 대상 물체의 절대 좌표를 계산하는 위치 추정부;를 포함하는 영상 내 물체의 위치 추정 시스템에 의해 달성된다.The above object is, according to the present invention, three or more reference position parts placed on different specific absolute coordinates; an image acquisition unit configured to acquire a two-dimensional image including both the reference position unit and the estimated target object; a relationship calculator configured to calculate a relationship between the position of the reference position on the two-dimensional image and the actual position of the reference position; and a position estimator for calculating the absolute coordinates of the estimation target object through the relationship;

상기 기준 위치부는 모두 동일한 평면 상에 위치할 수 있다.All of the reference position units may be located on the same plane.

상기 기준 위치부는 한 직사각형의 서로 다른 모서리 상에 위치할 수 있다.The reference position portion may be located on different corners of a rectangle.

본 발명에 의한 영상 내 물체의 위치 추정 시스템은, 상기 2차원 이미지 상에서 상기 기준 위치부가 한 직사각형의 서로 다른 모서리 상에 위치하도록 2차원 이미지를 변환하는 이미지 변환부를 더 포함할 수 있다.The system for estimating the position of an object in an image according to the present invention may further include an image conversion unit that converts the two-dimensional image so that the reference position part is located on different corners of one rectangle on the two-dimensional image.

상기 기준 위치부는 상기 기준 위치부의 절대 좌표에 관한 정보를 포함하는 QR 코드 이미지를 구비할 수 있다.The reference position unit may include a QR code image including information about the absolute coordinates of the reference position unit.

본 발명에 의한 영상 내 물체의 위치 추정 시스템은, 상기 관계를 통해 상기 이미지 획득부의 절대 좌표상의 위치를 산출하는 이미지 획득부 위치 산출부를 더 포함할 수 있다.The system for estimating the position of an object in an image according to the present invention may further include an image acquisition unit position calculator configured to calculate a position on absolute coordinates of the image acquisition unit through the relationship.

본 발명의 또 다른 실시예에 의하면, 서로 다른 특정 절대 좌표상에 3개 이상의 기준 위치부를 배치하는 기준 위치부 배치단계; 상기 기준 위치부 모두와 추정 대상 물체를 포함하는 2차원 이미지를 획득하는 이미지 획득단계; 상기 2차원 이미지 상의 상기 기준 위치부 위치와 실제의 상기 기준 위치부 위치의 관계를 산출하는 관계 산출단계; 및 상기 관계를 통해 추정 대상 물체의 절대 좌표를 계산하는 위치 추정단계;를 포함하는 영상 내 물체의 위치 추정 방법이 제공된다.According to another embodiment of the present invention, a reference position unit arrangement step of arranging three or more reference position units on different specific absolute coordinates; an image acquisition step of acquiring a two-dimensional image including both the reference position part and the estimated target object; a relationship calculation step of calculating a relationship between the position of the reference position on the two-dimensional image and the actual position of the reference position; and a position estimation step of calculating the absolute coordinates of the estimation target object through the relationship; is provided.

상기 기준 위치부 배치단계에서, 상기 기준 위치부는 한 직사각형의 서로 다른 모서리 상에 배치될 수 있다.In the step of arranging the reference position portion, the reference position portion may be arranged on different corners of a rectangle.

본 발명에 의한 영상 내 물체의 위치 추정 방법은, 상기 이미지 획득단계 후에 진행되는 것으로서, 상기 2차원 이미지 상에서 상기 기준 위치부가 한 직사각형의 서로 다른 모서리 상에 위치하도록 2차원 이미지를 변환하는 이미지 변환단계를 더 포함할 수 있다.The method for estimating the position of an object in an image according to the present invention, which is performed after the image acquisition step, is an image conversion step of converting a two-dimensional image so that the reference position part is located on different corners of a rectangle on the two-dimensional image may further include.

본 발명에 의한 영상 내 물체의 위치 추정 방법은, 상기 관계 산출단계 후에 진행되는 것으로서, 상기 관계를 통해 상기 이미지 획득단계에서 상기 2차원 이미지를 획득하는 이미지 획득부의 위치를 산출하는 이미지 획득부 위치 산출단계를 더 포함할 수 있다.The method for estimating the position of an object in an image according to the present invention is performed after the relation calculating step, and the image obtaining unit position calculation for calculating the position of the image obtaining unit for obtaining the two-dimensional image in the image obtaining step through the relation It may include further steps.

본 발명에 의한 영상 내 물체의 위치 추정 시스템에 의하면, 특정 절대 좌표상에 놓여진 기준 위치부들과 추정 대상 물체를 함께 촬영함으로써 실제 추정 대상 물체의 절대 좌표를 쉽게 산출할 수 있다.According to the system for estimating the position of an object in an image according to the present invention, the absolute coordinates of the actual estimated object can be easily calculated by photographing the reference position units placed on specific absolute coordinates and the estimated object together.

그리고 이미지 획득부로서의 카메라를 캘리브레이션 할 필요가 없고, 카메라와 로봇의 매니퓰레이터 사이에의 캘리브레이션 또한 필요하지 않다.And there is no need to calibrate the camera as an image acquisition unit, nor is it necessary to calibrate the camera and the manipulator of the robot.

기준 위치부들이 동일 평면 상에 위치하거나 한 직사각형의 서로 다른 모서리 상에 위치하는 경우, 추정 대상 물체의 절대 좌표를 보다 용이하게 산출하는 것이 가능하다.When the reference position units are located on the same plane or on different corners of a rectangle, it is possible to more easily calculate the absolute coordinates of the estimated target object.

본 발명에 의한 영상 내 물체의 위치 추정 시스템이 이미지 변환부를 더 구비하는 경우, 2차원 이미지를 확인하는 것만으로 사람이 추정 대상 물체의 실제 위치를 직관적으로 확인하는 것이 가능하다.When the system for estimating the position of an object in an image according to the present invention further includes an image conversion unit, it is possible for a person to intuitively confirm the actual position of the estimation target object only by checking the two-dimensional image.

기준 위치부가 QR 코드 이미지를 구비하는 경우, 각 기준 위치부의 절대 좌표를 구분하여 쉽게 파악하는 것이 가능하다.When the reference position unit has a QR code image, it is possible to easily identify the absolute coordinates of each reference position unit.

도 1은 본 발명에 의한 영상 내 물체의 위치 추정 시스템의 개략적인 구성도,
도 2는 본 발명에 의한 영상 내 물체의 위치 추정 시스템의 동작에 관한 설명도,
도 3은 본 발명에 의한 영상 내 물체의 위치 추정 시스템을 구성하는 이미지 변환부에 관한 설명도,
도 4는 본 발명에 의한 영상 내 물체의 위치 추정 시스템을 구성하는 이미지 획득부 위치 산출부에 관한 설명도,
도 5는 본 발명에 의한 영상 내 물체의 위치 추정 방법에 관한 순서도이다.
1 is a schematic configuration diagram of a system for estimating the position of an object in an image according to the present invention;
2 is an explanatory view of the operation of the system for estimating the position of an object in an image according to the present invention;
3 is an explanatory view of an image conversion unit constituting a system for estimating the position of an object in an image according to the present invention;
4 is an explanatory diagram of an image acquisition unit position calculation unit constituting a system for estimating the position of an object in an image according to the present invention;
5 is a flowchart of a method for estimating the position of an object in an image according to the present invention.

이하에서는 본 발명의 구체적인 실시예에 대하여 도면을 참고하여 자세하게 설명하도록 한다.Hereinafter, specific embodiments of the present invention will be described in detail with reference to the drawings.

도 1에는 본 발명에 의한 영상 내 물체의 위치 추정 시스템(1)의 개략적인 구성도가 도시되어 있고, 도 2에는 본 발명에 의한 영상 내 물체의 위치 추정 시스템(1)의 동작에 관한 설명도가 도시되어 있다.1 is a schematic configuration diagram of a system 1 for estimating an object in an image according to the present invention, and FIG. 2 is an explanatory diagram illustrating an operation of the system 1 for estimating an object in an image according to the present invention is shown.

본 발명에 의한 영상 내 물체의 위치 추정 시스템(1)은 기준 위치부(10), 이미지 획득부(20), 관계 산출부(30) 및 위치 추정부(40)를 포함하여 이루어진다.The system 1 for estimating the position of an object in an image according to the present invention includes a reference position unit 10 , an image acquisition unit 20 , a relationship calculation unit 30 , and a position estimation unit 40 .

기준 위치부(10)는 3개 이상이 형성되며, 각각이 서로 다른 특정한 위치에 놓여진다. 즉, 기준 위치부(10) 각각은 좌표가 알려진 특정한 절대 좌표상에 놓여진다. 예를 들어, 기준 위치부(10)는 도 2에 도시되어 있는 바와 같이 A(X1, Y1, Z1), B(X2, Y2, Z2), C(X3, Y3, Z3) 및 D(X4, Y4, Z4) 지점에 위치할 수 있다.Three or more reference position units 10 are formed, and each is placed at a different specific position. That is, each of the reference position units 10 is placed on specific absolute coordinates whose coordinates are known. For example, as shown in FIG. 2 , the reference position portion 10 is A(X1, Y1, Z1), B(X2, Y2, Z2), C(X3, Y3, Z3) and D(X4, Y4, Z4) may be located.

이미지 획득부(20)는 3개의 기준 위치부(10) 모두와 추정 대상 물체(B)를 포함하는 2차원 이미지(I)를 획득한다. 이미지 획득부(20)는 예를 들어, 디지털 카메라로 이루어질 수 있다. 2차원 이미지(I)에서 A 지점의 기준 위치부(10)는 a(x1, y1) 지점, B 지점의 기준 위치부(10)는 b(x2, y2) 지점, C 지점의 기준 위치부(10)는 c(x3, y3) 지점, D 지점의 기준 위치부(10)는 d(x4, y4) 지점에 위치할 수 있다.The image acquisition unit 20 acquires a two-dimensional image I including all three reference position units 10 and the estimated target object B. The image acquisition unit 20 may be, for example, a digital camera. In the two-dimensional image (I), the reference position part 10 of the point A is a (x1, y1) point, the reference position part 10 of the point B is the b(x2, y2) point, the reference position part of the point C ( 10) may be located at a point c(x3, y3), and the reference location unit 10 of the point D may be located at a point d(x4, y4).

관계 산출부(30)는 2차원 이미지(I) 상의 기준 위치부(10') 위치와 실제 기준 위치부(10) 위치의 관계를 산출한다. 상기 관계에는 실제의 기준 위치부(10)들이 2차원 이미지(I)가 되면서 발생하는 크기의 변화를 나타내는 비율 관계, 그리고 실제의 기준 위치부(10)들이 2차원 이미지(I)가 되면서 발생하는 각도의 변화를 나타내는 각도 관계가 있을 수 있다. 비율 관계는 예를 들어 A 지점과 B 지점 간의 거리 및 a 지점과 b 지점 간의 거리를 비교하고, A 지점과 C 지점 간의 거리 및 a 지점과 c 지점 간의 거리를 비교함으로써 산출될 수 있다. 그리고 각도 관계는 예를 들어 A 지점과 B 지점을 잇는 선분의 각도 및 a 지점과 b 지점을 잇는 선분의 각도를 비교하고, A 지점과 C 지점을 잇는 선분의 각도 및 a 지점과 c 지점을 잇는 선분의 각도를 비교함으로써 산출될 수 있다.The relationship calculating unit 30 calculates a relationship between the position of the reference position unit 10 ′ on the two-dimensional image I and the actual position of the reference position unit 10 . The relationship includes a ratio relationship indicating a change in size that occurs when the actual reference position portions 10 become the two-dimensional image I, and a ratio relationship that occurs when the actual reference position portions 10 become the two-dimensional image I There may be an angular relationship representing a change in angle. The ratio relationship may be calculated, for example, by comparing the distance between point A and point B and the distance between point a and point b, and comparing the distance between point A and point C and the distance between point a and point c. And the angular relationship is, for example, comparing the angle of the line segment connecting the point A and B and the angle of the line segment connecting the point a and b, the angle of the line segment connecting the point A and C, and the angle connecting the point a and c It can be calculated by comparing the angles of the line segments.

위치 추정부(40)에서는 관계 산출부(30)에서 산출된 관계를 통해 추정 대상 물체(B)의 절대 좌표를 계산한다. 예를 들어 위치 추정부(40)는 비율 관계와 각도 관계를 통해 촬영에 의해 변환된 2차원 이미지(I)의 좌표계를 구한 후, 2차원 이미지(I)의 좌표계 상에서 추정 대상 물체(B')가 위치하는 지점 o(xo, yo)와 a 지점의 x축 방향 거리(dx) 및 y축 방향 거리(dy)를 구함으로써 실제 추정 대상 물체(B)가 위치하는 지점 O의 절대 좌표를 계산할 수 있다.The position estimation unit 40 calculates the absolute coordinates of the estimation target object B through the relationship calculated by the relation calculation unit 30 . For example, the position estimator 40 obtains the coordinate system of the two-dimensional image I converted by photographing through the ratio relationship and the angle relationship, and then the estimation target object B' on the coordinate system of the two-dimensional image I By calculating the x-axis distance (dx) and y-axis distance (dy) of the point o(xo, yo) where the have.

이러한 본 발명에 의한 영상 내 물체의 위치 추정 시스템(1)에 의하면, 특정 절대 좌표상에 놓여진 기준 위치부(10)들과 추정 대상 물체(B)를 함께 촬영함으로써 실제 추정 대상 물체(B)의 절대 좌표를 쉽게 산출하는 것이 가능하다.According to the system for estimating the position of the object in the image according to the present invention (1), the actual estimation target object (B) is obtained by photographing the estimation target object (B) with the reference position units (10) placed on specific absolute coordinates. It is possible to easily calculate absolute coordinates.

기준 위치부(10)위 절대 좌표를 알고 있기 때문에 카메라(이미지 획득부)를 캘리브레이션 하지 않더라도 실제 추정 대상 물체(B)의 절대 좌표를 산출할 수 있으며, 이는 카메라의 종류가 달라지거나 카메라가 여러 대인 경우에도 마찬가지이다.Since the absolute coordinates on the reference position unit 10 are known, the absolute coordinates of the actual estimated target object B can be calculated even if the camera (image acquisition unit) is not calibrated. The same is true in case

또한, 로봇의 매니퓰레이터로 작업하면서 2차원 이미지(I)에 기준 위치부(10)들과 함께 매니퓰레이터가 촬영되면 매니퓰레이터의 절대 좌표 또한 계산이 가능하므로, 카메라와 매니퓰레이터의 캘리브레이션 없이도 작업을 수행할 수 있다.In addition, when the manipulator is photographed together with the reference position parts 10 in the two-dimensional image I while working with the manipulator of the robot, the absolute coordinates of the manipulator can also be calculated, so the operation can be performed without calibration of the camera and manipulator. .

기준 위치부(10)는 모두 동일한 평면 상에 위치할 수 있다.All of the reference position units 10 may be located on the same plane.

이 경우, 실제 기준 위치부(10)들 사이의 거리나 각도 계산이 용이하여 관계 산출부(30)에서 2차원 이미지(I) 상의 기준 위치부(10') 위치와 실제 기준 위치부(10) 위치의 관계를 쉽게 산출하는 것이 가능하고, 따라서 위치 추정부(40)에서 추정 대상 물체(B)의 절대 좌표를 용이하게 계산할 수 있다.In this case, since it is easy to calculate the distance or angle between the actual reference position units 10 , the position of the reference position unit 10 ′ on the two-dimensional image I in the relationship calculator 30 and the actual reference position unit 10 ) It is possible to easily calculate the positional relationship, and thus, the absolute coordinates of the estimation target object B can be easily calculated by the position estimator 40 .

기준 위치부(10)가 모두 동일한 평면 상에 위치하는 경우는, 예를 들어 하나의 선반 상에서 추정 대상 물체의 위치를 추정하는 경우에 적용되는 것이 바람직할 수 있다.When all of the reference position units 10 are located on the same plane, it may be preferably applied to, for example, estimating the position of the estimation target on one shelf.

기준 위치부(10)가 모두 동일한 평면 상에 위치할 때, 기준 위치부(10)는 한 직사각형(R)의 서로 다른 모서리 상에 위치할 수 있다.When all of the reference position units 10 are located on the same plane, the reference position units 10 may be located on different corners of a rectangle R.

이 경우, 절대 좌표상에서 일 기준 위치부(10)와 인접한 다른 기준 위치부(10)는 X축, Y축, Z축 중 어느 한 축의 값만이 다르므로 기준 위치부(10)들 사이의 거리나 각도 계산이 보다 용이하고, 인접한 기준 위치부(10)를 잇는 선이 X축, Y축, Z축 중 2개의 축과 나란하게 형성되므로 2차원 이미지(I)의 좌표계를 쉽게 구할 수 있다. 따라서, 위치 추정부(40)에서 추정 대상 물체(B)의 절대 좌표를 보다 용이하게 계산할 수 있다.In this case, since one reference position unit 10 and another reference position unit 10 adjacent to each other on the absolute coordinates differ only in the value of any one of the X axis, Y axis, and Z axis, the distance between the reference position units 10 or The angle calculation is easier, and the coordinate system of the two-dimensional image I can be easily obtained because the line connecting the adjacent reference position portions 10 is formed parallel to two axes of the X-axis, Y-axis, and Z-axis. Accordingly, the position estimator 40 may more easily calculate the absolute coordinates of the estimation target object B.

기준 위치부(10)가 한 직사각형(R)의 서로 다른 모서리 상에 위치할 때, 본 발명에 의한 영상 내 물체의 위치 추정 시스템(1)은 이미지 변환부(50)를 더 포함할 수 있다.When the reference position unit 10 is positioned on different corners of a rectangle R, the system 1 for estimating the position of an object in an image according to the present invention may further include an image conversion unit 50 .

이미지 변환부(50)는 도 3에 도시되어 있는 바와 같이, 2차원 이미지(I) 상에서 기준 위치부(10')가 한 직사각형(R')의 서로 다른 모서리 상에 위치하도록 2차원 이미지(I)를 변환한다. 2차원 이미지(I) 상에서 기준 위치부(10')들이 형성하는 직사각형(R')은 실제 기준 위치부(10)들이 형성하는 직사각형(R)과 동일한 비율로 형성되어야 할 것이다.As shown in FIG. 3 , the image conversion unit 50 sets the two-dimensional image I on the two-dimensional image I so that the reference position part 10' is positioned on different corners of a rectangle R'. ) to convert The rectangle R' formed by the reference position portions 10' on the two-dimensional image I should be formed in the same proportion as the rectangle R formed by the actual reference position portions 10.

이 경우, 2차원 이미지(I)를 확인하는 것만으로 사람이 추정 대상 물체의 실제 위치를 직관적으로 확인하는 것이 가능하다. 이에 따라, 예를 들어 원격으로 사람이 로봇을 제어하는 경우에 추정 대상 물체(B)에 대한 작업을 용이하게 수행하는 것이 가능하다.In this case, it is possible for a person to intuitively check the actual position of the estimated target object only by checking the two-dimensional image I. Accordingly, it is possible to easily perform an operation on the estimated target object B when, for example, a person remotely controls the robot.

기준 위치부(10)는 QR 코드 이미지(11)를 구비할 수 있다. The reference position unit 10 may include a QR code image 11 .

QR 코드 이미지(11)에는 기준 위치부(10)의 절대 좌표에 관한 정보가 포함될 수 있다. 이에 따라, QR 코드 이미지(11)를 촬영하는 것만으로 각 기준 위치부(10)의 절대 좌표를 구분하여 파악하는 것이 가능하다.The QR code image 11 may include information about the absolute coordinates of the reference position unit 10 . Accordingly, it is possible to identify and identify the absolute coordinates of each reference position unit 10 only by photographing the QR code image 11 .

예를 들어, 로봇이 여러 선반을 따라 이동하면서 작업을 수행하는 경우에 QR 코드 이미지(11)를 통해 로봇이 어느 선반에서 작업을 수행하고 있는지 쉽게 파악할 수 있다.For example, when the robot performs a task while moving along several shelves, it is possible to easily identify which shelf the robot is performing the task on through the QR code image 11 .

그리고 QR 코드 이미지(11)의 배치 위치와 수를 조절하여 작업 공간의 규모를 자유롭게 변화시킬 수 있고, 카메라의 종류나 위치에 관계없이 QR 코드 이미지(11)를 촬영할 수 있다면 추정 대상 물체(B)의 절대 좌표를 파악할 수 있다.And if the size of the work space can be freely changed by adjusting the arrangement position and number of the QR code images 11, and the QR code image 11 can be taken regardless of the type or location of the camera, the estimated target object (B) You can find the absolute coordinates of

기준 위치부(10)의 정확한 위치는 QR 코드 이미지(11)의 중심이 될 수 있다.The exact position of the reference position unit 10 may be the center of the QR code image 11 .

본 발명에 의한 영상 내 물체의 위치 추정 시스템(1)은 이미지 획득부(20) 위치 산출부(60)를 더 포함할 수 있다. 도 4에는 이미지 획득부(20) 위치 산출부(60)에 관한 설명도가 도시되어 있다.The system 1 for estimating the position of an object in an image according to the present invention may further include an image acquisition unit 20 and a position calculation unit 60 . 4 is an explanatory diagram of the image acquisition unit 20, the position calculation unit 60 is shown.

이미지 획득부(20) 위치 산출부(60)는 2차원 이미지(I) 상의 기준 위치부(10') 위치와 실제 기준 위치부(10) 위치의 관계를 통해 이미지 획득부(20)의 절대 좌표상의 위치를 산출한다.The image acquisition unit 20 position calculation unit 60 determines the absolute coordinates of the image acquisition unit 20 through the relationship between the position of the reference position unit 10 ′ on the two-dimensional image I and the actual position of the reference position unit 10 . Calculate the position on the

절대 좌표계의 X축, Y축을 각각 2차원 이미지(I) 상의 x축, y축에 평행하게 맞추고 절대 좌표계의 Z축을 이미지 획득부(20)인 카메라의 광축(Ao)과 평행하게 맞추면, 기준 위치부(10)의 절대 좌표와 2차원 이미지(I) 상에서의 좌표를 통해 이미지 획득부(20)의 위치를 산출할 수 있다.If the X-axis and Y-axis of the absolute coordinate system are aligned parallel to the x-axis and y-axis on the two-dimensional image (I), respectively, and the Z-axis of the absolute coordinate system is aligned parallel to the optical axis (Ao) of the camera, which is the image acquisition unit 20, the reference position The position of the image acquisition unit 20 may be calculated based on the absolute coordinates of the unit 10 and the coordinates on the two-dimensional image I.

보다 구체적으로, 한 기준 위치부(10) A(X1, Y1, Z1)는 2차원 이미지(I) 상에서 a(x1, y1) 지점에 투영되며, 초점 거리 f를 z1으로 하고 2차원 이미지(I) 상의 a 지점을 3차원 공간 중의 점으로 생각하면 a의 위치는 (x1, y1, z1)이 되는데, 2차원 이미지(I) 상의 a 지점의 x1과 f의 비가 절대 좌표계 상 A 지점의 X1과 Z1 비와 같고 2차원 이미지(I) 상의 a 지점의 y1과 f의 비가 절대 좌표계 상 A 지점의 Y1과 Z1 비와 같기 때문에, 아래와 같은 관계가 성립할 수 있다.More specifically, one reference position portion 10 A(X1, Y1, Z1) is projected on a point a(x1, y1) on the two-dimensional image I, with a focal length f as z1 and a two-dimensional image I ), the position of a becomes (x1, y1, z1) if the point a on Since the ratio of Z1 is the same and the ratio of y1 and f of point a on the two-dimensional image I is the same as the ratio of Y1 and Z1 of point A on the absolute coordinate system, the following relationship can be established.

Figure pat00001
,
Figure pat00002
Figure pat00001
,
Figure pat00002

X1, Y1, Z1의 값은 기준 위치부(10)의 절대 좌표를 통해 구할 수 있고 x1, y1의 값은 2차원 이미지(I)를 통해 구할 수 있기 때문에 상기 관계를 통해 z1의 값을 계산하여 이미지 획득부(20)의 위치를 산출하는 것이 가능하다.Since the values of X1, Y1, and Z1 can be obtained through the absolute coordinates of the reference position unit 10, and the values of x1, y1 can be obtained through the two-dimensional image I, the value of z1 is calculated through the relationship It is possible to calculate the position of the image acquisition unit 20 .

이미지 획득부(20)의 위치가 산출되면 이미지 획득부(20)가 구비된 로봇을 추정 대상 물체(B)에 대하여 보다 용이하게 이동시키면서 작업을 수행할 수 있다.When the position of the image acquisition unit 20 is calculated, the operation can be performed while more easily moving the robot equipped with the image acquisition unit 20 with respect to the estimation target object (B).

본 발명에 의한 영상 내 물체의 위치 추정 시스템(1)은 상기한 것과 같은 구성 외에도 매니퓰레이터, 저장부 및 제어부 등을 더 구비할 수 있다.The system 1 for estimating the position of an object in an image according to the present invention may further include a manipulator, a storage unit, a control unit, and the like, in addition to the above-described configuration.

매니퓰레이터(미도시)는 위치 추정부(40)에서 계산된 추정 대상 물체(B)의 절대 좌표를 기준으로 추정 대상 물체(B)에 대한 물리적인 작업을 수행할 수 있고, 저장부(미도시)에는 기준 위치부(10)의 절대 좌표, 이미지 획득부(20)에서 획득한 2차원 이미지(I), 관계 산출부(30)에서 산출된 관계, 위치 추정부(40)에서 계산된 추정 대상 물체(B)의 절대 좌표, 관계를 산출하는 프로그램, 절대 좌표를 계산하는 프로그램 등이 저장될 수 있다. 그리고 제어부(미도시)는 추정 대상 물체(B)의 절대 좌표를 계산을 위해 이미지 획득부(20), 관계 산출부(30), 위치 추정부(40), 저장부의 동작을 제어하고, 계산된 추정 대상 물체(B)의 절대 좌표를 기준으로 매니퓰레이터의 동작을 제어할 수 있다.The manipulator (not shown) may perform a physical operation on the estimation target object B based on the absolute coordinates of the estimation target object B calculated by the position estimator 40, and a storage unit (not shown) in the absolute coordinates of the reference position unit 10 , the two-dimensional image I acquired by the image acquisition unit 20 , the relationship calculated by the relationship calculation unit 30 , and the estimated target object calculated by the position estimation unit 40 . The absolute coordinates of (B), a program for calculating a relationship, a program for calculating absolute coordinates, and the like may be stored. And the controller (not shown) controls the operation of the image acquisition unit 20, the relationship calculation unit 30, the position estimation unit 40, and the storage unit to calculate the absolute coordinates of the estimation target object B, and the calculated The operation of the manipulator may be controlled based on the absolute coordinates of the estimation target object B.

이하에서는 본 발명에 의한 영상 내 물체의 위치 추정 방법에 대하여 설명한다. 본 발명에 의한 영상 내 물체의 위치 추정 방법에 대해 설명하면서 본 발명의 영상 내 물체의 위치 추정 시스템(1)의 설명시 언급한 부분에 대해서는 자세한 설명을 생략할 수 있다.Hereinafter, a method for estimating the position of an object in an image according to the present invention will be described. While describing the method for estimating the position of an object in an image according to the present invention, detailed descriptions of the parts mentioned in the description of the system 1 for estimating the position of an object in an image of the present invention may be omitted.

도 5에는 본 발명에 의한 영상 내 물체의 위치 추정 방법의 순서도가 도시되어 있다.5 is a flowchart of a method for estimating the position of an object in an image according to the present invention.

본 발명에 의한 영상 내 물체의 위치 추정 방법은 기준 위치부 배치단계(S10), 이미지 획득단계(S20), 관계 산출단계(S30) 및 위치 추정단계(S40)를 포함한다.The method for estimating the position of an object in an image according to the present invention includes a reference position unit arrangement step (S10), an image acquisition step (S20), a relationship calculation step (S30), and a location estimation step (S40).

기준 위치부 배치단계(S10)에서는 서로 다른 특정 절대 좌표상에 3개 이상의 기준 위치부(10)를 배치한다. 기준 위치부(10)들은 아래에서 설명할 관계 산출단계(S30) 및 위치 추정단계(S40)를 용이하게 진행할 수 있도록 동일한 평면 상에 배치되는 것이 바람직하다.In the reference position unit arrangement step (S10), three or more reference position units 10 are arranged on different specific absolute coordinates. The reference location units 10 are preferably arranged on the same plane so that the relationship calculation step S30 and the location estimation step S40 to be described below can be easily performed.

이미지 획득단계(S20)에서는 카메라를 이용하여 기준 위치부(10) 모두와 추정 대상 물체(B)를 포함하는 2차원 이미지(I)를 획득한다.In the image acquisition step (S20), a two-dimensional image (I) including both the reference position unit (10) and the estimated target object (B) is acquired using a camera.

관계 산출단계(S30)에서는 2차원 이미지(I) 상의 기준 위치부(10) 위치와 실제 기준 위치부(10) 위치의 관계를 산출한다. 카메라와 기준 위치부(10)의 거리나 각도에 따라 2차원 이미지(I) 상에서 기준 위치부(10')들 사이의 거리나 인접한 기준 위치부(10)들을 잇는 선들의 각도는 실제 기준 위치부(10)에서와 달라질 수 있다. 따라서, 상기 관계에는 실제 기준 위치부(10)들 사이의 거리와 2차원 이미지(I) 상에서 기준 위치부(10')들 사이의 거리 차이에 의한 비율 관계, 그리고 실제 기준 위치부(10)들이 2차원 이미지(I)가 되면서 발생하는 각도의 변화를 나타내는 각도 관계가 포함될 수 있다.In the relation calculation step (S30), the relationship between the position of the reference position unit 10 on the two-dimensional image I and the position of the actual reference position unit 10 is calculated. Depending on the distance or angle between the camera and the reference location part 10, the distance between the reference location parts 10' on the two-dimensional image I or the angle of the lines connecting the adjacent reference location parts 10 is the actual reference location part (10) may be different. Accordingly, the relationship includes a ratio relationship due to the distance between the actual reference location parts 10 and the distance difference between the reference location parts 10' on the two-dimensional image I, and the actual reference location parts 10 An angular relationship representing a change in angle that occurs while the two-dimensional image I is formed may be included.

위치 추정단계(S40)에서는 관계 산출단계(S30)에서 산출된 관계를 통해 추정 대상 물체(B)의 절대 좌표를 계산한다. 보다 구체적으로, 비율 관계와 각도 관계를 통해 2차원 이미지(I)의 좌표계를 구하고 2차원 이미지(I)의 좌표계 상에서 추정 대상 물체(B')의 위치를 확인함으로써 추정 대상 물체(B)의 절대 좌표를 계산할 수 있다.In the position estimation step (S40), the absolute coordinates of the estimated target object (B) are calculated through the relationship calculated in the relationship calculation step (S30). More specifically, by obtaining the coordinate system of the two-dimensional image I through the ratio relationship and the angular relationship, and confirming the position of the estimated object B' on the coordinate system of the two-dimensional image I, the absolute coordinates can be calculated.

기준 위치부 배치단계(S10)에서 기준 위치부(10)는 한 직사각형(R)의 서로 다른 모서리 상에 배치될 수 있다. 이 경우, 기준 위치부(10)들 사이의 거리나 각도 계산이 용이하여 추정 대상 물체(B)의 절대 좌표를 보다 용이하게 계산하는 것이 가능하다.In the reference position part arrangement step ( S10 ), the reference position part 10 may be arranged on different corners of one rectangle R. In this case, since it is easy to calculate the distance or angle between the reference position units 10 , it is possible to more easily calculate the absolute coordinates of the estimation target object B .

기준 위치부 배치단계(S10)에서 기준 위치부(10)는 한 직사각형(R)의 서로 다른 모서리 상에 배치되는 경우, 본 발명에 의한 영상 내 물체의 위치 추정 방법은 이미지 변환단계를 더 포함할 수 있다.When the reference position unit 10 is arranged on different corners of a rectangle (R) in the reference position unit arrangement step (S10), the method for estimating the position of an object in an image according to the present invention may further include an image conversion step. can

이미지 변환단계는 이미지 획득단계(S20) 후에 진행되는 것으로서, 2차원 이미지(I) 상에서 기준 위치부(10')가 한 직사각형(R')의 서로 다른 모서리 상에 위치하도록 2차원 이미지(I)를 변환할 수 있다.The image conversion step is performed after the image acquisition step (S20), and the two-dimensional image (I) so that the reference position part (10') is located on different corners of a rectangle (R') on the two-dimensional image (I) can be converted

이 경우, 2차원 이미지(I)를 통해 추정 대상 물체의 실제 위치를 직관적으로 확인할 수 있으므로, 원격으로 사람이 로봇을 제어하는 경우에 작업을 용이하게 수행하는 것이 가능하다.In this case, since the actual position of the estimated target object can be intuitively confirmed through the two-dimensional image I, it is possible to easily perform a task when a person remotely controls the robot.

본 발명에 의한 영상 내 물체의 위치 추정 방법은 이미지 획득부 위치 산출단계를 더 포함할 수 있다.The method for estimating the position of an object in an image according to the present invention may further include calculating the position of the image acquisition unit.

이미지 획득부 위치 산출단계는 관계 산출단계(S30) 후에 진행되는 것으로서, 관계 산출단계(S30)에서 산출된 관계를 통해 이미지 획득단계(S20)에서 2차원 이미지(I)를 획득하는 이미지 획득부(20)의 위치를 산출한다.The image acquisition unit position calculation step is performed after the relationship calculation step (S30), and the image acquisition unit ( 20) is calculated.

이미지 획득부(20)의 위치는 절대 좌표계의 X축, Y축을 각각 2차원 이미지(I) 상의 x축, y축에 평행하게 맞추고 절대 좌표계의 Z축을 카메라의 광축과 평행하게 맞춘 상태에서, 기준 위치부(10)의 절대 좌표와 2차원 이미지(I) 상의 기준 위치부(10')의 좌표를 통해 산출할 수 있다.The position of the image acquisition unit 20 is set in a state where the X and Y axes of the absolute coordinate system are aligned parallel to the x and y axes of the two-dimensional image I, respectively, and the Z axis of the absolute coordinate system is aligned parallel to the optical axis of the camera. It can be calculated through the absolute coordinates of the position unit 10 and the coordinates of the reference position unit 10 ′ on the two-dimensional image I.

이미지 획득부(20)의 위치가 산출되면 로봇이 추정 대상 물체(B)에 대하여 정확하게 이동하면서 작업을 수행할 수 있다.When the position of the image acquisition unit 20 is calculated, the robot can perform the operation while accurately moving with respect to the estimated target object B.

본 발명에 의한 영상 내 물체의 위치 추정 시스템(1) 및 방법은 하나 또는 다수의 하드웨어를 통해 구현되거나, 하나 또는 다수의 소프트웨어를 통해 구현될 수 있다. 또는 하드웨어와 소프트웨어를 통해 구현될 수도 있다.The system 1 and method for estimating the position of an object in an image according to the present invention may be implemented through one or more hardware, or may be implemented through one or more software. Alternatively, it may be implemented through hardware and software.

본 발명의 권리범위는 상술한 실시예에 한정되는 것이 아니라 첨부된 특허청구범위 내에서 다양한 형태의 실시예로 구현될 수 있다. 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 변형 가능한 다양한 범위까지 본 발명의 청구범위 기재의 범위 내에 있는 것으로 본다.The scope of the present invention is not limited to the above-described embodiments, but may be implemented in various types of embodiments within the scope of the appended claims. Without departing from the gist of the present invention claimed in the claims, it is considered to be within the scope of the claims of the present invention to various extents that can be modified by any person skilled in the art to which the invention pertains.

1 : 영상 내 물체의 위치 추정 시스템
10 : 기준 위치부 11 : QR 코드 이미지
20 : 이미지 획득부 30 : 관계 산출부
40 : 위치 추정부 50 : 이미지 변환부
60 : 위치 산출부
1: System for estimating the position of an object in the image
10: reference position part 11: QR code image
20: image acquisition unit 30: relationship calculation unit
40: position estimation unit 50: image conversion unit
60: position calculation unit

Claims (10)

서로 다른 특정 절대 좌표상에 놓여진 3개 이상의 기준 위치부;
상기 기준 위치부 모두와 추정 대상 물체를 포함하는 2차원 이미지를 획득하는 이미지 획득부;
상기 2차원 이미지 상의 상기 기준 위치부 위치와 실제의 상기 기준 위치부 위치의 관계를 산출하는 관계 산출부; 및
상기 관계를 통해 추정 대상 물체의 절대 좌표를 계산하는 위치 추정부;를 포함하는 영상 내 물체의 위치 추정 시스템.
three or more reference position units placed on different specific absolute coordinates;
an image acquisition unit configured to acquire a two-dimensional image including both the reference position unit and the estimated target object;
a relationship calculator configured to calculate a relationship between the position of the reference position on the two-dimensional image and the actual position of the reference position; and
and a position estimator for calculating the absolute coordinates of the estimation target object through the relationship.
제1항에 있어서,
상기 기준 위치부는 모두 동일한 평면 상에 위치하는 것을 특징으로 하는 영상 내 물체의 위치 추정 시스템.
According to claim 1,
The system for estimating the position of an object in an image, characterized in that all of the reference position units are located on the same plane.
제2항에 있어서,
상기 기준 위치부는 한 직사각형의 서로 다른 모서리 상에 위치하는 것을 특징으로 하는 영상 내 물체의 위치 추정 시스템.
3. The method of claim 2,
The system for estimating the position of an object in an image, wherein the reference position part is located on different corners of a rectangle.
제3항에 있어서,
상기 2차원 이미지 상에서 상기 기준 위치부가 한 직사각형의 서로 다른 모서리 상에 위치하도록 2차원 이미지를 변환하는 이미지 변환부를 더 포함하는 것을 특징으로 하는 영상 내 물체의 위치 추정 시스템.
4. The method of claim 3,
The system for estimating the position of an object in an image, further comprising an image converter that converts the two-dimensional image so that the reference position part is located on different corners of a rectangle on the two-dimensional image.
제1항에 있어서,
상기 기준 위치부는 상기 기준 위치부의 절대 좌표에 관한 정보를 포함하는 QR 코드 이미지를 구비하는 것을 특징으로 하는 영상 내 물체의 위치 추정 시스템.
According to claim 1,
The system for estimating the position of an object in an image, wherein the reference position unit includes a QR code image including information on the absolute coordinates of the reference position unit.
제1항에 있어서,
상기 관계를 통해 상기 이미지 획득부의 절대 좌표상의 위치를 산출하는 이미지 획득부 위치 산출부를 더 포함하는 것을 특징으로 하는 영상 내 물체의 위치 추정 시스템.
According to claim 1,
The system for estimating the position of an object in an image, further comprising an image acquisition unit position calculation unit for calculating the position on the absolute coordinates of the image acquisition unit through the relationship.
서로 다른 특정 절대 좌표상에 3개 이상의 기준 위치부를 배치하는 기준 위치부 배치단계;
상기 기준 위치부 모두와 추정 대상 물체를 포함하는 2차원 이미지를 획득하는 이미지 획득단계;
상기 2차원 이미지 상의 상기 기준 위치부 위치와 실제의 상기 기준 위치부 위치의 관계를 산출하는 관계 산출단계; 및
상기 관계를 통해 추정 대상 물체의 절대 좌표를 계산하는 위치 추정단계;를 포함하는 영상 내 물체의 위치 추정 방법.
a reference position unit arrangement step of arranging three or more reference position units on different specific absolute coordinates;
an image acquisition step of acquiring a two-dimensional image including both the reference position part and the estimated target object;
a relationship calculation step of calculating a relationship between the position of the reference position on the two-dimensional image and the actual position of the reference position; and
and a position estimation step of calculating the absolute coordinates of the estimation target object through the relationship.
제7항에 있어서,
상기 기준 위치부 배치단계에서, 상기 기준 위치부는 한 직사각형의 서로 다른 모서리 상에 배치되는 것을 특징으로 하는 영상 내 물체의 위치 추정 방법.
8. The method of claim 7,
In the arranging of the reference position unit, the reference position unit is disposed on different corners of a rectangle.
제8항에 있어서,
상기 이미지 획득단계 후에 진행되는 것으로서,
상기 2차원 이미지 상에서 상기 기준 위치부가 한 직사각형의 서로 다른 모서리 상에 위치하도록 2차원 이미지를 변환하는 이미지 변환단계를 더 포함하는 것을 특징으로 하는 영상 내 물체의 위치 추정 방법.
9. The method of claim 8,
As proceeds after the image acquisition step,
The method for estimating the position of an object in an image, further comprising an image conversion step of transforming the two-dimensional image so that the reference position part is located on different corners of a rectangle on the two-dimensional image.
제7항에 있어서,
상기 관계 산출단계 후에 진행되는 것으로서,
상기 관계를 통해 상기 이미지 획득단계에서 상기 2차원 이미지를 획득하는 이미지 획득부의 위치를 산출하는 이미지 획득부 위치 산출단계를 더 포함하는 것을 특징으로 하는 영상 내 물체의 위치 추정 방법.
8. The method of claim 7,
As proceeding after the relationship calculation step,
The method for estimating the position of an object in an image, further comprising an image acquisition unit position calculation step of calculating a position of the image acquisition unit acquiring the two-dimensional image in the image acquisition step through the relationship.
KR1020200184597A 2020-12-28 2020-12-28 System and method for estimating the position of object in image KR102451791B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200184597A KR102451791B1 (en) 2020-12-28 2020-12-28 System and method for estimating the position of object in image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200184597A KR102451791B1 (en) 2020-12-28 2020-12-28 System and method for estimating the position of object in image

Publications (2)

Publication Number Publication Date
KR20220094250A true KR20220094250A (en) 2022-07-06
KR102451791B1 KR102451791B1 (en) 2022-10-12

Family

ID=82400020

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200184597A KR102451791B1 (en) 2020-12-28 2020-12-28 System and method for estimating the position of object in image

Country Status (1)

Country Link
KR (1) KR102451791B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102498028B1 (en) * 2022-08-30 2023-02-10 주식회사 에프에스네트웍스 Surveillance Camera Systems and Mothod of Using the Same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101465652B1 (en) 2013-04-12 2014-11-28 성균관대학교산학협력단 Apparatus and method for calibration of a robot hand and a camera attached to robot hand
KR20160039066A (en) * 2014-09-30 2016-04-08 현대중공업 주식회사 A system for measuring a position of an object and a method for the same
JP2017097770A (en) * 2015-11-27 2017-06-01 富士通株式会社 Camera position pose estimation device, camera position pose estimation method and camera position pose estimation program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101465652B1 (en) 2013-04-12 2014-11-28 성균관대학교산학협력단 Apparatus and method for calibration of a robot hand and a camera attached to robot hand
KR20160039066A (en) * 2014-09-30 2016-04-08 현대중공업 주식회사 A system for measuring a position of an object and a method for the same
JP2017097770A (en) * 2015-11-27 2017-06-01 富士通株式会社 Camera position pose estimation device, camera position pose estimation method and camera position pose estimation program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102498028B1 (en) * 2022-08-30 2023-02-10 주식회사 에프에스네트웍스 Surveillance Camera Systems and Mothod of Using the Same

Also Published As

Publication number Publication date
KR102451791B1 (en) 2022-10-12

Similar Documents

Publication Publication Date Title
KR102532072B1 (en) System and method for automatic hand-eye calibration of vision system for robot motion
US11565427B2 (en) Robot system
JP6657469B2 (en) Automatic calibration method for robot system
CN109153125B (en) Method for orienting an industrial robot and industrial robot
JP4267005B2 (en) Measuring apparatus and calibration method
US10618166B2 (en) Teaching position correction device and teaching position correction method
JP3733364B2 (en) Teaching position correction method
CN106483963B (en) Automatic calibration method of robot system
JP5815761B2 (en) Visual sensor data creation system and detection simulation system
EP1413850A2 (en) Optical sensor for measuring position and orientation of an object in three dimensions
KR20140008262A (en) Robot system, robot, robot control device, robot control method, and robot control program
US20050159842A1 (en) Measuring system
JP5523392B2 (en) Calibration apparatus and calibration method
JP2019113895A (en) Imaging apparatus with visual sensor for imaging work-piece
JP2016185572A (en) Robot, robot control device, and robot system
WO2015132981A1 (en) Position measurement device and position measurement method
JP3644991B2 (en) Coordinate system coupling method in robot-sensor system
JP6885856B2 (en) Robot system and calibration method
CN111152243B (en) Control system
KR20170087996A (en) Calibration apparatus and the method for robot
KR102451791B1 (en) System and method for estimating the position of object in image
JP2019049467A (en) Distance measurement system and distance measurement method
JP2022183032A (en) Hand-eye calibration of camera-guided devices
KR20130075712A (en) A laser-vision sensor and calibration method thereof
JP2005186193A (en) Calibration method and three-dimensional position measuring method for robot

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right