KR101207462B1 - System for sensor revision used image information and distant-angle information - Google Patents

System for sensor revision used image information and distant-angle information Download PDF

Info

Publication number
KR101207462B1
KR101207462B1 KR1020110052416A KR20110052416A KR101207462B1 KR 101207462 B1 KR101207462 B1 KR 101207462B1 KR 1020110052416 A KR1020110052416 A KR 1020110052416A KR 20110052416 A KR20110052416 A KR 20110052416A KR 101207462 B1 KR101207462 B1 KR 101207462B1
Authority
KR
South Korea
Prior art keywords
distance
angle
unit
sensor unit
image
Prior art date
Application number
KR1020110052416A
Other languages
Korean (ko)
Inventor
민경원
손행선
이선영
이성호
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020110052416A priority Critical patent/KR101207462B1/en
Application granted granted Critical
Publication of KR101207462B1 publication Critical patent/KR101207462B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition

Abstract

PURPOSE: A sensor compensation system using video information and distance-angular information is provide to restructure the coordinates of the real world by using distance information obtained through output of a distance-angle sensor, and to automatically calculate a physical arrangement error in the distance-angle sensor and an image sensor. CONSTITUTION: An image sensor unit clearly recognizes an object from an input image. A distance-angle sensor unit extracts a rotation angle of the object by a laser. An information processing unit extracts the real location of the object. The information processing unit extracts the rotation angle of the object according to the extracted real location. The information processing unit outputs an error compensation signal. The error compensation signal directs the difference between the extracted rotation angles within a predetermined range.

Description

영상 정보와 거리-각도 정보를 이용한 센서 보정 시스템{System for sensor revision used image information and distant-angle information}Sensor correction system using image information and distance-angle information {System for sensor revision used image information and distant-angle information}

본 발명은 영상 센서로부터 획득한 영상 정보와 거리-각도 센서로부터 획득한 거리-각도 정보를 이용하여 영상 센서 또는 거리-각도 센서가 동일 선상에 위치하도록 보정하는 방안에 관한 것이다.
The present invention relates to a method of correcting an image sensor or a distance-angle sensor to be located on the same line by using image information obtained from an image sensor and distance-angle information obtained from a distance-angle sensor.

이동체에 탑재된 영상기반의 추돌방지, 회피 시스템은 일반적으로 영상획득부, 영상 감지부 및 감지 결과에 따라 획득된 영상에서 감지된 오브젝트의 추돌 가능성 여부를 경보하는 경보 장치로 구성된다.An image-based collision prevention and avoidance system mounted on a moving object is generally composed of an image acquisition unit, an image detection unit, and an alarm device that alerts whether a detected object is collided with the acquired image according to a detection result.

주행하는 이동체는 불연속적인 노면상태, 기계적인 진동, 구동장치의 가, 감속 등과 같은 외부의 다양한 요소에 의해 진동(흔들림)이 발생된다. 이로 인해 차량 내부에 장착된 카메라로부터 획득되는 영상 또한 이러한 진동에 의해 유사한 흔들림(변위)이 발생되며 이러한 요소들에 의해 검지된 오브젝트에 대한 안정적인 추적을 방해하게 된다.The traveling moving body generates vibrations (shakes) by various external factors such as discontinuous road conditions, mechanical vibrations, acceleration and deceleration of the driving device, and the like. As a result, images obtained from a camera mounted inside the vehicle also generate similar shakes (displacements) due to these vibrations, which prevents stable tracking of objects detected by these elements.

일반적으로 차량은 데이터 획득/표시 시스템(DAQ:Data Aquisition System)을 이용하여 필요한 데이터를 수집한다. 즉, 데이터 획득/표시 시스템은 레이더와 같은 거리-각도감지 센서의 성능 측정, 거리-각도감지 센서와 영상 센서 복합기기의 성능측정 및 복합 처리(Fusion Processing)를 수행하는 경우, 차량 또는 로봇 등과 같은 이동체에 영상센서와 거리-각도감지 센서를 동시 장착한다. 데이터 획득/표시 시스템은 장착된 거리-각도감지 센서로부터 획득한 거리-각도 정보와 영상센서로부터 획득한 영상정보(Object의 위치)를 획득하고, 획득한 정보를 하나의 화면상에 표시하는 시스템이다.In general, a vehicle collects necessary data by using a data acquisition system (DAQ). That is, the data acquisition / display system performs a performance measurement of a distance-angle detection sensor such as a radar, a performance measurement of a distance-angle detection sensor and an image sensor composite device, and a convergence processing, such as a vehicle or a robot. The image sensor and the distance-angle detection sensor are mounted on the moving body at the same time. The data acquisition / display system is a system for acquiring distance-angle information obtained from an installed distance-angle sensor and image information (position of an object) obtained from an image sensor, and displaying the acquired information on one screen. .

상술한 데이터 획득 시스템은 거리-각도 및 영상 정보를 정밀하게 획득하고, 획득한 정보를 화면상 표시를 위해서는 두 센서의 물리적인 위치정보 동기화 또는 보정에 대한 상세 정보가 필요하다.The above-described data acquisition system precisely acquires distance-angle and image information, and needs detailed information on synchronization or correction of physical location information of two sensors in order to display the acquired information on the screen.

도 1은 종래 차량에 장착되는 거리-각도 센서와 영상 센서의 장착 위치를 나타내고 있다. 도 1에 도시되어 있는 바와 같이 거리-각도 센서가 장착되는 위치와 영상 센서가 장착되는 위치가 상이하다. 일반적으로 거리-각도 센서는 차량의 전단부인 범퍼 부근에 장착되며, 영상 센서는 룸미러의 부근에 설치된다. 따라서 두 센서의 물리적인 위치가 서로 상이하므로, 두 센서로부터 획득한 정보를 하나의 화면에 표시하는 경우, 장착되는 위치로 인한 오차를 보정해 주어야 한다. 특히, 문제가 되는 오차는 도 1에 도시되어 있는 바와 같이 X축 방향의 오차가 특히 문제가 된다.1 illustrates a mounting position of a distance-angle sensor and an image sensor mounted on a conventional vehicle. As shown in FIG. 1, the position at which the distance-angle sensor is mounted is different from the position at which the image sensor is mounted. In general, the distance-angle sensor is mounted near the bumper, which is the front end of the vehicle, and the image sensor is installed near the room mirror. Therefore, since the physical positions of the two sensors are different from each other, when the information obtained from the two sensors is displayed on one screen, the error due to the mounting position should be corrected. In particular, the error in question is particularly problematic in the X-axis direction as shown in FIG.

즉, 단순히 원근 투영법(Perspective Projection)에 의해 획득된 영상 정보와 레이더와 같은 거리-각도 센서에 의해 감지된 오브젝트(Object)의 거리-각도 정보가 간단히 1:1 매칭이 될 수 없다.In other words, image information obtained by simply perspective projection and distance-angle information of an object detected by a distance-angle sensor such as a radar cannot be simply 1: 1 matched.

따라서 영상센서 및 거리-각도 감지 센서로 감지가 가능한 타깃을 감지 영역내의 특정 위치에 놓고, 이로부터 감지된 영상센서 및 거리-각도 감지 센서의 정보 오차를 직접 측정한 후 물리적인 설치 오차를 조절하여 오차를 보정해야 해야 한다.
Therefore, the target that can be detected by the image sensor and the distance-angle detection sensor is placed at a specific position within the detection area, and the information error of the image sensor and the distance-angle detection sensor detected therefrom is measured directly, and then the physical installation error is adjusted. The error should be corrected.

본 발명이 해결하려는 과제는 물체에 장착되는 영상 센서와 거리-각도 센서가 동일 선상에 위치하도록 보정하는 방안을 제안한다.The problem to be solved by the present invention proposes a method for correcting the image sensor and the distance-angle sensor mounted on the object to be located on the same line.

본 발명이 해결하려는 다른 과제는 영상 센서로부터 획득한 영상 정보와 거리-각도 센서로부터 획득한 거리-각도 정보를 이용하여 영상 센서와 거리-각도 센서가 동일 선상에 위치하도록 보정하는 방안을 제안한다.Another object of the present invention is to propose a method of correcting the image sensor and the distance-angle sensor on the same line by using the image information obtained from the image sensor and the distance-angle information obtained from the distance-angle sensor.

본 발명이 해결하려는 또 다른 과제는 영상 센서로부터 획득한 영상 정보와 거리-각도 센서로부터 획득한 거리-각도 정보를 이용하여 영상 센서와 거리-각도 센서가 동일 선상에 위치하도록 자동으로 보정하는 방안을 제안한다.
Another problem to be solved by the present invention is to automatically calibrate the image sensor and the distance-angle sensor by using the image information obtained from the image sensor and the distance-angle information obtained from the distance-angle sensor. Suggest.

이를 위해 본 발명의 센서 보정 시스템은 입력되는 영상으로부터 오브젝트를 인식하고, 인식된 오브젝트의 무게중심을 추출하는 영상 센서부, 레이저를 이용하여 상기 오브젝트까지의 거리 및 전방을 기준으로 좌우 방향으로 회전된 상기 오브젝트의 회전각도(θ1)를 추출하는 거리-각도 센서부, 상기 영상 센서부로부터 제공된 오브젝트의 상기 무게 중심과 상기 거리-각도 센서부로부터 제공된 상기 오브젝트의 거리를 이용하여 상기 오브젝트의 실제 위치를 추출하고, 추출한 실제 위치를 이용하여 상기 영상 센서부의 전방을 기준으로 좌우 방향으로 회전된 상기 오브젝트의 회전각도(θ2)를 추출하고, 추출한 상기 θ1와 θ2의 차이가 설정된 범위 이내에 포함되도록 지시하는 오차 보정 신호를 출력하는 정보 처리부를 포함한다.To this end, the sensor correction system of the present invention recognizes an object from an input image, rotates the image sensor unit to extract the center of gravity of the recognized object, and the distance to the object and the front side using a laser in the horizontal direction. A distance-angle sensor unit for extracting the rotation angle θ1 of the object, an actual position of the object by using the center of gravity of the object provided from the image sensor unit and the distance of the object provided from the distance-angle sensor unit An error of extracting a rotation angle θ2 of the object rotated in the left and right direction with respect to the front of the image sensor unit by using the extracted actual position, and indicating that the difference between the extracted θ1 and θ2 is included within a set range And an information processor for outputting a correction signal.

이를 위해 본 발명의 센서 보정 시스템은 입력되는 영상으로부터 오브젝트를 인식하고, 인식된 오브젝트의 무게중심을 추출하는 영상 센서부, 레이저를 이용하여 상기 오브젝트까지의 거리 및 전방을 기준으로 좌우 방향으로 회전된 상기 오브젝트의 회전각도(θ1)를 추출하는 거리-각도 센서부, 상기 영상 센서부로부터 제공된 오브젝트의 상기 무게 중심과 상기 거리-각도 센서부로부터 제공된 상기 오브젝트의 거리를 이용하여 상기 오브젝트의 실제 위치를 추출하는 원근 투영 수행부, 추출한 상기 실제 위치를 이용하여 상기 영상 센서부의 전방을 기준으로 회전된 상기 오브젝트의 회전각도(θ2)를 추출하는 각도 정보 추출부, 추출한 상기 θ1와 θ2의 차이가 설정된 범위 이내에 포함되도록 지시하는 오차 보정 신호를 출력하는 보정 신호 출력부를 포함한다.
To this end, the sensor correction system of the present invention recognizes an object from an input image, rotates the image sensor unit to extract the center of gravity of the recognized object, and the distance to the object and the front side using a laser in the horizontal direction. A distance-angle sensor unit for extracting the rotation angle θ1 of the object, an actual position of the object by using the center of gravity of the object provided from the image sensor unit and the distance of the object provided from the distance-angle sensor unit An extracting perspective projection unit, an angle information extractor extracting a rotation angle θ2 of the object rotated relative to the front of the image sensor unit by using the extracted actual position, and a range in which the difference between the extracted θ1 and θ2 is set A correction signal output unit for outputting an error correction signal indicating to be included within It should.

본 발명은 기존, 영상 및 거리/각도 동시 저장 시스템에서 사용자가 수동 형태로 영상센서 및 거리-각도 센서의 위치를 보정하여야 하였던 문제점을 극복하고, 영상인식 기술을 적용하여 획득한 영상내의 오브젝트 정보와 거리-각도 센서의 출력을 통해 획득된 거리 정보를 이용하여 화면상에 투영되기 이전의 실제 세계(Real-World)의 좌표를 재구성함으로써 자동적으로 영상센서와 거리-각도 센서의 물리적인 정렬 오차를 계산할 수 있다.The present invention overcomes the problem that the user had to manually correct the position of the image sensor and the distance-angle sensor in the image and distance / angle simultaneous storage system, and obtains object information in the image obtained by applying image recognition technology. Using the distance information acquired through the output of the distance-angle sensor, the physical alignment error of the image sensor and the distance-angle sensor can be automatically calculated by reconstructing the coordinates of the real-world before the projection on the screen. Can be.

상기와 같은 물리적인 정렬오차를 계산하는 방법에 의해 각종 이동 또는 고정 장치에 설치된 거리-각도 센서 또는 영상센서의 이송장치를 이용함으로써 물리적인 정렬 오차를 보정하고, 정밀한 영상 정보 및 거리-각도 정보를 동시에 획득하는 것이 가능하게 된다.
By using the method of calculating the physical alignment error as described above, the physical alignment error is corrected by using a distance-angle sensor or a transfer device of an image sensor installed in various moving or fixed devices, and precise image information and distance-angle information are obtained. It is possible to acquire at the same time.

도 1은 종래 차량에 장착되는 거리-각도 센서와 영상 센서의 장착 위치를 나타내고 있다.
도 2는 본 발명의 일실시 예에 따른 영상 센서를 통해 획득되는 현실 세계의 영상을 원근 투시법에 의해 화면상에 표시하는 예를 나타내고 있다.
도 3은 본 발명의 일실시 예에 따른 영상 투영법에 의해 투영된 영상과 현실 세계의 영상의 차이를 나타내는 도면이다.
도 4는 본 발명에 일실시 예에 따른 센서 보정 시스템의 구성을 도시한 블록도이다.
도 5는 본 발명에 일실시 예에 따른 각도 정보 추출부에서 각도를 추출하는 예를 도시하고 있다.
1 illustrates a mounting position of a distance-angle sensor and an image sensor mounted on a conventional vehicle.
2 illustrates an example of displaying an image of a real world acquired through an image sensor according to an embodiment of the present invention on a screen by perspective perspective.
3 is a diagram illustrating a difference between an image projected by an image projection method and an image of a real world according to an exemplary embodiment.
4 is a block diagram showing the configuration of a sensor correction system according to an embodiment of the present invention.
5 illustrates an example of extracting an angle from an angle information extractor according to an exemplary embodiment of the present invention.

전술한, 그리고 추가적인 본 발명의 양상들은 첨부된 도면을 참조하여 설명되는 바람직한 실시 예들을 통하여 더욱 명백해질 것이다. 이하에서는 본 발명의 이러한 실시 예를 통해 당업자가 용이하게 이해하고 재현할 수 있도록 상세히 설명하기로 한다.The foregoing and further aspects of the present invention will become more apparent through the preferred embodiments described with reference to the accompanying drawings. Hereinafter will be described in detail to enable those skilled in the art to easily understand and reproduce through this embodiment of the present invention.

도 2는 본 발명의 일실시 예에 따른 영상 센서를 통해 획득되는 현실 세계의 영상을 원근 투시법에 의해 화면상에 표시하는 예를 나타내고 있다. 원근 투시법에 의해 표시되는 화면은 소실점과 소실선을 나타내고 있다. 원근 투시법에 의해 투영되어 화면상에 표시되는 영상은 현실 세계의 영상과 차이가 있다. 2 illustrates an example of displaying an image of a real world acquired through an image sensor according to an embodiment of the present invention on a screen by perspective perspective. The screen displayed by the perspective view shows the vanishing point and the vanishing line. The image projected by the perspective view and displayed on the screen is different from the image of the real world.

도 3은 본 발명의 일실시 예에 따른 영상 투영법에 의해 투영된 영상과 현실 세계의 영상의 차이를 나타내는 도면이다. 이하 도 3을 이용하여 영상 투영법에 의해 투영된 영상과 현실 세계의 영상의 차이를 결정하는 과정에 대해 알아보기로 한다.3 is a diagram illustrating a difference between an image projected by an image projection method and an image of a real world according to an exemplary embodiment. Hereinafter, a process of determining a difference between an image projected by an image projection method and an image of the real world will be described with reference to FIG. 3.

일반적으로 현실 세계의 3차원 좌표는 화면상에 다음과 같은 공식에 의해 2차원 화면상에 투영된다. 즉, 현실 세계에 특정 오브젝트는 거리에 반비례하여 위치 및 크기가 줄어들게 된다.In general, the three-dimensional coordinates of the real world are projected on a two-dimensional screen by the following formula. In other words, a particular object in the real world is reduced in position and size in inverse proportion to distance.

도 3의 (a)는 영상 센서에 의해 획득된 영상이 특정 거리에 있는 평면상에 투영되는 예를 도시하고 있으며, 도 3의 (b)는 특정 거리에 있는 평면을 영상이 있는 방향으로 이동시킨 예를 도시하고 있다.FIG. 3A illustrates an example in which an image acquired by an image sensor is projected onto a plane at a specific distance, and FIG. 3B illustrates a movement of a plane at a specific distance in a direction in which the image is located. An example is shown.

도 3에 의하면, 영상 센서에 의해 획득된 영상은 렌즈로부터 f 거리에 있는 평면상에 투영된다. f는 카메라의 초점 길이(focal length)로 일반적으로 영상 센서에서 제공한다. 도 3에 의하면 실제 세계의 영상은 특정 거리에 있는 평면에는 다음의 수학식 1과 같이 표시된다.According to FIG. 3, the image acquired by the image sensor is projected onto a plane at distance f from the lens. f is the focal length of the camera and is usually provided by the image sensor. According to FIG. 3, an image of the real world is displayed on a plane at a specific distance as shown in Equation 1 below.

[수학식 1][Equation 1]

f/Z = r/R f / Z = r / R

x/X = y/Y = z/Zx / X = y / Y = z / Z

x = Xf/Z, y = Yf/Z, z = fx = Xf / Z, y = Yf / Z, z = f

x, x, z: 평면상에 투영된 오브젝트의 위치 좌표값x, x, z: position coordinates of the object projected on the plane

X, Y, Z : 실제세계에 위치하고 있는 오브젝트의 위치 좌표값X, Y, Z: Position coordinates of the object in the real world

f : 카메라의 초점 길이f: focal length of camera

r: 카메라 렌즈로부터 평면상에 투영된 오브젝트까지의 거리 r: Distance from the camera lens to the object projected on the plane

R: 카메라 렌즈로부터 실제세계에 위치하고 있는 오브젝트까지의 거리
R: Distance from the camera lens to the object in the real world

수학식 1에 의하면, 카메라 초점 길이인 f 이외에 x, y, Z 값을 알게 되면 실제세계에 위치하고 있는 오브젝트의 X, Y 값을 알게 된다. 이하에서는 실제세계에 위치하고 있는 오브젝트의 X, Y값을 산출하는 과정에 대해 알아보기로 한다.According to Equation 1, when x, y, and Z values other than the focal length of the camera are known, X, Y values of objects located in the real world are known. Hereinafter, a process of calculating X and Y values of an object located in the real world will be described.

도 4는 본 발명에 일실시 예에 따른 센서 보정 시스템의 구성을 도시한 블록도이다. 이하 도 4를 이용하여 본 발명의 일실시 예에 따른 센서 보정 시스템의 구성에 대해 알아보기로 한다.4 is a block diagram showing the configuration of a sensor correction system according to an embodiment of the present invention. Hereinafter, a configuration of a sensor correction system according to an embodiment of the present invention will be described with reference to FIG. 4.

도 4에 의하면, 센서 보정 시스템은 영상 센서부, 거리-각도 센서부, 정보 처리부, 센서 보정부를 포함한다. 영상 센서부는 카메라, 오브젝트 인식부, 오브젝트 무게 중심 추출부를 포함하며, 거리-각도 센서부는 레이더 신호 송수신부, 레이터 신호 처리부, 오브젝트 정보 추출부를 포함한다. 또한, 정보 처리부는 원근 투영 처리부, 각도 정보 추출부, 보정 신호 출력부를 포함한다. 이하 먼저 영상 센서부에서 수행되는 동작에 대해 알아보기로 한다.According to FIG. 4, the sensor correction system includes an image sensor unit, a distance-angle sensor unit, an information processor, and a sensor correction unit. The image sensor unit includes a camera, an object recognition unit, and an object center of gravity extractor, and the distance-angle sensor unit includes a radar signal transceiver, a radar signal processor, and an object information extractor. The information processing unit also includes a perspective projection processing unit, an angle information extraction unit, and a correction signal output unit. First, an operation performed by the image sensor unit will be described.

카메라(402)는 렌즈를 통해 입력되는 영상을 회득한다. 획득된 영상은 오브젝트 인식부(404)로 전달된다. 오브젝트 인식부(404)는 분류 알고리즘의 인식 학습 파라미터에 따라 각기 다른 오브젝트를 인식할 수 있는 장치이다. 오브젝트에 대한 인식 방법은 학습된 DB 정보를 영상에서 윈도우(Window) 크기만큼 잘라낸 이미지를 매칭하여 인식 학습된 오브젝트인지의 여부를 판단하는 Sliding Window 방식을 사용한다.The camera 402 acquires an image input through the lens. The obtained image is transmitted to the object recognizer 404. The object recognizer 404 is a device capable of recognizing different objects according to the recognition learning parameter of the classification algorithm. The object recognition method uses a sliding window method that determines whether the object is a trained object by matching an image obtained by cutting the learned DB information by the window size from the image.

상기의 과정을 통해 최종 인식된 오브젝트 정보는 오브젝트 무게중심 검출부(406)를 통해서 오브젝트의 중심좌표를 추출한다. 오브젝트 무게중심 검출은 Sliding Windowing 방법에 의해 검출된 오브젝트의 아웃라인(Outline)의 각 지점 좌표를 기준으로 중심점을 찾는 영상에서의 일반적인 무게중심 추출법을 통해 최종 검지된 영상의 무게중심(즉, x, y 좌표)이 추출된다. 상술한 바와 같이 무게중심 추출법을 이용하여 영상의 x, y 좌표를 획득하게 된다. The object information finally recognized through the above process extracts the center coordinates of the object through the object center of gravity detection unit 406. Object center of gravity detection is the center of gravity of the final detected image (ie x, x) through a general center of gravity extraction method for finding center points based on the coordinates of each point of the outline of the object detected by the sliding windowing method. y coordinate) is extracted. As described above, the x and y coordinates of the image are obtained by using the center of gravity extraction method.

레이더 신호 송수신부(412)는 오브젝트로 레이더를 송신하고, 반사된 레이터를 수신한다. 레이터 신호 처리부(414)는 수신된 레이터를 입력받아 설정된 프로그램에 따라 신호를 처리한다. 오브젝트 정보 추출부(416)는 레이터 신호 처리부에서 처리한 신호로부터 오브젝트를 추출하고, 추출한 오브젝트의 거리 및 각도(방향)를 추출한다.The radar signal transceiver 412 transmits the radar to the object and receives the reflected radar. The radar signal processor 414 receives the received radar and processes a signal according to a set program. The object information extracting unit 416 extracts an object from the signal processed by the radar signal processing unit, and extracts the distance and angle (direction) of the extracted object.

거리-각도 센서부(410)로부터 추출된 거리 정보를 이용하여 영상 센서 즉 카메라로부터 오브젝트까지의 거리를 측정할 수 있다. 상술한 도 1에 도시되어 있는 바와 같이 거리-각도 센서와 영상 센서의 수평 장착 위치는 동일하지는 않으나, 이는 일반적인 측정도구를 이용하여 간단하게 측정할 수 있다.The distance from the image sensor, that is, the camera, to the object may be measured using the distance information extracted from the distance-angle sensor unit 410. As shown in FIG. 1, the horizontal mounting positions of the distance-angle sensor and the image sensor are not the same, but can be measured simply by using a general measuring tool.

원근 투영 처리부(422)는 영상센서를 통해 검지된 오브젝트의 실제 세계의 X, Y좌표를 추출한다. 거리-각도 센서부를 통해 검지된 거리 정보(Z)와 영상 센서부를 통해 획득한 좌표(x, y)를 이용하여 실제 세계에 위치하고 있는 오브젝트의 X, Y좌표를 추출할 수 있다.The perspective projection processor 422 extracts X and Y coordinates of the real world of the object detected by the image sensor. X and Y coordinates of an object located in the real world may be extracted using distance information Z detected through the distance-angle sensor unit and coordinates (x, y) obtained through the image sensor unit.

이와 같이 본 발명은 영상 센서로부터 추출한 오브젝트의 x, y 정보와 거리-각도 센서로부터 추출한 거리(Z)를 이용하여 2차원 평면상으로 이동된 오브젝트가 실제 위치하고 있는 X, Y값을 획득한다.As described above, the present invention obtains X and Y values in which an object moved on a two-dimensional plane is actually located using x and y information of an object extracted from an image sensor and a distance Z extracted from a distance-angle sensor.

각도 정보 추출부(424)는 원근 투영 과정을 통해 추출된 실제세계의 X, Y를 통해 영상 센서부를 통해 검지된 오브젝트의 중심점에 대한 각도 정보를 추출한다.The angle information extractor 424 extracts angle information of the center point of the object detected by the image sensor through X and Y of the real world extracted through the perspective projection process.

도 5는 본 발명에 일실시 예에 따른 각도 정보 추출부에서 각도를 추출하는 예를 도시하고 있다. 이하 도 5를 이용하여 본 발명의 일실시 예에 따른 각도 정보 추출부에서 각도를 추출하는 과정에 대해 알아보기로 한다.5 illustrates an example of extracting an angle from an angle information extractor according to an exemplary embodiment of the present invention. Hereinafter, a process of extracting an angle from the angle information extractor according to an embodiment of the present invention will be described with reference to FIG. 5.

각도 정보 추출부(424)는 전달받은 오브젝트의 실제 위치인 X, Y값을 이용하여 영상 센서의 전방으로부터 회전각도( θ1)를 산출한다.The angle information extractor 424 calculates the rotation angle θ1 from the front of the image sensor by using the X and Y values which are actual positions of the received object.

보정 신호 출력부(426)는 원근 투영 과정을 통해 실제 세계의 좌표 정보로부터 추출된 각도 정보와 거리-각도 센서부(410)의 출력값 중 하나인 각도 정보를 비교하여 보정정보를 출력한다. 출력되는 보정정보는 도 5의 그림과 같이 영상센서와 거리-각도 센서의 동일 오브젝트에 대한 검출 각도값인 θ1과 θ2를 비교하여 그 값이 같지 않거나 오차범위 이내가 아닐 경우 영상센서 또는 거리-각도 센서의 위치를 이동하도록 보정신호를 출력한다.The correction signal output unit 426 outputs the correction information by comparing the angle information extracted from the coordinate information of the real world through the perspective projection process with the angle information which is one of the output values of the distance-angle sensor unit 410. The output correction information is compared with the detection angle values θ1 and θ2 of the same object of the image sensor and the distance-angle sensor as shown in FIG. 5, and when the values are not the same or within an error range, the image sensor or the distance-angle A correction signal is output to move the position of the sensor.

도 5에 도시되어 있는 바와 같이 영상센서부(400)를 통해 검지된 오브젝트의 각도값인 θ1이 거리-속도 센서부(410)의 검지값인 θ2보다 큰 경우이고, 이동 가능한 센서가 영상센서인 경우 영상센서는 우측으로 위치를 이동한다. 보정 신호 출력부는 상술한 과정을 반복하여 수행하며 최종적으로 출력값이 제로(0) 또는 설정된 문턱값(Thershold Value)이내가 되면 보정 신호 출력부(426)를 통한 보정 과정을 완료된다. 만일 이동 가능한 센서가 거리-각도 센서이라면 상술한 과정과 반대 과정의 보정 절차를 수행하게 된다.As shown in FIG. 5, the angle value θ1 of the object detected through the image sensor unit 400 is larger than θ2, which is a detection value of the distance-speed sensor unit 410, and the movable sensor is an image sensor. In this case, the image sensor moves to the right. The correction signal output unit repeats the above-described process, and finally, when the output value is within zero (0) or the set threshold value (Thershold Value), the correction process through the correction signal output unit 426 is completed. If the movable sensor is a distance-angle sensor, the calibration procedure of the above-described process is reversed.

영상센서부(400)를 통해 검지된 오브젝트의 각도값인 θ1이 거리-속도 센서부(410)의 검지값인 θ2보다 작은 경우이고, 이동 가능한 센서가 영상센서인 경우 영상센서는 좌측으로 위치를 이동한다. 보정 신호 출력부는 상술한 과정을 반복하여 수행하며 최종적으로 출력값이 제로 또는 설정된 문턱값(Thershold Value)이내가 되면 보정 신호 출력부를 통한 보정 과정을 완료된다. When the angle value θ1 of the object detected by the image sensor 400 is smaller than θ2, which is the detection value of the distance-speed sensor 410, and the movable sensor is the image sensor, the image sensor moves to the left. Move. The correction signal output unit repeats the above-described process, and finally, when the output value is zero or less than a predetermined threshold value, the correction process through the correction signal output unit is completed.

센서 보정부(430)는 보정 신호 출력부(426)로부터 전달받은 보정 신호에 따라 영상 센서 또는 거리-각도 센서를 좌측 또는 우측으로 이동시킨다.The sensor corrector 430 moves the image sensor or the distance-angle sensor left or right according to the correction signal received from the correction signal output unit 426.

이와 같이 본 발명은 영상 센서의 장착 위치 중 X축(차량 폭 방향) 좌표와 거리-각도 센서의 장착 위치 중 X축(차량 폭 방향) 좌표를 일치시키는 방안을 제안한다.As described above, the present invention proposes a method of matching the X-axis (vehicle width direction) coordinates of the mounting position of the image sensor with the X-axis (vehicle width direction) coordinates of the mounting position of the distance-angle sensor.

본 발명은 도면에 도시된 일실시 예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the scope of the present invention .

400: 영상 센서부 402: 카메라
404: 오브젝트 인식부 406: 오브젝트 무게중심 추출부
410: 거리-각도 센서부 412: 레이더 신호 송수신부
414: 레이더 신호 처리부 416: 오브젝트 정보 추출부
420: 정보 처리부 422: 원근 투영 처리부
424: 각도 정보 추출부 426: 보정 신호 출력부
430: 각도 보정부
400: image sensor 402: camera
404: object recognition unit 406: object center of gravity extraction unit
410: distance-angle sensor unit 412: radar signal transceiver
414: radar signal processing unit 416: object information extraction unit
420: information processing unit 422: perspective projection processing unit
424: angle information extraction unit 426: correction signal output unit
430: angle correction unit

Claims (8)

입력되는 영상으로부터 오브젝트를 인식하고, 인식된 오브젝트의 무게중심을 추출하는 영상 센서부;
레이저를 이용하여 상기 오브젝트까지의 거리 및 전방을 기준으로 좌우 방향으로 회전된 상기 오브젝트의 회전각도(θ1)를 추출하는 거리-각도 센서부;
상기 영상 센서부로부터 제공된 오브젝트의 상기 무게 중심과 상기 거리-각도 센서부로부터 제공된 상기 오브젝트의 거리를 이용하여 상기 오브젝트의 실제 위치를 추출하고, 추출한 실제 위치를 이용하여 상기 영상 센서부의 전방을 기준으로 좌우 방향으로 회전된 상기 오브젝트의 회전각도(θ2)를 추출하고, 추출한 상기 θ1와 θ2의 차이가 설정된 범위 이내에 포함되도록 지시하는 오차 보정 신호를 출력하는 정보 처리부;를 포함함을 특징으로 하는 센서 보정 시스템.
An image sensor unit recognizing an object from an input image and extracting a center of gravity of the recognized object;
A distance-angle sensor unit for extracting a rotation angle [theta] 1 of the object rotated in the horizontal direction based on the distance to the object and the front using a laser;
The actual position of the object is extracted using the center of gravity of the object provided from the image sensor unit and the distance of the object provided from the distance-angle sensor unit, and based on the front of the image sensor unit using the extracted actual position. And an information processor for extracting a rotation angle θ2 of the object rotated in the left and right directions, and outputting an error correction signal instructing the difference between the extracted θ1 and θ2 to fall within a set range. system.
제 1항에 있어서, 상기 오차 보정 신호에 따라 상기 영상 센서 또는 상기 거리-각도 센서 중 적어도 하나를 이동시키는 각도 보정부를 포함함을 특징으로 센서 보정 시스템.
The sensor correction system of claim 1, further comprising an angle correction unit configured to move at least one of the image sensor and the distance-angle sensor according to the error correction signal.
제 1항에 있어서, 상기 영상 센서부는,
영상을 획득하는 카메라;
상기 카메라로부터 획득된 영상 중에 포함된 오브젝트를 인식하는 오브젝트 인식부;
인식된 상기 오브젝트의 무게 중심을 추출하는 무게중심 추출부를 포함함을 특징으로 하는 센서 보정 시스템.
The method of claim 1, wherein the image sensor unit,
A camera for acquiring an image;
An object recognizing unit recognizing an object included in the image acquired from the camera;
And a center of gravity extraction unit for extracting the recognized center of gravity of the object.
제 3항에 있어서, 상기 거리-각도 센서부,
레이더를 송신하며, 송신된 상기 레이더 중 반사되는 레이더를 수신하는 레이더 송수신부;
수신된 상기 레이더를 이용하여 상기 오브젝트의 위치 및 각도를 추출하는 오브젝트 추출부를 포함함을 특징으로 하는 센서 보정 시스템.
The method of claim 3, wherein the distance-angle sensor unit,
A radar transceiver for transmitting a radar and receiving a reflected radar among the transmitted radars;
And an object extractor configured to extract the position and angle of the object using the received radar.
제 4항에 있어서, 상기 정보 처리부는,
상기 영상 센서부로부터 제공된 오브젝트의 상기 무게 중심과 상기 거리-각도 센서부로부터 제공된 상기 오브젝트의 거리를 이용하여 상기 오브젝트의 실제 위치를 추출하는 원근 투영 수행부;
추출한 상기 실제 위치를 이용하여 상기 영상 센서부의 전방을 기준으로 회전된 상기 오브젝트의 회전각도(θ2)를 추출하는 각도 정보 추출부;
추출한 상기 θ1와 θ2의 차이가 설정된 범위 이내에 포함되도록 지시하는 오차 보정 신호를 출력하는 보정 신호 출력부를 포함함을 특징으로 하는 센서 보정 시스템.
The method of claim 4, wherein the information processing unit,
A perspective projection performing unit extracting an actual position of the object by using the center of gravity of the object provided from the image sensor unit and the distance of the object provided from the distance-angle sensor unit;
An angle information extraction unit for extracting a rotation angle θ2 of the object rotated with respect to the front of the image sensor unit by using the extracted actual position;
And a correction signal output unit for outputting an error correction signal instructing the extracted difference between θ1 and θ2 to fall within a set range.
제 5항에 있어서, 상기 원근 투영 수행부는,
기 저장된 카메라의 초점 길이, 렌즈를 통해 입력된 상기 오브젝트가 상기 렌즈로부터 상기 초점 길이만큼 이격된 거리에 위치하고 있는 평면상에 투영된 x, y좌표값과 상기 거리-각도 센서부로부터 제공된 상기 오브젝트의 거리를 이용하여 상기 오브젝트의 실제 위치를 획득함을 특징으로 하는 센서 보정 시스템.
The method of claim 5, wherein the perspective projection performing unit,
The focal length of the previously stored camera, the x and y coordinate values projected on a plane in which the object input through the lens is located at a distance spaced from the lens by the focal length, and of the object provided from the distance-angle sensor unit. And a distance is obtained to obtain the actual position of the object.
입력되는 영상으로부터 오브젝트를 인식하고, 인식된 오브젝트의 무게중심을 추출하는 영상 센서부;
레이저를 이용하여 상기 오브젝트까지의 거리 및 전방을 기준으로 좌우 방향으로 회전된 상기 오브젝트의 회전각도(θ1)를 추출하는 거리-각도 센서부;
상기 영상 센서부로부터 제공된 오브젝트의 상기 무게 중심과 상기 거리-각도 센서부로부터 제공된 상기 오브젝트의 거리를 이용하여 상기 오브젝트의 실제 위치를 추출하는 원근 투영 수행부;
추출한 상기 실제 위치를 이용하여 상기 영상 센서부의 전방을 기준으로 회전된 상기 오브젝트의 회전각도(θ2)를 추출하는 각도 정보 추출부;
추출한 상기 θ1와 θ2의 차이가 설정된 범위 이내에 포함되도록 지시하는 오차 보정 신호를 출력하는 보정 신호 출력부를 포함함을 특징으로 하는 센서 보정 시스템.
An image sensor unit recognizing an object from an input image and extracting a center of gravity of the recognized object;
A distance-angle sensor unit for extracting a rotation angle [theta] 1 of the object rotated in the horizontal direction based on the distance to the object and the front using a laser;
A perspective projection performing unit extracting an actual position of the object by using the center of gravity of the object provided from the image sensor unit and the distance of the object provided from the distance-angle sensor unit;
An angle information extraction unit for extracting a rotation angle θ2 of the object rotated with respect to the front of the image sensor unit by using the extracted actual position;
And a correction signal output unit for outputting an error correction signal instructing the extracted difference between θ1 and θ2 to fall within a set range.
제 7항에 있어서, 상기 원근 투영 수행부는,
기 저장된 카메라의 초점 길이, 렌즈를 통해 입력된 상기 오브젝트가 상기 렌즈로부터 상기 초점 길이만큼 이격된 거리에 위치하고 있는 평면상에 투영된 x, y좌표값과 상기 거리-각도 센서부로부터 제공된 상기 오브젝트의 거리를 이용하여 상기 오브젝트의 실제 위치를 획득함을 특징으로 하는 센서 보정 시스템.
The method of claim 7, wherein the perspective projection performing unit,
The focal length of the previously stored camera, the x and y coordinate values projected on a plane in which the object input through the lens is located at a distance spaced from the lens by the focal length, and of the object provided from the distance-angle sensor unit. And a distance is obtained to obtain the actual position of the object.
KR1020110052416A 2011-05-31 2011-05-31 System for sensor revision used image information and distant-angle information KR101207462B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110052416A KR101207462B1 (en) 2011-05-31 2011-05-31 System for sensor revision used image information and distant-angle information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110052416A KR101207462B1 (en) 2011-05-31 2011-05-31 System for sensor revision used image information and distant-angle information

Publications (1)

Publication Number Publication Date
KR101207462B1 true KR101207462B1 (en) 2012-12-03

Family

ID=47906739

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110052416A KR101207462B1 (en) 2011-05-31 2011-05-31 System for sensor revision used image information and distant-angle information

Country Status (1)

Country Link
KR (1) KR101207462B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015191204A1 (en) * 2014-06-12 2015-12-17 Google Inc. Methods and systems for calibrating sensors using recognized objects
KR20190002142A (en) * 2017-06-29 2019-01-08 주식회사 케이티 System and method for security

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000230807A (en) 1999-02-10 2000-08-22 Micro Research:Kk Method for distance measurement using parallel light and its instrument

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000230807A (en) 1999-02-10 2000-08-22 Micro Research:Kk Method for distance measurement using parallel light and its instrument

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015191204A1 (en) * 2014-06-12 2015-12-17 Google Inc. Methods and systems for calibrating sensors using recognized objects
KR20190002142A (en) * 2017-06-29 2019-01-08 주식회사 케이티 System and method for security
KR102441436B1 (en) 2017-06-29 2022-09-07 주식회사 케이티 System and method for security

Similar Documents

Publication Publication Date Title
US20210124029A1 (en) Calibration of laser and vision sensors
US10620000B2 (en) Calibration apparatus, calibration method, and calibration program
US10341633B2 (en) Systems and methods for correcting erroneous depth information
JP7160040B2 (en) Signal processing device, signal processing method, program, moving object, and signal processing system
US10422871B2 (en) Object recognition apparatus using a plurality of object detecting means
JP6458651B2 (en) Road marking detection device and road marking detection method
JP6450294B2 (en) Object detection apparatus, object detection method, and program
JP2006252473A (en) Obstacle detector, calibration device, calibration method and calibration program
WO2019012770A1 (en) Imaging device and monitoring device
US20120327236A1 (en) Vehicle Periphery Monitoring System
JP2015190921A (en) Vehicle stereo-image processing apparatus
JP6708730B2 (en) Mobile
JP5775965B2 (en) Stereo camera system and moving body
RU2650098C1 (en) Device and method for detecting obstacles on a horizontal plane
JP6515650B2 (en) Calibration apparatus, distance measuring apparatus and calibration method
KR20140137577A (en) Apparatus and method for providing vehicle of circumference environment information
JP2017215214A (en) Moving object detection device, program and record medium
US11346663B2 (en) Stereo camera
KR101207462B1 (en) System for sensor revision used image information and distant-angle information
JP2015172876A (en) Vehicle periphery monitoring device, vehicle periphery monitoring system, and program
JP2007233440A (en) On-vehicle image processor
JP4026641B2 (en) Object detection apparatus and object detection method
JP2020047059A (en) Traveling environment detector of vehicle and traveling control system
KR101853652B1 (en) Around view genegation method and apparatus performing the same
KR102479253B1 (en) Method for compensating camera tolerance based on a camera image of a vehicle

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150626

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20191001

Year of fee payment: 8