KR101394736B1 - A control system for Wrap-arround view running device - Google Patents

A control system for Wrap-arround view running device Download PDF

Info

Publication number
KR101394736B1
KR101394736B1 KR1020120101424A KR20120101424A KR101394736B1 KR 101394736 B1 KR101394736 B1 KR 101394736B1 KR 1020120101424 A KR1020120101424 A KR 1020120101424A KR 20120101424 A KR20120101424 A KR 20120101424A KR 101394736 B1 KR101394736 B1 KR 101394736B1
Authority
KR
South Korea
Prior art keywords
image
driving
omnidirectional
unit
traveling
Prior art date
Application number
KR1020120101424A
Other languages
Korean (ko)
Other versions
KR20140036391A (en
Inventor
이철섭
김진상
정창도
Original Assignee
타이코에이엠피(유)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 타이코에이엠피(유) filed Critical 타이코에이엠피(유)
Priority to KR1020120101424A priority Critical patent/KR101394736B1/en
Publication of KR20140036391A publication Critical patent/KR20140036391A/en
Application granted granted Critical
Publication of KR101394736B1 publication Critical patent/KR101394736B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera

Abstract

본 발명은 엔진 또는 모터의 힘으로 이동 가능한 주행부와, 상기 주행부와 결합되어 함께 이동하면서 전/후/좌/우 영상을 촬영하는 영상촬영부와, 상기 영상촬영부에서 촬영된 영상의 왜곡을 보정하고 보정된 영상을 정합하여 무선통신을 통해 전송하는 데이터통신 제어부를 포함하는 전방위 모니터링 주행장치와, 상기 전방위 모니터링 주행장치에서 촬영된 주변영상이 도시되며, 도시된 주변영상을 확인하면서 상기 전방위 모니터링 주행장치에 제어명령을 전달할 수 있는 주행제어 단말기 및 상기 전방위 모니터링 주행장치에서 촬영되어 정합된 전방위 영상을 무선통신을 통해 수신하고, 수신된 전방위 영상을 상기 주행제어 단말기로 전송하며, 상기 주행제어 단말기를 통해 입력된 주행제어 신호를 상기 전방위 모니터링 주행장치로 전달하여 제어가 이루어질 수 있도록 하는 서버를 포함하며, 상기 데이터통신 제어부에는 상기 영상촬영부에서 촬영된 영상의 왜곡을 보정하고 정합하기 위한 제 1 SBC와, 상기 주행제어 단말기에서 입력된 주행제어 신호를 상기 서버를 통해 수신하여 상기 주행부에서 인식 가능한 신호로 변환하여 전달하기 위한 제 2 SBC가 포함된다. 이에 의하면 전방위 모니터링 주행장치의 주변상황을 확인하면서 원격으로 보다 용이하게 제어할 수 있는 이점을 가진다.The present invention relates to a driving apparatus for a vehicle, which comprises a running section which can be moved by the force of an engine or a motor, an image photographing section for photographing a front / rear / left / right image while moving together with the traveling section, And a data communication control unit for transmitting the corrected images through wireless communication, and a data communication control unit for transmitting the adjusted images to the omnidirectional monitoring omnidirectional monitoring apparatus. A driving control terminal capable of transmitting a control command to the monitoring driving device, and a controller for receiving the combined omnidirectional image captured by the omnidirectional monitoring driving device through wireless communication, transmitting the received omnidirectional image to the driving control terminal, And transmits the traveling control signal input through the terminal to the omnidirectional monitoring traveling device Wherein the data communication control unit includes a first SBC for correcting and matching distortions of an image photographed by the image photographing unit and a first SBC for correcting a travel control signal input from the travel control terminal to the server And a second SBC for converting the received signal into a signal recognizable by the driving unit and delivering it. This makes it possible to remotely control the omnidirection monitoring traveling device while checking the surrounding conditions.

Description

전방위 모니터링 주행장치 제어 시스템{ A control system for Wrap-arround view running device }Description of the Related Art [0002] A control system for a wide-

본 발명은 전방위 감시를 수행하면서 이동가능한 주행장치를 제어하기 위한 시스템에 관한 것이다.
The present invention relates to a system for controlling a movable traveling device while performing omnidirectional monitoring.

일반적으로 전방위 모니터링 시스템은 주행장치의 전/후/좌/우측에 각각 촬영 가능한 카메라를 설치하고, 설치된 카메라에서 촬영된 정보를 정합하여 화면에 도시할 수 있도록 구성된다.In general, the omnidirectional monitoring system is configured such that a photographing camera is installed on the front / back / left / right sides of the traveling device, and the information photographed by the installed camera is registered on the screen.

일예로 대한민국공개특허 2010-0005971 “차량 전방위 감시 시스템”에서는 차량의 상방 가상 시점에 대한 부감 영상으로 변환된 다수 개의 부감 영상들을 기 설정된 정합 위치에 따라 조합하여 하나의 전방위 영상을 생성하고, 전방위 영상에 차량의 이동 예상 궤적 표시를 추가하여 디스플레이 상에 출력하는 차량 전방위 감시 시스템이 개시되어 있다.For example, Korean Unexamined Patent Publication No. 2010-0005971 entitled " vehicle omnidirectional surveillance system " generates an omnidirectional image by combining a plurality of depressed images converted into a sub- And displays a predicted locus display of the vehicle on the display and outputs it to the display.

그리고, 상기와 같은 종래 기술에서는 이와 같은 차량 전방위 감시 시스템을 이용하여 운전자가 차량 내부에서 차량 외부의 전방위 영상을 확인하면서 보다 안정적으로 차량운행을 할 수 있도록 한다.In the above-described conventional technique, the driver can use the vehicle omnidirection monitoring system to more reliably drive the vehicle while confirming the omnidirectional image outside the vehicle from inside the vehicle.

하지만, 상기와 같은 종래 기술에서는 차량의 내부에 탑승한 상태에서만 주변 영상을 확인하면서 차량을 제어해야만 하는 문제점을 가진다.However, in the related art as described above, there is a problem that the vehicle must be controlled while checking the surrounding images only when the vehicle is inside the vehicle.

즉, 사용자가 원격지에서는 차량 주변의 전방위 영상을 확인하기 어려우며, 전방위 영상이 확인되더라도 차량을 원격으로 제어하기에는 어려움이 있다.
That is, it is difficult for the user to confirm the omnidirectional image around the vehicle at the remote place, and it is difficult to control the vehicle remotely even if the omnidirectional image is confirmed.

본 발명의 목적은 주행장치에 구비되는 영상촬영부를 통해 전방위 영상을 획득하고, 무선통신을 통해 획득한 영상을 주행제어 단말기로 확인하면서 주행경로를 입력하여 제어할 수 있도록 하는 전방위 모니터링 주행장치 제어 시스템을 제공하는 것이다.An object of the present invention is to provide an omnidirectional monitoring and traveling device control system which acquires an omnidirectional image through an image capturing unit provided in a traveling device and inputs and controls a traveling route while confirming an image acquired through wireless communication with a driving control terminal .

본 발명의 다른 목적은 촬영된 영상을 주행제어 단말기로 전송하기 위하여 정합영상을 캡쳐하고 인코딩하여 패킷으로 전송할 수 있도록 하는 스트림서버를 구비하여 영상 전송 딜레이를 줄임으로써 실시간 제어가 가능하도록 하는 전방위 모니터링 주행장치 제어 시스템을 제공하는 것이다.
It is another object of the present invention to provide a streaming server capable of capturing, encoding and transmitting a captured image in packets in order to transmit a captured image to a driving control terminal, And to provide a device control system.

본 발명은 엔진 또는 모터의 힘으로 이동 가능한 주행부와, 상기 주행부와 결합되어 함께 이동하면서 전/후/좌/우 영상을 촬영하는 영상촬영부와, 상기 영상촬영부에서 촬영된 영상의 왜곡을 보정하고 보정된 영상을 정합하여 무선통신을 통해 전송하는 데이터통신 제어부를 포함하는 전방위 모니터링 주행장치와, 상기 전방위 모니터링 주행장치에서 촬영된 주변영상이 도시되며, 도시된 주변영상을 확인하면서 상기 전방위 모니터링 주행장치에 제어명령을 전달할 수 있는 주행제어 단말기 및 상기 전방위 모니터링 주행장치에서 촬영되어 정합된 전방위 영상을 무선통신을 통해 수신하고, 수신된 전방위 영상을 상기 주행제어 단말기로 전송하며, 상기 주행제어 단말기를 통해 입력된 주행제어 신호를 상기 전방위 모니터링 주행장치로 전달하여 제어가 이루어질 수 있도록 하는 서버를 포함하고, 상기 데이터통신 제어부에는 상기 영상촬영부에서 촬영된 영상의 왜곡을 보정하고 정합하기 위한 제 1 SBC(Single Board Microcomputer)와, 상기 주행제어 단말기에서 입력된 주행제어 신호를 상기 서버를 통해 수신하여 상기 주행부에서 인식 가능한 신호로 변환하여 전달하기 위한 제 2 SBC(Single Board Microcomputer)가 포함되며, 상기 주행제어 단말기에는 상기 서버를 통해 상기 전방위 모니터링 주행장치에서 촬영된 영상을 수신하여 도시하는 디스플레이가 포함되고, 사용자가 상기 디스플레이에 도시되는 영상을 확인하고 드래그 컨트롤 알고리즘을 통해 이동경로를 입력하여 상기 전방위 모니터링 주행장치의 주행을 제어하는 기능을 포함하며, 상기 드래그 컨트롤 알고리즘에는 상기 전방위 모니터링 주행장치의 현위치 및 현위치 전/후 위치를 이용하여 전방위 모니터링 주행장치의 진행타입을 계산하는 과정이 포함되는 것을 특징으로 한다.The present invention relates to a driving apparatus for a vehicle, which comprises a running section which can be moved by the force of an engine or a motor, an image photographing section for photographing a front / rear / left / right image while moving together with the traveling section, And a data communication control unit for transmitting the corrected images through wireless communication, and a data communication control unit for transmitting the adjusted images to the omnidirectional monitoring omnidirectional monitoring apparatus. A driving control terminal capable of transmitting a control command to the monitoring driving device, and a controller for receiving the combined omnidirectional image captured by the omnidirectional monitoring driving device through wireless communication, transmitting the received omnidirectional image to the driving control terminal, And transmits the traveling control signal input through the terminal to the omnidirectional monitoring traveling device The data communication control unit includes a first SBC (Single Board Microcomputer) for correcting and matching the distortion of the image photographed by the image photographing unit, and a second SBC And a second SBC (Single Board Microcomputer) for receiving the signal through the server and converting the received signal into a signal recognizable by the driving unit, and the driving control terminal is connected to the odometer monitoring traveling device And a function of controlling the traveling of the omnidirectional monitoring travel apparatus by inputting a movement route through a drag control algorithm, wherein the drag control unit includes a display for receiving and displaying an image, The algorithm includes the And calculating a progress type of the omnidirectional monitoring travel apparatus using the current position and the pre / post position of the current position.

상기 디스플레이에는 상기 드래그 컨트롤 알고리즘을 이용하여 입력되는 주행경로가 도시되며, 상기 서버를 통해 전방위 모니터링 주행장치의 현재위치와 이동경로가 피드백되어 상기 주행경로 상에서 이동 완료된 경로는 지워지고 나머지 경로만 도시되는 것을 특징으로 한다.The display shows a driving route inputted using the drag control algorithm. The current position and the moving route of the omnidirectional monitoring traveling device are fed back through the server, and the traveling completed route on the traveling route is cleared and only the remaining route is shown .

상기 드래그 컨트롤 알고리즘에는 상기 전방위 모니터링 주행장치의 진행타입에 따라 현재위치와 다음위치 사이의 상관관계를 계산하여 상기 주행부를 구성하는 주행바퀴의 속도와 시간을 계산하는 과정이 더 포함되는 것을 특징으로 한다.The drag control algorithm may further include calculating a correlation between a current position and a next position in accordance with a progress type of the omnidirectional monitoring travel apparatus and calculating a speed and a time of the traveling wheel constituting the travel unit .

상기 드래그 컨트롤 알고리즘에서는 상기 전방위 모니터링 주행장치의 현위치와 전/후 위치를 나타내는 3개의 점이 직선상에 놓여 있으면 직선형으로 구분하여 현재위치와 다음위치 사이의 거리를 계산하고, 상기 3개의 점이 직선상에 위치하지 않을 경우에는 3점을 지나는 원의 반지름과 중심을 계산하여 현위치와 다음 위치의 중심각을 계산하며, 이를 이용하여 좌우 주행바퀴의 속도와 시간을 계산하는 것을 특징으로 한다.In the drag control algorithm, if three points representing a current position and a forward / backward position of the omnidirectional monitoring travel apparatus are on a straight line, the distance between the current position and the next position is divided into a straight line, The center and the center of the circle passing through the three points are calculated to calculate the central angle of the current position and the next position, and the speed and time of the left and right wheels are calculated using the center angle.

다른 측면에서 본 발명은 이동을 위한 주행부와, 상기 주행부와 함께 이동하면서 주변 영상을 촬영하기 위한 영상촬영부와, 상기 영상촬영부에서 촬영된 영상 데이터를 보정하고 보정된 영상 데이터를 정합하여 사용자에게 전송하기 위한 제 1 SBC(Single Board Microcomputer) 및 사용자에 의해 입력되는 주행제어 신호를 수신하여 상기 주행부를 구동하는 제 2 SBC(Single Board Microcomputer)가 포함되는 전방위 모니터링 주행장치와, 상기 제 1 SBC를 통해 제공되는 영상 데이터를 표시하기 위한 디스플레이를 포함하고, 상기 디스플레이 상에 도시되는 영상 데이터를 확인하여 사용자가 드래그 컨트롤 알고리즘에 의한 주행경로 입력기능과 상기 주행부의 실시간 제어 기능을 포함하는 주행제어 단말기 및 상기 드래그 컨트롤 알고리즘은 상기 디스플레이에 드래그 좌표가 입력될 경우 동일 지점의 좌표를 제거하기 위한 중복좌표제거 과정을 포함하는 것을 특징으로 한다.
상기 드래그 컨트롤 알고리즘에서는 현재 위치, 이동할 위치, 이전 위치 좌표를 이용하여 상기 전방위 모니터링 주행장치의 진행 타입을 결정하는 과정과, 상기 전방위 모니터링 주행장치의 진행타입에 따라 상기 주행부를 구성하는 주행바퀴의 속도와 시간을 계산하는 과정이 더 포함되는 것을 특징으로 한다.
상기 전방위 모니터링 주행장치와 상기 주행제어 단말기는 서버를 통해 무선 통신 가능하며, 상기 서버는 상기 주행제어 단말기를 통해 수신한 위치정보를 기반으로 상기 전방위 모니터링 주행장치의 실제 주행위치를 파악하고, 파악된 실제 주행위치를 상기 주행제어 단말기로 피드백함으로써 상기 주행제어 단말기의 디스플레이 상에서 드래그한 위치 지점을 지워나가면서 상기 전방위 모니터링 주행장치의 현재 위치를 파악할 수 있도록 하는 것을 특징으로 한다.
According to another aspect of the present invention, there is provided an image processing apparatus including a traveling unit for traveling, an image photographing unit for photographing a surrounding image while moving together with the traveling unit, and a controller for correcting the image data photographed by the image photographing unit, And a second SBC (Single Board Microcomputer) for receiving the driving control signal inputted by the user and driving the driving unit, And a display unit for displaying image data provided through the SBC, wherein the control unit checks the image data displayed on the display and displays the image data on the display unit, based on a driving control function including a driving path input function by a drag control algorithm and a real- Wherein the terminal and the drag control algorithm are arranged such that drag coordinates And removing the coordinates of the same point when the coordinates are input.
Determining a progress type of the omnidirectional monitoring travel apparatus by using a current position, a position to be moved, and a previous position coordinate in the drag control algorithm; and determining a traveling speed of the omnidirectional monitoring traveling apparatus according to a traveling type of the omni- And a step of calculating the time.
The omnidirectional monitoring travel device and the odometry control terminal are capable of wireless communication through a server, and the server recognizes the actual travel position of the omnidirectional monitoring travel device based on the location information received through the travel control terminal, And the current position of the omnidirectional monitoring travel device can be grasped while erasing the dragged position point on the display of the travel control terminal by feeding back the actual travel position to the travel control terminal.

본 발명에 따르면 사용자는 주행장치에서 촬영된 전방위 영상을 무선통신을 통해 서버로 전송하고, 서버에서는 주행제어 단말기로 전방위 영상을 제공하도록 함으로써 주행제어 단말기에서 주행장치 주변의 전방위 영상을 용이하게 확인할 수 있으며, 확인된 전방위 영상을 주행제어 단말기의 디스플레이를 직접 터치함으로써 주행경로를 입력할 수 있도록 구성된다. 따라서, 주행장치를 보다 용이하게 제어할 수 있는 이점이 있다.According to the present invention, the user transmits the omnidirectional image photographed by the traveling device to the server through wireless communication and provides the omnidirectional image to the driving control terminal in the server, so that the omnidirectional image around the traveling device can be easily checked And the navigation path can be inputted by directly touching the display of the driving control terminal with the confirmed omnidirectional image. Therefore, there is an advantage that the traveling device can be more easily controlled.

그리고, 본 발명에 따르면 주행장치에서는 영상촬영수단을 통해 촬영된 영상의 왜곡을 보정하기 위하여 켈리브레이션 프로그램이 영상촬영부에 구비된다. 따라서, 사용자는 주행제어 단말기를 통해 주행장치의 상방에서 주행장치의 전방위 영상을 왜곡 없이 확인할 수 있게 되어 보다 용이하게 주행제어가 이루어질 수 있는 이점을 가진다.According to the present invention, in the traveling apparatus, a calibration program is provided in the image capturing unit in order to correct the distortion of the image captured through the image capturing unit. Therefore, the user can confirm the omnidirectional image of the traveling device from above the traveling device through the traveling control terminal without distortion, and has the advantage that the traveling control can be performed more easily.

또한, 본 발명에 따르면 주행제어 장치에서 촬영된 영상이 서버를 거쳐 주행제어 단말기로 전송되는 동안 다수의 변환과정을 거치게 되고, 최종적으로 swf 패킷으로 변환되어 데이터 스트림 서버를 통해 전송된다.Also, according to the present invention, a plurality of conversion processes are performed while an image photographed by the travel control device is transmitted to the driving control terminal through the server, and finally converted into a swf packet and transmitted through the data stream server.

따라서, 실시간 촬영 영상의 데이터를 보다 빠른 시간에 전송할 수 있게 되어 딜레이 타임을 줄일 수 있다.
Accordingly, it is possible to transmit the data of the real-time shot image in a shorter time, thereby reducing the delay time.

도 1 은 본 발명의 요부구성인 전방위 모니터링 주행장치의 일실시 예를 보인 도면.
도 2 는 본 발명에 따른 전방위 모니터링 주행장치를 제어하기 위한 주행제어 단말기의 일실시 예를 보인 도면.
도 3 은 본 발명에 따른 전방위 모니터링 주행장치 제어 시스템의 데이터 통신 과정을 보이기 위한 개략도.
도 4 는 본 발명에 따른 전방위 모니터링 주행장치의 요부구성인 카메라 모듈의 일실시 예를 보인 도면.
도 5 는 도 4에 도시된 카메라 모듈을 장착하기 위한 지그의 상세 구성을 보인 도면.
도 6 은 본 발명에 따른 전방위 모니터링 주행장치에서 촬영된 영상을 보정하는 과정을 보이기 위한 순서도.
도 7 은 도 6 에 도시된 순서로 영상왜곡을 보정하는 과정을 보이기 위한 도면.
도 8 은 본 발명에 따른 전방위 모니터링 주행장치 제어 시스템의 요부구성인 켈리브레이션 프로그램의 사용 일예를 보인 도면.
도 9 는 본 발명에 따른 전방위 모니터링 주행장치 제어 시스템의 요부굿ㅇ인 스트림 서버를 이용하여 촬영된 영상을 전송하는 과정을 보이기 위한 도면.
도 10 은 본 발명에 따른 전방위 모니털이 주행장치 제어시스템에서 주행제어 단말기를 이용하여 드래그 컨트롤이 수행되는 알고리즘을 보이기 위한 도면.
도 11 은 도 10에 도시된 알고리즘에 따라 드래그 컨트롤이 수행되는 과정을 보인 도면.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a view showing an embodiment of a omnidirectional monitoring travel apparatus which is a main constituent of the present invention.
BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to an omnidirectional monitoring traveling device,
3 is a schematic view showing a data communication process of the omnidirectional monitoring travel device control system according to the present invention.
4 is a view showing an embodiment of a camera module as a main component of the omnidirectional monitoring travel apparatus according to the present invention.
5 is a view showing a detailed configuration of a jig for mounting the camera module shown in Fig.
6 is a flowchart illustrating a process of correcting a captured image in the omnidirectional monitoring travel apparatus according to the present invention.
FIG. 7 is a diagram illustrating a process of correcting image distortion in the order shown in FIG. 6; FIG.
8 is a view showing an example of the use of a calibration program which is a main constituent of the omnidirectional monitoring travel device control system according to the present invention.
FIG. 9 is a diagram illustrating a process of transmitting a photographed image using a stream server of the omnidirectional monitoring traveling device control system according to the present invention.
10 is a diagram illustrating an algorithm in which drag control is performed using a driving control terminal in an omnidirectional monitor driving device control system according to the present invention.
11 is a diagram illustrating a process in which drag control is performed according to the algorithm shown in FIG.

이하에서는 도면을 참조하여, 본 발명의 구체적인 실시예를 설명한다. 다만, 본 발명의 사상은 제시되는 실시예에 제한되지 아니하며, 본 발명의 사상을 이해하는 당업자는 동일한 사상의 범위 내에서 다른 실시예를 용이하게 제안할 수 있을 것이다. Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. It is to be understood, however, that the spirit of the invention is not limited to the embodiments shown and that those skilled in the art, upon reading and understanding the spirit of the invention, may easily suggest other embodiments within the scope of the same concept.

도 1 은 본 발명의 요부구성인 전방위 모니터링 주행장치의 일실시 예를 보인 도면이 도시되어 있고, 도 2 에는 본 발명에 따른 전방위 모니터링 주행장치를 제어하기 위한 주행제어 단말기의 일실시 예를 보인 도면이 도시되어 있으며, 도 3 에는 본 발명에 따른 전방위 모니터링 주행장치 제어 시스템의 데이터 통신 과정을 보이기 위한 개략도가 도시되어 있다.FIG. 1 is a view showing an embodiment of an omnidirectional monitoring travel apparatus which is a main constituent of the present invention, and FIG. 2 is a view showing an embodiment of a travel control terminal for controlling a omnidirectional monitoring travel apparatus according to the present invention And FIG. 3 is a schematic view showing a data communication process of the omnidirectional monitoring and traveling device control system according to the present invention.

이들 도면을 참조하면, 본 발명에 따른 전방위 모니터링 주행장치 제어 시스템은 제어명령에 의해 주행하면서 영상촬영수단(120)을 통해 주변영상을 획득하는 전방위 모니터링 주행장치(10)와, 상기 전방위 모니터링 주행장치(10)에서 촬영된 영상을 수신하여 확인하고, 확인된 영상에 직접 제어명령을 입력하여 전방위 모니터링 주행장치(10)의 주행을 제어하는 주행제어 단말기(20) 및 상기 주행제어 단말기(20)와 전방위 모니터링 주행장치(10)에서 송수신 되는 제어명령과 데이터를 전송하기 위한 서버(미도시)를 포함하여 구성된다.Referring to these drawings, the omnidirectional monitoring travel device control system according to the present invention includes a omnidirectional monitoring travel device 10 that travels by a control command to acquire a surrounding image through the image pickup means 120, A driving control terminal 20 for receiving and confirming an image photographed by the odometry monitoring device 10 and inputting a control command directly to the identified image to control the odometer monitoring and driving device 10, And a server (not shown) for transmitting control commands and data transmitted and received by the omnidirectional monitoring and driving apparatus 10.

상세히, 상기 전방위 모니터링 주행장치(10)에는 이동을 위한 주행부(300)와, 상기 주행부(300)에 의해 이동하면서 주변영상을 촬영하기 위한 영상촬영부(100) 및 상기 주행부(300)에 전달되는 제어명령과 상기 영상촬영부(100)를 통해 촬영된 영상 데이터의 전송을 위한 데이터통신 제어부(200)가 포함된다.In detail, the omnidirectional monitoring travel apparatus 10 includes a traveling unit 300 for traveling, a video image pickup unit 100 for taking a surrounding image while moving by the traveling unit 300, And a data communication control unit 200 for transferring control commands transmitted to the image capturing unit 100 and image data captured through the image capturing unit 100.

상기 주행부(300)와 데이터통신 제어부(200) 및 영상촬영부(100)는 각각 분리가능하도록 구성되어 적층된 상태에서 결합된다. The driving unit 300, the data communication control unit 200, and the image capturing unit 100 are detachably coupled to each other in a stacked state.

한편, 상기 주행부(300)를 형성하는 아웃케이스의 내부에는 주행을 위한 엔진 또는 모터와, 상기 엔진 또는 모터에 의해 회전하는 다수의 주행바퀴가 포함된다.Inside the outer case forming the traveling unit 300, an engine or a motor for traveling and a plurality of traveling wheels rotated by the engine or the motor are included.

상기 주행부(300)는 상기 데이터통신 제어부(200)를 통해 전달되는 제어명령에 따라 주행바퀴의 회전방향과 조향각 등이 조절되면서 이동하게 된다. 그리고, 상기 주행부(300)의 아웃케이스 일측에는 이동과정에서 장애물과의 충돌시 충격량을 감소시키고, 장애물을 용이하게 회피할 수 있도록 하는 가이드롤러(320)가 더 구비될 수 있다.The driving unit 300 moves while adjusting the steering direction and the steering angle of the traveling wheels according to a control command transmitted through the data communication control unit 200. In addition, a guide roller 320 may be provided at one side of the outer case of the traveling unit 300 to reduce the amount of impact upon collision with an obstacle during movement and to avoid an obstacle easily.

상기 영상촬영부(100)는 상기 주행부(300)의 상측에 구비되어 전/후/좌/우측 방향을 모두 촬영할 수 있도록 구성되는 것으로, 영상촬영부(100)를 구성하는 아웃케이스의 각 측면에 4개의 영상촬영수단(120)이 구비된다.The image capturing unit 100 is provided on the upper side of the driving unit 300 and is capable of capturing all of the front / back / left / right directions. Four image capturing means 120 are provided.

그리고, 상기 영상촬영부(120)의 외측에는 장애물과의 충돌시 파손을 방지하기 위하여 보호캡(110)이 더 구비될 수 있으며, 각각의 영상촬영부(120)는 각 방향의 촬영 영상을 획득하고, 획득된 영상을 상기 데이터통신 제어부(200)를 통해 서버로 전송하게 된다.In addition, a protective cap 110 may be further provided on the outer side of the image capturing unit 120 to prevent damage when colliding with an obstacle. Each of the image capturing units 120 acquires captured images in each direction And transmits the acquired image to the server through the data communication control unit 200.

상기 데이터통신 제어부(200)는 상기 주행부(300)와 영상촬영부(100) 사이에 구비되어 상기 영상촬영부(120)를 통해 촬영된 영상을 정합하여 전술한 서버로 전송하기 위한 구성으로 SBC(Single Board Microcomputer)를 포함하도록 구성된다.The data communication control unit 200 is provided between the driving unit 300 and the image capturing unit 100 and is adapted to transmit images captured through the image capturing unit 120 to the server, (Single Board Microcomputer).

즉, 상기 데이터통신 제어부(200)에서는 상기 4개의 영상촬영수단(120)에서 촬영된 각 방향의 촬영 영상을 수신하여 무선통신을 위한 데이터로 변환하게 된다. That is, the data communication control unit 200 receives the photographed images of the respective directions photographed by the four image photographing means 120 and converts them into data for wireless communication.

그리고, 변환된 데이터를 서버로 전송하여 상기 주행제어 단말기(20)를 통해 확인가능하도록 하며, 상기 주행제어 단말기(20)를 통한 사용자 제어명령이 입력될 경우에는 주행제어 명령을 무선통신을 통해 수신하여 상기 전방위 모니터링 주행장치(10)로 전달하는 기능을 수행하게 된다.When the user control command is inputted through the driving control terminal 20, the driving control command is transmitted to the server through the wireless communication To the omnidirectional monitoring and driving apparatus (10).

따라서, 각각의 기능을 수행하기 위하여 상기 데이터통신 제어부(200)는 2개의 SBC를 사용하게 되며, 영상정합 및 전송을 위한 제 1 SBC(220)의 경우 많은 계산을 처리하게 되므로 상대적으로 고사양의 CPU를 탑재하게 되며, 상기 주행제어 단말기(20)와 주행부(300)의 통신을 담당하는 제 2 SBC(240)는 상대적으로 저사양의 CPU를 탑재하게 된다.Accordingly, in order to perform the respective functions, the data communication control unit 200 uses two SBCs, and in the case of the first SBC 220 for image matching and transmission, many calculations are processed. Therefore, a relatively high- And the second SBC 240, which is responsible for communication between the travel control terminal 20 and the traveling unit 300, is mounted with a relatively low CPU.

또한, 상기 주행제어 단말기(20)와 주행부(300)의 통신을 위한 제 2 SBC(240)는 이더넷 케이블을 이용한 TCP/IP API(Application Programming Interface) 방식을 이용할 수 있으며, 본 실시 예에서는 상기 데이터통신 제어부(200)와 주행부(300)의 MCU가 LAN으로 연결되어 제어신호가 전달될 수 있도록 구성된다.Also, the second SBC 240 for communication between the travel control terminal 20 and the traveling unit 300 may use a TCP / IP API (Application Programming Interface) method using an Ethernet cable. In this embodiment, The MCUs of the data communication control unit 200 and the driving unit 300 are connected to each other via a LAN so that a control signal can be transmitted.

한편, 상기 영상촬영부(100)와 연결되어 정합영상을 형성하고 전송하기 위한 제 1 SBC(220)는 전술한 4대의 영상촬영수단(120)과 범용직렬버스(Universal Serial Bus, USB) 포트를 통해 연결되어 촬영영상을 수신하게 된다.The first SBC 220 connected to the image capturing unit 100 for forming and transmitting a matching image includes the four image capturing means 120 and a universal serial bus (USB) port And receives the photographed image.

그리고, 상기 제 1 SBC(220)는 수신된 영상에서 렌즈에 의한 왜곡을 보정하는 켈리브레이션과 주행장치의 상면에서 내려다 본 화면을 구성하기 위한 호모그라피를 수행하고, 이를 한 장의 영상으로 정합하는 (Wrap-Around View, WAV) 프로그램을 통해 전송될 영상을 가공하게 된다.The first SBC 220 performs calibration for correcting the distortion caused by the lens in the received image and homography for constructing a screen viewed from the upper surface of the traveling apparatus, -Around View (WAV) program to process the image to be transmitted.

또한, 상기와 같이 가공되는 영상은 전용 스트림서버로 전송되어 상기 주행제어 단말기(20)로 무선전송될 수 있다.In addition, the image processed as described above may be transmitted to a dedicated stream server and wirelessly transmitted to the driving control terminal 20.

한편, 상기 주행제어 단말기(20)는 3G나 LTE 등과 같은 무선통신망을 통해 데이터 수신이 가능한 휴대용 단말기에 상기 전방위 모니터링 주행장치(10)를 제어하기 위한 프로그램을 설치하여 구성된다.Meanwhile, the travel control terminal 20 is configured by installing a program for controlling the omnidirectional monitoring travel device 10 in a portable terminal capable of receiving data through a wireless communication network such as 3G or LTE.

상기 전방위 모니터링 주행장치(10)를 제어하기 위한 프로그램은 어플 형태로 구비될 수 있으며, 다수의 기능버튼과 상기 서버를 통해 전송되는 전방위 영상을 도시하기 위한 디스플레이(600)를 포함하게 된다.The program for controlling the omnidirectional monitoring travel apparatus 10 may be provided in an application form and includes a plurality of function buttons and a display 600 for displaying omni-directional images transmitted through the server.

상세히, 상기 전방위 모니터링 주행장치(10)를 제어하기 위한 프로그램은 상기 주행제어 단말기(20)의 화면상에 터치 입력 방식으로 조작될 수 있다.In detail, a program for controlling the omnidirectional monitoring travel device 10 can be operated on the screen of the travel control terminal 20 in a touch input manner.

그리고, 상기 다수의 기능버튼에는 프로그램을 온/오프 하기 위한 전원버튼(740)과 주행방향을 제어하기 위한 주행방향 제어버튼(770), 주행중 정지를 위한 정지버튼(760) 및 화면 밝기나 음향 등의 부가 설정을 조절하기 위한 설정버튼(720)이 구비되며, 상기 디스플레이(600) 상에 사용자가 직접 주행경로를 입력할 수 있도록 하는 라인인식 입력기능이 더 포함된다.The plurality of function buttons include a power button 740 for turning the program on and off, a travel direction control button 770 for controlling the travel direction, a stop button 760 for stopping the vehicle during travel, And a line recognition input function for allowing a user to directly input a traveling route on the display 600. The setting button 720 is provided for adjusting the addition setting of the display screen.

한편, 도 4 에는 본 발명에 따른 전방위 모니터링 주행장치의 요부구성인 카메라 모듈의 일실시 예를 보인 도면이 도시되어 있고, 도 5 에는 도 4에 도시된 카메라 모듈을 장착하기 위한 지그의 상세 구성을 보인 도면이 도시되어 있다.4 is a view showing an embodiment of a camera module which is a main component of the omnidirectional monitoring travel apparatus according to the present invention. FIG. 5 shows a detailed configuration of a jig for mounting the camera module shown in FIG. Shown in Fig.

이들 도면을 참조하면, 상기 영상촬영수단(120)은 영상촬영 PCB(121) 상에 경통과 렌즈가 분리되는 카메라(124)가 구비되고, 상기 제 1 SBC(220)와 연결되는 USB통신모듈(128) 및 촬영된 영상을 처리하기 위한 영상촬영제어부(122)를 포함하여 구성된다.Referring to these figures, the image capturing unit 120 includes a camera 124 for separating a lens barrel and a lens from the image capturing PCB 121, a USB communication module (not shown) connected to the first SBC 220 And an imaging control unit 122 for processing the photographed image.

그리고, 상기 카메라(124)는 경통이 결합된 상태의 이미지센서 모듈과 경통에 결합할 수 있는 165°, 140°, 120°의 렌즈를 포함하도록 구성된다. 또한, 상기 이미지센서를 컨트롤 하기 위한 인터페이스는 I2C(Inter-Integrated Circuit) 통신과 SCCB(Serial Camera Control Bus) 통신을 모두 지원하므로 시스템에 적합한 센서로 교체하여 적용 할 수 있다.The camera 124 is configured to include 165 °, 140 °, and 120 ° lenses that can be coupled to the image sensor module in a state where the barrel is coupled with the barrel. In addition, since the interface for controlling the image sensor supports both I 2 C (Inter-Integrated Circuit) communication and SCCB (Serial Camera Control Bus) communication, it can be replaced with a sensor suitable for the system.

또한, 상기 USB통신모듈(128)은 촬영된 회색조 영상, 컬러 영상을 초당 최대 50Fps(Frame per sec)로 상기 데이터통신 제어부(200)로 전달할 수 있으므로 상기 영상촬영수단(120)을 데이터통신 제어부(220)와 연결할 경우 바로 사용 가능하게 된다. The USB communication module 128 can transmit the photographed grayscale image and the color image to the data communication control unit 200 at a maximum rate of 50 Fps per second (frames per second) 220) to be used immediately.

한편, 상기와 같은 기능의 영상촬영수단(120)은 카메라의 각도를 조절하기 위한 지그에 각각 고정되어 장착된다.On the other hand, the image capturing unit 120 having the above functions is fixedly mounted on a jig for adjusting the angle of the camera.

상세히, 상기 지그는 평판 형상의 베이스(130)에 틸팅 프레임(150)이 체결부재(190)에 의해 결합되어 좌우 각도 조절이 가능하도록 구비된다.In detail, the jig is provided with a tilting frame 150 coupled to a base 130 of a flat plate shape by a fastening member 190 so as to be adjustable in left and right angles.

상기 틸팅 프레임(150)은 하면 중앙 부분이 하측으로 돌출되어 대략“T”자 형상으로 형성되며, 돌출된 중앙 부분에 회전 중심을 형성하기 위한 회전축(170)이 끼워질 수 있도록 축 수용부(152)가 마련된다.The tilting frame 150 has a lower center portion protruding downward and formed in a substantially T shape and has a shaft receiving portion 152 ).

또한, 상기 축 수용부(152)에 수용되는 회전축(170)은 양 단부가 부쉬(154)에 의해 고정되어 지지되도록 함으로써 상기 틸팅 프레임(150)이 좌우로 소정각도 회동할 수 있게 된다.The rotation shaft 170 received in the shaft receiving portion 152 is fixedly supported by the bushes 154 at both ends so that the tilting frame 150 can be rotated right and left by a predetermined angle.

그리고, 상기와 같이 구비되는 틸팅 프레임(150)의 상면에는 상기 영상촬영수단(120)의 상하 각도 조절을 위한 마운트(140)가 장착된다. On the upper surface of the tilting frame 150, a mount 140 for adjusting the vertical angle of the image pickup means 120 is mounted.

상기 마운트(140)는 상기 영상촬영수단(120)의 하면과 대응되는 일면이 하향 경사를 가지도록 형성되며, 좌우 양측에는 회전돌기(142)가 구비된다.One side of the mount 140 corresponding to the bottom surface of the image pickup means 120 is formed to have a downward slope and a rotation protrusion 142 is provided on both sides of the mount 140.

그리고, 상기와 같이 형성되는 마운트(140)는 상기 팅팅 프레임(150)에 고정되는 사이드 프레임(160)에 회전돌기(142)가 끼워져서 결합하게 되는데, 이를 위해 상기 사이드 프레임(160)에는 상기 회전돌기(142)와 대응되는 돌기 수용홈(162)이 마련된다.The mount 140 formed as described above is coupled to the side frame 160 fixed to the tinging frame 150 with the rotation protrusion 142. For this purpose, A projection accommodating groove 162 corresponding to the projection 142 is provided.

따라서, 상기와 같이 틸팅 프레임(150)과 마운트(140)를 포함하는 지그에 상기 영상촬영수단(120)이 장착되면 카메라(124)를 상/하/좌/우로 조정할 수 있게 된다.Therefore, when the image pickup means 120 is mounted on the jig including the tilting frame 150 and the mount 140 as described above, the camera 124 can be adjusted up / down / left / right.

한편, 도 6 에는 본 발명에 따른 전방위 모니터링 주행장치에서 촬영된 영상을 보정하는 과정을 보이기 위한 순서도가 도시되어 있고, 도 7 에는 도 6 에 도시된 순서로 영상왜곡을 보정하는 과정을 보이기 위한 도면이 도시되어 있으며, 도 8 에는 본 발명에 따른 전방위 모니터링 주행장치 제어 시스템의 요부구성인 켈리브레이션 프로그램의 사용 일예를 보인 도면이 도시되어 있다.FIG. 6 is a flowchart illustrating a process of correcting a photographed image in the omnidirectional monitoring travel apparatus according to the present invention. FIG. 7 illustrates a process of correcting image distortion in the order shown in FIG. And FIG. 8 is a view showing an example of the use of the calibration program, which is a main constituent of the omnidirectional monitoring travel device control system according to the present invention.

이들 도면을 참조하면, 본 발명에 따른 전방위 주행장치 제어 시스템에서는 4대의 영상촬영수단(120)을 통해 촬영된 각 방향의 영상을 상기 제 1 SBC(220)에서 영상처리 알고리즘을 적용하여 정합 한 이후 상기 스크립트 서버로 전송된다.Referring to these drawings, in the omnidirectional travel device control system according to the present invention, images in respective directions photographed through the four video image pickup means 120 are matched by applying an image processing algorithm in the first SBC 220 And transmitted to the script server.

상세히, 상기 영상처리 알고리즘은 우선, 카메라(124)에 장착된 렌즈의 왜곡을 보정하기 위하여 켈리브레이션 프로그램을 수행한다. 상기 켈리브레이션 프로그램에서는 켈리브레이션 파라미터와 지표면과 카메라의 호모그라피 행렬을 산출한다.In detail, the image processing algorithm first carries out a calibration program to correct the distortion of the lens mounted on the camera 124. The calibration program calculates the calibration parameters, the surface of the surface, and the homography matrix of the camera.

즉, 상기 켈리브레이션 프로그램은 실세계의 좌표와 입력 영상에서의 픽셀 위치를 연관시켜 실세계의 절대좌표계를 입력영상 상의 좌표로 변환식을 결정하는 것으로, 카메라(124)의 내부와 외부의 문제들을 포함하여 두 종류의 매개변수 즉, 외부요소와 내부요소를 결정하는 것을 포함한다.That is, the calibration program determines the conversion formula of the absolute coordinate system of the real world to the coordinates on the input image by associating the coordinate of the real world system with the pixel position of the input image, I.e., determining the outer and inner elements.

그리고, 본 실시 예에서는 렌즈의 구면 수차에 의해서 발생되는 방사왜곡은 아래와 같은 수식으로 나타내어진다.In this embodiment, the radial distortion caused by the spherical aberration of the lens is expressed by the following equation.

Figure 112012073991253-pat00001
Figure 112012073991253-pat00001

여기서

Figure 112012073991253-pat00002
는 영상 평면의 원점으로부터의 방사거리이고
Figure 112012073991253-pat00003
는 방사왜곡(radial distortion) 계수이다. here
Figure 112012073991253-pat00002
Is the emission distance from the origin of the image plane
Figure 112012073991253-pat00003
Is a radial distortion coefficient.

그리고,

Figure 112012073991253-pat00004
는 카메라 중심이고
Figure 112012073991253-pat00005
는 이미지의 실제 중심과 획득된 중심의 차이다.
Figure 112012073991253-pat00006
는 왜곡된 이미지 좌표이고
Figure 112012073991253-pat00007
는 보정된 좌표이다. 방사왜곡은 아래와 같은 모델로 왜곡을 보정한다.
And,
Figure 112012073991253-pat00004
Is camera-centric
Figure 112012073991253-pat00005
Is the difference between the actual center of the image and the acquired center.
Figure 112012073991253-pat00006
Is the distorted image coordinate
Figure 112012073991253-pat00007
Is the corrected coordinate. The radial distortion corrects the distortion by the following model.

Figure 112012073991253-pat00008
Figure 112012073991253-pat00008

회전왜곡을 보정하기위해 카메라 모델은 핀홀 모댈로 가정하고

Figure 112012073991253-pat00009
는 실제 3차원 좌표라 한다. To compensate for the rotational distortion, the camera model assumes pinhole modulation
Figure 112012073991253-pat00009
Are referred to as actual three-dimensional coordinates.

Figure 112012073991253-pat00010
는 영상내 좌표이며
Figure 112012073991253-pat00011
는 카메라의 포커스 길이로 둔다. 광원의 중심은
Figure 112012073991253-pat00012
,
Figure 112012073991253-pat00013
축은 광원의 축으로 두고 카메라 행렬은
Figure 112012073991253-pat00014
로 둔다. 실좌표계와 영상내 좌표의 관계는 아래의 수식과 같다.
Figure 112012073991253-pat00010
Is the in-image coordinates
Figure 112012073991253-pat00011
Is set to the focus length of the camera. The center of the light source
Figure 112012073991253-pat00012
,
Figure 112012073991253-pat00013
The axis is the axis of the light source and the camera matrix is
Figure 112012073991253-pat00014
. The relationship between the real coordinate system and the in-image coordinate system is shown in the following equation.

Figure 112012073991253-pat00015
Figure 112012073991253-pat00015

Figure 112012073991253-pat00016
Figure 112012073991253-pat00016

그리고, 카메라 회전각을

Figure 112012073991253-pat00017
라 하면 회전변환 행렬
Figure 112012073991253-pat00018
이므로 회전 보정한 좌표
Figure 112012073991253-pat00019
는 아래 수식과 같다.Then,
Figure 112012073991253-pat00017
The rotation transformation matrix
Figure 112012073991253-pat00018
Therefore,
Figure 112012073991253-pat00019
Is the following equation.

Figure 112012073991253-pat00020
Figure 112012073991253-pat00020

여기서,

Figure 112012073991253-pat00021
그리고
Figure 112012073991253-pat00022
은 아래 수식과 같이 정의된다.here,
Figure 112012073991253-pat00021
And
Figure 112012073991253-pat00022
Is defined as follows.

Figure 112012073991253-pat00023
Figure 112012073991253-pat00023

한편, 본 발명에 따른 켈리브레이션 프로그램(400)은 표시부(420)와 오퍼레이션 파트(440)로 구분된 실행화면을 제공한다. 그리고, 상기와 같은 실행화면에서는 도 8의 (a)에서와 같이 보정판을 이용하여 보정전 화면에서 교차점을 추출한 다음 전술한 수식과 같은 변환행렬을 구성하고, 상기 변환행렬을 이용하여 영상 랩핑을 함으로써 도 8의 (b)와 같은 보정영상을 생성하게 된다.Meanwhile, the calibration program 400 according to the present invention provides an execution screen divided into a display unit 420 and an operation part 440. In the execution screen as described above, the intersection points are extracted from the pre-correction screen by using the correction plate as shown in FIG. 8A, and a transformation matrix such as the above-described equation is constructed, and the image is wrapped using the transformation matrix Thereby generating a corrected image as shown in FIG. 8 (b).

그리고, 상기와 같은 보정 영상을 전방위 모니터링 주행장치(10)의 상면에서 바라본 것과 같은 뷰를 구성하기 위하여 호모그라피가 수행된다. Homography is then performed to construct a view as viewed from the top of the omnidirectional monitoring and driving apparatus 10 as described above.

상기 호모그라피는 상기 보정판을 바닥에 두고 획득한 영상에서 격자점 좌상, 좌하, 우상, 우하의 끝점을 이용하여 호모그라피 변환 행렬을 구성하고, 영상 랩핑을 통하여 뷰를 재구성하게 된다. In the homography, the homography transform matrix is constructed by using the upper left point, the lower left point, the upper right point, and the lower right point of the grid point in the image obtained by placing the correction plate on the floor, and the view is reconstructed through image wrapping.

그리고, 각각의 영상획득수단(120)으로부터 재구성된 영상을 한장의 영상에 각 위치별로 오버랩되지 않게 잘라서 넣어줌으로써 전방위 모니터링 화면이 생성된다.The omnidirectional monitoring screen is generated by cutting out the reconstructed images from the respective image acquiring means 120 in a single image so as not to overlap each position.

한편, 도 9 에는 본 발명에 따른 전방위 모니터링 주행장치 제어 시스템의 요부구성인 스트림 서버를 이용하여 촬영된 영상을 전송하는 과정을 보이기 위한 도면.FIG. 9 is a diagram illustrating a process of transmitting a photographed image using a stream server, which is a main component of the omnidirectional monitoring and traveling device control system according to the present invention.

도면을 참조하면, 상기와 같이 정합된 영상을 상기 주행제어 단말기(20)로 전송하기 위해서는 우선, 정합영상을 캡쳐하고, FFMPEG를 이용하여 FLV 영상 코덱으로 인코딩을 하여 swf 패킷으로 변환하게 된다. Referring to FIG. 5, in order to transmit the matching image to the driving control terminal 20, the matching image is first captured, and the FLV image codec is converted into a swf packet using the FLV video codec using FFMPEG.

그리고, 상기와 같이 swf 패킷으로 변환된 정합영상은 apache 서버나 stream sever를 통해 공용망인 3G 또는 LTE로 전송된다. The matching image converted into the swf packet is transmitted to the public network (3G or LTE) through the apache server or the stream sever.

여기서, 상기 stream server는 vga급 영상을 초당 30 frame으로 전송가능하므로 영상 전송 딜레이가 0.1초 이하로 형성되므로 실시간 제어에 적합하기 때문에 본 실시 예에서는 상기 stream sever를 통해 정합영상의 전송이 이루어진다.Since the stream server can transmit a vga-class image at 30 frames per second, the video transmission delay is less than 0.1 second. Therefore, the stream server is suitable for real-time control, so that the matching image is transmitted through the stream sever in this embodiment.

한편, 상기와 같이 stream server를 통해 무선통신을 거쳐 전송되는 정합영상은 상기 주행제어 단말기(20)의 디스플레이(600)를 통해 확인된다. Meanwhile, the matching image transmitted through the wireless communication through the stream server is confirmed through the display 600 of the driving control terminal 20 as described above.

그리고, 사용자는 상기 디스플레이(600)를 통해 도시되는 전방위 영상을 확인하여 상기 전방위 모니터링 주행장치(10)를 직접 제어할 수 있다.The user can directly control the omnidirectional monitoring travel device 10 by checking the omnidirectional image displayed on the display 600. [

도 10 에는 본 발명에 따른 전방위 모니털이 주행장치 제어시스템에서 주행제어 단말기를 이용하여 드래그 컨트롤이 수행되는 알고리즘을 보이기 위한 도면이 도시되어 있고, 도 11에는 도 10에 도시된 알고리즘에 따라 드래그 컨트롤이 수행되는 과정을 보인 도면이 도시되어 있다.FIG. 10 is a diagram illustrating an algorithm for performing drag control using the driving control terminal in the omnidirectional monitor driving device control system according to the present invention. In FIG. 11, FIG. 2 is a view showing a process performed by the user.

이들 도면에 도시된 바와 같이 본 발명에 따른 주행제어 단말기(20)는 터치입력방식으로 제어명령을 입력할 수 있으며, 상기 전방위 모니터링 주행장치(10)의 주행경로를 라인형태로 상기 디스플레이(600)에 입력할 수 있다.As shown in these drawings, the driving control terminal 20 according to the present invention can input a control command in a touch input manner, and the traveling path of the omnidirectional monitoring traveling device 10 is displayed on the display 600 in a line form. As shown in FIG.

상세히, 사용자가 상기 전방위 모니터링 주행장치(10)를 원격으로 제어하기 위해서는 상기 주행제어 단말기(20)에 사용자가 입력한 명령을 상기 전방위 모니터링 주행장치(10)에서 사용가능한 모션프로토콜에 맞게 변환하여 전송이 이루어져야 된다.In detail, in order to remotely control the omnidirectional monitoring travel device 10, the user converts the command inputted by the user into the omnidirectional monitoring device 10 in accordance with a motion protocol available in the omnidirection monitoring travel device 10, Should be done.

따라서, 상기 데이터통신 제어부(200)의 제 2 SBC(240)에는 상기 전방위 모니터링 주행장치(10)의 제어알고리즘이 내장되어 있고, 상기 주행제어 단말기(20)에는 사용자 입력에 따른 단말기 프로토콜이 정의된다.Accordingly, the control algorithm of the omnidirectional monitoring travel apparatus 10 is built in the second SBC 240 of the data communication control unit 200, and the terminal protocol according to user input is defined in the travel control terminal 20 .

상세히, 상기 단말기 프로토콜은 상기 주행제어 단말기(20)에서 상기 제 2 SBC(240)로 전송되는 것과 상기 제 2 SBC(240)에서 상기 주행제어 단말기(20)로 전송되는 두 가지 프로토콜로 구분된다.In detail, the terminal protocol is divided into two types: a transmission from the driving control terminal 20 to the second SBC 240 and a transmission from the second SBC 240 to the driving control terminal 20.

상세히, 상기 단말기 프로토콜의 포맷은 Preamble 2byte 0x7F, 0x7F, length 2byte, command로 구성된다.In detail, the format of the terminal protocol includes preamble 2 bytes 0x7F, 0x7F, length 2 bytes, and command.

그리고, command 포맷은 type 1 byte와 data로 구성된다.The command format consists of type 1 byte and data.

data 구조는 드래그를 이용한 전방위 모니터링 주행장치(10)가 움직일 경로를 전송할 때 사용되며 드래그 된 좌표점의 총 개수와 x, y좌표 값이 번갈아가며 순차적으로 전송된다.The data structure is used to transmit a path through which the omnidirectional monitoring apparatus 10 moves by dragging, and the total number of the coordinate points to be dragged and the x, y coordinate values are alternately transmitted in sequence.

전달좌표 전체개수Total number of transfer coordinates
x

x

y

y

x

x

y

y

x

x

y

y

......

......

x

x

y

y

그리고, 정의되는 프로토콜은 아래 표와 같다.The protocols defined are shown in the table below.

전송send 항목Item value TypeType 비고Remarks
주행제어 단말기
-> 제 2 SBC

Driving control terminal
-> 2nd SBC
전진Advance 1(0x01)1 (0x01) int int 전방위 모니터링 주행장치 전진Forward monitoring
후진apse 2(0x02)2 (0x02) int int 전방위 모니터링 주행장치 후진Omnidirectional monitoring driving device backward 좌측 DOWNLeft DOWN 3(0x03)3 (0x03) int int 좌측 버튼이 눌려있는 동안 좌회전Turn left while the left button is held down 좌측 UPLeft UP 4(0x04)4 (0x04) int int 좌측 버튼 업되면 좌회전 정지When left button-up, left-stop 우측 DOWNRight DOWN 5(0x05)5 (0x05) int int 우측 버튼이 눌려있는 동안 우회전Turn right while the right button is held down 우측 UPRight UP 6(0x06)6 (0x06) int int 우측 버튼 업되면 우회전 정지Right turn up when right button up 정지stop 7(0x07)7 (0x07) int int 전방위 모니터링 주행장치 정지Stopping omni-directional monitoring unit 드래그 좌표Drag coordinates 8(0x08)8 (0x08) intint 전방위 모니터링 주행장치가 움직일 경로 정보를 보냄Omni-directional monitoring device sends route information to be moved setting
(축척)
setting
(Scale)
9(0x09)9 (0x09) intint 한 픽셀의 실제 거리를 설정Set the actual distance of one pixel
setting
(속도)
setting
(speed)
10(0x10)10 (0x10) intint 전방위 모니터링 주행장치의 속도를 설정Set the speed of the odometer monitoring traveling device
제 2 SBC
-> 주행제어 단말기
The second SBC
-> Driving control terminal
실행완료Done 101(0x65)101 (0x65) intint 명령이 수행된 결과를 전송Send the result of the command
긴급정지Emergency stop 102(0x66)102 (0x66) intint 긴급 정지 버튼 눌렀을 때 결과를 전송Emergency stop button sends result when pressed 통신끊김Communication lost 103(0x67)103 (0x67) intint 통신부 SBC와 모바일 전방위 모니터링 주행장치의 통신이 끊겼을 때 전송Transmission when communication between communication SBC and mobile omnidirection monitoring device is disconnected

한편, 상기 주행제어 단말기(20)에는 전술한 바와 같이 주행방향 제어버튼(770)과 정지버튼(760)을 이용하여 사용자가 주행방향과 이동시간을 계속해서 입력하는 수동제어방식과 상기 디스플레이(600) 상에 도시되는 전방위 영상를 사용자가 직접 터치 및 드래그 하여 주행경로를 입력하는 터치제어 방식이 모두 사용될 수 있다.Meanwhile, the driving control terminal 20 is provided with a manual control method in which the user continuously inputs the driving direction and the moving time by using the driving direction control button 770 and the stop button 760, The user can directly touch and drag the omnidirectional image to input the traveling route.

상세히, 상기 터치제어 방식은 도 11에 도시된 바와 같이 상기 디스플레이(600) 상에 도시되는 주변영상에 사용자가 손가락 제스쳐를 이용하여 연속된 라인을 그리게 될 경우 상기 디스플레이(600) 상에는 사용자가 입력한 주행라인이 도시된다. 11, when a user draws a continuous line by using a finger gesture on a peripheral image shown on the display 600, the touch control method displays, on the display 600, A traveling line is shown.

그리고, 상기 주행제어 단말기(20)에서는 상기와 같은 라인입력 형태의 제어명령을 입력하게 될 경우, 이를 상기 전방위 모니터링 주행장치(10)에서 인식할 수 있도록 도 10에 도시된 바와 같은 드래그 컨트롤 알고리즘을 수행하여 변환하게 된다.When the control command for the line-input type is input to the travel control terminal 20, the drag control algorithm as shown in FIG. 10 is executed so that the omnidirectional monitoring travel device 10 can recognize the control command. .

상세히, 상기 드래그 컨트롤 알고리즘은 우선, 드래그 좌표가 입력되면서 동일 지점의 좌표가 중복해서 입력되는 상황을 방지하기 위하여 동일 지점의 좌표를 제거하기 위한 중복좌표제거 과정을 수행하게 된다.In detail, the drag control algorithm performs a redundant coordinate elimination process for eliminating the coordinates of the same point in order to prevent the situation that the coordinates of the same point are inputted twice while the drag coordinates are input.

또한, 사용자에 의해 드래그 좌표가 입력될 경우 사용자의 손가락이 이동하는 속도에 따라 샘플링 되는 거리가 다르므로 Monotone cubic interpolation을 수행하여 등거리 점들의 집합으로 변환한다. Also, when the user inputs the drag coordinates, the distance sampled is different according to the speed at which the user's finger moves. Therefore, the user performs monotone cubic interpolation to convert the coordinates into a set of equidistant points.

그리고, 상기 전방위 모니터링 주행장치(10)의 현재 위치와 이동해야될 위치를 이용하여 상기 전방위 모니터링 주행장치(10)의 회전 각도를 산출하고, 현위치 및 현위치 전/후 위치를 이용하여 전방위 모니터링 주행장치(10)의 진행방향을 계산하게 되는데 현위치와 전/후 위치를 나타내는 3개의 점이 직선상에 놓여 있으면 직선형 그렇지 않을 경우는 곡선형으로 구분하게 된다. The rotation angle of the omnidirectional monitoring travel device 10 is calculated using the current position and the position to be moved of the omnidirectional monitoring travel device 10, The traveling direction of the traveling device 10 is calculated. If the three points representing the current position and the front / rear position are on a straight line, the traveling direction is linear. Otherwise, the traveling direction is divided into a curved line.

한편, 직선형일 경우에는 현재위치와 다음위치 사이의 거리를 계산하여 상기 주행제어 단말기(20)에서 전송되는 속도로 시간을 계산하여 저장하게 된다.On the other hand, in the case of a straight line, the distance between the current position and the next position is calculated, and the time is calculated and stored at the speed transmitted from the travel control terminal 20.

그리고, 곡선형일 경우에는 3점을 지나는 원의 반지름(r)과 중심을 계산하여 현위치와 다음 위치의 중심각(

Figure 112012073991253-pat00024
)를 계산하며, 이를 이용하여 좌우 주행바퀴의 속도(
Figure 112012073991253-pat00025
)와 시간(
Figure 112012073991253-pat00026
)을 계산한다. In the case of a curved shape, the radius (r) and center of the circle passing through the three points are calculated, and the center position of the current position and the next position
Figure 112012073991253-pat00024
), And calculates the speed of the left and right traveling wheels (
Figure 112012073991253-pat00025
) And time (
Figure 112012073991253-pat00026
).

Figure 112012073991253-pat00027
Figure 112012073991253-pat00027

여기서, (v)는 스마트 패드에서 전송된 전방위 모니터링 주행장치(10)의 속도이고 전방위 모니터링 주행장치(10)가 움직일 시간(

Figure 112013107379678-pat00028
)는 상기 수식으로 계산된다.Here, (v) is the speed of the omnidirectional monitoring travel device 10 transmitted from the smart pad and the time at which the omnidirection monitoring travel device 10 is moved
Figure 112013107379678-pat00028
) Is calculated by the above equation.

그리고 각속도(

Figure 112012073991253-pat00029
)는 아래 수식으로 계산된다.And angular velocity (
Figure 112012073991253-pat00029
) Is calculated by the following formula.

Figure 112012073991253-pat00030
Figure 112012073991253-pat00030

또한, 좌우 주행바퀴의 속도(

Figure 112012073991253-pat00031
)는 아래 수식으로 구할 수 있다.Further, the speed of the left and right traveling wheels (
Figure 112012073991253-pat00031
) Can be obtained by the following formula.

Figure 112012073991253-pat00032
Figure 112012073991253-pat00032

한편, 상기 수식으로 산출되는 주행바퀴의 속도를 상기 제 2 SBC(240)를 통해 주행부(300)로 전달됨으로써 상기 전방위 모니터링 주행장치(10)가 계산된 좌표간 이동을 위한 시간 동안 좌우 주행바퀴의 속도가 제어되어 방향전환 및 이동이 이루어지게 된다. Meanwhile, the speed of the traveling wheel calculated by the above equation is transmitted to the traveling unit 300 through the second SBC 240, so that the omnidirectional monitoring and driving apparatus 10 can calculate the traveling speed of the traveling wheels, So that the direction is changed and the movement is performed.

또한, 상기 서버에서는 상기 주행제어 단말기(20)를 통해 수신한 위치정보를 기반으로 상기 전방위 모니터링 주행장치(10)의 실제 주행위치를 파악하고, 파악된 실제 주행위치를 상기 주행제어 단말기(20)로 피드백함으로써 상기 주행제어 단말기의 디스플레이(600) 상에서 드래그한 위치 지점을 지워나가면서 전방위 모니터링 주행장치(10)의 현재 위치를 파악할 수 있도록 한다.Also, the server recognizes the actual travel position of the omnidirectional monitoring travel device 10 based on the position information received through the travel control terminal 20, and transmits the detected actual travel position to the travel control terminal 20, So that the current location of the omnidirectional monitoring and driving unit 10 can be grasped while erasing the position of the dragged position on the display 600 of the driving control terminal.

즉, 도 11에 도시된 바와 같이 상기 디스플레이(100)상에 사용자가 드래그 컨트롤로 주행경로를 입력하게 되면, 드래그 입력 경로가 좌표에 도시되고 상기 전방위 모니터링 주행장치(10)의 이동에 따른 주행바퀴의 속도에 따른 변위를 확인하여 상기 서버에서 전방위 모니터링 주행장치(10)의 현재위치를 확인할 수 있게 된다. 11, when a user inputs a driving route through the drag control on the display 100, a drag input path is shown in coordinates, and a driving wheel (not shown) corresponding to the movement of the omnidirectional monitoring travel device 10 It is possible to confirm the current position of the omnidirectional monitoring and driving apparatus 10 in the server.

그리고, 상기 서버에서는 이와 같이 확인되는 전방위 모니터링 주행장치(10)의 현재위치와 이동경로를 상기 주행제어 단말기(20)로 피드백 함으로써 이동경로 상에서 이동 완료된 경로는 화면에 표시되지 않도록 하여 이동경로 상에서 전방위 모니터링 주행장치(10)가 이동한 정도를 확인할 수 있도록 한다.
The server feeds back the current position and the movement route of the omnidirectional monitoring and driving apparatus 10 thus confirmed to the driving control terminal 20 so that the completed route on the movement route is not displayed on the screen, So that the degree to which the monitoring and travel apparatus 10 has moved can be confirmed.

10..... 전방위 모니터링 주행장치 20..... 주행제어 단말기
100..... 영상촬영부 120..... 영상촬영수단
200..... 데이터통신 제어부 220..... 제 1 SBC
240..... 제 2 SBC 300..... 주행부
400..... 켈리브레이션 프로그램 600..... 디스플레이
10 ..... All-round monitoring driving device 20 ..... Driving control terminal
100 ..... image capturing unit 120 ..... image capturing means
200 ..... Data communication controller 220 ..... First SBC
240 ..... Second SBC 300 ..... Driving section
400 ..... Calibration program 600 ..... Display

Claims (7)

엔진 또는 모터의 힘으로 이동 가능한 주행부와, 상기 주행부와 결합되어 함께 이동하면서 전/후/좌/우 영상을 촬영하는 영상촬영부와, 상기 영상촬영부에서 촬영된 영상의 왜곡을 보정하고 보정된 영상을 정합하여 무선통신을 통해 전송하는 데이터통신 제어부를 포함하는 전방위 모니터링 주행장치;
상기 전방위 모니터링 주행장치에서 촬영된 주변영상이 도시되며, 도시된 주변영상을 확인하면서 상기 전방위 모니터링 주행장치에 제어명령을 전달할 수 있는 주행제어 단말기; 및
상기 전방위 모니터링 주행장치에서 촬영되어 정합된 전방위 영상을 무선통신을 통해 수신하고, 수신된 전방위 영상을 상기 주행제어 단말기로 전송하며, 상기 주행제어 단말기를 통해 입력된 주행제어 신호를 상기 전방위 모니터링 주행장치로 전달하여 제어가 이루어질 수 있도록 하는 서버;를 포함하고,
상기 데이터통신 제어부에는 상기 영상촬영부에서 촬영된 영상의 왜곡을 보정하고 정합하기 위한 제 1 SBC(Single Board Microcomputer)와, 상기 주행제어 단말기에서 입력된 주행제어 신호를 상기 서버를 통해 수신하여 상기 주행부에서 인식 가능한 신호로 변환하여 전달하기 위한 제 2 SBC(Single Board Microcomputer)가 포함되며,
상기 주행제어 단말기에는 상기 서버를 통해 상기 전방위 모니터링 주행장치에서 촬영된 영상을 수신하여 도시하는 디스플레이가 포함되고, 사용자가 상기 디스플레이에 도시되는 영상을 확인하고 드래그 컨트롤 알고리즘을 통해 이동경로를 입력하여 상기 전방위 모니터링 주행장치의 주행을 제어하는 기능을 포함하며,
상기 드래그 컨트롤 알고리즘에는,
상기 전방위 모니터링 주행장치의 현위치 및 현위치 전/후 위치를 이용하여 전방위 모니터링 주행장치의 진행타입을 계산하는 과정이 포함되는 전방위 모니터링 주행장치의 제어 시스템.
An image capturing unit for capturing a front / back / left / right image while moving together with the traveling unit; and a control unit for correcting distortion of the image captured by the image capturing unit An omnidirectional monitoring traveling device including a data communication control unit for transmitting the corrected images by wireless communication;
A driving control terminal that displays a surrounding image photographed by the omnidirectional monitoring traveling device and can transmit a control command to the omnidirectional monitoring traveling device while checking the surrounding image shown; And
The control unit receives the omnidirectional image captured by the omnidirectional monitoring travel apparatus through wireless communication, transmits the received omnidirectional image to the driving control terminal, and transmits the driving control signal input through the omni- And a control unit for transmitting the control information to the server,
The data communication control unit includes a first SBC (Single Board Microcomputer) for correcting and matching distortion of the image photographed by the image photographing unit, and a control unit for receiving the driving control signal input from the driving control terminal through the server, And a second SBC (Single Board Microcomputer) for converting the signal into a recognizable signal,
The driving control terminal includes a display for receiving and displaying an image photographed by the omnidirection monitoring traveling device through the server. The user confirms an image displayed on the display, inputs a moving path through a drag control algorithm, And a function of controlling the running of the omnidirectional monitoring traveling device,
In the drag control algorithm,
And calculating a progress type of the omnidirectional monitoring traveling device using the current position and the current position of the omnidirectional monitoring traveling device.
제 1 항에 있어서, 상기 디스플레이에는
상기 드래그 컨트롤 알고리즘을 이용하여 입력되는 주행경로가 도시되며, 상기 서버를 통해 전방위 모니터링 주행장치의 현재위치와 이동경로가 피드백되어 상기 주행경로 상에서 이동 완료된 경로는 지워지고 나머지 경로만 도시되는 전방위 모니터링 주행장치의 제어 시스템.
The display according to claim 1, wherein the display
The current position and the movement route of the omnidirectional monitoring travel apparatus are fed back through the server to display the remaining travel route and the remaining travel route is displayed on the omnidirectional monitoring travel apparatus Of the control system.
제 1 항에 있어서, 상기 드래그 컨트롤 알고리즘에는,
상기 전방위 모니터링 주행장치의 진행타입에 따라 현재위치와 다음위치 사이의 상관관계를 계산하여 상기 주행부를 구성하는 주행바퀴의 속도와 시간을 계산하는 과정이 더 포함되는 전방위 모니터링 주행장치의 제어 시스템.
The method of claim 1, wherein the drag control algorithm includes:
Further comprising the step of calculating a correlation between a current position and a next position in accordance with a progress type of the omnidirectional monitoring travel apparatus and calculating a speed and a time of a traveling wheel constituting the travel unit.
제 3 항에 있어서, 상기 드래그 컨트롤 알고리즘에서는
상기 전방위 모니터링 주행장치의 현위치와 전/후 위치를 나타내는 3개의 점이 직선상에 놓여 있으면 직선형으로 구분하여 현재위치와 다음위치 사이의 거리를 계산하고,
상기 3개의 점이 직선상에 위치하지 않을 경우에는 3점을 지나는 원의 반지름과 중심을 계산하여 현위치와 다음 위치의 중심각을 계산하며, 이를 이용하여 좌우 주행바퀴의 속도와 시간을 계산하는 전방위 모니터링 주행장치의 제어 시스템.
4. The method of claim 3, wherein the drag control algorithm
If the three points representing the current position and the forward / backward position of the omnidirectional monitoring traveling device are on a straight line, the distance between the current position and the next position is calculated by dividing the current position,
If the three points are not located on a straight line, the radius and center of the circle passing through the three points are calculated to calculate the center angle of the current position and the next position, and the omnidirectional monitoring Control system of traveling device.
이동을 위한 주행부와, 상기 주행부와 함께 이동하면서 주변 영상을 촬영하기 위한 영상촬영부와, 상기 영상촬영부에서 촬영된 영상 데이터를 보정하고 보정된 영상 데이터를 정합하여 사용자에게 전송하기 위한 제 1 SBC(Single Board Microcomputer) 및 사용자에 의해 입력되는 주행제어 신호를 수신하여 상기 주행부를 구동하는 제 2 SBC(Single Board Microcomputer)가 포함되는 전방위 모니터링 주행장치;
상기 제 1 SBC를 통해 제공되는 영상 데이터를 표시하기 위한 디스플레이를 포함하고, 상기 디스플레이 상에 도시되는 영상 데이터를 확인하여 사용자가 드래그 컨트롤 알고리즘에 의한 주행경로 입력기능과 상기 주행부의 실시간 제어 기능을 포함하는 주행제어 단말기; 및
상기 드래그 컨트롤 알고리즘은 상기 디스플레이에 드래그 좌표가 입력될 경우 동일 지점의 좌표를 제거하기 위한 중복좌표제거 과정을 포함하는 전방위 모니터링 주행장치의 제어 시스템.
An image capturing unit for capturing a surrounding image while moving together with the travel unit, a controller for correcting the image data photographed by the image capturing unit, matching the corrected image data, and transmitting the adjusted image data to the user 1 SBC (Single Board Microcomputer), and a second SBC (Single Board Microcomputer) for receiving a driving control signal input by a user and driving the driving unit;
And a display for displaying image data provided through the first SBC, wherein the user checks the image data displayed on the display to include a driving path input function by a drag control algorithm and a real time control function of the driving unit A driving control terminal for driving the vehicle; And
Wherein the drag control algorithm includes a redundant coordinate elimination process for eliminating coordinates at the same point when drag coordinates are input to the display.
제 5 항에 있어서, 상기 드래그 컨트롤 알고리즘에서는,
현재 위치, 이동할 위치, 이전 위치 좌표를 이용하여 상기 전방위 모니터링 주행장치의 진행 타입을 결정하는 과정과,
상기 전방위 모니터링 주행장치의 진행타입에 따라 상기 주행부를 구성하는 주행바퀴의 속도와 시간을 계산하는 과정이 더 포함되는 전방위 모니터링 주행장치의 제어 시스템.
6. The method of claim 5, wherein in the drag control algorithm,
Determining a progress type of the omnidirectional monitoring travel apparatus by using a current position, a movement position, and a previous position coordinate;
Further comprising the step of calculating a speed and a time of a traveling wheel constituting the traveling part according to a traveling type of the omnidirectional monitoring traveling device.
제 5 항에 있어서,
상기 전방위 모니터링 주행장치와 상기 주행제어 단말기는 서버를 통해 무선 통신 가능하며,
상기 서버는,
상기 주행제어 단말기를 통해 수신한 위치정보를 기반으로 상기 전방위 모니터링 주행장치의 실제 주행위치를 파악하고, 파악된 실제 주행위치를 상기 주행제어 단말기로 피드백함으로써 상기 주행제어 단말기의 디스플레이 상에서 드래그한 위치 지점을 지워나가면서 상기 전방위 모니터링 주행장치의 현재 위치를 파악할 수 있도록 하는 전방위 모니터링 주행장치의 제어 시스템.
6. The method of claim 5,
Wherein the omnidirectional monitoring traveling device and the driving control terminal are capable of wireless communication through a server,
The server comprises:
The actual driving position of the omnidirectional monitoring traveling device is detected based on the position information received through the driving control terminal and the detected actual traveling position is fed back to the driving control terminal, So as to grasp the current position of the omnidirectional monitoring travel device.
KR1020120101424A 2012-09-13 2012-09-13 A control system for Wrap-arround view running device KR101394736B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120101424A KR101394736B1 (en) 2012-09-13 2012-09-13 A control system for Wrap-arround view running device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120101424A KR101394736B1 (en) 2012-09-13 2012-09-13 A control system for Wrap-arround view running device

Publications (2)

Publication Number Publication Date
KR20140036391A KR20140036391A (en) 2014-03-26
KR101394736B1 true KR101394736B1 (en) 2014-05-16

Family

ID=50645642

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120101424A KR101394736B1 (en) 2012-09-13 2012-09-13 A control system for Wrap-arround view running device

Country Status (1)

Country Link
KR (1) KR101394736B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101772929B1 (en) * 2015-10-07 2017-09-12 주식회사 성우모바일 System for processing integrated images of the navigator and AVM camera on vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100663483B1 (en) * 2005-08-09 2007-01-02 삼성전자주식회사 Apparatus and method of unmanned surveillance using an omni-directional camera
JP2008090827A (en) * 2006-09-29 2008-04-17 Samsung Electronics Co Ltd Method, apparatus and medium for controlling mobile device based on image of real space
KR20090012542A (en) * 2007-07-30 2009-02-04 주식회사 마이크로로봇 System for home monitoring using robot
JP2009267603A (en) * 2008-04-23 2009-11-12 Alpine Electronics Inc Vehicle periphery monitoring apparatus, and setting correcting method of distortion correction value which is applied thereto

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100663483B1 (en) * 2005-08-09 2007-01-02 삼성전자주식회사 Apparatus and method of unmanned surveillance using an omni-directional camera
JP2008090827A (en) * 2006-09-29 2008-04-17 Samsung Electronics Co Ltd Method, apparatus and medium for controlling mobile device based on image of real space
KR20090012542A (en) * 2007-07-30 2009-02-04 주식회사 마이크로로봇 System for home monitoring using robot
JP2009267603A (en) * 2008-04-23 2009-11-12 Alpine Electronics Inc Vehicle periphery monitoring apparatus, and setting correcting method of distortion correction value which is applied thereto

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101772929B1 (en) * 2015-10-07 2017-09-12 주식회사 성우모바일 System for processing integrated images of the navigator and AVM camera on vehicle

Also Published As

Publication number Publication date
KR20140036391A (en) 2014-03-26

Similar Documents

Publication Publication Date Title
JP5350419B2 (en) Device for displaying a screen that moves according to the physical condition of a user and its operating method
CN103302664B (en) Robot device and the method for control equipment
JP2009241247A (en) Stereo-image type detection movement device
US10356301B2 (en) Imaging system, angle-of-view adjustment method, and angle-of-view adjustment program
US10399229B2 (en) Method of tracking target object
CN104881033A (en) PTZ control, PTZ control method, and unmanned aerial vehicle (UAV)
EP1094668A3 (en) Image positional relation correction apparatus, steering supporting apparatus provided with the image positional relation correction apparatus, and image positional relation correction method
JP6309176B2 (en) Remote work support device, instruction terminal and on-site terminal
US8887204B2 (en) Video distribution system, and video distribution method
US20110084915A1 (en) Adjustment system and method for camera lens
JP6627678B2 (en) Mobile remote control system
JP2011030015A5 (en)
CN108068697A (en) Camera system, method and automobile based on automobile
KR101394736B1 (en) A control system for Wrap-arround view running device
US20160189422A1 (en) Process and Device for Determining the 3D Coordinates of an Object
JP2006139525A (en) Autonomous mobile robot
US8692879B2 (en) Image capturing system, image capturing device, information processing device, and image capturing method
JPWO2018020744A1 (en) Mobile control system, control signal transmission system, mobile control method, program, and recording medium
JP5506656B2 (en) Image processing device
JP5725772B2 (en) Imaging control system, control device, control method, and program
CN107368104B (en) Random point positioning method based on mobile phone APP and household intelligent pan-tilt camera
US20210149392A1 (en) Vehicle, remote imaging-and-controlling system, method for controlling vehicle, and non-transitory recording medium
US11178387B2 (en) Image capture method and system using a virtual sensor
WO2019208174A1 (en) Industrial vehicle remote system, industrial vehicle, remote device, industrial vehicle remote program, and industrial vehicle remote method
CN112514363A (en) Image transmission system and method, control device and movable platform

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee