KR20150056115A - System for tracking object using both direction camera - Google Patents

System for tracking object using both direction camera Download PDF

Info

Publication number
KR20150056115A
KR20150056115A KR1020130138372A KR20130138372A KR20150056115A KR 20150056115 A KR20150056115 A KR 20150056115A KR 1020130138372 A KR1020130138372 A KR 1020130138372A KR 20130138372 A KR20130138372 A KR 20130138372A KR 20150056115 A KR20150056115 A KR 20150056115A
Authority
KR
South Korea
Prior art keywords
user terminal
unit
object tracking
image
present
Prior art date
Application number
KR1020130138372A
Other languages
Korean (ko)
Inventor
서병조
Original Assignee
(주)바램시스템
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)바램시스템 filed Critical (주)바램시스템
Priority to KR1020130138372A priority Critical patent/KR20150056115A/en
Publication of KR20150056115A publication Critical patent/KR20150056115A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/028Multiple view windows (top-side-front-sagittal-orthogonal)

Abstract

The present invention relates to an object tracking system using a bi-directional camera. According to the present invention, the object tracking system using the bi-directional camera includes: a driving unit which is connected to a driving robot including a motor for movement in all four directions to control the movement of the driving robot in all four directions; a communications unit exchanging data with a user terminal; a recording unit which records an image by using the bi-directional camera and transmits the recorded image information to the user terminal through the communications unit; and a control unit which receives a control signal including one or more coordinate values of an object block generated by recognizing the object in the image information from the user terminal and controls the driving unit to match the coordinate values of the object block with the coordinate values of a center bock in the image stored in advance. Accordingly, the present invention controls the driving robot on an object-recognition basis to control the movement in all four directions without an operator. In addition, the present invention also generate random events to increase a user′s operation concentration.

Description

양방향 카메라를 이용한 객체 추적 시스템{SYSTEM FOR TRACKING OBJECT USING BOTH DIRECTION CAMERA}TECHNICAL FIELD [0001] The present invention relates to an object tracking system using a two-way camera,

본 발명은 양방향 카메라를 이용한 객체 추적 시스템에 관한 것으로, 사용자 단말기에 의해 인식된 객체에 대하여 추적하거나 움직임에 따라 이동이 가능한 양방향 카메라를 이용한 객체 추적 시스템을 제공하기 위한 것이다.The present invention relates to an object tracking system using a two-way camera, and is intended to provide an object tracking system using a two-way camera capable of tracking an object recognized by a user terminal or moving according to a motion.

최근에 지능 로봇은 하루가 다르게 새로운 기술들을 양산해내고 있다. 특히 인간과의 상호작용분야에서의 발전이 두드러진다. 인간과의 원활한 상호작용이 이루어지기 위해서는 로봇이 사람을 찾고 쫓아가는 기본 기능이 전제되어야 가능하다.In recent years, intelligent robots are producing new technologies different from one another. Especially in the field of interaction with humans. In order for smooth interaction with human beings to be achieved, it is possible that the robot has to have basic functions to find and chase people.

로봇이 사람을 알아보고 그 사람을 따라간다거나, 외부 침입자를 알아보고 그 칩입자를 추적하는 등의 로봇 서비스는 인간과 로봇이 상호작용하는데 있어 필수적인 기술이라 할 수 있다. Robot services such as recognizing a person and following a person, or recognizing an external intruder and tracking the chip particle are indispensable technologies for human-robot interaction.

종래의 사람을 인식하는 다양한 기술들이 개발되었지만, 로봇의 인공 지능은 사람과 같이, 혼자 할 수 있는 것들에 대한 많은 제약이 있다. 따라서 현재 많은 로봇들이 컨트롤에 의존해 동작을 하고 있다.While a variety of conventional human recognition techniques have been developed, the artificial intelligence of a robot has many limitations on what one can do alone, such as a human being. Therefore, many robots are now dependent on control.

이러한, 문제점으로 스마트 폰과 같은 사용자 단말기를 이용하여 로봇을 제어하고 있지만, 단순히 로봇에서 보내온 영상을 보면서 로봇을 제어하는 수준이기 때문에 원활한 제어를 할 수 없다는 문제점이 있다.The problem is that the robot is controlled using a user terminal such as a smart phone. However, since the robot is controlled by simply watching the image sent from the robot, there is a problem that smooth control can not be performed.

본 발명의 배경이 되는 기술은 대한민국 국내등록특허 제10-1212810호(2012. 12. 18 공고)에 개시되어 있다.The technology that is the background of the present invention is disclosed in Korean Patent No. 10-1212810 (Dec. 18, 2012).

따라서 본 발명이 이루고자 하는 기술적 과제는 사용자 단말기에 의해 인식된 객체에 대하여 추적하거나 움직임에 따라 이동이 가능한 양방향 카메라를 이용한 객체 추적 시스템을 제공하기 위한 것이다.SUMMARY OF THE INVENTION The object of the present invention is to provide an object tracking system using a bi-directional camera capable of tracking an object recognized by a user terminal or moving according to a motion.

이러한 기술적 과제를 이루기 위한 본 발명의 실시예에 따른 양방향 카메라를 이용한 객체 추적 시스템은, 좌우, 전후 및 상하 이동을 위한 모터가 포함된 구동 로봇과 연결되며, 상기 구동 로봇의 좌우, 전후 및 상하 이동을 제어하는 구동부; 사용자 단말기와 데이터를 송수신하는 통신부; 양방향 카메라를 이용하여 영상을 촬영하며, 상기 통신부를 통해 촬영된 영상 정보를 상기 사용자 단말기로 제공하는 촬상부; 및 상기 영상 정보에 포함된 객체를 인식하여 생성한 객체 블록의 적어도 하나의 좌표값이 포함되는 제어 신호를 상기 사용자 단말기로부터 수신하고, 상기 객체 블록의 좌표값이 기 저장된 영상의 중심 블록의 좌표값에 일치하도록 상기 구동부를 제어하는 제어부를 포함한다. According to an aspect of the present invention, there is provided an object tracking system using a two-way camera, which is connected to a driving robot including motors for moving left and right, front and rear, and up and down, ; A communication unit for transmitting and receiving data to and from a user terminal; An image capturing unit capturing an image using a bi-directional camera and providing image information photographed through the communication unit to the user terminal; And receiving a control signal including at least one coordinate value of an object block generated by recognizing an object included in the image information from the user terminal, wherein the coordinate value of the object block is a coordinate value And the control unit controls the driving unit so that the driving unit coincides with the driving unit.

이와 같이 본 발명에 의하면, 또한, 노트북, 스마트 폰과 같이 IP 기반의 통신이 가능한 사용자 단말기를 이용하여 객체 추적 시스템을 쉽게 조작할 수 있는 효과를 기대할 수 있다. 특히, 객체 인식 기반으로 구동 로봇을 제어함으로써, 별도로 사람이 조작하지 않아도 자동으로 상하, 좌우, 전후 이동을 컨트롤할 수 있는 효과를 기대할 수 있다.As described above, according to the present invention, an object tracking system can be easily operated by using a user terminal capable of IP-based communication such as a notebook computer or a smart phone. Especially, by controlling the driving robot on the basis of object recognition, it is possible to expect the effect of automatically controlling the up and down, left and right, and back and forth movement even without human manipulation.

또한, 불규칙하게 이벤트를 발생시켜 사용자의 조작 집중도를 높일 수 있는 효과를 기대할 수 있다.In addition, it is possible to expect an effect of increasing the concentration of the operation of the user by generating an event irregularly.

도 1은 본 발명의 제1 실시예에 따른 객체 추적 시스템을 나타낸 도면이다.
도 2는 본 발명의 제1 실시예에 따른 객체 추적 장치의 구성을 상세히 도시한 도면이다.
도 3은 본 발명의 제1 실시예에 따른 객체 추적 시스템을 제어하기 위한 사용자 단말기의 구성을 상세히 도시한 도면이다.
도 4는 본 발명의 제1 실시예에 따른 객체 추적 방법을 나타낸 순서도이다.
도 5a는 본 발명의 제1 실시예에 따른 객체 추적 장치가 기 저장하고 있는 중심 블록을 나타내는 도면이다.
도 5b는 본 발명의 제1 실시예에 따른 객체 추적 장치가 사용자 단말기로부터 수신한 객체 블록을 나타내는 도면이다.
도 6a 내지 도 6c는 본 발명의 제1 실시예에 따른 객체 추적 장치가 중심 블록의 크기와 객체 블록의 크기를 일치시키는 과정을 설명하기 위한 도면이다.
도 7은 본 발명의 제2 실시예에 따른 객체 추적 시스템의 구성을 상세히 도시한 도면이다.
도 8은 본 발명의 제2 실시예에 따른 객체 추적 시스템을 제어하기 위한 사용자 단말기의 구성을 상세히 도시한 도면이다.
도 9는 본 발명의 제2 실시예에 따른 객체 추적 방법을 나타낸 데이터 흐름도이다.
도 10는 본 발명의 제2 실시예에 따른 사용자 단말기가 제공하는 터치 입력창을 설명하기 위한 도면이다.
1 is a diagram illustrating an object tracking system according to a first embodiment of the present invention.
2 is a detailed block diagram of an object tracking apparatus according to a first embodiment of the present invention.
3 is a detailed block diagram of a user terminal for controlling an object tracking system according to a first embodiment of the present invention.
4 is a flowchart illustrating an object tracking method according to a first embodiment of the present invention.
FIG. 5A is a view showing a central block stored by the object tracking apparatus according to the first embodiment of the present invention. FIG.
5B is a diagram illustrating an object block received from a user terminal according to the first embodiment of the present invention.
6A to 6C are views for explaining the process of matching the size of the central block and the size of the object block according to the object tracking apparatus according to the first embodiment of the present invention.
7 is a detailed block diagram of an object tracking system according to a second embodiment of the present invention.
8 is a detailed block diagram of a configuration of a user terminal for controlling an object tracking system according to a second embodiment of the present invention.
9 is a data flow diagram illustrating an object tracking method according to a second embodiment of the present invention.
10 is a view for explaining a touch input window provided by the user terminal according to the second embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when an element is referred to as "comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise.

또한, 명세서 전체에서, 사용된 "객체"는 이동이 가능한 사물을 의미하며, 본 발명에서는 사람, 동물 등을 포함한다.Further, throughout the specification, the term "object" used means a movable object, and the present invention includes a person, an animal, and the like.

그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention.

먼저, 도 1 내지 도 3를 통해 본 발명의 제1 실시예에 따른 객체 추적 시스템과 객체 추적 시스템을 제어하기 위한 사용자 단말기의 구성에 대하여 설명한다.First, a configuration of a user terminal for controlling an object tracking system and an object tracking system according to a first embodiment of the present invention will be described with reference to FIGS. 1 to 3. FIG.

도 1은 본 발명의 제1 실시예에 따른 객체 추적 시스템을 나타낸 도면이고, 도 2는 본 발명의 제1 실시예에 따른 객체 추적 장치의 구성을 상세히 도시한 도면이고, 도 3은 본 발명의 제1 실시예에 따른 객체 추적 시스템을 제어하기 위한 사용자 단말기의 구성을 상세히 도시한 도면이다.FIG. 1 is a block diagram of an object tracking system according to a first embodiment of the present invention. FIG. 2 is a detailed block diagram of an object tracking apparatus according to a first embodiment of the present invention. FIG. 3 is a detailed view illustrating a configuration of a user terminal for controlling an object tracking system according to the first embodiment. FIG.

도 1에 나타낸 바와 같이, 본 발명의 제1 실시예에 따른 객체 추적 시스템(100)은 객체 추적 장치(110)와 구동 로봇(120)을 포함한다.As shown in FIG. 1, the object tracking system 100 according to the first embodiment of the present invention includes an object tracking device 110 and a driving robot 120.

객체 추적 장치(110)는 사용자 단말기(200)와 데이터를 송수신하며, 주변을 촬영한 영상 정보를 사용자 단말기(200)로 전송하고, 사용자 단말기(200)로부터 수신되는 제어 신호를 기초로 구동 로봇의 전후, 좌우 이동을 제어한다.The object tracking device 110 transmits and receives data to and from the user terminal 200 and transmits image information of the surroundings to the user terminal 200. Based on the control signal received from the user terminal 200, Back, and left and right movement.

구동 로봇(120)은 전후, 좌우 이동, 팬/틸트(Pan/Tilt) 동작을 위한 서보 모터(Servo motor)와 DC 모터(Direct Current Motor)를 포함하며, 객체 추적 장치(110)로부터 수신되는 제어 명령을 기초로 좌우, 전후, 상하 이동을 수행한다. 이때, 구동 로봇(120)의 상하 이동은 객체 추적 장치(110)가 상측 또는 하측을 향할 수 있도록 팬/틸트 동작을 수행하여 이루어진다.The driving robot 120 includes a servomotor and a DC motor (direct current motor) for front / rear, left / right, and pan / tilt operations, Left and right, back and forth, and up and down movement based on the command. At this time, the up / down movement of the driving robot 120 is performed by performing the pan / tilt operation so that the object tracking device 110 can be directed upward or downward.

사용자 단말기(200)는 객체 추적 장치(110)와 데이터를 송수신하며, 객체 추적 장치(110)로부터 수신되는 영상 정보를 사용자에게 제공한다. 또한, 영상 정보에 따른 제어 신호 또는 사용자로부터 수신된 제어 명령에 따른 제어 신호를 생성하여 객체 추적 시스템(100)을 제어한다.The user terminal 200 transmits and receives data to and from the object tracking device 110 and provides the user with image information received from the object tracking device 110. In addition, a control signal according to image information or a control signal according to a control command received from a user is generated to control the object tracking system 100.

여기서, 사용자 단말기(200)는 객체 추적 시스템(100)을 제어하기 위한 어플리케이션 또는 앱(Apps) 등의 프로그램을 포함하여 객체 추적 시스템(100)으로부터 수신되는 영상 정보를 사용자에게 제공하고, 그에 따른 제어 신호를 생성하여 객체 추적 시스템(100)을 제어한다. Here, the user terminal 200 includes a program such as an application or an application for controlling the object tracking system 100 to provide the user with image information received from the object tracking system 100, Signal to control the object tracking system 100. < RTI ID = 0.0 >

한편, 사용자 단말기(200)는 사용자의 제어에 따라 또는 영상 정보를 분석하여 얻은 객체의 움직임에 따라 객체 추적 시스템(100)을 제어할 수 있는 하나의 장치로 구현될 수 있다. 또한, 하나의 프로그램으로 구현되어 휴대용 단말기, 즉 PC(Personal Computer), 노트북(notebook), 스마트 폰(Smart Phone)등과 같이, 운영 체제를 갖는 장치 상에서 동작될 수도 있다. Meanwhile, the user terminal 200 may be implemented as a single device capable of controlling the object tracking system 100 according to the control of the user or the motion of the object obtained by analyzing the image information. Also, it may be implemented as a single program and operated on a device having an operating system, such as a portable terminal, that is, a PC (Personal Computer), a notebook, a smart phone,

도 2를 참조하여 객체 추적 장치(110)에 대해 설명하면, 객체 추적 장치(110)는 통신부(111), 촬상부(112), 로봇 구동부(113) 및 제어부(114)를 포함한다.The object tracking apparatus 110 includes a communication unit 111, an imaging unit 112, a robot driving unit 113, and a control unit 114. [

통신부(111)는 사용자 단말기(200)와 데이터를 송수신하기 위한 통신 수단을 포함하며, 사용자 단말기(200)로부터 제어 신호를 수신하여 제어부(114)로 제공하고, 촬상부(112)로부터 수신된 영상 정보를 사용자 단말기(200)로 실시간 전송한다.The communication unit 111 includes communication means for transmitting and receiving data to and from the user terminal 200. The communication unit 111 receives a control signal from the user terminal 200 and provides the control signal to the control unit 114, Information to the user terminal 200 in real time.

이때, 통신 수단은 DRC-WiFi(Duplex Radio Camera WiFi) 통신을 위한 모듈로, 와이파이(WiFi) 통신을 이용하여 촬상부(112)에 의해 촬영된 영상을 사용자 단말기(200)로 전송하고, 사용자 단말기(200)로부터 제어 신호를 수신하여 제어부(114)로 제공한다.At this time, the communication means is a module for DRC-WiFi (Duplex Radio Camera WiFi) communication, and transmits an image photographed by the imaging unit 112 to the user terminal 200 using WiFi communication, And receives the control signal from the control unit 200 and provides the control signal to the control unit 114.

여기서, 본 발명의 실시 예에서는 통신부(111)가 IP(Internet Protocol) 기반의 근거리 무선 통신(DRC-WiFi)을 이용하여 사용자 단말기(200)와 데이터를 송수신하지만, 블루투스(BlueTooth), 지그비(Zigbee) 등과 같은 근거리 통신 수단을 이용하여 사용자 단말기(200)와 데이터를 송수신할 수도 있다.Here, in the embodiment of the present invention, the communication unit 111 transmits / receives data to / from the user terminal 200 using an IP (Internet Protocol) based near field wireless communication (DRC-WiFi), but Bluetooth, Zigbee ) And the like through the short-range communication means.

촬상부(112)는 영상을 촬영하기 위한 촬상 수단을 포함하며, 촬상 수단으로부터 영상 정보를 수신하고, 수신된 영상 정보를 통신부(111)를 통해 사용자 단말기(200)로 제공한다. The image capturing unit 112 includes image capturing means for capturing an image and receives image information from the image capturing means and provides the received image information to the user terminal 200 through the communication unit 111. [

이때, 촬상 수단은 양방향 카메라와 같이 양방향 영상을 촬영할 수 있는 수단을 포함하며, 촬상부(112)는 촬상 수단을 통해 촬영된 영상을 JPEG(Joint Photographic Experts Group), VGA(Video Graphics Array), MPEG(Motion Picture Experts Groups), MOV, AVI(Audio Video Interleave) 등과 같은 영상 포멧 형식을 이용하여 포멧하고, 포멧된 영상을 사용자 단말기(200)로 제공한다.In this case, the image pickup means includes means for taking a bidirectional image such as a bi-directional camera, and the image pickup unit 112 is configured to record an image photographed through the image pickup means in JPEG (Joint Photographic Experts Group), VGA (Motion Picture Experts Groups), MOV, AVI (Audio Video Interleave), or the like, and provides the formatted image to the user terminal 200.

로봇 구동부(113)는 제어부(114)로부터 수신된 로봇 구동 명령을 기초로 로봇의 좌우, 전후, 상하 이동을 제어한다.The robot driving unit 113 controls the left-right, front-back, and up-and-down movement of the robot based on the robot driving command received from the control unit 114.

제어부(114)는 사용자 단말기(200)로부터 수신되는 제어 신호를 수신하고, 수신된 제어 신호를 기초로 로봇의 이동을 제어하기 위한 로봇 구동 명령을 생성하고, 생성된 로봇 구동 명령을 로봇 구동부(113)로 제공한다.The control unit 114 receives a control signal received from the user terminal 200, generates a robot driving command for controlling the movement of the robot based on the received control signal, and outputs the generated robot driving command to the robot driving unit 113 ).

구체적으로, 제어부(114)는 촬영된 영상의 중심에 해당하는 중심 좌표값을 미리 저장하며, 사용자 단말기(200)로부터 수신한 제어 신호에 포함된 객체의 중심 좌표값이 촬영 영상의 기준 좌표값에 일치하도록 로봇 구동부(113)를 제어한다.Specifically, the controller 114 stores a center coordinate value corresponding to the center of the photographed image in advance, and stores the center coordinate value of the object included in the control signal received from the user terminal 200 as a reference coordinate value And controls the robot driving unit 113 to coincide with each other.

이때, 제어부(114)는 영상의 픽셀 좌표값을 이용하여 영상의 중심 좌표값을 계산하고, 계산된 중심 좌표값을 미리 저장한다.At this time, the controller 114 calculates the center coordinate value of the image using the pixel coordinate value of the image, and stores the calculated center coordinate value in advance.

또한, 제어부(114)는 영상 내 객체의 상하 움직임에 따라 촬상부(112)의 촬상 수단의 팬/필트 동작을 제어한다.Further, the control unit 114 controls the pan / filter operation of the imaging unit of the imaging unit 112 in accordance with the vertical movement of the object in the image.

다음은 도 3을 통해 본 발명의 제1 실시예에 따른 사용자 단말기(200)를 설명한다.The following will describe the user terminal 200 according to the first embodiment of the present invention with reference to FIG.

도 3을 참조하면, 사용자 단말기(200)는 통신부(210), 영상 표시부(220), 객체 인식부(230), 저장부(240) 및 제어부(250)를 포함한다.3, the user terminal 200 includes a communication unit 210, an image display unit 220, an object recognition unit 230, a storage unit 240, and a control unit 250.

통신부(210)는 객체 추적 장치(110)와 데이터를 송수신하며, 객체 추적 장치(110)로부터 수신되는 영상 정보를 영상 표시부(220)로 전달하고, 제어부(250)로부터 수신된 제어 신호를 객체 추적 장치(110)로 전송한다.The communication unit 210 transmits and receives data to and from the object tracking device 110. The communication unit 210 transmits the image information received from the object tracking device 110 to the image display unit 220, To the device (110).

영상 표시부(220)는 통신부(210)를 통해 수신된 영상 정보를 사용자에게 실시간 제공한다. 이때, 영상 표시부(220)는 입출력이 가능한 터치 패널로 구현될 수 있으며, 영상 정보를 제공함과 동시에 사용자로부터 입력되는 입력 정보를 수신할 수도 있다. The image display unit 220 provides the user with the image information received through the communication unit 210 in real time. At this time, the image display unit 220 may be implemented with a touch panel capable of input and output, and may receive input information input from a user while providing image information.

객체 인식부(230)는 수신된 영상 정보를 분석하여 객체를 인식하고, 인식된 객체의 형상에 대응하는 블록을 생성하여 제어부(250)로 제공한다.The object recognition unit 230 analyzes the received image information to recognize the object, generates a block corresponding to the shape of the recognized object, and provides the generated block to the control unit 250.

이러한, 객체 인식부(230)가 객체를 인식하는 기술은 PCA(Pricipal Component Analysis, 주성분 분석법), FDA(Fisher Discriminant Analysis), ICA(Independent Component Analysis) 등의 알고리즘을 이용할 수 있으며, 상기의 객체 인식 알고리즘은 당업자라면 용이하게 실시할 수 있는 기술이므로, 이에 대한 상세한 설명은 생략하기로 한다.The object recognizing unit 230 may use an algorithm such as PCA (Principles Component Analysis), FDA (Fisher Discriminant Analysis) and ICA (Independent Component Analysis) The algorithm is a technique that can be easily implemented by those skilled in the art, so a detailed description thereof will be omitted.

저장부(240)는 객체 추적 장치(110)로부터 수신된 영상 정보를 일시적으로 저장하며, 복수의 이미지들을 저장하고, 저장된 이미지들을 제어부(250)로 제공한다.The storage unit 240 temporarily stores image information received from the object tracking device 110, stores a plurality of images, and provides the stored images to the control unit 250. [

제어부(250)는 통신부(210), 영상 표시부(220), 객체 인식부(230), 이벤트 생성부(240) 및 저장부(240)를 제어하며, 각 부(210, 220, 230, 240, 250)의 데이터 흐름을 관리한다. The control unit 250 controls the communication unit 210, the video display unit 220, the object recognition unit 230, the event generation unit 240, and the storage unit 240, and the units 210, 220, 230, 250).

또한, 제어부(250)는 객체 인식부(230)로부터 수신한 객체에 대응하는 객체 블록의 좌표 값(객체 블록이 사각형 형태인 경우에는 4개의 좌표 값)을 구하고, 획득한 객체 블록의 좌표값을 객체 추적 장치(110)로 전송한다. The controller 250 obtains the coordinate values of the object block corresponding to the object received from the object recognizing unit 230 (four coordinate values when the object block is a rectangular shape) To the object tracking device 110.

이와 같이, 제어부(250)는 객체 인식부(230)에 의해 인식된 객체 블록의 좌표값을 통신부(210)를 통해 객체 추적 장치(110)로 전송한다. The control unit 250 transmits the coordinate value of the object block recognized by the object recognition unit 230 to the object tracking device 110 through the communication unit 210. [

또한, 제어부(250)는 객체 추적 시스템(100)에 접속하는 경우에, 사용자 인증에 대한 인증 정보를 사용자에게 요청하고, 그에 따라 수신된 인증 정보를 객체 추적 시스템(100)으로 전달한다. 여기서, 제어부(250)는 사용자 암호가 기 등록된 암호와 일치하면, 사용자 인증을 승인하여 접속을 허락하고, 사용자 암호가 기 등록된 암호와 상이하면, 사용자 인증 실패를 사용자 단말기(200)로 알린다.When the control unit 250 accesses the object tracking system 100, the control unit 250 requests authentication information on the user authentication, and transmits the received authentication information to the object tracking system 100 accordingly. Here, if the user password is identical to the pre-registered password, the control unit 250 approves the user authentication and permits the connection. If the user password is different from the pre-registered password, the control unit 250 notifies the user terminal 200 of the user authentication failure .

이러한, 본 발명의 실시예에 따른 사용자 단말기는 근거리 무선 통신을 통해 쉽게 객체 추적 시스템과 접속할 수 있으며, 객체 추적 시스템으로부터 수신한 영상을 분석하여 객체를 인식하고, 인식된 객체의 이동에 따라 객체 추적 시스템이 용이하게 이동할 수 있도록 제어할 수 있는 장점이 있다.The user terminal according to the embodiment of the present invention can easily access the object tracking system through the near field wireless communication. The user terminal recognizes the object by analyzing the image received from the object tracking system, There is an advantage that the system can be controlled so as to be easily moved.

다음은 도 4 내지 도 6c를 통해 본 발명의 제1 실시예에 따른 객체 추적 시스템의 객체 추적 방법에 대하여 상세히 설명한다.4 to 6C, an object tracking method of the object tracking system according to the first embodiment of the present invention will be described in detail.

도 4는 본 발명의 제1 실시예에 따른 객체 추적 방법을 나타낸 순서도이다. 4 is a flowchart illustrating an object tracking method according to a first embodiment of the present invention.

도 4에 나타낸 바와 같이, 본 발명의 제1 실시예에 따른 객체 추적 시스템(100)에 사용자 단말기(200)가 접속되면, 객체 추적 장치(100)는 사용자에 대한 인증을 수행하고(S400), 인증이 성공하면, 촬상부(112)를 제어하여 촬상 수단을 통해 영상을 촬영한다(S402). 그리고, 객체 추적 장치(110)는 촬영된 영상 정보를 사용자 단말기(200)로 전송한다(S404).4, when the user terminal 200 is connected to the object tracking system 100 according to the first embodiment of the present invention, the object tracking apparatus 100 performs authentication for the user (S400) If the authentication is successful, the imaging unit 112 is controlled to shoot an image through the imaging unit (S402). Then, the object tracking device 110 transmits the photographed image information to the user terminal 200 (S404).

사용자 단말기(200)는 수신된 영상 정보를 영상 표시부(220)를 통해 사용자에게 제공한다(S406).The user terminal 200 provides the received image information to the user through the image display unit 220 (S406).

사용자 단말기(200)의 객체 인식부(230)는 수신된 영상 정보를 분석하여 기 저장된 객체 인식 알고리즘을 통해 객체를 인식하고(S408), 인식된 객체에 대한 객체 블록을 생성한다(S410). 이때, 객체 인식부(230)는 사람의 얼굴의 형태, 사물의 형태를 파악할 수 있는 알고리즘을 포함하여 객체를 인식하고, 인식된 영상 내 객체의 형상이 모두 포함될 수 있는 최소의 크기를 갖는 사각형의 객체 블록을 생성한다. The object recognition unit 230 of the user terminal 200 analyzes the received image information, recognizes the object through the pre-stored object recognition algorithm (S408), and generates an object block for the recognized object (S410). At this time, the object recognition unit 230 recognizes an object including an algorithm that can grasp the shape of a face of a person and a shape of an object, and recognizes the shape of a rectangle having the smallest size Create an object block.

사용자 단말기(200)는 객체 블록의 좌표값을 객체 추적 장치(110)로 전송한다(S412).The user terminal 200 transmits the coordinate value of the object block to the object tracking device 110 (S412).

객체 추적 장치(110)는 수신된 객체 블록의 좌표값들을 이용하여 객체 블록의 중심 좌표값과 크기값을 계산한다(S414)The object tracking apparatus 110 calculates the center coordinate value and the magnitude value of the object block using the coordinate values of the received object block (S414)

예를 들어, 특정 시점에서 촬상된 객체 블록의 좌표 값이 (2,5), (10,5), (10, 13), (2, 13)인 경우에는 객체 블록의 중심 좌표 값은 (6,9)가 되며, 객체 블록의 크기값은 8이 된다.For example, when the coordinate values of an object block captured at a specific point in time are (2,5), (10,5), (10,13), (2,13), the center coordinate value of the object block is , 9), and the size of the object block is 8.

객체 추적 장치(110)는 계산된 객체 블록의 중심 좌표값이 객체 추적 장치(110)에 기 저장된 중심 블록의 중심 좌표값과 일치하도록 하는 로봇 구동 제어 신호를 생성하여 구동 로봇(120)으로 전달한다(S416). The object tracking device 110 generates a robot driving control signal for causing the center coordinate value of the calculated object block to coincide with the center coordinate value of the center block previously stored in the object tracking device 110 and transmits the generated robot driving control signal to the driving robot 120 (S416).

즉, 객체 추적 장치(110)는 로봇 구동 제어 신호를 생성하여 중심 블록의 중심 좌표값이 객체 블록의 중심 좌표값에 일치하도록 제어한다. 여기서, 로봇 구동 제어 신호는 구동 로봇(120)을 좌우로 이동시키거나, 구동 로봇(120)에 장착된 서보 모터를 이용하여, 객체 추적 장치(110)를 팬/틸트(상하 이동 시키기 위한) 되도록 하는 제어 신호를 포함한다.That is, the object tracking device 110 generates a robot driving control signal and controls the center coordinate value of the center block to coincide with the center coordinate value of the object block. Here, the robot driving control signal is generated so as to move the driving robot 120 to the left or to the right or to pan / tilt (move the object tracking device 110) by using the servo motor mounted on the driving robot 120 As shown in FIG.

이하에서는 도 5a 및 도 5b를 참조하여 객체 추적 장치(110)가 중심 블록의 중심 좌표값과 객체 블록의 중심 좌표값을 일치시키는 과정에 대하여 상세히 설명한다.Hereinafter, the process of the object tracking apparatus 110 matching the center coordinate value of the center block with the center coordinate value of the object block will be described in detail with reference to FIGS. 5A and 5B.

도 5a는 객체 추적 장치(110)가 기 저장하고 있는 중심 블록을 나타내는 도면이다. 도 5a에서는 중심 블록의 좌표 값이 (5,5), (5, -5), (-5, -5), (-5, 5)인 경우를 예로 도시하였으며, 이 경우, 중심 블록의 중심 좌표 값은 (0,0)가 되며, 객체 블록의 크기값은 10이 된다. 5A is a view showing a central block stored by the object tracking device 110. FIG. 5A, the coordinate values of the center block are (5,5), (5,5), (-5,5), and (-5,5). In this case, The coordinate value is (0,0), and the size value of the object block is 10.

그리고, 객체 추적 장치(110)는 도 5b와 사용자 단말기(200)로부터 객체 블록의 좌표값들을 수신한다. 도 5b는 사용자 단말기로부터 수신한 객체 블록을 나타내는 도면이다. The object tracking device 110 receives the coordinate values of the object block from the FIG. 5B and the user terminal 200. 5B is a diagram illustrating an object block received from a user terminal.

도 5b에서는 객체 블록의 좌표 값이 (7,4), (15, 4), (15, 12), (7, 12)인 경우를 예로 도시하였으며, 이 경우, 객체 블록의 중심 좌표 값은 (11,8)이 되며, 객체 블록의 크기값은 8이 된다. FIG. 5B illustrates an example of the case where the coordinate values of the object block are (7, 4), (15, 4), (15, 12), (7, 12) 11,8), and the size of the object block is 8.

이와 같이, 도 5a 및 도 5b에서 보는 바와 같이 중심 블록의 중심 좌표값이 (0,0)인 반면, 객체 블록의 중심 좌표 값은 (11,8)이므로, 객체 추적 장치(110)는 중심 블록의 중심 좌표값이 객체 블록의 중심 좌표값에 일치하도록 구동 로봇(120)을 제어한다. 즉, 객체 추적 장치(110)는 구동 로봇(120)으로 하여금 오른쪽으로 이동시키고, 객체 추적 장치(110)가 상측을 향할 수 있도록 구동 로봇(120)의 팬/틸트 동작을 제어하기 위한 로봇 구동 제어 신호를 구동 로봇(120)으로 전달함으로써, 중심 블록의 중심 좌표값이 객체 블록의 중심 좌표값에 일치하도록 한다.5A and 5B, the center coordinate value of the center block is (0, 0), whereas the center coordinate value of the object block is (11, 8) And controls the driving robot 120 so that the center coordinate value of the object block coincides with the center coordinate value of the object block. That is, the object tracking apparatus 110 includes a robot driving control unit 110 for controlling the panning / tilting operation of the driving robot 120 so that the driving robot 120 moves rightward and the object tracking apparatus 110 faces upward, Signal to the driving robot 120 so that the center coordinate value of the center block coincides with the center coordinate value of the object block.

이와 같이 중심 블록의 중심 좌표값과 객체 블록의 중심 좌표값이 일치하면, 객체 추적 장치(110)는 구동 로봇(120)을 전후로 이동시켜 중심 블록과 객체 블록의 크기를 일치시키도록 한다. When the center coordinate value of the center block and the center coordinate value of the object block coincide with each other, the object tracking apparatus 110 moves the driving robot 120 back and forth so that the sizes of the center block and the object block coincide with each other.

다음으로 객체 추적 장치(110)는 객체 블록의 크기값을 이용하여 객체 블록의 크기값이 중심 블록의 크기값과 일치하도록 하는 로봇 구동 제어 신호를 생성하여 구동 로봇(120)으로 전달한다(S418). Next, the object tracking device 110 generates a robot driving control signal for causing the size of the object block to coincide with the size of the central block using the size of the object block, and transmits the generated signal to the driving robot 120 (S418) .

즉, 구동 로봇(120)이 객체에 접근하면 줌인되고, 객체에서 멀어지면 줌아웃 되는 효과를 이용하여, 객체 추적 장치(110)는 객체 블록의 크기가 중심 블록의 크기와 일치되도록 하기 위해, 구동 로봇(120)의 전후 이동을 제어하기 위한 신호를 생성하여 구동 로봇(120)으로 전달한다.That is, the object tracking device 110 uses the effect of zooming in when the driving robot 120 approaches the object and zooming out when the driving robot 120 approaches the object. In order to make the size of the object block coincide with the size of the central block, And transmits the generated signal to the driving robot 120. The driving robot 120 generates a signal for controlling the back and forth movement of the driving robot 120.

이하에서는 도 6a 내지 도 6c를 참조하여 객체 추적 장치(110)가 중심 블록의 크기와 객체 블록의 크기를 일치시키는 과정에 대하여 상세히 설명한다.Hereinafter, the process of the object tracking apparatus 110 matching the size of the center block with the size of the object block will be described in detail with reference to FIGS. 6A to 6C.

도 6a 내지 도 6c는 본 발명의 제1 실시예에 따른 객체 추적 장치가 중심 블록의 크기와 객체 블록의 크기를 일치시키는 과정을 설명하기 위한 도면이다.6A to 6C are views for explaining the process of matching the size of the central block and the size of the object block according to the object tracking apparatus according to the first embodiment of the present invention.

도 6a 내지 도 6c 모두 객체 블록의 중심 좌표값이 중심 블록의 중심 좌표값에 일치하도록 구동 로봇(120)이 동작한 상태로 가정한다. 6A to 6C, it is assumed that the driving robot 120 operates so that the center coordinate value of the object block coincides with the center coordinate value of the center block.

도 6a과 같이, 기 저장된 중심 블록의 크기와 객체 블록의 크기가 동일하면, 객체 추적 장치(110)는 구동 로봇(120)에게 전후 이동을 위한 로봇 구동 제어 신호를 전달하지 않는다. 6A, if the size of the pre-stored central block and the size of the object block are the same, the object tracking device 110 does not transmit the robot driving control signal for the back and forth movement to the driving robot 120. [

또한, 도 6b과 같이, 중심 블록보다 객체 블록의 크기가 크면, 객체 추적 장치(110)는 객체로부터 구동 로봇(120)을 후진시킨다. 여기서 객체 추적 장치(110)는 도 6a와 같이 중심 블록과 객체 블록의 크기가 동일해질 때까지 구동 로붓(120)을 후진시킨다. Also, as shown in FIG. 6B, if the size of the object block is larger than the center block, the object tracking device 110 moves the driving robot 120 backward from the object. Here, the object tracking device 110 moves the driving brush 120 backward until the center block and the object block have the same size as shown in FIG. 6A.

마지막으로 도 6c와 같이, 중심 블록보다 객체 블록의 크기가 작으면, 객체 추적 장치(110)는 객체 방향으로 구동 로봇(120)을 전진시킨다. 마찬가지로 객체 추적 장치(110)는 도 6a와 같이 중심 블록과 객체 블록의 크기가 동일해질 때까지 구동 로붓(120)을 전진시킨다. Finally, as shown in FIG. 6C, if the size of the object block is smaller than the center block, the object tracking device 110 advances the driving robot 120 in the object direction. Similarly, the object tracking apparatus 110 advances the driving stroke 120 until the center block and the object block have the same size as shown in FIG. 6A.

그리고, 객체 추적 장치(110)의 제어부(114)는 사용자 단말기(200)로부터 사용자에 의한 종료 요청 신호를 수신하면(S420), 영상 촬영을 중단하고, 사용자 단말기(200)와의 접속을 종료한다(S422).When the control unit 114 of the object tracking device 110 receives a termination request signal by the user from the user terminal 200 in step S420, the control unit 114 stops the image capturing and terminates the connection with the user terminal 200 S422).

이러한, 객체 추적 시스템은 PC(Personal Computer), 노트북, 스마트 폰과 같이 IP 기반의 통신이 가능한 사용자 단말기를 이용하여 쉽게 조작할 수 있는 큰 장점이 있다. 특히, 객체 인식 기반으로 구동 로봇을 제어함으로써, 별도로 사람이 조작하지 않아도 자동으로 상하, 좌우, 전후 이동을 컨트롤할 수 있는 장점이 있다.Such an object tracking system has a great advantage that it can be easily operated using a user terminal capable of IP-based communication such as a PC (personal computer), a notebook, and a smart phone. In particular, by controlling the driving robot on the basis of object recognition, there is an advantage that it is possible to automatically control up and down, left and right, and back and forth movement even without human manipulation.

이하에서는 도 8 내지 도 10를 이용하여 본 발명의 제2 실시 예에 따른 객체 추적 방법을 상세히 설명한다.Hereinafter, an object tracking method according to a second embodiment of the present invention will be described in detail with reference to FIGS. 8 to 10. FIG.

도 7은 본 발명의 제2 실시예에 따른 객체 추적 시스템의 구성을 상세히 도시한 도면이고, 도 8은 본 발명의 제2 실시예에 따른 객체 추적 시스템을 제어하기 위한 사용자 단말기의 구성을 상세히 도시한 도면이다.FIG. 7 is a detailed block diagram of an object tracking system according to a second embodiment of the present invention. FIG. 8 is a block diagram illustrating a configuration of a user terminal for controlling an object tracking system according to a second embodiment of the present invention. Fig.

도 7 및 도 8에 도시한 것처럼, 객체 추적 장치(310)는 통신부(311), 촬상부(312), 로봇 구동부(313) 및 제어부(314)를 포함하며, 사용자 단말기(400)는 통신부(410), 영상 표시부(420), 객체 인식부(430), 저장부(450) 및 제어부(460)를 포함한다. 이들은 이전 실시예에서 동일한 명칭을 사용한 것들과 실질적으로 동일하므로 이에 대한 상세한 설명은 생략한다. 7 and 8, the object tracking device 310 includes a communication unit 311, an imaging unit 312, a robot driving unit 313, and a control unit 314, and the user terminal 400 includes a communication unit 410, an image display unit 420, an object recognition unit 430, a storage unit 450, and a control unit 460. Since these are substantially the same as those in the previous embodiments using the same names, a detailed description thereof will be omitted.

다만, 본 발명의 제2 실시예에 따른 사용자 단말기(400)는 이벤트 생성부(440)를 추가적으로 더 포함하며, 이벤트 생성부(440)는 영상 정보 내 삽입되도록 특정 이미지를 영상 표시부(420)로 제공하여 영상 정보와 함께 사용자에게 제공하도록 하고, 사용자로부터 삽입된 이미지에 대한 터치 입력을 수신하면, 수신된 터치 입력 정보에 대한 좌표값을 생성하여 제어부(460)로 전송한다. 여기서, 이미지는 아이콘, 그림, 사진 등을 포함한다.The user terminal 400 according to the second exemplary embodiment of the present invention may further include an event generator 440. The event generator 440 may generate a specific image to be inserted into the image information, And receives the touch input of the inserted image from the user, and generates coordinate values for the received touch input information and transmits the coordinate values to the control unit 460. Here, the image includes icons, pictures, photographs, and the like.

또한, 제어부(460)는 이벤트 생성부(440)에 의해 생성된 이벤트에 매칭되는 터치 입력 정보를 수신하고, 입력된 터치 입력 정보에 대한 좌표값과 삽입된 이미지의 좌표값이 일치하면, 이벤트가 성공했음을 객체 추적 장치(310)로 알린다.The control unit 460 receives the touch input information matched with the event generated by the event generation unit 440. When the coordinate value of the input touch input information coincides with the coordinate value of the inserted image, And informs the object tracking device 310 that the object has succeeded.

또한, 사용자 단말기(400)의 제어부(460)는 영상 표시부(420)를 통해 객체 추적 시스템(300)으로부터 수신하는 영상 정보와 함께, 화면 상에 사용자로부터 구동 로봇(120)의 방향 제어를 위한 터치 정보를 수신하기 위한 두 개의 터치 입력창을 사용자에게 제공할 수 있으며, 영상 정보를 제공하는 중에 터치 입력창을 통해 사용자의 터치 정보를 수신하면, 수신된 터치 정보를 객체 추적 장치(310)으로 제공할 수 있다.The control unit 460 of the user terminal 400 displays the image information received from the object tracking system 300 through the image display unit 420 and a touch for direction control of the driving robot 120 When the touch information of the user is received through the touch input window during the provision of the image information, the received touch information is provided to the object tracking device 310 can do.

또한, 객체 추적 장치(110)는 추가적으로 LED와 스피커와 같은 출력 수단(생략)을 포함할 수 있으며, 제어부(114)는 사용자 단말기(200)로부터 이벤트 신호를 수신하면, 이벤트 신호의 이벤트 정보에 대응하여 출력 수단을 동작 시켜 사용자에게 알림을 제공할 수 있다.In addition, the object tracking device 110 may further include an output means (not shown) such as an LED and a speaker. When the control unit 114 receives an event signal from the user terminal 200, And the notification means can be provided to the user by operating the output means.

다음은 도 9 및 도 10을 통해 본 발명의 제2 실시 예에 따른 객체 추적 시스템(100)의 객체 추적 방법을 설명한다.Next, an object tracking method of the object tracking system 100 according to the second embodiment of the present invention will be described with reference to FIGS.

도 9은 본 발명의 제2 실시 예에 따른 객체 추적 방법을 나타낸 데이터 흐름도이고, 도 10은 본 발명의 제2 실시 예에 따른 사용자 단말기가 제공하는 터치 입력창을 설명하기 위한 도면이다.FIG. 9 is a data flow chart illustrating an object tracking method according to a second embodiment of the present invention. FIG. 10 illustrates a touch input window provided by the user terminal according to the second embodiment of the present invention.

도 9에 나타낸 바와 같이, 본 발명의 제2 실시예에 따른 객체 추적 장치(310)는 사용자 단말기(400)가 접속하면, 사용자에 대한 인증을 수행하고(S900), 인증이 성공하면, 촬상부(312)를 제어하여 촬상 수단을 통해 영상을 촬영한다(S902). 그리고, 객체 추적 장치(310)는 촬영된 영상 정보를 사용자 단말기(400)로 전송한다(S904).9, the object tracking apparatus 310 according to the second embodiment of the present invention performs authentication for a user when the user terminal 400 is connected (S900). If authentication is successful, (312) and captures an image through the image capturing means (S902). Then, the object tracking device 310 transmits the photographed image information to the user terminal 400 (S904).

사용자 단말기(400)의 제어부(460)은 영상 표시부(420)를 통해 영상 정보와 함께, 사용자의 입력 정보를 수신하기 위한 터치 입력창을 제공한다(906).The control unit 460 of the user terminal 400 provides the touch input window for receiving the input information of the user together with the image information through the image display unit 420 (906).

그리고, 터치 입력창을 통해 사용자로부터 터치 정보를 입력받고(S908), 입력된 터치 정보가 포함된 제어 신호를 객체 추적 장치(310)로 전송한다(S910). In operation S908, the touch information is input from the user through the touch input window, and the control signal including the input touch information is transmitted to the object tracking apparatus 310 in operation S910.

이러한, 터치 정보에 대하여 도 10을 참조하여 설명하면, 제어부(460)는 화면상에 영상 정보와 함께, 구동 로봇(120)을 좌우로 이동시키기 위한 제1 터치 입력창(401), 구동 로봇(120)을 전후로 이동시키기 위한 제2 터치 입력창(402)을 사용자에게 제공하고, 사용자로부터 터치 정보를 수신하여 객체 추적 장치(310)로 전송한다.10, the control unit 460 includes a first touch input window 401 for moving the driving robot 120 to the left and right, a driving robot (not shown) for moving the driving robot 120 120 to the user, and receives the touch information from the user and transmits the touch information to the object tracking device 310. The object tracking device 310 receives the touch information from the user.

객체 추적 장치(310)는 통신부(310)를 통해 제어 신호를 수신하고, 제어 신호에 포함된 좌우, 전후 제어에 대한 터치 정보를 기초로 구동 로봇(120)의 좌우, 전후를 제어한다(S912).The object tracking device 310 receives the control signal through the communication unit 310 and controls the left and right and front and rear of the driving robot 120 on the basis of the touch information on the left and right and front and rear controls included in the control signal (S912) .

사용자 단말기(400)의 제어부(460)는 실시간으로 객체 추적 장치(310)에 의해 촬영된 영상 정보를 수신하여 사용자에게 제공하면서, 이벤트 발생부(440)에 의해 생성되는 영상 내 임의의 한 지점에 저장된 이미지들 중 하나의 이미지(403)를 제공하는 이벤트를 발생시킨다(S914). The control unit 460 of the user terminal 400 receives the image information photographed by the object tracking apparatus 310 in real time and provides the image information to the user, And generates an event providing an image 403 of one of the stored images (S914).

이벤트 발생부(440)는 주기적으로 영상 내 임의의 한 지점에 저장된 이미지들 중 하나의 이미지를 제공하는 이벤트를 발생시킬 수 있다.The event generating unit 440 may generate an event that periodically provides one of the images stored at any one point in the image.

그리고, 제어부(460)는 발생된 이벤트에 대한 사용자의 터치 입력 정보를 수신하고(S916), 입력된 터치 입력 정보에 대한 좌표값과 삽입된 이미지(403)의 좌표값이 일치하면, 이벤트가 성공했음을 알리기 위한 이벤트 정보가 포함된 이벤트 신호를 생성하여 통신부(410)를 통해 객체 추적 장치(310)로 전송한다(S918, S920). 이때, 이벤트 정보는 이미지 종류, 이름 등을 포함된다. The control unit 460 receives the touch input information of the user for the generated event (S916). If the coordinate value of the input touch input information coincides with the coordinate value of the inserted image 403, And transmits the generated event signal to the object tracking device 310 through the communication unit 410 (S918, S920). At this time, the event information includes an image type, a name, and the like.

객체 추적 장치(300)의 제어부(314)는 사용자 단말기(400)로부터 이벤트 신호를 수신하고, 이벤트 신호에 포함된 이벤트 정보를 기초로 구동 로봇(120)을 제어한다(S922). The control unit 314 of the object tracking apparatus 300 receives the event signal from the user terminal 400 and controls the driving robot 120 based on the event information included in the event signal in operation S922.

이때, 제어부(314)는 이벤트 정보에 포함된 이미지의 종류, 이름에 따라 구동 로봇(120)이 특정 움직임 동작을 수행하도록 제어하거나, 스피커 또는 LED 등을 이용하여 이벤트 성공을 사용자에게 알릴 수 있다. 이러한 예를 들면, 이미지 종류가 과일이고 이름이 사과이면, 제어부(314)는 LED를 이용하여 사과 모양을 표시하거나, 음성으로 "사과"를 표현할 수 있다.At this time, the control unit 314 controls the driving robot 120 to perform a specific motion operation according to the type and name of the image included in the event information, or can notify the user of the event success using a speaker or an LED. For example, if the image type is fruit and the name is apple, the control unit 314 can display an apple shape using an LED, or express an "apple" by voice.

이러한, 본 발명에 따른 객체 추적 시스템은 PC(Personal Computer), 노트북, 스마트 폰과 같이 IP 기반의 통신이 가능한 사용자 단말기를 이용하여 쉽게 조작이 용이한 큰 장점이 있다. 특히, 객체를 인식하여 자동으로 구동 로봇을 이동시킬 수 있으며, 불규칙하게 이벤트를 발생시켜 사용자의 조작 집중도를 높일 수 있는 장점이 있다.The object tracking system according to the present invention is advantageous in that it can be easily operated using a user terminal capable of IP-based communication such as a PC (personal computer), a notebook computer, and a smart phone. Particularly, there is an advantage that the driving robot can be automatically moved by recognizing the object, and the concentration of the operation of the user can be increased by generating an event irregularly.

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다. While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

100: 객체 추적 시스템 110: 객체 추적 장치
111: 통신부 112: 촬상부
113: 로봇 구동부 114: 제어부
120: 구동 로봇 200: 사용자 단말기
210: 통신부 220: 영상 표시부
230: 객체 인식부 240: 저장부
250: 제어부 310: 객체 추적 장치
311: 통신부 312: 촬상부
313: 로봇 구동부 314: 제어부
400: 사용자 단말기 410: 통신부
420: 영상 표시부 430: 객체 인식부
440: 이벤트 생성부 450: 저장부
460: 제어부
100: object tracking system 110: object tracking apparatus
111: communication unit 112:
113: robot driving unit 114:
120: driving robot 200: user terminal
210: communication unit 220:
230: Object recognition unit 240:
250: control unit 310: object tracking device
311: communication unit 312:
313: Robot driving unit 314:
400: user terminal 410: communication unit
420: image display unit 430: object recognition unit
440: Event generating unit 450:
460:

Claims (1)

좌우, 전후 및 상하 이동을 위한 모터가 포함된 구동 로봇과 연결되며, 상기 구동 로봇의 좌우, 전후 및 상하 이동을 제어하는 구동부;
사용자 단말기와 데이터를 송수신하는 통신부;
양방향 카메라를 이용하여 영상을 촬영하며, 상기 통신부를 통해 촬영된 영상 정보를 상기 사용자 단말기로 제공하는 촬상부; 및
상기 영상 정보에 포함된 객체를 인식하여 생성한 객체 블록의 적어도 하나의 좌표값이 포함되는 제어 신호를 상기 사용자 단말기로부터 수신하고, 상기 객체 블록의 좌표값이 기 저장된 영상의 중심 블록의 좌표값에 일치하도록 상기 구동부를 제어하는 제어부를 포함하는 양방향 카메라를 이용한 객체 추적 시스템.
A drive unit connected to a drive robot including a motor for moving left and right, front and rear, and up and down, and controlling movement of the drive robot in left and right, front and rear, and up and down;
A communication unit for transmitting and receiving data to and from a user terminal;
An image capturing unit capturing an image using a bi-directional camera and providing image information photographed through the communication unit to the user terminal; And
A control signal including at least one coordinate value of an object block generated by recognizing an object included in the image information is received from the user terminal and the coordinate value of the object block is set to a coordinate value of a center block of the previously stored image And a control unit for controlling the driving unit so that the driving unit coincides with the driving unit.
KR1020130138372A 2013-11-14 2013-11-14 System for tracking object using both direction camera KR20150056115A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130138372A KR20150056115A (en) 2013-11-14 2013-11-14 System for tracking object using both direction camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130138372A KR20150056115A (en) 2013-11-14 2013-11-14 System for tracking object using both direction camera

Publications (1)

Publication Number Publication Date
KR20150056115A true KR20150056115A (en) 2015-05-26

Family

ID=53391485

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130138372A KR20150056115A (en) 2013-11-14 2013-11-14 System for tracking object using both direction camera

Country Status (1)

Country Link
KR (1) KR20150056115A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018124473A1 (en) * 2016-12-29 2018-07-05 서울대학교 산학협력단 Mobile robot device and method for controlling operation thereof
US10775794B2 (en) 2015-08-26 2020-09-15 Hanwha Defense Co., Ltd. Following system for mobile robot to follow moving object
KR102545741B1 (en) * 2022-11-08 2023-06-21 주식회사 하나씨엔에스 CCTV rotating camera control terminal

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10775794B2 (en) 2015-08-26 2020-09-15 Hanwha Defense Co., Ltd. Following system for mobile robot to follow moving object
WO2018124473A1 (en) * 2016-12-29 2018-07-05 서울대학교 산학협력단 Mobile robot device and method for controlling operation thereof
KR20190104177A (en) * 2016-12-29 2019-09-06 서울대학교산학협력단 Mobile robot device and its motion control method
KR102545741B1 (en) * 2022-11-08 2023-06-21 주식회사 하나씨엔에스 CCTV rotating camera control terminal

Similar Documents

Publication Publication Date Title
US10922530B2 (en) Display device and operating method thereof with adjustments related to an image display according to bending motion of the display device
KR101078057B1 (en) Mobile terminal had a function of photographing control and photographing control system used image recognition technicque
US20210035362A1 (en) Image processing method and apparatus, electronic device, and computer-readable storage medium
US20130278837A1 (en) Multi-Media Systems, Controllers and Methods for Controlling Display Devices
US20070112462A1 (en) Method for detecting if command implementation was completed on robot common framework, method for transmitting and receiving signals and device thereof
WO2021035833A1 (en) Posture prediction method, model training method and device
CN105469056A (en) Face image processing method and device
KR20190008610A (en) Mobile terminal and Control Method for the Same
KR102181208B1 (en) Mobile terminal and control method for the mobile terminal
CN105407285A (en) Photographing control method and device
WO2020151255A1 (en) Display control system and method based on mobile terminal
CN104077585A (en) Image correction method and device and terminal
CN105117111A (en) Rendering method and device for virtual reality interaction frames
KR101718081B1 (en) Super Wide Angle Camera System for recognizing hand gesture and Transport Video Interface Apparatus used in it
CN108319363A (en) Product introduction method, apparatus based on VR and electronic equipment
KR20150056115A (en) System for tracking object using both direction camera
JPWO2019155735A1 (en) Information processing equipment, information processing methods and programs
KR20160012009A (en) Mobile terminal and method for controlling the same
CN105702118A (en) Driving practice correction method and device
KR101527115B1 (en) System for tracking object and method thereof, user terminal for controlling the system and method thereof
KR20210101009A (en) Method for Recording Video using a plurality of Cameras and Device thereof
CN106658136A (en) Smart TV control method and apparatus
US10764535B1 (en) Facial tracking during video calls using remote control input
WO2012008553A1 (en) Robot system
KR102009988B1 (en) Method for compensating image camera system for compensating distortion of lens using super wide angle camera and Transport Video Interface Apparatus used in it

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application