KR20150056115A - System for tracking object using both direction camera - Google Patents
System for tracking object using both direction camera Download PDFInfo
- Publication number
- KR20150056115A KR20150056115A KR1020130138372A KR20130138372A KR20150056115A KR 20150056115 A KR20150056115 A KR 20150056115A KR 1020130138372 A KR1020130138372 A KR 1020130138372A KR 20130138372 A KR20130138372 A KR 20130138372A KR 20150056115 A KR20150056115 A KR 20150056115A
- Authority
- KR
- South Korea
- Prior art keywords
- user terminal
- unit
- object tracking
- image
- present
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0014—Image feed-back for automatic industrial control, e.g. robot with camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/028—Multiple view windows (top-side-front-sagittal-orthogonal)
Abstract
Description
본 발명은 양방향 카메라를 이용한 객체 추적 시스템에 관한 것으로, 사용자 단말기에 의해 인식된 객체에 대하여 추적하거나 움직임에 따라 이동이 가능한 양방향 카메라를 이용한 객체 추적 시스템을 제공하기 위한 것이다.The present invention relates to an object tracking system using a two-way camera, and is intended to provide an object tracking system using a two-way camera capable of tracking an object recognized by a user terminal or moving according to a motion.
최근에 지능 로봇은 하루가 다르게 새로운 기술들을 양산해내고 있다. 특히 인간과의 상호작용분야에서의 발전이 두드러진다. 인간과의 원활한 상호작용이 이루어지기 위해서는 로봇이 사람을 찾고 쫓아가는 기본 기능이 전제되어야 가능하다.In recent years, intelligent robots are producing new technologies different from one another. Especially in the field of interaction with humans. In order for smooth interaction with human beings to be achieved, it is possible that the robot has to have basic functions to find and chase people.
로봇이 사람을 알아보고 그 사람을 따라간다거나, 외부 침입자를 알아보고 그 칩입자를 추적하는 등의 로봇 서비스는 인간과 로봇이 상호작용하는데 있어 필수적인 기술이라 할 수 있다. Robot services such as recognizing a person and following a person, or recognizing an external intruder and tracking the chip particle are indispensable technologies for human-robot interaction.
종래의 사람을 인식하는 다양한 기술들이 개발되었지만, 로봇의 인공 지능은 사람과 같이, 혼자 할 수 있는 것들에 대한 많은 제약이 있다. 따라서 현재 많은 로봇들이 컨트롤에 의존해 동작을 하고 있다.While a variety of conventional human recognition techniques have been developed, the artificial intelligence of a robot has many limitations on what one can do alone, such as a human being. Therefore, many robots are now dependent on control.
이러한, 문제점으로 스마트 폰과 같은 사용자 단말기를 이용하여 로봇을 제어하고 있지만, 단순히 로봇에서 보내온 영상을 보면서 로봇을 제어하는 수준이기 때문에 원활한 제어를 할 수 없다는 문제점이 있다.The problem is that the robot is controlled using a user terminal such as a smart phone. However, since the robot is controlled by simply watching the image sent from the robot, there is a problem that smooth control can not be performed.
본 발명의 배경이 되는 기술은 대한민국 국내등록특허 제10-1212810호(2012. 12. 18 공고)에 개시되어 있다.The technology that is the background of the present invention is disclosed in Korean Patent No. 10-1212810 (Dec. 18, 2012).
따라서 본 발명이 이루고자 하는 기술적 과제는 사용자 단말기에 의해 인식된 객체에 대하여 추적하거나 움직임에 따라 이동이 가능한 양방향 카메라를 이용한 객체 추적 시스템을 제공하기 위한 것이다.SUMMARY OF THE INVENTION The object of the present invention is to provide an object tracking system using a bi-directional camera capable of tracking an object recognized by a user terminal or moving according to a motion.
이러한 기술적 과제를 이루기 위한 본 발명의 실시예에 따른 양방향 카메라를 이용한 객체 추적 시스템은, 좌우, 전후 및 상하 이동을 위한 모터가 포함된 구동 로봇과 연결되며, 상기 구동 로봇의 좌우, 전후 및 상하 이동을 제어하는 구동부; 사용자 단말기와 데이터를 송수신하는 통신부; 양방향 카메라를 이용하여 영상을 촬영하며, 상기 통신부를 통해 촬영된 영상 정보를 상기 사용자 단말기로 제공하는 촬상부; 및 상기 영상 정보에 포함된 객체를 인식하여 생성한 객체 블록의 적어도 하나의 좌표값이 포함되는 제어 신호를 상기 사용자 단말기로부터 수신하고, 상기 객체 블록의 좌표값이 기 저장된 영상의 중심 블록의 좌표값에 일치하도록 상기 구동부를 제어하는 제어부를 포함한다. According to an aspect of the present invention, there is provided an object tracking system using a two-way camera, which is connected to a driving robot including motors for moving left and right, front and rear, and up and down, ; A communication unit for transmitting and receiving data to and from a user terminal; An image capturing unit capturing an image using a bi-directional camera and providing image information photographed through the communication unit to the user terminal; And receiving a control signal including at least one coordinate value of an object block generated by recognizing an object included in the image information from the user terminal, wherein the coordinate value of the object block is a coordinate value And the control unit controls the driving unit so that the driving unit coincides with the driving unit.
이와 같이 본 발명에 의하면, 또한, 노트북, 스마트 폰과 같이 IP 기반의 통신이 가능한 사용자 단말기를 이용하여 객체 추적 시스템을 쉽게 조작할 수 있는 효과를 기대할 수 있다. 특히, 객체 인식 기반으로 구동 로봇을 제어함으로써, 별도로 사람이 조작하지 않아도 자동으로 상하, 좌우, 전후 이동을 컨트롤할 수 있는 효과를 기대할 수 있다.As described above, according to the present invention, an object tracking system can be easily operated by using a user terminal capable of IP-based communication such as a notebook computer or a smart phone. Especially, by controlling the driving robot on the basis of object recognition, it is possible to expect the effect of automatically controlling the up and down, left and right, and back and forth movement even without human manipulation.
또한, 불규칙하게 이벤트를 발생시켜 사용자의 조작 집중도를 높일 수 있는 효과를 기대할 수 있다.In addition, it is possible to expect an effect of increasing the concentration of the operation of the user by generating an event irregularly.
도 1은 본 발명의 제1 실시예에 따른 객체 추적 시스템을 나타낸 도면이다.
도 2는 본 발명의 제1 실시예에 따른 객체 추적 장치의 구성을 상세히 도시한 도면이다.
도 3은 본 발명의 제1 실시예에 따른 객체 추적 시스템을 제어하기 위한 사용자 단말기의 구성을 상세히 도시한 도면이다.
도 4는 본 발명의 제1 실시예에 따른 객체 추적 방법을 나타낸 순서도이다.
도 5a는 본 발명의 제1 실시예에 따른 객체 추적 장치가 기 저장하고 있는 중심 블록을 나타내는 도면이다.
도 5b는 본 발명의 제1 실시예에 따른 객체 추적 장치가 사용자 단말기로부터 수신한 객체 블록을 나타내는 도면이다.
도 6a 내지 도 6c는 본 발명의 제1 실시예에 따른 객체 추적 장치가 중심 블록의 크기와 객체 블록의 크기를 일치시키는 과정을 설명하기 위한 도면이다.
도 7은 본 발명의 제2 실시예에 따른 객체 추적 시스템의 구성을 상세히 도시한 도면이다.
도 8은 본 발명의 제2 실시예에 따른 객체 추적 시스템을 제어하기 위한 사용자 단말기의 구성을 상세히 도시한 도면이다.
도 9는 본 발명의 제2 실시예에 따른 객체 추적 방법을 나타낸 데이터 흐름도이다.
도 10는 본 발명의 제2 실시예에 따른 사용자 단말기가 제공하는 터치 입력창을 설명하기 위한 도면이다.1 is a diagram illustrating an object tracking system according to a first embodiment of the present invention.
2 is a detailed block diagram of an object tracking apparatus according to a first embodiment of the present invention.
3 is a detailed block diagram of a user terminal for controlling an object tracking system according to a first embodiment of the present invention.
4 is a flowchart illustrating an object tracking method according to a first embodiment of the present invention.
FIG. 5A is a view showing a central block stored by the object tracking apparatus according to the first embodiment of the present invention. FIG.
5B is a diagram illustrating an object block received from a user terminal according to the first embodiment of the present invention.
6A to 6C are views for explaining the process of matching the size of the central block and the size of the object block according to the object tracking apparatus according to the first embodiment of the present invention.
7 is a detailed block diagram of an object tracking system according to a second embodiment of the present invention.
8 is a detailed block diagram of a configuration of a user terminal for controlling an object tracking system according to a second embodiment of the present invention.
9 is a data flow diagram illustrating an object tracking method according to a second embodiment of the present invention.
10 is a view for explaining a touch input window provided by the user terminal according to the second embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when an element is referred to as "comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise.
또한, 명세서 전체에서, 사용된 "객체"는 이동이 가능한 사물을 의미하며, 본 발명에서는 사람, 동물 등을 포함한다.Further, throughout the specification, the term "object" used means a movable object, and the present invention includes a person, an animal, and the like.
그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention.
먼저, 도 1 내지 도 3를 통해 본 발명의 제1 실시예에 따른 객체 추적 시스템과 객체 추적 시스템을 제어하기 위한 사용자 단말기의 구성에 대하여 설명한다.First, a configuration of a user terminal for controlling an object tracking system and an object tracking system according to a first embodiment of the present invention will be described with reference to FIGS. 1 to 3. FIG.
도 1은 본 발명의 제1 실시예에 따른 객체 추적 시스템을 나타낸 도면이고, 도 2는 본 발명의 제1 실시예에 따른 객체 추적 장치의 구성을 상세히 도시한 도면이고, 도 3은 본 발명의 제1 실시예에 따른 객체 추적 시스템을 제어하기 위한 사용자 단말기의 구성을 상세히 도시한 도면이다.FIG. 1 is a block diagram of an object tracking system according to a first embodiment of the present invention. FIG. 2 is a detailed block diagram of an object tracking apparatus according to a first embodiment of the present invention. FIG. 3 is a detailed view illustrating a configuration of a user terminal for controlling an object tracking system according to the first embodiment. FIG.
도 1에 나타낸 바와 같이, 본 발명의 제1 실시예에 따른 객체 추적 시스템(100)은 객체 추적 장치(110)와 구동 로봇(120)을 포함한다.As shown in FIG. 1, the object tracking system 100 according to the first embodiment of the present invention includes an
객체 추적 장치(110)는 사용자 단말기(200)와 데이터를 송수신하며, 주변을 촬영한 영상 정보를 사용자 단말기(200)로 전송하고, 사용자 단말기(200)로부터 수신되는 제어 신호를 기초로 구동 로봇의 전후, 좌우 이동을 제어한다.The
구동 로봇(120)은 전후, 좌우 이동, 팬/틸트(Pan/Tilt) 동작을 위한 서보 모터(Servo motor)와 DC 모터(Direct Current Motor)를 포함하며, 객체 추적 장치(110)로부터 수신되는 제어 명령을 기초로 좌우, 전후, 상하 이동을 수행한다. 이때, 구동 로봇(120)의 상하 이동은 객체 추적 장치(110)가 상측 또는 하측을 향할 수 있도록 팬/틸트 동작을 수행하여 이루어진다.The
사용자 단말기(200)는 객체 추적 장치(110)와 데이터를 송수신하며, 객체 추적 장치(110)로부터 수신되는 영상 정보를 사용자에게 제공한다. 또한, 영상 정보에 따른 제어 신호 또는 사용자로부터 수신된 제어 명령에 따른 제어 신호를 생성하여 객체 추적 시스템(100)을 제어한다.The
여기서, 사용자 단말기(200)는 객체 추적 시스템(100)을 제어하기 위한 어플리케이션 또는 앱(Apps) 등의 프로그램을 포함하여 객체 추적 시스템(100)으로부터 수신되는 영상 정보를 사용자에게 제공하고, 그에 따른 제어 신호를 생성하여 객체 추적 시스템(100)을 제어한다. Here, the
한편, 사용자 단말기(200)는 사용자의 제어에 따라 또는 영상 정보를 분석하여 얻은 객체의 움직임에 따라 객체 추적 시스템(100)을 제어할 수 있는 하나의 장치로 구현될 수 있다. 또한, 하나의 프로그램으로 구현되어 휴대용 단말기, 즉 PC(Personal Computer), 노트북(notebook), 스마트 폰(Smart Phone)등과 같이, 운영 체제를 갖는 장치 상에서 동작될 수도 있다. Meanwhile, the
도 2를 참조하여 객체 추적 장치(110)에 대해 설명하면, 객체 추적 장치(110)는 통신부(111), 촬상부(112), 로봇 구동부(113) 및 제어부(114)를 포함한다.The
통신부(111)는 사용자 단말기(200)와 데이터를 송수신하기 위한 통신 수단을 포함하며, 사용자 단말기(200)로부터 제어 신호를 수신하여 제어부(114)로 제공하고, 촬상부(112)로부터 수신된 영상 정보를 사용자 단말기(200)로 실시간 전송한다.The communication unit 111 includes communication means for transmitting and receiving data to and from the
이때, 통신 수단은 DRC-WiFi(Duplex Radio Camera WiFi) 통신을 위한 모듈로, 와이파이(WiFi) 통신을 이용하여 촬상부(112)에 의해 촬영된 영상을 사용자 단말기(200)로 전송하고, 사용자 단말기(200)로부터 제어 신호를 수신하여 제어부(114)로 제공한다.At this time, the communication means is a module for DRC-WiFi (Duplex Radio Camera WiFi) communication, and transmits an image photographed by the imaging unit 112 to the
여기서, 본 발명의 실시 예에서는 통신부(111)가 IP(Internet Protocol) 기반의 근거리 무선 통신(DRC-WiFi)을 이용하여 사용자 단말기(200)와 데이터를 송수신하지만, 블루투스(BlueTooth), 지그비(Zigbee) 등과 같은 근거리 통신 수단을 이용하여 사용자 단말기(200)와 데이터를 송수신할 수도 있다.Here, in the embodiment of the present invention, the communication unit 111 transmits / receives data to / from the
촬상부(112)는 영상을 촬영하기 위한 촬상 수단을 포함하며, 촬상 수단으로부터 영상 정보를 수신하고, 수신된 영상 정보를 통신부(111)를 통해 사용자 단말기(200)로 제공한다. The image capturing unit 112 includes image capturing means for capturing an image and receives image information from the image capturing means and provides the received image information to the
이때, 촬상 수단은 양방향 카메라와 같이 양방향 영상을 촬영할 수 있는 수단을 포함하며, 촬상부(112)는 촬상 수단을 통해 촬영된 영상을 JPEG(Joint Photographic Experts Group), VGA(Video Graphics Array), MPEG(Motion Picture Experts Groups), MOV, AVI(Audio Video Interleave) 등과 같은 영상 포멧 형식을 이용하여 포멧하고, 포멧된 영상을 사용자 단말기(200)로 제공한다.In this case, the image pickup means includes means for taking a bidirectional image such as a bi-directional camera, and the image pickup unit 112 is configured to record an image photographed through the image pickup means in JPEG (Joint Photographic Experts Group), VGA (Motion Picture Experts Groups), MOV, AVI (Audio Video Interleave), or the like, and provides the formatted image to the
로봇 구동부(113)는 제어부(114)로부터 수신된 로봇 구동 명령을 기초로 로봇의 좌우, 전후, 상하 이동을 제어한다.The robot driving unit 113 controls the left-right, front-back, and up-and-down movement of the robot based on the robot driving command received from the control unit 114.
제어부(114)는 사용자 단말기(200)로부터 수신되는 제어 신호를 수신하고, 수신된 제어 신호를 기초로 로봇의 이동을 제어하기 위한 로봇 구동 명령을 생성하고, 생성된 로봇 구동 명령을 로봇 구동부(113)로 제공한다.The control unit 114 receives a control signal received from the
구체적으로, 제어부(114)는 촬영된 영상의 중심에 해당하는 중심 좌표값을 미리 저장하며, 사용자 단말기(200)로부터 수신한 제어 신호에 포함된 객체의 중심 좌표값이 촬영 영상의 기준 좌표값에 일치하도록 로봇 구동부(113)를 제어한다.Specifically, the controller 114 stores a center coordinate value corresponding to the center of the photographed image in advance, and stores the center coordinate value of the object included in the control signal received from the
이때, 제어부(114)는 영상의 픽셀 좌표값을 이용하여 영상의 중심 좌표값을 계산하고, 계산된 중심 좌표값을 미리 저장한다.At this time, the controller 114 calculates the center coordinate value of the image using the pixel coordinate value of the image, and stores the calculated center coordinate value in advance.
또한, 제어부(114)는 영상 내 객체의 상하 움직임에 따라 촬상부(112)의 촬상 수단의 팬/필트 동작을 제어한다.Further, the control unit 114 controls the pan / filter operation of the imaging unit of the imaging unit 112 in accordance with the vertical movement of the object in the image.
다음은 도 3을 통해 본 발명의 제1 실시예에 따른 사용자 단말기(200)를 설명한다.The following will describe the
도 3을 참조하면, 사용자 단말기(200)는 통신부(210), 영상 표시부(220), 객체 인식부(230), 저장부(240) 및 제어부(250)를 포함한다.3, the
통신부(210)는 객체 추적 장치(110)와 데이터를 송수신하며, 객체 추적 장치(110)로부터 수신되는 영상 정보를 영상 표시부(220)로 전달하고, 제어부(250)로부터 수신된 제어 신호를 객체 추적 장치(110)로 전송한다.The
영상 표시부(220)는 통신부(210)를 통해 수신된 영상 정보를 사용자에게 실시간 제공한다. 이때, 영상 표시부(220)는 입출력이 가능한 터치 패널로 구현될 수 있으며, 영상 정보를 제공함과 동시에 사용자로부터 입력되는 입력 정보를 수신할 수도 있다. The image display unit 220 provides the user with the image information received through the
객체 인식부(230)는 수신된 영상 정보를 분석하여 객체를 인식하고, 인식된 객체의 형상에 대응하는 블록을 생성하여 제어부(250)로 제공한다.The object recognition unit 230 analyzes the received image information to recognize the object, generates a block corresponding to the shape of the recognized object, and provides the generated block to the
이러한, 객체 인식부(230)가 객체를 인식하는 기술은 PCA(Pricipal Component Analysis, 주성분 분석법), FDA(Fisher Discriminant Analysis), ICA(Independent Component Analysis) 등의 알고리즘을 이용할 수 있으며, 상기의 객체 인식 알고리즘은 당업자라면 용이하게 실시할 수 있는 기술이므로, 이에 대한 상세한 설명은 생략하기로 한다.The object recognizing unit 230 may use an algorithm such as PCA (Principles Component Analysis), FDA (Fisher Discriminant Analysis) and ICA (Independent Component Analysis) The algorithm is a technique that can be easily implemented by those skilled in the art, so a detailed description thereof will be omitted.
저장부(240)는 객체 추적 장치(110)로부터 수신된 영상 정보를 일시적으로 저장하며, 복수의 이미지들을 저장하고, 저장된 이미지들을 제어부(250)로 제공한다.The
제어부(250)는 통신부(210), 영상 표시부(220), 객체 인식부(230), 이벤트 생성부(240) 및 저장부(240)를 제어하며, 각 부(210, 220, 230, 240, 250)의 데이터 흐름을 관리한다. The
또한, 제어부(250)는 객체 인식부(230)로부터 수신한 객체에 대응하는 객체 블록의 좌표 값(객체 블록이 사각형 형태인 경우에는 4개의 좌표 값)을 구하고, 획득한 객체 블록의 좌표값을 객체 추적 장치(110)로 전송한다. The
이와 같이, 제어부(250)는 객체 인식부(230)에 의해 인식된 객체 블록의 좌표값을 통신부(210)를 통해 객체 추적 장치(110)로 전송한다. The
또한, 제어부(250)는 객체 추적 시스템(100)에 접속하는 경우에, 사용자 인증에 대한 인증 정보를 사용자에게 요청하고, 그에 따라 수신된 인증 정보를 객체 추적 시스템(100)으로 전달한다. 여기서, 제어부(250)는 사용자 암호가 기 등록된 암호와 일치하면, 사용자 인증을 승인하여 접속을 허락하고, 사용자 암호가 기 등록된 암호와 상이하면, 사용자 인증 실패를 사용자 단말기(200)로 알린다.When the
이러한, 본 발명의 실시예에 따른 사용자 단말기는 근거리 무선 통신을 통해 쉽게 객체 추적 시스템과 접속할 수 있으며, 객체 추적 시스템으로부터 수신한 영상을 분석하여 객체를 인식하고, 인식된 객체의 이동에 따라 객체 추적 시스템이 용이하게 이동할 수 있도록 제어할 수 있는 장점이 있다.The user terminal according to the embodiment of the present invention can easily access the object tracking system through the near field wireless communication. The user terminal recognizes the object by analyzing the image received from the object tracking system, There is an advantage that the system can be controlled so as to be easily moved.
다음은 도 4 내지 도 6c를 통해 본 발명의 제1 실시예에 따른 객체 추적 시스템의 객체 추적 방법에 대하여 상세히 설명한다.4 to 6C, an object tracking method of the object tracking system according to the first embodiment of the present invention will be described in detail.
도 4는 본 발명의 제1 실시예에 따른 객체 추적 방법을 나타낸 순서도이다. 4 is a flowchart illustrating an object tracking method according to a first embodiment of the present invention.
도 4에 나타낸 바와 같이, 본 발명의 제1 실시예에 따른 객체 추적 시스템(100)에 사용자 단말기(200)가 접속되면, 객체 추적 장치(100)는 사용자에 대한 인증을 수행하고(S400), 인증이 성공하면, 촬상부(112)를 제어하여 촬상 수단을 통해 영상을 촬영한다(S402). 그리고, 객체 추적 장치(110)는 촬영된 영상 정보를 사용자 단말기(200)로 전송한다(S404).4, when the
사용자 단말기(200)는 수신된 영상 정보를 영상 표시부(220)를 통해 사용자에게 제공한다(S406).The
사용자 단말기(200)의 객체 인식부(230)는 수신된 영상 정보를 분석하여 기 저장된 객체 인식 알고리즘을 통해 객체를 인식하고(S408), 인식된 객체에 대한 객체 블록을 생성한다(S410). 이때, 객체 인식부(230)는 사람의 얼굴의 형태, 사물의 형태를 파악할 수 있는 알고리즘을 포함하여 객체를 인식하고, 인식된 영상 내 객체의 형상이 모두 포함될 수 있는 최소의 크기를 갖는 사각형의 객체 블록을 생성한다. The object recognition unit 230 of the
사용자 단말기(200)는 객체 블록의 좌표값을 객체 추적 장치(110)로 전송한다(S412).The
객체 추적 장치(110)는 수신된 객체 블록의 좌표값들을 이용하여 객체 블록의 중심 좌표값과 크기값을 계산한다(S414)The
예를 들어, 특정 시점에서 촬상된 객체 블록의 좌표 값이 (2,5), (10,5), (10, 13), (2, 13)인 경우에는 객체 블록의 중심 좌표 값은 (6,9)가 되며, 객체 블록의 크기값은 8이 된다.For example, when the coordinate values of an object block captured at a specific point in time are (2,5), (10,5), (10,13), (2,13), the center coordinate value of the object block is , 9), and the size of the object block is 8.
객체 추적 장치(110)는 계산된 객체 블록의 중심 좌표값이 객체 추적 장치(110)에 기 저장된 중심 블록의 중심 좌표값과 일치하도록 하는 로봇 구동 제어 신호를 생성하여 구동 로봇(120)으로 전달한다(S416). The
즉, 객체 추적 장치(110)는 로봇 구동 제어 신호를 생성하여 중심 블록의 중심 좌표값이 객체 블록의 중심 좌표값에 일치하도록 제어한다. 여기서, 로봇 구동 제어 신호는 구동 로봇(120)을 좌우로 이동시키거나, 구동 로봇(120)에 장착된 서보 모터를 이용하여, 객체 추적 장치(110)를 팬/틸트(상하 이동 시키기 위한) 되도록 하는 제어 신호를 포함한다.That is, the
이하에서는 도 5a 및 도 5b를 참조하여 객체 추적 장치(110)가 중심 블록의 중심 좌표값과 객체 블록의 중심 좌표값을 일치시키는 과정에 대하여 상세히 설명한다.Hereinafter, the process of the
도 5a는 객체 추적 장치(110)가 기 저장하고 있는 중심 블록을 나타내는 도면이다. 도 5a에서는 중심 블록의 좌표 값이 (5,5), (5, -5), (-5, -5), (-5, 5)인 경우를 예로 도시하였으며, 이 경우, 중심 블록의 중심 좌표 값은 (0,0)가 되며, 객체 블록의 크기값은 10이 된다. 5A is a view showing a central block stored by the
그리고, 객체 추적 장치(110)는 도 5b와 사용자 단말기(200)로부터 객체 블록의 좌표값들을 수신한다. 도 5b는 사용자 단말기로부터 수신한 객체 블록을 나타내는 도면이다. The
도 5b에서는 객체 블록의 좌표 값이 (7,4), (15, 4), (15, 12), (7, 12)인 경우를 예로 도시하였으며, 이 경우, 객체 블록의 중심 좌표 값은 (11,8)이 되며, 객체 블록의 크기값은 8이 된다. FIG. 5B illustrates an example of the case where the coordinate values of the object block are (7, 4), (15, 4), (15, 12), (7, 12) 11,8), and the size of the object block is 8.
이와 같이, 도 5a 및 도 5b에서 보는 바와 같이 중심 블록의 중심 좌표값이 (0,0)인 반면, 객체 블록의 중심 좌표 값은 (11,8)이므로, 객체 추적 장치(110)는 중심 블록의 중심 좌표값이 객체 블록의 중심 좌표값에 일치하도록 구동 로봇(120)을 제어한다. 즉, 객체 추적 장치(110)는 구동 로봇(120)으로 하여금 오른쪽으로 이동시키고, 객체 추적 장치(110)가 상측을 향할 수 있도록 구동 로봇(120)의 팬/틸트 동작을 제어하기 위한 로봇 구동 제어 신호를 구동 로봇(120)으로 전달함으로써, 중심 블록의 중심 좌표값이 객체 블록의 중심 좌표값에 일치하도록 한다.5A and 5B, the center coordinate value of the center block is (0, 0), whereas the center coordinate value of the object block is (11, 8) And controls the driving
이와 같이 중심 블록의 중심 좌표값과 객체 블록의 중심 좌표값이 일치하면, 객체 추적 장치(110)는 구동 로봇(120)을 전후로 이동시켜 중심 블록과 객체 블록의 크기를 일치시키도록 한다. When the center coordinate value of the center block and the center coordinate value of the object block coincide with each other, the
다음으로 객체 추적 장치(110)는 객체 블록의 크기값을 이용하여 객체 블록의 크기값이 중심 블록의 크기값과 일치하도록 하는 로봇 구동 제어 신호를 생성하여 구동 로봇(120)으로 전달한다(S418). Next, the
즉, 구동 로봇(120)이 객체에 접근하면 줌인되고, 객체에서 멀어지면 줌아웃 되는 효과를 이용하여, 객체 추적 장치(110)는 객체 블록의 크기가 중심 블록의 크기와 일치되도록 하기 위해, 구동 로봇(120)의 전후 이동을 제어하기 위한 신호를 생성하여 구동 로봇(120)으로 전달한다.That is, the
이하에서는 도 6a 내지 도 6c를 참조하여 객체 추적 장치(110)가 중심 블록의 크기와 객체 블록의 크기를 일치시키는 과정에 대하여 상세히 설명한다.Hereinafter, the process of the
도 6a 내지 도 6c는 본 발명의 제1 실시예에 따른 객체 추적 장치가 중심 블록의 크기와 객체 블록의 크기를 일치시키는 과정을 설명하기 위한 도면이다.6A to 6C are views for explaining the process of matching the size of the central block and the size of the object block according to the object tracking apparatus according to the first embodiment of the present invention.
도 6a 내지 도 6c 모두 객체 블록의 중심 좌표값이 중심 블록의 중심 좌표값에 일치하도록 구동 로봇(120)이 동작한 상태로 가정한다. 6A to 6C, it is assumed that the driving
도 6a과 같이, 기 저장된 중심 블록의 크기와 객체 블록의 크기가 동일하면, 객체 추적 장치(110)는 구동 로봇(120)에게 전후 이동을 위한 로봇 구동 제어 신호를 전달하지 않는다. 6A, if the size of the pre-stored central block and the size of the object block are the same, the
또한, 도 6b과 같이, 중심 블록보다 객체 블록의 크기가 크면, 객체 추적 장치(110)는 객체로부터 구동 로봇(120)을 후진시킨다. 여기서 객체 추적 장치(110)는 도 6a와 같이 중심 블록과 객체 블록의 크기가 동일해질 때까지 구동 로붓(120)을 후진시킨다. Also, as shown in FIG. 6B, if the size of the object block is larger than the center block, the
마지막으로 도 6c와 같이, 중심 블록보다 객체 블록의 크기가 작으면, 객체 추적 장치(110)는 객체 방향으로 구동 로봇(120)을 전진시킨다. 마찬가지로 객체 추적 장치(110)는 도 6a와 같이 중심 블록과 객체 블록의 크기가 동일해질 때까지 구동 로붓(120)을 전진시킨다. Finally, as shown in FIG. 6C, if the size of the object block is smaller than the center block, the
그리고, 객체 추적 장치(110)의 제어부(114)는 사용자 단말기(200)로부터 사용자에 의한 종료 요청 신호를 수신하면(S420), 영상 촬영을 중단하고, 사용자 단말기(200)와의 접속을 종료한다(S422).When the control unit 114 of the
이러한, 객체 추적 시스템은 PC(Personal Computer), 노트북, 스마트 폰과 같이 IP 기반의 통신이 가능한 사용자 단말기를 이용하여 쉽게 조작할 수 있는 큰 장점이 있다. 특히, 객체 인식 기반으로 구동 로봇을 제어함으로써, 별도로 사람이 조작하지 않아도 자동으로 상하, 좌우, 전후 이동을 컨트롤할 수 있는 장점이 있다.Such an object tracking system has a great advantage that it can be easily operated using a user terminal capable of IP-based communication such as a PC (personal computer), a notebook, and a smart phone. In particular, by controlling the driving robot on the basis of object recognition, there is an advantage that it is possible to automatically control up and down, left and right, and back and forth movement even without human manipulation.
이하에서는 도 8 내지 도 10를 이용하여 본 발명의 제2 실시 예에 따른 객체 추적 방법을 상세히 설명한다.Hereinafter, an object tracking method according to a second embodiment of the present invention will be described in detail with reference to FIGS. 8 to 10. FIG.
도 7은 본 발명의 제2 실시예에 따른 객체 추적 시스템의 구성을 상세히 도시한 도면이고, 도 8은 본 발명의 제2 실시예에 따른 객체 추적 시스템을 제어하기 위한 사용자 단말기의 구성을 상세히 도시한 도면이다.FIG. 7 is a detailed block diagram of an object tracking system according to a second embodiment of the present invention. FIG. 8 is a block diagram illustrating a configuration of a user terminal for controlling an object tracking system according to a second embodiment of the present invention. Fig.
도 7 및 도 8에 도시한 것처럼, 객체 추적 장치(310)는 통신부(311), 촬상부(312), 로봇 구동부(313) 및 제어부(314)를 포함하며, 사용자 단말기(400)는 통신부(410), 영상 표시부(420), 객체 인식부(430), 저장부(450) 및 제어부(460)를 포함한다. 이들은 이전 실시예에서 동일한 명칭을 사용한 것들과 실질적으로 동일하므로 이에 대한 상세한 설명은 생략한다. 7 and 8, the
다만, 본 발명의 제2 실시예에 따른 사용자 단말기(400)는 이벤트 생성부(440)를 추가적으로 더 포함하며, 이벤트 생성부(440)는 영상 정보 내 삽입되도록 특정 이미지를 영상 표시부(420)로 제공하여 영상 정보와 함께 사용자에게 제공하도록 하고, 사용자로부터 삽입된 이미지에 대한 터치 입력을 수신하면, 수신된 터치 입력 정보에 대한 좌표값을 생성하여 제어부(460)로 전송한다. 여기서, 이미지는 아이콘, 그림, 사진 등을 포함한다.The
또한, 제어부(460)는 이벤트 생성부(440)에 의해 생성된 이벤트에 매칭되는 터치 입력 정보를 수신하고, 입력된 터치 입력 정보에 대한 좌표값과 삽입된 이미지의 좌표값이 일치하면, 이벤트가 성공했음을 객체 추적 장치(310)로 알린다.The control unit 460 receives the touch input information matched with the event generated by the event generation unit 440. When the coordinate value of the input touch input information coincides with the coordinate value of the inserted image, And informs the
또한, 사용자 단말기(400)의 제어부(460)는 영상 표시부(420)를 통해 객체 추적 시스템(300)으로부터 수신하는 영상 정보와 함께, 화면 상에 사용자로부터 구동 로봇(120)의 방향 제어를 위한 터치 정보를 수신하기 위한 두 개의 터치 입력창을 사용자에게 제공할 수 있으며, 영상 정보를 제공하는 중에 터치 입력창을 통해 사용자의 터치 정보를 수신하면, 수신된 터치 정보를 객체 추적 장치(310)으로 제공할 수 있다.The control unit 460 of the
또한, 객체 추적 장치(110)는 추가적으로 LED와 스피커와 같은 출력 수단(생략)을 포함할 수 있으며, 제어부(114)는 사용자 단말기(200)로부터 이벤트 신호를 수신하면, 이벤트 신호의 이벤트 정보에 대응하여 출력 수단을 동작 시켜 사용자에게 알림을 제공할 수 있다.In addition, the
다음은 도 9 및 도 10을 통해 본 발명의 제2 실시 예에 따른 객체 추적 시스템(100)의 객체 추적 방법을 설명한다.Next, an object tracking method of the object tracking system 100 according to the second embodiment of the present invention will be described with reference to FIGS.
도 9은 본 발명의 제2 실시 예에 따른 객체 추적 방법을 나타낸 데이터 흐름도이고, 도 10은 본 발명의 제2 실시 예에 따른 사용자 단말기가 제공하는 터치 입력창을 설명하기 위한 도면이다.FIG. 9 is a data flow chart illustrating an object tracking method according to a second embodiment of the present invention. FIG. 10 illustrates a touch input window provided by the user terminal according to the second embodiment of the present invention.
도 9에 나타낸 바와 같이, 본 발명의 제2 실시예에 따른 객체 추적 장치(310)는 사용자 단말기(400)가 접속하면, 사용자에 대한 인증을 수행하고(S900), 인증이 성공하면, 촬상부(312)를 제어하여 촬상 수단을 통해 영상을 촬영한다(S902). 그리고, 객체 추적 장치(310)는 촬영된 영상 정보를 사용자 단말기(400)로 전송한다(S904).9, the
사용자 단말기(400)의 제어부(460)은 영상 표시부(420)를 통해 영상 정보와 함께, 사용자의 입력 정보를 수신하기 위한 터치 입력창을 제공한다(906).The control unit 460 of the
그리고, 터치 입력창을 통해 사용자로부터 터치 정보를 입력받고(S908), 입력된 터치 정보가 포함된 제어 신호를 객체 추적 장치(310)로 전송한다(S910). In operation S908, the touch information is input from the user through the touch input window, and the control signal including the input touch information is transmitted to the
이러한, 터치 정보에 대하여 도 10을 참조하여 설명하면, 제어부(460)는 화면상에 영상 정보와 함께, 구동 로봇(120)을 좌우로 이동시키기 위한 제1 터치 입력창(401), 구동 로봇(120)을 전후로 이동시키기 위한 제2 터치 입력창(402)을 사용자에게 제공하고, 사용자로부터 터치 정보를 수신하여 객체 추적 장치(310)로 전송한다.10, the control unit 460 includes a first
객체 추적 장치(310)는 통신부(310)를 통해 제어 신호를 수신하고, 제어 신호에 포함된 좌우, 전후 제어에 대한 터치 정보를 기초로 구동 로봇(120)의 좌우, 전후를 제어한다(S912).The
사용자 단말기(400)의 제어부(460)는 실시간으로 객체 추적 장치(310)에 의해 촬영된 영상 정보를 수신하여 사용자에게 제공하면서, 이벤트 발생부(440)에 의해 생성되는 영상 내 임의의 한 지점에 저장된 이미지들 중 하나의 이미지(403)를 제공하는 이벤트를 발생시킨다(S914). The control unit 460 of the
이벤트 발생부(440)는 주기적으로 영상 내 임의의 한 지점에 저장된 이미지들 중 하나의 이미지를 제공하는 이벤트를 발생시킬 수 있다.The event generating unit 440 may generate an event that periodically provides one of the images stored at any one point in the image.
그리고, 제어부(460)는 발생된 이벤트에 대한 사용자의 터치 입력 정보를 수신하고(S916), 입력된 터치 입력 정보에 대한 좌표값과 삽입된 이미지(403)의 좌표값이 일치하면, 이벤트가 성공했음을 알리기 위한 이벤트 정보가 포함된 이벤트 신호를 생성하여 통신부(410)를 통해 객체 추적 장치(310)로 전송한다(S918, S920). 이때, 이벤트 정보는 이미지 종류, 이름 등을 포함된다. The control unit 460 receives the touch input information of the user for the generated event (S916). If the coordinate value of the input touch input information coincides with the coordinate value of the inserted
객체 추적 장치(300)의 제어부(314)는 사용자 단말기(400)로부터 이벤트 신호를 수신하고, 이벤트 신호에 포함된 이벤트 정보를 기초로 구동 로봇(120)을 제어한다(S922). The control unit 314 of the object tracking apparatus 300 receives the event signal from the
이때, 제어부(314)는 이벤트 정보에 포함된 이미지의 종류, 이름에 따라 구동 로봇(120)이 특정 움직임 동작을 수행하도록 제어하거나, 스피커 또는 LED 등을 이용하여 이벤트 성공을 사용자에게 알릴 수 있다. 이러한 예를 들면, 이미지 종류가 과일이고 이름이 사과이면, 제어부(314)는 LED를 이용하여 사과 모양을 표시하거나, 음성으로 "사과"를 표현할 수 있다.At this time, the control unit 314 controls the driving
이러한, 본 발명에 따른 객체 추적 시스템은 PC(Personal Computer), 노트북, 스마트 폰과 같이 IP 기반의 통신이 가능한 사용자 단말기를 이용하여 쉽게 조작이 용이한 큰 장점이 있다. 특히, 객체를 인식하여 자동으로 구동 로봇을 이동시킬 수 있으며, 불규칙하게 이벤트를 발생시켜 사용자의 조작 집중도를 높일 수 있는 장점이 있다.The object tracking system according to the present invention is advantageous in that it can be easily operated using a user terminal capable of IP-based communication such as a PC (personal computer), a notebook computer, and a smart phone. Particularly, there is an advantage that the driving robot can be automatically moved by recognizing the object, and the concentration of the operation of the user can be increased by generating an event irregularly.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다. While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.
100: 객체 추적 시스템 110: 객체 추적 장치
111: 통신부 112: 촬상부
113: 로봇 구동부 114: 제어부
120: 구동 로봇 200: 사용자 단말기
210: 통신부 220: 영상 표시부
230: 객체 인식부 240: 저장부
250: 제어부 310: 객체 추적 장치
311: 통신부 312: 촬상부
313: 로봇 구동부 314: 제어부
400: 사용자 단말기 410: 통신부
420: 영상 표시부 430: 객체 인식부
440: 이벤트 생성부 450: 저장부
460: 제어부100: object tracking system 110: object tracking apparatus
111: communication unit 112:
113: robot driving unit 114:
120: driving robot 200: user terminal
210: communication unit 220:
230: Object recognition unit 240:
250: control unit 310: object tracking device
311: communication unit 312:
313: Robot driving unit 314:
400: user terminal 410: communication unit
420: image display unit 430: object recognition unit
440: Event generating unit 450:
460:
Claims (1)
사용자 단말기와 데이터를 송수신하는 통신부;
양방향 카메라를 이용하여 영상을 촬영하며, 상기 통신부를 통해 촬영된 영상 정보를 상기 사용자 단말기로 제공하는 촬상부; 및
상기 영상 정보에 포함된 객체를 인식하여 생성한 객체 블록의 적어도 하나의 좌표값이 포함되는 제어 신호를 상기 사용자 단말기로부터 수신하고, 상기 객체 블록의 좌표값이 기 저장된 영상의 중심 블록의 좌표값에 일치하도록 상기 구동부를 제어하는 제어부를 포함하는 양방향 카메라를 이용한 객체 추적 시스템.A drive unit connected to a drive robot including a motor for moving left and right, front and rear, and up and down, and controlling movement of the drive robot in left and right, front and rear, and up and down;
A communication unit for transmitting and receiving data to and from a user terminal;
An image capturing unit capturing an image using a bi-directional camera and providing image information photographed through the communication unit to the user terminal; And
A control signal including at least one coordinate value of an object block generated by recognizing an object included in the image information is received from the user terminal and the coordinate value of the object block is set to a coordinate value of a center block of the previously stored image And a control unit for controlling the driving unit so that the driving unit coincides with the driving unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130138372A KR20150056115A (en) | 2013-11-14 | 2013-11-14 | System for tracking object using both direction camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130138372A KR20150056115A (en) | 2013-11-14 | 2013-11-14 | System for tracking object using both direction camera |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20150056115A true KR20150056115A (en) | 2015-05-26 |
Family
ID=53391485
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130138372A KR20150056115A (en) | 2013-11-14 | 2013-11-14 | System for tracking object using both direction camera |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20150056115A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018124473A1 (en) * | 2016-12-29 | 2018-07-05 | 서울대학교 산학협력단 | Mobile robot device and method for controlling operation thereof |
US10775794B2 (en) | 2015-08-26 | 2020-09-15 | Hanwha Defense Co., Ltd. | Following system for mobile robot to follow moving object |
KR102545741B1 (en) * | 2022-11-08 | 2023-06-21 | 주식회사 하나씨엔에스 | CCTV rotating camera control terminal |
-
2013
- 2013-11-14 KR KR1020130138372A patent/KR20150056115A/en not_active Application Discontinuation
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10775794B2 (en) | 2015-08-26 | 2020-09-15 | Hanwha Defense Co., Ltd. | Following system for mobile robot to follow moving object |
WO2018124473A1 (en) * | 2016-12-29 | 2018-07-05 | 서울대학교 산학협력단 | Mobile robot device and method for controlling operation thereof |
KR20190104177A (en) * | 2016-12-29 | 2019-09-06 | 서울대학교산학협력단 | Mobile robot device and its motion control method |
KR102545741B1 (en) * | 2022-11-08 | 2023-06-21 | 주식회사 하나씨엔에스 | CCTV rotating camera control terminal |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10922530B2 (en) | Display device and operating method thereof with adjustments related to an image display according to bending motion of the display device | |
KR101078057B1 (en) | Mobile terminal had a function of photographing control and photographing control system used image recognition technicque | |
US20210035362A1 (en) | Image processing method and apparatus, electronic device, and computer-readable storage medium | |
US20130278837A1 (en) | Multi-Media Systems, Controllers and Methods for Controlling Display Devices | |
US20070112462A1 (en) | Method for detecting if command implementation was completed on robot common framework, method for transmitting and receiving signals and device thereof | |
WO2021035833A1 (en) | Posture prediction method, model training method and device | |
CN105469056A (en) | Face image processing method and device | |
KR20190008610A (en) | Mobile terminal and Control Method for the Same | |
KR102181208B1 (en) | Mobile terminal and control method for the mobile terminal | |
CN105407285A (en) | Photographing control method and device | |
WO2020151255A1 (en) | Display control system and method based on mobile terminal | |
CN104077585A (en) | Image correction method and device and terminal | |
CN105117111A (en) | Rendering method and device for virtual reality interaction frames | |
KR101718081B1 (en) | Super Wide Angle Camera System for recognizing hand gesture and Transport Video Interface Apparatus used in it | |
CN108319363A (en) | Product introduction method, apparatus based on VR and electronic equipment | |
KR20150056115A (en) | System for tracking object using both direction camera | |
JPWO2019155735A1 (en) | Information processing equipment, information processing methods and programs | |
KR20160012009A (en) | Mobile terminal and method for controlling the same | |
CN105702118A (en) | Driving practice correction method and device | |
KR101527115B1 (en) | System for tracking object and method thereof, user terminal for controlling the system and method thereof | |
KR20210101009A (en) | Method for Recording Video using a plurality of Cameras and Device thereof | |
CN106658136A (en) | Smart TV control method and apparatus | |
US10764535B1 (en) | Facial tracking during video calls using remote control input | |
WO2012008553A1 (en) | Robot system | |
KR102009988B1 (en) | Method for compensating image camera system for compensating distortion of lens using super wide angle camera and Transport Video Interface Apparatus used in it |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |