KR20190069267A - 객체센서를 이용한 객체추적방법 및 시스템 - Google Patents

객체센서를 이용한 객체추적방법 및 시스템 Download PDF

Info

Publication number
KR20190069267A
KR20190069267A KR1020180016915A KR20180016915A KR20190069267A KR 20190069267 A KR20190069267 A KR 20190069267A KR 1020180016915 A KR1020180016915 A KR 1020180016915A KR 20180016915 A KR20180016915 A KR 20180016915A KR 20190069267 A KR20190069267 A KR 20190069267A
Authority
KR
South Korea
Prior art keywords
camera
time stamp
sensor
data
stamp
Prior art date
Application number
KR1020180016915A
Other languages
English (en)
Other versions
KR102173960B1 (ko
Inventor
백창현
김성산
조재운
Original Assignee
백창현
조재운
김성산
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 백창현, 조재운, 김성산 filed Critical 백창현
Publication of KR20190069267A publication Critical patent/KR20190069267A/ko
Application granted granted Critical
Publication of KR102173960B1 publication Critical patent/KR102173960B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0205Details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S1/00Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith
    • G01S1/02Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith using radio waves
    • G01S1/68Marker, boundary, call-sign, or like beacons transmitting signals not carrying directional information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W64/00Locating users or terminals or network equipment for network management purposes, e.g. mobility management

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

객체센서를 이용한 객체 추적 방법 및 시스템을 제시하며, 객체센서를 이용한 객체추적방법 및 시스템은 일 실시예에 따르면, 객체에 구비되는 객체센서를 이용하여 객체를 추적하는 객체추적시스템에 있어서, 기 설정된 화각 내에 위치한 객체를 촬영하는 카메라 및 상기 객체센서로부터 송수신된 데이터에 기초하여 상기 객체의 위치를 식별하고, 상기 카메라의 화각내에 상기 객체가 위치되도록 상기 카메라의 촬영방향을 제어하는 제어부를 포함할 수 있다.

Description

객체센서를 이용한 객체추적방법 및 시스템{METHOD AND SYSTEM FOR TRACKING OBJECT USING OBJECT SENSOR}
본 명세서에서 개시되는 실시예들은 객체센서를 이용한 객체추적방법 및 시스템에 관한 것으로, 보다 상세하게는 타임스탬프가 포함된 패킷을 방출하고, 방출된 패킷을 획득한 객체에 대응되는 객체시스템으로부터 수신되는 패킷에 포함된 타임스탬프를 이용하여 객체추적방법 및 시스템에 관한 것이다.
최근 들어 스마트기기의 카메라의 성능이 높아짐에 따라 영상 또는 사진을 촬영하는 데에 스마트기기의 활용이 많아지고 있다.
일반적으로 객체를 촬영하기 위해서는 사용자가 스마트기기의 카메라를 객체가 위치한 방향으로 향하도록 이동하면서 방향을 조절한다.
특히, 카메라로 촬영된 화면 내에 객체가 특정 위치에 위치하도록 하기 위해서는 사용자가 카메라를 통해 촬영된 화면을 통해 객체가 특정 위치에 위치하는지 화면을 확인하면서 카메라의 방향을 이동시켜야 한다.
하지만, 객체가 계속적으로 이동하는 경우, 사용자가 수동으로 카메라를 이동시키면서 화면내의 특정 위치에 객체가 지속적으로 위치하도록 제어하지 못하는 문제점이 있다.
관련하여 선행기술 문헌인 한국실용신안공보 제20-1997-0002521호에서는 절첩가능한 상태의 지지대에 수개의 카메라를 설치하여 다방향에서 여러형태의 포즈를 동시에 촬영할 수 있도록 한 다방향 촬영 가능한 카메라의 설치구조에 관한 것으로 객체가 화면 내의 특정 위치에 위치하도록 카메라의 방향을 자동으로 제어하지 못한다.
따라서 상술된 문제점을 해결하기 위한 기술이 필요하게 되었다.
한편, 전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
본 명세서에서 개시되는 실시예들은, 객체와 카메라 사이를 광학적인 방법이 아닌 패킷을 이용한 방법으로 객체를 추적하는 객체추적방법 및 시스템을 제시하는데 목적이 있다.
본 명세서에서 개시되는 실시예들은, 카메라의 화각을 벗어나 위치한 객체에 대의 위치를 식별하여 객체를 추적하는 객체추적방법 및 시스템을 제시하는 데 목적이 있다.
본 명세서에서 개시되는 실시예들은, 객체를 화면내의 특정 위치에 정확하게 위치하도록 카메라를 제어할 수 있는 객체추적방법 및 시스템을 제시하는데 목적이 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 실시예에 따르면, 객체에 구비되는 객체센서를 이용하여 객체를 추적하는 객체추적시스템에 있어서, 기 설정된 화각 내에 위치한 객체를 촬영하는 카메라 및 상기 객체센서로부터 송수신된 데이터에 기초하여 상기 객체의 위치를 식별하고, 상기 카메라의 화각내에 상기 객체가 위치되도록 상기 카메라의 촬영방향을 제어하는 제어부를 포함할 수 있다.
다른 실시예에 따르면, 객체추적시스템이 객체에 구비되는 객체센서를 이용하여 객체를 추적하는 방법에 있어서, 상기 객체센서와 데이터를 송수신하는 단계, 송수신된 데이터에 기초하여 상기 객체의 위치를 식별하는 단계 및 상기 객체를 촬영하는 카메라의 기 설정된 화각 내에 상기 객체가 위치되도록 상기 카메라의 촬영방향을 제어하는 단계를 포함할 수 있다.
다른 실시예에 따르면, 객체추적방법을 수행하는 프로그램이 기록된 컴퓨터 판독이 가능한 기록매체로서, 상기 객체센서와 데이터를 송수신하는 단계, 송수신된 데이터에 기초하여 상기 객체의 위치를 식별하는 단계 및 상기 객체를 촬영하는 카메라의 기 설정된 화각 내에 상기 객체가 위치되도록 상기 카메라의 촬영방향을 제어하는 단계를 포함할 수 있다.
다른 실시예에 따르면, 객체추적시스템에 의해 수행되며, 객체추적방법을 수행하기 위해 기록매체에 저장된 컴퓨터프로그램으로서, 상기 객체센서와 데이터를 송수신하는 단계, 송수신된 데이터에 기초하여 상기 객체의 위치를 식별하는 단계 및 상기 객체를 촬영하는 카메라의 기 설정된 화각 내에 상기 객체가 위치되도록 상기 카메라의 촬영방향을 제어하는 단계를 포함할 수 있다.
전술한 과제 해결 수단 중 어느 하나에 의하면, 객체와 카메라 사이를 광학적인 방법이 아닌 패킷을 이용한 방법으로 객체를 추적하는 객체추적방법 및 시스템을 제시할 수 있다.
그리고 전술한 과제 해결 수단 중 어느 하나에 의하면, 카메라의 화각을 벗어나 위치한 객체에 대의 위치를 식별하여 객체를 추적하는 객체추적방법 및 시스템을 제시할 수 있다.
또한, 전술한 과제 해결 수단 중 어느 하나에 의하면, 객체를 화면내의 특정 위치에 정확하게 위치하도록 카메라를 제어할 수 있는 객체추적방법 및 시스템을 제시할 수 있다.
개시되는 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 개시되는 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1 은 일 실시예에 따른 객체추적시스템을 도시한 구성도이다.
도 2 는 일 실시예에 따른 객체추적시스템을 도시한 블록도이다.
도 3 은 일 실시예에 따른 객체추적방법을 설명하기 위한 순서도이다.
도 4 는 일 실시예에 따른 객체추적방법을 설명하기 위한 예시도이다.
아래에서는 첨부한 도면을 참조하여 다양한 실시예들을 상세히 설명한다. 아래에서 설명되는 실시예들은 여러 가지 상이한 형태로 변형되어 실시될 수도 있다. 실시예들의 특징을 보다 명확히 설명하기 위하여, 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서 자세한 설명은 생략하였다. 그리고, 도면에서 실시예들의 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 구성이 다른 구성과 "연결"되어 있다고 할 때, 이는 ‘직접적으로 연결’되어 있는 경우뿐 아니라, ‘그 중간에 다른 구성을 사이에 두고 연결’되어 있는 경우도 포함한다. 또한, 어떤 구성이 어떤 구성을 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 그 외 다른 구성을 제외하는 것이 아니라 다른 구성들을 더 포함할 수도 있음을 의미한다.
이하 첨부된 도면을 참고하여 실시예들을 상세히 설명하기로 한다.
다만 이를 설명하기에 앞서, 아래에서 사용되는 용어들의 의미를 먼저 정의한다.
‘화각’은 사용자단말에 구비된 카메라의 초점에 따라 촬영가능한 범위이고, 카메라를 통해 촬영되어 디스플레이에 출력되는 이미지 또는 영상을 ‘화면’이라고 한다.
‘타임스탬프’는 데이터가 특정 시간에 존재하였음을 기록하는 시간 정보로 예를 들어, 데이터가 송수신되는 시간을 기준으로 생성될 수 있다.
위에 정의한 용어 이외에 설명이 필요한 용어는 아래에서 각각 따로 설명한다.
도 1은 일 실시예에 따른 객체추적시스템(100)을 설명하기 위한 구성도이다.
객체추적시스템(100)는 네트워크(N)를 통해 데이터를 송수신할 수 있는 스탬프장치(10), 객체센서(20) 및 사용자단말(30)로 구성될 수 있다.
우선, 스탬프장치(10)는 객체센서(20)와 네트워크(N)를 통해 데이터를 송수신하는 무선장치로 객체를 촬영하는 카메라가 구비되는 사용자단말(30)과 동일한 선상에 배치될 수 있다.
이러한 스탬프장치(10)는 복수의 스탬프장치(11, 12)로 구성될 수 있고 사용자단말(30)을 중심으로 제 1 스탬프장치(11)와 제 2 스탬프장치(12) 각각이 사용자단말(30)과 동일선상에 배치될 수 있다.
그리고 스탬프장치(10)는 사용자단말(30)에 구비되어 배치되거나 또는 사용자단말(30)이 결합되는 별도의 장치에 구비될 수 있다.
예를 들어, 스탬프장치(10)는 사용자단말(30)의 일단에 제 1 스탬프장치(11)가 결합되고, 타단에 제 2 스탬프장치(12)가 결합되어 구비될 수 이다.
또는 예를 들어, 스탬프장치(10)는 사용자단말(30)이 고정될 수 있는 거치대(미도시)에 구비되되, 사용자단말(30)이 거치되는 위치를 기준으로 좌우 동일한 간격으로 이격되어 제 1 스탬프장치(11)와 제 2 스탬프장치(12)가 구비될 수 있다.
그리고 객체센서(20)는 객체에 구비되어 스탬프장치(10)와 데이터를 송수신할 수 있는 무선장치로 예를 들어 비콘(Beacon) 등으로 구현될 수 있다. 예를 들어, 객체센서(20)는 객체의 옷에 부착될 수 있는 단추 모양의 형태로 구현되거나 각종 액세서리 형태로 제작될 수 있다.
한편, 사용자단말(30)은 네트워크(N)를 통해 원격지의 서버에 접속하거나, 타 단말 및 서버와 연결 가능한 컴퓨터나 휴대용 단말기, 텔레비전, 웨어러블 디바이스(Wearable Device) 등으로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop)등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), GSM(Global System for Mobile communications), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet), 스마트폰(Smart Phone), 모바일 WiMAX(Mobile Worldwide Interoperability for Microwave Access) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 또한, 텔레비전은 IPTV(Internet Protocol Television), 인터넷 TV(Internet Television), 지상파 TV, 케이블 TV 등을 포함할 수 있다. 나아가 웨어러블 디바이스는 예를 들어, 시계, 안경, 액세서리, 의복, 신발 등 인체에 직접 착용 가능한 타입의 정보처리장치로서, 직접 또는 다른 정보처리장치를 통해 네트워크를 경유하여 원격지의 서버에 접속하거나 타 단말과 연결될 수 있다.
이러한 사용자단말(30)은 스탬프장치(10)와 네트워크(N)를 통해 통신을 수행할 수 있으며, 입출력장치로 객체를 촬영할 수 있는 카메라가 구비될 수 있다. 그리고 실시예에 따라, 사용자단말(30)은 회전이 가능하도록 구동장치가 구비된 거치대(미도시)에 결합될 수 있으며, 객체의 위치에 따라 구동장치에 의해 회전될 수 있다.
한편, 객체추적시스템(100)은 스탬프장치(10)와 객체센서(20)간 송수신되는 데이터를 기초로 객체센서(20)의 위치를 식별하여 객체를 추적할 수 있다.
예를 들어, 객체추적시스템(100)은 제 1 스탬프장치(11)를 통해 제 1 타임스탬프를 포함하는 데이터를 객체센서(20)로 송신하고, 제 2 스탬프장치(12)를 통해 객체센서(20)로부터 제 2 타임스탬프를 포함하는 데이터를 수신할 수 있으며, 제 2 스탬프장치(12)를 통해 데이터를 수신하면 제 3 타임스탬프를 생성할 수 있다. 이후, 객체추적시스템(100)은 제 1 타임스탬프, 제 2 타임스탬프 및 제 3 타임스탬프 중 적어도 하나를 기초로 객체센서(20)의 위치를 계산할 수 있다.
이때, 객체센서(20)의 위치를 계산하는 주체는 실시예에 따라 스탬프장치(10) 및 사용자단말(30) 중 어느 하나에서 수행될 수 있으며, 본 발명에서는 사용자단말(30)에서 수행되는 것으로 가정하여 설명한다.
도 2는 일 실시예에 따른 객체추적시스템(100)의 구성을 도시한 블럭도이다. 도 2를 참조하면, 일 실시예에 따른 객체추적시스템(100)은, 입출력부(110), 제어부(120), 통신부(130) 및 메모리(140)를 포함할 수 있다.
입출력부(110)는 사용자로부터 입력을 수신하기 위한 입력부와, 작업의 수행 결과 또는 객체추적시스템 (100)의 상태 등의 정보를 표시하기 위한 출력부를 포함할 수 있다. 예를 들어, 입출력부(110)는 사용자 입력을 수신하는 조작 패널(operation panel) 및 화면을 표시하는 디스플레이 패널(display panel) 등을 포함할 수 있다.
구체적으로, 입력부는 키보드, 물리 버튼, 터치 스크린, 카메라 또는 마이크 등과 같이 다양한 형태의 사용자 입력을 수신할 수 있는 장치들을 포함할 수 있다. 또한, 출력부는 디스플레이 패널 또는 스피커 등을 포함할 수 있다. 다만, 이에 한정되지 않고 입출력부(110)는 다양한 입출력을 지원하는 구성을 포함할 수 있다.
그리고 입출력부(110)는 객체를 촬영하는 카메라를 포함할 수 있으며, 이러한 카메라는 기 설정된 화각 내의 객체를 촬영할 수 있다.
제어부(120)는 객체추적시스템(100)의 전체적인 동작을 제어하며, CPU 등과 같은 프로세서를 포함할 수 있다. 제어부(120)는 입출력부(110)를 통해 수신한 사용자 입력에 대응되는 동작을 수행하도록 객체추적시스템(100)에 포함된 다른 구성들을 제어할 수 있다.
예를 들어, 제어부(120)는 메모리(140)에 저장된 프로그램을 실행시키거나, 메모리(140)에 저장된 파일을 읽어오거나, 새로운 파일을 메모리(140)에 저장할 수도 있다.
우선, 제어부(120)는 객체센서(20)로부터 송수신된 데이터에 기초하여 객체의 위치를 식별할 수 있다.
이를 위해, 제어부(120)는 데이터를 송수신하는 시간정보인 타임스탬프가 포함된 데이터를 스탬프장치(10)를 통해 생성할 수 있고, 스탬프장치(10)를 통해 송수신된 데이터에 포함된 타임스탬프를 기초로 객체센서(20)의 위치를 식별할 수 있다.
하나의 실시예에 따라 제어부(120)는 스탬프장치(10)와 객체센서(20)간에 연결을 생성할 수 있고, 페어링된 스탬프장치(10)를 통해 객체센서(20)와 타임스탬프가 포함된 데이터를 송수신할 수 있다.
예를 들어, 제어부(120)는 제 1 스탬프장치(11) 및 제 2 스탬프장치(12) 각각을 객체센서(20)와 블루투스(Bluetooth)로 페어링할 수 있고, 제 1 스탬프장치(11) 및 제 2 스탬프장치(12)를 통해 객체센서(20)와 데이터를 송수신할 수 있다.
예를 들어, 제어부(120)는 제 1 스탬프장치(11)를 통해 제 1 타임스탬프가 포함된 데이터를 객체에 부착된 객체센서(20)로 전송할 수 있고, 객체센서(20)로부터 제 2 타임스탬프가 기록된 데이터가 송신되면 제 2 스탬프장치(12)를 통해 수신할 수 있다.
다른 실시예에 따라, 제어부(120)는 스탬프장치(10)와 객체센서(20) 간 연결을 형성하지 않고 객체센서(20)와 데이터를 송수신할 수 있다.
예를 들어, 제어부(120)는 제 1 스탬프장치(11)를 통해 제 1 타임스탬프가 포함된 데이터를 포함한 신호를 방출할 수 있고, 데이터를 획득한 객체센서(20)로부터 제 2 타임스탬프가 포함된 데이터의 신호를 제 2 스탬프장치(12)를 통해 감지하여 획득할 수 있다.
이때, 제어부(120)는 객체센서(20)로부터 수신된 데이터를 검증할 수 있다.
실시예에 따라, 제어부(120)는 데이터에 포함된 타임스탬프의 수에 기초하여 데이터를 검증할 수 있다.
예를 들어, 객체센서(20)로부터 제 2 스탬프장치(12)에 수신된 데이터에 포함된 타임스탬프의 수가 2개이면, 제어부(120)는 객체센서(20)에 수신된 데이터를 획득할 수 있고, 추출된 타임스탬프의 수가 2개가 아니면, 제어부(120)는 제 2 스탬프장치(12)에 수신된 데이터를 삭제할 수 있다.
또는 실시예에 따라, 제어부(120)는 데이터에 포함된 제 1 스탬프장치(11)의 식별정보에 기초하여 데이터를 검증할 수 있다.
예를 들어, 제어부(120)는 제 2 스탬프장치(12)를 통해 수신된 데이터에 포함된 제 1 스탬프장치(11)의 식별정보가 기 저장된 식별정보와 동일한지 여부에 기초하여 데이터를 검증할 수 있다.
그리고 제어부(120)는 제 2 스탬프장치(12)를 통해 데이터가 수신되면 제 3 타임스탬프를 생성할 수 있다.
이후, 제어부(120)는 데이터에서 타임스탬프를 추출할 수 있고, 추출된 타임스탬프에 기초하여 객체센서(20)의 위치를 식별할 수 있다.
예를 들어, 제어부(120)는 제 1 타임스탬프와 제 2 타임스탬프간의 시간차이와 제 2 타임스탬프와 제 3 타임스탬프간의 시간차이를 비교할 수 있고, 시간차이의 동일여부에 기초하여 객체센서(20)가 위치한 방향을 식별할 수 있다.
그리고 제어부(120)는 시간차이가 동일해지도록 카메라의 촬영방향을 제어하여 객체센서(20)가 사용자단말(30)에 구비된 카메라의 화각내에 위치되도록 할 수 있다.
이를 위해 제어부(120)는 사용자단말(30)이 결합된 거치대의 구동장치를 제어하여 카메라의 촬영방향을 회전시킬 수 있다.
예를 들어, 제 1 타임스탬프와 제 2 타임스탬프간의 시간차가 제 2 타임스탬프와 제 3 타임스탬프간의 시간차보다 짧으면, 제어부(120)는 제 3 타임스탬프를 생성한 제 2 스탬프장치(12)가 위치한 방향으로 사용자단말(30)이 장착된 거치대의 방향을 회전시킬 수 있으며, 이를 위해 거치대에 구비된 구동장치를 제어할 수 있다.
그리고 제어부(120)는 실시간으로 각 타임스탬프간의 시간차를 계산하여 카메라의 촬영방향을 변경함으로써 객체센서(20)의 방향을 식별하여 객체가 카메라의 화각내에 지속적으로 위치하도록 할 수 있다.
통신부(130)는 다른 디바이스 또는 네트워크와 유무선 통신을 수행할 수 있다. 이를 위해, 통신부(130)는 다양한 유무선 통신 방법 중 적어도 하나를 지원하는 통신 모듈을 포함할 수 있다. 예를 들어, 통신 모듈은 칩셋(chipset)의 형태로 구현될 수 있다.
통신부(130)가 지원하는 무선 통신은, 예를 들어 Wi-Fi(Wireless Fidelity), Wi-Fi Direct, 블루투스(Bluetooth), UWB(Ultra Wide Band) 또는 NFC(Near Field Communication) 등일 수 있다. 또한, 통신부(130)가 지원하는 유선 통신은, 예를 들어 USB 또는 HDMI(High Definition Multimedia Interface) 등일 수 있다.
메모리(140)에는 파일, 어플리케이션 및 프로그램 등과 같은 다양한 종류의 데이터가 설치 및 저장될 수 있다. 제어부(120)는 메모리(140)에 저장된 데이터에 접근하여 이를 이용하거나, 또는 새로운 데이터를 메모리(140)에 저장할 수도 있다. 또한, 제어부(120)는 메모리(140)에 설치된 프로그램을 실행할 수도 있다.
도 3 은 일 실시예에 따른 객체추적방법을 설명하기 위한 순서도이다.
도 3 에 도시된 실시예에 따른 객체추적방법은 도 1및 도 2 에 도시된 객체추적시스템(100)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하에서 생략된 내용이라고 하더라도 도 1 및 도 2 에 도시된 객체추적시스템(100)에 관하여 이상에서 기술한 내용은 도 3에 도시된 실시예에 따른 객체추적방법에도 적용될 수 있다.
우선, 객체추적시스템(100)은 객체센서와 데이터를 송수신할 수 있다(S3001).
즉, 객체추적시스템(100)은 스탬프장치(10)를 통해 객체센서(20)와 데이터를 송수신할 수 있으며, 송수신되는 데이터에는 스탬프장치(10) 또는 객체센서(20)가 데이터를 송신 또는 수신한 시간정보인 타임스탬프를 포함될 수 있다.
하나의 실시예에 따라, 객체추적시스템(100)은 스탬프장치(10)와 객체센서(20)를 상호 연결 예를 들어, 블루투스로 페어링할 수 있고, 데이터를 송수신할 수 있다.
예를 들어, 객체추적시스템(100)은 제 1 스탬프장치(11)에서 제 1 데이터를 신호를 통해 전송할 때의 시간정보인 제 1 타임스탬프가 포함된 데이터를 객체센서(20)로 송신할 수 있고, 데이터를 수신한 객체센서(20)로부터 제 2 타임스탬프가 포함된 데이터를 제 2 스탬프장치(12)를 통해 수신할 수 있다. 이후, 객체추적시스템(100)은 제 2 스탬프장치(12)를 통해 데이터를 획득하면 제 3 타임스탬프를 생성할 수 있다.
다른 실시예에 따라, 객체추적시스템(100)은 스탬프장치(10)와 객체센서(20)간 상호 연결없이 데이터를 송수신할 수 있다.
예를 들어, 객체추적시스템(100)은 제 1 스탬프장치(11)를 통해 제 1 타임스탬프가 포함된 데이터를 포함하는 신호를 방출할 수 있고, 방출된 신호를 수신한 객체센서(20)에 의해 생성된 제 2 타임스탬프가 포함된 데이터를 제 2 스탬프장치(12)를 통해 획득할 수 있다.
이때, 객체추적시스템(100)은 제 2 스탬프장치(12)를 통해 수신되는 데이터를 검증할 수 있다.
예를 들어, 객체추적시스템(100)은 데이터에 포함된 타임스탬프의 수를 식별할 수 있고, 제 2 스탬프장치(12)에 수신되는 데이터에 포함된 타임스탬프의 개수가 2 개인지 여부에 따라 제 2 스탬프장치(12)에서 수신해야 하는 데이터인지를 검증할 수 있다.
또는 예를 들어, 객체추적시스템(100)은 데이터에 포함된 타임스탬프를 생성한 스탬프장치(10) 또는 객체센서(20)의 식별정보를 추출할 수 있고, 추출된 식별정보가 제 1 스탬프장치(11)와 객체센서(20) 각각의 식별정보 중 어느 하나와 동일한지에 기초하여 데이터를 검증할 수 있다.
그리고 객체추적시스템(100)은 제 2 스탬프장치(12)를 통해 데이터를 획득하면 제 3 타임스탬프를 생성할 수 있다.
이후 객체추적시스템(100)은 데이터에 포함된 타임스탬프를 기초로 객체의 위치를 식별할 수 있다(S3002).
즉, 객체추적시스템(100)은 데이터에 포함된 제 1 타임스탬프 내지 제 3 타임스탬프를 기초로 객체센서(20)의 방향을 식별할 수 있다.
예를 들어, 객체추적시스템(100)은 제 1 타임스탬프와 제 2 타임스탬프간의 시간차이와 제 2 타임스탬프와 제 3 타임스탬프간의 시간차이만을 계산할 수 있고, 각 시간차이가 동일한지 여부에 따라 객체센서(20)가 위치한 방향을 식별할 수 있다.
또는 예를 들어, 객체추적시스템(100)은 제 1 타임스탬프 내지 제 2 타임스탬프 간의 시간차이를 기초로 제 1 스탬프장치(11)와 객체센서(20)간의 제 1 거리를 계산할 수 있고, 제 2 타임스탬프와 제 3 타임스탬프간의 시간차이를 기초로 객체센서(20)와 제 2 스탬프장치(12)간의 제 2 거리를 계산할 수 있다. 이후, 객체추적시스템(100)은 비교할 수 있다. 그리고 객체추적시스템(100)은 계산된 제 1 거리와 제 2 거리의 길이를 기초로 객체센서(20)의 위치를 식별할 수 있다.
이때, 객체추적시스템(100)은 제 1 거리 및 제 2 거리를 기초로 카메라로부터 객체센서(20)까지의 거리를 계산할 수 있다.
예를 들어, 객체추적시스템(100)은 제 1 타임스탬프 내지 제 3 타임스탬프를 이용하여 계산된 제 1 거리 및 제 2 거리를 기초로 기 설정된 제 1 스탬프장치(11)와 제 2 스탬프장치(12)간의 거리를 이용하여 객체센서(20)로부터 제 1 스탬프장치(11)와 제 2 스탬프장치(12)와 동일 선상에 위치한 카메라까지의 거리를 계산할 수 있다.
그리고 객체추적시스템(100)은 객체를 촬영하는 카메라의 화각 내에 상기 객체가 위치되도록 상기 카메라의 촬영방향을 제어할 수 있다(S3003).
실시예에 따라, 객체추적시스템(100)은 S3002단계를 통해 식별된 ?체센서(20)의 위치를 기초로 카메라의 화각 내에 객체가 위치하도록 카메라가 구비된 사용자단말(30)이 결합된 거치대의 구동장치를 제어하여 사용자단말(30)을 객체가 위치한 방향으로 회전되도록 할 수 있다.
예를 들어, 객체추적시스템(100)은 제 1 타임스탬프와 제 2 타임스탬프 간의 시간차이와 제 2 타임스탬프와 제 3 타임스탬프간의 시간차이가 동일할 때까지 거치대의 구동장치를 제어하여 사용자단말(30)을 회전시킬 수 있다.
도 4 를 참조하면, 제 1 스탬프장치(11)와 객체센서(20)간 타임스탬프의 시간차이(401)가 객체센서(20)와 제 2 스탬프장치(12)간 타임스탬프의 시간차이(402)보다 크면, 객체추적시스템(100)은 사용자단말(30)이 결합된 거치대(403)의 구동장치를 제어하여 사용자단말(30)을 회전시킬 수 있다.
그리고 객체추적시스템(100)은 제 1 스탬프장치(11)와 객체센서(20)간 타임스탬프의 시간차이(404)와 객체센서(20)와 제 2 스탬프장치(12)간 타임스탬프의 시간차이(405)가 동일할 때까지 사용자단말(30)을 회전시킬 수 있다.
이후, 객체추적시스템(100)은 시간차이가 동일할 때까지 S3001 내지 S3003을 반복수행 할 수 있다.
이를 통해 객체의 이동에 따라 카메라의 촬영방향을 능동적으로 변경하여 객체가 카메라의 화각 내에 계속 위치하도록 하여 지속적으로 객체를 촬영할 수 있다.
이상의 실시예들에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field programmable gate array) 또는 ASIC 와 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램특허 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다.
구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로부터 분리될 수 있다.
뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU 들을 재생시키도록 구현될 수도 있다.
도 3 을 통해 설명된 실시예에 따른 객체추적방법은 컴퓨터에 의해 실행 가능한 명령어 및 데이터를 저장하는, 컴퓨터로 판독 가능한 매체의 형태로도 구현될 수 있다. 이때, 명령어 및 데이터는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터 기록 매체일 수 있는데, 컴퓨터 기록 매체는 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다.예를 들어, 컴퓨터 기록 매체는 HDD 및 SSD 등과 같은 마그네틱 저장 매체, CD, DVD 및 블루레이 디스크 등과 같은 광학적 기록 매체, 또는 네트워크를 통해 접근 가능한 서버에 포함되는 메모리일 수 있다.
또한 도 3 을 통해 설명된 실시예에 따른 객체추적방법은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램(또는 컴퓨터 프로그램 제품)으로 구현될 수도 있다. 컴퓨터 프로그램은 프로세서에 의해 처리되는 프로그래밍 가능한 기계 명령어를 포함하고, 고레벨 프로그래밍 언어(High-level Programming Language), 객체 지향 프로그래밍 언어(Object-oriented Programming Language), 어셈블리 언어 또는 기계 언어 등으로 구현될 수 있다. 또한 컴퓨터 프로그램은 유형의 컴퓨터 판독가능 기록매체(예를 들어, 메모리, 하드디스크, 자기/광학 매체 또는 SSD(Solid-State Drive) 등)에 기록될 수 있다.
따라서 도 3 을 통해 설명된 실시예에 따른 객체추적방법은 상술한 바와 같은 컴퓨터 프로그램이 컴퓨팅 장치에 의해 실행됨으로써 구현될 수 있다. 컴퓨팅 장치는 프로세서와, 메모리와, 저장 장치와, 메모리 및 고속 확장포트에 접속하고 있는 고속 인터페이스와, 저속 버스와 저장 장치에 접속하고 있는 저속 인터페이스 중 적어도 일부를 포함할 수 있다. 이러한 성분들 각각은 다양한 버스를 이용하여 서로 접속되어 있으며, 공통 머더보드에 탑재되거나 다른 적절한 방식으로 장착될 수 있다.
여기서 프로세서는 컴퓨팅 장치 내에서 명령어를 처리할 수 있는데, 이런 명령어로는, 예컨대 고속 인터페이스에 접속된 디스플레이처럼 외부 입력, 출력 장치상에 GUI(Graphic User Interface)를 제공하기 위한 그래픽 정보를 표시하기 위해 메모리나 저장 장치에 저장된 명령어를 들 수 있다. 다른 실시예로서, 다수의 프로세서 및(또는) 다수의 버스가 적절히 다수의 메모리 및 메모리 형태와 함께 이용될 수 있다. 또한 프로세서는 독립적인 다수의 아날로그 및(또는) 디지털 프로세서를 포함하는 칩들이 이루는 칩셋으로 구현될 수 있다.
또한 메모리는 컴퓨팅 장치 내에서 정보를 저장한다. 일례로, 메모리는 휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 다른 예로, 메모리는 비휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 또한 메모리는 예컨대, 자기 혹은 광 디스크와 같이 다른 형태의 컴퓨터 판독 가능한 매체일 수도 있다.
그리고 저장장치는 컴퓨팅 장치에게 대용량의 저장공간을 제공할 수 있다. 저장 장치는 컴퓨터 판독 가능한 매체이거나 이런 매체를 포함하는 구성일 수 있으며, 예를 들어 SAN(Storage Area Network) 내의 장치들이나 다른 구성도 포함할 수 있고, 플로피 디스크 장치, 하드 디스크 장치, 광 디스크 장치, 혹은 테이프 장치, 플래시 메모리, 그와 유사한 다른 반도체 메모리 장치 혹은 장치 어레이일 수 있다.
상술된 실시예들은 예시를 위한 것이며, 상술된 실시예들이 속하는 기술분야의 통상의 지식을 가진 자는 상술된 실시예들이 갖는 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 상술된 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 명세서를 통해 보호 받고자 하는 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태를 포함하는 것으로 해석되어야 한다.
100: 객체추적시스템
10: 스탬프장치
11: 제 1 스탬프장치, 12: 제 2 스탬프장치
20: 객체센서
30: 사용자단말

Claims (10)

  1. 객체에 구비되는 객체센서를 이용하여 객체를 추적하는 객체추적시스템에 있어서,
    기 설정된 화각 내에 위치한 객체를 촬영하는 카메라; 및
    상기 객체센서로부터 송수신된 데이터에 기초하여 상기 객체의 위치를 식별하고, 상기 카메라의 화각내에 상기 객체가 위치되도록 상기 카메라의 촬영방향을 제어하는 제어부를 포함하는, 객체추적시스템.
  2. 제 1 항에 있어서,
    상기 객체추적시스템은,
    상기 객체센서와 데이터를 송수신한 시간에 대한 정보인 타임스탬프를 생성하는 스탬프장치를 더 포함하고,
    상기 제어부는,
    상기 객체센서로부터 상기 스탬프장치를 통해 수신된 데이터에 포함된 타임스탬프를 기초로 상기 객체의 위치를 식별하는, 객체추적시스템.
  3. 제 2 항에 있어서,
    상기 제어부는,
    제 1 스탬프장치에서 상기 객체센서로 제 1 타임스탬프가 포함된 데이터를 송신하고, 상기 객체센서로부터 제 2 타임스탬프가 포함된 데이터를 제 2 스탬프장치를 통해 수신하면 제 3 타임스탬프를 생성하여 상기 제 1 타임스탬프, 상기 제 2 타임스탬프 및 상기 제 3 타임스탬프 중 적어도 하나를 기초로 상기 객체센서의 방향을 식별하는, 객체추적시스템.
  4. 제 3 항에 있어서,
    상기 객체추적시스템은,
    상기 카메라를 회전시키는 구동장치를 더 포함하고,
    상기 제어부는,
    식별된 객체센서의 방향으로 상기 카메라의 촬영방향이 변경되도록 상기 구동장치를 제어하는, 객체추적시스템.
  5. 객체추적시스템이 객체에 구비되는 객체센서를 이용하여 객체를 추적하는 방법에 있어서,
    상기 객체센서와 데이터를 송수신하는 단계;
    송수신된 데이터에 기초하여 상기 객체의 위치를 식별하는 단계; 및
    상기 객체를 촬영하는 카메라의 기 설정된 화각 내에 상기 객체가 위치되도록 상기 카메라의 촬영방향을 제어하는 단계를 포함하는, 객체추적방법.
  6. 제 5 항에 있어서,
    상기 객체의 위치를 식별하는 단계는,
    상기 객체센서와 데이터를 송수신한 시간에 대한 정보인 타임스탬프를 생성하는 스탬프장치가 상기 객체센서로부터 수신된 데이터에 포함된 타임스탬프를 기초로 상기 객체의 위치를 식별하는 단계를 포함하는, 객체추적방법.
  7. 제 6 항에 있어서,
    상기 객체의 위치를 식별하는 단계는,
    제 1 스탬프장치에서 상기 객체센서로 제 1 타임스탬프가 포함된 데이터를 송신하는 단계;
    상기 객체센서로부터 제 2 타임스탬프가 포함된 데이터를 제 2 스탬프장치를 통해 수신하면 제 3 타임스탬프를 생성하는 단계; 및
    상기 제 1 타임스탬프, 상기 제 2 타임스탬프 및 상기 제 3 타임스탬프 중 적어도 하나를 기초로 상기 객체센서의 방향을 식별하는 단계를 포함하는, 객체추적방법.
  8. 제 7 항에 있어서,
    상기 카메라의 촬영방향을 제어하는 단계는,
    식별된 객체센서의 방향으로 상기 카메라의 촬영방향이 변경되도록 상기 카메라를 회전시키는 구동장치를 제어하는 단계를 더 포함하는, 객체추적방법.
  9. 제 5 항에 기재된 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.
  10. 객체추적시스템에 의해 수행되며, 제 5 항에 기재된 방법을 수행하기 위해 매체에 저장된 컴퓨터 프로그램.
KR1020180016915A 2017-12-11 2018-02-12 객체센서를 이용한 객체추적방법 및 시스템 KR102173960B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170169720 2017-12-11
KR20170169720 2017-12-11

Publications (2)

Publication Number Publication Date
KR20190069267A true KR20190069267A (ko) 2019-06-19
KR102173960B1 KR102173960B1 (ko) 2020-11-04

Family

ID=67104675

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180016915A KR102173960B1 (ko) 2017-12-11 2018-02-12 객체센서를 이용한 객체추적방법 및 시스템

Country Status (1)

Country Link
KR (1) KR102173960B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230025845A (ko) * 2021-05-18 2023-02-23 주식회사 쓰리아이 휴대 단말기와 연동하여 트래킹 기능을 제공하는 단말기 거치대

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100018363A (ko) * 2008-08-06 2010-02-17 김수종 이동 객체의 자동 위치추적 시스템
JP2015100075A (ja) * 2013-11-20 2015-05-28 株式会社東芝 画像処理装置、システムおよび方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100018363A (ko) * 2008-08-06 2010-02-17 김수종 이동 객체의 자동 위치추적 시스템
JP2015100075A (ja) * 2013-11-20 2015-05-28 株式会社東芝 画像処理装置、システムおよび方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230025845A (ko) * 2021-05-18 2023-02-23 주식회사 쓰리아이 휴대 단말기와 연동하여 트래킹 기능을 제공하는 단말기 거치대

Also Published As

Publication number Publication date
KR102173960B1 (ko) 2020-11-04

Similar Documents

Publication Publication Date Title
US11455738B2 (en) Electronic device and method for applying image effect to images obtained using image sensor
KR102666977B1 (ko) 전자 장치 및 전자 장치의 영상 촬영 방법
JP6151323B2 (ja) 動的テンプレート追跡
US11450055B2 (en) Displaying method, animation image generating method, and electronic device configured to execute the same
CN105282430B (zh) 使用照片的构图信息的电子装置及使用该装置的拍摄方法
US11006030B2 (en) Method and electronic device for acquiring image by using camera comprising driving apparatus capable of rotating mirror
US10003785B2 (en) Method and apparatus for generating images
US20150296317A1 (en) Electronic device and recording method thereof
KR102149448B1 (ko) 이미지를 처리하기 위한 전자 장치 및 방법
US11637968B2 (en) Image photographing method of electronic device and electronic device
KR102038128B1 (ko) 객체센서를 이용한 구도 설정 방법 및 시스템
US20170099427A1 (en) Methods and apparatuses for providing improved autofocus using curve-fitting
KR102223308B1 (ko) 영상처리 방법 및 이를 구현한 전자 장치
US20160027202A1 (en) Displaying method, animation image generating method, and electronic device configured to execute the same
KR102501713B1 (ko) 영상 표시 방법 및 그 전자장치
KR20180092163A (ko) 비디오 재생을 위한 전자 장치 및 서버
KR102173960B1 (ko) 객체센서를 이용한 객체추적방법 및 시스템
KR102151705B1 (ko) 영상 획득 방법 및 그 방법을 처리하는 전자 장치
KR101958817B1 (ko) 시점에 기초하여 적응적으로 기준점이 변하는 가상 패드 제공 방법 및 장치
KR102400790B1 (ko) Vr 영상 제작 방법, 이를 수행하기 위한 장치 및 시스템
KR102108205B1 (ko) 스마트 디바이스 애플리케이션을 위한 장면 기반 오류 검출 방법 및 그를 수행하는 오류 검출 장치
KR20210067206A (ko) 동영상 요약 장치 및 동영상 요약 방법
KR20230069394A (ko) 가축 촬영 동영상 내 프레임의 자동 선정 장치 및 방법
KR20230094429A (ko) 불법카메라 탐지 방법 및 장치
EP3629140A1 (en) Displaying method, animation image generating method, and electronic device configured to execute the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant