KR101692643B1 - Low-power wireless camera and sensor system - Google Patents

Low-power wireless camera and sensor system Download PDF

Info

Publication number
KR101692643B1
KR101692643B1 KR1020150161920A KR20150161920A KR101692643B1 KR 101692643 B1 KR101692643 B1 KR 101692643B1 KR 1020150161920 A KR1020150161920 A KR 1020150161920A KR 20150161920 A KR20150161920 A KR 20150161920A KR 101692643 B1 KR101692643 B1 KR 101692643B1
Authority
KR
South Korea
Prior art keywords
camera
image
time
communication device
information
Prior art date
Application number
KR1020150161920A
Other languages
Korean (ko)
Inventor
정종필
양진영
경종민
Original Assignee
재단법인 다차원 스마트 아이티 융합시스템 연구단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 다차원 스마트 아이티 융합시스템 연구단 filed Critical 재단법인 다차원 스마트 아이티 융합시스템 연구단
Priority to KR1020150161920A priority Critical patent/KR101692643B1/en
Priority to CN201611136132.2A priority patent/CN107018318B/en
Application granted granted Critical
Publication of KR101692643B1 publication Critical patent/KR101692643B1/en

Links

Images

Classifications

    • H04N5/2257
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

A communication device communicating with a camera according to an embodiment of the present invention includes: a wireless communication interface for wireless communication between the camera and the communication device; a position sensor which detects the position of the communication device; and a processing unit which estimates the photographing position of an image from information about an image photographing point measured by the camera, the image received from the camera, and the position of the communication device. Accordingly, the present invention can operate the camera with low power by adding position information and time information to the image photographed by the camera.

Description

저전력 무선 카메라 및 센서 시스템{LOW-POWER WIRELESS CAMERA AND SENSOR SYSTEM}[0001] LOW-POWER WIRELESS CAMERA AND SENSOR SYSTEM [0002]

아래의 설명은 카메라에 관한 것으로, 저전력 카메라를 기반으로 영상을 제공하는 방법 및 시스템에 관한 것이다.
The following description relates to a camera and relates to a method and system for providing an image based on a low power camera.

최근 디지털 카메라 및 카메라 내장형 모바일 기기들의 급속한 보급에 따라 간단한 조작으로 손쉽게 촬영할 수 있는 디지털 영상의 촬영이 일상화되었다. 사용자가 다수의 촬영 이미지들에 대해 각각의 촬영 상황을 기억하는 것이 쉽지 않기 때문에 카메라는 촬영 이미지들에 위치 정보 및 시간 정보를 부가하는 형태로 제공되어 왔다.In recent years, with the rapid spread of digital cameras and mobile devices with built-in cameras, it has become common practice to shoot digital images that can be easily taken with simple operation. Since it is not easy for the user to memorize the respective photographing situations for a plurality of photographed images, the camera has been provided in the form of adding position information and time information to photographed images.

하지만 종래의 카메라들은 GPS 센서를 내장하고 있어 GPS 신호의 수신과 수신된 신호의 연산 처리 등을 지속적으로 수행하기 때문에 전력 소비가 크다는 문제점이 있다. 이에 따라 GPS로 인하여 소비되는 전력을 적응적으로 제어하는 기술과 배터리 기술을 결합하여 문제점을 해결하였지만, GPS 센서가 지속적으로 가동하기 때문에 근본적인 전력 소비 문제를 해결하지 못하였다.However, the conventional cameras have a built-in GPS sensor, which causes a problem of high power consumption because GPS signal reception and calculation processing of the received signal are continuously performed. Accordingly, the problem of solving the problem is solved by combining the technology for adaptively controlling the power consumed by the GPS and the battery technology. However, since the GPS sensor continuously operates, the fundamental power consumption problem can not be solved.

선행문헌: 한국공개특허 제10-2009-0106164호, 한국공개특허 제10-2013-0103949, 한국등록특허 제10-1473866호
Prior Art Documents: Korean Patent Laid-Open No. 10-2009-0106164, Korean Patent Publication No. 10-2013-0103949, Korean Patent No. 10-1473866

실시예들에 따르면, 카메라와 통신하는 통신 장치의 GPS센서를 이용하는 저전력 무선 카메라를 제안한다.According to embodiments, a low power wireless camera using a GPS sensor of a communication device in communication with a camera is proposed.

실시예들에 따르면, 저전력 카메라, 카메라와 통신하는 통신 장치 및 클라우드 서버를 기반으로 영상을 제공하는 방안을 제안한다.
According to embodiments, a method of providing images based on a low power camera, a communication device communicating with a camera, and a cloud server is proposed.

일 실시예에 따르면, 카메라와 통신하는 통신 장치는, 상기 카메라와 상기 통신 장치 사이의 무선 통신을 위한 무선 통신 인터페이스; 및 상기 통신 장치의 위치를 검출하는 위치 센서; 상기 통신 장치의 위치, 상기 카메라로부터 수신된 영상 및 상기 카메라에 의하여 측정된 상기 영상이 촬영되는 시점에 대한 정보로부터 상기 영상의 촬영 위치를 추정하는 처리부를 포함할 수 있다. According to one embodiment, a communication device in communication with a camera comprises: a wireless communication interface for wireless communication between the camera and the communication device; And a position sensor for detecting a position of the communication device; And a processor for estimating a photographing position of the image from the position of the communication device, the image received from the camera, and the information about when the image measured by the camera is photographed.

일측에 따르면, 상기 처리부는, 상기 카메라에 의하여 상기 영상이 촬영된 제1 시점과 상기 카메라에 의하여 상기 촬영된 영상이 전송되는 제2 시점 사이의 차를 이용하여 상기 영상이 촬영된 위치를 추정할 수 있다.According to one aspect, the processing unit estimates a position at which the image is photographed by using a difference between a first point of time at which the image is photographed by the camera and a second point of time at which the photographed image is transmitted by the camera .

또 다른 일측에 따르면, 상기 처리부는, 상기 카메라로부터 상기 영상이 촬영됨에 따라 기록된 제1 시점에 대응하는 제1 시점값 및 상기 카메라로부터 상기 촬영된 영상이 전송되는 제2 시점에 대응하는 제2 시점값을 수신하고, 상기 카메라로부터 상기 영상이 전송되는 제2 시점값에 대응하는 GPS 시간을 추출할 수 있다. According to another aspect of the present invention, the processing unit may further include a second viewpoint value corresponding to a first point of time recorded as the image is captured from the camera, and a second viewpoint value corresponding to a second point of time at which the captured image is transmitted from the camera, And may extract a GPS time corresponding to a second viewpoint value at which the image is transmitted from the camera.

또 다른 일측에 따르면, 상기 처리부는, 상기 카메라로부터 수신된 제2 시점값에 대응하는 GPS 시간을 기반으로 상기 제1 시점값에 대응하는 GPS 시간을 추정하여 상기 카메라에서 영상이 촬영된 시점을 판단할 수 있다. According to another aspect of the present invention, the processing unit estimates a GPS time corresponding to the first viewpoint value based on a GPS time corresponding to a second viewpoint value received from the camera, can do.

또 다른 일측에 따르면, 상기 처리부는, 일정 주기로 상기 카메라의 위치 정보 및 시간 정보에 대한 로그를 기록할 수 있다. According to another aspect of the present invention, the processing unit may record a log of the camera position information and time information at regular intervals.

또 다른 일측에 따르면, 상기 처리부는, 일정 주기로 상기 카메라의 위치 정보 및 시간 정보가 기록된 로그와 상기 촬영된 영상의 시점을 기반으로 상기 카메라로부터 상기 영상이 촬영된 시점에서의 촬영 위치를 판단할 수 있다.According to another aspect of the present invention, the processing unit determines a photographing position at a time point at which the image is photographed from the camera based on a log in which the positional information and time information of the camera are recorded at regular intervals and a viewpoint of the photographed image .

또 다른 일측에 따르면, 상기 처리부는, 상기 GPS 시간을 기준으로 상기 시점값을 재설정함으로써 동기화할 수 있다. According to another aspect, the processing unit can synchronize by resetting the viewpoint value based on the GPS time.

또 다른 일측에 따르면, 상기 처리부는, 상기 통신 장치의 위치, 상기 카메라로부터 수신된 영상 및 상기 카메라에 의하여 측정된 상기 영상이 촬영되는 시점에 대한 정보 및 상기 영상의 촬영 위치에 대한 정보를 클라우드 서버로 전송할 수 있다. According to another aspect of the present invention, the processing unit may transmit information about a position of the communication device, an image received from the camera, a time when the image measured by the camera is captured, Lt; / RTI >

일 실시예에 따르면, 카메라와 통신하는 통신 방법은, 상기 카메라와 통신 장치 사이의 무선 통신을 위한 무선 통신 인터페이스를 제공하는 단계; 및 위치 센서로부터 상기 통신 장치의 위치를 검출하는 단계; 및 상기 통신 장치의 위치, 상기 카메라로부터 수신된 영상 및 상기 카메라에 의하여 측정된 상기 영상이 촬영되는 시점에 대한 정보로부터 상기 영상의 촬영 위치를 추정하는 단계를 포함할 수 있다.According to one embodiment, a method for communicating with a camera includes providing a wireless communication interface for wireless communication between the camera and the communication device; And detecting the position of the communication device from the position sensor; And estimating a photographing position of the image from information on a position of the communication device, an image received from the camera, and a time when the image measured by the camera is photographed.

일측에 따르면, 상기 영상의 촬영 위치를 추정하는 단계는, 상기 카메라에 의하여 상기 영상이 촬영된 제1 시점과 상기 카메라에 의하여 상기 촬영된 영상이 전송되는 제2 시점 사이의 차를 이용하여 상기 영상이 촬영된 위치를 추정하는 단계를 포함할 수 있다.According to one aspect, the step of estimating the photographing position of the image may include estimating a photographing position of the image by using a difference between a first point of time at which the image is photographed by the camera and a second point of time at which the photographed image is transmitted by the camera, And estimating the photographed position.

또 다른 일측에 따르면, 상기 영상의 촬영 위치를 추정하는 단계는, 상기 카메라로부터 상기 영상이 촬영됨에 따라 기록된 제1 시점에 대응하는 제1 시점값 및 상기 카메라로부터 상기 촬영된 영상이 전송되는 제2 시점에 대응하는 제2 시점값을 수신하고, 상기 카메라로부터 상기 영상이 전송되는 제2 시점값에 대응하는 GPS 시간을 추출하는 단계를 포함할 수 있다.According to another aspect of the present invention, the step of estimating the photographing position of the image may include calculating a first viewpoint value corresponding to the first point of time recorded as the image is captured from the camera, Receiving a second viewpoint value corresponding to two viewpoints and extracting a GPS time corresponding to a second viewpoint value at which the image is transmitted from the camera.

또 다른 일측에 따르면, 상기 영상의 촬영 위치를 추정하는 단계는, 상기 카메라로부터 수신된 제2 시점값에 대응하는 GPS 시간을 기반으로 상기 제1 시점값에 대응하는 GPS 시간을 추정하여 상기 카메라에서 영상이 촬영된 시점을 판단하는 단계를 포함할 수 있다.According to another aspect of the present invention, the step of estimating the photographing position of the image estimates a GPS time corresponding to the first viewpoint value based on a GPS time corresponding to a second viewpoint value received from the camera, And determining a point of time when the image is photographed.

또 다른 일측에 따르면, 상기 영상의 촬영 위치를 추정하는 단계는, 일정 주기로 상기 카메라의 위치 정보 및 시간 정보에 대한 로그를 기록하는 판단하는 단계를 포함할 수 있다.According to another aspect of the present invention, the step of estimating the photographing position of the image may include a step of recording a log of the position information and the time information of the camera at regular intervals.

또 다른 일측에 따르면, 상기 영상의 촬영 위치를 추정하는 단계는, 일정 주기로 상기 카메라의 위치 정보 및 시간 정보가 기록된 로그와 상기 촬영된 영상의 시점을 기반으로 상기 카메라로부터 상기 영상이 촬영된 시점에서의 촬영 위치를 판단하는 단계를 포함할 수 있다.According to another aspect of the present invention, the step of estimating the photographing position of the image includes a step of detecting a position of the camera at a time point when the image is photographed from the camera based on the log of the position information and the time information of the camera, And determining a photographing position in the photographing area.

또 다른 일측에 따르면, 상기 영상의 촬영 위치를 추정하는 단계는, 상기 GPS 시간을 기준으로 상기 시점값을 재설정함으로써 동기화하는 단계를 포함할 수 있다.According to another aspect of the present invention, estimating the photographing position of the image may include synchronizing by resetting the viewpoint value based on the GPS time.

또 다른 일측에 따르면, 상기 영상의 촬영 위치를 추정하는 단계는, 상기 통신 장치의 위치, 상기 카메라로부터 수신된 영상 및 상기 카메라에 의하여 측정된 상기 영상이 촬영되는 시점에 대한 정보 및 상기 영상의 촬영 위치에 대한 정보를 클라우드 서버로 전송하는 단계를 포함할 수 있다.
According to another aspect of the present invention, the step of estimating the photographing position of the image includes the step of estimating the position of the communication device, the information about the position of the communication device, the image received from the camera, And transmitting information on the location to the cloud server.

일 실시예에 따른 카메라와 통신하는 통신 장치는 카메라로부터 촬영된 영상에 위치 정보 및 시간 정보를 부가함으로써 카메라가 저전력으로 동작할 수 있도록 제공할 수 있다.A communication device communicating with a camera according to an exemplary embodiment may provide location information and time information to a captured image from a camera so that the camera can operate at a low power.

일 실시예에 따른 카메라, 카메라와 통신하는 통신 장치 및 클라우드 서버의 동작을 통하여 스마트 모빌리티 또는 자전거용 영상 기록 장치 및 자동차용 영상 기록 장치 등에도 적용 가능하다.
The present invention is also applicable to an image recording apparatus for smart mobility or a bicycle, an image recording apparatus for an automobile, etc. through the operation of a camera, a communication device communicating with the camera, and a cloud server according to an embodiment.

도 1은 일 실시예에 따른 카메라의 구성을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 통신 장치의 개괄적인 동작을 설명하기 위한 도면이다.
도 3 및 도 4는 일 실시예예 따른 카메라, 통신 장치 및 클라우드 서버의 동작을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 카메라, 통신 장치 및 클라우드 서버의 통신 방법을 설명하기 위한 흐름도이다.
도 6은 일 실시예에 따른 통신 장치의 구성을 설명하기 위한 블록도이다.
1 is a view for explaining a configuration of a camera according to an embodiment.
2 is a diagram for explaining a general operation of a communication apparatus according to an embodiment.
FIGS. 3 and 4 are views for explaining the operation of a camera, a communication device, and a cloud server according to an embodiment.
5 is a flowchart illustrating a communication method of a camera, a communication device, and a cloud server according to an embodiment.
6 is a block diagram illustrating a configuration of a communication apparatus according to an embodiment.

이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

실시예들은 저전력 무선 카메라에 관한 것으로, 저전력 무선 카메라를 제안하기 위하여 카메라, 카메라와 통신하는 장치 및 클라우드 서버(Cloud Server) 사이의 동작을 설명한다. 이때, 카메라에는 RTC가 존재하지만 부정확하고, 통신 장치에는 정확한 시간 정보 및 위치 정보에 대한 로그(Log)를 기록하고 있음을 전제로 한다. Embodiments relate to a low power wireless camera, which describes the operation between a camera, a device communicating with a camera, and a cloud server to propose a low power wireless camera. At this time, it is presupposed that RTC exists in the camera but it is inaccurate, and the communication device records accurate time information and log of position information.

도 1은 일 실시예에 따른 카메라의 구성을 설명하기 위한 도면이다.1 is a view for explaining a configuration of a camera according to an embodiment.

카메라(100)는 CMOS Image Sensor(110), ISP(Image Signal Processor)(120), 스토리지(Storage)(130), MCU(Micro Controller Unit)(140) 및 PMU(Power Management Unit)(150)를 포함할 수 있다. 카메라(100)는 통신 장치와 통신하기 위한 블루투스 모듈을 더 포함할 수 있다. The camera 100 includes a CMOS image sensor 110, an ISP (Image Signal Processor) 120, a storage 130, an MCU 140, and a PMU 150 . The camera 100 may further include a Bluetooth module for communicating with the communication device.

카메라(100)는 타이머 또는 이벤트가 감지됨에 따라 피사체를 촬영할 수 있다.The camera 100 can photograph a subject as a timer or an event is detected.

CMOS Image Sensor(110)는 촬영된 아날로그 신호를 전기적 신호로 변환할 수 있다.The CMOS image sensor 110 may convert the photographed analog signal into an electrical signal.

ISP(Image Signal Processor)(120)는 촬영된 이미지를 JPEG 인코더로 압축할 수 있다. The ISP (Image Signal Processor) 120 can compress the photographed image with a JPEG encoder.

스토리지(Storage)(130)는 이미지가 압축됨에 따라 생성된 영상을 저장할 수 있다. The storage 130 may store the generated image as the image is compressed.

PMU(150)는 카메라(100)의 전력을 관리하기 위한 것으로, 솔라 패널(Solar Panel)로 구성될 수 있으며, 배터리(152)를 관리할 수 있다.The PMU 150 is for managing the power of the camera 100 and may be configured as a solar panel and can manage the battery 152.

MCU(140)는 타이머 또는 이벤트가 감지됨에 따라 피사체가 촬영됨에 따라 CIS(110)로부터 촬영된 피사체에 대한 아날로그 신호를 전기적 신호로 변환하도록 제공할 수 있다. MCU(140)는 촬영된 이미지를 ISP(Image Signal Processor)(120)에서 JPEG 인코더로 압축하도록 제공할 수 있다. MCU(140)는 이미지가 압축됨에 따라 생성된 영상을 상기 스토리지에 저장하도록 제공할 수 있다. MCU(140)는 스토리지에 저장된 영상을 무선 통신을 기반으로 스마트 기기로 전송하도록 제공할 수 있다. 예를 들면, MCU(140)는 카메라의 블루투스 등과 같은 무선 통신 인터페이스를 통하여 통신 장치와 통신할 수 있도록 제공할 수 있다.The MCU 140 may provide an analog signal for an object photographed from the CIS 110 to an electrical signal as the subject is photographed as a timer or an event is detected. The MCU 140 may provide the photographed image to be compressed by a JPEG encoder in an ISP (Image Signal Processor) The MCU 140 may provide for storing the generated image as the image is compressed in the storage. The MCU 140 can provide the image stored in the storage to be transmitted to the smart device based on the wireless communication. For example, the MCU 140 may be capable of communicating with a communication device via a wireless communication interface such as a camera Bluetooth.

일 실시예에 따른 카메라는 GPS 시간 또는 GPS 위치 등을 측정하기 위한 GPS 모듈없이 구성되기 때문에 GPS 모듈을 구동하기 위한 전력을 소비하지 않으며, 최소한의 전력만을 소비하게 된다. 다만, 카메라에 GPS 모듈이 제거되는 경우, 카메라에 의해 촬영된 영상의 촬영 시점, 촬영 위치가 제대로 측정되지 않을 수 있다. 그러나, 본 발명의 실시예는 카메라에서 GPS 모듈이 제거되더라도, 카메라에 의해 촬영된 영상의 촬영 시점, 촬영 위치를 파악할 수 있는 기술을 제공한다.Since the camera according to one embodiment is configured without a GPS module for measuring the GPS time or the GPS position, the camera does not consume power for driving the GPS module and consumes only a minimum amount of power. However, when the GPS module is removed from the camera, the photographing position and the photographing position of the image photographed by the camera may not be properly measured. However, the embodiment of the present invention provides a technique to grasp the photographing time and photographing position of the image photographed by the camera even if the GPS module is removed from the camera.

도 2는 일 실시예에 따른 통신 장치의 개괄적인 동작을 설명하기 위한 도면이다.2 is a diagram for explaining a general operation of a communication apparatus according to an embodiment.

통신 장치는 카메라와 통신하는 장치로서, 스마트폰, 태블릿 PC, 노트북 컴퓨터 등과 같은 모바일 기기를 포함할 수 있으며, 카메라(200) 및 클라우드 서버(220)와의 데이터 송수신을 통하여 동작될 수 있다. 이때, 통신 장치를 스마트 기기를 예를 들어 설명하기로 한다. The communication device may include a mobile device such as a smart phone, a tablet PC, a notebook computer, and the like, and may be operated through data transmission / reception with the camera 200 and the cloud server 220. In this case, the communication device will be described as a smart device as an example.

스마트 기기(210)는 예를 들면, 스마트 폰(smart phone), 웨어러블 기기, 휴대폰, 네비게이션, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC 등과 같이 이동형 단말일 수 있다. 일례로 스마트 기기(210)는 무선 또는 유선 통신 방식을 이용하여 네트워크를 통해 다른 카메라 및/또는 클라우드 서버(220)와 통신할 수 있다.The smart device 210 may be a mobile terminal such as a smart phone, a wearable device, a mobile phone, a navigation device, a PDA (personal digital assistant), a portable multimedia player (PMP) For example, the smart device 210 may communicate with other cameras and / or the cloud server 220 over the network using a wireless or wired communication scheme.

스마트 기기(210)는 GPS 시간을 기준으로 RTC 값을 재설정함으로써 동기화할 수 있다. 여기서, RTC에 대해서는 아래에서 다시 설명하기로 한다.The smart device 210 may be synchronized by resetting the RTC value based on the GPS time. Here, the RTC will be described below again.

카메라(200)는 전력을 최소화하기 위한 무선 카메라로서, 타이머 또는 이벤트가 감지되었을 경우에 동작될 수 있다. 이를 통하여 인위적인 충전이 불필요하게 된다. 카메라(200)는 GPS 센서없이 동작되기 때문에 GPS 센서에 소요되는 전력을 절감할 수 있다.The camera 200 is a wireless camera for minimizing power, and can be operated when a timer or an event is detected. This makes artificial charging unnecessary. Since the camera 200 operates without the GPS sensor, the power consumed by the GPS sensor can be reduced.

카메라(200), 스마트 기기(210) 및 클라우드 서버(220)의 통신 방식은 제한되지 않으며, 이동 통신망을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 방식을 사용할 수 있다. 예를 들면, 블루투스를 통하여 스마트 기기(210)와 카메라(200)가 통신할 수 있다. The communication method of the camera 200, the smart device 210, and the cloud server 220 is not limited, and a short-range wireless communication method between the devices as well as a communication method utilizing the mobile communication network can be used. For example, the smart device 210 and the camera 200 can communicate with each other via Bluetooth.

스마트 기기(210)는 카메라(200)에 의하여 촬영된 영상을 수신하고, 그 영상과 다른 파라미터(RTC 등)들을 이용하여 영상의 촬영 시점 또는 촬영 위치를 추정한다. 그리고, 영상의 촬영 시점 또는 촬영 위치와 영상을 클라우드 서버(220)로 전송할 수 있다.The smart device 210 receives an image photographed by the camera 200 and estimates a photographing time point or a photographing position of the image by using parameters (RTC, etc.) different from the image. Then, the photographing time point or the photographing position and the image of the image can be transmitted to the cloud server 220.

클라우드 서버(220)는 스마트 기기(210)로부터 전송된 재가공된 영상(영상, 영상의 촬영 위치, 영상의 촬영 시간)을 저장할 수 있고, 재가공된 영상 적어도 하나의 사용자 기기로 다운로드할 수 있다.The cloud server 220 may store the re-processed images (images, image capturing positions, and image capturing times) transmitted from the smart device 210, and may download the re-processed images to at least one user device.

도 3 및 도 4는 일 실시예예 따른 카메라, 통신 장치 및 클라우드 서버의 동작을 설명하기 위한 도면이다.FIGS. 3 and 4 are views for explaining the operation of a camera, a communication device, and a cloud server according to an embodiment.

도 3 및 도 4에서도 마찬가지로 통신 장치를 스마트 기기로 예를 들어 설명하기로 한다. 3 and 4, the communication device will be described as a smart device by way of example.

카메라(300, 400)는 저전력으로 구동시키기 위한 것으로, CMOS Image Sensor, ISP, 스토리지, MCU 및 PMU를 포함할 수 있다. 카메라(300, 400)는 통신 장치와 통신하기 위하여 블루투스 모듈이 탑재되어 있을 수 있다. The cameras 300 and 400 are for driving with low power, and may include a CMOS image sensor, an ISP, a storage, an MCU, and a PMU. The cameras 300 and 400 may be equipped with a Bluetooth module to communicate with the communication device.

예를 들면, 카메라(300, 400)가 피사체를 촬영한다고 가정한다. 이 때, 카메라(300, 400)는 사용자의 촬영 명령에 응답하여 피사체를 촬영하여 정지 영상, 동영상을 생성할 수도 있다. 또한, 카메라(300, 400)는 미리 설정된 이벤트가 발생하거나, 미리 설정된 타이머가 만료됨을 감지함으로써, 피사체를 촬영할 수도 있다. 특히, 카메라(300, 400)가 자전거, 오토바이, 자동차, 스마트 모빌리티 등과 같은 운송 수단에 설치되는 경우, 카메라(300, 400)는 사고 이벤트, 충격 이벤트가 발생함을 감지하여 피사체를 촬영할 수도 있다.For example, it is assumed that the cameras 300 and 400 photograph a subject. At this time, the cameras 300 and 400 may generate a still image and a moving image by photographing a subject in response to a user's photographing command. In addition, the cameras 300 and 400 can photograph a subject by detecting that a predetermined event occurs or a preset timer expires. In particular, when the cameras 300 and 400 are installed in a transportation means such as a bicycle, a motorcycle, a car, or a smart mobility, the cameras 300 and 400 may detect the occurrence of an accident event or a shock event and photograph the subject.

카메라(300, 400)는 피사체가 촬영됨에 따라 아날로그 신호를 전기적 신호로 변환하여 이미지를 생성하고, 생성된 이미지에 대하여 ISP(이미지 신호 프로세서) 및 JPEG 인코더로 압축을 수행할 수 있다. 카메라(300, 400)는 이미지가 압축됨에 따라 생성된 영상을 스토리지에 저장할 수 있다. The cameras 300 and 400 convert an analog signal into an electrical signal to generate an image as the subject is photographed, and compress the generated image with an ISP (image signal processor) and a JPEG encoder. The cameras 300 and 400 may store images generated as the images are compressed in the storage.

카메라(300, 400)에 RTC(Real Time Counter, Real Time Clock)가 포함되어 있어 RTC 값(여기서, RTC 값은 카메라에서의 시점을 나타낸다)을 측정할 수 있다. 예를 들면, 카메라는 영상이 촬영되는 시점에 대응하는 RTC 값을 획득할 수 있다. 다시 말해서, 카메라(300, 400)는 촬영된 영상 및 촬영된 영상의 RTC 값을 저장할 수 있다. The cameras 300 and 400 include an RTC (Real Time Counter) to measure the RTC value (here, the RTC value indicates the time point in the camera). For example, the camera can acquire the RTC value corresponding to the time point at which the image is photographed. In other words, the cameras 300 and 400 can store the RTC values of the photographed image and the photographed image.

카메라(300, 400)는 스토리지에 저장된 영상을 스마트 기기(310, 410)로 전송할 수 있다. 스마트 기기(310, 410)는 카메라(300, 400)로부터 전송되는 영상과 RTC 값을 수신할 수 있다. The cameras 300 and 400 may transmit images stored in the storage to the smart devices 310 and 410. [ The smart devices 310 and 410 may receive the images and RTC values transmitted from the cameras 300 and 400.

스마트 기기(310, 410)는 어플리케이션을 동작시킴으로써 카메라를 제어하거나 영상을 재가공할 수 있다. 이때, 스마트 기기(310, 410)의 어플리케이션 프로세서(Application Processor)(411)에 의하여 카메라를 제어하거나 영상을 재가공할 수 있다. 사용자는 스마트 기기(310, 410)의 어플리케이션을 실행함으로써 카메라를 제어할 수 있다. 예를 들면, 사용자는 스마트 기기(310, 410)의 어플리케이션에 접속함으로써 카메라의 전원을 On/Off 하거나, 카메라의 셔터를 동작시키는 명령을 제어할 수 있다. The smart devices 310 and 410 may control the camera or rework the images by operating the application. At this time, the application processor 411 of the smart devices 310 and 410 may control the camera or re-process the image. The user can control the camera by running applications of the smart devices 310 and 410. [ For example, the user can control the power on / off of the camera by connecting to the applications of the smart devices 310 and 410, or commands to operate the shutter of the camera.

스마트 기기(310, 410)는 복수의 센서로부터 센서 정보를 획득할 수 있다. 스마트 기기(310, 410)는 GPS 센서로부터 글로벌하게 측정 가능한 시간 정보 및 위치 정보를 획득할 수 있고, 환경 센서, 바이오 센서로부터 각각의 정보를 획득할 수 있다. 예를 들면, 스마트 기기(310, 410)는 습도 센서로부터 습도 정보를, 온도 센서로부터 온도 정보를, 심박 센서로부터 심박 정보를, 여러 가지 센서로부터 획득된 정보를 기반으로 추출된 감정 정보를 획득할 수 있다. 스마트 기기의 센서들로부터 획득한 정보를 스마트 기기(310, 410)의 어플리케이션 프로세서(411)로 전송할 수 있다. 스마트 기기(310, 410)의 어플레케이션 프로세서(411)는 각각의 센서들로부터 획득된 정보를 기반으로 영상이 촬영된 시점 및 영상의 촬영 위치, 영상이 촬영된 위치/시간에서의 여러 센서 정보 등을 판단할 수 있다. The smart devices 310 and 410 may obtain sensor information from a plurality of sensors. The smart devices 310 and 410 can acquire globally measurable time information and position information from the GPS sensor and acquire respective information from the environment sensor and the biosensor. For example, the smart devices 310 and 410 acquire humidity information from a humidity sensor, temperature information from a temperature sensor, heartbeat information from a heartbeat sensor, and emotion information extracted based on information obtained from various sensors . The information obtained from the sensors of the smart device can be transmitted to the application processor 411 of the smart devices 310 and 410. [ The application processor 411 of the smart devices 310 and 410 may acquire various sensor information in the position and time at which the image was photographed and the photographed position and the photographed position and time based on the information obtained from the respective sensors, And so on.

예를 들어 스마트 기기(310, 410)는 카메라의 의하여 영상이 촬영된 제1 시점과 카메라에 의하여 촬영된 영상이 전송되는 제2 시점의 차를 이용하여 영상이 촬영된 위치를 추정할 수 있다. 더욱 상세하게는, 스마트 기기(310, 410)는 카메라(300, 400)로부터 영상이 촬영됨에 따라 기록된 제1 시점에 대응하는 제1 시점값 및 카메라(300, 400)로부터 촬영된 영상이 전송되는 제2 시점에 대응하는 제2 시점값을 수신하고, 카메라(300, 400)로부터 영상이 전송되는 제2 시점값에 대응하는 GPS 시간을 추출할 수 있다. 스마트 기기(310, 410)는 카메라로부터 수신된 제2 시점에 대응하는 GPS 시간을 기반으로 제1 시점값에 대응하는 GPS 시간을 추정하여 카메라(300, 400)에서 영상이 촬영된 시점을 판단할 수 있다. 이때, 스마트 기기(310, 410)는 일정 주기로 카메라의 위치 정보 및 시간 정보에 대한 로그를 기록하고 있을 수 있다. 스마트 기기(310, 410)는 일정 주기로 카메라의 위치 정보 및 시간 정보가 기록된 로그와 촬영된 영상의 시점을 기반으로 카메라로부터 영상이 촬영된 시점에서의 촬영 위치를 판단할 수 있다. For example, the smart devices 310 and 410 can estimate a position at which the image is captured using a difference between a first point of time at which the image is captured by the camera and a second point at which the image captured by the camera is transmitted. More specifically, the smart devices 310 and 410 transmit the first viewpoint value corresponding to the first point-in-time recorded and the image photographed from the cameras 300 and 400 as the images are taken from the cameras 300 and 400, And extract a GPS time corresponding to a second viewpoint value at which the image is transmitted from the cameras 300 and 400. In this case, The smart devices 310 and 410 estimate the GPS time corresponding to the first viewpoint value based on the GPS time corresponding to the second viewpoint received from the camera and determine the time when the camera 300 or 400 captures the image . At this time, the smart devices 310 and 410 may be recording logs of the position information and time information of the camera at regular intervals. The smart devices 310 and 410 can determine the photographing position at the time when the image is taken from the camera based on the log of the position information and the time information of the camera and the viewpoint of the photographed image at regular intervals.

예를 들면, 카메라(300, 400)의 RTC 값이 0인 경우에, 스마트 기기(310, 410)의 GPS 시간은 12시29분 30초라고 가정한다. 카메라(300, 400)에서 영상이 촬영되는 시점에 대응하는 RTC 값이 30이고, 카메라(300, 400)로부터 스마트 기기(310, 410)로 영상이 전송되는 시점에서의 RTC 값이 60 이라고 가정하자. 스마트 기기(310, 410)는 카메라(300, 400)로부터 영상이 전송되는 시점들에서의 GPS 시간을 기록할 수 있다. For example, if the RTC value of the cameras 300 and 400 is 0, the GPS time of the smart devices 310 and 410 is assumed to be 12:29:30. It is assumed that the RTC value corresponding to the time when the image is captured at the cameras 300 and 400 is 30 and the RTC value at the time when the images are transmitted from the cameras 300 and 400 to the smart devices 310 and 410 is 60 . The smart devices 310 and 410 may record the GPS time at the time when the images are transmitted from the cameras 300 and 400. [

이 때, 카메라(300, 400)로부터 영상이 전송되는RTC 값에 대응하는 GPS 시간이 12시 30분 30초임을 추출할 수 있다. 영상이 전송되는 시점의 RTC 값에 대응하는 GPS 시간이 12시 30분 30초이므로, 스마트 기기(310, 410)는 영상이 촬영된 시점의 RTC 값에 대응하는 GPS 시간은 12시 30분 00초임을 유추할 수 있다. 마찬가지로, 스마트 기기에서 일정 주기로 카메라의 위치 정보 시간 정보에 대하여 기록된 로그와 유추된 촬영된 시점을 기반으로 카메라로부터 촬영된 시점에서의 위치를 판단할 수도 있다. At this time, it is possible to extract the GPS time corresponding to the RTC value at which the video is transmitted from the cameras 300 and 400 is 12:30:30. Since the GPS time corresponding to the RTC value at the time when the image is transmitted is 12:30:30, the GPS time corresponding to the RTC value at the time when the image was captured by the smart devices 310 and 410 is 12:30:30 . Likewise, it is also possible to determine the position of the smart device based on the log recorded with respect to the position information time information of the camera at a predetermined cycle and the captured photographed point of time from the camera.

스마트 기기(310, 410)는 클라우드 서버(320, 420)로 스마트 기기(310, 410)의 위치, 카메라(300, 400)로부터 수신된 영상 및 카메라(300, 400)에 의하여 측정된 영상이 촬영되는 시점에 대한 정보 및 영상의 촬영 위치에 대한 정보를 전송할 수 있다.The smart devices 310 and 410 transmit the location of the smart devices 310 and 410 to the cloud servers 320 and 420 and the images received from the cameras 300 and 400 and the images measured by the cameras 300 and 400 And information on the photographing position of the image can be transmitted.

또한, 예를 들면, 스마트 기기(310, 410)는 카메라(300, 400)에게 정보 데이터(예를 들면, 위치 정보, 시간 정보 등)를 제공할 수 있다. 이벤트가 발생하였을 경우, 카메라(300, 400)는 영상을 촬영할 수 있으며, 촬영된 영상을 스토리지에 저장할 수 있다. 스마트 기기(310, 410)는 카메라(300, 400)가 촬영된 시점에 대응하는 정보 데이터를 카메라(300, 400)에게 제공할 수 있고, 카메라(300, 400)는 스마트 기기(310, 410)로부터 전송받은 정보 데이터를 촬영된 영상에 부가함으로써 저장할 수 있다. In addition, for example, the smart devices 310 and 410 may provide information data (e.g., location information, time information, etc.) to the cameras 300 and 400. [ When an event occurs, the cameras 300 and 400 can shoot images and can store captured images in storage. The smart devices 310 and 410 may provide information data corresponding to the time when the cameras 300 and 400 are photographed to the cameras 300 and 400. The cameras 300 and 400 may provide information data corresponding to the smart devices 310 and 410, By adding the information data received from the camera to the photographed image.

클라우드 서버(320, 420)는 스마트 기기(310, 410)로부터 전송된 스마트 기기(310, 410)의 위치, 카메라(300, 400)로부터 수신된 영상 및 카메라(300, 400)에 의하여 측정된 영상이 촬영되는 시점에 대한 정보 및 영상의 촬영 위치에 대한 정보를 수신할 수 있다. 클라우드 서버(320, 420)는 재가공된 영상을 저장하고 있을 수 있으며, 사용자로부터 영상이 선택됨에 따라 스마트 기기에 영상을 제공함으로써 스마트 기기에 영상을 출력할 수 있다.The cloud servers 320 and 420 are connected to the location of the smart devices 310 and 410 transmitted from the smart devices 310 and 410 and the images received from the cameras 300 and 400 and the images Information on the time at which the image is photographed, and information on the photographing position of the image. The cloud servers 320 and 420 may store the re-processed images, and may output images to the smart device by providing the images to the smart device as the images are selected from the user.

도 5는 일 실시예에 따른 카메라, 통신 장치 및 클라우드 서버의 통신 방법을 설명하기 위한 흐름도이다.5 is a flowchart illustrating a communication method of a camera, a communication device, and a cloud server according to an embodiment.

단계(511)에서 카메라는 Deep power down mode에서 대기할 수 있다. 일반적으로 카메라는 평상시에는 대기 모드로 있을 수 있다. 이때, Deep power down mode는 카메라가 동작하지 않기 때문에 전력 소모가 거의 발생하지 않는다. In step 511, the camera may wait in Deep power down mode. In general, the camera may be in standby mode at normal times. At this time, Deep power down mode does not cause power consumption because the camera does not operate.

단계(512)에서 카메라는 타이머의 만료 또는 이벤트의 발생을 감지할 수 있다. 카메라는 타이머의 만료 또는 이벤트의 발생이 감지되지 않는다면 단계 511과 같이 대기 모드로 존재하고 있을 수 있다. 카메라는 타이머의 만료 또는 이벤트의 발생이 감지되는 경우, 이미지를 촬영할 수 있다(513). In step 512, the camera may sense the expiration of the timer or the occurrence of an event. The camera may be in a standby mode as in step 511 if the timer is not expired or the occurrence of an event is not detected. If the camera detects the expiration of a timer or the occurrence of an event, the camera may take an image (513).

단계(514)에서 카메라는 이미지가 촬영됨에 따라 촬영된 이미지에 대하여 ISP에 포함된 JPEG 인코더로 압축을 수행할 수 있다. In step 514, the camera may perform compression with the JPEG encoder included in the ISP for the photographed image as the image is captured.

단계(515)에서 카메라는 이미지가 압축됨에 따라 생성된 영상을 스토리지에 저장할 수 있다. In step 515, the camera may store the image generated as the image is compressed in storage.

단계(516)에서 카메라는 스마트 기기와 연결되었는지 유무가 판단될 수 있다. 이때, 카메라 및 스마트 기기는 예를 들면, 블루투스를 통하여 연결될 수 있다. 카메라 및 스마트 기기가 연결되지 않았다면, 단계(515)와 같이 영상을 스토리지에 저장한 후 프로세스를 종료할 수 있다. 카메라 및 스마트 기기가 연결되었다면, 단계(517)에서 카메라는 스토리지에 저장된 영상을 스마트 기기로 전송할 수 있다. In step 516, it may be determined whether the camera is connected to the smart device. At this time, the camera and the smart device can be connected through, for example, Bluetooth. If the camera and the smart device are not connected, the process can be terminated after the image is stored in the storage as in step 515. If the camera and the smart device are connected, the camera can transmit the image stored in the storage to the smart device in step 517. [

단계(518)에서 스마트 기기는 스마트 기기에 포함된 센서를 기반으로 정보 데이터를 수집할 수 있다. 이때, 정보 데이터는 위치 정보, 시간 정보 등과 같이 영상에 정보를 부가할 수 있는 데이터를 포함할 수 있다. 예를 들면, 스마트 기기는 GPS 센서로부터 위치 정보 및 시간 정보를 획득할 수 있고, 체온 센서로부터 온도 정보를, 습도 센서로부터 습도 정보를 획득할 수 있고, 이외의 복수의 센서들을 기반으로 감정 정보를 획득할 수도 있다. In step 518, the smart device may collect information data based on the sensors included in the smart device. At this time, the information data may include data that can add information to the image, such as location information, time information, and the like. For example, a smart device can acquire position information and time information from a GPS sensor, obtain temperature information from a body temperature sensor, humidity information from a humidity sensor, and emotion information based on a plurality of other sensors It can also be obtained.

단계(519)에서 스마트 기기는 카메라로부터 전송된 영상 및 스마트 기기로부터 획득한 정보 데이터를 기반으로 영상을 재가공할 수 있다. 스마트 기기는 카메라에 의하여 영상이 촬영된 제1 시점과 카메라에 의하여 촬영된 영상이 전송되는 제2 시점의 차를 이용하여 영상이 촬영된 위치를 추정할 수 있다. 스마트 기기는 카메라로부터 영상이 촬영됨에 따라 기록된 제1 시점에 대응하는 제1 시점값 및 카메라로부터 촬영된 영상이 전송되는 제2 시점에 대응하는 제2 시점값을 수신하고, 제2 시점값에 대응하는 GPS 시간을 추출할 수 있다. 스마트 기기는 제2 시점값에 대응하는 GPS 시간을 기반으로 제1 시점값에 대응하는 GPS 시간을 추정하여 카메라에서 영상이 촬영된 시점을 판단할 수 있다. 또한, 스마트 기기는 일정 주기로 카메라의 위치 정보 시간 정보가 기록된 로그와 촬영된 영상의 시점을 기반으로 카메라로부터 영상이 촬영된 시점에서의 촬영 위치를 판단할 수도 있다. In step 519, the smart device may re-image the image based on the image transmitted from the camera and the information data obtained from the smart device. The smart device can estimate the location where the image is captured using the difference between the first point of time at which the image is captured by the camera and the second point at which the image captured by the camera is transmitted. The smart device receives a first viewpoint value corresponding to the first recorded point and a second viewpoint value corresponding to the second viewpoint at which the captured image is transmitted as the image is captured from the camera, The corresponding GPS time can be extracted. The smart device can estimate the GPS time corresponding to the first viewpoint value based on the GPS time corresponding to the second viewpoint value to determine when the camera captured the image. In addition, the smart device may determine the photographing position at the time when the image is taken from the camera based on the log of the position information time information of the camera and the viewpoint of the photographed image at regular intervals.

스마트 기기는 카메라로부터 촬영된 영상을 스마트 기기의 위치, 카메라에 의하여 측정된 영상이 촬영되는 시점에 대한 정보 및 영상의 촬영 위치에 대한 정보를 기반으로 재가공할 수 있다. The smart device can re-image an image photographed by the camera based on the position of the smart device, information on the time when the image measured by the camera is captured, and information on the photographing position of the image.

단계(520)에서 스마트 기기는 재가공된 영상을 클라우드 서버로 전송할 수 있다. 단계(521)에서 클라우드 서버는 스마트 기기로부터 전송받은 재가공된 영상을 처리 및 서비스할 수 있다. 예를 들면, 클라우드 서버는 재가공된 영상을 저장하고 있을 수 있으며, 사용자로부터 영상이 선택됨에 따라 스마트 기기에 선택된 영상을 제공함으로써 스마트 기기에 영상을 출력할 수 있다. In step 520, the smart device may transmit the re-processed image to the cloud server. In step 521, the cloud server may process and service the reprocessed image received from the smart device. For example, the cloud server may store the reconstructed image and may output the image to the smart device by providing the selected image to the smart device as the image is selected from the user.

도 6은 일 실시예에 따른 통신 장치의 구성을 설명하기 위한 블록도이다.6 is a block diagram illustrating a configuration of a communication apparatus according to an embodiment.

통신 장치(600)는 무선 통신 인터페이스(610), 위치 센서(620) 및 처리부(630)를 포함할 수 있다.The communication device 600 may include a wireless communication interface 610, a position sensor 620 and a processing portion 630.

무선 통신 인터페이스(610)는 카메라와 통신 장치의 무선 통신을 할 수 있도록 제공할 수 있다. The wireless communication interface 610 can provide wireless communication between the camera and the communication device.

위치 센서(620)는 통신 장치의 위치를 검출할 수 있다. 예를 들면, 위치 센서(620)는 GPS와 같은 위치를 검출할 수 있는 센서를 포함할 수 있다. The position sensor 620 can detect the position of the communication device. For example, the position sensor 620 may include a sensor capable of detecting a position, such as a GPS.

처리부(630)는 통신 장치의 위치, 카메라로부터 수신된 영상 및 카메라에 의하여 측정된 영상이 촬영되는 시점에 대한 정보로부터 영상의 촬영 위치를 추정하는 포함할 수 있다. The processing unit 630 may include estimating a photographing position of the image from information on the position of the communication device, the image received from the camera, and the time when the image measured by the camera is photographed.

처리부(630)는 카메라에 의하여 영상이 촬영된 제1 시점과 카메라에 의하여 촬영된 영상이 전송되는 제2 시점 사이의 차를 이용하여 영상이 촬영된 위치를 추정할 수 있다.The processing unit 630 can estimate the position where the image was captured using the difference between the first point of time at which the image was captured by the camera and the second point at which the image captured by the camera was transmitted.

처리부(630)는 카메라로부터 영상이 촬영됨에 따라 기록된 제1 시점에 대응하는 제1 시점값 및 카메라로부터 촬영된 영상이 전송되는 제2 시점에 대응하는 제2 시점값을 수신하고, 카메라로부터 영상이 전송되는 제2 시점값에 대응하는 GPS 시간을 추출할 수 있다.The processing unit 630 receives the first viewpoint value corresponding to the first point of time recorded and the second viewpoint value corresponding to the second point of time at which the captured image is transmitted from the camera as the image is captured from the camera, The GPS time corresponding to the transmitted second viewpoint value can be extracted.

처리부(630)는 카메라로부터 수신된 제2 시점값에 대응하는 GPS 시간을 기반으로 제1 시점값에 대응하는 GPS 시간을 추정하여 카메라에서 영상이 촬영된 시점을 판단할 수 있다.The processing unit 630 can estimate the GPS time corresponding to the first viewpoint value based on the GPS time corresponding to the second viewpoint value received from the camera to determine when the camera captured the image.

처리부(630)는 일정 주기로 카메라의 위치 정보 및 시간 정보에 대한 로그를 기록할 수 있다. The processing unit 630 may record a log of camera position information and time information at regular intervals.

처리부(630)는 일정 주기로 카메라의 위치 정보 및 시간 정보가 기록된 로그와 촬영된 영상의 시점을 기반으로 카메라로부터 영상이 촬영된 시점에서의 촬영 위치를 판단할 수 있다.The processing unit 630 can determine the photographing position at the time when the image is taken from the camera based on the log of the camera position information and the time information and the viewpoint of the captured image at regular intervals.

처리부(630)는 GPS 시간을 기준으로 시점값을 재설정함으로써 동기화할 수 있다. The processing unit 630 can synchronize by resetting the viewpoint value based on the GPS time.

도 1 내지 도 6을 통하여, 카메라를 예로서 본 발명의 실시예들을 설명하였다. 그러나, 본 발명의 다른 실시예들은 이미지 센서를 포함하는 카메라뿐만 아니라, 다른 센서 장치들에게 동일하게 적용될 수 있다.1 to 6, embodiments of the present invention have been described by taking a camera as an example. However, other embodiments of the present invention are equally applicable to other sensor devices as well as cameras including image sensors.

즉, 무선 통신 인터페이스는 상기 센서 장치와 상기 통신 장치 사이의 무선 통신을 제공할 수 있으며, 처리부는 통신 장치의 위치, 상기 센서 장치로부터 수신된 센서 데이터 및 상기 센서 장치에 의하여 측정된 상기 센서 데이터가 측정되는 시점에 대한 정보로부터 상기 센서 데이터의 측정 위치를 추정할 수 있다.That is, a wireless communication interface may provide wireless communication between the sensor device and the communication device, wherein the processing unit is configured to determine the location of the communication device, the sensor data received from the sensor device, and the sensor data measured by the sensor device The measurement position of the sensor data can be estimated from the information on the time when the measurement is made.

센서 장치에 대해서는 도 1 내지 도 6을 통하여 설명된 내용이 그대로 적용될 수 있으므로, 보다 자세한 설명은 생략한다.1 to 6 can be directly applied to the sensor device, and thus a detailed description thereof will be omitted.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA) , A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (17)

삭제delete 삭제delete 카메라와 통신하는 통신 장치에 있어서,
상기 카메라와 상기 통신 장치 사이의 무선 통신을 위한 무선 통신 인터페이스;
상기 통신 장치의 위치를 검출하는 위치 센서; 및
상기 통신 장치의 위치, 상기 카메라로부터 수신된 영상 및 상기 카메라에 의하여 측정된 상기 영상이 촬영되는 시점에 대한 정보로부터 상기 영상의 촬영 위치를 추정하는 처리부
를 포함하고,
상기 처리부는,
상기 카메라에 의하여 상기 영상이 촬영된 시점의 RTC(real time counter 또는 real time clock)에 의해 획득되는 제1 시점과 상기 카메라에 의하여 상기 촬영된 영상이 전송되는 시점의 RTC에 의해 획득되는 제2 시점 사이의 차를 이용하여 상기 영상이 촬영된 위치를 추정하며,
상기 카메라로부터 상기 영상이 촬영됨에 따라 기록된 제1 시점에 대응하는 제1 시점값 및 상기 카메라로부터 상기 촬영된 영상이 전송되는 제2 시점에 대응하는 제2 시점값을 수신하고, 상기 카메라로부터 상기 영상이 전송되는 제2 시점값에 대응하는 GPS 시간을 추출하는
것을 특징으로 하는 통신 장치.
A communication device for communicating with a camera,
A wireless communication interface for wireless communication between the camera and the communication device;
A position sensor for detecting a position of the communication device; And
A processing unit for estimating a photographing position of the image from information on a position of the communication device, an image received from the camera, and a time when the image measured by the camera is photographed,
Lt; / RTI >
Wherein,
A second time point obtained by a RTC at a time point at which the image captured by the camera is transmitted and a first time point obtained by a real time counter (RTC) And estimates a position at which the image is photographed,
Receiving a first viewpoint value corresponding to a first point of time recorded as the image is captured from the camera and a second viewpoint value corresponding to a second point of time at which the captured image is transmitted from the camera, The GPS time corresponding to the second viewpoint value at which the video is transmitted
Wherein the communication device is a communication device.
제3항에 있어서,
상기 처리부는,
상기 카메라로부터 수신된 제2 시점값에 대응하는 GPS 시간을 기반으로 상기 제1 시점값에 대응하는 GPS 시간을 추정하여 상기 카메라에서 영상이 촬영된 시점을 판단하는
것을 특징으로 하는 통신 장치.
The method of claim 3,
Wherein,
Estimating a GPS time corresponding to the first viewpoint value based on a GPS time corresponding to a second viewpoint value received from the camera and determining when the camera captured the image
Wherein the communication device is a communication device.
제3항에 있어서,
상기 처리부는,
일정 주기로 상기 카메라의 위치 정보 및 시간 정보에 대한 로그를 기록하는
것을 특징으로 하는 통신 장치.
The method of claim 3,
Wherein,
A log of the position information and time information of the camera is recorded at regular intervals
Wherein the communication device is a communication device.
제3항에 있어서
상기 처리부는,
일정 주기로 상기 카메라의 위치 정보 및 시간 정보가 기록된 로그와 상기 촬영된 영상의 시점을 기반으로 상기 카메라로부터 상기 영상이 촬영된 시점에서의 촬영 위치를 판단하는
것을 특징으로 하는 통신 장치.
The method of claim 3, wherein
Wherein,
A log in which the positional information and time information of the camera are recorded at a predetermined cycle and a photographing position at the time of photographing the image from the camera are determined based on the viewpoint of the captured image
Wherein the communication device is a communication device.
제3항에 있어서
상기 처리부는,
상기 GPS 시간을 기준으로 상기 시점값을 재설정함으로써 동기화하는
것을 특징으로 하는 통신 장치.
The method of claim 3, wherein
Wherein,
And synchronizing by resetting the viewpoint value based on the GPS time
Wherein the communication device is a communication device.
제3항에 있어서
상기 처리부는,
상기 통신 장치의 위치, 상기 카메라로부터 수신된 영상 및 상기 카메라에 의하여 측정된 상기 영상이 촬영되는 시점에 대한 정보 및 상기 영상의 촬영 위치에 대한 정보를 클라우드 서버로 전송하는
것을 특징으로 하는 통신 장치.
The method of claim 3, wherein
Wherein,
Information on a position of the communication device, an image received from the camera, information on a time point at which the image measured by the camera is captured, and information about a photographing position of the image is transmitted to the cloud server
Wherein the communication device is a communication device.
삭제delete 삭제delete 카메라와 통신하는 통신 방법에 있어서,
상기 카메라와 통신 장치 사이의 무선 통신을 위한 무선 통신 인터페이스를 제공하는 단계;
위치 센서로부터 상기 통신 장치의 위치를 검출하는 단계; 및
상기 통신 장치의 위치, 상기 카메라로부터 수신된 영상 및 상기 카메라에 의하여 측정된 상기 영상이 촬영되는 시점에 대한 정보로부터 상기 영상의 촬영 위치를 추정하는 단계
를 포함하고,
상기 영상의 촬영 위치를 추정하는 단계는,
상기 카메라에 의하여 상기 영상이 촬영된 시점의 RTC에 의해 획득되는 제1 시점과 상기 카메라에 의하여 상기 촬영된 영상이 전송되는 시점의 RTC에 의해 획득되는 제2 시점 사이의 차를 이용하여 상기 영상이 촬영된 위치를 추정하며,
상기 카메라로부터 상기 영상이 촬영됨에 따라 기록된 제1 시점에 대응하는 제1 시점값 및 상기 카메라로부터 상기 촬영된 영상이 전송되는 제2 시점에 대응하는 제2 시점값을 수신하고, 상기 카메라로부터 상기 영상이 전송되는 제2 시점값에 대응하는 GPS 시간을 추출하는
것을 특징으로 하는 통신 방법.
A communication method for communicating with a camera,
Providing a wireless communication interface for wireless communication between the camera and the communication device;
Detecting a position of the communication device from a position sensor; And
Estimating a photographing position of the image from information on a position of the communication device, an image received from the camera, and a time when the image measured by the camera is photographed
Lt; / RTI >
Wherein the step of estimating the photographing position of the image comprises:
A difference between a first time point obtained by the RTC at the time when the image is captured by the camera and a second time point obtained by the RTC at the time when the captured image is transmitted by the camera, Estimates the photographed position,
Receiving a first viewpoint value corresponding to a first point of time recorded as the image is captured from the camera and a second viewpoint value corresponding to a second point of time at which the captured image is transmitted from the camera, The GPS time corresponding to the second viewpoint value at which the video is transmitted
Lt; / RTI >
제11항에 있어서,
상기 영상의 촬영 위치를 추정하는 단계는,
상기 카메라로부터 수신된 제2 시점값에 대응하는 GPS 시간을 기반으로 상기 제1 시점값에 대응하는 GPS 시간을 추정하여 상기 카메라에서 영상이 촬영된 시점을 판단하는 단계
를 포함하는 통신 방법.
12. The method of claim 11,
Wherein the step of estimating the photographing position of the image comprises:
Estimating a GPS time corresponding to the first viewpoint value based on a GPS time corresponding to a second viewpoint value received from the camera,
/ RTI >
제11항에 있어서,
상기 영상의 촬영 위치를 추정하는 단계는,
일정 주기로 상기 카메라의 위치 정보 및 시간 정보에 대한 로그를 기록하는 판단하는 단계
를 포함하는 통신 방법.
12. The method of claim 11,
Wherein the step of estimating the photographing position of the image comprises:
A step of recording a log of the position information and the time information of the camera at regular intervals
/ RTI >
제12항에 있어서
상기 영상의 촬영 위치를 추정하는 단계는,
일정 주기로 상기 카메라의 위치 정보 및 시간 정보가 기록된 로그와 상기 촬영된 영상의 시점을 기반으로 상기 카메라로부터 상기 영상이 촬영된 시점에서의 촬영 위치를 판단하는 단계
를 포함하는 통신 방법.
The method of claim 12, wherein
Wherein the step of estimating the photographing position of the image comprises:
Determining a photographing position at a time point when the image is photographed from the camera based on a log in which the positional information and time information of the camera are recorded at regular intervals and a viewpoint of the photographed image
/ RTI >
제11항에 있어서
상기 영상의 촬영 위치를 추정하는 단계는,
상기 GPS 시간을 기준으로 상기 시점값을 재설정함으로써 동기화하는 단계
를 포함하는 통신 방법.
The method of claim 11, wherein
Wherein the step of estimating the photographing position of the image comprises:
Synchronizing by resetting the viewpoint value based on the GPS time
/ RTI >
제11항에 있어서
상기 영상의 촬영 위치를 추정하는 단계는,
상기 통신 장치의 위치, 상기 카메라로부터 수신된 영상 및 상기 카메라에 의하여 측정된 상기 영상이 촬영되는 시점에 대한 정보 및 상기 영상의 촬영 위치에 대한 정보를 클라우드 서버로 전송하는 단계
를 포함하는 통신 방법.
The method of claim 11, wherein
Wherein the step of estimating the photographing position of the image comprises:
Transmitting information about a position of the communication device, an image received from the camera, information about a time when the image measured by the camera is captured, and a photographing position of the image to a cloud server
/ RTI >
삭제delete
KR1020150161920A 2015-11-18 2015-11-18 Low-power wireless camera and sensor system KR101692643B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020150161920A KR101692643B1 (en) 2015-11-18 2015-11-18 Low-power wireless camera and sensor system
CN201611136132.2A CN107018318B (en) 2015-11-18 2016-11-15 Low-power consumption wireless camera and sensor system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150161920A KR101692643B1 (en) 2015-11-18 2015-11-18 Low-power wireless camera and sensor system

Publications (1)

Publication Number Publication Date
KR101692643B1 true KR101692643B1 (en) 2017-01-03

Family

ID=57797436

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150161920A KR101692643B1 (en) 2015-11-18 2015-11-18 Low-power wireless camera and sensor system

Country Status (2)

Country Link
KR (1) KR101692643B1 (en)
CN (1) CN107018318B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220077336A (en) * 2020-12-02 2022-06-09 김동섭 Video processing method and device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008235971A (en) * 2007-03-16 2008-10-02 Nec Corp Imaging apparatus and stereoscopic shape photographing method in imaging apparatus
JP2012205038A (en) * 2011-03-25 2012-10-22 Olympus Imaging Corp Image display device and image display method
KR20150093065A (en) * 2014-02-06 2015-08-17 옥은호 The positioning camera system and method tehefor

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001290820A (en) * 2000-01-31 2001-10-19 Mitsubishi Electric Corp Video gathering device, video retrieval device, and video gathering and retrieval system
JP2005283195A (en) * 2004-03-29 2005-10-13 Olympus Corp Position detection system and imaging apparatus
CN1782731A (en) * 2004-11-30 2006-06-07 福成电子厂股份有限公司 Global positioning system and method
JP2007005895A (en) * 2005-06-21 2007-01-11 Olympus Imaging Corp Photographing system
JP4670622B2 (en) * 2005-12-12 2011-04-13 ソニー株式会社 Information processing apparatus, information processing method, and computer program
JP2008271325A (en) * 2007-04-23 2008-11-06 Olympus Imaging Corp Digital camera
GB2462252A (en) * 2008-07-28 2010-02-03 Geotate Bv Satellite positioning apparatus and method for cameras measuring electromagnetic interference
JP5401103B2 (en) * 2009-01-21 2014-01-29 日立コンシューマエレクトロニクス株式会社 Video information management apparatus and method
JP5698551B2 (en) * 2011-02-04 2015-04-08 キヤノン株式会社 Information processing apparatus and control method thereof
WO2012165088A1 (en) * 2011-05-31 2012-12-06 富士フイルム株式会社 Image-capturing device and program
JP5991748B2 (en) * 2012-08-28 2016-09-14 キヤノン株式会社 Recording apparatus, imaging apparatus and method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008235971A (en) * 2007-03-16 2008-10-02 Nec Corp Imaging apparatus and stereoscopic shape photographing method in imaging apparatus
JP2012205038A (en) * 2011-03-25 2012-10-22 Olympus Imaging Corp Image display device and image display method
KR20150093065A (en) * 2014-02-06 2015-08-17 옥은호 The positioning camera system and method tehefor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220077336A (en) * 2020-12-02 2022-06-09 김동섭 Video processing method and device
KR102410487B1 (en) 2020-12-02 2022-06-20 김동섭 Video processing method and device

Also Published As

Publication number Publication date
CN107018318B (en) 2020-07-14
CN107018318A (en) 2017-08-04

Similar Documents

Publication Publication Date Title
EP3248374B1 (en) Method and apparatus for multiple technology depth map acquisition and fusion
US9500535B1 (en) Determining temperature using multiple sensors
EP2999276B1 (en) Method and terminal for reporting sensor data
KR102462799B1 (en) Method and apparatus for estimating pose
US8891823B2 (en) Apparatus, control method, and storage medium for acquiring and storing position information in association with image data
KR101821692B1 (en) Image collecting method and apparatus
EP4040783A1 (en) Imaging device, camera-equipped drone, and mode control method, and program
EP2992403B1 (en) Depth sensors
US9912846B2 (en) Obtaining calibration data of a camera
US20140141823A1 (en) Communication device, comunication method and computer program product
WO2014064321A1 (en) Personalized media remix
KR101692643B1 (en) Low-power wireless camera and sensor system
CN103002277A (en) Method for image processing of image data recorded with an optical sensor in a motor vehicle, and a motor vehicle
JP2014072899A5 (en)
CN104116505B (en) Pulse estimation unit
JP2012527801A (en) Method and apparatus for capturing a digital image
US20220051005A1 (en) Walking estimation system, walking estimation method, and computer readable-medium
CN114098716B (en) Method and device for acquiring motion gesture
KR101273634B1 (en) Tracking Method of Multiple Objects using Mobile Device in Augumented Reality Environment and System Using the same
JP2011082770A (en) Data generation apparatus, method of controlling the same, and program
WO2014006859A1 (en) Position management device, position management system, position management method, and position management program
CN112712006A (en) Target picture snapshot method, system, medium and device
TWM410314U (en) A status recorder for use with a sensor built in a hand held device
KR20120050182A (en) Method and apparatus for correcting position
CN111866366A (en) Method and apparatus for transmitting information

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191030

Year of fee payment: 4